JP3705144B2 - Performance data change processing device - Google Patents

Performance data change processing device Download PDF

Info

Publication number
JP3705144B2
JP3705144B2 JP2001095514A JP2001095514A JP3705144B2 JP 3705144 B2 JP3705144 B2 JP 3705144B2 JP 2001095514 A JP2001095514 A JP 2001095514A JP 2001095514 A JP2001095514 A JP 2001095514A JP 3705144 B2 JP3705144 B2 JP 3705144B2
Authority
JP
Japan
Prior art keywords
pitch
performance data
predetermined
performance
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001095514A
Other languages
Japanese (ja)
Other versions
JP2002297139A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001095514A priority Critical patent/JP3705144B2/en
Publication of JP2002297139A publication Critical patent/JP2002297139A/en
Application granted granted Critical
Publication of JP3705144B2 publication Critical patent/JP3705144B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ロール奏法のように、短い時間間隔で反復発音される楽音信号の音色に、広がり感を持たせるようにする演奏データ変更処理技術に関するものである。
【0002】
【従来の技術】
電子楽器において、操作子による1回の発音指示により、所定の楽音信号を繰り返し発音させるものが、例えば、実公平7−31277号公報、特許第2692675号明細書等で知られている。このような所定の楽音信号を繰り返し発生させることにより、ロール奏法を模擬することができる。
ロール奏法とは、アコースチック(自然楽器)のスネアドラム,ティンパニ等のドラム系楽器で行われている奏法の1種であって、振動膜をスティックで細かく連続的に叩いて演奏するものである。
しかし、このような発音を行わせるための演奏データを、シーケンサの打ち込みで作成する場合に、単に細かな音符に対応する演奏データを自動的に連続的に作成したり、細かな音符に対応する演奏データを個々にそのまま打ち込んだりしたときには、この演奏データで音源を鳴らしたときに、短い時間間隔で楽音信号が反復して発音されるだけである。その結果、騒々しいだけの音になってしまい、アコースチックドラムのような豊かな音の広がり感が出ないという問題があり、特にPCM音源において著しかった。
【0003】
【発明が解決しようとする課題】
本発明は、上述した問題点を解決するためになされたもので、ロール奏法のように、短い時間間隔で楽音信号を連続的に反復発音させるときなどにおいて、楽音信号の音色に広がり感を持たせるための演奏データ変更処理装置および演奏データ変更処理プログラムが記録された記録媒体を提供することを目的とするものである。
【0004】
【課題を解決するための手段】
本発明は、請求項1に記載の発明においては、演奏データ変更処理装置において、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングの前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の前記発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更することにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理手段を有するものである。
したがって、入力された演奏データ列に含まれる楽音信号の各発音タイミングにおける音高が分散したものとなって、単調な響きになりがちな連続音の楽音信号に簡単な構成で新たな非調和成分を付加することができ、楽音信号の音色に広がり感を持たせることができる。
ある発音タイミングにおける音高を変更するための具体的構成としては、例えば、キーオンデータおよびキーオフデータ中のノートナンバを変更することにより、演奏データ列中の音高指定データそのものを変更する。あるいは、音高指定データの設定を演奏時に変更するための演奏データ、例えば、ピッチベンドを挿入する。
【0005】
請求項2に記載の発明においては、演奏データ変更処理装置において、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、対応する楽音生成パラメータ列を作成するとともに、前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングにおいては、前記音高指定データにより指定された前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更して指定する楽音生成パラメータを作成することにより、前記音高が分散するように処理された楽音生成パラメータ列を出力する演奏データ処理手段を有するものである。
したがって、入力された演奏データ列に対応する楽音生成パラメータ列に含まれる各発音タイミングの音高が分散したものとなって、単調な響きになりがちな連続音の楽音信号に簡単な構成で新たな非調和成分を付加することができ、楽音信号の音色に広がり感を持たせることができる。
【0006】
請求項3に記載の発明においては、請求項1または2に記載の演奏データ変更処理装置において、入力する前記演奏データ列を、前記演奏データ処理手段よりも先に入力し、前記演奏区間を設定する処理区間設定手段を有するものである。したがって、演奏データを処理するのに適した演奏データの処理区間を設定することができる。この手段は、ユーザが操作子を用いて手動で設定するものであってもよいし、自動検出で設定するものであってもよい。
【0007】
請求項4に記載の発明においては、演奏データ変更処理装置において、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、該所定の楽音信号の演奏データを出力する代わりに、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくすることにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理手段を有するものである。
したがって、短い時間間隔で連続的に作成された各発音タイミングにおける音高が分散したものとなって、単調な響きになりがちな連続音の楽音信号に簡単な構成で新たな非調和成分を付加することができ、楽音信号の音色に広がり感を持たせることができるとともに、自然な響きになる。
ある発音タイミングにおける音高を変更するための具体的構成としては、演奏データ列中の音高指定データそのものを変更するか、音高指定データの設定を演奏時に変更するための演奏データを挿入する。
【0008】
請求項5に記載の発明においては、演奏データ変更処理装置において、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、対応する楽音生成パラメータ列を作成するとともに、所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更して指定するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくして指定する楽音生成パラメータを作成することにより、前記音高が分散するように処理された楽音生成パラメータ列を出力する演奏データ処理手段を有するものである。
したがって、楽音生成パラメータ列に含まれる、短い時間間隔で連続的に作成された各発音タイミングにおける音高が分散したものとなって、単調な響きになりがちな連続音の楽音信号に簡単な構成で新たな非調和成分を付加することができ、楽音信号の音色に広がり感を持たせることができるとともに、自然な響きになる。
【0009】
請求項6に記載の発明においては、演奏データ変更処理プログラムが記録されたコンピュータ読み取り可能な記録媒体において、コンピュータに実行させるための演奏データ変更処理プログラムが、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力する入力ステップ、および、前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングの前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の前記発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更することにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理ステップを有するものである。
したがって、演奏データ変更処理プログラムをコンピュータに実行させることにより、請求項1に記載の発明と同様の作用を奏する。
【0010】
請求項7に記載の発明においては、演奏データ変更処理プログラムが記録された記録媒体において、コンピュータに実行させるための演奏データ変更処理プログラムが、楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力する入力ステップ、および、所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、該所定の楽音信号の演奏データを出力する代わりに、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくすることにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理ステップを有するものである。
したがって、演奏データ変更処理プログラムをコンピュータに実行させることにより、請求項4に記載の発明と同様の作用を奏する。
【0011】
上述した各発明において、音高の変更はわずかな量でよい。半音に必ずしも限らないが、例えば、半音上の音高、あるいは半音下の音高に変更する。また、例えば、入力されたキーオンデータの1つおきに元の音高から音高を変更させる。変更は、元の音高から音高を上げる、音高を下げる、または音高を1つおきに交互に上げ下げをする。
なお、音高の変更と同時に、入力されたキーオンデータの発音タイミングおよびまたは音量を変更するとよい。すなわち、入力時の発音タイミングおよび音量から、所定のパターンあるいはランダムなパターンで変更されるように演奏データを処理して、演奏データを出力したり、楽音生成パラメータを出力したりすることにより、人間の演奏に近い表情付けを加えることができる。
さらに加えて、一部の発音タイミングの音高を、音高指定データにより指定された音高から上方に変更するとともに、上方に変更された発音タイミングの音量を、変更前の音量よりも相対的に小さくすれば、自然な響きになる。
もともと非調和成分が比較的多く含まれている打楽器音色の楽音信号を発音させるための演奏データについて処理を行うことにより、音高の変化がさほど目立たずに、楽音信号の音色に広がり感を持たせることができる。
【0012】
【発明の実施の形態】
図1は、本発明の演奏データ変更処理装置の実施の一形態の説明図である。
図1(a)は、主として演奏データの編集モード等において、演奏データを変更処理して出力する場合の機能構成図である。
1は曲データメモリであって、演奏データ列を出力する。曲データは、曲全体のデータでも作成途中の部分的なデータでもよい。曲データのファイル形式としては、SMF(Standard MIDI File)、あるいは、メーカ独自の各種のファイル形式が用いられるが、特に制約はない。各形式に応じて演奏データを変更すればよい。
なお、編集モードにおいては、元の曲データメモリから編集作業用のメモリに曲データを全てロードしてから処理をする場合もある。この場合、編集作業用のメモリを図示の曲データメモリ1とする。
【0013】
演奏データとして、MIDI(Musical Instrument Digital Interface)イベント等のイベントデータが、直前のイベントからの経過時間を表す時間情報とともに記録されている。MIDIイベントデータには、発音が指示されるキーオン(ノートオン)データが含まれる。
キーオンデータは、各発音タイミングにおける楽音信号の音高(音の高さ)を表すノートナンバ、および、発音の強さを表すベロシティを有している。また、MIDIチャンネル番号を含んでいる。音符の長さは、例えば、ある音高のキーオン(ノートオン)データの発生タイミングから同じ音高の次のキーオフ(ノートオフあるいはベロシティゼロのノートオン)データの発生タイミングまでの経過時間(ゲートタイム)によって決定される。
【0014】
2は演奏データ処理部であって、演奏データ列を入力し、発音タイミングを示すキーオンデータが、短い時間間隔で連続的に発生し、かつ音高を指定するノートナンバの値が一致している区間に対し、一部のキーオンデータを変更する。これにより、楽音信号の各発音タイミングの音高が分散するように処理された演奏データ列を曲データメモリ3に出力する。曲データメモリ3は、処理された演奏データ列を入力して、編集された曲データとして記憶する。
キーオンデータの処理に伴い、対応するキーオフ(ノートオフ)データあるいはベロシティがゼロのキーオンデータについても同様に、音高を指定するノートナンバの変更処理を行う。なお、発音開始後、短時間で減衰する楽音の場合には、キーオフデータあるいはベロシティがゼロのキーオンデータを省略可能な仕様にしてもよい。
【0015】
4は処理区間設定部であって、演奏データ列を処理する区間を決める場合に使用する。処理区間設定部4は、入力する演奏データ列を演奏データ処理部2よりも先に入力し、キーオンデータが短い時間間隔で連続的に発生し、かつ、同じ音高で発音される演奏区間を検出する。処理すべき全区間を予め検出してもよいが、連続する数個のキーオンデータの発生間隔を逐次検出するようにして、演奏データを処理すべき区間を検出してもよい。
図示のように曲データメモリ1から演奏データ列を入力する場合には、曲データメモリ1から演奏データ列を先読みすればよい。この検出は、自動的に行うか、ユーザが設定操作子を用いて、表示器などで先読みした演奏データ列を見ながら演奏区間を設定してもよい。表示形式としては、スタッフ(楽譜)形式、ピアノロール形式、イベントデータリスト形式などがある。
【0016】
5は処理チャンネル設定部であって、演奏データ中に含まれるMIDIチャンネルに楽器音色が指定されている場合、あるいは、演奏データが複数のトラックに分けて記録され、各トラックに楽器音色が指定され、各記録トラックからの演奏データ列が、対応するMIDIチャンネルを通して入力される場合に、処理チャンネルを設定することができる。MIDIチャンネルは、音源の任意のパートに割り当て可能である。
ユーザは、MIDIチャンネルあるいは記録トラックに、ティンパニ,スネアドラム等のドラム系の打楽器音色を、バンクセレクト,プログラムチェンジで設定している。あるいは、音源のパートに対し直接的に音色を設定する。
演奏データ処理部2で行う処理は、ティンパニ,スネアドラム等のドラム系の打楽器の音色が設定されたMIDIチャンネルやパートに対して行うと好適である。
なお、あるMIDIチャンネルの演奏データが全て処理すべき演奏データであることがわかっているときには、処理区間設定部4が不要である。
また、曲データメモリ3を一時記憶バッファとして、処理済みの演奏データ列を一時記憶しておき、各処理区間毎の編集処理が終了した後、元の編集作業用のメモリに戻して記憶させるようにしてもよい。
また、曲データの自動演奏モードにおいては、処理された演奏データ列をリアルタイムで楽音信号生成部6に出力して、楽音信号の生成を行ってもよい。
【0017】
図1(b)は、自動演奏モード等において、演奏データを入力して楽音生成パラメータを出力する場合の機能構成図である。図1(a)と同様な部分には同じ符号を付して説明を省略する。
演奏データ処理部7は、演奏データ列を入力し、入力された演奏データ列に対応する楽音生成パラメータ列を作成して、楽音信号生成部8に出力する。楽音信号生成部8は、出力された楽音生成パラメータ列に基づいて楽音信号を生成する。
その際、演奏データ処理部7は、各発音タイミングが短い時間間隔で連続的に発生しかつ音高指定データが一致している演奏区間に対して、一部の各発音タイミングにおいては、音高指定データにより指定された音高を変更して指定する楽音生成パラメータを作成することにより、音高が分散するように処理された楽音生成パラメータ列を出力する。
【0018】
図1(a),図1(b)を参照した説明では、入力される演奏データは、曲データメモリから読み出していた。
しかし、演奏データは、外部の演奏機器の曲データメモリからも入力できる。
特に、ネットワーク上のサーバから、演奏データを入力しながら演奏するストリーミング再生モードで入力することもできる。
これらの場合は、一時記憶バッファを曲データメモリ1とする。これに演奏データを書込むことにより先読みが可能となり、処理する演奏区間を自動または手動で設定することができる。
上述した説明では、編集モードおよび自動演奏モードに適用した場合を説明した。この他、ユーザが鍵盤やドラムパッド、フットペダル、フットスイッチ等の演奏操作子を用いてリアルタイムで実演奏するモードにも適用が可能である。この場合、先読みができないので処理遅延が発生する。
【0019】
上述した説明では、入力されたキーオンデータが短い時間間隔で連続的に発生し、かつ、同じ音高を指定している演奏区間内の各発音タイミングの一部における音高を変更する処理を行った。
一方、従来のシーケンサ・ソフトウエアにおいて、画面に表示された音符に記号を付すことによって、音楽表現や演奏方法等(例えば、トレモロ、トリル、ビブラート)を指示している。
したがって、同様にして、これまで説明したような、短い時間間隔でキーオンデータを連続的に発生させ、この間において音高の分散された発音をさせる奏法に対して、プレイスタイル、例えば、「ロール奏法」を定義し、この「ロール奏法」を指示する演奏データを、曲データ中に挿入できるようにしてもよい。
【0020】
図1(a)において、処理区間設定部4が、ある音符に対して「ロール奏法」を指示する演奏データと、対象となるこの音符を指示する演奏データ(キーオンデータ、および、キーオフデータまたはベロシティがゼロのキーオンデータ)を検出すると、演奏データ処理部2では、音符の発音タイミングから発音終了タイミングまでの発音区間に対し、この音符を指示する演奏データを出力する代わりに、複数の楽音信号の発音タイミングを短い時間間隔で連続的に作成し、かつ、当該複数の発音タイミングの一部においては、音高をノートナンバにより指定された音高から変更することにより、音高が分散するように処理された前記演奏データ列を、曲データメモリ3あるいは楽音信号生成部6に出力する。一方、それぞれの発音終了タイミングは、ドラム系打楽器音が減衰音であれば楽譜表示以外には余り意味がない。したがって、音長の短い音符になるように発音終了タイミングを決めればよい。
なお、この場合、曲データメモリ3に出力する演奏データについては、入力された演奏データそのものを記憶させるようにしてもよい。言い換えれば、ある音符に対して単に「ロール奏法」を指示する演奏データを、その音符とともにそのまま記憶させてもよい。
【0021】
図1(b)でも同様であって、処理区間設定部4が、「ロール奏法」を指示する演奏データと、このロール奏法を適用する音符を指示するデータを検出すると、演奏データ処理部7では、入力された演奏データに対応する楽音生成パラメータ列を作成するとともに、指示された音符の発音区間に対し、複数の楽音信号の発音タイミングを短い時間間隔で連続的に作成し、かつ、当該複数の発音タイミングの一部においては、音高をノートナンバにより指定された音高から変更して指定する楽音生成パラメータを作成して、楽音信号生成部8に出力する。
【0022】
この他、演奏データ列中に「ロール奏法」を指示する演奏データが含まれていなくてもよい。この場合、ユーザが、処理区間設定部4において、入力されたある音符に対して「ロール奏法」を設定すると、図1(a)において、演奏データ処理部2は、設定された音符の発音区間に対し、この音符を指示する演奏データを出力する代わりに、複数の楽音信号の発音タイミングを短い時間間隔で連続的に作成し、かつ、当該複数の発音タイミングの一部においては、音高を音高指定データにより指定された前記音高から変更することにより、前記音高が分散するように処理された前記演奏データ列を出力する。
同様に、図1(b)においては、ユーザが、処理区間設定部4において、入力されたある音符に対する「ロール」奏法を設定すると、演奏データ処理部7は、指定された音符の発音区間内において、複数の楽音信号の発音タイミングを短い時間間隔で連続的に作成し、かつ、当該複数の発音タイミングの一部においては、音高をノートナンバにより指定された音高から変更して指定する楽音生成パラメータを作成する。
【0023】
図2は、本発明の実施の一形態による演奏データの一変換例の説明図である。
図中、図2(a)はロール奏法を譜面上に表示したときの説明図、図2(b)はロール奏法を実現するための従来の演奏データの説明図、図2(c)はロール奏法を実現するための本発明の実施の一形態による演奏データの説明図である。
なお、図2(b),図2(c)は、ピアノロール表示であり、縦軸は音の高さを半音単位で示し、横軸は経過時間を4分音符単位で示している。棒表示が各音符の発音開始タイミングから発音終了タイミングまでの音長(ゲートタイム)を表している。
【0024】
図2(a)においては、「ロール奏法」を、トレモロの記譜方法で表示している。2重斜線が引かれた2分音符11は、同じ音名の16分音符を2分音符の長さの期間において8回反復させることを表している。この譜例を、シーケンサ・ソフトウエアで楽典通りに打ち込めば、図2(b)に示すように、音高(音の高さ、ピッチ)、音長、音量が均一な、8個の16分音符12に対応する演奏データ列になる。しかし、このままでは、短い時間で同じ楽音信号が反復して発音されるだけで、アコースチックドラムのような豊かな音の広がりが出せない。
これを少しでも自然な響きに修正するために、図2(b)に示すように、同じ音高で短い時間間隔で連続した16分音符12の音高を、図2(c)に示すように、1個おきに、元の音高から上に半音ずれた16分音符13に変更することにより、全体として、音高のばらついた音符列に変更する。
【0025】
図1(a)の演奏データ処理部2は、演奏データをこのような16分音符12,13に対応する演奏データに変更し、図1(b)の演奏データ処理部7は、このような16分音符12,13を発音させる楽音生成パラメータを作成して出力する。
図示の例では、予め決まった音高の音符と、これより半音上の音高の音符とを交互に鳴らすようにしている。この他、予め決まった音高の音符と、これより半音下の音高の音符とを交互に鳴らしてもよい。予め決まった音高の音符と、これより半音上の音高の音符、これより半音下の音高の音符の3つの音高を順次交互にピッチが上下に変化するように鳴らしてもよい。各発音タイミングにおける音高を、元の音高から全て変更して、元の音高を挟む上下の2つの音高を順次交互に変化するようにしてもよい。また、数個を単位に音高をずらせて数個続けて元の音高あるいは変更後の音高となるようにしてもよい。
【0026】
演奏データをこのように処理する第1の具体例としては、一部の発音タイミングに対する音高指定データを変更する。
例えば、キーオンデータに含まれるノートナンバを、発音タイミングの1つおきに、元のノートナンバから+1または−1変更する。なお、キーオンデータに伴って、楽音信号の発音を終了させるキーオフデータまたはベロシティ0のキーオンデータがあるファイル形式では、呼応して、キーオフデータまたはベロシティ0のキーオンデータのノートナンバも同じものに変更する。
【0027】
第2の具体例としては、第1に、キーオンデータに含まれるノートナンバによる音高設定を演奏時に変更するための演奏データ(ピッチベンド)を作成して、上述したキーオンデータの直前に挿入する。
ピッチベンドを挿入することにより、一部の発音タイミングにおけるノートナンバにより指定された音高を変更する。例えば、ある1つのキーオンデータの直前に、元の指定された音高から+1半音または−1半音オフセットさせるピッチベンドを挿入する。
第2に、その次のキーオンデータの直前に、元の指定された音高に戻すピッチベンド(オフセットを0にする)を挿入することにより、音高指定データによる音高をそのまま演奏時に設定する。この第1,第2の処理を、キーオンデータ毎に交互に行う。
【0028】
ドラム系の音色が割り当てられるMIDIチャンネルの演奏データについて、このように加工された演奏データを再生することにより、音色に広がり感のある自然な響きになる。これは、非調和的な倍音を有する音色が割り当てられるチャンネルの演奏データについて有効である。これに対し、調和的な倍音を有する音色、例えば、ストリングス系の音色では、交互の音の高さがそのまま聞こえやすいので、あまり有効でない。
また、音高の高い領域では、交互の音の高さが認識されやすくなるが、低い音高の場合は、交互の音の高さが認識されにくい。
より好ましくは、元の音高から半音上げた音符について、ベロシティ(音量)を小さくするとよい。すなわち、音高がノートナンバにより指定された音高から上方に変更された発音タイミングのベロシティを、変更前のベロシティよりも相対的に小さくすると自然な響きになる。
【0029】
なお、従来、人が演奏するときの感情表現を再現するために、発音のタイミングとベロシティとを変化させて不均一に発音されるように、演奏データを変更している。
本発明の実施の形態においても、音の高さを分散させると同時に、発音タイミング間隔やベロシティなどを、全体的に不均一にさせるように演奏データを処理することにより、人が演奏するときの表情付けをすることができる。
しかも、このように発音タイミングや音の強さを不均一にすることにより、音の高さの変化が認識されにくくなる。
【0030】
ベロシティを全体的に不均一にした場合には、音高がノートナンバにより指定された音高から上方に変更された発音タイミングのベロシティを、ベロシティを全体的に不均一にさせた後の元のベロシティよりも相対的に小さくすればよい。音高が上方に変更されたキーオンデータのベロシティの設定は、元のベロシティから、約8.5%程度小さくなるように設定するとよい。
さらに、生成された楽音信号に掛けるリバーブ効果を強めに掛けると、より自然な響きになる。
また、音高の変更とともに、フィルター係数を変更して、音色を変化させてもよい。音高以外の他の特性を、変化する音高と相関関係を持たせて変化させてもよい。
【0031】
なお、音高変更後の楽音信号は、従来「トリル」と呼ばれている音楽記号を付した音符の楽音信号に似たものとなる。しかし、従来のシーケンサ・ソフトウエアにおいては、「トリル」を指定する演奏データを作成して、トリル演奏を可能とするだけで、同じ音高の音符の発音タイミングが短い時間間隔で連続的に発生している区間の演奏データを変更処理するものではない。
また、トリルが対象とする楽音信号は、主としてピアノやギターのような調和音を持った音色の楽器において、音高の変化を聴かせるためのものであって、音色の広がりは目的とされていない。
これに対し、本発明は、主として、ティンパニやスネアドラム等の急速に減衰する打撃音であって、非調和成分を比較的多く含んだ音色を対象とし、変更処理された演奏データあるいは、楽音生成パラメータによって楽音信号の音色に広がりを持たせるものである。
そのため、音高がノートナンバにより指定された値から上方に変更された発音タイミングのベロシティ(発音の強さ)は、変更前のベロシティよりも相対的に小さくする工夫もしている。
【0032】
図3は、本発明の実施の一形態を実現する電子楽器のハードウエア構成図である。
図中、21はバスであって、CPU(Central Processing Unit)22をはじめとするハードウエアブロックが接続され、データやアドレスが転送される。CPU22は、電子楽器全体の操作入力や表示出力等の一般的な制御動作をするとともに、本発明の演奏データ変更処理を実行したり、演奏データや設定データに基づいて楽音生成パラメータの値を決定したりする。
23はROM(Read Only Memory)であって、本発明の演奏データ変更処理プログラム等、CPU22を動作させるためのプログラムのほか、各種の楽音生成パラメータデータ、曲データ等が記憶されている。24はRAM(Random Access Memory)であって、CPU22がプログラムを実行するときに必要とするワーキングメモリとなる。演奏データや各種データを一時的に格納するレジスタやフラグを記憶する領域を含む。
25はタイマーであって、CPU22のタイマー割り込みに用いられ、自動演奏のテンポクロックも供給する。
【0033】
26は外部接続されたMIDI鍵盤やシーケンサ等の演奏機器であって、インターフェース27を介して演奏データを入力する。シリアルケーブルを介して接続されるほか、ネットワークを介してインターネット上のサーバに接続されて、サーバ側から演奏データを外部記憶装置31にダウンロードする。演奏データを受信しながらストリーミング再生する場合もある。
28はパネルに設けられた設定操作子であって、電子楽器の動作モードや楽音信号の音色,効果等、種々の設定を行う。29は鍵盤やドラムパッド等、音符の発音タイミング等を入力する演奏指示操作子である。自動演奏専用装置の場合は特に必要としない。
30は表示器であって、演奏データや、現在の動作モード、設定状態等を表示する。31は曲データ等を記録再生、あるいは再生のみ可能な外部記憶装置であって、例えば、FDD(フレキシブルディスク駆動装置)、半導体メモリカード記録再生装置、HDD(ハードディスク駆動装置)等である。本発明の演奏データ変更処理プログラムを格納したものでもよい。
【0034】
32は音源であって、バス21を介して入力された楽音生成パラメータに基づいて楽音信号を生成する。33はDSP(Digital Signal Processor)であって、楽音信号にリバーブ等の効果音を付したり、複数パートの楽音信号をミキシング処理したりする。DSP33の出力は、図示しないD/A変換器を介し、アナログの楽音信号にされて、サウンドシステム34に出力される。サウンドシステムでは、音量調整、音量増幅を行ってスピーカ等から楽音信号を放音させる。
【0035】
上述した説明では、本発明をコンピュータ(CPU)により制御される電子楽器を用いて実施する構成を説明したが、本発明は、パーソナルコンピュータを用いても実施することもできる。
この場合、コンピュータに実行させることにより本発明を実現する演奏データ変更処理プログラムを、オペレーティングシステムの下で動作するアプリケーションプログラムとして、CD-ROM等の記録媒体に記録しておき、この記録媒体からハードディスクにインストールする。あるいは、演奏データ変更処理プログラムをネットワーク上のサーバに記録しておき、このサーバからハードディスクにダウンロードする。
音源部およびDSPは、サウンドカード上にハードウエアとして備えて機能を実現させるか、ソフトウエア音源としてCPUで音源機能および効果付加機能を実現させる。処理された演奏データを記憶装置に記憶させるだけで発音させなくてもよい場合には、音源部およびDSPを必要としない。
【0036】
図4ないし図7は、本発明の実施の一形態の適用例を説明するためのフローチャートである。
図4は、メインルーチンのフローチャートである。
まず、電源投入により演奏処理プログラムの実行を開始し、S41において、RAM24の内容をクリアし、レジスタやフラグ等の初期化を行う。
S42において、パネル上の設定操作子28の操作入力イベントを受け付け、電子楽器の曲データの編集や自動演奏などの動作モードの設定や、楽音信号の音色、効果等の種々の設定を行う。
S43において、演奏データに基づいて楽音信号を生成する。自動演奏モードのときに、演奏データは、外部記憶装置31あるいはROM23から読み出されたり、外部の演奏機器26から送信されて来たりする。実演奏モードにおいては、演奏指示操作子29を用いて、演奏者が指示した演奏データが作成される。
S44において発音処理を行う。自動演奏再生あるいは実演奏を実行しているときには、演奏データに基づいて楽音信号を生成し、これに効果処理を付して増幅しスピーカから出力させる。
【0037】
図5は、図4におけるパネル処理の詳細を示すフローチャートである。
S51において、図3に示したパネル上の設定操作子28に操作イベントが発生したか否かを判定し、何らかの操作イベントが発生したときには、S52に処理を進め、このフローの処理が行なわれる。操作イベントが発生していなければ、図4に示したメインのフローチャートに戻る。
S52において、まず操作イベントが表情付けの設定処理に関するものか否かを判定する。そうであれば、S53に処理を進め、そうでなければS54に処理を進める。
ここで、表情付けとは、入力された演奏データに対し、人間が演奏するときのような表情を付けるものである。
このフローチャートでは、表情付けとして、ロール奏法の演奏区間に対し、発音タイミング間隔やベロシティなどを、全体的に不均一にさせる。そして、この表情付けの処理に合わせて、図1,図2を参照して説明したような、音の高さを分散させることにより、楽音信号の音色に広がり感を持たせる処理を行う。
【0038】
S53において、ユーザが選択した表情付けの受け付けを行う。ここで、ロール奏法をさせたいMIDIチャンネル等の指定も行う。
S55において、ユーザがリアルタイム処理の動作モードを設定しているか否かを判定する。ここで、リアルタイム処理とは、ROM23や外部記憶装置31から自動演奏データを読み込んで演奏する場合、あるいは、外部の演奏機器26から送信されてきた演奏データをストリーミング再生する場合、あるいは、演奏指示操作子29によって実演奏する場合を意味する。言い換えれば、演奏データを直ちに処理して楽音信号の生成と発音処理とを行う場合である。
これに対し、リアルタイム処理でない場合とは、演奏データの作成あるいは編集等の加工処理である。
【0039】
リアルタイム処理であればS56に処理を進め、ユーザが選択した表情付けに応じた設定を行い、メインフローチャートに戻る。そうでなければ、S57に処理を進め、表示器30に編集処理を行う曲データが表示されていなければ、曲データを読み出してその表示を行う。
S58において、表情付けの処理を自動処理する選択がなされているか否かを判定し、自動処理が選択されているときには、S59に処理を進め、曲データの編集等の加工を自動的に行う。
一方、自動処理が選択されていないときには、S60に処理を進め、設定操作子28により、ユーザが表情付けを行う範囲と表情付けの具体的な内容を受け付け、S61において、受け付けた範囲と内容とに応じて表情付けの処理を実行して、メインフローに戻る。
【0040】
S52において、表情付けの設定処理がないときにはS54に処理を進め、パネル上の設定操作子28の操作イベントが自動演奏モードを設定するものであるか否かを判定し、そうであればS62に処理を進める。
そうでなければS63に処理を進め、操作イベントに応じた処理を実行してメインフローに戻る。
S62において、外部の演奏機器26からの演奏データを演奏する設定指示であるか否かを判定し、そうであれば、S64に処理を進め、そうでなければS65に処理を進める。
S64において、このモードの具体的な設定内容に関するユーザ選択を受け付け、S66において、外部から入力される演奏データに関する処理を設定して、メインフローに戻る。
【0041】
一方、S65においては、記憶装置に記憶されている自動演奏曲の設定指示であるか否かを判定する。そうであればS67に処理を進め、ユーザが選択した曲を受け付けて、S69において自動演奏曲の演奏データを記憶装置から読み出す設定をし、メインフローに戻る。
一方、自動演奏曲の設定指示でなければS68に処理を進め、ユーザによる再生開始指示であるか否かを判定する。そうであればS70に処理を進め、指定された自動演奏曲の演奏データを読み出して再生を開始し、メインフローに戻る。
再生開始指示でなければ、ユーザによる自動演奏中の停止指示であるか否かを判定する。そうであれば、S72に処理を進め、自動演奏を停止する。
一方、停止指示でなければ、S73に処理を進め、自動演奏に関するその他の指示を実行してメインルーチンに戻る。
【0042】
図6は、図5における曲データ加工の処理の詳細を示すフローチャートである。図示のフローチャートでは、ロール奏法に対する表情付けという1個の表情付けについてのみ説明する。そのため、この他の表情付けも用意されている場合には、表情付けに応じて異なる曲データ加工を行う。
S81において、演奏データを解析する。解析するMIDIチャネル(記録トラック)は、図5のS53において、ユーザ選択により設定されている。例えば、ティンパニの音色が指定されているMIDIチャンネルが設定されている。このステップに置き換えて、バンクセレクト、プログラムチェンジに設定されている音色を自動検出することによって、処理することが適切な、例えば、ティンパニの音色が設定されているMIDIチャンネルを自動検出することも可能である。
【0043】
S82において、解析の結果、自動演奏データの指定チャンネルの演奏データ列において、表情付けを行う条件に適合した演奏区間を決定する。ロール奏法の表情付けを行う対象区間とは、音符で説明すれば、同じ音高の細かな音符、例えば、8分音符よりも短い発音タイミングの音符、例えば、16分音符、32分音符等、が所定個数、連続している期間である。
検出方法としては、同じ音高の隣接するキーオンデータの発生タイミングの間隔が所定以下(4分音符を480クロックに対応させた場合、例えば、120クロック以下)であることを識別し、このキーオンデータが所定個数連続していることを検出する。音符のゲートタイムおよびクロック時間は、テンポによって変化するので、上述した判定条件は、曲データ中のセット・テンポ情報に応じて変更したり、あるいは、ユーザによって任意に設定できるようにする。
【0044】
S83において、ロール奏法の対象区間において、演奏データを修正処理することにより表情付けを行う。具体的には、ロール奏法の演奏区間に対し、発音タイミング間隔やベロシティなどを、全体的に不均一にさせる。そして、この表情付けの処理に合わせて、図1,図2を参照して説明したような、音の高さを分散させることにより、楽音信号の音色に広がり感を持たせる処理を行う。
S84において、修正が終了した演奏データ列を新たに楽曲データとして記憶装置に記憶する。
S85において、修正した演奏データ列を、スタッフ(譜表)やピアノロール形式等で表示器30に表示して、図5のパネル処理フローを経て、図4のメインフローに戻る。
【0045】
図7は、図4における楽音信号の生成処理の詳細を説明するフローチャートである。
S91において、先に図5のS70で自動演奏が開始されて再生中であるか否かを判定し、再生中であればS92に処理を進め、再生中でなければS93に処理を進める。
S92において、選ばれている曲データを読み出す。曲データは、発音させるべき時間よりも前に先読みを行う。
S94において、先に図5のS56において、リアルタイムで表情付けを行う設定がされていたか否かを判定し、そうであれば、表情付けを行うフローに入って、S95に処理を進め、そうでなければ、S93に処理を進め、曲データをそのまま音源32で処理する。
【0046】
S95において、表情付けの対象区間であるか否かを判定する。例えば、ロール奏法であると判定する時間長以上の期間の先読みにより、演奏データを解析することで、表情付けを行う対象区間であるか否かを判定し、対象区間であればS96に処理を進め、対象区間でなければS93に処理を進める。なお、この判定は、図6のS82と同様な処理をリアルタイムで行うことに相当する。
S96において、対象区間の演奏データを、設定された特性条件に応じた表情になるように変更して、S93に処理を進める。
なお、この変更処理は、図6のS83に対応した処理である。したがって、S83と同様に、変更された演奏データを作成してもよい。あるいは、演奏データを作成することなく、音源部において楽音信号を生成するための楽音生成パラメータを直接的に制御してもよい。
【0047】
既に説明したS91において自動演奏の再生中でなければ、S93に処理が進む。S93において、外部の演奏機器から送信された演奏データを再生するように設定されているか否かを判定し、そうであればS97に処理を進め、そうでなければS98に処理を進める。
S97において、送信されている演奏データをバッファに一時保持する。ストリーミング再生のために、演奏データは発音すべき時間よりも以前に送信されている。
S99においては、図5のS56において、リアルタイムで表情付けを行う設定がされていたか否かを判定し、リアルタイムの表情付け処理が設定されているときにはS100に処理を進め、そうでなければ、保持されている演奏データをそのまま音源32で処理する。
【0048】
S100において、バッファに保持されている演奏データを解析し、表情付け処理をする区間であるか否かを判定し、そうであればS101に処理を進め、そうでなければS98に処理を進める。なお、この判定は、S95と同様の処理である。
S101において、対象区間の演奏データを、設定された特性条件に応じた表情になるように変更し、S98に処理を進める。なお、この変更処理は、上述したS96,図6のS83に対応した処理であり、変更された演奏データ、あるいは、変更が反映された楽音生成パラメータを作成する。
S98において、鍵盤やドラムパッド、フットペダル,フットスイッチなどの演奏操作子の操作イベントがあったか否かを判定し、操作イベントがあったときにはS102に処理を進め、操作イベントがなければメインルーチンに戻る。
【0049】
S102において、操作イベントがキーオンイベントであるか否かを判定する。キーオンイベントであればS103に処理を進め、そのキーオンに対応する楽音信号を生成してメインフローに戻る。
S102においてキーオンイベントでないと判定されたときには、S104に処理を進め、操作イベントがキーオフイベントであるか否かを判定する。キーオフイベントであれば、S105に処理を進め、キーオフイベントに対応する発音中の楽音信号の発音を停止するように処理を行い、メインフローに処理を戻す。
S104においてキーオフイベントでないと判定されたときには、S106に処理を進め、その他の演奏操作子の指示に応じた楽音の処理を行い、メインのフローに戻る。
【0050】
上述したフローチャートでは、演奏データ変更処理は、表情付け処理に伴って、第1に、図5のS59、図6のS81ないしS85の編集処理モードにおいて実行される。予め記憶された曲データ中の演奏データか、編集処理で作成され一時バッファに記憶されている演奏データを元にして、音高を変更して、ロール奏法の音色に広がり感を持たせる。
第2に、図7のS96において、曲データを先読みしながら自動演奏するモードで実行される。
第3に、図7のS101において、外部の演奏機器から入力される演奏データを先読みしながら演奏するストリーミング再生モードで実行される。
【0051】
上述した各動作モードにおいては、同一の音高で長さの短い音符の連続性を検知することによって、変更処理する演奏区間を自動検出したり、ユーザが設定操作子を用いて、変更処理する演奏区間を設定したりする。
これに代えて、ロール奏法を指示する演奏データを検出して、このロール奏法の対象とする音符の発音タイミングから発音終了タイミングまでの区間を演奏処理区間としてもよい。
ユーザが実演奏しながら、ロール奏法を指定する演奏操作子(例えば、フットスイッチあるいはドラムパッドを割り付ける)を操作することにより、ロール奏法による発音を開始させると同時に、音高の変更処理を行い、次に、同じ演奏操作子を再操作することにより、ロール奏法による発音を終了させるようにしてもよい。
この実演奏を記憶装置に記録するときには、発音される楽音信号に合わせてキーオンデータ、キーオフデータを作成して記録してもよいし、ロール奏法を指示する演奏データとともに、ロール奏法の対象とする音符に対応するキーオンデータ、キーオフデータを作成して記録すればよい。
【0052】
上述した説明では、ティンパニやスネアドラムなどのドラム系打楽器音色が、音高を指定できるメロディチャンネル用の音色として音源に用意されている場合について説明した。しかし、これ以外に、ドラム用のMIDIチャンネル(通常第10チャンネル、ドラム用のトラック、ドラム用のパート)を設け、このMIDIチャンネルにドラムキットの音色を指定する場合がある。このドラムキットで音高を分散させるには、このドラムキット内に、ティンパニやスネアドラム等のロール奏法用の音色として、音高が異なる(±半音、あるいは±半音程度)音源波形を少なくとも2種類、音源側に用意しておく。
【0053】
ドラム用のMIDIチャンネルに対する、キーオンデータのノートナンバは、音高ではなく、ドラムキットの音色を指定する番号である。したがって、例えば、ティンパニ音色として、音高が異なる第1,第2の音色が用意されているとしたとき、キーオンデータのノートナンバによって、直接的には第1,第2の音色を指定することになる。しかし、実質的には、本来音高を指定していたノートナンバで音高を指定していることになる。
したがって、これまで説明したメロディチャンネル用の演奏データ処理手段によって、ドラム用のMIDIチャンネルについても、全く同様に、音高が分散するように処理された演奏データ列を出力したり、音高が分散するように処理された楽音生成パラメータ列を出力することができる。
【0054】
上述した説明では、電子楽器、あるいは、演奏データ変更処理をパーソナルコンピュータ上で実現する場合について説明した。この他、CPUを内蔵し、プログラムの実行によって機能を実現する電子楽器、ゲーム機、携帯電話機、多機能加入電話機、PDA(Personal Digital Assistant)等においても実現できる。
楽曲データ編集プログラムは、CD-ROM等の記録媒体に記録され、コンピュータのハードディスク装置にインストールされて使用される。あるいは、コンピュータや上述したCPU内蔵機器のROMにあらかじめ書き込まれて使用される。
ネットワーク上のサーバコンピュータ等からコンピュータのハードディスク装置やCPU内蔵機器のフラッシュROMにダウンロードされて使用される。
【0055】
【発明の効果】
本発明は、上述した説明から明らかなように、短い時間間隔で楽音信号を連続的に反復して発音させるときなどにおいて、音色に広がり感を持たせることができるという効果がある。
特に、ドラム音色の割り当てられるチャンネルに対するロール奏法を模擬した発音をさせるときに有効である。
【図面の簡単な説明】
【図1】 本発明の演奏データ変更処理装置の実施の一形態の説明図である。図1(a)は演奏データを変更処理して出力する場合、図1(b)は演奏データを入力して楽音生成パラメータを出力する場合の機能構成図である。
【図2】 本発明の実施の一形態による演奏データの説明図である。図2(a)はロール奏法を譜面上に表示したときの説明図、図2(b)はロール奏法を実現するための従来の演奏データの説明図、図2(c)はロール奏法を実現するための本発明の実施の一形態による演奏データの説明図である。
【図3】 本発明の実施の一形態を実現する電子楽器のハードウエア構成図である。
【図4】 本発明の実施の一形態の適用例を説明するためのメインルーチンのフローチャートである。
【図5】 図4におけるパネル処理の詳細を示すフローチャートである。
【図6】 図5における曲データ加工の処理の詳細を示すフローチャートである。
【図7】 図4における楽音信号の生成処理の詳細を説明するフローチャートである。
【符号の説明】
1 曲データメモリ、2 演奏データ処理部、3 曲データメモリ、4 処理区間設定部、5 処理チャンネル設定部、6 楽音信号生成部、7 演奏データ処理部、8 楽音信号生成部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance data change processing technique for giving a sense of breadth to a tone color of a musical tone signal that is repeatedly generated at short time intervals, such as a roll performance.
[0002]
[Prior art]
In an electronic musical instrument, those that repeatedly generate a predetermined musical sound signal by a single sound generation instruction by an operator are known, for example, in Japanese Utility Model Publication No. 7-312277 and Japanese Patent No. 2692675. By repeatedly generating such a predetermined musical tone signal, a roll performance method can be simulated.
The roll performance is a kind of performance performed on drum-type instruments such as snare drums and timpanis of acoustic (natural musical instruments), and is performed by tapping the diaphragm continuously with a stick. .
However, when creating performance data for generating such pronunciation by sequencer input, performance data corresponding to simple notes is automatically created continuously or corresponding to fine notes. When performance data is individually input as it is, when a sound source is sounded with this performance data, a musical sound signal is only repeatedly generated at short time intervals. As a result, the sound is noisy, and there is a problem that a rich sound spread like an acoustic drum does not appear.
[0003]
[Problems to be solved by the invention]
The present invention has been made to solve the above-described problems, and has a sense of spread in the tone color of the tone signal when the tone signal is continuously repeated at short time intervals, such as in a roll performance. An object of the present invention is to provide a performance data change processing device and a recording medium on which a performance data change processing program is recorded.
[0004]
[Means for Solving the Problems]
According to the present invention, in the performance data change processing device according to the first aspect of the present invention, a performance data string including pitch designation data for designating a pitch at each tone generation timing of a musical tone signal is input, and each tone generation timing is input. But Less than predetermined time For performance intervals that occur continuously at intervals and have the same pitch, In the performance section The pitch at each of the pronunciation timings When the predetermined pitch is referred to, the predetermined pitch is set to one or several sounding timings as a unit, and a sound that is a semitone above or below a predetermined halftone above the predetermined pitch and the predetermined pitch. The pitch is changed so as to alternately change, or the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are changed alternately one after another. Or the pitches above and below the semitone that sandwich the predetermined pitch are sequentially changed alternately. By changing, performance data processing means for outputting the performance data string processed so that the pitches are dispersed is provided.
Therefore, the pitch at each sounding timing of the musical sound signal included in the input performance data string is dispersed, and a new anharmonic component with a simple structure is added to a continuous musical tone signal that tends to be monotonous. Can be added, and the timbre of the musical tone signal can be spread.
As a specific configuration for changing the pitch at a certain sounding timing, for example, the pitch designation data itself in the performance data string is changed by changing the note number in the key-on data and the key-off data. Alternatively, performance data for changing the setting of the pitch designation data during performance, for example, pitch bend is inserted.
[0005]
According to the second aspect of the present invention, in the performance data change processing device, a performance data string including pitch designation data for designating a pitch at each tone generation timing of a musical tone signal is input, and a corresponding musical tone generation parameter string is created. And the pronunciation timing is Less than predetermined time For performance intervals that occur continuously at intervals and have the same pitch, In the performance section At each sound generation timing, the pitch designated by the pitch designation data is changed. When it is referred to as a predetermined pitch, the predetermined pitch is set to one or several sounding timings as a unit, and the predetermined pitch and a pitch that is a semitone above or a half tone below the predetermined pitch. Or so that the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are alternately changed. Or the pitches above and below the semitone that sandwich the predetermined pitch are changed alternately one after the other. It has performance data processing means for outputting a musical tone generation parameter string processed so that the pitches are dispersed by creating a musical tone generation parameter to be specified by changing.
Therefore, the pitch of each tone generation timing included in the tone generation parameter sequence corresponding to the input performance data sequence is dispersed, and a new configuration with a simple structure is added to the continuous tone signal that tends to be monotonous. Therefore, it is possible to add a non-harmonic component, and it is possible to give a sense of spread to the tone color of the musical tone signal.
[0006]
According to a third aspect of the present invention, in the performance data change processing device according to the first or second aspect, the performance data string to be input is input prior to the performance data processing means, and the performance section is set. The processing section setting means to perform is provided. Therefore, a performance data processing section suitable for processing performance data can be set. This means may be set manually by the user using an operator or may be set by automatic detection.
[0007]
According to a fourth aspect of the present invention, in the performance data change processing device, a performance data string including pitch designation data for designating a pitch at each tone generation timing of the tone signal is input, and the tone of the predetermined tone signal is input. Instead of outputting the performance data of the predetermined tone signal for the tone generation interval from the timing to the tone end timing, the tone generation timing of the plurality of tone signals is Less than predetermined time Create continuously at intervals, and Created Multiple pronunciations To Then, the pitch is When the predetermined pitch is referred to, the predetermined pitch and the pitch above the predetermined pitch are alternated with one or several sounding timings as a unit. Or change so that the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are alternately changed. Or, the pitch above the semitone and the pitch below the semitone that sandwich the predetermined pitch are changed alternately one after the other. And change to From the predetermined pitch Performance data processing means for outputting the performance data string processed so that the pitches are dispersed by lowering the volume of the sounding timing changed upward relative to the volume before the change. I have it.
Therefore, the pitch at each sounding timing created continuously at short time intervals is dispersed, and a new anharmonic component is added with a simple configuration to a continuous tone signal that tends to be monotonous. The tone of the musical tone signal can be given a sense of spread and has a natural sound.
As a specific configuration for changing the pitch at a certain sounding timing, the pitch designation data itself in the performance data string is changed, or performance data for changing the setting of the pitch designation data at the time of performance is inserted. .
[0008]
According to the fifth aspect of the present invention, in the performance data change processing device, a performance data string including pitch designation data for designating a pitch at each tone generation timing of a musical tone signal is input, and a corresponding musical tone generation parameter string is created. In addition, the sound generation timings of a plurality of the sound signals are set for the sound generation period from the sound generation timing to the sound end timing of the predetermined music signal. Less than predetermined time Create continuously at intervals, and Created Multiple pronunciations To Then, the pitch is When the predetermined pitch is referred to, the predetermined pitch and the pitch above the predetermined pitch are alternated with one or several sounding timings as a unit. Or change so that the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are alternately changed. Or, the pitch above the semitone and the pitch below the semitone that sandwich the predetermined pitch are changed alternately one after the other. And change to From the predetermined pitch The musical tone generation parameter processed so that the pitches are dispersed by creating a musical tone generation parameter that specifies the volume of the sounding timing changed upward relative to the volume before the change. It has performance data processing means for outputting a sequence.
Therefore, the pitch of each tone generation timing created continuously in short time intervals included in the tone generation parameter string is dispersed, and a simple configuration can be made for a continuous tone tone signal that tends to be monotonous. In this way, a new anharmonic component can be added, and the timbre of the musical tone signal can be spread and have a natural sound.
[0009]
In the invention described in claim 6, a performance data change processing program is recorded. Computer readable An input step in which a performance data change processing program for causing a computer to execute in a recording medium inputs a performance data string including pitch designation data for designating a pitch at each tone generation timing of a musical tone signal, and each of the tone generation timings But Less than predetermined time For performance intervals that occur continuously at intervals and have the same pitch, In the performance section The pitch at each of the pronunciation timings When the predetermined pitch is referred to, the predetermined pitch is set to one or several sounding timings as a unit, and a sound that is a semitone above or below a predetermined halftone above the predetermined pitch and the predetermined pitch. The pitch is changed so as to alternately change, or the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are changed alternately one after another. Or the pitches above and below the semitone that sandwich the predetermined pitch are sequentially changed alternately. A performance data processing step is provided for outputting the performance data string processed so that the pitches are dispersed by changing.
Therefore, by causing the computer to execute the performance data change processing program, the same operation as that of the first aspect of the invention can be achieved.
[0010]
According to the seventh aspect of the present invention, in the recording medium on which the performance data change processing program is recorded, the performance data change processing program for causing the computer to execute the pitch for designating the pitch at each tone generation timing of the tone signal. Instead of outputting the performance data of the predetermined musical sound signal for the input step of inputting the performance data string including the designated data and the sounding interval from the sounding timing to the sounding end timing of the predetermined music signal, The sound generation timings of the plurality of musical sound signals Less than predetermined time Create continuously at intervals, and Created Multiple pronunciations To Then, the pitch is When the predetermined pitch is referred to, the predetermined pitch and the pitch above the predetermined pitch are alternated with one or several sounding timings as a unit. Or change so that the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are alternately changed. Or, the pitch above the semitone and the pitch below the semitone that sandwich the predetermined pitch are changed alternately one after the other. And change to From the predetermined pitch A performance data processing step of outputting the performance data sequence processed so that the pitches are dispersed by lowering the volume of the sound generation timing changed upward relative to the volume before the change. I have it.
Therefore, by causing the computer to execute the performance data change processing program, the same operation as the invention according to claim 4 is achieved.
[0011]
In each of the above-described inventions, the pitch can be changed by a small amount. Although not necessarily limited to a semitone, for example, the pitch is changed to a semitone upper or lower semitone. Also, for example, the pitch is changed from the original pitch for every other key-on data input. The change is to raise the pitch from the original pitch, lower the pitch, or alternately raise and lower the pitch every other pitch.
At the same time as changing the pitch, the sounding timing and / or volume of the input key-on data may be changed. That is, by processing the performance data so as to be changed in a predetermined pattern or a random pattern from the sound generation timing and volume at the time of input, the performance data is output, or the musical sound generation parameters are output. You can add expression that is close to the performance.
In addition, the pitch of some sounding timings is changed upward from the pitch specified by the pitch specification data, and the volume of the sounding timing changed upward is relative to the volume before the change. If it is made small, it will sound natural.
By processing performance data to produce percussion instrument tone signals that contain a relatively large amount of anharmonic components, the pitch of the tone signal is not noticeable and the tone of the tone signal spreads. Can be made.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is an explanatory diagram of an embodiment of a performance data change processing device of the present invention.
FIG. 1A is a functional configuration diagram when performance data is changed and output mainly in a performance data editing mode or the like.
A music data memory 1 outputs a performance data string. The song data may be data for the entire song or partial data being created. As the file format of the song data, SMF (Standard MIDI File) or various file formats unique to the manufacturer are used, but there is no particular limitation. What is necessary is just to change performance data according to each form.
In the editing mode, there is a case where the processing is performed after all the music data is loaded from the original music data memory to the editing work memory. In this case, the memory for editing work is the music data memory 1 shown in the figure.
[0013]
As performance data, event data such as a MIDI (Musical Instrument Digital Interface) event is recorded together with time information indicating an elapsed time from the immediately preceding event. The MIDI event data includes key-on (note-on) data instructing pronunciation.
The key-on data has a note number that represents the pitch (pitch) of the musical tone signal at each sounding timing, and a velocity that represents the strength of sounding. Also includes MIDI channel number. The length of a note is, for example, the elapsed time (gate time) from the timing of the key-on (note-on) data for a certain pitch to the timing of the next key-off (note-off or zero-velocity note) data for the same pitch. ).
[0014]
A performance data processing unit 2 inputs a performance data string, key-on data indicating sound generation timing is continuously generated at short time intervals, and the values of note numbers for specifying pitches are the same. Change some key-on data for the section. As a result, the performance data string processed so that the pitches of the tone generation timings of the tone signal are dispersed is output to the music data memory 3. The song data memory 3 inputs the processed performance data string and stores it as edited song data.
As the key-on data is processed, the corresponding key-off (note-off) data or the key-on data with zero velocity is similarly subjected to a note number changing process for designating the pitch. In the case of a musical sound that decays in a short time after the start of sound generation, key off data or key on data with zero velocity may be omitted.
[0015]
A processing section setting unit 4 is used to determine a section for processing a performance data string. The processing section setting unit 4 inputs a performance data string to be input prior to the performance data processing section 2, and generates a performance section in which key-on data is continuously generated at short time intervals and pronounced at the same pitch. To detect. Although all the sections to be processed may be detected in advance, the section in which the performance data is to be processed may be detected by sequentially detecting the generation intervals of several consecutive key-on data.
When a performance data string is input from the music data memory 1 as shown in the figure, the performance data string may be prefetched from the music data memory 1. This detection may be performed automatically, or the user may set a performance section while viewing a performance data string pre-read on a display unit or the like using a setting operator. The display format includes a staff (music score) format, a piano roll format, and an event data list format.
[0016]
Reference numeral 5 denotes a processing channel setting unit. When a musical instrument tone is designated for the MIDI channel included in the performance data, or the performance data is recorded in a plurality of tracks, and the instrument tone is designated for each track. When the performance data string from each recording track is input through the corresponding MIDI channel, the processing channel can be set. A MIDI channel can be assigned to any part of the sound source.
The user sets drum-type percussion instrument sounds such as timpani and snare drums on the MIDI channel or recording track by bank selection and program change. Alternatively, the timbre is set directly for the sound source part.
The processing performed by the performance data processing unit 2 is preferably performed on a MIDI channel or part in which the tone color of a drum percussion instrument such as a timpani or snare drum is set.
If it is known that all performance data of a certain MIDI channel is performance data to be processed, the processing section setting unit 4 is not necessary.
In addition, the music data memory 3 is used as a temporary storage buffer, and the processed performance data string is temporarily stored, and after the editing process for each processing section is completed, it is returned to the original editing memory and stored. It may be.
In the music data automatic performance mode, the processed performance data string may be output to the music signal generator 6 in real time to generate a music signal.
[0017]
FIG. 1B is a functional configuration diagram when performance data is input and musical tone generation parameters are output in the automatic performance mode or the like. Portions similar to those in FIG. 1A are denoted by the same reference numerals and description thereof is omitted.
The performance data processing unit 7 inputs the performance data sequence, creates a musical tone generation parameter sequence corresponding to the input performance data sequence, and outputs it to the musical tone signal generation unit 8. The musical tone signal generator 8 generates a musical tone signal based on the output musical tone generation parameter string.
At that time, the performance data processing unit 7 performs pitches at some sounding timings for performance intervals in which the sounding timings are continuously generated at short time intervals and the pitch designating data matches. By generating a tone generation parameter that is specified by changing the pitch specified by the specified data, a tone generation parameter sequence processed so that the pitches are dispersed is output.
[0018]
In the description with reference to FIGS. 1A and 1B, the input performance data is read from the music data memory.
However, performance data can also be input from the music data memory of an external performance device.
In particular, it is also possible to input from a server on the network in a streaming playback mode in which performance is performed while inputting performance data.
In these cases, the temporary storage buffer is the music data memory 1. The performance data to be written can be pre-read, and the performance section to be processed can be set automatically or manually.
In the above description, the case where the present invention is applied to the edit mode and the automatic performance mode has been described. In addition, the present invention can also be applied to a mode in which the user performs a real performance in real time using performance operators such as a keyboard, drum pad, foot pedal, and foot switch. In this case, since prefetching cannot be performed, processing delay occurs.
[0019]
In the above description, the key-on data that has been input is continuously generated at short time intervals, and the pitch is changed at a part of each sounding timing within the performance section that specifies the same pitch. It was.
On the other hand, in conventional sequencer software, a musical expression or performance method (for example, tremolo, trill, vibrato) is instructed by adding symbols to the notes displayed on the screen.
Therefore, in the same manner as described above, a play style, for example, a “roll performance method” is used in contrast to the performance method in which key-on data is continuously generated at short time intervals and the pitch is distributed during this time. ”And performance data instructing this“ roll performance ”may be inserted into the music data.
[0020]
In FIG. 1A, the processing section setting unit 4 performs performance data for instructing a “roll performance” for a certain note, and performance data (key-on data and key-off data or velocity) for instructing the target note. Is detected as key-on data), the performance data processing unit 2 outputs a plurality of musical tone signals instead of outputting performance data indicating the notes for the sounding interval from the sounding timing to the sounding end timing. Create sound generation timing continuously at short time intervals, and in some of the sound generation timings, the pitch is dispersed by changing the pitch from the pitch specified by the note number. The processed performance data string is output to the music data memory 3 or the tone signal generator 6. On the other hand, if the drum percussion instrument sound is a decaying sound, the sound generation end timing is not meaningful except for the score display. Therefore, it is only necessary to determine the sound generation end timing so that the note length is short.
In this case, as the performance data output to the music data memory 3, the input performance data itself may be stored. In other words, performance data that simply indicates “roll performance” for a certain note may be stored together with the note.
[0021]
The same applies to FIG. 1B, and when the processing section setting unit 4 detects performance data instructing “roll performance” and data instructing notes to which the roll performance is applied, the performance data processing unit 7 Creating a tone generation parameter sequence corresponding to the input performance data, and continuously generating the tone generation timings of a plurality of tone signals for a specified note duration, at a short time interval, and At a part of the sound generation timing, a tone generation parameter for specifying the pitch by changing the pitch from the pitch specified by the note number is created and output to the tone signal generator 8.
[0022]
In addition, the performance data string may not include performance data for instructing “roll performance”. In this case, when the user sets “roll performance” for an input note in the processing section setting section 4, the performance data processing section 2 in FIG. On the other hand, instead of outputting the performance data instructing the notes, the tone generation timings of a plurality of musical tone signals are continuously created at short time intervals, and the pitch is set at some of the tone generation timings. By changing from the pitch designated by the pitch designation data, the performance data string processed so that the pitches are dispersed is output.
Similarly, in FIG. 1B, when the user sets a “roll” performance method for an input note in the processing section setting section 4, the performance data processing section 7 is in the pronunciation section of the designated note. , The sound generation timings of a plurality of musical tone signals are continuously generated at short time intervals, and the pitch is changed from the pitch specified by the note number and specified in a part of the plurality of sound generation timings. Create musical tone generation parameters.
[0023]
FIG. 2 is an explanatory diagram of a conversion example of performance data according to the embodiment of the present invention.
2A is an explanatory diagram when a roll performance is displayed on a musical score, FIG. 2B is an explanatory diagram of conventional performance data for realizing the roll performance, and FIG. 2C is a roll. It is explanatory drawing of the performance data by one Embodiment of this invention for implement | achieving a performance method.
2 (b) and 2 (c) are piano roll displays, where the vertical axis indicates the pitch of the sound in semitones and the horizontal axis indicates the elapsed time in quarter notes. The bar display indicates the sound length (gate time) from the sounding start timing to the sounding end timing of each note.
[0024]
In FIG. 2A, the “roll performance” is displayed in the tremolo notation method. A half note 11 with a double diagonal line represents that a sixteenth note having the same note name is repeated eight times in the period of the half note. If this score example is input as sequenced by sequencer software, as shown in Fig. 2 (b), the pitch (sound pitch, pitch), tone length, and volume are uniform, as shown in Fig. 2 (b). A performance data string corresponding to the note 12 is obtained. However, in this state, the same musical sound signal is repeatedly generated in a short time, and a rich sound spread like an acoustic drum cannot be produced.
In order to correct this to a natural sound as much as possible, as shown in FIG. 2 (b), the pitch of the 16th note 12 which is continuous at short time intervals with the same pitch is shown in FIG. 2 (c). In addition, every other piece is changed to a sixteenth note 13 shifted by a semitone upward from the original pitch, thereby changing to a whole note string having pitch variation.
[0025]
The performance data processing unit 2 in FIG. 1A changes the performance data to performance data corresponding to such sixteenth notes 12 and 13, and the performance data processing unit 7 in FIG. A tone generation parameter for generating the sixteenth notes 12 and 13 is generated and output.
In the example shown in the figure, a note having a predetermined pitch and a note having a semitone higher than this are alternately played. In addition, a note having a predetermined pitch and a note having a pitch lower than the semitone may be alternately played. Three pitches, a note having a predetermined pitch, a note having a pitch higher than this, and a note having a pitch lower than this, may be sequentially played so that the pitch changes up and down alternately. The pitch at each sounding timing may be changed from the original pitch, and the upper and lower pitches sandwiching the original pitch may be changed alternately one after another. Alternatively, the pitch may be shifted in units of several to continue to the original pitch or the changed pitch.
[0026]
As a first specific example of processing performance data in this way, pitch designation data for a part of sound generation timing is changed.
For example, the note number included in the key-on data is changed by +1 or −1 from the original note number every other sounding timing. In addition, in a file format that has key-off data for ending tone signal generation or velocity-on key-on data accompanying the key-on data, the note number of the key-off data or velocity-on key-on data is changed to the same in response. .
[0027]
As a second specific example, first, performance data (pitch bend) for changing the pitch setting by the note number included in the key-on data at the time of performance is created and inserted immediately before the above-described key-on data.
By inserting a pitch bend, the pitch specified by the note number at some sounding timings is changed. For example, a pitch bend for offsetting +1 semitone or -1 semitone from the original designated pitch is inserted immediately before a certain key-on data.
Second, immediately before the next key-on data, a pitch bend (offset to 0) for returning to the original designated pitch is inserted, and the pitch based on the pitch designation data is set as it is during performance. The first and second processes are alternately performed for each key-on data.
[0028]
By playing the performance data processed in this way for the performance data of the MIDI channel to which the drum-type timbre is assigned, the timbre has a natural sound with a sense of spread. This is effective for performance data of a channel to which a timbre having an inharmonic overtone is assigned. On the other hand, a timbre having a harmonic overtone, for example, a string-type timbre, is not very effective because it is easy to hear the alternating pitch.
Also, in the high pitch region, the alternate pitch is easily recognized, but in the low pitch range, the alternate pitch is difficult to be recognized.
More preferably, the velocity (volume) should be reduced for a note raised half a tone from the original pitch. In other words, if the velocity of the sound generation timing when the pitch is changed upward from the pitch specified by the note number is relatively smaller than the velocity before the change, the sound is natural.
[0029]
Conventionally, in order to reproduce the emotional expression when a person plays, the performance data is changed so that the sound is generated unevenly by changing the timing and velocity of sound generation.
Also in the embodiment of the present invention, the performance data is processed so that the pitch of sound is distributed and at the same time the sounding timing interval and velocity are made non-uniform as a whole. You can add facial expressions.
In addition, by making the sound generation timing and the sound intensity uneven in this way, it becomes difficult to recognize the change in the sound pitch.
[0030]
If the velocity is made non-uniform throughout, the velocity of the sounding timing when the pitch is changed upward from the pitch specified by the note number is changed to the original velocity after making the velocity non-uniform overall. What is necessary is just to make it relatively smaller than velocity. The velocity setting of the key-on data with the pitch changed upward may be set to be about 8.5% smaller than the original velocity.
Furthermore, if the reverb effect applied to the generated musical sound signal is applied strongly, the sound will be more natural.
Further, the tone color may be changed by changing the filter coefficient together with the change of the pitch. Other characteristics other than the pitch may be changed in correlation with the changing pitch.
[0031]
Note that the musical tone signal after the pitch change is similar to the musical tone signal of a note with a musical symbol conventionally called “Trill”. However, with conventional sequencer software, simply creating performance data specifying “Trill” and enabling Trill performance, the timing of notes with the same pitch is continuously generated at short intervals. It does not change the performance data of the current section.
In addition, the musical tone signal targeted by Toril is intended for listening to changes in the pitch of musical instruments with harmonious sounds, such as pianos and guitars. Absent.
On the other hand, the present invention is mainly used to generate performance data or musical tone that has been subjected to change processing for timbres that decay rapidly, such as timpani and snare drums, and that contain a relatively large amount of anharmonic components. The timbre of the musical tone signal is expanded by the parameter.
For this reason, the velocities of the sound generation timing (sounding strength) when the pitch is changed upward from the value specified by the note number are also devised to be relatively smaller than the velocity before the change.
[0032]
FIG. 3 is a hardware configuration diagram of an electronic musical instrument that realizes an embodiment of the present invention.
In the figure, reference numeral 21 denotes a bus to which hardware blocks including a CPU (Central Processing Unit) 22 are connected, and data and addresses are transferred. The CPU 22 performs general control operations such as operation input and display output of the entire electronic musical instrument, executes the performance data changing process of the present invention, and determines the value of the musical tone generation parameter based on the performance data and setting data. To do.
Reference numeral 23 denotes a ROM (Read Only Memory), which stores various musical tone generation parameter data, song data, and the like in addition to programs for operating the CPU 22, such as a performance data change processing program of the present invention. A RAM (Random Access Memory) 24 is a working memory required when the CPU 22 executes a program. It includes an area for storing registers and flags for temporarily storing performance data and various data.
A timer 25 is used for timer interruption of the CPU 22, and also supplies a tempo clock for automatic performance.
[0033]
Reference numeral 26 denotes a performance device such as an externally connected MIDI keyboard or sequencer, which inputs performance data via the interface 27. In addition to being connected via a serial cable, the performance data is downloaded from the server side to the external storage device 31 by being connected to a server on the Internet via a network. In some cases, streaming playback is performed while receiving performance data.
A setting operator 28 is provided on the panel, and performs various settings such as the operation mode of the electronic musical instrument and the tone color and effect of the musical tone signal. Reference numeral 29 denotes a performance instruction operator for inputting the sound generation timing of notes, such as a keyboard and a drum pad. This is not particularly necessary for automatic performance equipment.
Reference numeral 30 denotes a display which displays performance data, current operation mode, setting state, and the like. Reference numeral 31 denotes an external storage device capable of recording / reproducing or reproducing only music data, and is, for example, an FDD (flexible disk drive), a semiconductor memory card recording / reproduction device, an HDD (hard disk drive), or the like. The performance data change processing program of the present invention may be stored.
[0034]
A sound source 32 generates a tone signal based on a tone generation parameter input via the bus 21. Reference numeral 33 denotes a DSP (Digital Signal Processor), which adds a sound effect such as reverb to the musical sound signal, or mixes the musical sound signals of a plurality of parts. The output of the DSP 33 is converted into an analog musical tone signal via a D / A converter (not shown) and output to the sound system 34. In the sound system, a tone signal is emitted from a speaker or the like by adjusting the volume and amplifying the volume.
[0035]
In the above description, the configuration in which the present invention is implemented using an electronic musical instrument controlled by a computer (CPU) has been described. However, the present invention can also be implemented using a personal computer.
In this case, a performance data change processing program that realizes the present invention by causing the computer to execute is recorded on a recording medium such as a CD-ROM as an application program operating under the operating system, and the hard disk is recorded from the recording medium. To install. Alternatively, the performance data change processing program is recorded on a server on the network and downloaded from this server to the hard disk.
The sound source unit and the DSP are provided as hardware on the sound card to realize the function, or the sound source function and the effect addition function are realized by the CPU as a software sound source. When the processed performance data is stored in the storage device and does not have to be sounded, the tone generator and the DSP are not required.
[0036]
4 to 7 are flowcharts for explaining an application example of the embodiment of the invention.
FIG. 4 is a flowchart of the main routine.
First, execution of the performance processing program is started by turning on the power. In S41, the contents of the RAM 24 are cleared, and registers, flags, etc. are initialized.
In S42, an operation input event of the setting operator 28 on the panel is accepted, and various settings such as editing of music data of the electronic musical instrument, operation mode such as automatic performance, tone color and effect of the musical tone signal are performed.
In S43, a musical tone signal is generated based on the performance data. In the automatic performance mode, performance data is read from the external storage device 31 or the ROM 23, or transmitted from the external performance device 26. In the actual performance mode, performance data instructed by the performer is created using the performance instruction operator 29.
In S44, sound generation processing is performed. When automatic performance reproduction or actual performance is being executed, a musical sound signal is generated based on performance data, and an effect process is applied to this to amplify and output from a speaker.
[0037]
FIG. 5 is a flowchart showing details of the panel processing in FIG.
In S51, it is determined whether or not an operation event has occurred in the setting operator 28 on the panel shown in FIG. 3. If any operation event has occurred, the process proceeds to S52 and the process of this flow is performed. If no operation event has occurred, the process returns to the main flowchart shown in FIG.
In S52, first, it is determined whether or not the operation event relates to a facial expression setting process. If so, the process proceeds to S53, and if not, the process proceeds to S54.
Here, the expression is to add an expression as if a person is performing to the input performance data.
In this flowchart, the expression timing interval, velocity, etc. are made non-uniform as a whole for the performance section of the roll performance method as facial expression. Then, in accordance with the expression process, a process for spreading the tone tone of the musical tone signal is performed by dispersing the pitches as described with reference to FIGS.
[0038]
In S53, the facial expression selected by the user is accepted. Here, you can specify the MIDI channel you want to play.
In S55, it is determined whether or not the user has set an operation mode for real-time processing. Here, the real-time processing refers to a case where automatic performance data is read from the ROM 23 or the external storage device 31 for performance, a case where the performance data transmitted from the external performance device 26 is reproduced by streaming, or a performance instruction operation. It means the case where an actual performance is performed by the child 29. In other words, the performance data is immediately processed to generate a musical sound signal and to generate a sound generation process.
On the other hand, the case where the processing is not real-time processing is processing processing such as creation or editing of performance data.
[0039]
If it is a real-time process, the process proceeds to S56, a setting corresponding to the facial expression selected by the user is performed, and the process returns to the main flowchart. If not, the process proceeds to S57, and if the song data to be edited is not displayed on the display device 30, the song data is read and displayed.
In S58, it is determined whether or not the automatic expression processing has been selected. If automatic processing has been selected, the process proceeds to S59 to automatically perform processing such as editing of music data.
On the other hand, when the automatic process is not selected, the process proceeds to S60, and the setting operator 28 accepts the range in which the user applies facial expression and the specific content of the facial expression. In S61, the received range and content In response to this, the facial expression processing is executed, and the process returns to the main flow.
[0040]
In S52, when there is no expression setting process, the process proceeds to S54 to determine whether or not the operation event of the setting operator 28 on the panel is to set the automatic performance mode. If so, the process proceeds to S62. Proceed with the process.
Otherwise, the process proceeds to S63, the process corresponding to the operation event is executed, and the process returns to the main flow.
In S62, it is determined whether or not it is a setting instruction to perform performance data from the external performance device 26. If so, the process proceeds to S64, and if not, the process proceeds to S65.
In S64, a user selection related to the specific setting contents of this mode is accepted. In S66, processing related to performance data input from the outside is set, and the process returns to the main flow.
[0041]
On the other hand, in S65, it is determined whether or not it is an instruction to set an automatic performance song stored in the storage device. If so, the process proceeds to S67, the music selected by the user is accepted, and the performance data of the automatic performance music is set to be read from the storage device in S69, and the process returns to the main flow.
On the other hand, if it is not an instruction for setting an automatic musical piece, the process proceeds to S68, and it is determined whether or not a reproduction start instruction is issued by the user. If so, the process proceeds to S70, and the performance data of the designated automatic performance music is read out to start reproduction, and the process returns to the main flow.
If it is not a reproduction start instruction, it is determined whether or not it is a stop instruction during automatic performance by the user. If so, the process proceeds to S72 to stop the automatic performance.
On the other hand, if it is not a stop instruction, the process proceeds to S73, other instructions relating to automatic performance are executed, and the process returns to the main routine.
[0042]
FIG. 6 is a flowchart showing details of the music data processing in FIG. In the flowchart shown in the figure, only one expression, that is, expression for a roll performance method, will be described. Therefore, when other facial expressions are also prepared, different music data processing is performed according to the facial expressions.
In S81, the performance data is analyzed. The MIDI channel (recording track) to be analyzed is set by user selection in S53 of FIG. For example, a MIDI channel that specifies the tone of the timpani is set. By replacing this step with the automatic selection of the sounds set for bank select and program change, it is also possible to automatically detect the MIDI channels that are suitable for processing, for example, timpani sounds. It is.
[0043]
In S82, as a result of the analysis, a performance section suitable for the condition for performing facial expression is determined in the performance data string of the designated channel of the automatic performance data. The target section for performing the expression of the roll performance is, for example, a fine note having the same pitch, for example, a note with a pronunciation timing shorter than an eighth note, for example, a 16th note, a 32nd note, etc. Is a predetermined number of continuous periods.
As a detection method, it is identified that the interval between the generation timings of adjacent key-on data having the same pitch is equal to or less than a predetermined value (for example, 120 clocks or less when a quarter note is associated with 480 clocks). It is detected that a predetermined number continues. Since the note gate time and clock time vary depending on the tempo, the above-described determination conditions can be changed according to the set tempo information in the music data, or can be arbitrarily set by the user.
[0044]
In S83, expression is performed by correcting the performance data in the target section of the roll performance method. Specifically, the sound generation timing interval, velocity, and the like are made non-uniform throughout the performance section of the roll performance method. Then, in accordance with the expression process, a process for spreading the tone tone of the musical tone signal is performed by dispersing the pitches as described with reference to FIGS.
In S84, the performance data sequence whose correction has been completed is newly stored in the storage device as music data.
In S85, the corrected performance data string is displayed on the display 30 in the form of staff (staff) or piano roll, and the process returns to the main flow of FIG. 4 through the panel processing flow of FIG.
[0045]
FIG. 7 is a flowchart for explaining the details of the tone signal generation processing in FIG.
In S91, it is determined whether or not the automatic performance has been started in S70 of FIG. 5 and is being reproduced. If the reproduction is in progress, the process proceeds to S92. If not, the process proceeds to S93.
In S92, the selected music piece data is read out. The song data is pre-read before the time to be sounded.
In S94, it is determined whether or not the setting for performing expression in real time has been made in S56 of FIG. 5, and if so, the flow for performing expression is entered, and the process proceeds to S95. If not, the process proceeds to S93, and the music data is directly processed by the sound source 32.
[0046]
In S95, it is determined whether or not it is a target section for facial expression. For example, the performance data is analyzed by pre-reading for a period of time longer than the time length determined to be a roll performance method, thereby determining whether or not the target section is to be subjected to facial expression. If it is not the target section, the process proceeds to S93. This determination corresponds to performing the same processing as S82 in FIG. 6 in real time.
In S96, the performance data of the target section is changed to have a facial expression according to the set characteristic condition, and the process proceeds to S93.
This change process is a process corresponding to S83 in FIG. Therefore, the changed performance data may be created as in S83. Alternatively, the tone generation parameters for generating the tone signal in the sound source unit may be directly controlled without creating performance data.
[0047]
If the automatic performance is not being reproduced in S91 already described, the process proceeds to S93. In S93, it is determined whether or not performance data transmitted from an external performance device is set to be reproduced. If so, the process proceeds to S97, and if not, the process proceeds to S98.
In S97, the performance data being transmitted is temporarily stored in the buffer. For streaming playback, the performance data is transmitted before the time to sound.
In S99, it is determined in S56 in FIG. 5 whether or not the setting for performing expression in real time has been set. If the setting for real-time expression is set, the process proceeds to S100. The performance data being processed is processed by the sound source 32 as it is.
[0048]
In S100, the performance data held in the buffer is analyzed to determine whether or not it is a section for facial expression processing. If so, the process proceeds to S101, and if not, the process proceeds to S98. This determination is the same processing as S95.
In S101, the performance data of the target section is changed to a facial expression according to the set characteristic condition, and the process proceeds to S98. This change process is a process corresponding to the above-described S96 and S83 in FIG. 6, and creates changed performance data or a musical tone generation parameter reflecting the change.
In S98, it is determined whether or not there is an operation event for a performance operator such as a keyboard, drum pad, foot pedal, or foot switch. If there is an operation event, the process proceeds to S102, and if there is no operation event, the process returns to the main routine. .
[0049]
In S102, it is determined whether or not the operation event is a key-on event. If it is a key-on event, the process proceeds to S103, a tone signal corresponding to the key-on is generated, and the process returns to the main flow.
If it is determined in S102 that the event is not a key-on event, the process proceeds to S104 to determine whether the operation event is a key-off event. If it is a key-off event, the process proceeds to S105, the process is performed so as to stop the sound signal being generated corresponding to the key-off event, and the process returns to the main flow.
If it is determined in S104 that the event is not a key-off event, the process proceeds to S106, the musical sound is processed in accordance with instructions from other performance operators, and the process returns to the main flow.
[0050]
In the flowchart described above, the performance data changing process is first executed in the editing process mode of S59 of FIG. 5 and S81 to S85 of FIG. Based on the performance data in the music data stored in advance or the performance data created by the editing process and stored in the temporary buffer, the pitch is changed to give the roll tone a sense of spread.
Secondly, in S96 of FIG. 7, it is executed in a mode for performing automatically while pre-reading song data.
Thirdly, in S101 of FIG. 7, it is executed in a streaming playback mode in which performance data input from an external performance device is played in advance.
[0051]
In each operation mode described above, by detecting the continuity of short notes with the same pitch, the performance section to be changed is automatically detected, or the user performs the change process using the setting operator. Set the performance section.
Instead of this, it is also possible to detect performance data instructing a roll performance method, and to set a section from the sound generation timing to the end time of sound generation as a performance processing section.
While the user actually performs, by operating a performance operator (for example, assigning a foot switch or a drum pad) that specifies the roll performance method, the sound generation by the roll performance method is started and at the same time the pitch change process is performed. Next, the sounding by the roll performance method may be terminated by re-operating the same performance operator.
When this actual performance is recorded in the storage device, key-on data and key-off data may be created and recorded in accordance with the tone signal to be generated, or may be subject to roll performance along with performance data instructing roll performance. It is only necessary to create and record key-on data and key-off data corresponding to the notes.
[0052]
In the above description, the case where drum-type percussion instrument timbres such as timpani and snare drums are prepared in the sound source as melody channel timbres for which pitch can be specified has been described. However, in addition to this, there are cases where a MIDI channel for drums (usually the 10th channel, drum track, drum part) is provided, and the tone of the drum kit is specified for this MIDI channel. To disperse the pitch with this drum kit, there are at least two types of sound source waveforms with different pitches (± semitones or about ± semitones) as timbres for timpani, snare drums, etc. Prepare on the sound source side.
[0053]
The note number of the key-on data for the drum MIDI channel is a number that specifies the tone of the drum kit, not the pitch. Therefore, for example, when the first and second timbres having different pitches are prepared as timpani timbres, the first and second timbres are directly designated by the key-on data note number. become. However, the pitch is actually specified by the note number that originally specified the pitch.
Therefore, the performance data processing means for the melody channel described so far outputs the performance data string processed so that the pitches are distributed in the same manner for the MIDI channels for drums, and the pitches are dispersed. The musical tone generation parameter sequence processed as described above can be output.
[0054]
In the above description, the case where the electronic musical instrument or the performance data changing process is realized on the personal computer has been described. In addition, it can also be realized in an electronic musical instrument, a game machine, a mobile phone, a multi-function subscriber phone, a PDA (Personal Digital Assistant) or the like that has a built-in CPU and realizes a function by executing a program.
The music data editing program is recorded on a recording medium such as a CD-ROM, and installed in a hard disk device of a computer for use. Alternatively, it is written in advance in a ROM of a computer or the above-described CPU built-in device.
It is downloaded from a server computer or the like on the network to a hard disk device of a computer or a flash ROM of a CPU built-in device.
[0055]
【The invention's effect】
As is apparent from the above description, the present invention has an effect that a timbre can be given a sense of spread when a musical tone signal is continuously repeated at short time intervals.
In particular, this is effective when sounding simulating a roll performance method for a channel to which a drum tone color is assigned.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of an embodiment of a performance data change processing device of the present invention. FIG. 1A is a functional configuration diagram when performance data is changed and output, and FIG. 1B is a functional configuration diagram when performance data is input and musical tone generation parameters are output.
FIG. 2 is an explanatory diagram of performance data according to an embodiment of the present invention. 2 (a) is an explanatory diagram when the roll performance is displayed on the musical score, FIG. 2 (b) is an explanatory diagram of conventional performance data for realizing the roll performance, and FIG. 2 (c) is an implementation of the roll performance. It is explanatory drawing of the performance data by one Embodiment of this invention for doing.
FIG. 3 is a hardware configuration diagram of an electronic musical instrument that realizes an embodiment of the present invention.
FIG. 4 is a flowchart of a main routine for explaining an application example of an embodiment of the present invention.
FIG. 5 is a flowchart showing details of panel processing in FIG. 4;
6 is a flowchart showing details of music data processing in FIG. 5. FIG.
FIG. 7 is a flowchart for explaining the details of the tone signal generation processing in FIG. 4;
[Explanation of symbols]
1 music data memory, 2 performance data processing section, 3 music data memory, 4 processing section setting section, 5 processing channel setting section, 6 musical sound signal generation section, 7 performance data processing section, 8 musical sound signal generation section

Claims (7)

楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングの前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の前記発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更することにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理手段、
を有することを特徴とする演奏データ変更処理装置。
A performance data string including pitch designating data for designating the pitch at each tone generation timing of the musical tone signal is input, the respective tone generation timings are continuously generated at intervals of a predetermined time or less, and the pitches coincide with each other. When the pitch of each sound generation timing in the performance section is referred to as a predetermined pitch with respect to a performance section, the predetermined pitch is set in advance in units of one or several sound generation timings. Change so that the predetermined pitch and the semitone above or below the predetermined pitch alternate alternately, or the semitone above the predetermined pitch and the predetermined pitch Change so that the three pitches of the high and half pitches change alternately one after the other, or the pitches above and below the semitone that sandwich the predetermined pitch are alternately alternated change so as to change to The Rukoto, performance data processing means for the pitch to output the performance data string which has been treated to disperse,
A performance data change processing device characterized by comprising:
楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、対応する楽音生成パラメータ列を作成するとともに、前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングにおいては、前記音高指定データにより指定された前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更して指定する楽音生成パラメータを作成することにより、前記音高が分散するように処理された楽音生成パラメータ列を出力する演奏データ処理手段、
を有することを特徴とする演奏データ変更処理装置。
A performance data string including pitch designation data for designating the pitch at each tone generation timing of the tone signal is input, a corresponding tone generation parameter string is created, and each tone generation timing is continuously at intervals of a predetermined time or less. For performance intervals that occur and the pitches match, at each sounding timing in the performance interval , when the pitch designated by the pitch designation data is referred to as a predetermined pitch , The predetermined pitch is changed so that the predetermined pitch and the semitone above or below the predetermined pitch alternately change in units of one or several sounding timings. Or the three pitches of the predetermined pitch and the pitch that is a semitone above the predetermined pitch and the pitch below the semitone are changed so as to alternately change, or By creating a tone generation parameters specifying modified as fixed pitch of semitones on pitch and semitones two pitch under sandwiching changes sequentially alternating order, such that the pitch is dispersed Performance data processing means for outputting the processed musical tone generation parameter sequence;
A performance data change processing device characterized by comprising:
入力する前記演奏データ列を、前記演奏データ処理手段よりも先に入力し、前記演奏区間を設定する処理区間設定手段を有する、
ことを特徴とする請求項1または2に記載の演奏データ変更処理装置。
The performance data string to be input is input before the performance data processing means, and has processing section setting means for setting the performance section.
The performance data change processing device according to claim 1 or 2, characterized in that
楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、該所定の楽音信号の演奏データを出力する代わりに、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくすることにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理手段、
を有することを特徴とする演奏データ変更処理装置。
A performance data string including pitch designation data for designating the pitch at each tone generation timing of the tone signal is input, and the predetermined tone is generated for the tone segment from the tone generation timing to the tone end timing of the tone signal. instead of outputting the performance data of the signal, the sound generation timing of the plurality of the tone signal continuously created in a predetermined time intervals of less than, and Oite multiple pronunciation timing that the created, the pitch Is a predetermined pitch, the predetermined pitch is set to one or several sounding timings as a unit, and the predetermined pitch and a pitch that is a semitone above the predetermined pitch are Change so that it changes alternately, or change so that the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are alternately changed. Or Alternatively, the pre with fixed pitch of semitones on pitch and semitones two pitch under sandwiching changes to vary sequentially and alternately, wherein the sound generation timing has been changed over from a pre-fixed pitch Performance data processing means for outputting the performance data sequence processed so that the pitches are dispersed by making the volume of the sound volume relatively smaller than the volume before the change,
A performance data change processing device characterized by comprising:
楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力し、対応する楽音生成パラメータ列を作成するとともに、所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更して指定するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくして指定する楽音生成パラメータを作成することにより、前記音高が分散するように処理された楽音生成パラメータ列を出力する演奏データ処理手段、
を有することを特徴とする演奏データ変更処理装置。
A performance data string including pitch designation data for designating the pitch at each tone generation timing of the tone signal is input, a corresponding tone generation parameter string is created, and from the tone generation timing of the predetermined tone signal to the tone end timing against pronunciation section, the tone generation timing of the plurality of the tone signal continuously created in a predetermined time intervals of less than, and Oite multiple pronunciation timing that the created determined the pitch pre The predetermined pitch is changed in units of one or several sounding timings, and the predetermined pitch and a pitch that is a semitone above the predetermined pitch are alternately changed. Whether the three pitches of the predetermined pitch and the pitch above the predetermined pitch and the pitch below the semitone are changed alternately one after another. Or, together with the two pitch pitch and under semitones on semitone sandwiching the previously fixed pitch specifies changed to vary sequentially and alternately, it is changed upward from the pre-fixed pitch A performance that outputs a musical tone generation parameter sequence that is processed so that the pitches are dispersed by creating a musical tone generation parameter that specifies the volume of the sound generation timing to be relatively smaller than the volume before the change. Data processing means,
A performance data change processing device characterized by comprising:
楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力する入力ステップ、および、
前記各発音タイミングが所定時間以下の間隔で連続的に発生しかつ前記音高が一致している演奏区間に対して、該演奏区間における前記各発音タイミングの前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の前記発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上または半音下の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更することにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理ステップ、
をコンピュータに実行させるための演奏データ変更処理プログラムが記録されたコンピュータ読み取り可能な記録媒体。
An input step for inputting a performance data string including pitch designation data for designating a pitch at each tone generation timing of the musical sound signal; and
For performance intervals in which the sound generation timings are continuously generated at intervals of a predetermined time or less and the pitches coincide, the pitches of the sound generation timings in the performance intervals are referred to as predetermined pitches. When the predetermined pitch is set to one or several sounding timings, the predetermined pitch and the pitch above or below the predetermined pitch are alternately changed. Or the three pitches of the predetermined pitch and the pitch that is a semitone above the predetermined pitch and the pitch below the semitone are sequentially changed, or The performance data sequence processed so that the pitches are dispersed by changing the pitches above and below the half tone so that the two pitches below the half tone change alternately one after the other. Performance data processing to output Step,
A computer-readable recording medium on which a performance data change processing program for causing a computer to execute is recorded.
楽音信号の各発音タイミングにおける音高を指定する音高指定データを含む演奏データ列を入力する入力ステップ、および、
所定の前記楽音信号の前記発音タイミングから発音終了タイミングまでの発音区間に対して、該所定の楽音信号の演奏データを出力する代わりに、複数の前記楽音信号の前記発音タイミングを所定時間以下の間隔で連続的に作成し、かつ、当該作成した複数の発音タイミングにおいては、前記音高を予め決まった音高というとき、前記予め決まった音高を、1または数個の発音タイミングを単位にして、前記予め決まった音高と前記予め決まった音高より半音上の音高とが交互に変化するように変更するか、前記予め決まった音高と前記予め決まった音高より半音上の音高と半音下の音高の3つの音高が順次交互に変化するように変更するか、または、前記予め決まった音高を挟む半音上の音高および半音下の2つの音高が順次交互に変化するように変更するとともに、前記予め決まった音高から上方に変更された前記発音タイミングの音量を、変更前の前記音量よりも相対的に小さくすることにより、前記音高が分散するように処理された前記演奏データ列を出力する演奏データ処理ステップ、
をコンピュータに実行させるための演奏データ変更処理プログラムが記録されたコンピュータ読み取り可能な記録媒体。
An input step for inputting a performance data string including pitch designation data for designating a pitch at each tone generation timing of the musical sound signal; and
Instead of outputting the performance data of the predetermined musical sound signal for the sound generation interval from the sound generation timing to the sound generation end timing of the predetermined music signal, the sound generation timings of the plurality of music signals are set at intervals of a predetermined time or less continuously created in and Oite multiple pronunciation timing that the created the term pre-fixed pitch the pitch, the pre-fixed pitch, 1 or several sound generation timing The unit is changed so that the predetermined pitch and the pitch above the predetermined pitch are alternately changed, or the predetermined pitch and the predetermined pitch are semitones. The three pitches of the upper pitch and the lower pitch are changed so as to alternately change, or the upper pitch and the lower half pitch that sandwich the predetermined pitch. Change alternately With change to, the volume of the sound generation timing has been changed over from the pre-fixed pitch, by relatively smaller than the volume before change, the pitch is processed to disperse A performance data processing step for outputting the performance data string;
A computer-readable recording medium on which a performance data change processing program for causing a computer to execute is recorded.
JP2001095514A 2001-03-29 2001-03-29 Performance data change processing device Expired - Fee Related JP3705144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001095514A JP3705144B2 (en) 2001-03-29 2001-03-29 Performance data change processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001095514A JP3705144B2 (en) 2001-03-29 2001-03-29 Performance data change processing device

Publications (2)

Publication Number Publication Date
JP2002297139A JP2002297139A (en) 2002-10-11
JP3705144B2 true JP3705144B2 (en) 2005-10-12

Family

ID=18949551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001095514A Expired - Fee Related JP3705144B2 (en) 2001-03-29 2001-03-29 Performance data change processing device

Country Status (1)

Country Link
JP (1) JP3705144B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4274068B2 (en) * 2004-07-14 2009-06-03 ヤマハ株式会社 Electronic percussion instruments and programs
JP4967406B2 (en) * 2006-03-27 2012-07-04 ヤマハ株式会社 Keyboard instrument
JP5217443B2 (en) * 2007-01-09 2013-06-19 ヤマハ株式会社 Musical sound generating apparatus and program
JP5500143B2 (en) * 2011-09-05 2014-05-21 ヤマハ株式会社 Sound source control device and sound source control program
JP6007645B2 (en) * 2012-07-31 2016-10-12 ヤマハ株式会社 Sound waveform editing apparatus and program

Also Published As

Publication number Publication date
JP2002297139A (en) 2002-10-11

Similar Documents

Publication Publication Date Title
JP2001159892A (en) Performance data preparing device and recording medium
JP2007293013A (en) Musical synthesizer and program
US7420113B2 (en) Rendition style determination apparatus and method
JP3915807B2 (en) Automatic performance determination device and program
JP3407610B2 (en) Musical sound generation method and storage medium
JP3705144B2 (en) Performance data change processing device
JP4407473B2 (en) Performance method determining device and program
JP4802947B2 (en) Performance method determining device and program
JP3613062B2 (en) Musical sound data creation method and storage medium
JP4003625B2 (en) Performance control apparatus and performance control program
JP3873790B2 (en) Rendition style display editing apparatus and method
JP2003177751A (en) Playing data processing device
JP7404737B2 (en) Automatic performance device, electronic musical instrument, method and program
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3346699B2 (en) Electronic musical instrument
JP7263998B2 (en) Electronic musical instrument, control method and program
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP3873880B2 (en) Performance assist device and performance assist program
JP3637782B2 (en) Data generating apparatus and recording medium
JP3642028B2 (en) Performance data processing apparatus and method, and storage medium
JP2005173631A (en) Performance data generating apparatus
JP3755468B2 (en) Musical data expression device and program
JP3692954B2 (en) Music data editing program, music data editing method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees