JP3654227B2 - Music data editing apparatus and program - Google Patents

Music data editing apparatus and program Download PDF

Info

Publication number
JP3654227B2
JP3654227B2 JP2001290543A JP2001290543A JP3654227B2 JP 3654227 B2 JP3654227 B2 JP 3654227B2 JP 2001290543 A JP2001290543 A JP 2001290543A JP 2001290543 A JP2001290543 A JP 2001290543A JP 3654227 B2 JP3654227 B2 JP 3654227B2
Authority
JP
Japan
Prior art keywords
music data
templates
reading
template
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001290543A
Other languages
Japanese (ja)
Other versions
JP2003099039A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001290543A priority Critical patent/JP3654227B2/en
Publication of JP2003099039A publication Critical patent/JP2003099039A/en
Application granted granted Critical
Publication of JP3654227B2 publication Critical patent/JP3654227B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、楽曲データ編集装置に関し、より詳しくは、楽曲データに音楽的表情を付与することが出来る楽曲データ編集装置に関する。
【0002】
【従来の技術】
自動演奏装置等で、音符の情報のみのMIDIデータ等の楽曲データを演奏すると機械的で無表情な演奏になってしまう。これを、より自然な演奏にする為には、様々な音楽的表現や、楽器らしさを制御データとして楽曲データに付け加えてやる必要がある。
【0003】
そのような音楽的表情の1つとして、ギター等の撥弦楽器の演奏テクニックであるストローク奏法がある。ギターのストローク奏法では、楽譜上において同時発音の和音として表記されるものでも、複数の弦を完全に同時にではなくある程度の時間差を持った順番ではじく為、各音(各弦)の音量や発音開始時間、発音持続時間に、ばらつきが生じる。
【0004】
このばらつきをシミュレートして自動的に付加するものが、本出願と同一出願人による特願2001−114175号の発明により提案されている。
【0005】
【発明が解決しようとする課題】
上記のばらつきをMIDIデータに対して付加するだけでも、ある程度自然なコードストロークを再現することが出来るが、実際のギターにより奏法では、その他にも様々な特徴がある。例えば、任意のコードを短く鳴らして止めるというミュート奏法がある。MIDIデータで、このミュート奏法を実現するためには、いちいちミュートするコード(和音データ)の音色や音量等を変更してやる必要があった。
【0006】
本発明の目的は、楽曲データに自動で音楽的表情を付与することの出来る楽曲データ編集装置を提供することである。
【0007】
【課題を解決するための手段】
本発明の一観点によれば、楽曲データ編集装置は、楽曲データを読み出す楽曲データ読み出し手段と、前記楽曲データの小節区切り位置を検出する検出手段と、複数のテンプレートを記憶する記憶手段と、前記検出した小節区切り位置に基づき、前記複数のテンプレートを小節ごとにランダムに適用して、前記楽曲データの楽音特性を変更する変更手段とを有する。
また、本発明の他の観点によれば、楽曲データ編集装置は、楽曲データを読み出す楽曲データ読み出し手段と、前記楽曲データの小節区切り位置を検出する検出手段と、複数のテンプレートを記憶する記憶手段と、前記検出した小節区切り位置に基づき、前記複数のテンプレートを指定した順番に小節ごとに適用して、前記楽曲データの楽音特性を変更する変更手段とを有する。
【0008】
【発明の実施の形態】
図1は、本発明の実施例による楽曲データ編集装置1のハードウェア構成を示すブロック図である。
【0009】
楽曲データ編集装置1はバス2、RAM3、ROM4、CPU5、タイマ6、外部記憶装置7、検出回路8、パネル操作子9、表示回路10、ディスプレイ11、音源回路12、効果回路13、サウンドシステム14、演奏操作子15、MIDIインターフェイス16、通信インターフェイス17を含んで構成される。
【0010】
バス2には、RAM3、ROM4、CPU5、外部記憶装置7、検出回路8、表示回路10、音源回路12、効果回路13、MIDIインターフェイス16、通信インターフェイス17が接続される。
【0011】
ユーザは、検出回路8に接続される複数のパネル操作子9を用いて、各種設定をすることができる。パネル操作子9は、例えば、ロータリーエンコーダ、スイッチ、パッド、フェーダ、スライダ、マウス、文字入力用キーボード、演奏用の鍵盤、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0012】
また、本実施例では、パネル操作子9が、後述する各種処理等で、ユーザが各種設定、選択、自動演奏の開始及び停止等の指示を入力するために用いられる。
【0013】
また、パネル操作子9は、マウス等の他の操作子を用いて操作するディスプレイ11上に表示されるソフトスイッチ等でもよい。
【0014】
表示回路10は、ディスプレイ11に接続され、各種情報をディスプレイ11に表示することができる。例えば、後述するテンプレート編集画面は、ディスプレイ11に表示される。ユーザは、このディスプレイ11に表示される情報を参照して、各種設定を行う。また、ディスプレイ11は、外部の表示装置を接続することにより構成してもよい。
【0015】
また、ディスプレイ11に、タッチパネルを用いることができる。この場合は、ディスプレイ11上に表示されるスイッチ等をユーザが押すことによりユーザの指示が入力される。
【0016】
外部記憶装置7は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス2に接続される。外部記憶装置7は、例えばフロッピディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。
【0017】
外部記憶装置7には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム及びテンプレート等を記憶することができる。
【0018】
RAM3は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU5のワーキングエリアを有する。ROM4には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置7に記憶する必要は無い。CPU5は、ROM4又は、外部記憶装置7に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0019】
タイマ6は、CPU5に接続されており、基本クロック信号、割り込み処理タイミング等をCPU5に供給する。
【0020】
外部記憶装置7として、ハードディスクドライブ(HDD)が接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等は、外部記憶装置7内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM3に制御プログラム等を読み出すことにより、ROM4に制御プログラム等を記憶させている場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。
【0021】
また、ハードディスクドライブに加えて、CD−ROMドライブが接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施例を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。
【0022】
音源回路12は、外部記憶装置7等に記録されたシーケンスデータ又はMIDIインターフェイスに接続されたMIDI機器18等から供給されるMIDI信号、演奏信号等に応じて楽音信号を生成し、効果回路13を介して、サウンドシステム14に供給する。
【0023】
効果回路13は、音源回路12から供給されるデジタル形式の楽音信号に各種効果を与える。
【0024】
サウンドシステム14は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0025】
なお、音源回路12は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO(Voltage Controlled Oscillator)+VCF(Voltage Controlled Filter)+VCA(Voltage Controlled Amplifier)のアナログシンセサイザ方式等、どのような方式であってもよい。
【0026】
また、音源回路12は、専用のハードウェアを用いて構成するものに限らず、DSP(Digital Signal Processor)+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよいし、サウンドカードのようなものでもよい。
【0027】
さらに、1つの音源回路を時分割で使用することにより複数の発音チャンネルを形成するようにしてもよいし、複数の音源回路を用い、1つの発音チャンネルにつき1つの音源回路で複数の発音チャンネルを構成するようにしてもよい。
【0028】
演奏操作子15は、検出回路8に接続され、ユーザの演奏動作に従い、演奏信号を供給する。本実施例では、演奏操作子15として、演奏用の鍵盤、パッドが用いられている。なお、演奏操作子15はこれらに限らず、ユーザが演奏情報を入力できるものであればどのようなものでもよい。例えば、文字入力用のキーボードや、マウス、ジョイスティック等を演奏操作子15として用いることも出来る。
【0029】
MIDIインターフェイス(MIDI I/F)16は、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス16は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0030】
MIDI機器18は、MIDIインターフェイス16に接続される音響機器及び楽器等である。MIDI機器18の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。ユーザは、このMIDI機器18を演奏(操作)することにより演奏情報の入力を行うこともできる。
【0031】
また、MIDI機器18は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。
【0032】
通信インターフェイス17は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク19に接続可能であり、該通信ネットワーク19を介して、サーバコンピュータ20と接続し、HDD等外部記憶装置7、又はRAM4等内に、サーバコンピュータ20から制御プログラムや本実施例を実現するためのプログラム、楽曲データ等をダウンロードすることができる。
【0033】
なお、通信インターフェイス17及び通信ネットワーク19は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0034】
図2は、本実施例による楽曲データMDのフォーマットを表す概念図である。楽曲データMDは、例えばSMF(Standard MIDI File)フォーマットに準拠した、自動楽曲データである。
【0035】
楽曲データMDは、先頭に記録される初期設定情報HCと、発音タイミングを表すタイミングデータと、各タイミング毎のイベントを表すイベントデータとを含んで構成されている。また、楽曲データMDは複数のパートで構成することも出来る。
【0036】
初期設定情報とは、各パート(トラック)の再生時の各種再生態様を設定する為のデータであり、例えば、音色設定データ、音量設定データ、テンポ設定データなどが含まれる。
【0037】
タイミングデータは、イベントデータで表される各種イベントを処理すべき時間を表すデータである。イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。
【0038】
イベントデータは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表す音符イベント(音符データ)と、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。
【0039】
それぞれの音符イベントには、音高、発音長(ゲートタイム)GT、音量(ベロシティ)VLが記録されている。発音長GTは4分音符長を「480」で表しており、例えば8分音符長は「240」であり、2分音符長は「960」である。音量VLは設定可能な最低音量を「1」とし最大音量を「127」としている。
【0040】
楽曲データMD1のタイミングAには、同時に発音する6つの音符イベントで構成される和音イベントCAが記録されており、又、タイミングBにも同時に発音する6つの音符イベントで構成される和音イベントCBが記録されている。
【0041】
本実施例では、同時に発音する複数の音符イベントの組、及び発音タイミングがほぼ同時期である複数の音符イベントの組を和音イベントとする。ほぼ同時期に発音される複数の音符イベントとは、再生された場合に音楽的に和音として考えられる時間内に発音される複数の音符イベントの組である。
【0042】
楽曲データMD1では、和音イベント中の音符イベントがすべて、同時に発音されるようになっており、また、音量も一定である。このようなデータを再生すると、音楽的表情の無い機械的な演奏になってしまう。
【0043】
本実施例では、まず、MIDI機器18等から入力されるか、外部記憶装置7等に記録されている楽曲データMD1の各和音イベント中の音符イベントの発音タイミング、発音長GT、音量VL、を編集することにより、発音タイミング、発音長GT、音量VLにばらつきを持たせる。
【0044】
その後、後述のミュート処理により、和音イベント中の一定の音符イベントの音色、音量、効果等を変更することによりミュートし、よりいっそう自然なギターの演奏をシミュレートする。
【0045】
図3は、図1のCPU5で行う本実施例によるメイン処理を表すフローチャートである。
【0046】
ステップSA1ではメイン処理をスタートして、各種フラグやバッファを初期化し、次のステップSA2に進む。
【0047】
ステップSA2では、図1の表示装置11に外部記憶装置7等に記録されている楽曲データMDの一覧を表示して、編集対象とする楽曲データをユーザに選択させる。ユーザは、一覧表示される楽曲データの中から編集(表情付け)をするものをパネル操作子9等で選択する。なお、楽曲データの選択はこの方法に限らず、ユーザが楽曲データの保存先のパス等を直接指定するようにしてもよい。楽曲データが選択されたら、次のステップSA3に進む。
【0048】
なお、本実施例では、楽曲データの編集を楽曲データの再生中ではないときに行っているが、楽曲データ再生中にリアルタイムで行うことも出来る。この場合は、このステップSA2で選択した楽曲データの再生を開始する。
【0049】
ステップSA3では、表示装置11に選択楽曲データに含まれるパートの一覧を表示して、編集対象とするパート(処理パート)をユーザに選択させる。ユーザは、一覧表示されるパートの中から処理パートをパネル操作子9等で選択する。処理パートが選択されたら次のステップSA4に進む。
【0050】
ステップSA4では、選択楽曲データを外部記憶装置7等からRAM3内の読出しバッファに読み込み、楽曲の再生テンポと拍子を検出する。その後、次のステップSA5に進む。
【0051】
ステップSA5では、タイマ6から供給されるクロック信号に従い、選択楽曲データの処理パートのイベントをRAM3内の作業領域に読み込む。その後次のステップSA6に進む。
【0052】
ステップSA6では、ステップSA5で読み出したイベントのタイミングが楽曲データの終了タイミング(最後のイベント)か否かを検出する。終了タイミングであれば、YESの矢印で示すステップSA7に進む。終了タイミングでなければ、NOの矢印で示すステップSA9に進む。
【0053】
ステップSA7では、その他処理を行う。その他処理では、RAM3内の再生バッファ内の楽曲データの保存等を行う。他には、楽曲データの再生開始及び停止、その他の編集処理、楽曲データの記録、楽曲データのダウンロード、演奏操作子用による演奏処理、各種設定等を行うことも出来る。その後、次のステップSA8に進みメイン処理を終了する。
【0054】
ステップSA9では、今回のタイミングのイベントが和音イベントか否かを判断する。今回のタイミングのイベントが和音イベントであればYESの矢印で示すステップSA10に進む。今回のタイミングのイベントが和音イベントで無ければNOの矢印で示すステップSA13に進む。
【0055】
ステップSA10では、今回タイミングの和音イベント中の各音符イベントを、ギター等の弦楽器の弦の一つに割り当てる。例えば、ギターであれば、各音符イベントを1〜6弦のうちのいずれか一つに割り当てる。その後、次のステップSA11に進む。
【0056】
ステップSA11では、ストローク種類を決定する。ストローク種類には、ギターの奏法のストローク奏法におけるダウンピッキング(低音弦から高音弦にかけて弾く)とアップピッキング(高音弦から低音弦にかけて弾く)がある。
【0057】
このステップSA11では、今回のタイミングの和音イベントがダウンピッキング又はアップピッキングのどちらで演奏されるべきものかを判断(ストローク種類の決定)する。
【0058】
ダウンピッキングであるかアップピッキングであるかは、曲のテンポ及び曲想等により判断の基準が異なるが、本実施例では、ダウンピッキング及びアップピッキングを交互に繰り返すオルタネートピッキングであるとする。
【0059】
すなわち、今回のタイミングの和音イベントが表の拍であれば、ダウンピッキングに決定し、裏の拍であればアップピッキングに決定する。ストローク種類を決定したら次のステップSA12に進む。
【0060】
ステップSA12では、ステップSA11で決定したストローク種類に従い、和音イベント中の音符イベントの発音タイミングをずらす。すなわち、ダウンピッキングであれば、最低音弦に割り当てられた音符イベントから最高音弦に割り当てられた音符イベントに向かう順に発音するように、発音タイミングをずらす等の編集を行う(以下、このステップで行う処理をずらし処理と呼ぶ)。
【0061】
アップピッキングであればその逆に最高音弦から最低音弦に割り当てられた音符イベントに向かう順に発音するように発音タイミングをずらす。ずらし処理が終了したら、次のステップSA13に進む。
【0062】
なお、ずらし処理の詳細については、本出願と同一出願人による特許出願2001−114175号の実施例の欄を参照。
【0063】
ステップSA13では、後述するミュート処理を行う。ミュート処理は、1小節を16分割して(16分音符に相当)、それぞれの位置でのミュート状態(ミュートするか否か)を記録したテンプレートに従い、ミュート位置を決定し、ミュート位置にある音符データの音色や音量を変更する。ミュート処理が終了したら、次のステップSA14に進む。
【0064】
ステップSA14では、今回タイミングのイベント又は編集処理を行ったイベントをRAM3内の再生バッファ等に記録する。リアルタイム処理を行っている場合には、ここで今回タイミングのイベントの発音処理を行う。その後次のステップSA15に進む。
【0065】
ステップSA15では、次のタイミングのイベントをRAM3内の作業領域に読み込む。その後ステップSA6に戻り、同様の処理を繰り返す。
【0066】
図4は、図3のステップSA13で行うミュート処理を表すフローチャートである。ミュート処理は、例えば、図5に示すテンプレートに従い、ミュート位置を決定し、ミュート位置にある音符データの音色や音量を変更する処理である。
【0067】
ステップSB1では、ミュート処理を開始して、次のステップSB2に進む。
【0068】
ステップSB2では、演奏データの小節区切り位置を検出する。小節区切り位置は、今回のタイミングの直前のもののみを検出すれば足りるが、全ての小節区切り位置を検出して保存し、次回のタイミング以降でそれを用いるようにしてもよい。小節区切り位置の検出は、拍子情報等を参照して行われる。その後、次のステップSB3に進む。
【0069】
ステップSB3では、今回のタイミングの音符データの直前の小節区切り位置からの位置(16分音符に換算した場合何番目にあたるか)を検出する。その後、次のステップSB4に進む。
【0070】
ステップSB4では、後述するテンプレート選択編集処理において選択されたテンプレートの今回のタイミングに対応する情報を今回のタイミングの音符データに適用して、音色や音量などの発音特性を変更する。その後、次のステップSB5に進み、ミュート処理を終了する。
【0071】
図5は、図4のミュート処理で適用するテンプレートの1例である。テンプレートは、1小節を16分割して(16分音符に相当)、それぞれの位置でのミュート状態(ミュートするか否か)を記録している。図中、「1」がミュートされる音であり、「0」はミュートされない音(普通の音)である。
【0072】
図6は、テンプレート編集画面の1例である。ユーザはこのテンプレート編集画面により、図5に示すテンプレートを編集することが出来る。
【0073】
テンプレート編集画面21は、図1のディスプレイ11上に表示され、画面中には、16分音符22が16個並んで表示される。16分音符22は、普通の音符22aとミュートする音符22bがあり、それぞれテンプレートの「0」と「1」に対応している。
【0074】
ユーザは、ポインタ23を図1のパネル操作子9等を用いて操作し、16分音符22をクリックすることで、普通の音符22aとミュートする音符22bを切り替える。このようにGUI(グラフィカル・ユーザ・インターフェイス)を用いて表示することで、テンプレートの編集が簡単になる。
【0075】
さらに、ユーザは、ポインタ23を図1のパネル操作子9等を用いて操作し、リピート始点24a及びリピート終点24bを左右に動かすことにより、リピート位置を変更することが出来る。リピート始点24a及びリピート終点24bの下部には、リピート記号が表示される。これらのリピート始点24a及びリピート終点24bによるリピートの規則は一般の音楽記号のリピート記号と同様である。
【0076】
このようにユーザがリピート位置を変更することで、例えば、5/4拍子などの1小節に16分音符に換算して16音以上ある楽曲に対してもテンプレートを適用することが出来る。
【0077】
図7は、テンプレート設定編集処理を表すフローチャートである。このテンプレート設定編集処理は、ユーザのテンプレート設定編集要求により起動される割り込み処理である。
【0078】
ステップSC1では、テンプレート設定編集処理を開始して、次のステップSC2に進む。
【0079】
ステップSC2では、図4のミュート処理におけるテンプレートの適用方法を設定する。テンプレートの適用方法は、1つのテンプレートを繰り返し使うもの、複数のテンプレートを選択しそれらを順番に切り替えて使うもの、複数のテンプレートをランダムに使うもの等がある。ユーザはその中から1つを選択する。その後、次のステップSC3に進む。
【0080】
ステップSC3では、図4のミュート処理で適用するテンプレートを選択する。テンプレートの選択は、ステップSC2で選択されたテンプレートの適用方法によって異なる。1つのテンプレートを繰り返し使う場合は、1つのテンプレート選択する。複数のテンプレートを選択しそれらを順番に切り替えて使う場合は、複数のテンプレートを選択し、それらの順番を指定する。また、繰り返し位置なども指定することができる。複数のテンプレートをランダムに使う場合は、選択する必要はないが、ここで複数のテンプレートを選択してそれらの中でランダムに適用するようにしてもよい。その後、次のステップSC4に進む。
【0081】
ステップSC4では、ステップSC3で選択したテンプレートの編集を行うか否かを確認する。編集を行う場合は、YESの矢印で示すステップSC5に進む。編集を行わない場合は、NOの矢印で示すステップSC9に進み、テンプレート選択編集処理を終了する。
【0082】
ステップSC5では、図1のディスプレイ11に図6のテンプレート編集画面21を表示する。その後、次のステップSC6に進む。
【0083】
ステップSC6では、ユーザによるミュート位置の指定を受付ける。ミュート位置の指定は、前述したように、パネル操作子9でポインタ23を操作して、16分音符22をクリックすることで行う。その後、次のステップSC7に進む。
【0084】
ステップSC7では、ユーザによるリピート位置の指定を受付ける。ミュート位置の指定は、前述したように、パネル操作子9でポインタ23を操作して、リピート始点24a及びリピート終点24bを左右に動かすことで行う。その後、次のステップSC8に進む。
【0085】
ステップSC8では、ステップSC6及びステップSC7で編集されたテンプレートを保存する。その後、次のステップSC9に進み、テンプレート選択編集処理を終了する。
【0086】
以上、本実施例によれば、和音データを自動的にギターのストローク奏法におけるダウンピッキングとアップピッキングのいずれかに指定し、和音データ中の音符データの発音タイミング、音量、発音時間を適切なばらつきを与えることができる。
【0087】
また、本実施例によれば、テンプレートにしたがって、音符イベントの音色、音量等を変更して、ギターのミュート奏法をシミュレートすることが出来る。
【0088】
また、本実施例によれば、ミュート奏法をシミュレートするためのテンプレートを、GUIを用いて、簡単に適宜編集することが出来る。また、テンプレートのループ位置等を設定することが出来る。
【0089】
また、本実施例によれば、機械的で無表情な楽曲データに自動でストローク奏法及びミュート奏法の表情を付与して、自然な表情豊かな演奏を行うことができる。
【0090】
なお、本実施例では、ミュート位置の音符データの音色、音量、効果等を変更して楽音特性を変更したが、例えば、ミュート位置の音符データの発音長を短くすることにより楽音特性を変更してもよい。
【0091】
なお、本実施例では、表情付けがされていない楽曲データを用いたが、予めストローク種類が決められ、ずらし処理が行われている楽曲データを用いることも出来る。
【0092】
なお、楽曲データ(演奏データ)のフォーマットは、演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で楽曲データを表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等、どのような形式でもよい。
【0093】
なお、本実施例の楽曲データ編集装置1は電子楽器、パソコン+アプリケーションソフトウェアの形態、カラオケ装置や、ゲーム装置、携帯電話等の携帯型通信端末、自動演奏ピアノなどどのような形態をとってもよい。
【0094】
携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0095】
また、電子楽器の形態を取った場合、その形態は鍵盤楽器に限らず、弦楽器タイプ、打楽器タイプ等の形態でもよい。
【0096】
また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0097】
なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0098】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピーディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0099】
そのコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等をコンピュータ等に提供してもよい。
【0100】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0101】
【発明の効果】
以上説明したように、本発明によれば、楽曲データに自動で音楽的表情を付与することの出来る楽曲データ編集装置を提供することができる。
【図面の簡単な説明】
【図1】 本発明の実施例による楽曲データ編集装置1のハードウェア構成を示すブロック図である。
【図2】 本発明の実施例による楽曲データMDのフォーマットを表す概念図である。
【図3】 図1のCPU5で行う本発明の実施例によるメイン処理を表すフローチャートである。
【図4】 図3のステップSA13で行うミュート処理を表すフローチャートである。
【図5】 テンプレートの1例である。
【図6】 テンプレート編集画面の1例である。
【図7】 本実施例によるテンプレートの選択編集処理を表すフローチャートである。
【符号の説明】
1…楽曲データ編集装置、2…バス、3…RAM、4…ROM、5…CPU、6…タイマ、7…外部記憶装置、8…検出回路、9…パネル操作子、10…表示回路、11…ディスプレイ、12…音源回路、13…効果回路、14…サウンドシステム、15…演奏操作子、16…MIDI I/F、17…通信I/F、18…MIDI機器、19…通信ネットワーク、20…サーバコンピュータ、21…テンプレート編集画面、22…16分音符、23…ポインタ、24…リピート位置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a music data editing apparatus, and more particularly to a music data editing apparatus that can add a musical expression to music data.
[0002]
[Prior art]
If music data such as MIDI data containing only note information is played by an automatic performance device or the like, the performance becomes mechanical and expressionless. In order to make this a more natural performance, it is necessary to add various musical expressions and instrumentality as control data to the music data.
[0003]
One such musical expression is a stroke playing technique, which is a technique for playing plucked strings such as guitars. In guitar strokes, even if the chords are shown as simultaneous chords on the score, the volume and pronunciation of each sound (each string) is used to repel multiple strings in an order that has a certain time difference rather than completely simultaneously. Variations occur in the start time and duration of pronunciation.
[0004]
An apparatus that simulates and automatically adds this variation is proposed by the invention of Japanese Patent Application No. 2001-114175 by the same applicant as the present application.
[0005]
[Problems to be solved by the invention]
Even by adding the above variation to the MIDI data, it is possible to reproduce a chord stroke that is natural to some extent, but there are various other characteristics in the playing method using an actual guitar. For example, there is a mute playing method in which an arbitrary chord is stopped for a short time. In order to realize this mute playing method using MIDI data, it is necessary to change the tone color, volume, etc. of the chord (chord data) to be muted.
[0006]
An object of the present invention is to provide a music data editing apparatus capable of automatically giving a musical expression to music data.
[0007]
[Means for Solving the Problems]
According to one aspect of the present invention, a music data editing apparatus includes: music data reading means for reading music data; detection means for detecting a bar break position of the music data; storage means for storing a plurality of templates; And changing means for changing the musical tone characteristics of the music data by randomly applying the plurality of templates for each bar based on the detected bar break position.
According to another aspect of the present invention, the music data editing apparatus includes music data reading means for reading music data, detecting means for detecting a bar break position of the music data, and storage means for storing a plurality of templates. And changing means for changing the musical tone characteristics of the music data by applying the plurality of templates to each measure in the specified order based on the detected bar break position.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a music data editing apparatus 1 according to an embodiment of the present invention.
[0009]
The music data editing apparatus 1 includes a bus 2, a RAM 3, a ROM 4, a CPU 5, a timer 6, an external storage device 7, a detection circuit 8, a panel operator 9, a display circuit 10, a display 11, a sound source circuit 12, an effect circuit 13, and a sound system 14. , A performance operator 15, a MIDI interface 16, and a communication interface 17.
[0010]
A RAM 3, a ROM 4, a CPU 5, an external storage device 7, a detection circuit 8, a display circuit 10, a sound source circuit 12, an effect circuit 13, a MIDI interface 16, and a communication interface 17 are connected to the bus 2.
[0011]
The user can make various settings using a plurality of panel controls 9 connected to the detection circuit 8. The panel operation element 9 may be any one that can output a signal corresponding to a user input, such as a rotary encoder, switch, pad, fader, slider, mouse, character input keyboard, performance keyboard, joystick, jog shuttle, etc. Something like that.
[0012]
In the present embodiment, the panel operator 9 is used for the user to input various settings, selections, and instructions for starting and stopping automatic performance in various processes described later.
[0013]
The panel operator 9 may be a soft switch or the like displayed on the display 11 that is operated using another operator such as a mouse.
[0014]
The display circuit 10 is connected to the display 11 and can display various information on the display 11. For example, a template editing screen described later is displayed on the display 11. The user makes various settings with reference to the information displayed on the display 11. The display 11 may be configured by connecting an external display device.
[0015]
Further, a touch panel can be used for the display 11. In this case, the user's instruction is input when the user presses a switch or the like displayed on the display 11.
[0016]
The external storage device 7 includes an interface for an external storage device, and is connected to the bus 2 via the interface. The external storage device 7 includes, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, a DVD (Digital Versatile Disc) drive, and a semiconductor. Memory, etc.
[0017]
The external storage device 7 can store various parameters, various data, a program and a template for realizing the present embodiment, and the like.
[0018]
The RAM 3 has a working area for the CPU 5 that stores flags, registers or buffers, various parameters, and the like. The ROM 4 can store various parameters and control programs, or a program for realizing the present embodiment. In this case, it is not necessary to store programs or the like in the external storage device 7 in an overlapping manner. The CPU 5 performs calculation or control according to a control program or the like stored in the ROM 4 or the external storage device 7.
[0019]
The timer 6 is connected to the CPU 5 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 5.
[0020]
When a hard disk drive (HDD) is connected as the external storage device 7, a control program or a program for realizing the present embodiment may be stored in the hard disk (HDD) in the external storage device 7. it can. By reading a control program or the like from the hard disk into the RAM 3, the CPU 5 can be operated in the same manner as when the control program or the like is stored in the ROM 4. In this way, it is possible to easily add or upgrade a control program or the like.
[0021]
When a CD-ROM drive is connected in addition to the hard disk drive, a control program or a program for realizing the present embodiment can be stored in the CD-ROM. A control program, a program for realizing the present embodiment, and the like can be copied from the CD-ROM to the hard disk. New installation and version upgrade of control programs and the like can be easily performed.
[0022]
The tone generator circuit 12 generates a musical tone signal in accordance with the sequence data recorded in the external storage device 7 or the like or the MIDI signal or performance signal supplied from the MIDI device 18 or the like connected to the MIDI interface. To the sound system 14.
[0023]
The effect circuit 13 gives various effects to the digital musical tone signal supplied from the tone generator circuit 12.
[0024]
The sound system 14 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format, and generates a sound.
[0025]
The tone generator circuit 12 is an analog synthesizer such as a waveform memory system, FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO (Voltage Controlled Oscillator) + VCF (Voltage Controlled Filter) + VCA (Voltage Controlled Amplifier). Any method may be used.
[0026]
The tone generator circuit 12 is not limited to being configured using dedicated hardware, but may be configured using a DSP (Digital Signal Processor) + microprogram, or may be configured using a CPU + software program. Or it can be something like a sound card.
[0027]
Further, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-sharing manner, or a plurality of tone generation circuits may be formed by using one tone generator circuit for each tone generation channel. You may make it comprise.
[0028]
The performance operator 15 is connected to the detection circuit 8 and supplies a performance signal in accordance with the performance operation of the user. In the present embodiment, a performance keyboard and pad are used as the performance operator 15. The performance operator 15 is not limited to these, and any performance operator 15 may be used as long as the user can input performance information. For example, a keyboard for inputting characters, a mouse, a joystick, or the like can be used as the performance operator 15.
[0029]
The MIDI interface (MIDI I / F) 16 can be connected to an electronic musical instrument, other musical instruments, audio equipment, a computer, and the like, and can transmit and receive at least a MIDI signal. The MIDI interface 16 is not limited to a dedicated MIDI interface, and may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394). In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0030]
The MIDI device 18 is an acoustic device, a musical instrument, or the like connected to the MIDI interface 16. The form of the MIDI device 18 is not limited to a keyboard instrument, and may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be. The user can also input performance information by playing (manipulating) the MIDI device 18.
[0031]
The MIDI device 18 can also be used as an operator for inputting various data other than performance information and various settings.
[0032]
The communication interface 17 can be connected to a communication network 19 such as a LAN (local area network), the Internet, or a telephone line. The communication interface 17 is connected to the server computer 20 via the communication network 19, and the external storage device 7 such as an HDD, or A control program, a program for realizing the present embodiment, music data, and the like can be downloaded from the server computer 20 into the RAM 4 or the like.
[0033]
The communication interface 17 and the communication network 19 are not limited to wired ones and may be wireless. Moreover, you may provide both.
[0034]
FIG. 2 is a conceptual diagram showing the format of the music data MD according to this embodiment. The music data MD is automatic music data that conforms to, for example, the SMF (Standard MIDI File) format.
[0035]
The music data MD includes initial setting information HC recorded at the head, timing data representing the sound generation timing, and event data representing an event at each timing. The music data MD can be composed of a plurality of parts.
[0036]
The initial setting information is data for setting various reproduction modes during reproduction of each part (track), and includes, for example, tone color setting data, volume setting data, tempo setting data, and the like.
[0037]
The timing data is data representing the time for processing various events represented by the event data. The event processing time may be expressed as an absolute time from the start of performance, or may be expressed as a relative time that is an elapsed time from the previous event.
[0038]
The event data is data representing the contents of various events for reproducing the music. Events include note events (note data) representing notes that are directly related to the occurrence of music that is a combination of note-on events and note-off events, pitch change events (pitch bend events), tempo change events, tone change events, etc. A setting event for setting the reproduction mode of the music is included.
[0039]
In each note event, pitch, tone length (gate time) GT, and volume (velocity) VL are recorded. The pronunciation length GT represents the quarter note length as “480”. For example, the eighth note length is “240” and the half note length is “960”. For the volume VL, the minimum volume that can be set is “1”, and the maximum volume is “127”.
[0040]
At timing A of the music data MD1, a chord event CA composed of six note events that are simultaneously generated is recorded, and a chord event CB composed of six note events that are simultaneously pronounced is also recorded at timing B. It is recorded.
[0041]
In this embodiment, a set of a plurality of note events that are sounded simultaneously and a set of a plurality of note events whose sounding timings are almost the same period are defined as chord events. A plurality of note events that are sounded at substantially the same time period are a set of a plurality of note events that are sounded within a time that is considered as a chord musically when played.
[0042]
In the music data MD1, all the note events in the chord event are pronounced at the same time, and the volume is constant. When such data is reproduced, it becomes a mechanical performance without musical expression.
[0043]
In the present embodiment, first, the sound generation timing, sound generation length GT, and sound volume VL of the note event in each chord event of the music data MD1 input from the MIDI device 18 or the like or recorded in the external storage device 7 or the like are determined. By editing, the sounding timing, sounding length GT, and volume VL are varied.
[0044]
After that, muting is performed by changing the tone, volume, effect, etc. of a certain note event in the chord event, and a more natural guitar performance is simulated.
[0045]
FIG. 3 is a flowchart showing the main processing performed by the CPU 5 of FIG. 1 according to the present embodiment.
[0046]
In step SA1, the main process is started, various flags and buffers are initialized, and the process proceeds to the next step SA2.
[0047]
In step SA2, a list of music data MD recorded in the external storage device 7 or the like is displayed on the display device 11 of FIG. 1, and the user selects music data to be edited. The user selects, from the music data displayed in a list, one to be edited (applying a facial expression) using the panel operator 9 or the like. Note that the selection of music data is not limited to this method, and the user may directly specify the path of the music data storage destination. If music data is selected, the process proceeds to the next step SA3.
[0048]
In this embodiment, the music data is edited when the music data is not being reproduced. However, the music data can be edited in real time while the music data is being reproduced. In this case, reproduction of the music data selected in step SA2 is started.
[0049]
In step SA3, a list of parts included in the selected music data is displayed on the display device 11, and the user selects a part to be edited (processing part). The user selects a processing part from among the parts displayed in a list with the panel operator 9 or the like. If the processing part is selected, the process proceeds to the next step SA4.
[0050]
In step SA4, the selected music data is read from the external storage device 7 or the like into a read buffer in the RAM 3, and the reproduction tempo and time signature of the music are detected. Thereafter, the process proceeds to next Step SA5.
[0051]
In step SA5, according to the clock signal supplied from the timer 6, the event of the processing part of the selected music data is read into the work area in the RAM 3. Thereafter, the process proceeds to next Step SA6.
[0052]
In step SA6, it is detected whether or not the event timing read in step SA5 is the music data end timing (last event). If it is the end timing, the process proceeds to step SA7 indicated by a YES arrow. If it is not the end timing, the process proceeds to step SA9 indicated by a NO arrow.
[0053]
In step SA7, other processing is performed. In other processing, the music data in the reproduction buffer in the RAM 3 is saved. In addition, it is possible to start and stop the reproduction of music data, perform other editing processes, record music data, download music data, perform performance processes for performance operators, various settings, and the like. Thereafter, the process proceeds to the next step SA8 and the main process is terminated.
[0054]
In step SA9, it is determined whether the event at the current timing is a chord event. If the event at the current timing is a chord event, the process proceeds to step SA10 indicated by a YES arrow. If the event at the current timing is not a chord event, the process proceeds to step SA13 indicated by a NO arrow.
[0055]
In step SA10, each note event in the chord event of the current timing is assigned to one of strings of a stringed instrument such as a guitar. For example, in the case of a guitar, each note event is assigned to any one of 1 to 6 strings. Thereafter, the process proceeds to next Step SA11.
[0056]
In step SA11, the stroke type is determined. Stroke types include down-picking (playing from low to high strings) and up-picking (playing from high to low strings) in the guitar playing style.
[0057]
In step SA11, it is determined whether the chord event at the current timing should be played by down picking or up picking (determination of stroke type).
[0058]
Whether the picking is down-picking or up-picking differs depending on the tempo of the music, the musical composition, and the like, but in this embodiment, it is assumed that the alternate picking repeats down-picking and up-picking alternately.
[0059]
That is, if the chord event at the current timing is the beat of the front, it is determined to be down picking, and if it is the beat of the back, it is determined to be up picking. When the stroke type is determined, the process proceeds to the next step SA12.
[0060]
In step SA12, the sound generation timing of the note event in the chord event is shifted according to the stroke type determined in step SA11. That is, for down-picking, editing is performed such as shifting the sounding timing so that the notes are assigned in the order from the note event assigned to the lowest string to the note event assigned to the highest string (hereinafter referred to as this step). The process to be performed is called a shift process).
[0061]
If it is up-picking, on the contrary, the sounding timing is shifted so as to sound in the order from the highest string to the note event assigned to the lowest string. When the shifting process ends, the process proceeds to the next step SA13.
[0062]
For details of the shifting process, refer to the column of Examples in Japanese Patent Application No. 2001-114175 by the same applicant as the present application.
[0063]
In step SA13, a mute process described later is performed. The mute process divides one measure into 16 parts (corresponding to a 16th note), determines the mute position according to the template in which the mute state at each position (whether or not to mute) is recorded, and notes at the mute position Change the tone and volume of data. When the mute process ends, the process proceeds to the next step SA14.
[0064]
In step SA14, the event at the current timing or the event for which the editing process has been performed is recorded in the reproduction buffer in the RAM 3. When real-time processing is performed, the sound generation processing of the event at the current timing is performed here. Thereafter, the process proceeds to next Step SA15.
[0065]
In step SA15, an event at the next timing is read into the work area in the RAM 3. Thereafter, the process returns to step SA6 and the same processing is repeated.
[0066]
FIG. 4 is a flowchart showing the mute process performed in step SA13 of FIG. The mute process is a process for determining the mute position and changing the tone color and volume of the note data at the mute position, for example, according to the template shown in FIG.
[0067]
In step SB1, the mute process is started and the process proceeds to the next step SB2.
[0068]
In step SB2, the bar break position of the performance data is detected. It is sufficient to detect only the bar break position immediately before the current timing, but all the bar break positions may be detected and stored, and may be used after the next timing. The bar break position is detected with reference to time signature information. Thereafter, the process proceeds to the next step SB3.
[0069]
In step SB3, the position from the previous bar break position of the note data at the current timing (which number corresponds to the 16th note) is detected. Thereafter, the process proceeds to the next step SB4.
[0070]
In step SB4, information corresponding to the current timing of the template selected in the template selection / editing process to be described later is applied to the note data at the current timing to change the sound generation characteristics such as timbre and volume. Thereafter, the process proceeds to the next step SB5, where the mute process is terminated.
[0071]
FIG. 5 is an example of a template applied in the mute process of FIG. In the template, one measure is divided into 16 (corresponding to 16th notes), and the mute state (whether or not to mute) at each position is recorded. In the figure, “1” is a sound that is muted, and “0” is a sound that is not muted (normal sound).
[0072]
FIG. 6 is an example of a template editing screen. The user can edit the template shown in FIG. 5 on the template editing screen.
[0073]
The template editing screen 21 is displayed on the display 11 of FIG. 1, and 16 sixteenth notes 22 are displayed side by side in the screen. The sixteenth note 22 includes a normal note 22a and a mute note 22b, which correspond to “0” and “1” of the template, respectively.
[0074]
The user operates the pointer 23 using the panel operation element 9 of FIG. 1 and clicks the sixteenth note 22 to switch between the normal note 22a and the note 22b to be muted. In this way, display using a GUI (graphical user interface) simplifies template editing.
[0075]
Further, the user can change the repeat position by operating the pointer 23 using the panel operator 9 of FIG. 1 and moving the repeat start point 24a and the repeat end point 24b to the left and right. Repeat symbols are displayed below the repeat start point 24a and the repeat end point 24b. The rule of repeat by these repeat start point 24a and repeat end point 24b is the same as the repeat symbol of a general music symbol.
[0076]
In this way, when the user changes the repeat position, for example, a template can be applied to a musical piece having 16 or more notes converted to a sixteenth note in one measure such as a 5/4 time signature.
[0077]
FIG. 7 is a flowchart showing the template setting editing process. This template setting editing process is an interruption process started by a user's template setting editing request.
[0078]
In step SC1, template setting editing processing is started, and the process proceeds to next step SC2.
[0079]
In step SC2, a template application method in the mute process of FIG. 4 is set. Template application methods include one that repeatedly uses one template, one that selects a plurality of templates and switches them in order, and one that uses a plurality of templates at random. The user selects one of them. Thereafter, the process proceeds to next Step SC3.
[0080]
In step SC3, a template to be applied in the mute process of FIG. 4 is selected. The template selection differs depending on the template application method selected in step SC2. When one template is used repeatedly, one template is selected. To select multiple templates and switch them in order, select multiple templates and specify their order. It is also possible to specify a repeat position. When a plurality of templates are used randomly, it is not necessary to select them. However, a plurality of templates may be selected and applied randomly among them. Thereafter, the process proceeds to next Step SC4.
[0081]
In step SC4, it is confirmed whether or not to edit the template selected in step SC3. When editing, the process proceeds to step SC5 indicated by a YES arrow. When editing is not performed, the process proceeds to step SC9 indicated by a NO arrow, and the template selection editing process is terminated.
[0082]
In step SC5, the template editing screen 21 of FIG. 6 is displayed on the display 11 of FIG. Thereafter, the process proceeds to next Step SC6.
[0083]
In step SC6, designation of the mute position by the user is accepted. The mute position is designated by operating the pointer 23 with the panel operation element 9 and clicking on the sixteenth note 22 as described above. Thereafter, the process proceeds to next Step SC7.
[0084]
In step SC7, designation of the repeat position by the user is accepted. As described above, the mute position is designated by operating the pointer 23 with the panel operation element 9 and moving the repeat start point 24a and the repeat end point 24b to the left and right. Thereafter, the process proceeds to next Step SC8.
[0085]
In step SC8, the template edited in step SC6 and step SC7 is saved. Thereafter, the process proceeds to the next step SC9, where the template selection / editing process is terminated.
[0086]
As described above, according to the present embodiment, the chord data is automatically designated as either down picking or up picking in the guitar stroke performance method, and the sound timing, volume, and sound time of the note data in the chord data are appropriately varied. Can be given.
[0087]
Further, according to the present embodiment, it is possible to simulate the mute playing method of the guitar by changing the tone color, volume and the like of the note event according to the template.
[0088]
Further, according to the present embodiment, a template for simulating a mute playing method can be easily and appropriately edited using a GUI. In addition, the template loop position and the like can be set.
[0089]
Further, according to the present embodiment, it is possible to perform a performance rich in natural expressions by automatically adding expressions of stroke performance and mute performance to music data having no expression.
[0090]
In this embodiment, the musical tone characteristics are changed by changing the tone color, volume, effect, etc. of the note data at the mute position.For example, the musical tone characteristic is changed by shortening the pronunciation length of the note data at the mute position. May be.
[0091]
In the present embodiment, music data that has not been given a facial expression is used, but it is also possible to use music data for which a stroke type is determined in advance and shift processing is performed.
[0092]
The format of the music data (performance data) is “event + relative time” that shows the time of occurrence of the performance event as the time from the previous event, and the time of occurrence of the performance event is the absolute time in the song or measure. "Event + absolute time" expressed, "pitch (rest) + note length" representing music data by note pitch and note length or rest and rest length, memory area for each performance minimum resolution Can be used in any format such as a “solid method” in which a performance event is stored in a memory area corresponding to the time at which the performance event occurs.
[0093]
The music data editing apparatus 1 of the present embodiment may take any form such as an electronic musical instrument, a form of a personal computer + application software, a karaoke apparatus, a game apparatus, a portable communication terminal such as a mobile phone, and an automatic performance piano.
[0094]
When applied to a portable communication terminal, not only when a predetermined function is completed with only the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as a whole system composed of the terminal and the server. You may make it do.
[0095]
Moreover, when taking the form of an electronic musical instrument, the form is not limited to a keyboard musical instrument, and may be a stringed musical instrument type, a percussion instrument type, or the like.
[0096]
In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0097]
In addition, you may make it implement a present Example by the commercially available computer etc. which installed the computer program etc. corresponding to a present Example.
[0098]
In that case, the computer program or the like corresponding to the present embodiment may be provided to the user while being stored in a storage medium that can be read by the computer, such as a CD-ROM or a floppy disk.
[0099]
When the computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program or various data may be provided to the computer or the like via the communication network.
[0100]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0101]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a music data editing apparatus capable of automatically giving a musical expression to music data.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a music data editing apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a format of music data MD according to an embodiment of the present invention.
FIG. 3 is a flowchart showing main processing according to an embodiment of the present invention performed by a CPU 5 in FIG. 1;
FIG. 4 is a flowchart showing a mute process performed in step SA13 of FIG.
FIG. 5 is an example of a template.
FIG. 6 is an example of a template editing screen.
FIG. 7 is a flowchart showing template editing processing according to the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Music data editing apparatus, 2 ... Bus, 3 ... RAM, 4 ... ROM, 5 ... CPU, 6 ... Timer, 7 ... External storage device, 8 ... Detection circuit, 9 ... Panel operation element, 10 ... Display circuit, 11 DESCRIPTION OF SYMBOLS ... Display, 12 ... Sound source circuit, 13 ... Effect circuit, 14 ... Sound system, 15 ... Performance operator, 16 ... MIDI I / F, 17 ... Communication I / F, 18 ... MIDI apparatus, 19 ... Communication network, 20 ... Server computer, 21 ... template editing screen, 22 ... 16th note, 23 ... pointer, 24 ... repeat position

Claims (6)

楽曲データを読み出す楽曲データ読み出し手段と、
前記楽曲データの小節区切り位置を検出する検出手段と、
複数のテンプレートを記憶する記憶手段と、
前記検出した小節区切り位置に基づき、前記複数のテンプレートを小節ごとにランダムに適用して、前記楽曲データの楽音特性を変更する変更手段と
を有する楽曲データ編集装置。
Music data reading means for reading music data;
Detecting means for detecting a bar break position of the music data;
Storage means for storing a plurality of templates;
A music data editing apparatus comprising: changing means for changing a musical tone characteristic of the music data by randomly applying the plurality of templates for each bar based on the detected bar break position.
楽曲データを読み出す楽曲データ読み出し手段と、
前記楽曲データの小節区切り位置を検出する検出手段と、
複数のテンプレートを記憶する記憶手段と、
前記検出した小節区切り位置に基づき、前記複数のテンプレートを指定した順番に小節ごとに適用して、前記楽曲データの楽音特性を変更する変更手段と
を有する楽曲データ編集装置。
Music data reading means for reading music data;
Detecting means for detecting a bar break position of the music data;
Storage means for storing a plurality of templates;
A music data editing apparatus comprising: changing means for changing a musical tone characteristic of the music data by applying the plurality of templates to each bar in a specified order based on the detected bar break position.
さらに、前記テンプレートを編集するテンプレート編集手段を有する請求項1又は2記載の楽曲データ編集装置。  The music data editing apparatus according to claim 1, further comprising template editing means for editing the template. 前記楽音特性は、楽曲データの音量、効果、音色の少なくとも1つである請求項1〜3のいずれか1つに記載の楽曲データ編集装置。  The music data editing apparatus according to any one of claims 1 to 3, wherein the musical sound characteristic is at least one of a volume, an effect, and a timbre of music data. 楽曲データを読み出す楽曲データ読み出し手順と、
前記楽曲データの小節区切り位置を検出する検出手順と、
前記検出した小節区切り位置に基づき、複数のテンプレートを記憶する記憶手段から前記複数のテンプレートを読み出し、小節ごとにランダムに適用して、前記楽曲データの楽音特性を変更する変更手順と
を有する楽曲データ編集手順をコンピュータに実行させるためのプログラム。
Music data reading procedure for reading music data,
A detection procedure for detecting a bar break position of the music data;
Music data having a change procedure for reading the plurality of templates from storage means for storing a plurality of templates based on the detected bar break position and applying the random templates for each bar to change the musical tone characteristics of the music data A program that causes a computer to execute editing procedures.
楽曲データを読み出す楽曲データ読み出し手順と、
前記楽曲データの小節区切り位置を検出する検出手順と、
前記検出した小節区切り位置に基づき、複数のテンプレートを記憶する記憶手段から前記複数のテンプレートを読み出し、指定した順番に小節ごとに適用して、前記楽曲データの楽音特性を変更する変更手順と
を有する楽曲データ編集手順をコンピュータに実行させるためのプログラム。
Music data reading procedure for reading music data,
A detection procedure for detecting a bar break position of the music data;
A change procedure for reading the plurality of templates from the storage means for storing a plurality of templates based on the detected bar break position and applying them to each measure in a specified order to change the musical tone characteristics of the music data. A program for causing a computer to execute a music data editing procedure.
JP2001290543A 2001-09-25 2001-09-25 Music data editing apparatus and program Expired - Fee Related JP3654227B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001290543A JP3654227B2 (en) 2001-09-25 2001-09-25 Music data editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001290543A JP3654227B2 (en) 2001-09-25 2001-09-25 Music data editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2003099039A JP2003099039A (en) 2003-04-04
JP3654227B2 true JP3654227B2 (en) 2005-06-02

Family

ID=19112842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001290543A Expired - Fee Related JP3654227B2 (en) 2001-09-25 2001-09-25 Music data editing apparatus and program

Country Status (1)

Country Link
JP (1) JP3654227B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536257B2 (en) 2004-07-07 2009-05-19 Yamaha Corporation Performance apparatus and performance apparatus control program
JP2006174982A (en) * 2004-12-22 2006-07-06 Daito Giken:Kk Game machine table and presentation control data editing system
JP4254793B2 (en) 2006-03-06 2009-04-15 ヤマハ株式会社 Performance equipment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127673A (en) * 1991-10-30 1993-05-25 Roland Corp Score parameter input device
JP3617323B2 (en) * 1998-08-25 2005-02-02 ヤマハ株式会社 Performance information generating apparatus and recording medium therefor
JP3484988B2 (en) * 1998-09-22 2004-01-06 ヤマハ株式会社 Performance information editing method and recording medium storing performance information editing program
JP3721822B2 (en) * 1999-01-28 2005-11-30 ヤマハ株式会社 Rendition style input system
JP3702690B2 (en) * 1999-01-29 2005-10-05 ヤマハ株式会社 Automatic performance control data input device
JP3675287B2 (en) * 1999-08-09 2005-07-27 ヤマハ株式会社 Performance data creation device

Also Published As

Publication number Publication date
JP2003099039A (en) 2003-04-04

Similar Documents

Publication Publication Date Title
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JPH10214083A (en) Musical sound generating method and storage medium
JP3747758B2 (en) Automatic performance device
JP4407473B2 (en) Performance method determining device and program
JP3654227B2 (en) Music data editing apparatus and program
JP3680756B2 (en) Music data editing apparatus, method, and program
JP3656584B2 (en) Performance data processing apparatus and program
JP3379414B2 (en) Punch-in device, punch-in method, and medium recording program
JP4003625B2 (en) Performance control apparatus and performance control program
JP5104414B2 (en) Automatic performance device and program
JP3632487B2 (en) Chord detection device for electronic musical instruments
JP3873880B2 (en) Performance assist device and performance assist program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3777976B2 (en) Performance information analyzing apparatus and recording medium
JP4182889B2 (en) Chord composition pitch determination device and program
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program
JP2002333883A (en) Musical piece data editing system, method and program
JP2000003175A (en) Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium
JPH10254448A (en) Automatic accompaniment device and medium recorded with automatic accompaniment control program
JP3733887B2 (en) Music data editing apparatus and program
JP3637782B2 (en) Data generating apparatus and recording medium
JP5104415B2 (en) Automatic performance device and program
JP3680776B2 (en) Performance information processing apparatus, method and program
JP2005249903A (en) Automatic performance data editing device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050221

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees