JP3709821B2 - Music information editing apparatus and music information editing program - Google Patents
Music information editing apparatus and music information editing program Download PDFInfo
- Publication number
- JP3709821B2 JP3709821B2 JP2001306737A JP2001306737A JP3709821B2 JP 3709821 B2 JP3709821 B2 JP 3709821B2 JP 2001306737 A JP2001306737 A JP 2001306737A JP 2001306737 A JP2001306737 A JP 2001306737A JP 3709821 B2 JP3709821 B2 JP 3709821B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- music
- musical
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、所定の表示装置に表示された五線譜などの楽譜上に所望の音符や音楽記号等を適宜に入力するといった楽譜編集操作に従って、自動的に自動演奏等に用いる演奏情報を生成する楽曲情報編集装置及び楽曲情報編集プログラムに関する。特に、楽譜編集操作を加えた楽譜上の所定箇所に対応する部分的な演奏情報を自動的に生成するかしないかを適宜に選択することができ、その後における演奏情報の編集作業を簡単に行うことができるようにした楽曲情報編集装置及び楽曲情報編集プログラムに関する。
【0002】
【従来の技術】
近年、パーソナルコンピュータの普及に伴い、コンピュータを用いて楽器を演奏したり、作曲したり、編曲したり、音色を合成したりするDTM(デスクトップミュージック)により、誰でもが音楽を自由かつ簡単に楽しめるようになってきた。特に、最近のDTMにおいては、ディスプレイなどの表示装置に表示された五線譜上に所望の音符や音楽記号などを適宜に配置して楽譜編集を行うことによって、該楽譜に対応した演奏情報を自動的に生成することができるようになっている。これによると、例えばMIDI(Musical Instrument Digital Interface)規格等に関する専門的な知識の少ないユーザや、あるいは音符が読めないといったような音楽的な知識の少ないユーザであっても、より自然な演奏、美しい演奏、生々しい演奏、癖のある個性的な演奏など、表情ある多彩な演奏を行うことが可能な演奏情報を、楽譜を編集するといった簡単な操作だけで生成することができる。こうしたDTM、すなわち楽曲情報編集装置では、楽譜上の所定箇所に新たな音楽記号が入力されると、その入力した音楽記号に対応する部分的な演奏情報(これを再生データとも呼ぶ)を必ず作成し、該作成した再生データを楽譜全体を表す演奏情報の対応する箇所に記録するようにしている。
【0003】
【発明が解決しようとする課題】
上述したように、従来の楽曲情報編集装置においては、音楽記号の入力に従って必ず該入力した音楽記号に対応する再生データを自動的に作成し演奏情報内に記録していた。そのために、入力した音楽記号の表示については楽譜上にそのまま残したいが、自動的に生成された再生データについては好みにあわないのでユーザ自らが該音楽記号に対応する再生データを作成したい場合であっても、不必要な再生データが演奏情報内に記録される。このように、従来では楽譜上に入力した音楽記号を表示するための表示データだけをユーザが必要とする場合であっても、不必要な再生データが生成されて演奏情報内に記録されていたことから、ユーザ自らが再生データを新たに作成する際には、該生成された不必要な再生データを編集したり削除したりしなければならず、そうした編集作業が非常に煩わしい、という問題点があった。また、不必要な再生データを作成することは無駄であるにも関わらず、こうした再生データを作成する処理に時間を費やしていたために、処理効率が非常に悪かった。
【0004】
本発明は上述の点に鑑みてなされたもので、音楽記号を入力する際にその音楽記号に対応する再生データを生成するかしないかを選択できるようにすることで、その後における演奏情報の編集作業を簡単に行うことができるようにした楽曲情報編集装置及び楽曲情報編集プログラムを提供しようとするものである。
【0005】
【課題を解決するための手段】
本発明に係る楽曲情報編集装置は、個々の楽音を表す音符や前記楽音の演奏を特徴付ける各種音楽記号を、所定の表示画面に表示された楽譜上の適宜の位置に入力することで、該楽譜に従う楽音を再生するための演奏情報を編集する楽曲情報編集装置であって、各種音楽記号の入力に従い、該入力された音楽記号を楽譜上に表示するための楽譜表示情報を生成する表示情報生成手段と、前記生成した楽譜表示情報に対応する部分的な再生情報を生成するか否かを選択する選択手段と、前記選択手段により再生情報を生成する選択がなされた場合において、前記生成した楽譜表示情報に対応する部分的な再生情報を生成する再生情報生成手段と、前記生成した部分的な再生情報を前記演奏情報の所定位置に書き込む制御手段とを具える。
【0006】
この発明によると、入力された音楽記号に対応する部分的な再生情報を生成するか否かを選択できるようにし、再生情報を生成しない選択がなされた場合には、楽譜上に入力した音楽記号を表示するための楽譜表示情報を生成するが、入力した音楽記号に対応する再生情報を生成しない。すなわち、個々の楽音を表す音符や前記楽音の演奏を特徴付ける各種音楽記号を、所定の表示画面に表示された楽譜上の適宜の位置に入力した場合には、該入力された音楽記号を楽譜上に表示するための楽譜表示情報を生成する。また、各種音楽記号を入力する際に、前記生成した楽譜表示情報に対応する部分的な再生情報を生成するか否かを選択することができ、再生情報を生成する選択がなされた場合にのみ、前記生成した楽譜表示情報に対応する部分的な再生情報を生成し、前記生成した部分的な再生情報を前記演奏情報の所定位置に書き込む。このように、入力した音楽記号に対応する再生情報を生成するかしないかをユーザが適宜に選択することができ、再生情報を生成しない選択がなされた場合には演奏情報内に入力した音楽記号に対応する再生情報を記録しないことから、ユーザは楽譜上の音楽記号の表示を確認しながら直接演奏情報を入力するといった簡単な操作を行うだけで、該音楽記号による演奏内容をユーザ好みの演奏とすることができる。
【0007】
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
【0008】
【発明の実施の形態】
以下、添付図面を参照してこの発明の実施の形態を詳細に説明する。
【0009】
図1は、この発明に係る楽曲情報編集装置の全体構成の一実施例を示したハード構成ブロック図である。ここに示された楽曲情報編集装置のハードウエア構成例はコンピュータを用いて構成されており、そこにおいて、楽曲情報(後述するように、詳しくは演奏情報と楽譜表示情報とが含まれる)の編集はコンピュータがこの発明に係る楽曲情報編集処理を実現する所定のプログラム(ソフトウエア)を実行することにより実施される。勿論、この楽曲情報編集処理はコンピュータソフトウエアの形態に限らず、DSP(Digital Signal Processor)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウエア装置の形態で実施してもよい。また、本発明に係る楽曲情報編集装置はパーソナルコンピュータに限らず、電子楽器やカラオケ装置又は電子ゲーム装置、あるいはその他のマルチメディア機器等、任意の製品応用形態をとっているものであってもよい。
【0010】
本実施例に示す楽曲情報編集装置は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御されるようになっている。CPU1は、この楽曲情報編集装置全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してリードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3、MIDIインタフェース(I/F)4、操作回路5、表示回路6、音源回路7、外部記憶装置8、通信インタフェース(I/F)9がそれぞれ接続される。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続される。すなわち、タイマ1Aは時間間隔を計数したり、楽譜編集に伴い生成される楽曲情報の中の演奏情報に従って楽曲を再生する際に用いる演奏テンポを設定したりするためのクロックパルスを発生する。このようなタイマ1AからのクロックパルスはCPU1に対して処理タイミング命令として与えられたり、あるいはCPU1に対してインタラプト命令として与えられる。CPU1は、これらの命令に従って各種処理を実行する。
【0011】
ROM2は、CPU1により実行あるいは参照される各種制御プログラム(例えば、後述する楽曲情報編集処理などのプログラム)や各種データ(例えば、後述する音楽記号定義テーブルや曲テンプレートなど)や複数の音楽記号のそれぞれを表示するための複数の音楽記号画像データや音符を表示するための音符画像データ等を格納するものである。RAM3は、ユーザによる楽譜編集操作に伴って生成される1つの楽譜及び該楽譜に対応する楽曲を表す楽曲情報(後述するように、演奏情報と楽譜表示情報とを含む)やCPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中の制御プログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。
【0012】
ここで、上述したROM2に記憶される音楽記号定義テーブル及び曲テンプレートについて、簡単に説明する。まず、音楽記号定義テーブルについて説明する。
音楽記号定義テーブルは音楽記号毎の種類定義情報、すなわち楽譜編集の際に表示装置6A(例えば、ディスプレイ)に表示された五線譜上に入力することが可能な音楽記号の全てについて、それぞれの音楽記号を所定の種類に分類する定義情報である。音楽記号を所定の種類別に大きく分けると、第1の種類として楽曲全体(例えば、メロディに関するメロディパート、ベースやコード演奏などに関する伴奏パート、リズム伴奏に関するリズムパートなどの複数パートの全て)に対して音楽的な影響を及ぼす記号、第2の種類として1つのパートに対してのみに音楽的な影響を及ぼし、音符表示の編集を必要とせず予め用意されている音楽記号の画像データをそのまま表示に使う記号、第3の種類として1つのパートにおける特定箇所の音符に対して音楽的な影響を及ぼし、特定箇所の音符表示の編集を必要とし予め用意されている音楽記号と音符の画像データを使って新たな表示用の画像データを生成してそれを表示に使う記号とがある。上記第1の種類に分類される音楽記号はおもにテンポを制御するために用いられる音楽記号(例えば、アレグロやリタルダンドなど)であり、この実施例ではこうした音楽記号を「マスタ独立記号」と呼ぶ。上記第2の種類に分類される音楽記号はおもにパートごとの音量を制御するために用いられる音楽記号であり(例えば、メゾ・フォルテやピアニッシモなど)、この実施例ではこうした音楽記号を「(通常)独立記号」と呼ぶ。上記第3の種類に分類される音楽記号はおもに音符の音高を変化させたり、発音長を変化させたり、隣接する音符と連続的につなげたり、装飾音を付加したりするために用いられる音楽記号(例えば、チョーキングやトリルなど)であり、この実施例ではこうした音楽記号を「装飾記号」と呼ぶ。ユーザによって五線譜上に入力されたそれぞれの音楽記号を上記3つの種類のいずれかに分類するために、上記したような音楽記号定義テーブルが予めROM2に用意されている。
【0013】
次に、曲テンプレートについて簡単に説明する。
曲テンプレートは大きく分けて、音楽記号と、表示データ(後述する)から再生データ(後述する)を作成するための方法を表す情報とから構成されるデータである。すなわち、個々の曲テンプレートは音楽記号毎に再生データの作成方法を記憶しており、各音楽記号に従う音楽的特徴を実現するための楽音制御情報(つまり再生データ)を表示データを用いて作成することができるようになっている。例えば、音楽記号と表情付けのための楽音制御情報との対応関係を所定の表情付けアルゴリズムにおけるルールとして設定し、この表情付けルールを表す生成方法情報を予め音楽記号毎に記憶しておき(つまり曲テンプレート)、入力された音楽記号に対応する表情付けアルゴリズムに従って楽音制御情報を生成して演奏情報に付加する。こうした曲テンプレートと表示データを用いた楽音制御情報の生成については、一例として本出願人が既に出願済みの特開2001‐159892号がある。
【0014】
図1に示すハードウエア構成の説明に戻って、MIDIインタフェース(I/F)4は、当該楽曲情報編集装置に接続された外部の電子楽器4A等からMIDI規格の演奏情報(つまり、MIDIデータ)を当該楽曲情報編集装置へ入力したり、あるいは当該楽曲情報編集装置からMIDI規格の演奏情報(MIDIデータ)を外部の電子楽器4A等へ出力するためのインタフェースである。外部の電子楽器4Aはユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、弦楽器型、管楽器型、打楽器型、身体装着型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってよい。
【0015】
なお、MIDIインタフェース4は専用のMIDIインタフェースを用いるものに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェース4を構成するようにしてもよい。この場合、MIDIデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェース4として上記したような汎用のインタフェースを用いる場合には、外部の電子楽器4AはMIDIデータ以外のデータも送受信できるようにしてよい。勿論、演奏情報に関するデータフォーマットはMIDI形式のデータに限らず、他の形式であってもよく、その場合はMIDIインタフェース4と外部の電子楽器4Aはそれにあった構成とする。
【0016】
操作子5Aは、表示装置6Aに表示された五線譜に対して音符や音楽記号を入力するための各種のスイッチ等を含んで構成される。勿論、音高、音色、効果等を選択・設定・制御するために用いる数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは表示装置6Aに表示される所定のポインティングデバイスを操作するために用いるマウスなどの各種操作子を含んでいてよい。操作回路5は、操作子5Aの各スイッチの操作状態を検出し、その操作状態に応じたスイッチ情報をデータ及びアドレスバス1Dを介してCPU1に出力する。表示回路6はユーザによる楽譜編集を補助するためにユーザに対し提示する五線譜や、ユーザが提示された五線譜上に入力することのできる音符や音楽記号などの各種記号一覧等の各種情報を、例えば液晶表示パネル(LCD)やCRT等から構成される表示装置6Aに表示するのは勿論のこと、演奏情報を再生する際に用いる各種演奏条件やCPU1の制御状態などを表示装置6Aに表示する。
【0017】
音源回路7は、複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた演奏情報を入力し、この演奏情報に基づいて楽音信号を発生する。音源回路7から発生された楽音信号は、アンプやスピーカなどを含むサウンドシステム7Aから発音される。演奏情報の形式はMIDI形式のようなディジタル符号化されたものであってもよいし、PCM、DPCM、ADPCMのような波形サンプルデータ方式からなるものであってもよい。この音源回路7とサウンドシステム7Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源回路7はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。
【0018】
外部記憶装置8は、楽譜編集操作に応じて生成される楽曲情報(後述する)や、CPU1が実行する各種制御プログラム等の制御に関するデータなどを記憶するものである。前記ROM2に制御プログラムが記憶されていない場合に、この外部記憶装置8(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置8はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD−ROM・CD−RW)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記憶媒体を利用する記憶装置であればどのようなものであってもよい。半導体メモリなどであってもよい。
【0019】
通信インタフェース(I/F)9は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークXに接続されており、該通信ネットワークXを介して、図示しないサーバコンピュータなどと接続され、当該サーバコンピュータなどから制御プログラム、若しくは上述した音楽記号定義テーブルや曲テンプレートなどの各種データを楽曲情報編集装置側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置8(例えば、ハードディスク)等に制御プログラムや各種データが記憶されていない場合に、サーバコンピュータなどから制御プログラムや各種データをダウンロードするために用いられる。クライアントとなる楽曲情報編集装置は、通信インターフェース9及び通信ネットワークXを介してサーバコンピュータへと制御プログラムや各種データのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求された制御プログラムや各種データを通信ネットワークXを介して本楽曲情報編集装置へと配信し、本楽曲情報編集装置が通信インタフェース9を介して、これら制御プログラムや各種データを受信して外部記憶装置8(例えば、ハードディスク)等に蓄積することにより、ダウンロードが完了する。なお、通信インタフェース9及び通信ネットワークXは、有線のものに限らず無線のものであってもよい。また、双方を具えていてもよい。
【0020】
なお、上述したような楽曲情報編集装置は操作子5Aや表示装置6Aあるいは音源回路7などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことはいうまでもない。
【0021】
図1に示した楽曲情報編集装置においては、表示装置6A上に表示された五線譜に対して、ユーザがマウス等を利用して適宜の位置に所望の音符や音楽記号を配置していくことで、所定の楽曲情報を生成することができるようになっている。生成される楽曲情報は1つの楽曲を表す情報であって、表示装置6A上に所定の楽譜を表示する楽譜表示情報と、その楽譜に対応する楽曲を再生する演奏情報とからなるデータである。そこで、本発明に係る楽曲情報編集装置における楽譜編集操作に従って生成される楽曲情報、つまり演奏情報及び楽譜表示情報の各々のデータ構成について、図2及び図3を用いてそれぞれ説明する。
【0022】
まず、楽曲情報に含まれる演奏情報のデータ構成について、図2を用いて説明する。図2は、演奏情報のデータ構成の一実施例を示す概念図である。この演奏情報は楽譜編集操作に従って生成される1つの楽曲全体を再生するためのデータであり、従来から知られたSMF(Standard MIDI File)等の所定のファイル形式で記録された複数パート構成(若しくは複数トラック構成)のデータである。
【0023】
図2から理解できるように、演奏情報は大別すると、1つのマスタトラックデータと複数のトラックデータとに分けることができる。マスタトラックデータは楽曲再生の際に用いる各種の再生態様を設定するための情報であり、例えば自動演奏の際に用いる演奏テンポを規定するテンポデータ、音色を規定する音色データ、音量を規定する音量データなどを含む。このマスタトラックデータは、全てのトラックデータに共通に利用されるデータである。一方、第1トラック、第2トラック、…といった各トラックデータは自動演奏される楽曲の再生内容を表わす情報であり、各パート(例えば、メロディに関するメロディパート、ベースやコード演奏などに関する伴奏パート、リズム伴奏に関するリズムパート)毎のタイミングデータとイベントデータの組みを再生進行順に記憶しているデータである。
【0024】
各トラックデータに記憶されるタイミングデータは発音や消音などの楽曲を再生するための各種イベントデータを処理すべき時間(すなわち、タイミング)を表わすデータであり、MIDIクロックに準じたクロック数で表すことのできるデータである。このタイミングデータは、イベントを処理すべきタイミングを曲の先頭や各小節の先頭からの絶対時間(つまり、絶対的なクロック数)、あるいは1つ前のイベントからの相対時間(つまり、相対的なクロック数)で示される。各トラックデータに記憶されるイベントデータは、発音や消音などの楽曲を再生するための各種イベントの内容を表わすデータである。こうした各種イベントの内容としてはキーオン、キーオフ、テンポ変更、音色変更などがあり、これらのイベントを基にして楽曲再生(つまり自動演奏)は行われる。これらのタイミングデータや演奏イベントデータに対しては、該イベントデータと対応しているオブジェクトデータ(後述する図3参照)を表す識別子(ID)が必要に応じて付加される。すなわち、識別子IDはオブジェクト情報が存在するタイミングデータ及び演奏イベントデータに対してのみ付加されるものであり、この識別子IDにより演奏イベントとオブジェクトデータ(詳しくは表示データ)との対応をとるようにしている。この識別子(ID)は、1回の楽譜編集に対して1個の固有の識別子(ID)が割当てられる。例えばID1、ID2、ID3、…などの固有の記号が識別子(ID)として、1回の楽譜編集毎にそれぞれ割当てられることになる。
【0025】
なお、演奏情報は図2に示したようにマスタトラックデータと各トラックデータとが連続的に記憶領域に記憶されているものに限らず、飛び飛びの記憶領域に散在して記憶されていてもよい。例えば、マスタトラックデータと各トラックデータとを別々のメモリ上に記憶してもよい。ただし、この場合には各々散在するデータを、連続するデータとして別途管理することが必要であることはいうまでもない。例えば、マスタトラックデータと各トラックデータとを関連づけしたテーブルを用意しておき、このテーブルを参照することによって1つの演奏情報を決定するようにしてよい。さらに、複数パートに関するタイミングデータと演奏イベントデータとを1つのトラックデータに混在記憶させてもよく、この場合には各タイミングデータ及び演奏イベントデータ毎にトラックを識別するためのトラック識別データなどを付与しておくとよい。
【0026】
次に、楽曲情報に含まれる楽譜表示情報のデータ構成について、図3を用いて説明する。図3は、楽譜表示情報のデータ構成の一実施例を示す概念図である。この楽譜表示情報は楽譜編集の際に入力された音楽記号に関連する楽譜を表示装置6A上に表示するためのデータであり、入力された音楽記号に関する演奏情報と対応付けられて記憶されている。
【0027】
図3から理解できるように、楽譜表示情報は大別すると、オブジェクト情報とIDリスト情報とに分けることができる。オブジェクト情報は複数のオブジェクトデータ(第1オブジェクト、第2オブジェクト、第3オブジェクト、…)からなり、各オブジェクトデータは識別子(ID)と表示データとを含む。識別子(ID)は個々のオブジェクトデータを識別するためのデータであり、それぞれのオブジェクトデータごとに固有の記号(例えばID1、ID2、ID3、…など)が付される。各オブジェクトデータはこの識別子(ID)によって、同じ記号の識別子(ID)が付された演奏情報のタイミングデータ及び演奏イベントデータと対応付けされる。表示データは楽譜編集に従って入力された音楽記号や該音楽記号によって編集が加えられた音符などの表示画像を作成するためのデータであり、これに従って表示装置6Aに表示した五線譜上に楽譜編集における音楽記号の入力に従う内容の楽譜を表示することができるようになっている。表示データは、楽譜表示用のタイミングデータと楽譜表示用のイベントデータとを演奏進行順(すなわち、表示装置6A上に表示する楽譜の表示順)に記憶する。例えば、楽譜編集の際に装飾記号が入力された場合には、入力された装飾記号と該装飾記号に付随する一連の音符や他の装飾記号(つまり、入力された装飾記号により音楽的に影響が及ぼされるもの全て)を表すデータが、音符イベントと装飾記号イベントとを組み合わせた1つのイベントデータとして表示データに記録される。音符イベントは、表示する音符の内容を表わすデータである。装飾イベントは、表示する装飾記号の内容を表わすデータである。楽譜表示用のタイミングデータは、表示装置6A上における音符イベントデータ(又は音符イベントと装飾記号イベントとを組み合わせたイベントデータ)の表示位置を表わすデータである。該楽譜表示用のタイミングデータは、上述した演奏情報におけるタイミングデータと同様のMIDIクロックに準じたクロック数で表わされるデータである。また、楽譜編集の際に独立記号が入力された場合には、該独立記号を表すデータのみが1つのイベントデータとして記録される。
【0028】
IDリスト情報は、各トラック毎で使用している識別子(ID)情報を表示の順番に記録したデータである。マスタトラックIDリストはマスタ独立記号、すなわち全てのパート(もしくはトラック)に影響する記号に対して付された識別子(ID)を記録する。第1トラックIDリストは独立記号や装飾記号など、すなわち第1トラック(パート)に影響する記号に対して付された識別子(ID)をそれぞれの記号毎に装飾記号IDリスト又は独立記号IDリストに分類して記録する。
【0029】
図1に示した楽曲情報編集装置においては、表示装置6Aに表示されている五線譜に対して、ユーザがマウス等を利用して適宜の位置に音符や音楽記号を配置していくことで、楽曲情報を生成することができる。特に、ユーザが五線譜上に音楽記号を入力した場合には、該楽譜編集操作に応じた楽譜表示を行う楽譜表示情報を生成し、該生成した楽譜表示情報と予め用意された曲テンプレートとを用いて作成した楽譜編集に対応する再生データに識別子(ID)を付加して演奏情報の所定位置に記憶する。そこで、こうした表示装置6Aに表示された五線譜上でのユーザによる楽譜編集に伴って行われる楽曲情報の生成処理、すなわち楽譜表示情報及び演奏情報を生成する楽曲情報編集処理について説明する。図4は、図1に示した楽曲情報編集装置におけるCPU1で実行する「楽曲情報編集処理」の一実施例を示すフローチャートである。この「楽曲情報編集処理」は、当該プログラムの起動が指示されて終了が指示されるまでの間動作する処理である。以下、図4に示したフローチャートに従って、当該処理の動作を説明する。
【0030】
ステップS1では、五線譜を表示する。すなわち、ユーザがマウス等を利用して音符や音楽記号を適宜の位置に配置して楽曲を生成しやすくするために、表示装置6A上に五線譜を表示する。ステップS2では、作成済みの楽曲情報を選択して表示装置6A上に楽譜を表示する指示が行われたか否かを判定する。作成済みの楽曲情報を選択して表示する指示は、既存の楽曲情報を編集する場合や、あるいは既存の楽曲情報を利用しながら新たな楽曲情報を作成する場合などに行われる指示である。作成済みの楽曲情報を選択して楽譜を表示する指示が行われていた場合には(ステップS2のYES)、「楽譜の表示」処理を行う(ステップS3)。この「楽譜の表示」処理では、選択された楽曲情報に従って表示装置6A上に楽譜を表示する。すなわち、ユーザが操作子5A等を用いてROM2やRAM3あるいは外部記憶装置8などに予め記憶されている楽曲情報の中から所望の楽曲情報を選択すると、該選択した楽曲情報に従って、表示装置6A上に表示した五線譜に対して音符や音楽記号などを所定の位置に順次に表示して所定の楽曲の楽譜表示を完成する(詳しくは後述する)。一方、作成済みの楽曲情報を選択して楽譜を表示する指示が行われていない場合には(ステップS2のNO)、上記「楽譜の表示」処理を行わないで、ステップS4の処理へいく。すなわち、既存の楽曲情報を利用せずに最初から最後まで新規に楽曲情報を作成する場合には、作成済みの楽曲情報を選択して楽譜を表示する指示を行う必要がないことからそうした指示は行われない。したがって、こうした場合には「楽譜の表示」処理を行わない。
【0031】
ステップS4では、演奏イベントを入力する指示があったか否かを判定する。すなわち、ユーザが操作子5A等を用いて五線譜上に新たに音符を追加する、あるいは五線譜上に既に表示されている音符を編集する(具体的には、音符の削除や音符の配置位置の変更、あるいは音符種類の変更など)といった指示があったか否かを判定する。演奏イベントを入力する指示があった場合には(ステップS4のYES)、入力された演奏イベントのデータを演奏情報の対応する位置に書き込む(ステップS5)。例えば、五線譜上に新たに音符が追加された場合には入力された音符に関する演奏イベントデータを演奏情報の対応する位置に書き込むし、五線譜上に既に表示されている音符を編集した場合には演奏情報の対応する位置にある既存の演奏情報を削除して、入力された音符に関する演奏イベントデータを演奏情報の対応する位置に書き込む。そして、編集された部分の楽譜の表示を編集後の演奏情報の内容に従った楽譜の表示に変更する(ステップS6)。すなわち、五線譜上の表示を編集前の楽譜表示から編集後の楽譜表示へと変更する。一方、演奏イベントを入力する指示がなかった場合には(ステップS4のNO)、上記ステップS5及びステップS6の処理を行わない。
【0032】
ステップS7では、音楽記号のイベントを入力する指示があったか否かを判定する。すなわち、ユーザが操作子5A等を用いて五線譜上に新たに音楽記号を追加する、あるいは五線譜上に既に表示されている音楽記号を編集する(具体的には、音楽記号の削除や音楽記号の種類の変更など)といった指示や、音楽記号の影響を受ける音符(つまり、オブジェクト情報に含まれる音符イベント)を編集するといった指示があったか否かを判定する。音楽記号のイベントを入力する指示がなかった場合には(ステップS7のNO)、ステップS11の処理へジャンプする。他方、音楽記号のイベントを入力する指示があった場合には(ステップS7のYES)、入力された音楽記号が独立記号であるか否かを判定する(ステップS8)。入力された音楽記号が独立記号である場合には(ステップS8のYES)、「独立記号の編集」処理を実行する(ステップS9)。入力された音楽記号が独立記号でない場合、すなわち装飾記号である場合には(ステップS8のNO)、「装飾記号の編集」処理を実行する(ステップS10)。これらの「独立記号の編集」処理あるいは「装飾記号の編集」処理では、入力された音楽記号のイベントに関するデータを楽曲情報の中の演奏情報と楽譜表示情報にそれぞれ書き込む処理を行う。こうした処理については後述することから、ここでの詳細な説明を省略する。楽曲の再生が指示された場合には、楽曲情報の中の演奏情報に従って楽曲を再生する(ステップS11)。例えば、SMF(Sequential MIDI File)などを使っての自動演奏処理が行われる。ステップS12では、該楽曲情報編集プログラムを終了する指示があったか否かを判定する。終了指示があった場合には(ステップS12のYES)、該処理を終了する。終了指示がない場合には(ステップS12のNO)、ステップS2の処理に戻って、上記ステップS2〜ステップS12までの処理を繰り返すことにより、楽譜編集操作に従う楽曲情報生成処理を引き続き実行する。
【0033】
ここで、上述した「楽曲情報編集処理」のステップS3で起動する「楽譜の表示」処理について、図5を用いて説明する。図5は、「楽譜表示処理」の一実施例を示したフローチャートである。
まず、選択された楽曲情報のうちの演奏情報に従った楽譜を表示する(ステップS21)。すなわち、演奏情報のタイミングデータと演奏イベントデータとに従って、表示装置6Aの五線譜上の適宜の位置に音符や休符などを配置して楽譜を表示する。この際に、選択された楽曲情報の演奏情報から識別子IDの付されたタイミングデータ及び演奏イベントデータを抽出して、該抽出された識別子IDの付された各データについての表示を行わないように予め設定しておく。そのため、このステップS21の処理によって表示装置6A上に表示される楽譜には、装飾記号により影響を及ぼされた音符などが表示されない。ステップS22では、IDリスト情報にIDリストがあるかないかを判定する。すなわち、該楽曲はマスタ独立記号や独立記号若しくは装飾記号に関する何らかの楽譜編集が既に行われているものであり、該編集に伴って楽譜表示情報におけるIDリスト情報のIDリスト(つまり、マスタトラックIDリスト、第1トラックIDリスト、第2トラックIDリスト、…)の少なくともいずれかのIDリストに識別子IDが登録済みであるか否かを判定する。
【0034】
IDリスト情報にIDリストがない場合には(ステップS22のNO)、当該処理を終了する。すなわち、この場合には、該楽曲に対してマスタ独立記号や独立記号若しくは装飾記号等に関する何らかの編集が行われていない楽曲であり、上記ステップS21の処理において五線譜上に該楽曲に関する全ての楽譜が表示されていることから、後述するステップS23〜ステップS32までの処理を行わずに、該処理を終了する。一方、IDリスト情報にIDリストがある場合には(ステップS22のYES)、全てのトラックに関するIDリスト(つまり、第1トラックIDリスト、第2トラックIDリスト、…)について、装飾記号IDリストにデータが記録されているか否かを判定する(ステップS23)。装飾記号IDリストにデータが記録されている場合には(ステップS23のYES)、すなわち該楽譜が装飾記号に関する楽譜編集が行われている楽曲の楽譜である場合には、装飾記号IDリストから識別子IDを読み出して、その識別子IDに対応する表示データをオブジェクト情報から読み出す(ステップS24)。そして、読み出された表示データを使って表示する楽譜のデータ(具体的には表示画像)を作成し(ステップS25)、該作成した楽譜のデータを五線譜上の対応する位置に表示する(ステップS26)。
【0035】
上記ステップS25で実行する楽譜のデータの作成処理は、当該「楽譜表示処理」プログラムとは別の専用のプログラムで行う。すなわち、装飾記号の表示に関しては音符の表示位置にあわせて、装飾記号の表示位置を調節しながら表示しなければならない。そこで、こうした表示に関する処理を素早く効率的に行うために専用のプログラムに従い、オブジェクト情報から読み出した表示データを使って五線譜上に表示する楽譜の表示画像を作成する。このように、楽譜表示に従い入力された装飾記号に関するデータを演奏情報とは別の楽譜表示情報に記憶しておき、該楽譜表示情報を用いて専用プログラムによる装飾記号に関する表示画像をまとめて作成するようにすると、こうした楽譜の表示をより素早く効率的に行うことができるようになる、という利点がある。
【0036】
ステップS27では、マスタトラック以外の全てのトラックに関するIDリスト(つまり、第1トラックIDリスト、第2トラックIDリスト、…)について、独立記号IDリストにデータが記録されているか否かを判定する。独立記号IDリストにデータが記録されている場合には(ステップS27のYES)、すなわち該楽譜が独立記号に関する楽譜編集が行われている楽曲の楽譜である場合には、独立記号IDリストから識別子IDを読み出して、その識別子IDに対応する表示データをオブジェクト情報から読み出す(ステップS28)。そして、読み出された表示データの示す音楽記号に相当する予め用意されている画像データを読み出して五線譜上の対応する位置に表示する(ステップS29)。ステップS30では、楽譜表示情報のマスタトラックIDリストにデータが記録されているか否かを判定する。楽譜表示情報のマスタトラックIDリストにデータが記録されている場合には(ステップS30のYES)、すなわち該楽譜がマスタ独立記号に関する楽譜編集が行われている楽曲の楽譜である場合には、マスタトラックIDリストから識別子IDを読み出して、その識別子IDに対応する表示データをオブジェクト情報から読み出す(ステップS31)。そして、読み出された表示データに相当する予め用意されている画像データを読み出して五線譜上の対応する位置に表示する(ステップS32)。これらの独立記号やマスタ独立記号に関しての表示については上述の装飾記号の表示と異なり、音符の表示と組み合わせて表示する必要がなく予め用意されている記号ごとの画像を対応する位置(つまり、表示データ中のタイミングデータで表される位置)に表示すればよいだけであり、音符の表示位置にあわせて独立記号やマスタ独立記号の表示位置を調節しながら表示する必要がないことから、専用のプログラムを用いることなく表示が行える。
【0037】
以上のようにして、この実施例に示す「楽譜表示処理」においては、識別子IDの付されていないタイミングデータ及び演奏イベントデータの表示と、識別子IDの付されたタイミングデータ及び演奏イベントデータの表示とを分けて表示する。すなわち、演奏情報に従って識別子IDの付されていないデータに関する楽譜をまず表示しておき、該表示に対してマスタ独立記号や独立記号若しくは装飾記号(つまり、識別子IDの付されたデータ)に関する表示を追加的に表示する。この際に、識別子IDの付されていないタイミングデータ及び演奏イベントデータの表示については、普通の音符(つまり、音楽記号による編集が加えられていない音符)であることからSMFのデータをそのまま利用して表示処理すればよい。他方、識別子IDの付されたタイミングデータ及び演奏イベントデータの表示については、なにかしらの音楽記号によって編集が加えられたものであることから、SMFのデータを利用せずに、マスタ独立記号や独立記号若しくは装飾記号に関しての楽譜編集が行われた箇所についての表示データを利用して表示処理すればよい。この実施例においては、全トラック分の音符表示、全トラック分の装飾記号、全トラック分の独立記号、マスタトラックのマスタ独立記号の順に表示処理することで、楽譜全体の表示を完成するようになっている。このように、楽譜編集の内容にあわせて演奏情報と楽譜表示情報の各々の表示データとを組み合わせて用いることによって、表示装置6A上に楽譜全体を表示する。
【0038】
なお、上述した「楽譜表示処理」においては、選択された楽曲情報の演奏情報から識別子IDの付されたタイミングデータ及び演奏イベントデータを抽出して、該抽出された識別子IDの付された各データについての表示を行わないようにしたがこれに限らない。例えば、ステップS21における楽譜表示の際には識別子IDのあり・なしに関わらず、演奏情報における全てのタイミングデータ及び演奏イベントデータについての表示を行っておき、ステップS23〜ステップS32までの各処理において、識別子IDの付されたタイミングデータ及び演奏イベントデータの表示についてのみ、既に表示済みの内容と表示内容を差し替えて、あるいは上書きして表示するようにしてもよい。
【0039】
次に、上述した「楽曲情報編集処理」のステップS9で起動する「独立記号の編集」処理について、図6を用いて説明する。図6は、「独立記号編集処理」の一実施例を示したフローチャートである。
ステップS41では、楽曲情報で使用されていないID番号(つまり識別子ID)を検出して、新たなID番号とする。例えば、既にマスタ独立記号や独立記号若しくは装飾記号を楽譜に付加しており、これらの音楽記号に対するID番号として「ID5」までが使用済みであるような場合には、「ID6」を新たなID番号とする。ステップS42では、入力された音楽記号(ここでは独立記号)に対応する表示データを作成する。ここで作成される独立記号に対応する表示データは、その独立記号を表示するための画像データを読み出す指示データである。すなわち、この指示データに従って、独立記号毎に予め用意されている表示用の画像が読み出されることにより、楽譜に独立記号が単独で表示されるようになっている。ステップS43では、新たなID番号と作成された表示データを1つのオブジェクトデータとしてオブジェクト情報に追加する。この場合に追加される表示データは入力された独立記号を五線譜上に表示するためのデータであり、該独立記号を表示するためのデータのみが記録される。ステップS44では、新たなID番号をIDリスト情報の対応するリストの対応する位置に書き込む。例えば、第1トラックとしてメロディパートの楽曲が記録されており、該メロディパートの所望の演奏箇所に対して独立記号が付加された場合には、IDリスト情報における第1トラックリストの独立記号IDリスト(図3参照)の所定位置(つまり、今回編集された記号の演奏進行に相当する順の位置)に新たなID番号を書き込む。ステップS45では、作成した表示データと予め用意されている所定の曲テンプレートとに従って再生データを作成し、該作成した再生データをタイミング検出等に従って算出された演奏情報の対応する位置に書き込む。この場合に作成される再生データは、独立記号に対応した楽曲を再生するためのデータである。演奏データに作成した再生データを書き込む際には、前記ID番号と同じID番号の識別子IDが付加される。ステップS46では、作成された表示データの示す音楽記号に相当する予め用意されている画像データを読み出して五線譜上の対応する位置に表示する。この「独立記号編集処理」により記録される演奏情報及び楽譜表示情報(オブジェクト情報及びIDリスト情報を含む)についての具体例は後述することから、ここでの詳細な説明は省略する。
【0040】
なお、上述した実施例においては、表示データと曲テンプレートとに従って作成した再生データを演奏情報のみに記録するようにしたが、演奏情報と共にオブジェクト情報にも作成した再生データを記録しておくようにしてもよい。こうすると、複数の音楽記号を用いながら順次に楽譜編集を行う場合に便利である。特に、操作に応じて楽譜編集状態を1段階前の編集状態へと順次に戻していくことのできる「undo機能」において便利である。すなわち、再生データをオブジェクト情報に識別子ID及び表示データと共に記録しておくことによって、「undo機能」を使用する毎に1段階前の表示データとそれに対応する曲テンプレートとに従って再生データを再作成しなくても、演奏情報を1段階前の編集状態へと簡単に書き換えることができる。
【0041】
次に、上述した「楽曲情報編集処理」のステップS10で起動する「装飾記号の編集」処理について、図7及び図8を用いて説明する。図7及び図8は「装飾記号編集処理」の一実施例を示したフローチャートであり、図7は前半部分の処理を、図8は後半部分の処理をそれぞれ示したフローチャートである。すなわち、図8に示した処理は図7に示した処理の後に引き続き実行される処理である。
【0042】
まず、「装飾記号の編集」処理の前半部分について、図7のフローチャートを用いて説明する。
ステップS51では、入力された音楽記号(ここでは装飾記号)が影響を及ぼす演奏イベントを演奏情報から検出する。ステップS52では、検出された演奏イベントを演奏情報から削除する。ステップS53では、削除された演奏イベントに対応する表示を消去する。すなわち、表示装置6A上に表示されている五線譜から該音符表示を消去する。ただし、この処理は行わなくてもよく、影響を及ぼす音符表示を消去せずにそのまま残して新たな画像を上書き的に表示するようにしてもよい。
【0043】
ステップS54では、ステップS51で検出した演奏イベントが識別子IDの付加されたものであるか否かを判定する。すなわち、当該装飾記号を付加する前に、既に何らかの音楽記号が付加されている演奏イベントであるか否かを判定する。検出された演奏イベントが識別子IDの付加されたものでない場合、すなわち今回の装飾記号が該演奏イベントに対して初めて付加された音楽記号である場合には(ステップS54のNO)、検出された演奏イベントと入力された音楽記号から表示データを作成する(ステップS55)。他方、検出された演奏イベントが識別子IDの付加されたものである場合、すなわち既に何らかの音楽記号が付加されている演奏イベントである場合には(ステップS54のYES)、付加されているIDに対応するオブジェクトデータから表示データを読み出し(ステップS56)、該読み出された表示データと入力された音楽記号から新たな表示データを作成する(ステップS57)。すなわち、以前入力された音楽記号と今回入力した装飾記号の両方を表示するための表示データを新たに作成する。ステップS58では、楽曲情報で使用されていないID番号(識別子ID)を検出して新たなID番号とする。ステップS59では、新たなID番号と作成された表示データを1つのオブジェクトデータとしてオブジェクト情報に追加する。なお、この際に追加されたオブジェクト情報に取り込まれたオブジェクト情報(つまり、以前に入力された音楽記号に関するオブジェクト情報)を削除してもよい。ステップS60では、新たなID番号をIDリスト情報の対応するリストの対応する位置に書き込む。例えば、第1トラックとしてメロディパートの楽曲が記録されており、該メロディパートの所望の演奏箇所に対して装飾記号が付加された場合には、IDリスト情報における第1トラックリストの装飾記号IDリスト(図3参照)の所定位置(つまり、今回編集された記号の演奏進行に相当する順の位置)に新たなID番号を書き込む。そして、新たに作成されたオブジェクトデータに取り込まれたオブジェクトデータのID(すなわち、上記ステップS56で読み出されたオブジェクトデータのID)を装飾記号リストから削除しておく。
【0044】
次に、「装飾記号の編集」処理の後半部分の処理について、図8のフローチャートを用いて説明する。
上述した図7のステップS60に続く図8のステップS61では、装飾記号が入力されたときに演奏情報を編集しない指示があったか否かを判定する。演奏情報を編集しない指示を行う場合には、例えば「SHIFT」スイッチなどの所定の操作子を押しながら装飾記号を入力するようにすればよい。装飾記号が入力されたときに演奏情報を編集しない指示があった場合、例えば「SHIFT」スイッチを押しながら装飾記号の入力を行った場合には(ステップS61のYES)、作成された表示データと演奏情報とにより作成される再生データを書き込むべき演奏情報の位置に空白データを書き込む(ステップS62)。空白データはそのデータの位置に再生データがあるべきだがあえて再生データを記録しなかったことを表すデータであり、編集された記号が影響を及ぼす時間範囲(つまり、編集された記号の表示データで表示される画像に対応した演奏時間)と、編集された記号のオブジェクトデータに付加されているID番号とを有している。他方、装飾記号が入力されたときに演奏情報を編集しない指示がなかった場合、例えば「SHIFT」スイッチを押すことなく装飾記号の入力のみを行った場合には(ステップS61のNO)、作成された表示データと予め用意されている曲テンプレートとに従って再生データを作成し、該作成した再生データを演奏情報の対応する位置に書き込む(ステップS63)。この際に、該作成した再生データの中の全てのイベントデータに対しては、新たなID番号(ステップS58参照)を付加する。ステップS64では、作成された表示データを使って表示する楽譜のデータを作成する。この楽譜データの作成処理は、当該「装飾記号編集処理」プログラムとは別の専用のプログラムで行う。ステップS65では,作成された楽譜のデータを五線譜上の対応する位置に表示する。この「装飾記号編集処理」により記録される演奏情報及び楽譜表示情報(オブジェクト情報及びIDリスト情報を含む)についての具体例は後述することから、ここでの詳細な説明は省略する。
【0045】
次に、演奏イベントを五線譜を用いた楽譜編集によらずに直接入力することによって、演奏情報の空白データを編集する「直接入力」処理について、図9を用いて説明する。図9は、「直接入力処理」の一実施例を示したフローチャートである。
ステップS71では、演奏イベントを入力する指示があったか否かを判定する。例えば、ピアノロールなどを用いて演奏イベントを入力したり、あるいは数値入力をすることにより演奏イベントを入力したりするなどして、ユーザが直接演奏イベントを入力する指示を行ったか否かを判定する。演奏イベントを入力する指示がない場合には(ステップS71のNO)、当該処理を終了する。演奏イベントを入力する指示があった場合には(ステップS71のYES)、入力の指示されたタイミングに空白データがあるか否かを判定する(ステップS72)。入力の指示されたタイミングに空白データがある場合には(ステップS72のYES)、空白データに付加されている識別子IDを入力された演奏イベントに付加して、そのデータを演奏情報の対応する位置に書き込む(ステップS73)。こうして、直接入力された演奏イベントとオブジェクト情報の表示データとを識別子IDにより対応付けておく。入力の指示されたタイミングに空白データがない場合には(ステップS72のNO)、入力された演奏イベントに基づいて演奏情報を書き換え、楽譜の表示を変更する(ステップS74)。
【0046】
ここで、楽曲情報編集処理時における表示装置6Aに表示する表示内容、演奏情報及び楽譜表示情報(オブジェクト情報及びIDリスト情報を含む)に記録する記録内容について、楽譜編集内容毎に図10〜図16を用いて順次説明する。以下に示す図10〜図16までの各図においては、上から順に表示装置6Aにおける楽譜表示例、楽譜表示例に示す入力がなされた場合に作成される演奏情報、楽譜表示例に示す入力がなされた場合に作成されるオブジェクト情報、楽譜表示例に示す入力がなされた場合に作成されるIDリスト情報についての具体例を示す。また、楽譜編集に伴って追加されるデータについては太枠で囲んで図示した。なお、以下の説明では第1トラックの楽曲(例えば、メロディパートなど)に対してのみに楽譜編集を行った場合について説明する。
【0047】
まず、楽譜編集として通常の音符のみ(つまり、音楽記号を付加していない音符)を表示装置6Aに表示された五線譜上に入力した場合における楽曲情報編集処理について、図10を用いて説明する。図10は、通常の音符のみを入力した場合における楽曲情報編集処理を説明するための概念図である。
【0048】
図10の楽譜表示例に示すように、表示装置6Aに表示された五線譜上に音符A、音符B、音符C、音符Dのような通常の音符のみを演奏進行順に入力して楽譜編集を行った場合には図4のステップS4でYESと判定され、ステップS7でNOと判定されることから、演奏情報のみが作成されて楽譜表示情報は作成されない。すなわち、楽譜表示情報に対しては、該音符A〜音符Dの入力の際にはマスタ独立記号、独立記号、装飾記号のいずれの入力も行われていないことから、オブジェクト情報及びIDリスト情報(つまりマスタトラックIDリスト、第1トラックIDリストの装飾記号IDリスト及び独立記号IDリスト)には何らのデータも記録されない。他方、演奏情報に対しては、マスタトラックには何らのデータも記録されないが、第1トラックには音符A〜音符Dの各タイミングデータ及び各音符イベントデータ(図では、例えば音符Aのタイミングデータ及び音符Aの音符イベントデータとをあわせて単に「音符A」として表示した)を時系列、すなわち演奏進行順に記録する(図4のステップS5)。こうして演奏情報の第1トラックに記録された音符A〜音符Dの各タイミングデータ及び各音符イベントに対しては、識別子IDが付加されていない。したがって、この場合には、演奏情報からこれらの音符A〜音符Dの各タイミングデータ及び各音符イベントデータのみを読み出して表示処理するだけで、図10に示したような通常の音符のみからなる楽譜を表示する(図4のステップS6)。
【0049】
次に、楽譜編集として、図10に示す楽譜表示に対して装飾記号(この実施例ではチョーキング)を入力した場合における楽曲情報編集処理について、図11を用いて説明する。図11は、装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0050】
図11の楽譜表示例に示すように、表示装置6Aに表示された音符A、音符B、音符C、音符Dのうち、音符B(図では新たな楽譜表示として音符bと表示)から音符C(図では新たな楽譜表示として音符cと表示)にかけてチョーキングを行うように楽譜編集を行った場合には図4のステップS8でNOと判定され、楽譜表示情報が作成されると共に演奏情報の対応箇所が編集される。すなわち、楽譜表示情報に対しては、オブジェクト情報の第1オブジェクトとして識別子ID「ID1」が付加された表示データ「音符b+cho(チョーキング記号)+音符c」(図に示す楽譜表示例における点線で囲んだ表示を行うためのデータ)が作成順に記録される(図7のステップS59)。IDリスト情報の第1トラックIDリストの装飾記号IDリストには、上記オブジェクト情報の第1オブジェクトに識別子IDとして記録したものと同じ識別子ID「ID1」が演奏進行順に記録される(図7のステップS60)。他方、演奏情報に対しては、マスタトラックには何らのデータも記録されないが、第1トラックには、作成した再生データが「音符B」と「音符C」のデータにかえて記録される(図8のステップS63)。再生データは、上記表示データと予め用意された曲テンプレートに従い生成されたデータである。こうして作成された再生データに含まれる全ての演奏イベントに対しては、識別子ID「ID1」が付加される。したがって、この場合には、演奏情報から音符Aと音符Dの各タイミングデータ及び各音符イベントを読み出して処理することにより音符Aと音符Dを表示し、オブジェクト情報から演奏情報に付加された識別子ID「ID1」に対応する表示データを読み出して表示処理することによって、音符bと音符cとをチョーキング記号で装飾した楽譜を表示する(図8のステップS65)。
【0051】
次に、楽譜編集として、図10に示す楽譜表示に対して装飾記号(この実施例ではチョーキング)を「SHIFT」スイッチを押しながら入力した場合(つまり、図8のステップS61でYESと判定された場合)における楽曲情報編集処理について、図12を用いて説明する。図12は、「SHIFT」スイッチを押しながら装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0052】
「SHIFT」スイッチを押しながら図11に示した楽譜表示例と同様に、表示装置6Aに表示された音符A、音符B、音符C、音符Dのうち、音符B(図では新たな楽譜表示として音符bと表示)から音符C(図では新たな楽譜表示として音符cと表示)にかけてチョーキングを行うように楽譜編集を行った場合には、図11に示したものと同様の楽譜表示情報が作成される。すなわち、楽譜表示情報に対しては、オブジェクト情報の第1オブジェクトとして識別子ID「ID1」が付加された表示データ「音符b+cho(チョーキング記号)+音符c」が作成順に記録される(図7のステップS59)。装飾記号IDリストには、識別子ID「ID1」が演奏進行順に記録される(図7のステップS60)。他方、演奏情報の第1トラックには、空白データが「音符B」と「音符C」のデータにかえて記録される(図8のステップS62)。空白データは、識別子ID「ID1」が付加された表示データに対応する演奏イベントが記録されるべき位置であることを表す演奏イベントを含まないデータである。この空白データには、識別子ID「ID1」が付加されている。この場合には、音符bと音符cとをチョーキング記号で装飾した楽譜を表示するが、該演奏情報を再生しても空白データに対応する区間は発音されない。ユーザはこうした空白データに対して適宜に演奏イベントを直接入力することにより、チョーキング表示箇所での演奏をユーザ独自の演奏で行うようにすることができる。
なお、上記実施例においては演奏情報から音符Bと音符Cとを削除して空白データを記録した例を示したがこれに限らず、空白データを記録する際に音符Bと音符Cを残しておいてそれらの演奏イベントに空白データに付加している識別子ID「ID1」を付加するようにして記録してもよい。
【0053】
次に、楽譜編集として、図11に示す楽譜表示に対して更に他の装飾記号(この実施例ではトリル)を入力した場合における楽曲情報編集処理について、図13を用いて説明する。図13は、装飾記号が付加されている部分に更に装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0054】
図13の楽譜表示例に示すように、表示装置6Aに表示された音符B(図では新たな楽譜表示として音符bと表示)から音符C(図では新たな楽譜表示として音符cと表示)にかけてチョーキングを行い、その後に音符bに対してトリルを行うように楽譜編集を行った場合には、図7のステップS51で検出される演奏イベントが図11で作成された第1トラックの再生データであることから、図7のステップS54でYESと判定されることになり、以前の楽譜編集処理で作成されたオブジェクト情報から新たなオブジェクト情報を作成する。すなわち、オブジェクト情報の第2オブジェクトとして識別子ID「ID2」を付加した表示データ「音符b+tr(トリル記号)+cho(チョーキング記号)+音符c」(図に示す楽譜表示例における点線で囲んだ表示を行うためのデータ)を、識別子ID「ID1」が付加された表示データ「音符b+cho+音符c」を基にして作成して記録する(図7のステップS56とステップS57)。したがって、識別子ID「ID2」を付加した表示データは、識別子ID「ID1」が付加されている表示データの内容を含む。IDリスト情報の第1トラックIDリストの装飾記号IDリストには、識別子IDのうち最新の識別子ID「ID2」のみが記録される。すなわち、利用されているオブジェクト情報の識別子IDだけを記録する。他方、演奏情報のマスタトラックには何らのデータも記録されないが、第1トラックには識別子ID「ID1」の付された再生データが削除されて、その位置に識別子ID「ID2」の付された新たに作成した再生データが書き込まれる(図8のステップS63)。勿論、作成された再生データに含まれる全ての演奏イベントに対しては、識別子ID「ID2」が付加されている。したがって、この場合には、演奏情報から音符Aと音符Dの各タイミングデータ及び各音符イベントを読み出して表示処理することにより音符Aと音符Dを表示し、オブジェクト情報から識別子ID「ID2」に対応する表示データを読み出して表示処理することによって音符bと音符cとをチョーキング記号及びトリル記号で装飾した楽譜を表示する(図8のステップS65)。
【0055】
次に、楽譜編集として、図10に示す楽譜表示に対して更にマスタ独立記号(この実施例ではアレグロ)を入力した場合における楽曲情報編集処理について、図14を用いて説明する。図14は、マスタ独立記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0056】
図14の楽譜表示例に示すように、表示装置6Aに表示された音符A〜音符Dの区間の最初にアレグロ(Allegro)を行うように楽譜編集を行った場合には図4のステップS8でYESと判定され、演奏情報の内容を修正することなく、マスタ独立記号に対応する再生データが追加される。すなわち、楽譜表示情報に対しては、オブジェクト情報の第1オブジェクトとして識別子ID「ID1」が付加された表示データ「Allegro」(図に示す楽譜表示例における点線で囲んだ表示を行うためのデータ)が記録される(図6のステップS43)。IDリスト情報のマスタトラックIDリストには、上記オブジェクト情報の第1オブジェクトとして記録したものと同じ識別子ID「ID1」が演奏進行順に記録される(図6のステップS44)。他方、演奏情報のマスタトラックには、演奏イベントには影響を及ぼさず、追加されたアレグロ記号に対応する再生データ(この場合にはテンポデータ)が追加される。この際に、演奏情報のマスタトラックの再生データを追加する位置に、以前からテンポデータが記録されていたような場合には、該テンポデータは削除されて新たに作成されたデータが有効となる。第1トラックには何らのデータも追加記録されないことから、音符A〜音符Dの各タイミングデータ及び各音符イベントデータが演奏進行順に記録されたままである。したがって、この場合には、演奏情報から音符A〜音符Dまでの各タイミングデータ及び各音符イベントを読み出して表示処理することにより音符A〜音符Dまでを表示し、オブジェクト情報から識別子ID「ID1」に対応する表示データを読み出して表示処理することによって「Allegro」記号が付された楽譜を表示する(図6のステップS46)。
【0057】
次に、楽譜編集として、図10に示す楽譜表示に対して更に独立記号(この実施例ではメゾ・フォルテ)を入力した場合における楽曲情報編集処理について、図15を用いて説明する。図15は、独立記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0058】
図15の楽譜表示例に示すように、表示装置6Aに表示された音符A、音符B、音符C、音符Dのうち、音符B(図では新たな楽譜表示として音符bと表示)に対してメゾ・フォルテ(mf)を付加するように楽譜編集を行った場合には図4のステップS8でYESと判定され、演奏情報の内容を修正することなく、独立記号に対応する再生データが追加される。すなわち、楽譜表示情報に対しては、オブジェクト情報の第1オブジェクトに識別子IDとして「ID1」が付加された表示データ「mf(メゾ・フォルテ記号)」(図に示す楽譜表示例における点線で囲んだ表示を行うためのデータ)が記録される(図6のステップS43)。IDリスト情報の第1トラックIDリストの独立記号IDリストには、上記オブジェクト情報の第1オブジェクトとして記録したものと同じ識別子ID「ID1」が演奏進行順に記録される(図6のステップS44)。他方、演奏情報の第1トラックには、演奏イベントには影響を及ぼさず、追加されたメゾ・フォルテ記号に対応する再生データが追加される。この実施例ではメゾ・フォルテに対応するエクスプレッションデータ(つまり、対応するトラックのみに影響を及ぼす音量データ)が「音符A」と「音符B」のデータの間に追加される。したがって、この場合には、演奏情報から音符A〜音符Dまでの各タイミングデータ及び各音符イベントを読み出して処理することにより音符A〜音符Dまでを表示し、オブジェクト情報から識別子ID「ID1」に対応する表示データを読み出して処理することによって「mf」が付された楽譜を表示する(図6のステップS46)。
【0059】
次に、楽譜編集として、図15に示す楽譜表示に対して更に装飾記号(この実施例ではトリル)を入力した場合における楽曲情報編集処理について、図16を用いて説明する。図16は、独立記号が既に付加されている部分に更に装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【0060】
図16の楽譜表示例に示すように、表示装置6Aに表示されたメゾ・フォルテが既に付されている音符B(図では新たな楽譜表示として音符bと表示)に対して、更にトリルを行うように楽譜編集を行った場合には、図7のステップS51で図15の「音符B」に対応する演奏イベントが検出されて、このイベントにはID番号が付加されていないのでステップS54でNOと判定されることになり、ステップS55で「音符B」に装飾記号が追加された部分のオブジェクト情報を新たに作成する。この場合には、以前からあった独立記号に関するオブジェクト情報については修正しない。すなわち、オブジェクト情報の第2オブジェクトとして識別子ID「ID2」を付加した表示データ「音符b+tr(トリル記号)」(図に示す楽譜表示例における一点鎖線で囲んだ表示を行うためのデータ)を新たに作成して、第1オブジェクトと共に記録する(図7のステップS59)。すなわち、識別子ID「ID1」が付加された表示データ「mf(メゾ・フォルテ記号)」は残しておく。IDリスト情報の第1トラックIDリストの装飾記号IDリストには、上記オブジェクト情報の第2オブジェクトとして新たに記録したものと同じ識別子ID「ID2」が演奏進行順に記録される(図7のステップS60)。一方、IDリスト情報の第1トラックIDリストの独立記号IDリストには、識別子ID「ID1」がそのまま記録されている。すなわち、装飾記号を追加する前に行われた独立記号(メゾ・フォルテ記号)のデータには影響を及ぼさない。他方、演奏情報に対しては、追加された装飾記号(トリル記号)に対応する再生データが演奏情報の対応する位置の演奏イベントに上書きされる。すなわち、この実施例においては、「音符B」のデータがあった位置に識別子ID「ID2」の付された再生データが上書きされて記録される。したがって、この場合には、演奏情報から音符Aと音符Cと音符Dの各タイミングデータ及び各音符イベントを読み出して処理することにより音符Aと音符Cと音符Dを表示し、オブジェクト情報から識別子ID「ID1」に対応する表示データを読み出して処理することによって「mf」記号が付され、かつ、オブジェクト情報から識別子ID「ID2」に対応する表示データを読み出して処理することによって音符bをトリル記号で装飾した楽譜を表示する(図8のステップS65)。
【0061】
なお、再生データと空白データを選択的に演奏情報に書き込む処理(図8参照)は、独立記号の編集において適応してもよい。
なお、上述した「楽曲情報編集処理」(図4参照)により生成される演奏情報のフォーマットは、イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で楽音データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域にイベントを記憶した『ベタ方式』形式のものなど、どのような形式のものであってもよい。
【発明の効果】
この発明によれば、楽譜上の所定箇所に新たな音楽記号を入力する際にその音楽記号に対応する再生データを生成するかしないかをユーザが適宜に選択することができ、再生データを生成しない選択がなされた場合には、楽譜上に入力した音楽記号を表示するための表示データを生成するが、入力した音楽記号に対応する再生データを生成することなく、代わりに空白データを演奏情報内に記録する。これにより、ユーザは楽譜上の音楽記号の表示を確認しながら直接演奏情報を入力するだけで、該音楽記号による演奏内容をユーザ好みの演奏で表現することができる。すなわち、ユーザは簡単な操作だけで演奏情報の編集作業を行うことができるようになる、という効果を得る。また、再生データが不必要な場合には再生データを生成しないように選択することで、不必要な再生データの生成に処理時間を費やすといった無駄がなくなることから処理効率が良くなる、という効果が得られる。
【図面の簡単な説明】
【図1】 この発明に係る楽曲情報編集装置の全体構成の一実施例を示したハード構成ブロック図である。
【図2】 演奏情報のデータ構成の一実施例を示す概念図である。
【図3】 楽譜表示情報のデータ構成の一実施例を示す概念図である。
【図4】 楽曲情報編集処理の一実施例を示すフローチャートである。
【図5】 楽譜表示処理の一実施例を示したフローチャートである。
【図6】 独立記号編集処理の一実施例を示したフローチャートである。
【図7】 装飾記号編集処理における前半部分の一実施例を示したフローチャートである。
【図8】 装飾記号編集処理における後半部分の一実施例を示したフローチャートである。
【図9】 直接入力処理の一実施例を示したフローチャートである。
【図10】 通常の音符のみを入力した場合における楽曲情報編集処理を説明するための概念図である。
【図11】 装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【図12】 「SHIFT」スイッチを押しながら装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【図13】 装飾記号が付加されている部分に更に装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【図14】 マスタ独立記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【図15】 独立記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【図16】 独立記号が既に付加されている部分に更に装飾記号を入力した場合における楽曲情報編集処理を説明するための概念図である。
【符号の説明】
1…CPU、1A…タイマ、2…ROM、3…RAM、4…MIDIインタフェース、4A…電子楽器、5…操作回路、5A…操作子、6…表示回路、6A…表示装置(ディスプレイ)、7…音源回路、7A…サウンドシステム、8…外部記憶装置、9…通信インタフェース、X…通信ネットワーク、1D…データ及びアドレスバス[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a musical composition for automatically generating performance information used for automatic performance or the like in accordance with a score editing operation such as appropriately inputting a desired note or a musical symbol on a score such as a staff score displayed on a predetermined display device. The present invention relates to an information editing apparatus and a music information editing program. In particular, it is possible to appropriately select whether or not to automatically generate partial performance information corresponding to a predetermined location on a score to which a score editing operation has been added, and subsequent editing of performance information is easily performed. The present invention relates to a music information editing apparatus and a music information editing program that can be used.
[0002]
[Prior art]
In recent years, with the spread of personal computers, anyone can enjoy music freely and easily with DTM (desktop music) that uses computers to play, compose, arrange, and synthesize sounds. It has become like this. In particular, in recent DTMs, performance information corresponding to a musical score is automatically obtained by arranging a desired note or musical symbol on a musical score displayed on a display device such as a display as appropriate and editing the musical score. Can be generated. According to this, even a user with little specialized knowledge about the MIDI (Musical Instrument Digital Interface) standard or a user with little musical knowledge such as not being able to read music notes, more natural performance, beautiful Performance information capable of performing various performances such as performances, fresh performances, and unique performances with habits can be generated by simple operations such as editing the score. In such a DTM, that is, a music information editing apparatus, when a new music symbol is input at a predetermined position on the score, partial performance information (also referred to as reproduction data) corresponding to the input music symbol is always created. Then, the created reproduction data is recorded at a corresponding portion of the performance information representing the entire score.
[0003]
[Problems to be solved by the invention]
As described above, in the conventional music information editing apparatus, reproduction data corresponding to the input music symbol is automatically created and recorded in the performance information without fail according to the input of the music symbol. For this reason, the user wants to create the reproduction data corresponding to the music symbol because the input musical symbol display is desired to be left on the score, but the reproduction data automatically generated is not suitable. Even if it exists, unnecessary reproduction data is recorded in the performance information. Thus, conventionally, even when the user only needs display data for displaying the musical symbols input on the score, unnecessary reproduction data is generated and recorded in the performance information. Thus, when the user himself / herself creates new reproduction data, the generated unnecessary reproduction data must be edited or deleted, and such editing work is very troublesome. was there. In addition, although it is wasteful to create unnecessary reproduction data, the processing efficiency is very poor because it takes time to create such reproduction data.
[0004]
The present invention has been made in view of the above points. When a music symbol is input, it is possible to select whether or not to generate reproduction data corresponding to the music symbol. It is an object of the present invention to provide a music information editing apparatus and a music information editing program that enable easy work.
[0005]
[Means for Solving the Problems]
The music information editing apparatus according to the present invention inputs musical notes representing individual musical sounds and various musical symbols characterizing the performance of the musical sounds at appropriate positions on a musical score displayed on a predetermined display screen. A music information editing apparatus for editing performance information for reproducing musical tones according to the present invention, wherein, in accordance with input of various music symbols, display information generation for generating score display information for displaying the input music symbols on a score Means for selecting whether or not to generate partial reproduction information corresponding to the generated score display information, and when the selection means generates reproduction information, the generated score is selected. Reproduction information generating means for generating partial reproduction information corresponding to display information, and control means for writing the generated partial reproduction information at a predetermined position of the performance information.
[0006]
According to the present invention, it is possible to select whether or not to generate partial reproduction information corresponding to an input musical symbol, and when selection is made not to generate reproduction information, the musical symbol input on the score is made. Is generated, but reproduction information corresponding to the input music symbol is not generated. That is, when musical notes representing individual musical tones and various musical symbols characterizing the performance of the musical tones are input at appropriate positions on the musical score displayed on a predetermined display screen, the input musical symbols are displayed on the musical score. Music score display information to be displayed on the screen is generated. In addition, when inputting various music symbols, it is possible to select whether or not to generate partial reproduction information corresponding to the generated score display information, and only when selection to generate reproduction information is made. Then, partial reproduction information corresponding to the generated musical score display information is generated, and the generated partial reproduction information is written at a predetermined position of the performance information. In this way, the user can appropriately select whether or not to generate reproduction information corresponding to the input music symbol, and if the selection is made not to generate reproduction information, the music symbol input in the performance information Since the playback information corresponding to the music symbol is not recorded, the user simply performs a simple operation such as inputting the performance information while confirming the display of the music symbol on the score, and the performance content by the music symbol can be changed to the user's favorite performance It can be.
[0007]
The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[0009]
FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of a music information editing apparatus according to the present invention. The hardware configuration example of the music information editing apparatus shown here is configured by using a computer, in which editing music information (including performance information and score display information in detail, as will be described later). Is implemented by a computer executing a predetermined program (software) for realizing the music information editing process according to the present invention. Of course, this music information editing process is not limited to the form of computer software, but can also be implemented in the form of a microprogram processed by a DSP (Digital Signal Processor), and is not limited to the form of this type of program. You may implement in the form of a dedicated hardware apparatus comprised including a circuit or an integrated circuit, a large-scale integrated circuit, etc. In addition, the music information editing apparatus according to the present invention is not limited to a personal computer, and may take any product application form such as an electronic musical instrument, a karaoke apparatus, an electronic game apparatus, or other multimedia equipment. .
[0010]
The music information editing apparatus shown in this embodiment is controlled by a microcomputer comprising a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The
[0011]
The
[0012]
Here, the music symbol definition table and the song template stored in the
The music symbol definition table is the type definition information for each music symbol, that is, the music symbols for all the music symbols that can be input on the staff notation displayed on the
[0013]
Next, the music template will be briefly described.
The music template is roughly divided into data composed of music symbols and information representing a method for creating reproduction data (described later) from display data (described later). That is, each song template stores a method of creating reproduction data for each music symbol, and musical tone control information (that is, reproduction data) for realizing musical features according to each music symbol is created using display data. Be able to. For example, the correspondence between music symbols and musical tone control information for facial expression is set as a rule in a predetermined facial expression algorithm, and generation method information representing the facial expression rule is stored in advance for each musical symbol (that is, Musical tone control information is generated and added to the performance information according to the expression algorithm corresponding to the input music symbol. As an example of the generation of musical tone control information using such a music template and display data, there is Japanese Patent Application Laid-Open No. 2001-159892 filed by the present applicant.
[0014]
Returning to the description of the hardware configuration shown in FIG. 1, the MIDI interface (I / F) 4 receives MIDI performance information (ie, MIDI data) from an external electronic
[0015]
The
[0016]
The
[0017]
The
[0018]
The
[0019]
The communication interface (I / F) 9 is connected to a wired or wireless communication network X such as a LAN, the Internet, or a telephone line, and is connected to a server computer (not shown) via the communication network X. This is an interface for taking in a control program or various data such as the above-described music symbol definition table and song template from the server computer or the like to the song information editing apparatus side. That is, when a control program and various data are not stored in the
[0020]
Note that the music information editing apparatus as described above is not limited to one having the
[0021]
In the music information editing apparatus shown in FIG. 1, the user arranges desired notes and music symbols at appropriate positions using a mouse or the like on the staff displayed on the
[0022]
First, the data structure of performance information included in music information will be described with reference to FIG. FIG. 2 is a conceptual diagram showing an embodiment of the data structure of performance information. This performance information is data for reproducing a whole piece of music generated in accordance with a score editing operation, and is composed of a plurality of parts (or a plurality of parts recorded in a predetermined file format such as a conventionally known SMF (Standard MIDI File)) (or Data of a plurality of tracks).
[0023]
As can be understood from FIG. 2, the performance information can be roughly divided into one master track data and a plurality of track data. The master track data is information for setting various playback modes used for music playback. For example, tempo data for defining a performance tempo used for automatic performance, tone data for defining a tone, and volume for defining a volume. Includes data. This master track data is data commonly used for all track data. On the other hand, each track data such as the first track, the second track,... Is information indicating the reproduction content of the automatically played music, and each part (for example, a melody part related to a melody, an accompaniment part related to a bass or chord performance, a rhythm) This is data in which a set of timing data and event data for each accompaniment rhythm part) is stored in the order of reproduction progress.
[0024]
The timing data stored in each track data is data representing the time (that is, timing) for processing various event data for reproducing music such as sound generation and mute, and is represented by the number of clocks according to the MIDI clock. It is possible data. This timing data indicates the timing at which an event should be processed, the absolute time from the beginning of the song or the beginning of each measure (ie, the absolute number of clocks), or the relative time from the previous event (ie, relative time). Number of clocks). The event data stored in each track data is data representing the contents of various events for reproducing music such as pronunciation and mute. The contents of these various events include key-on, key-off, tempo change, timbre change, and the like, and music reproduction (that is, automatic performance) is performed based on these events. An identifier (ID) representing object data (see FIG. 3 described later) corresponding to the event data is added to the timing data and performance event data as necessary. That is, the identifier ID is added only to timing data and performance event data in which object information exists, and the performance ID and object data (specifically, display data) are associated with this identifier ID. Yes. As this identifier (ID), one unique identifier (ID) is assigned to one musical score editing. For example, unique symbols such as ID1, ID2, ID3,... Are assigned as an identifier (ID) for each score editing.
[0025]
The performance information is not limited to the master track data and each track data continuously stored in the storage area as shown in FIG. 2, but may be stored in a scattered storage area. . For example, the master track data and each track data may be stored on separate memories. However, in this case, it is needless to say that each scattered data needs to be managed separately as continuous data. For example, a table in which master track data is associated with each track data is prepared, and one piece of performance information may be determined by referring to this table. In addition, timing data and performance event data for a plurality of parts may be mixed and stored in one track data. In this case, track identification data for identifying a track is assigned to each timing data and performance event data. It is good to keep.
[0026]
Next, the data structure of the score display information included in the music information will be described with reference to FIG. FIG. 3 is a conceptual diagram showing an embodiment of the data structure of the score display information. This score display information is data for displaying a score related to a music symbol input during score editing on the
[0027]
As can be understood from FIG. 3, the musical score display information can be roughly divided into object information and ID list information. The object information includes a plurality of object data (first object, second object, third object,...), And each object data includes an identifier (ID) and display data. The identifier (ID) is data for identifying individual object data, and a unique symbol (for example, ID1, ID2, ID3,...) Is attached to each object data. Each object data is associated with the timing data and performance event data of performance information to which the identifier (ID) of the same symbol is attached by this identifier (ID). The display data is data for creating a display image such as a music symbol input according to score editing and a note edited by the music symbol, and music in score editing is displayed on the staff displayed on the
[0028]
The ID list information is data in which identifier (ID) information used for each track is recorded in the display order. The master track ID list records a master independent symbol, that is, an identifier (ID) assigned to a symbol that affects all parts (or tracks). The first track ID list is an independent symbol, a decoration symbol, or the like, that is, an identifier (ID) given to a symbol affecting the first track (part) is displayed in the decoration symbol ID list or the independent symbol ID list for each symbol. Classify and record.
[0029]
In the music information editing apparatus shown in FIG. 1, the user arranges notes and music symbols at appropriate positions using a mouse or the like on the staff displayed on the
[0030]
In step S1, a staff score is displayed. That is, in order to make it easier for the user to generate music by arranging notes and music symbols at appropriate positions using a mouse or the like, a staff score is displayed on the
[0031]
In step S4, it is determined whether or not there is an instruction to input a performance event. That is, the user adds a new note on the staff using the
[0032]
In step S7, it is determined whether or not there is an instruction to input a music symbol event. That is, the user adds a new musical symbol on the staff using the
[0033]
Here, the “score display” process started in step S3 of the “music information editing process” described above will be described with reference to FIG. FIG. 5 is a flowchart showing an example of “score display processing”.
First, the score according to the performance information of the selected music information is displayed (step S21). That is, in accordance with the timing data of performance information and performance event data, a musical score or a rest is arranged at an appropriate position on the staff of the
[0034]
If there is no ID list in the ID list information (NO in step S22), the process ends. That is, in this case, the music is a piece of music that has not undergone any editing related to the master independent symbol, independent symbol, decoration symbol, etc., and all the musical scores related to the musical piece are stored on the staff in the process of step S21. Since it is displayed, the processing ends without performing the processing from step S23 to step S32 described later. On the other hand, if there is an ID list in the ID list information (YES in step S22), the ID list for all tracks (that is, the first track ID list, the second track ID list,...) Is included in the decoration symbol ID list. It is determined whether data is recorded (step S23). If data is recorded in the decoration symbol ID list (YES in step S23), that is, if the score is a musical score of a musical piece on which the musical score editing relating to the decoration symbol is performed, an identifier is displayed from the decoration symbol ID list. The ID is read, and the display data corresponding to the identifier ID is read from the object information (step S24). Then, musical score data (specifically, a display image) to be displayed is generated using the read display data (step S25), and the generated musical score data is displayed at a corresponding position on the staff (step S25). S26).
[0035]
The musical score data creation process executed in step S25 is performed by a dedicated program different from the “score display processing” program. In other words, the decoration symbol must be displayed while adjusting the display position of the decoration symbol in accordance with the display position of the note. Therefore, in order to perform such display-related processing quickly and efficiently, a display image of a score to be displayed on the staff is created using display data read from the object information according to a dedicated program. In this way, the data related to the decoration symbol input according to the score display is stored in the score display information different from the performance information, and the display image related to the decoration symbol by the dedicated program is created collectively using the score display information. By doing so, there is an advantage that such a musical score can be displayed more quickly and efficiently.
[0036]
In step S27, it is determined whether or not data is recorded in the independent symbol ID list for the ID lists related to all tracks other than the master track (that is, the first track ID list, the second track ID list,...). If data is recorded in the independent symbol ID list (YES in step S27), that is, if the score is a musical score of a musical piece on which the musical score editing related to the independent symbol is performed, the identifier is identified from the independent symbol ID list. The ID is read, and display data corresponding to the identifier ID is read from the object information (step S28). Then, image data prepared in advance corresponding to the music symbol indicated by the read display data is read and displayed at a corresponding position on the staff (step S29). In step S30, it is determined whether or not data is recorded in the master track ID list of the score display information. When data is recorded in the master track ID list of the score display information (YES in step S30), that is, when the score is a score of a musical piece on which the score editing related to the master independent symbol is performed, the master The identifier ID is read from the track ID list, and the display data corresponding to the identifier ID is read from the object information (step S31). Then, image data prepared in advance corresponding to the read display data is read and displayed at a corresponding position on the staff (step S32). Unlike the above-described display of decoration symbols, the display of these independent symbols and master independent symbols does not need to be combined with the display of musical notes, and an image for each symbol prepared in advance is displayed at the corresponding position (that is, the display). (The position represented by the timing data in the data), and it is not necessary to adjust the display position of the independent symbol or master independent symbol according to the display position of the note. Display can be done without using a program.
[0037]
As described above, in the “score display processing” shown in this embodiment, the timing data and performance event data without the identifier ID are displayed, and the timing data and performance event data with the identifier ID are displayed. Are displayed separately. That is, a musical score related to data without an identifier ID is first displayed in accordance with performance information, and a display regarding a master independent symbol, an independent symbol, or a decoration symbol (that is, data with an identifier ID) is displayed. Display additionally. At this time, regarding the display of the timing data and performance event data without the identifier ID, the SMF data is used as it is because it is an ordinary note (that is, a note that has not been edited with a musical symbol). Display processing. On the other hand, the display of the timing data and performance event data with the identifier ID is edited by some music symbol, so that the master independent symbol or What is necessary is just to display using the display data about the place where the musical score editing related to the independent symbol or decoration symbol is performed. In this embodiment, the display of the entire score is completed by performing display processing in the order of note display for all tracks, decoration symbols for all tracks, independent symbols for all tracks, and master independent symbols for master tracks. It has become. In this way, the entire score is displayed on the
[0038]
In the above-described “music score display process”, the timing data and performance event data with the identifier ID are extracted from the performance information of the selected music information, and each piece of data with the extracted identifier ID is extracted. The display about is not performed, but the present invention is not limited to this. For example, when displaying a score in step S21, all timing data and performance event data in the performance information is displayed regardless of the presence or absence of the identifier ID, and in each process from step S23 to step S32. Only the display of the timing data and the performance event data with the identifier ID may be displayed by replacing the already displayed contents with the displayed contents or overwriting them.
[0039]
Next, the “independent symbol editing” process started in step S9 of the “music information editing process” described above will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the “independent symbol editing process”.
In step S41, an ID number (that is, an identifier ID) that is not used in the music information is detected and set as a new ID number. For example, if a master independent symbol, an independent symbol, or a decoration symbol has already been added to the score and ID numbers up to “ID5” have already been used for these music symbols, “ID6” is set as a new ID. Number. In step S42, display data corresponding to the input music symbol (independent symbol here) is created. The display data corresponding to the independent symbol created here is instruction data for reading image data for displaying the independent symbol. In other words, according to the instruction data, a display image prepared in advance for each independent symbol is read, so that the independent symbol is displayed alone on the score. In step S43, the new ID number and the created display data are added as one object data to the object information. The display data added in this case is data for displaying the input independent symbol on the staff, and only the data for displaying the independent symbol is recorded. In step S44, the new ID number is written in the corresponding position of the corresponding list in the ID list information. For example, when a music of a melody part is recorded as the first track and an independent symbol is added to a desired performance location of the melody part, the independent symbol ID list of the first track list in the ID list information A new ID number is written at a predetermined position (that is, a position corresponding to the progression of performance of the symbol edited this time) at a predetermined position (see FIG. 3). In step S45, reproduction data is created according to the created display data and a predetermined music template prepared in advance, and the created reproduction data is written at a corresponding position in the performance information calculated according to timing detection or the like. The reproduction data created in this case is data for reproducing the music corresponding to the independent symbol. When writing the reproduction data created in the performance data, an identifier ID having the same ID number as the ID number is added. In step S46, image data prepared in advance corresponding to the musical symbol indicated by the created display data is read out and displayed at a corresponding position on the staff. Since specific examples of the performance information and score display information (including object information and ID list information) recorded by the “independent symbol editing process” will be described later, detailed description thereof will be omitted here.
[0040]
In the embodiment described above, the reproduction data created according to the display data and the song template is recorded only in the performance information. However, the reproduction data created in the object information is recorded together with the performance information. May be. This is convenient when the musical score is sequentially edited using a plurality of music symbols. In particular, it is convenient for the “undo function” that can sequentially return the musical score editing state to the previous editing state according to the operation. That is, by recording the playback data in the object information together with the identifier ID and the display data, each time the “undo function” is used, the playback data is recreated according to the display data one step before and the corresponding music template. Even without it, the performance information can be easily rewritten to the editing state one stage before.
[0041]
Next, the “decoration symbol editing” process started in step S10 of the “music information editing process” described above will be described with reference to FIGS. FIGS. 7 and 8 are flowcharts showing an example of the “decorative symbol editing process”. FIG. 7 is a flowchart showing the process of the first half, and FIG. 8 is a flowchart showing the process of the latter half. That is, the process shown in FIG. 8 is a process that is subsequently executed after the process shown in FIG.
[0042]
First, the first half of the “edit decoration symbol” process will be described with reference to the flowchart of FIG.
In step S51, a performance event influenced by the input music symbol (here, a decoration symbol) is detected from the performance information. In step S52, the detected performance event is deleted from the performance information. In step S53, the display corresponding to the deleted performance event is deleted. That is, the note display is erased from the staff notation displayed on the
[0043]
In step S54, it is determined whether or not the performance event detected in step S51 has an identifier ID added thereto. That is, before adding the decoration symbol, it is determined whether or not the performance event has already been added with some music symbol. When the detected performance event is not the one with the identifier ID added, that is, when the decoration symbol this time is the music symbol added for the first time to the performance event (NO in step S54), the detected performance Display data is created from the event and the input music symbol (step S55). On the other hand, when the detected performance event has an identifier ID added thereto, that is, a performance event to which some musical symbol has already been added (YES in step S54), it corresponds to the added ID. Display data is read from the object data to be displayed (step S56), and new display data is created from the read display data and the input music symbols (step S57). In other words, display data for displaying both the previously input music symbol and the decoration symbol input this time is newly created. In step S58, an ID number (identifier ID) that is not used in the music information is detected and set as a new ID number. In step S59, the new ID number and the created display data are added to the object information as one object data. Note that the object information captured in the object information added at this time (that is, the object information related to the music symbol input previously) may be deleted. In step S60, the new ID number is written in the corresponding position of the corresponding list in the ID list information. For example, when a music piece of a melody part is recorded as the first track and a decoration symbol is added to a desired performance location of the melody part, the decoration symbol ID list of the first track list in the ID list information is recorded. A new ID number is written at a predetermined position (that is, a position corresponding to the progression of performance of the symbol edited this time) at a predetermined position (see FIG. 3). Then, the ID of the object data taken into the newly created object data (that is, the ID of the object data read in step S56) is deleted from the decoration symbol list.
[0044]
Next, processing in the latter half of the “edit decoration symbol” processing will be described with reference to the flowchart of FIG.
In step S61 of FIG. 8 following step S60 of FIG. 7 described above, it is determined whether or not there is an instruction not to edit the performance information when the decoration symbol is input. In order to instruct not to edit the performance information, for example, a decoration symbol may be input while pressing a predetermined operator such as a “SHIFT” switch. When there is an instruction not to edit the performance information when the decoration symbol is input, for example, when the decoration symbol is input while pressing the “SHIFT” switch (YES in step S61), the generated display data and Blank data is written at the position of the performance information to be written with the reproduction data created by the performance information (step S62). Blank data is data that indicates that the playback data should be at the position of the data but that the playback data was not recorded, and is the time range in which the edited symbol affects (that is, the display data of the edited symbol). A performance time corresponding to the displayed image) and an ID number added to the object data of the edited symbol. On the other hand, when there is no instruction not to edit the performance information when the decoration symbol is input, for example, when only the decoration symbol is input without pressing the “SHIFT” switch (NO in step S61), it is created. Reproduction data is created according to the displayed data and a music template prepared in advance, and the created reproduction data is written at a corresponding position in the performance information (step S63). At this time, a new ID number (see step S58) is added to all event data in the created reproduction data. In step S64, musical score data to be displayed is created using the created display data. The musical score data creation process is performed by a dedicated program different from the “decorative symbol editing process” program. In step S65, the generated musical score data is displayed at a corresponding position on the staff. Since specific examples of performance information and score display information (including object information and ID list information) recorded by this “decorative symbol editing process” will be described later, detailed description thereof will be omitted here.
[0045]
Next, a “direct input” process for editing blank data of performance information by directly inputting performance events without using notation editing using a staff score will be described with reference to FIG. FIG. 9 is a flowchart showing an example of “direct input processing”.
In step S71, it is determined whether or not there is an instruction to input a performance event. For example, it is determined whether or not the user has instructed to directly input a performance event by inputting a performance event using a piano roll or the like, or inputting a performance event by inputting a numerical value. . If there is no instruction to input a performance event (NO in step S71), the process ends. If there is an instruction to input a performance event (YES in step S71), it is determined whether there is blank data at the input instruction timing (step S72). If there is blank data at the input instruction timing (YES in step S72), the identifier ID added to the blank data is added to the input performance event, and the data is associated with the corresponding position of the performance information. (Step S73). In this way, the performance event directly input and the display data of the object information are associated with each other by the identifier ID. If there is no blank data at the input instruction timing (NO in step S72), the performance information is rewritten based on the input performance event, and the display of the score is changed (step S74).
[0046]
Here, the display contents displayed on the
[0047]
First, the music information editing process in the case where only normal notes (that is, notes to which music symbols are not added) is input on the staff notation displayed on the
[0048]
As shown in the score display example of FIG. 10, the normal score such as the note A, the note B, the note C, and the note D is input on the staff score displayed on the
[0049]
Next, music information editing processing in the case where a decoration symbol (choking in this embodiment) is input to the score display shown in FIG. 10 as score editing will be described with reference to FIG. FIG. 11 is a conceptual diagram for explaining the music information editing process when a decoration symbol is input.
[0050]
As shown in the score display example of FIG. 11, among the note A, note B, note C, and note D displayed on the
[0051]
Next, as a score editing, when a decoration symbol (choking in this embodiment) is input to the score display shown in FIG. 10 while pressing the “SHIFT” switch (that is, YES is determined in step S61 in FIG. 8). The music information editing process in (Case) will be described with reference to FIG. FIG. 12 is a conceptual diagram for explaining music information editing processing when a decoration symbol is input while the “SHIFT” switch is pressed.
[0052]
In the same way as the score display example shown in FIG. 11 while pressing the “SHIFT” switch, note B (note that a new score display is shown in the figure) among note A, note B, note C, and note D displayed on
In the above embodiment, the blank data is recorded by deleting the note B and the note C from the performance information. However, the present invention is not limited to this, and the note B and the note C are left when the blank data is recorded. However, the identifier ID “ID1” added to the blank data may be added to these performance events.
[0053]
Next, the music information editing process when another decoration symbol (Trill in this embodiment) is further inputted to the score display shown in FIG. 11 as score editing will be described with reference to FIG. FIG. 13 is a conceptual diagram for explaining the music information editing process when a decoration symbol is further input to a portion to which a decoration symbol is added.
[0054]
As shown in the score display example of FIG. 13, from a note B (displayed as a new score display as a note b in the figure) to a note C (displayed as a score c as a new score display in the figure) displayed on the
[0055]
Next, the music information editing process when a master independent symbol (Allegro in this embodiment) is further input to the score display shown in FIG. 10 as score editing will be described with reference to FIG. FIG. 14 is a conceptual diagram for explaining music information editing processing when a master independent symbol is input.
[0056]
As shown in the score display example of FIG. 14, when the score editing is performed so that allegro is performed at the beginning of the section of the note A to the note D displayed on the
[0057]
Next, the music information editing process when an independent symbol (meso-forte in this embodiment) is further input to the score display shown in FIG. 10 as score editing will be described with reference to FIG. FIG. 15 is a conceptual diagram for explaining the music information editing process when an independent symbol is input.
[0058]
As shown in the score display example of FIG. 15, among the note A, note B, note C, and note D displayed on the
[0059]
Next, music information editing processing in the case where a decoration symbol (Trill in this embodiment) is further input to the score display shown in FIG. 15 as score editing will be described with reference to FIG. FIG. 16 is a conceptual diagram for explaining the music information editing process in the case where a decoration symbol is further input to a part to which an independent symbol has already been added.
[0060]
As shown in the score display example of FIG. 16, the note B (shown as a note b as a new score display in the figure) with the meso-forte already displayed on the
[0061]
Note that the process of selectively writing the reproduction data and blank data into the performance information (see FIG. 8) may be applied in editing the independent symbol.
The format of the performance information generated by the above-described “music information editing process” (see FIG. 4) is an “event + absolute time” format in which the event occurrence time is expressed as an absolute time in a song or measure. "Event + relative time" format that represents the time of event occurrence in the time from the previous event, "pitch (representing musical tone data in terms of note pitch and note length or rest and rest length""Rest" + note length "format, and" solid method "format where a memory area is secured for each minimum performance resolution and events are stored in the memory area corresponding to the time when the performance event occurs It may be of the form
【The invention's effect】
According to the present invention, when a new music symbol is input at a predetermined position on the score, the user can appropriately select whether or not to generate reproduction data corresponding to the music symbol, and the reproduction data is generated. If no selection is made, display data for displaying the music symbols entered on the score is generated, but without generating playback data corresponding to the entered music symbols, blank data is used instead of performance data. Record in. As a result, the user can express the performance contents of the music symbols with the user's favorite performances by simply inputting the performance information while confirming the display of the music symbols on the score. That is, the user can edit the performance information with a simple operation. In addition, when the reproduction data is unnecessary, it is possible to improve the processing efficiency by selecting not to generate the reproduction data, thereby eliminating the waste of processing time for generating the unnecessary reproduction data. can get.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of the overall configuration of a music information editing apparatus according to the present invention.
FIG. 2 is a conceptual diagram showing one embodiment of a data structure of performance information.
FIG. 3 is a conceptual diagram showing an example of the data structure of musical score display information.
FIG. 4 is a flowchart showing an embodiment of music information editing processing.
FIG. 5 is a flowchart showing an example of a score display process.
FIG. 6 is a flowchart showing an embodiment of independent symbol editing processing.
FIG. 7 is a flowchart showing an example of the first half of the decoration symbol editing process.
FIG. 8 is a flowchart showing an embodiment of the latter half of the decoration symbol editing process.
FIG. 9 is a flowchart illustrating an example of direct input processing.
FIG. 10 is a conceptual diagram for explaining music information editing processing when only normal notes are input.
FIG. 11 is a conceptual diagram for explaining music information editing processing when a decoration symbol is input.
FIG. 12 is a conceptual diagram for explaining music information editing processing when a decoration symbol is input while the “SHIFT” switch is pressed.
FIG. 13 is a conceptual diagram for explaining music information editing processing when a decoration symbol is further input to a portion to which a decoration symbol is added.
FIG. 14 is a conceptual diagram for explaining music information editing processing when a master independent symbol is input.
FIG. 15 is a conceptual diagram for explaining music information editing processing when an independent symbol is input.
FIG. 16 is a conceptual diagram for explaining music information editing processing in the case where a decoration symbol is further input to a part to which an independent symbol has already been added.
[Explanation of symbols]
1 ... CPU, 1A ... timer, 2 ... ROM, 3 ... RAM, 4 ... MIDI interface, 4A ... electronic musical instrument, 5 ... operating circuit, 5A ... operator, 6 ... display circuit, 6A ... display device (display), 7 ... Sound source circuit, 7A ... Sound system, 8 ... External storage device, 9 ... Communication interface, X ... Communication network, 1D ... Data and address bus
Claims (5)
各種音楽記号の入力に従い、該入力された音楽記号を楽譜上に表示するための楽譜表示情報を生成する表示情報生成手段と、
前記生成した楽譜表示情報に対応する部分的な再生情報を生成するか否かを選択する選択手段と、
前記選択手段により再生情報を生成する選択がなされた場合において、前記生成した楽譜表示情報に対応する部分的な再生情報を生成する再生情報生成手段と、
前記生成した部分的な再生情報を前記演奏情報の所定位置に書き込む制御手段と
を具える楽曲情報編集装置。By inputting notes representing individual musical notes and various musical symbols characterizing the musical performance at appropriate positions on the musical score displayed on a predetermined display screen, performance information for reproducing the musical tone according to the musical score is obtained. A music information editing device for editing,
Display information generating means for generating musical score display information for displaying the inputted musical symbols on a musical score in accordance with input of various musical symbols;
Selecting means for selecting whether or not to generate partial reproduction information corresponding to the generated score display information;
Reproduction information generating means for generating partial reproduction information corresponding to the generated score display information when selection to generate reproduction information is made by the selection means;
A music information editing apparatus comprising control means for writing the generated partial reproduction information at a predetermined position of the performance information.
各種音楽記号の入力に従い、該入力された音楽記号を楽譜上に表示するための楽譜表示情報を生成するステップと、
前記生成した楽譜表示情報に対応する部分的な再生情報を生成するか否かを選択するステップと、
再生情報を生成する選択がなされた場合において、前記生成した楽譜表示情報に対応する部分的な再生情報を生成するステップと、
前記生成した部分的な再生情報を前記演奏情報の所定位置に書き込むステップと
を具備する楽曲情報編集プログラム。By inputting notes representing individual musical notes and various musical symbols characterizing the musical performance at appropriate positions on the musical score displayed on a predetermined display screen, performance information for reproducing the musical tone according to the musical score is obtained. A music information editing program for editing,
Generating musical score display information for displaying the inputted musical symbols on a musical score in accordance with input of various musical symbols;
Selecting whether or not to generate partial reproduction information corresponding to the generated score display information;
A step of generating partial reproduction information corresponding to the generated musical score display information when a selection is made to generate reproduction information;
A music information editing program comprising: writing the generated partial reproduction information at a predetermined position of the performance information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001306737A JP3709821B2 (en) | 2001-10-02 | 2001-10-02 | Music information editing apparatus and music information editing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001306737A JP3709821B2 (en) | 2001-10-02 | 2001-10-02 | Music information editing apparatus and music information editing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003114680A JP2003114680A (en) | 2003-04-18 |
JP3709821B2 true JP3709821B2 (en) | 2005-10-26 |
Family
ID=19126331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001306737A Expired - Fee Related JP3709821B2 (en) | 2001-10-02 | 2001-10-02 | Music information editing apparatus and music information editing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3709821B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4552718B2 (en) * | 2005-03-24 | 2010-09-29 | ヤマハ株式会社 | Music information display device and program |
CN113539216B (en) * | 2021-06-29 | 2024-05-31 | 广州酷狗计算机科技有限公司 | Melody creation navigation method and device, equipment, medium and product thereof |
CN113724673B (en) * | 2021-07-07 | 2024-04-02 | 北京金三惠科技有限公司 | Method for constructing rhythm type editor and generating and saving rhythm by rhythm type editor |
CN114797102A (en) * | 2022-04-26 | 2022-07-29 | 网易(杭州)网络有限公司 | Information display method and device, computer readable storage medium and electronic equipment |
-
2001
- 2001-10-02 JP JP2001306737A patent/JP3709821B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003114680A (en) | 2003-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4802857B2 (en) | Musical sound synthesizer and program | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JPH10214083A (en) | Musical sound generating method and storage medium | |
JP4407473B2 (en) | Performance method determining device and program | |
JP3709821B2 (en) | Music information editing apparatus and music information editing program | |
JP2004078095A (en) | Playing style determining device and program | |
JP3709820B2 (en) | Music information editing apparatus and music information editing program | |
JP3797180B2 (en) | Music score display device and music score display program | |
JP3879524B2 (en) | Waveform generation method, performance data processing method, and waveform selection device | |
JP4802947B2 (en) | Performance method determining device and program | |
JP3873790B2 (en) | Rendition style display editing apparatus and method | |
JP4270102B2 (en) | Automatic performance device and program | |
JP3797181B2 (en) | Music score display device and music score display program | |
JP3381581B2 (en) | Performance data editing device and recording medium storing performance data editing program | |
JP3775249B2 (en) | Automatic composer and automatic composition program | |
JP4172509B2 (en) | Apparatus and method for automatic performance determination | |
JP3843688B2 (en) | Music data editing device | |
JP3747802B2 (en) | Performance data editing apparatus and method, and storage medium | |
JP3669335B2 (en) | Automatic performance device | |
JP3267226B2 (en) | Automatic accompaniment device and medium recording automatic accompaniment control program | |
JP3755468B2 (en) | Musical data expression device and program | |
JP3752956B2 (en) | PERFORMANCE GUIDE DEVICE, PERFORMANCE GUIDE METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PERFORMANCE GUIDE PROGRAM | |
JP3873789B2 (en) | Apparatus and method for automatic performance determination | |
JP3637782B2 (en) | Data generating apparatus and recording medium | |
JP3632551B2 (en) | Performance data creation device and performance data creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050801 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090819 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100819 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100819 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110819 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120819 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130819 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |