JP3720004B2 - Music control device - Google Patents

Music control device Download PDF

Info

Publication number
JP3720004B2
JP3720004B2 JP2002212882A JP2002212882A JP3720004B2 JP 3720004 B2 JP3720004 B2 JP 3720004B2 JP 2002212882 A JP2002212882 A JP 2002212882A JP 2002212882 A JP2002212882 A JP 2002212882A JP 3720004 B2 JP3720004 B2 JP 3720004B2
Authority
JP
Japan
Prior art keywords
music control
music
automatic performance
difficulty
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002212882A
Other languages
Japanese (ja)
Other versions
JP2003091280A (en
Inventor
聡史 宇佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002212882A priority Critical patent/JP3720004B2/en
Publication of JP2003091280A publication Critical patent/JP2003091280A/en
Application granted granted Critical
Publication of JP3720004B2 publication Critical patent/JP3720004B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、テンポ、ダイナミクスおよび音源パラメータ等をリアルタイムに制御できる音楽制御装置に関する。
【0002】
【従来の技術】
従来、テンポ、ダイナミクスおよび音源パラメータ等の音楽情報をリアルタイムに制御できる音楽制御装置として、予め設定された初期音楽情報によって演奏を開始し、その後に操作者が音楽制御のための信号出力装置を操作することにより、その操作方向や強さに応じて音楽情報をリアルタイムに制御するように構成されたものは知られている(例えば特開平6−27957号公報には、音楽情報としてテンポを制御するようにしたものが開示されている)。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の音楽制御装置では、操作者は曲や装置への自分の習熟度に合わせて音楽制御の難易度(換言すれば、安定度または音楽表現力)を調節することができないために、習熟度が向上した操作者にとっては物足りなさを感じるようになり、また、初心者や習熟度が向上した操作者であっても初めて演奏する曲に対しては、思い通りの音楽制御を行うことができないことがあった。
【0004】
本発明は、上記問題に鑑みてなされたもので、操作者が曲や装置への自分の習熟度に合わせて音楽特性制御の難易度(安定度または音楽表現力)を調節することが可能な音楽制御装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するため本発明は、操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、操作者が音楽制御の難易度を調節するための難易度調節手段と、自動演奏データを記憶する自動演奏データ記憶手段と、該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、前記音楽制御信号発生手段により発生された音楽制御信号および前記自動演奏手段により読み出された自動演奏データに基づいて、前記音楽制御手段が音楽特性制御に用いる音楽制御値を算出する音楽制御値算出手段とを有し、該音楽制御手段は、前記難易度調節手段により調節された難易度に応じて前記算出された音楽制御値を変更し、該変更後の音楽制御値に基づいて自動演奏の音楽特性を制御することを特徴とする。
【0006】
上記目的を達成するため本発明は、操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、操作者が音楽制御の難易度を調節するための難易度調節手段と、自動演奏データを記憶する自動演奏データ記憶手段と、該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、音楽制御値を所定個記憶するための記憶領域を備えた音楽制御値記憶手段と、前記音楽制御信号発生手段により発生された音楽制御信号および前記自動演奏手段により読み出された自動演奏データに基づいて、前記音楽制御手段が音楽特性制御に用いる音楽制御値を算出する音楽制御値算出手段とを有し、前記音楽制御値算出手段は、前記記憶領域に記憶された音楽制御値を、新たな音楽制御値が算出される度に更新する更新手段と、前記難易度調節手段により調節された難易度に応じて、前記記憶された音楽制御値から所定個の音楽制御値を選択し、該選択された所定個の音楽制御値と当該音楽制御値算出手段により新たに算出された音楽制御値とを平均化する平均化手段とを有し、前記音楽制御値の算出は、平均化による算出を含むものであり、前記音楽制御手段は、前記平均化された音楽制御値に基づいて自動演奏の音楽特性を制御するとともに、前記難易度調節手段により調節された難易度に応じて前記算出された音楽制御値を変更し、該変更後の音楽制御値に基づいて自動演奏の音楽特性を制御することを特徴とする。
【0007】
また、好ましくは、前記難易度調節手段により調節された難易度に応じて、前記音楽制御値算出手段により算出された音楽制御値を変更する際の上限値または下限値を変更する変更手段を有することを特徴とする。
【0008】
さらに、好ましくは、前記難易度調節手段により調節された難易度に応じて、前記音楽制御値算出手段により算出された音楽制御値を変更する際の変化幅を変更する変化幅変更手段を有することを特徴とする。
【0009】
また、前記自動演奏データ記憶手段は、前記自動演奏データとともに所定タイミング毎に音楽制御用マークデータを記憶し、前記自動演奏手段は、該記憶された音楽制御用マークデータから、前記難易度調節手段により調節された難易度に応じて所定数の音楽制御用マークデータを読み飛ばし、前記音楽制御値算出手段は、該読み出された音楽制御用マークデータおよび前記発生された音楽制御信号に基づいて音楽制御値を算出することを特徴とする。
【0010】
さらに、前記自動演奏データ記憶手段は、前記自動演奏データとともに、該自動演奏データ固有の音楽特性に追従すべき程度であって、当該自動演奏の音楽特性を制御する際の追従の程度を示す追従度データを記憶し、前記自動演奏手段は、該記憶された追従度データを読み出し、前記音楽制御手段は、前記難易度調整手段によって調節された難易度に応じて、前記読み出された追従度データによって示される追従の程度の高低を変更し、該変更後の追従の程度に基づいて自動演奏の音楽特性を制御することを特徴とする。
【0011】
好ましくは、前記追従度データは、曲の途中に、少なくとも1つ以上埋め込まれ、曲の進行に従って前記自動演奏手段が前記追従度データを読み出し、該読み出された追従度データによって示される追従度の程度の高低が、前記調節された難易度に応じて変化することを特徴とする。
【0012】
さらに、好ましくは、前記動作検出手段は、操作者の揺動動作に基づく運動を検出することを特徴とする。
【0013】
また、好ましくは、前記動作検出手段は、センサの個数を多くすることで操作者の動作に基づく運動を複数種類検出し、該検出された複数種類の運動を総合的に判断して、前記動作検出信号を出力することを特徴とする。
【0014】
上記目的を達成するため本発明は、操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、操作者が音楽制御の難易度を調節するための難易度調節手段と、自動演奏データを記憶する自動演奏データ記憶手段と、該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、前記難易度調節手段により調節された難易度が易から難に行くに従って、当該自動演奏の音楽特性を制御する際の追従の程度が高くなって行くように変更する変更手段とを有し、前記音楽制御手段は、前記変更手段によって変更された追従の程度に応じて、当該自動演奏の音楽特性を制御することを特徴とする。
【0015】
【作用】
請求項1記載の発明の構成に依れば、自動演奏データ記憶手段から自動演奏データが読み出されて自動演奏されているときに、操作者の動作に基づく連動が検出されると、それに対応して出力された動作検出信号に応じて、音楽制御信号発生手段から音楽制御信号が発生され、この音楽制御信号および自動演奏手段により読み出された自動演奏データに基づいて音楽制御値が算出され、その算出された音楽制御値が難易度調節手段により調節された難易度に応じて変更され、その変更された音楽制御値に基づいて自動演奏の音楽特性が制御される。
【0016】
請求項2記載の発明の構成に依れば、テンポ制御値記憶手段に記憶された所定個の音楽制御値から、難易度調節手段により調節された難易度に応じて選択された所定個の音楽制御値と、音楽制御値算出手段により算出された新たな音楽制御値とが平均化され、その平均化された音楽制御値に基づいて自動演奏の音楽特性が制御される。
【0017】
請求項3記載の発明の構成に依れば、難易度調節手段により調節された難易度に応じて、音楽制御値算出手段により算出された音楽制御値を変更する際の上限値または下限値が変更され、その変更された値に基づいて自動演奏の音楽特性が制御される。
【0018】
請求項4記載の発明の構成に依れば、難易度調節手段により調節された難易度に応じて、音楽制御値算出手段により算出された音楽制御値を変更する際の変化幅が変更され、その変更された変化幅の音楽制御値に基づいて自動演奏の音楽特性が制御される。
【0019】
請求項5記載の発明の構成に依れば、自動演奏データ記憶手段に記憶された音楽制御用マークデータのうち、難易度調節手段により調節された難易度に応じて所定個の音楽制御用マークデータが読み飛ばされ、その後に音楽制御用マークデータが読み出されると、その音楽制御用マークデータおよび音楽制御信号出力手段により発生された音楽制御信号に基づいて音楽制御値が算出され、その音楽制御値に基づいて自動演奏の音楽特性が制御される。
【0020】
請求項6記載の発明の構成に依れば、自動演奏データ記憶手段に記憶された追従度データが読み出され、その追従度データに応じて決定される音楽特性制御の難易度が難易度調節手段により調節され、その調節された難易度に応じて自動演奏の音楽特性が制御される。
【0021】
請求項7記載の発明の構成に依れば、追従度データは、曲の途中に、少なくとも1つ以上埋め込まれ、曲の進行に従ってその追従度の程度の高低が変化し、その追従度データにより決定された難易度が難易度調節手段により調節され、その調節された難易度に応じて自動演奏の音楽特性が制御される。
【0022】
請求項8記載の発明の構成に依れば、操作者の動作に基づく連動として、揺動動作に基づく連動が検出され、該揺動動作に基づく連動に応じて音楽制御信号が発生する。
【0023】
請求項9記載の発明に依れば、センサの個数を多くすることで操作者の動作に基づく連動が複数種類検出され、該検出された複数種類の連動が総合的に判断されて、前記動作検出信号が出力され、この出力された動作検出信号に応じて音楽制御信号が発生する。
【0024】
請求項10記載の発明に依れば、自動演奏データ記憶手段から自動演奏データが読み出されて自動演奏されているときに、操作者の動作に基づく連動が検出されると、それに対応して出力された動作検出信号に応じて、音楽制御信号発生手段から音楽制御信号が発生され、この音楽制御信号および変更手段によって変更された追従の程度に応じて、当該自動演奏の音楽特性が制御される。
【0025】
【実施例】
以下、本発明の実施例を図面に基づいて詳細に説明する。
【0026】
図1は、本発明の一実施例に係る音楽制御装置の概略構成を示すブロック図であり、本実施例の音楽制御装置は、テンポ制御信号を出力するテンポ制御信号出力装置1と該テンポ制御信号出力装置1からのテンポ制御信号に基づいて音楽情報が制御される自動演奏装置付き電子楽器21とにより構成されている。なお、本実施例では制御できる音楽情報として、テンポおよびダイナミクスを例に挙げて説明するが、これに限る必要はないことは云うまでもない。
【0027】
同図において、テンポ制御信号出力装置1は、操作者が行った該装置1の揺動動作のX軸(水平)方向の角速度を検出し、アナログ電気信号に変換する圧電振動ジャイロセンサ(X)2と、同様に装置1の揺動動作のY軸(垂直)方向の角速度を検出し、アナログ電気信号に変換する圧電振動ジャイロセンサ(Y)3と、各種情報を入力するためのスイッチ群4と、圧電振動ジャイロセンサ2,3からの各出力信号のノイズをそれぞれ除去するノイズ除去回路5,6と、該ノイズ除去回路5,6からのアナログ出力信号をそれぞれデジタル信号に変換するA/D変換回路7,8と、スイッチ群4の各スイッチの操作状態を検出するスイッチ検出回路9と、装置1全体の制御を司るCPU10と、該CPU10が実行する制御プログラムやテーブルデータ等を記憶するROM11と、各種入力情報および演算結果等を一時的に記憶するRAM12と、タイマ割込み処理における割込み時間や各種時間を計時するタイマ13と、外部からのMIDI(Musical Instrument Digital Interface)信号を入力したり、MIDI信号として外部に出力したりするMIDIインターフェース(I/F)14とにより構成されている。そして、上記構成要素7〜14は、バス15を介して相互に接続され、CPU10にはタイマ13が接続されている。
【0028】
自動演奏装置付き電子楽器21は、音高情報を入力するための鍵盤22と、各種情報を入力するためのスイッチ群23と、鍵盤22の押鍵状態を検出する押鍵検出回路24と、スイッチ群23の各スイッチの操作状態を検出するスイッチ検出回路25と、装置21全体の制御を司るCPU26と、該CPU26が実行する制御プログラムやテーブルデータ等を記憶するROM27と、自動演奏データ、各種入力情報および演算結果等を一時的に記憶するRAM28と、タイマ割込み処理における割込み時間や各種時間を計時するタイマ29と、自動演奏データや各種情報等を表示する、例えばLCD等のディスプレイ30と、外部からのMIDI信号を入力したり、MIDI信号として外部に出力したりするMIDIインターフェース(I/F)31と、記憶媒体であるフロッピー(登録商標)ディスク(FD)をドライブするフロッピー(登録商標)ディスクドライブ(FDD)32と、鍵盤22からの演奏データや自動演奏データ等を楽音信号に変換する音源回路33と、該音源回路33からの楽音信号に各種効果を付与する効果回路34と、該効果回路34からの楽音信号を音響に変換する、例えばスピーカ等のサウンドシステム35とにより構成されている。そして、上記構成要素24〜34は、バス36を介して相互に接続され、CPU26にはタイマ29が接続され、音源回路33には効果回路34が接続され、効果回路34にはサウンドシステム35が接続されている。
【0029】
さらに、テンポ制御信号出力装置1のMIDII/F14は、電子楽器21のMIDII/F31と相互に接続され、テンポ制御信号出力装置1と電子楽器21との間でMIDI信号の送受信が行われる。このMIDII/F14,31間の接続は、有線で行ってもよいし、無線で行ってもよい。
【0030】
操作者は、テンポ制御信号出力装置1を片手で把持し、該装置1を曲の所定のタイミングに応じて所定の方向に振ることにより、マニュアルで音楽情報を制御することができる。
【0031】
図2は、前記スイッチ群23中の一スイッチである難易度設定操作子231を示す図であり、本実施例では、難易度設定操作子231はロータリーボリューム形式のものを用いている。
【0032】
操作者は難易度設定操作子231を回転させることにより曲の難易度を調節することができ、難易度設定操作子231が“0”の位置にある場合には曲に予め設定された難易度でテンポ制御でき、その位置から時計方向に回転させた場合には、その回転角度に応じて「難」の程度が増加する一方、反時計方向に回転させた場合には、その回転角度に応じて「易」の程度が増加する。
【0033】
なお、難易度設定操作子231の形式は、これに限らず、スライドスイッチやアップダウンスイッチ等のどのような形式のものであってもよい。また、難易度設定操作子231は、本実施例のように電子楽器21側に設けずに、テンポ制御信号出力装置1側に設けてもよい。
【0034】
図3は、テンポ制御信号出力装置1が検出する揺動動作の種類の一例を示す図であり、(a)は、3角形の各辺の方向にテンポ制御信号出力装置1を振った場合に検出する3種類の揺動動作を示し、(b)は、上または下方向にテンポ制御信号出力装置1を振った場合に検出する2種類の揺動動作を示している。
【0035】
操作者がテンポ制御信号出力装置1を振ると、その揺動動作に応じて圧電振動ジャイロセンサ2,3からそれぞれ信号が出力され、CPU10は、各信号から操作者が行っている動作状態、すなわち、操作者の動作が図3の動作1〜3のうちいずれの動作に該当するかを判別するとともに、その判別された動作における絶対角速度がピークとなる位置(テンポ制御信号出力装置1の振り方にもよるが、各動作1〜3のほぼ中間地点で速度がピークとなるであろう)を検出し、該ピーク位置で、前記検出された動作に対応するキーコードのオンイベント(マークデータ)およびこの時点の絶対角速度(この算出方法は後述する)に応じたベロシティ値に所定のチャンネル番号(本実施例ではチャンネル1)を付与して、電子楽器21側へ出力する。例えば、動作1に対してはキーコード“C3”のキーオンイベント、動作2に対してはキーコード“C_3”のキーオンイベントおよび動作3に対してはキーコード“D3”のキーオンイベントに、この時点の絶対角速度に応じて算出されたベロシティ値を付加し、チャンネル1のイベントデータとして出力する。
【0036】
ここで、各キーオンイベントおよびベロシティ値は、MIDI信号としてMIDII/F14からMIDII/F31に対して出力される。すなわち、本実施例の音楽制御装置では、テンポ制御信号出力装置1は文字どおりテンポ制御信号の出力を主として行い、実際の自動演奏処理(自動演奏データの読み出しや発音処理等)は全て電子楽器21側で行うように構成されている。このようにして電子楽器21側に送信されたキーオンイベントおよびベロシティ値はRAM28の所定領域に一時的に格納された後に、CPU26により解析され、その解析結果がRAM28の所定領域TKONに格納される。
【0037】
図4は、電子楽器21の自動演奏データのデータフォーマットを示す図であり、自動演奏データは、前記RAM28の自動演奏データ格納領域281に格納される。
【0038】
同図に示すように、自動演奏データは、隣接した各イベント間の時間間隔を示すデルタタイムデータ41,…と、電子楽器21のキーオンやキーオフ等のイベント、この自動演奏データ固有のテンポに追従すべき程度を示す追従度イベントおよび拍タイミングを示す拍タイミングイベント(この拍タイミングイベントは、図17を用いて後述するテンポキーオン受信処理のステップS145およびS153で使用する)等のイベントデータ42,…とにより構成されている。本実施例では、デルタタイムデータ41として、1msを1単位とする整数値が採られ、イベントデータ42として、チャンネル番号を付与したイベントデータが採られている。ここで、デルタタイムデータ41をこのように構成したのは、各イベントのタイミング処理制御を1ms毎の割込み処理中(後述する図14の再生処理中)で行っているからである。また、イベントデータ42をこのように構成したのは、本実施例の電子楽器21は前記マークデータ、追従度イベントデータおよび拍タイミングイベントデータと通常の自動演奏データとを混在させるとともに、マークデータとして通常の自動演奏イベントデータを用いているために、この双方のデータを区別する必要があるからである。
【0039】
本実施例では、追従度イベントデータとして3種類の追従度(A:追従度高、B:追従度中、C:追従度低)を設け、これらの追従度イベントデータは、曲毎に所定の位置に予め登録されている。例えば、曲がカラオケである場合には、曲のイントロダクション(前奏部)は、通常テンポ制御に集中できるので、追従性をよくして、その最初の位置に追従度Aを登録し、イントロダクションが終了してテーマ(主題)に入ると、そのメロディーに応じて追従度BまたはCを登録するというように、曲の重要度に応じて3種類の追従度のうち、いずれかの追従度を選択して登録する。そして、CPU26は、一度追従度を検出すると、新たな追従度を検出するまで、検出した追従度に従って音楽制御を実行する。
【0040】
また、マークデータは前述したように、“C3”,“C_3”および“D3”の3種類のキーオンイベントであり、自動演奏データ格納領域281の所定の位置(アドレス)に、所定の順序で、予め格納されている。例えば、3拍子の曲では、各小節中、1,2,3拍目の各タイミングのイベントデータ42中に、それぞれ“C3”,“C_3”,“D3”のキーオンイベントデータがチャンネル番号1とともに予め格納され、4拍子の曲では、各小節中、1,2,3,4拍目の各タイミングのイベントデータ42中に、それぞれ“C3”,“D3”,“C3”,“D3”のキーオンイベントデータがチャンネル番号1とともに予め格納されている。すなわち、電子楽器21は、例えば16チャンネル(トラック)分の自動演奏データを再生できるように構成され、そのうちチャンネル1は前記マークデータ、追従度イベントデータおよび拍タイミングイベントデータ用に使用され、その他のチャンネルは通常の自動演奏データ用に使用されている。
【0041】
なお、本実施例では、自動演奏データは、上述のように「イベントデータ+デルタタイム」としたが、これに限らず、「イベントデータ+絶対時間」等の他のフォーマットでもよい。また、デルタタイムは1msを1単位としたが、1単位を音符の長さ(例えば、4分音符の1/24等)としてもよい。
【0042】
また、本実施例では、テンポ制御用のマークデータ(キーオンイベントデータ)、追従度イベントデータおよび拍タイミングイベントデータと自動演奏用のデータとを混在させ、これらのデータをチャンネル番号で区別するようにしたが、これに限らず、これらのデータをそれぞれ異なった種類のデータとして別々に構成してもよい。例えば、テンポ制御用のマークデータとして、テンポ制御すべき音符の位置に対応するメモリのアドレスを記憶したものを用いてもよい。また、本実施例では、追従度イベントデータとして、上述のように“A”,“B”,“C”を用いたが、これに限らず、任意のキーイベントデータを用いて表すようにしてもよい。
【0043】
以上のように構成されたテンポ制御信号出力装置1のCPU10が実行する制御処理を図5〜10を参照して説明し、自動演奏装置付き電子楽器21のCPU26が実行する制御処理を図11〜20を参照して説明する。
【0044】
図5は、テンポ制御信号出力装置1のCPU10が実行する圧電振動ジャイロセンサ出力処理の手順を示すフローチャートであり、本処理は、前記タイマ13が、例えば10ms毎に発生するタイマ割込み信号に同期して実行される割込み処理中の一処理である。
【0045】
同図において、まず、前述したように、ノイズ除去回路5,6によりノイズが除去され、A/D変換回路7,8によりデジタル変換された圧電振動ジャイロセンサ2,3からの各出力信号を取り込み、それぞれRAM12の所定領域ωx,ωy(以下、各領域の内容を、それぞれ「角速度ωx」、「角速度ωy」という)に格納する(ステップS1)。
【0046】
次に、この角速度ωx,ωyから次式により絶対角速度ωを算出し、この算出した絶対角速度ωをRAM12の所定領域ANGV(以下、この領域の内容を「絶対角速度ANGV」という)に格納する(ステップS2)。
【0047】
ω = (ωx 2+ωy 21/2
なお、今回算出した絶対角速度ωを領域ANGVに格納するときに、前回算出した絶対角速度ωが領域ANGVに格納されている場合には、該前回算出した値をRAM12の所定領域OANGVに保存する。
【0048】
次に、絶対角速度ωがピークとなる時点を検出するピーク検出処理サブルーチンを実行した(ステップS3)後に、本圧電振動ジャイロセンサ出力処理を終了する。
【0049】
図6は、このステップS3のピーク検出処理サブルーチンの詳細な手順を示すフローチャートであり、まずステップS11で、ピークが検出された否かを判別する。
【0050】
このステップS11の判別は、今回の絶対角速度ANGVおよび前回の絶対角速度OANGVに基づいて行う。具体的には、まず、前後の絶対角速度の値より大きい時点を検出する。例えば、今回の絶対角速度ANGV>前回の絶対角速度OANGVのときにはフラグFBIGをセットし、今回の絶対角速度ANGV≦前回の絶対角速度OANGVのときには、フラグFBIGの状態を検査し、フラグFBIGがセットされている場合には、前回の絶対角速度OANGVの時点を上記条件を満たす時点として検出すればよい。次に、このようにして検出された時点が、前回検出されたピーク時点から所定時間以上経過し、この時点の絶対角速度ω(すなわち、上記前回の絶対角速度OANGV)が所定の閾値より大きく、前回のピーク値の所定値(例えば0.5)倍よりも大きく、谷を通過している等の条件を全て満たしているか否かを判別する。これらの全ての条件を満たしている場合にはこの時点をピークとして判別し、1つでも条件を満たしていない場合にはこの時点をピークと判別しない。
【0051】
前記ステップS11の判別で、ピークが検出されたときには、このときのテンポ制御信号出力装置1の揺動動作の種類(すなわち、前記図3で説明した動作1〜3のうち操作者が行っている動作)を判定するピーク種類判定処理サブルーチンを実行した(ステップS12)後に、本ピーク検出処理を終了する。一方、ステップS11の判別で、ピークが検出されないときには、直ちに本ピーク検出処理を終了する。
【0052】
図7は、上記ステップS12のピーク種類判定処理サブルーチンの詳細な手順を示すフローチャートである。
【0053】
同図において、まず、操作者がテンポ制御信号出力装置1を振ったときの振り角度θが、180°<θ≦300°という条件を満たしているか否かを判別する(ステップS21)。図10は、この振り角度θを算出する処理を説明するための図であり、図中点(X,Y)は、前記角速度ωx,ωyをX−Y座標上に表わしたものである。すなわち、この点(X,Y)および原点Oを通る直線とX軸との交角が振り角度θになる。
【0054】
ステップS21の判別で、この条件を満たしている場合には、今回検出されたピークは「動作1」によるものと判定し(ステップS22)、前述したようにキーコード“C3”のキーオンおよびこのときの絶対角速度ωの値に応じたベロシティ値(ダイナミクス制御を行うためのパラメータ値)をチャンネル1のイベントデータとして、MIDI信号に変換し出力する(ステップS23)。
【0055】
一方、ステップS21の判別で、振り角度θが上記条件を満たしていないときには、動作2,3を判定するピーク2判定処理サブルーチンを実行した(ステップS24)後に、本ピーク種類判定処理を終了する。
【0056】
図8は、上記ステップS24のピーク2判定処理サブルーチンの詳細な手順を示すフローチャートであり、まず、振り角度θが、θ≦60°または300°<θという条件を満たしているか否かを判別する(ステップS31)。
【0057】
ステップS31の判別で、振り角度θが上記条件を満たしているときには、前記ステップS22,S23と同様にして、今回検出されたピークは「動作2」によるものと判定し(ステップS32)、キーコード“C_3”のキーオンおよびこのときの絶対角速度ωの値に応じたベロシティ値をチャンネル1のイベントデータとして出力する(ステップS33)。
【0058】
一方、ステップS31の判別で、振り角度θが上記条件を満たしていないときには、ピーク3判定処理サブルーチンを実行した(ステップS34)後に、本ピーク2判定処理を終了する。
【0059】
図9は、このステップS34のピーク3判定処理サブルーチンの詳細な手順を示すフローチャートであり、前記ピーク種類判定処理のステップS22,S23と同様にして、今回検出されたピークは「動作3」によるものと判定し(ステップS41)、キーコード“D3”のキーオンおよびこのときの絶対角速度ωの値に応じたベロシティ値をチャンネル1のイベントデータとして出力した(ステップS42)後に、本ピーク3判定処理を終了する。
【0060】
なお、本実施例は、絶対角速度ωがピークとなる時点を音楽制御を行う時点にしたが、これに限らず、絶対角速度ωの変化量が大きい時点等であってもよいし、また、音楽制御を行う時点を検出する検出方法は上述の方法に限る必要もない。
【0061】
図11は、自動演奏装置付き電子楽器21が実行するメインルーチンの手順を示すフローチャートである。なお、説明は省略したが、本メインルーチンと同様にテンポ制御信号出力装置1においてもスイッチ群4の各種スイッチ状態に応じた各種スイッチ処理等を含むメインルーチンを実行している。
【0062】
同図において、まず、RAM28のクリアや各種ポートのクリア等のイニシャライズを行う(ステップS51)。
【0063】
次に、鍵盤22の押鍵状態に応じてキーオンイベントまたはキーオフイベントの生成処理や発音または消音処理等の鍵処理を行い(ステップS52)、MIDI信号の送受信処理や受信したMIDI信号に応じた各種信号処理等のMIDI処理を行い(ステップS53)、スイッチ群23の各種スイッチ状態に応じた各種スイッチ処理を行い(ステップS54)、上述の処理以外のその他処理を行った(ステップS55)後に、ステップS52に戻って上述の処理を繰り返す。
【0064】
図12は、前記難易度設定操作子231が操作されたときに行われる難易度操作子処理の手順を示すフローチャートであり、前記ステップS54の各種スイッチ処理中の一処理である。
【0065】
同図において、難易度設定操作子231が操作されたか否かを判別し(ステップS61)、難易度設定操作子231が操作されないときには直ちに本難易度操作子処理を終了する一方、難易度設定操作子231が操作されたときにはステップS62に進む。
【0066】
ステップS62では、難易度設定操作子231の操作量(回転量)に応じて該操作子231が出力する値(例えば、図2の“0”の位置を値0とし、反時計方向に回転できる最大の位置(易)の値−1から時計方向に回転できる最大の位置(難)の値1までアナログ的に変化する値)を検出し、前記RAM28に確保された領域D_COEF(以下、この内容を「難易度係数D_COEF」という)に格納する。
【0067】
次に、実際に追従度制御に用いる、現在の追従度(すなわち、前記「追従度イベントデータA(高)」、「追従度イベントデータB(中)」および「追従度イベントデータC(低)」のうち、最後に読み出された追従度イベントデータに応じて設定された追従度)に係る各種値(本実施例では、図13に示す移動平均次数α、差分リミットβ、テンポ値の下限値γ、テンポ値の上限値δ)を、難易度係数D_COEFに応じて修正する(ステップS63)。ここで、各種値は、図13に示すように追従度に応じて異なった値が予め設定されて、それぞれRAM28の所定領域に格納されている。
【0068】
さらに、ステップS63で修正した各種値が、修正前の値から大きく変化しないようにリミット処理を行った(ステップS64)後に、本難易度操作子処理を終了する。
【0069】
なお、本実施例では、本難易度操作子処理を前記各種スイッチ処理中で行うようにしたが、これに限らず、難易度設定操作子231の出力を検出する時間間隔を一定にしたい場合等には、例えば10ms毎に発生する割込み処理中で行うようにしてもよい。
【0070】
図13は、前記追従度制御を行うための各種値α〜δの具体例および難易度設定操作子231から出力された難易度係数D_COEFに応じて各種値α〜δを修正する方法の一例を示す図であり、(a)は、追従度A〜Cおよび該各追従度に応じて初期値として設定される各種値α〜δの一例を示し、(b)は、(a)の値のうち移動平均次数αを例に挙げて、この移動平均次数αを難易度係数D_COEFに応じて修正する具体的な方法の一例を示している。
【0071】
(a)に示すように、追従度に応じて、移動平均次数α、差分リミットβ、テンポ値の下限値γ、テンポ値の上限値δの各初期値が前記RAM28の当該領域から読み出され、追従度制御するためにRAM28の所定位置に確保された領域に格納される。本実施例では、曲の途中で追従度を変更する、すなわち曲の位置に応じて異なった追従度イベントデータが埋め込まれ、これにより曲の進行に応じて追従度を変更するように構成され、現在の追従度と異なった追従度イベントデータが検出されると、当該追従度に応じた各種値α〜δが読み出されて、この読み出された各種値α〜δにより、追従度制御するために確保された領域の値が変更される。
【0072】
また、本実施例では、追従度に応じて追従度制御を行う時点を変更する。すなわち、追従度Aの場合には全てのマークデータ(判定マーク)が検出された時点で追従度制御が行われ、追従度Bの場合には拍上のマークデータが検出された時点で追従度制御が行われ、追従度Cの場合には小節頭のマークデータが検出された時点で追従度制御が行われる。この追従度制御時点の変更処理を行うために、前記図4で説明した拍タイミングイベントデータを使用する。これは、本実施例では、自動演奏データのデルタタイムデータの単位として、時間(1ms)を採用したために、拍位置にあるマークデータを判別することが難しいという理由からであり、例えばデルタタイムデータの単位として、所定音符の音長を基準にした場合には、拍位置にあるマークデータを簡単に判別することができるので、拍タイミングイベントデータを使用する必要はない。なお、前述のように本実施例では、マークデータは基本的には各拍タイミングの位置に記憶されるので、この場合には、追従度Aおよび追従度Bにおける追従度制御を行う時点に差は生じないが、より細かな制御を行うために、マークデータを各拍タイミングより細かいタイミング(例えば、音符毎のタイミング)の位置に記憶した場合には、追従度Aより追従度Bの方が追従度制御を行う時点が多くなり、テンポ制御の難易度が向上することになる。
【0073】
なお、各種値α〜δを追従度制御にどのように使用するかは、図19および20を用いて後述する。
【0074】
次に、各値α〜δの意味を説明する。
【0075】
移動平均次数αは、追従度制御を行う時点で算出されたテンポ係数T_COEFを平均化して滑らかにテンポを変化させるために、平均化に使用するテンポ係数の個数を決定する変数である。移動平均次数αが大きい程テンポの変化はより滑らかになるので、テンポ制御の難易度が上がるに従って移動平均次数αの値を小さくしている。
【0076】
差分リミットβは、テンポ変化の差分値の許容範囲を決定するための値であり、具体的には、今回算出されたテンポ係数T_COEFと前回算出されたテンポ係数T_COEFとの差分の許容範囲を示している。差分リミットβは、その値が大きい(換言すれば、許容範囲が広い)程、テンポ制御の自由度が向上するが、これによりテンポが大きく変化し過ぎるおそれもあり、制御自体は難しくなる。このため、図13(a)に示すように、テンポ制御の難易度が上がるに従って差分リミットβ値を大きくしている。
【0077】
テンポ値の下限値γおよび上限値δは、ぞれぞれテンポ係数T_COEFの下限値および上限値を示すもので、上記差分リミットβと同様の理由により、テンポ制御の難易度が上がるに従って下限値γを小さくするとともに、上限値δを大きくしている。
【0078】
以上説明した各種値α〜δは、前記難易度設定操作子231の操作により、変更することができる。例えば移動平均次数αは、難易度を変更することにより、(b)に示すように変更することができる。現在、追従度Aでテンポ制御がなされている場合に、操作者が難易度設定操作子231を「0」より「易」の方向に回転させると、その回転量に応じて移動平均次数αを増加させる方向に変更する。実際には、移動平均次数αは整数値を採るため、その回転量に応じて移動平均次数αは“1”ずつ増加していく。なお、本実施例では追従度Aの場合の移動平均次数αを“1”としたため、追従度Aの場合に操作者が難易度設定操作子231を「難」の方向に回転させても、移動平均次数αは変化しないようにしている。しかし、追従度Aの場合の移動平均次数αを“1”より大きい整数値にして、追従度Aの場合であっても、さらに難易度を高めることができるようにしてもよい。同様にして、追従度Cの場合には、移動平均次数αは「難」の方向にのみ変更され、追従度Bの場合には、移動平均次数αは「難」または「易」のいずれの方向にも変更される。なお、移動平均次数α以外の各種値β〜δも上述の方法により変更するが、本実施例のように直線的に調節する方法に限らず、例えば、曲線的に調節したり、所定の関数を用いて調節したりする等、どのような方法で調節してもよい。
【0079】
図14は、自動演奏データの再生処理の手順を示すフローチャートであり、本処理は、前記タイマ29が、例えば1ms毎に発生するタイマ割込み信号に同期して実行される割込み処理中の一処理である。
【0080】
同図において、まず、前記再生フラグRUNが“1”であるか否かを判別し(ステップS101)、再生フラグRUNが“0”のとき、すなわち自動演奏データの再生要求がなされていないときには直ちに本再生処理を終了する一方、再生フラグRUNが“1”のとき、すなわち自動演奏データの再生要求がなされているときには、フラグPAUSEが“0”であるか否かを判別する(ステップS102)。ここで、フラグPAUSEは、電子楽器21がチャンネル1のキーオンイベントデータを読み出したときに、まだテンポ制御信号出力装置1が当該キーオンイベントデータを送出していない場合に、当該キーオンイベントを受信するまで自動演奏データの再生を一時的に停止させるためのフラグである。
【0081】
ステップS102の判別で、フラグPAUSEが“0”のとき、すなわちテンポ制御信号出力装置1からのキーオンイベントを受信した後にチャンネル1の当該キーオンイベントを読み出しているときには、カウンタTIMEの値が“0”であるか否かを判別する(ステップS103)。ここで、カウンタTIMEは、RAM28に確保され、前記図3で説明した各イベントデータ42間の時間間隔をカウントするためのソフトカウンタである。
【0082】
ステップS103の判別で、カウンタTIMEの値が“0”のとき、すなわちイベントデータ42を出力するタイミングのときには、自動演奏データ格納領域281のアドレスを進め、その位置のデータを読み出し(ステップS104)、その読み出したデータがデルタタイムデータであるか否かを判別する(ステップS105)。
【0083】
ステップS105の判別で、読み出したデータがデルタタイムデータでないとき、すなわちイベントデータであるときには、当該イベントに対応するイベント対応処理サブルーチン(このサブルーチンの詳細な手順は、図16に基づいて後述する)を実行した(ステップS106)後に、前記ステップS104に戻って前述の処理を繰り返す。
【0084】
一方、ステップS105の判別で、読み出したデータがデルタタイムデータのときには該デルタタイムデータをカウンタTIMEに格納し(ステップS107)、カウンタTIMEが“0”であるか否かを判別する(ステップS108)。ここで、カウンタTIMEの値を判別するのは、同一タイミングで複数のイベントデータが自動演奏データ格納領域281に格納されている場合があるからである。
【0085】
ステップS108の判別で、カウンタTIME=0のときには、前記ステップS104に戻って前述の処理を繰り返し、一方、カウンタTIME≠0のときには、次式の演算によりカウンタTIMEの値を変更する(ステップS109)。
【0086】
TIME = TIME×T_COEF
ここで、T_COEFは前記テンポ係数を示している。すなわち、ステップS109では、デルタタイムで与えられるイベントデータ間の時間間隔をテンポ係数T_COEFで変更することにより、テンポを変更している。したがって、テンポ係数T_COEFが“1”の場合には標準テンポで曲が演奏され、テンポ係数T_COEFが“1”より小さい場合には標準テンポより速いテンポで曲が演奏され、テンポ係数T_COEFが“1”より大きい場合には標準テンポより遅いテンポで曲が演奏される。
【0087】
一方、ステップS103の判別で、カウンタTIMEの値が“0”でないときにはステップS110に進む。
【0088】
ステップS110では、カウンタTIMEの値を“1”だけデクリメントし、ステップS111では、RAM28に確保され、隣接するチャンネル1のキーオンイベント間の時間間隔をカウントするソフトカウンタDELTA_ACM(Delta Accumulate)の値(以下、この値を「デルタタイム累算値DELTA_ACM」という)を“1”だけインクリメントし、ステップS112では、RAM28に確保され、テンポ制御信号出力装置1から出力された隣接するキーオンイベント間の時間間隔(テンポ制御間隔)をカウントするソフトカウンタINTERVAL(以下、この値を「テンポ制御間隔INTERVAL」という)の値を“1”だけインクリメントし、ステップS113では、図17を参照して後述するテンポキーオン受信処理サブルーチンを実行した後に、本再生処理を終了する。
【0089】
一方、ステップS102の判別で、フラグPAUSEが“1”のとき、すなわち自動演奏データ格納領域281からチャンネル1のキーオンイベントデータを読み出し、テンポ制御信号出力装置1からの当該キーオンイベントの出力を待っているときには、前記ステップS103〜S111で説明した自動演奏データの読み出し処理を停止(スキップ)し、前記ステップS112に進む。
【0090】
図15は、前記テンポ制御間隔INTERVALとデルタタイム累算値DELTA_ACMとの関係を説明するための図であり、図中、“□”はチャンネル1のキーオンイベントを示し、“○”はチャンネル1以外のイベントを示している。
【0091】
同図から分かるように、デルタタイム累積値DELTA_ACMは、自動演奏データ格納領域281に格納された1拍分のデルタタイムを累算したものであり、テンポ制御間隔INTERVALは、操作者がテンポ制御信号出力装置1を振ることによってテンポ制御する1拍分の時間間隔を計測したものである。後述するように、このデルタタイム累算値DELTA_ACMおよびテンポ制御間隔INTERVALに基づいてテンポ係数T_COEFが算出される。なお、同図は、テンポ制御間隔INTERVALの方がデルタタイム累算値DELTA_ACMより小さい場合、すなわち、操作者が標準テンポより速いテンポで曲を再生するように制御している場合を示している。
【0092】
図16は、前記ステップS106のイベント対応処理サブルーチンの詳細な手順を示すフローチャートである。
【0093】
同図において、まず、読み出したイベントデータがチャンネル1のイベントデータであるか否かを判別し(ステップS121)、チャンネル1のイベントデータであるときには、そのイベントデータが追従度イベントデータであるか否かを判別する(ステップS122)。
【0094】
ステップS122の判別で、追従度イベントデータのときには、チャンネル1のキーオンイベントを読み出す前にテンポ制御信号出力装置1から当該キーオンイベントを既に受信していることを“1”で示すフラグKON_RCV(Key ON Recieve)が“1”であるか否かを判別し(ステップS123)、フラグKON_RCVが“0”のとき、すなわち当該キーオンイベントをテンポ制御信号出力装置1から受信していないときには、当該イベントのキーコードをRAM28に確保された領域KEYCODE(以下、この内容を「キーコードKEYCODE」という)に格納し(ステップS124)、前記フラグPAUSEをセットした(ステップS125)後に、本イベント対応処理を終了する。
【0095】
一方、ステップS123の判別で、フラグKON_RCVが“1”のときにはこのフラグKON_RCVをリセットして(ステップS126)、本イベント対応処理を終了する。
【0096】
一方、ステップS122の判別で、読み出したイベントデータが追従度イベントデータのときには、その追従度(すなわち、追従度A〜Cのうちいずれかの追従度)に応じて各種値α〜δを前記図13(a)に示す値に設定し(ステップS127)、前記ステップS62と同様にして該設定した各種値α〜δを難易度係数D_COEFに応じて修正し(ステップS128)、前記ステップS64と同様にして各種値α〜δのリミット処理を行った(ステップS129)後に、本イベント対応処理を終了する。
【0097】
一方、ステップS121の判別で、読み出したイベントデータがチャンネル1のものでないときには、そのイベントデータは通常の自動演奏イベントデータであるので、そのイベントデータを前記音源回路33へ出力した(ステップS130)後に、本イベント対応処理を終了する。なお、ステップS130において、音源回路33に出力するイベントがノートイベントの場合には、該ノートイベントのベロシティは、後述する図17のステップS142で設定されたダイナミクスに応じて修正したものを出力する。
【0098】
図17は、前記ステップS113のテンポキーオン受信処理サブルーチンの詳細な手順を示すフローチャートである。
【0099】
同図において、まず、テンポ制御信号出力装置1からテンポキーオンイベントを受信したか否かを判別し(ステップS141)、受信したときには、受信したキーオンのベロシティ値に応じてダイナミクスを設定して、RAM28の所定位置に確保された領域に格納する(ステップS142)。
【0100】
次に、フラグPAUSEが“1”であるか否かを判別し(ステップS143)、フラグPAUSEが“1”のときには、受信したテンポキーオンイベントのキーコードが前記キーコードKEYCODEと一致しているか否かを判別し(ステップS144)、一致しているときにはステップS145に進む。なお、前記ステップS141のテンポキーオンイベントの判別は、前記領域TKONの内容を検査することによって行うようにすればよい。
【0101】
一方、ステップS141の判別でテンポキーオンを受信していないとき、またはステップS144の判別で受信したテンポキーオンイベントのキーコードとキーコードKEYCODEとが一致していないときには、直ちに本テンポキーオン受信処理を終了する。
【0102】
ステップS145では、現時点がテンポ制御用マーク(マークデータ)の判定タイミングか否か、すなわち前記追従度制御を行う時点か否かを判別する。この判定タイミングか否かの判別は、前述したように追従度に応じて設定された判定タイミング(図13(a)参照)に基づいて行う。追従度が“A”の場合には、全てのマークデータを検出した時点がテンポ制御用マーク判定タイミングであり、例えばマークデータが音符毎に記憶されているときには各音符のタイミングがテンポ制御用マークの判定タイミングとなる。追従度が“B”の場合には、拍上のマークデータを検出した時点がテンポ制御用マーク判定タイミングであり、マークデータが音符毎に記憶されているときには、そのうち拍タイミングがテンポ制御用マークの判定タイミングとなる。具体的には、前記拍タイミングイベントデータを検出した時点をテンポ制御用マークの判定タイミングにすればよい。追従度が“C”の場合には、小節頭のマークデータを検出した時点がテンポ制御用マーク判定タイミングであり、マークデータが音符毎に記憶されているときには、そのうち小節頭のタイミングがテンポ制御用マークの判定タイミングとなる。具体的には、拍タイミングイベントデータを検出する度にその検出回数をカウントし、そのカウント値と曲の拍子を比較することにより、小節頭か否かを判別すればよい。
【0103】
ステップS145の判別で、テンポ制御用マークの判定タイミングであるときには、前記デルタタイム累算値DELTA_ACMおよびテンポ制御間隔INTERVALから、次式によりテンポ係数T_COEFの値を変更するための比率(rate)を求め、RAM28に確保された領域RATE(以下、この内容を「比率RATE」という)に格納する(ステップS146)。
【0104】
RATE = INTERVAL/DELTA_ACM
次に、図19を用いて後述するテンポ係数計算処理サブルーチンを実行し(ステップS147)、図20を用いて後述するテンポ係数リミット処理サブルーチンを実行する(ステップS148)。
【0105】
一方、ステップS145の判別で、テンポ制御用マークの判定タイミングでないときにはステップS146〜S148をスキップして、ステップS149に進む。
【0106】
ステップS149〜151では、前記デルタタイム累算値DELTA_ACM、テンポ制御間隔INTERVALおよびフラグPAUSEをそれぞれリセットした後に、本テンポキーオン受信処理を終了する。
【0107】
一方、ステップS143の判別で、フラグPAUSEが“0”であるときには、自動演奏データ格納領域281における次のチャンネル1のキーオンイベントをサーチし(ステップS152)、前記受信したキーオンイベントのキーコードとサーチしたキーオンイベントのキーコードとが一致しているか否かを判別し(ステップS153)、一致しているときにはステップ154に進み、一方、一致していないときにはエラーであるので直ちに本テンポキーオン受信処理を終了する。
【0108】
ステップS154では、次式(1)によりデルタタイム累算値DELTA_ACMを算出する。
【0109】

Figure 0003720004
ここで、TIMEは、前記カウンタTIMEの値を示し、DELTAT(k),(k=1,2,…)は、現在曲を再生している時点(アドレス)の次のデルタタイムからサーチしたキーオンイベントまでのデルタタイムを示している。
【0110】
図18は、デルタタイム累算値DELTA_ACMの具体的な算出方法を説明するための図である。
【0111】
図示例では、自動演奏データ格納領域281からチャンネル1のキーオンイベントを読み出す前にテンポ制御信号出力装置1からテンポキーオンイベントを受信し、自動演奏データ格納領域281において、この受信時点から当該受信キーオンイベントに対応するチャンネル1のキーオンイベントの位置までにチャンネル1以外のイベントデータが少なくとも1つ以上格納されている場合を示している。同図中、“TIME”は、カウンタTIMEの値、すなわちイベントE0,E1間のデルタタイムの残り時間を示し、DELTAT(1)は、イベントE1,E2間のデルタタイムを示し、DELTAT(2)は、イベントE2,E3間のデルタタイムを示している。すなわち、図示例では、上記式(1)中の“Σ”は、k=1,2についてDELTAT(k)の加算を行うことになる。
【0112】
このようにして、上記式(1)によりチャンネル1のキーオンイベント間のデルタタイム累算値DELTA_ACMを求めることができる。
【0113】
図17に戻り、ステップS155では、サーチしたキーオンイベントまでのデルタタイムおよびカウンタTIMEの値を所定値でそれぞれ除算し、各除算結果で対応するデルタタイムおよびカウンタTIMEの値を変更する。すなわち、前記図18の例では、次式のように各値を変更する。
【0114】
TIME = TIME/C
DELTAT(1) = DELTAT(1)/C
DELTAT(2) = DELTAT(2)/C
ここで、Cは定数であり、“1”より大きい値である。このようにデルタタイムおよびカウンタTIMEの値を変更することで、次のマークデータ間のイベントの読み出しに速く移行できるようにしている。
【0115】
再び図17に戻り、ステップS156で前記フラグKON_RCVをセットし、ステップS157〜S162でそれぞれ前記ステップS145〜S150と同様の処理を行った後に、本テンポキーオン受信処理を終了する。
【0116】
図19は、前記ステップS147およびS159のテンポ係数計算処理サブルーチンの詳細な手順を示すフローチャートである。
【0117】
同図において、まず、過去のT_COEF×RATEの値を保存しておくために、RAM28の所定位置に確保された領域TC1〜TC16のうち、領域TC1〜TC15の値をそれぞれ領域TC2〜TC16に格納し直す(ステップS171)。
【0118】
次に、前記ステップS146またはS158で、今回新たに算出した比率RATEを用いて変更したテンポ係数T_COEF×RATEを、前記領域TC1の格納し(ステップS172)、前記ステップS63またはS128で修正した移動平均次数αに応じて、領域TC1〜TC16から選択したα個の格納値の移動平均値を算出して、最終のテンポ係数T_COEFを決定した(ステップS173)後に、本テンポ係数計算処理を終了する。
【0119】
図20は、前記ステップS148およびS160のテンポ係数リミット処理サブルーチンの詳細な手順を示すフローチャートである。
【0120】
同図において、まず、前記ステップS173で算出したテンポ係数T_COEFの今回の値と前回の値との差分を計算し、その差分値が前記ステップS63またはS128で修正した差分リミットβ以内であるか否かを判別する(ステップS181)。ここで、テンポ係数T_COEFの差分を計算するために、今回算出した最終のテンポ係数T_COEFを保存しておく必要があるが、この保存は、例えば本テンポ係数リミット処理を終了する直前に行うようにすればよい。
【0121】
ステップS181の判別で、テンポ係数T_COEFの差分が前記修正後の差分リミットβより大きい場合には、その差分が修正後の差分リミットβ以内に収まるように、今回算出したテンポ係数T_COEFをリミットし(ステップS182)、テンポ係数T_COEFの差分が修正後の差分リミットβ以内である場合には、ステップS182をスキップしてステップS183に進む。
【0122】
ステップS183では、今回算出した最終のテンポ係数T_COEF値が、ステップS63またはS128で修正した下限値γ以上、上限値δ以下であるか否かを判別し、テンポ係数T_COEF値がこの条件を満たさない場合には、テンポ係数T_COEFが下限値γと上限値δの間になるようにリミットした(ステップS184)後に、本テンポ係数リミット処理を終了し、一方、テンポ係数T_COEF値がこの条件を満たす場合には、直ちに本テンポ係数リミット処理を終了する。
【0123】
以上説明したように本実施例では、追従度A〜Cに応じて追従度制御に用いる各種値α〜δの初期値を設定し、該初期値を難易度設定操作子231から出力された難易度係数D_COEFに応じて修正し、難易度を調節するように構成したので、操作者が曲や装置への自分の習熟度に合わせてテンポ制御の難易度(安定度または音楽表現力)を調節することができる。
【0124】
また、マークデータと自動演奏データとを混在させたので、RAM28の記憶容量を削減することができ、これによりコストの低減化を図ることができる。
【0125】
なお、本実施例では、各種値α〜δの初期値は各追従度A〜Cに応じて予め記憶された値を読み出して設定するようにしたが、これに限らず、各種値α〜δの初期値を変更できるようにしてもよい。例えば、操作者が任意に決定できるようにしてもよいし、複数の値のセットを予め用意しておき、そのいずれかを選択できるようにしてもよい。また、曲毎に最適なセットを持つようにしてもよいし、複数のセットを用意しておき、曲に応じて最適なセットを自動的に選択するようにしてもよい。
【0126】
また、追従度は、本実施例のように3種類に限る必要はなく、1種類(例えば、曲の中で変化しないようにしたり、全ての曲に対して同様の追従度を設定したりする)でもよいし、2種類または4種類以上でもよい。すなわち、追従度の種類に拘わらず、各追従度を変更できるように構成されていればよい。
【0127】
さらに、本実施例では、追従度によって、移動平均の次数、前回値との差分、値の上下限値およびマークデータを読み飛ばす割合の5種類の条件を制御するように構成したが、これらの条件の一部を組み合わせて追従度制御に用いてもよいし、他の条件を制御するようにしてもよい。
【0128】
なお、本実施例では、テンポの制御は、デルタタイムの値にテンポ係数T_COEFを乗算し、デルタタイムの値を増加または減少させることによって行うように構成したが、これに限らず、処理の周期、例えば本実施例でいう割込みタイミングを変換させることによってテンポを変化させるように構成してもよい。また、デルタタイムの値を変化させるとき、所定の値を乗算するものに限らず、所定の値を加算するものであってもよい。
【0129】
また、テンポの制御だけに限らず、ダイナミクスの制御などについても、テンポ制御と同様の難易度制御を行なうようにしてもよい。
【0130】
また、本実施例では、2個の圧電ジャイロセンサ2,3からの出力信号に基づいてテンポ制御信号出力装置1の揺動動作を検出したが、3個以上の圧電ジャイロセンサを用いて揺動動作を検出するようにしてもよい。また、揺動動作を検出できるものであれば圧電ジャイロセンサに限らず、加速度センサや磁気または光を用いたもの等どのようなものであってもよいし、複数のセンサを組み合わせて用いてもよい。さらに、揺動動作を検出できるものであればセンサに限らず、揺動動作を撮像し、画像処理によって揺動操作を検出するようなものであってもよい。
【0131】
さらに、本実施例では、検出する揺動動作の種類を前記3種類に限定したが、これに限らず、もっと多くの種類の揺動動作を検出するようにしてもよい。この場合には、圧電ジャイロセンサの個数を多くしてより多くの揺動動作を正確に検出できるようにすればよい。なお、本実施例の3種類の揺動動作の検出においても、例えば、3拍子用と、2・4拍子用とで、異なるセンサを用いて判別精度を向上させるようにしてもよいし、3つ以上のセンサ出力を総合判断して揺動動作を検出するようにしてもよい。
【0132】
また、揺動動作を検出するセンサを取り付ける形態としては、本実施例のように片手に把持できるテンポ制御信号出力装置1に内蔵する他、センサを身体(例えば、手や腕等)に装着するようにしてもよいし、マイクロフォンに内蔵するようにしてもよいし、カラオケ装置等のリモコン装置に内蔵するようにしてもよい。
【0133】
また、本実施例では、テンポ制御信号出力装置1の揺動動作に基づいてテンポ制御信号を発生するようにしたが、これに限らず、タッピング操作や演奏操作子の操作等によってテンポ制御信号を発生するようにしてもよい。
【0134】
なお、本実施例では、操作者の揺動動作の動作種類およびその特徴点(ピークや谷)を検出してテンポ制御タイミングを出力するテンポ制御信号出力装置1とその被制御対象である自動演奏装置付き電子楽器21とを別体で構成したが、これらを1つの装置として構成してもよい。また、外部に接続された装置にテンポクロックを供給し、その外部装置の演奏テンポを制御するように構成してもよい。
【0135】
また、音楽制御する対象としては、自動演奏に限る必要はなく、自動伴奏または自動リズム等であってもよい。また、これらの再生に加え、動画等の画像再生を伴うものであってもよい。
【0136】
【発明の効果】
以上説明したように、本発明に依れば、自動演奏データ記憶手段から自動演奏データが読み出されて自動演奏されているときに、操作者の動作に基づく連動が検出されると、それに対応して出力された動作検出信号に応じて、音楽制御信号発生手段から音楽制御信号が発生され、この音楽制御信号および自動演奏手段により読み出された自動演奏データに基づいて音楽制御値が算出され、その算出された音楽制御値が難易度調節手段により調節された難易度に応じて変更され、その変更された音楽制御値に基づいて自動演奏の音楽特性が制御されるので、操作者が曲や装置への自分の習熟度に合わせて音楽特性制御の難易度(安定度または音楽表現力)を調節することが可能となる効果を奏する。
【図面の簡単な説明】
【図1】本発明の一実施例に係る音楽制御装置の概略構成を示すブロック図である。
【図2】図1の自動演奏装置付き電子楽器のスイッチ群中の一スイッチである難易度設定操作子を示す図である。
【図3】図1のテンポ制御信号出力装置により検出される操作者の動作と各動作に応じてテンポ制御信号出力装置から出力される信号の値とを示す図である。
【図4】図1の電子楽器の自動演奏データのデータフォーマットを示す図である。
【図5】図1のテンポ制御信号出力装置のCPUが実行する圧電振動ジャイロセンサ出力処理の手順を示すフローチャートである。
【図6】図5のステップS3のピーク検出処理サブルーチンの詳細な手順を示すフローチャートである。
【図7】図6のステップS12のピーク種類判定処理サブルーチンの詳細な手順を示すフローチャートである。
【図8】図7のステップS24のピーク2判定処理サブルーチンの詳細な手順を示すフローチャートである。
【図9】図8のステップS34のピーク3判定処理サブルーチンの詳細な手順を示すフローチャートである。
【図10】図1の各圧電ジャイロセンサからの出力に基づいてテンポ制御信号出力装置の振り角度を算出する方法を説明するための図である。
【図11】図1の自動演奏装置付き電子楽器のCPUが実行するメインルーチンの手順を示すフローチャートである。
【図12】図2の難易度設定操作子が操作されたときに行われる難易度操作子処理の手順を示すフローチャートである。
【図13】追従度制御を行うための各種値α〜δの具体例および難易度に応じた値の修正例を示す図である。
【図14】自動演奏データの再生処理の手順を示すフローチャートである。
【図15】テンポ制御間隔INTERVALとデルタタイム累算値DELTA_ACMとの関係を説明するための図である。
【図16】図14のステップS106のイベント対応処理サブルーチンの詳細な手順を示すフローチャートである。
【図17】図14のステップS113のテンポキーオン受信処理サブルーチンの詳細な手順を示すフローチャートである。
【図18】デルタタイム累算値DELTA_ACMの具体的な算出方法を説明するための図である。
【図19】図17のステップS147およびS159のテンポ係数計算処理サブルーチンの詳細な手順を示すフローチャートである。
【図20】図17のステップS148およびS160のテンポ係数リミット処理サブルーチンの詳細な手順を示すフローチャートである。
【符号の説明】
1 テンポ制御信号出力装置(音楽制御信号発生手段)
231 難易度設定操作子(難易度調節手段)
26 CPU(自動演奏手段、音楽制御手段、音楽制御値算出手段、選択手段、平均化手段、変更手段、変化幅変更手段)
28 RAM(自動演奏データ記憶手段、音楽制御値記憶手段)[0001]
[Industrial application fields]
The present invention relates to a music control apparatus that can control tempo, dynamics, sound source parameters, and the like in real time.
[0002]
[Prior art]
Conventionally, as a music control device that can control music information such as tempo, dynamics and sound source parameters in real time, a performance is started with preset initial music information, and then an operator operates a signal output device for music control. Is known to control music information in real time according to the direction and strength of the operation (for example, Japanese Patent Laid-Open No. Hei 6-27957 controls tempo as music information). Is disclosed).
[0003]
[Problems to be solved by the invention]
However, in the conventional music control device, the operator cannot adjust the difficulty of music control (in other words, stability or music expressiveness) according to his / her proficiency level with the song or the device. For those who have improved their proficiency level, they will feel unsatisfactory, and even beginners and operators who have improved their proficiency level will be able to perform music control as desired. There was something I couldn't do.
[0004]
The present invention has been made in view of the above problems, and allows an operator to adjust the difficulty (stability or musical expressive power) of music characteristic control in accordance with his / her proficiency with a song or device. An object is to provide a music control device.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present inventionExercise based onDetectOutput the corresponding motion detection signalDetection meansWhich is worn or possessed by the operatorAnd theActionBy detection meansOutput motion detection signalMusic control signal generating means for generating a music control signal in response to the sound, difficulty adjustment means for the operator to adjust the difficulty of music control, automatic performance data storage means for storing automatic performance data, and the storage Automatic performance means for reading out the automatic performance data and performing automatically, music control means for controlling the music characteristics of the automatic performance by the automatic performance means based on the generated music control signal, and the music control signal generation means Music control value calculation means for calculating a music control value used by the music control means for music characteristic control based on the music control signal generated by the automatic performance means and the automatic performance data read by the automatic performance means, The music control means changes the calculated music control value according to the difficulty level adjusted by the difficulty level adjustment means, and automatically changes the music control value based on the changed music control value. And controlling the music characteristic response rates.
[0006]
  To achieve the above object, the present invention provides motion detection means for detecting a motion based on an operator's motion and outputting a corresponding motion detection signal, which is worn or possessed by the operator, and the motion detection Music control signal generating means for generating a music control signal in accordance with the motion detection signal output by the means, difficulty adjusting means for the operator to adjust the difficulty of music control, and automatic storing automatic performance data Performance data storage means, automatic performance means for automatically reading out the stored automatic performance data, and music control means for controlling the music characteristics of the automatic performance by the automatic performance means based on the generated music control signal A music control value storing means having a storage area for storing a predetermined number of music control values, a music control signal generated by the music control signal generating means, and the automatic performance Music control value calculation means for calculating a music control value used by the music control means for music characteristic control based on the automatic performance data read by the stage, wherein the music control value calculation means is stored in the storage area. The music control value stored in the memory is updated every time a new music control value is calculated, and the stored music control value is determined from the stored music control value according to the difficulty adjusted by the difficulty adjustment means. An averaging means for selecting the music control values and averaging the selected predetermined music control values and the music control values newly calculated by the music control value calculation means; The calculation of the control value includes calculation by averaging, and the music control means controls the music characteristic of the automatic performance based on the averaged music control value and is adjusted by the difficulty level adjustment means. Difficulty Music Japanese automatic performance based on the change of the calculated music control value, music control value after the change in accordance with theSexIt is characterized by controlling.
[0007]
Preferably, the music control value calculated by the music control value calculation means according to the difficulty level adjusted by the difficulty level adjustment means.When changingIt has a change means which changes the upper limit value or lower limit value.
[0008]
Furthermore, preferably, the music control value calculated by the music control value calculation unit according to the difficulty level adjusted by the difficulty level adjustment unitWhen changingIt is characterized by having a change width changing means for changing the change width.
[0009]
The automatic performance data storage means stores music control mark data at a predetermined timing together with the automatic performance data, and the automatic performance means calculates the difficulty adjustment means from the stored music control mark data. A predetermined number of music control mark data is skipped according to the difficulty adjusted by the control unit, and the music control value calculation means is based on the read music control mark data and the generated music control signal. A music control value is calculated.
[0010]
  Further, the automatic performance data storage means should follow the music characteristics specific to the automatic performance data together with the automatic performance data, and indicates the degree of tracking when controlling the music characteristics of the automatic performance data. Degree data is stored, the automatic performance means reads the stored follow-up degree data, and the music control means reads out the read follow-up degree according to the difficulty adjusted by the difficulty adjustment means. Change the level of tracking indicated by the dataAnd based on the degree of follow-up after the changeIt is characterized by controlling the music characteristics of automatic performance.
[0011]
Preferably, the tracking degree data is in the middle of a song.SmallAt least one is embedded and as the song progressesThe automatic performance means reads the tracking degree data and is indicated by the read tracking degree data.Degree of followingDepending on the adjusted difficulty levelIt is characterized by changing.
[0012]
Further preferably, preferablyActionThe detection means is the operator's swing motionExercise based onIs detected.
[0013]
Preferably, the motion detection means isBy increasing the number of sensorsExercise based on operator's movementDuplicateSeveral types are detected, the detected plural types of motion are comprehensively judged, and the motion detection signal is output.
[0014]
  To achieve the above object, the present invention provides motion detection means for detecting a motion based on an operator's motion and outputting a corresponding motion detection signal, which is worn or possessed by the operator, and the motion detection Music control signal generating means for generating a music control signal in accordance with the motion detection signal output by the means, difficulty adjusting means for the operator to adjust the difficulty of music control, and automatic storing automatic performance data Performance data storage means, automatic performance means for automatically reading out the stored automatic performance data, and music control means for controlling the music characteristics of the automatic performance by the automatic performance means based on the generated music control signal As the difficulty adjusted by the difficulty adjustment means goes from easy to difficult, the degree of follow-up in controlling the music characteristics of the automatic performance increases.GoingThe music control means controls the music characteristic of the automatic performance according to the degree of follow-up changed by the change means.
[0015]
[Action]
According to the configuration of the first aspect of the invention, when the automatic performance data is read from the automatic performance data storage means and automatically played,Linkage based onIs detected,Motion detection signal output corresponding to thisAccordingly, a music control signal is generated from the music control signal generating means, and a music control value is calculated based on the music control signal and automatic performance data read by the automatic performance means, and the calculated music control value is calculated. Is changed according to the difficulty level adjusted by the difficulty level adjusting means, and the music characteristic of the automatic performance is controlled based on the changed music control value.
[0016]
According to the configuration of the second aspect of the invention, the predetermined number of music selected according to the difficulty adjusted by the difficulty adjusting means from the predetermined music control values stored in the tempo control value storage means. The control value and the new music control value calculated by the music control value calculation means are averaged, and the music characteristic of the automatic performance is controlled based on the averaged music control value.
[0017]
According to the configuration of the third aspect of the present invention, the music control value calculated by the music control value calculating means according to the difficulty adjusted by the difficulty adjusting means.When changingThe upper limit value or the lower limit value is changed, and the music characteristic of the automatic performance is controlled based on the changed value.
[0018]
According to the configuration of the fourth aspect of the invention, the music control value calculated by the music control value calculating means according to the difficulty adjusted by the difficulty adjusting means.When changingThe change width is changed, and the music characteristic of the automatic performance is controlled based on the music control value of the changed change width.
[0019]
According to the configuration of the fifth aspect of the invention, a predetermined number of music control marks according to the difficulty level adjusted by the difficulty level adjustment means among the music control mark data stored in the automatic performance data storage means. When the data is skipped and then the music control mark data is read, the music control value is calculated based on the music control mark data and the music control signal generated by the music control signal output means, and the music control value is calculated. The music characteristic of the automatic performance is controlled based on the value.
[0020]
According to the structure of the sixth aspect of the invention, the tracking degree data stored in the automatic performance data storage means is read out and determined according to the tracking degree data.Music characteristic controlThe difficulty level is adjusted by the difficulty level adjusting means, and the music characteristic of the automatic performance is controlled according to the adjusted difficulty level.
[0021]
According to the configuration of the invention of claim 7, the tracking degree data is in the middle of the song.SmallAt least one is embedded and the degree of follow-up according to the progress of the songHigh and lowThe difficulty level determined by the tracking degree data is adjusted by the difficulty level adjusting means, and the music characteristic of the automatic performance is controlled according to the adjusted difficulty level.
[0022]
According to the configuration of the invention described in claim 8, the operation of the operatorLinkage based onAs swing motionLinkage based onOscillating motionLinkage based onIn response to this, a music control signal is generated.
[0023]
According to the invention of claim 9,By increasing the number of sensorsLinkage based on operator actionsIsSeveral types are detected, a plurality of types of detected linkages are comprehensively determined, the motion detection signal is output, and a music control signal is generated according to the output motion detection signal.
[0024]
According to the invention described in claim 10, when the automatic performance data is read from the automatic performance data storage means and is automatically played, the operation of the operatorLinkage based onIs detected,Motion detection signal output corresponding to thisAccordingly, a music control signal is generated from the music control signal generating means, and the music characteristic of the automatic performance is controlled in accordance with the music control signal and the degree of follow-up changed by the changing means.
[0025]
【Example】
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0026]
FIG. 1 is a block diagram showing a schematic configuration of a music control apparatus according to an embodiment of the present invention. The music control apparatus of this embodiment includes a tempo control signal output apparatus 1 that outputs a tempo control signal and the tempo control. The electronic musical instrument 21 with an automatic performance device is configured to control music information based on a tempo control signal from the signal output device 1. In this embodiment, tempo and dynamics will be described as examples of music information that can be controlled. However, it is needless to say that the present invention is not limited to this.
[0027]
In the figure, a tempo control signal output device 1 detects an angular velocity in the X-axis (horizontal) direction of a swing motion of the device 1 performed by an operator, and converts it into an analog electrical signal (X). 2, similarly, a piezoelectric vibration gyro sensor (Y) 3 that detects an angular velocity in the Y-axis (vertical) direction of the swing operation of the apparatus 1 and converts it into an analog electric signal, and a switch group 4 for inputting various information. Noise removing circuits 5 and 6 for removing noise from the output signals from the piezoelectric vibration gyro sensors 2 and 3, respectively, and A / D for converting the analog output signals from the noise removing circuits 5 and 6 into digital signals, respectively. Conversion circuits 7 and 8, a switch detection circuit 9 that detects the operation state of each switch of the switch group 4, a CPU 10 that controls the entire apparatus 1, and a control program and a table that the CPU 10 executes. ROM 11 for storing data, RAM 12 for temporarily storing various input information and calculation results, timer 13 for measuring interrupt time and various times in timer interrupt processing, and external MIDI (Musical Instrument Digital Interface) It is composed of a MIDI interface (I / F) 14 that inputs signals and outputs them as MIDI signals to the outside. The components 7 to 14 are connected to each other via a bus 15, and a timer 13 is connected to the CPU 10.
[0028]
An electronic musical instrument with an automatic performance device 21 includes a keyboard 22 for inputting pitch information, a switch group 23 for inputting various information, a key pressing detection circuit 24 for detecting a key pressing state of the keyboard 22, and a switch. A switch detection circuit 25 that detects the operation state of each switch in the group 23, a CPU 26 that controls the entire apparatus 21, a ROM 27 that stores control programs executed by the CPU 26, table data, and the like, automatic performance data, and various inputs A RAM 28 for temporarily storing information and calculation results, a timer 29 for measuring interrupt time and various times in timer interrupt processing, a display 30 such as an LCD for displaying automatic performance data and various information, and the like MIDI interface (I / O) that inputs MIDI signals from and outputs externally as MIDI signals ) 31, a floppy (registered trademark) disk drive (FDD) 32 that drives a floppy (registered trademark) disk (FD) as a storage medium, and performance data, automatic performance data, and the like from the keyboard 22 are converted into musical tone signals. A sound source circuit 33, an effect circuit 34 for imparting various effects to the tone signal from the tone source circuit 33, and a sound system 35 such as a speaker for converting the tone signal from the effect circuit 34 into sound. Yes. The components 24 to 34 are connected to each other via a bus 36, the timer 26 is connected to the CPU 26, the effect circuit 34 is connected to the sound source circuit 33, and the sound system 35 is connected to the effect circuit 34. It is connected.
[0029]
Further, the MID II / F 14 of the tempo control signal output device 1 is mutually connected to the MID II / F 31 of the electronic musical instrument 21, and MIDI signals are transmitted and received between the tempo control signal output device 1 and the electronic musical instrument 21. The connection between the MIDII / Fs 14 and 31 may be performed by wire or wirelessly.
[0030]
The operator can manually control the music information by holding the tempo control signal output device 1 with one hand and shaking the device 1 in a predetermined direction according to a predetermined timing of the music.
[0031]
FIG. 2 shows a difficulty level setting operation element 23 which is one switch in the switch group 23.1In this embodiment, the difficulty level setting operation element 23 is shown.1The rotary volume type is used.
[0032]
The operator sets the difficulty setting operator 23.1The difficulty level of the song can be adjusted by rotating the, and the difficulty level setting operation element 231Is at the “0” position, the tempo can be controlled with a preset difficulty for the song, and when rotating clockwise from that position, the degree of “difficulty” increases according to the rotation angle On the other hand, when it is rotated counterclockwise, the degree of “easy” increases according to the rotation angle.
[0033]
The difficulty level setting operator 231The form is not limited to this, and any form such as a slide switch or an up / down switch may be used. Also, the difficulty level setting operator 231May be provided on the tempo control signal output device 1 side instead of being provided on the electronic musical instrument 21 side as in this embodiment.
[0034]
FIG. 3 is a diagram illustrating an example of the types of swinging motions detected by the tempo control signal output device 1. FIG. 3A illustrates a case where the tempo control signal output device 1 is swung in the direction of each side of the triangle. Three types of swinging motions to be detected are shown, and (b) shows two types of swinging motions to be detected when the tempo control signal output device 1 is swung upward or downward.
[0035]
When the operator swings the tempo control signal output device 1, signals are output from the piezoelectric vibration gyro sensors 2 and 3 in accordance with the swing operation, and the CPU 10 is in an operation state performed by the operator from each signal, that is, The operator's action corresponds to any one of actions 1 to 3 in FIG. 3, and the position at which the absolute angular velocity peaks in the determined action (how to swing the tempo control signal output device 1) Depending on the above, the speed will reach a peak at approximately the midpoint of each operation 1 to 3), and the key code on-event (mark data) corresponding to the detected operation is detected at the peak position. A predetermined channel number (channel 1 in this embodiment) is assigned to a velocity value corresponding to the absolute angular velocity at this time (this calculation method will be described later), and output to the electronic musical instrument 21 side. . For example, a key-on event with a key code “C3” for operation 1, a key-on event with a key code “C_3” for operation 2, and a key-on event with a key code “D3” for operation 3 The velocity value calculated according to the absolute angular velocity is added and output as event data of channel 1.
[0036]
Here, each key-on event and velocity value are output as a MIDI signal from MIDII / F14 to MIDII / F31. That is, in the music control device of this embodiment, the tempo control signal output device 1 mainly outputs the tempo control signal literally, and the actual automatic performance processing (reading of automatic performance data, pronunciation processing, etc.) is all performed on the electronic musical instrument 21 side. It is configured to do with. The key-on event and velocity value transmitted to the electronic musical instrument 21 side in this way are temporarily stored in a predetermined area of the RAM 28 and then analyzed by the CPU 26, and the analysis result is stored in the predetermined area TKON of the RAM 28.
[0037]
FIG. 4 is a diagram showing a data format of automatic performance data of the electronic musical instrument 21. The automatic performance data is stored in the automatic performance data storage area 28 of the RAM 28.1Stored in
[0038]
As shown in the figure, the automatic performance data follows delta time data 41,... Indicating time intervals between adjacent events, events such as key-on and key-off of the electronic musical instrument 21, and the tempo specific to the automatic performance data. Event data 42,..., Such as a follow-up degree event indicating a degree to be performed and a beat timing event indicating a beat timing (this beat timing event is used in steps S145 and S153 of a tempo key-on reception process described later with reference to FIG. 17). It is comprised by. In the present embodiment, an integer value having 1 ms as one unit is adopted as the delta time data 41, and event data assigned with a channel number is adopted as the event data 42. Here, the reason why the delta time data 41 is configured in this way is that the timing processing control of each event is performed during the interruption processing every 1 ms (during the reproduction processing of FIG. 14 described later). In addition, the event data 42 is configured in this way because the electronic musical instrument 21 of the present embodiment mixes the mark data, the tracking degree event data, the beat timing event data, and the normal automatic performance data, as mark data. This is because since normal automatic performance event data is used, it is necessary to distinguish both of these data.
[0039]
In this embodiment, three types of tracking degrees (A: high tracking level, B: medium tracking level, C: low tracking level) are provided as the tracking level event data. It is registered in advance in the position. For example, if the song is karaoke, the song introduction (prelude part) can concentrate on normal tempo control, so follow-up is improved, tracking degree A is registered at the first position, and the introduction ends. If you enter the theme (theme), select one of the three types of follow-up according to the importance of the song, such as registering the follow-up B or C according to the melody. And register. And once CPU26 detects a follow-up degree, it will perform music control according to the detected follow-up degree until it detects a new follow-up degree.
[0040]
Further, as described above, the mark data includes three types of key-on events “C3”, “C_3”, and “D3”, and the automatic performance data storage area 281Are stored in advance in a predetermined order. For example, in a three-beat tune, key-on event data of “C3”, “C_3”, and “D3” are included with channel number 1 in the event data 42 at each timing of the first, second, and third beats in each measure. In a 4-beat song, “C3”, “D3”, “C3”, “D3” are included in the event data 42 at each timing of the first, second, third, and fourth beats in each measure. Key-on event data is stored together with channel number 1 in advance. That is, the electronic musical instrument 21 is configured to be able to reproduce, for example, automatic performance data for 16 channels (tracks), of which channel 1 is used for the mark data, follow-up event data, and beat timing event data. The channel is used for normal automatic performance data.
[0041]
In this embodiment, the automatic performance data is “event data + delta time” as described above. However, the present invention is not limited to this, and other formats such as “event data + absolute time” may be used. The delta time is 1 ms as one unit, but one unit may be a note length (for example, 1/24 of a quarter note).
[0042]
In this embodiment, mark data for tempo control (key-on event data), tracking degree event data, beat timing event data, and automatic performance data are mixed, and these data are distinguished by channel numbers. However, the present invention is not limited to this, and these data may be configured separately as different types of data. For example, as mark data for tempo control, data storing a memory address corresponding to the position of a note to be tempo controlled may be used. In the present embodiment, “A”, “B”, and “C” are used as the follow-up event data as described above. However, the present invention is not limited to this, and may be expressed using arbitrary key event data. Also good.
[0043]
The control process executed by the CPU 10 of the tempo control signal output apparatus 1 configured as described above will be described with reference to FIGS. 5 to 10, and the control process executed by the CPU 26 of the electronic musical instrument with automatic performance device 21 will be described with reference to FIGS. This will be described with reference to FIG.
[0044]
FIG. 5 is a flowchart showing the procedure of the piezoelectric vibration gyro sensor output process executed by the CPU 10 of the tempo control signal output device 1. This process is synchronized with a timer interrupt signal generated by the timer 13 every 10 ms, for example. This is one process during the interrupt process executed.
[0045]
In the figure, first, as described above, each output signal from the piezoelectric vibration gyro sensors 2 and 3 that has been subjected to noise removal by the noise removal circuits 5 and 6 and digitally converted by the A / D conversion circuits 7 and 8 is captured. , Each predetermined area ω of the RAM 12x, Ωy(Hereafter, the contents of each area are expressed as “angular velocity ωx"," Angular velocity ωy(Step S1).
[0046]
Next, this angular velocity ωx, ΩyThen, the absolute angular velocity ω is calculated from the following equation, and the calculated absolute angular velocity ω is stored in a predetermined area ANGV of the RAM 12 (hereinafter, the contents of this area are referred to as “absolute angular velocity ANGV”) (step S2).
[0047]
ω = (ωx 2+ Ωy 2)1/2
When the absolute angular velocity ω calculated this time is stored in the region ANGV and the previously calculated absolute angular velocity ω is stored in the region ANGV, the previously calculated value is stored in the predetermined region OANGV of the RAM 12.
[0048]
Next, after executing a peak detection processing subroutine for detecting a time point when the absolute angular velocity ω reaches a peak (step S3), the piezoelectric vibration gyro sensor output processing is ended.
[0049]
FIG. 6 is a flowchart showing the detailed procedure of the peak detection processing subroutine in step S3. First, in step S11, it is determined whether or not a peak is detected.
[0050]
The determination in step S11 is performed based on the current absolute angular velocity ANGV and the previous absolute angular velocity OANGV. Specifically, first, a time point that is larger than the front and rear absolute angular velocity values is detected. For example, when the current absolute angular velocity ANGV> the previous absolute angular velocity OANGV, the flag FBIG is set. When the current absolute angular velocity ANGV ≦ the previous absolute angular velocity OANGV, the state of the flag FBIG is inspected, and the flag FBIG is set. In this case, the time of the previous absolute angular velocity OANGV may be detected as the time satisfying the above condition. Next, the time point detected in this way has passed a predetermined time or more from the previously detected peak time point, and the absolute angular velocity ω (that is, the previous absolute angular velocity OANGV) at this time is greater than a predetermined threshold value, It is determined whether or not it is larger than a predetermined value (e.g., 0.5) times the peak value and satisfies all conditions such as passing through a valley. When all these conditions are satisfied, this point is determined as a peak, and when even one of the conditions is not satisfied, this point is not determined as a peak.
[0051]
If a peak is detected in the determination in step S11, the type of the swing operation of the tempo control signal output device 1 at this time (that is, the operator performs one of the operations 1 to 3 described in FIG. 3). After executing the peak type determination processing subroutine for determining (operation) (step S12), the peak detection processing is terminated. On the other hand, if no peak is detected in step S11, the peak detection process is immediately terminated.
[0052]
FIG. 7 is a flowchart showing the detailed procedure of the peak type determination processing subroutine in step S12.
[0053]
In the figure, first, it is determined whether or not the swing angle θ when the operator swings the tempo control signal output device 1 satisfies the condition of 180 ° <θ ≦ 300 ° (step S21). FIG. 10 is a diagram for explaining the process of calculating the swing angle θ. In the figure, the point (X, Y) is the angular velocity ω.x, ΩyIs represented on the XY coordinates. That is, the intersection angle between the straight line passing through the point (X, Y) and the origin O and the X axis is the swing angle θ.
[0054]
If it is determined in step S21 that this condition is satisfied, it is determined that the peak detected this time is due to “operation 1” (step S22), and the key code “C3” is turned on as described above. The velocity value (parameter value for performing dynamics control) corresponding to the absolute angular velocity ω is converted into a MIDI signal as event data of channel 1 and output (step S23).
[0055]
On the other hand, if it is determined in step S21 that the swing angle θ does not satisfy the above condition, the peak 2 determination processing subroutine for determining the operations 2 and 3 is executed (step S24), and then the peak type determination processing ends.
[0056]
FIG. 8 is a flowchart showing the detailed procedure of the peak 2 determination processing subroutine in step S24. First, it is determined whether or not the swing angle θ satisfies the condition of θ ≦ 60 ° or 300 ° <θ. (Step S31).
[0057]
If it is determined in step S31 that the swing angle θ satisfies the above condition, the peak detected this time is determined to be due to “operation 2” in the same manner as in steps S22 and S23 (step S32). A velocity value corresponding to the key-on of “C_3” and the value of the absolute angular velocity ω at this time is output as event data of channel 1 (step S33).
[0058]
On the other hand, if it is determined in step S31 that the swing angle θ does not satisfy the above condition, the peak 3 determination process subroutine is executed (step S34), and then the peak 2 determination process is terminated.
[0059]
FIG. 9 is a flowchart showing the detailed procedure of the peak 3 determination processing subroutine of step S34, and the peak detected this time is due to “operation 3” in the same manner as steps S22 and S23 of the peak type determination processing. (Step S41), and the velocity value corresponding to the key-on of the key code “D3” and the value of the absolute angular velocity ω at this time is output as the event data of channel 1 (step S42), and then the peak 3 determination process is performed. finish.
[0060]
In this embodiment, the time at which the absolute angular velocity ω reaches its peak is set as the time at which the music control is performed. However, the present invention is not limited to this, and may be a time at which the amount of change in the absolute angular velocity ω is large. The detection method for detecting the time point at which the control is performed need not be limited to the above-described method.
[0061]
FIG. 11 is a flowchart showing a procedure of a main routine executed by the electronic musical instrument 21 with an automatic performance device. Although not described, the tempo control signal output apparatus 1 executes a main routine including various switch processes corresponding to various switch states of the switch group 4 as in the main routine.
[0062]
In the figure, first, initialization such as clearing of the RAM 28 and clearing of various ports is performed (step S51).
[0063]
Next, key processing such as generation processing of key-on event or key-off event, sound generation or muting processing is performed according to the key depression state of the keyboard 22 (step S52), and various MIDI signals are transmitted / received and various types according to the received MIDI signal. Perform MIDI processing such as signal processing (step S53), perform various switch processing according to various switch states of the switch group 23 (step S54), perform other processing other than the above processing (step S55), and then perform step Returning to S52, the above-described processing is repeated.
[0064]
FIG. 12 shows the difficulty level setting operator 23.1FIG. 6 is a flowchart showing a procedure of difficulty level operator processing that is performed when is operated, and is a process during various switch processes in step S54.
[0065]
In the figure, the difficulty level setting operator 231Is determined (step S61), and the difficulty setting operator 23 is determined.1When no operation is performed, the difficulty level operator processing is immediately terminated, while the difficulty level setting operator 23 is terminated.1When is operated, the process proceeds to step S62.
[0066]
In step S62, the difficulty level setting operator 231The operation element 23 according to the operation amount (rotation amount) of12 (for example, the value “0” in FIG. 2 is set to the value 0, the maximum position (easy) value that can be rotated counterclockwise is −1), and the maximum position (difficult) value that can be rotated clockwise is −1. 1 is detected and stored in the area D_COEF secured in the RAM 28 (hereinafter, this content is referred to as “difficulty coefficient D_COEF”).
[0067]
Next, the current follow-up degree actually used for follow-up degree control (that is, “follow-up degree event data A (high)”, “follow-up degree event data B (middle)”, and “follow-up degree event data C (low)). ”In the present example, the moving average degree α, the difference limit β, and the lower limit of the tempo value shown in FIG. 13 in this embodiment. The value γ and the upper limit value δ of the tempo value are corrected according to the difficulty coefficient D_COEF (step S63). Here, as shown in FIG. 13, various values are set in advance according to the following degree, and are stored in predetermined areas of the RAM 28.
[0068]
Further, after performing limit processing so that the various values corrected in step S63 do not change significantly from the values before correction (step S64), the difficulty level operator processing is terminated.
[0069]
In the present embodiment, the difficulty level operator process is performed during the various switch processes. However, the present invention is not limited to this, and the difficulty level setting operator 23 is not limited thereto.1For example, when it is desired to make the time interval for detecting the output constant, an interrupt process that occurs every 10 ms may be performed.
[0070]
FIG. 13 shows specific examples of various values α to δ for performing the follow-up control and the difficulty level setting operator 23.1It is a figure which shows an example of the method of correcting various values (alpha)-(delta) according to the difficulty coefficient D_COEF output from (a), and (a) is set as initial value according to following degree AC and each following degree (B) shows an example in which the moving average order α is taken as an example of the values in (a) and the moving average order α is corrected according to the difficulty coefficient D_COEF. An example of a typical method is shown.
[0071]
As shown in (a), the initial values of the moving average order α, the difference limit β, the lower limit value γ of the tempo value, and the upper limit value δ of the tempo value are read from the corresponding area of the RAM 28 in accordance with the following degree. In order to control the degree of tracking, it is stored in an area secured at a predetermined position of the RAM 28. In this embodiment, the degree of tracking is changed in the middle of the song, that is, different degree of tracking event data is embedded depending on the position of the song, thereby changing the degree of tracking according to the progress of the song, When tracking degree event data different from the current following degree is detected, various values α to δ corresponding to the following degree are read, and the following degree is controlled by the read various values α to δ. Therefore, the value of the reserved area is changed.
[0072]
In the present embodiment, the time point at which the follow-up control is performed is changed according to the follow-up degree. That is, in the case of following degree A, the following degree control is performed when all mark data (determination marks) are detected, and in the case of following degree B, the following degree is detected when mark data on the beat is detected. In the case of the tracking degree C, the tracking degree control is performed when mark data at the beginning of the bar is detected. The beat timing event data described with reference to FIG. 4 is used in order to perform the change process of the tracking degree control time point. This is because in this embodiment, since time (1 ms) is adopted as the unit of delta time data of automatic performance data, it is difficult to determine mark data at the beat position. For example, delta time data When the predetermined note pitch is used as a unit of the mark, the mark data at the beat position can be easily determined, so it is not necessary to use the beat timing event data. As described above, in the present embodiment, the mark data is basically stored at the position of each beat timing. In this case, the mark data is different from the time point at which the tracking degree control at the tracking degree A and the tracking degree B is performed. However, in order to perform finer control, when the mark data is stored at a position finer than each beat timing (for example, the timing for each note), the follow-up degree B is better than the follow-up degree A. The number of time points at which tracking degree control is performed increases, and the difficulty level of tempo control is improved.
[0073]
Note that how to use the various values α to δ for tracking degree control will be described later with reference to FIGS. 19 and 20.
[0074]
Next, the meaning of each value α to δ will be described.
[0075]
The moving average order α is a variable that determines the number of tempo coefficients used for averaging in order to average the tempo coefficient T_COEF calculated at the time of performing the tracking degree control and smoothly change the tempo. Since the tempo change becomes smoother as the moving average order α increases, the value of the moving average order α decreases as the tempo control difficulty increases.
[0076]
The difference limit β is a value for determining the allowable range of the difference value of the tempo change, and specifically indicates the allowable range of the difference between the tempo coefficient T_COEF calculated this time and the tempo coefficient T_COEF calculated last time. ing. As the difference limit β is larger (in other words, the allowable range is wider), the degree of freedom of tempo control is improved. However, the tempo may change too much, and the control itself becomes difficult. For this reason, as shown in FIG. 13A, the difference limit β value is increased as the difficulty of tempo control increases.
[0077]
The lower limit value γ and the upper limit value δ of the tempo value respectively indicate the lower limit value and the upper limit value of the tempo coefficient T_COEF. For the same reason as the difference limit β, the lower limit value is increased as the tempo control difficulty increases. γ is decreased and the upper limit value δ is increased.
[0078]
The various values α to δ described above are the difficulty level setting operator 23.1It can be changed by the operation. For example, the moving average order α can be changed as shown in (b) by changing the difficulty level. When the tempo control is currently performed with the following degree A, the operator sets the difficulty level setting operator 23.1Is rotated in the direction from “0” to “easy”, the moving average order α is changed according to the amount of rotation. Actually, since the moving average order α takes an integer value, the moving average order α increases by “1” according to the rotation amount. In this embodiment, since the moving average order α in the case of the following degree A is set to “1”, the operator sets the difficulty level setting operation element 23 in the case of the following degree A.1The moving average order α is kept from changing even if is rotated in the “difficult” direction. However, the moving average order α in the case of the following degree A may be an integer value larger than “1” so that the difficulty level can be further increased even in the case of the following degree A. Similarly, in the case of the following degree C, the moving average order α is changed only in the direction of “difficult”, and in the case of the following degree B, the moving average order α is either “difficult” or “easy”. The direction is also changed. The various values β to δ other than the moving average order α are also changed by the above-described method. You may adjust by any method, such as adjusting using.
[0079]
FIG. 14 is a flowchart showing the procedure of the automatic performance data reproduction process. This process is one process in the interrupt process that is executed by the timer 29 in synchronization with a timer interrupt signal generated every 1 ms, for example. is there.
[0080]
In the figure, first, it is determined whether or not the reproduction flag RUN is "1" (step S101). When the reproduction flag RUN is "0", that is, when the automatic performance data reproduction request is not made, immediately. On the other hand, when the reproduction flag RUN is “1”, that is, when the automatic performance data is requested to be reproduced, it is determined whether or not the flag PAUSE is “0” (step S102). Here, the flag PAUSE indicates that when the electronic musical instrument 21 reads the key-on event data of channel 1 and the tempo control signal output device 1 has not yet transmitted the key-on event data, the key PA-USE event is received. This is a flag for temporarily stopping reproduction of automatic performance data.
[0081]
If it is determined in step S102 that the flag PAUSE is “0”, that is, when the key-on event of channel 1 is read after receiving the key-on event from the tempo control signal output device 1, the value of the counter TIME is “0”. Is determined (step S103). Here, the counter TIME is a soft counter that is secured in the RAM 28 and counts the time interval between the event data 42 described with reference to FIG.
[0082]
If it is determined in step S103 that the value of the counter TIME is "0", that is, when the event data 42 is output, the automatic performance data storage area 28 is displayed.1The data at that position is read (step S104), and it is determined whether or not the read data is delta time data (step S105).
[0083]
If it is determined in step S105 that the read data is not delta time data, that is, event data, an event response processing subroutine corresponding to the event (the detailed procedure of this subroutine will be described later with reference to FIG. 16). After the execution (step S106), the process returns to step S104 and the above-described processing is repeated.
[0084]
On the other hand, if it is determined in step S105 that the read data is delta time data, the delta time data is stored in the counter TIME (step S107), and it is determined whether or not the counter TIME is “0” (step S108). . Here, the value of the counter TIME is determined because a plurality of event data may be stored in the automatic performance data storage area 281 at the same timing.
[0085]
If it is determined in step S108 that the counter TIME = 0, the process returns to step S104 and the above-described processing is repeated. On the other hand, if the counter TIME ≠ 0, the value of the counter TIME is changed by the following equation (step S109). .
[0086]
TIME = TIME x T_COEF
Here, T_COEF indicates the tempo coefficient. That is, in step S109, the tempo is changed by changing the time interval between the event data given by the delta time by the tempo coefficient T_COEF. Accordingly, when the tempo coefficient T_COEF is “1”, the music is played at the standard tempo, and when the tempo coefficient T_COEF is smaller than “1”, the music is played at a tempo faster than the standard tempo, and the tempo coefficient T_COEF is “1”. If it is larger, the song is played at a tempo slower than the standard tempo.
[0087]
On the other hand, if it is determined in step S103 that the value of the counter TIME is not "0", the process proceeds to step S110.
[0088]
In step S110, the value of the counter TIME is decremented by “1”. In step S111, the value of a soft counter DELTA_ACM (Delta Accumulate) (hereinafter referred to as “count counter”) that is secured in the RAM 28 and counts the time interval between the key-on events of the adjacent channels 1 is counted. This value is incremented by "1" ("delta time accumulated value DELTA_ACM"), and in step S112, the time interval between adjacent key-on events secured in the RAM 28 and output from the tempo control signal output device 1 ( The value of a soft counter INTERVAL (hereinafter referred to as “tempo control interval INTERVAL”) for counting the tempo control interval) is incremented by “1”. In step S113, a tempo key-on reception process described later with reference to FIG. Sabl After executing the routine, to end the present regeneration process.
[0089]
On the other hand, when the flag PAUSE is “1” in step S102, that is, the key-on event data of channel 1 is read from the automatic performance data storage area 281 and the tempo control signal output device 1 waits for the output of the key-on event. If it is, the automatic performance data reading process described in steps S103 to S111 is stopped (skip), and the process proceeds to step S112.
[0090]
FIG. 15 is a diagram for explaining the relationship between the tempo control interval INTERVAL and the delta time accumulated value DELTA_ACM. In the figure, “□” indicates a channel 1 key-on event, and “◯” indicates other than channel 1. Shows events.
[0091]
As can be seen from the figure, the accumulated delta time DELTA_ACM is obtained by accumulating the delta time for one beat stored in the automatic performance data storage area 281, and the tempo control interval INTERVAL is set by the operator. The time interval for one beat for tempo control by shaking the output device 1 is measured. As will be described later, a tempo coefficient T_COEF is calculated based on the delta time accumulated value DELTA_ACM and the tempo control interval INTERVAL. The figure shows the case where the tempo control interval INTERVAL is smaller than the delta time accumulated value DELTA_ACM, that is, the case where the operator controls to play the music at a tempo faster than the standard tempo.
[0092]
FIG. 16 is a flowchart showing a detailed procedure of the event response processing subroutine of step S106.
[0093]
In the figure, first, it is determined whether or not the read event data is channel 1 event data (step S121). If the read event data is channel 1 event data, whether or not the event data is tracking degree event data. Is determined (step S122).
[0094]
If the tracking event data is determined in step S122, a flag KON_RCV (Key ON) indicating that the key-on event has already been received from the tempo control signal output device 1 before reading the channel 1 key-on event. It is determined whether or not (Recieve) is “1” (step S123), and when the flag KON_RCV is “0”, that is, when the key-on event is not received from the tempo control signal output device 1, the key of the event The code is stored in an area KEYCODE secured in the RAM 28 (hereinafter, this content is referred to as “key code KEYCODE”) (step S124), the flag PAUSE is set (step S125), and the event handling process is terminated.
[0095]
On the other hand, if it is determined in step S123 that the flag KON_RCV is “1”, the flag KON_RCV is reset (step S126), and this event response process is terminated.
[0096]
On the other hand, if it is determined in step S122 that the read event data is the follow-up event data, the values α to δ are set in accordance with the follow-up degree (that is, any follow-up degree among the follow-up degrees A to C). 13 (a) is set (step S127), and the set various values α to δ are corrected according to the difficulty coefficient D_COEF in the same manner as in step S62 (step S128), and the same as in step S64. Then, after the limit processing of various values α to δ is performed (step S129), this event response processing is terminated.
[0097]
On the other hand, if it is determined in step S121 that the read event data is not for channel 1, since the event data is normal automatic performance event data, the event data is output to the tone generator circuit 33 (step S130). This event handling process is terminated. In step S130, when the event output to the tone generator circuit 33 is a note event, the velocity of the note event is corrected according to the dynamics set in step S142 of FIG. 17 described later.
[0098]
FIG. 17 is a flowchart showing the detailed procedure of the tempo key-on reception processing subroutine in step S113.
[0099]
In the figure, first, it is determined whether or not a tempo key-on event has been received from the tempo control signal output device 1 (step S141). When the tempo key-on event is received, the dynamics are set according to the received key-on velocity value, and the RAM 28 Is stored in an area secured at a predetermined position (step S142).
[0100]
Next, it is determined whether or not the flag PAUSE is “1” (step S143). If the flag PAUSE is “1”, whether or not the key code of the received tempo key-on event matches the key code KEYCODE. (Step S144), and if they match, the process proceeds to step S145. The determination of the tempo key-on event in step S141 may be performed by examining the contents of the area TKON.
[0101]
On the other hand, when the tempo key-on is not received in the determination in step S141, or when the key code of the tempo key-on event received in the determination in step S144 does not match the key code KEYCODE, the tempo key-on reception process is immediately terminated. To do.
[0102]
In step S145, it is determined whether or not the present time is a determination timing of a tempo control mark (mark data), that is, whether or not the follow-up degree control is performed. This determination timing is determined based on the determination timing (see FIG. 13A) set according to the following degree as described above. When the tracking degree is “A”, the time point when all mark data is detected is the tempo control mark determination timing. For example, when mark data is stored for each note, the timing of each note is the tempo control mark. This is the determination timing. When the degree of tracking is “B”, the time when mark data on the beat is detected is the tempo control mark determination timing, and when the mark data is stored for each note, the beat timing is the tempo control mark. This is the determination timing. Specifically, the time point at which the beat timing event data is detected may be used as the tempo control mark determination timing. When the follow-up degree is “C”, the mark determination timing for the bar start is detected when the mark data at the beginning of the bar is detected, and when the mark data is stored for each note, the bar head timing is the tempo control. This is the mark determination timing. Specifically, each time the beat timing event data is detected, the number of times of detection is counted, and the count value is compared with the time signature of the music to determine whether or not it is the beginning of a bar.
[0103]
If it is determined in step S145 that the tempo control mark determination timing is reached, a ratio (rate) for changing the value of the tempo coefficient T_COEF is obtained from the delta time accumulated value DELTA_ACM and the tempo control interval INTERVAL by the following equation. Then, it is stored in the area RATE secured in the RAM 28 (hereinafter, this content is referred to as “ratio RATE”) (step S146).
[0104]
RATE = INTERVAL / DELTA_ACM
Next, a tempo coefficient calculation processing subroutine described later with reference to FIG. 19 is executed (step S147), and a tempo coefficient limit processing subroutine described later with reference to FIG. 20 is executed (step S148).
[0105]
On the other hand, if it is not determined in step S145 that the tempo control mark is determined, steps S146 to S148 are skipped and the process proceeds to step S149.
[0106]
In steps S149 to 151, after resetting the delta time accumulated value DELTA_ACM, the tempo control interval INTERVAL, and the flag PAUSE, the tempo key-on reception process is terminated.
[0107]
On the other hand, if it is determined in step S143 that the flag PAUSE is “0”, the key-on event of the next channel 1 in the automatic performance data storage area 281 is searched (step S152), and the key code and search of the received key-on event are searched. It is determined whether or not the key code of the key-on event matches (step S153). If they match, the process proceeds to step 154. If they do not match, an error occurs. finish.
[0108]
In step S154, the delta time accumulated value DELTA_ACM is calculated by the following equation (1).
[0109]
Figure 0003720004
Here, TIME indicates the value of the counter TIME, and DELTAT (k), (k = 1, 2,...) Is a key-on searched from the delta time next to the time point (address) at which the current song is being played back. Indicates the delta time until the event.
[0110]
FIG. 18 is a diagram for explaining a specific method of calculating the delta time accumulated value DELTA_ACM.
[0111]
In the illustrated example, a tempo key-on event is received from the tempo control signal output device 1 before reading the channel 1 key-on event from the automatic performance data storage area 281, and the reception key-on event is received from the reception point of time in the automatic performance data storage area 281. The case where at least one event data other than the channel 1 is stored up to the position of the key-on event of the channel 1 corresponding to is shown. In the figure, “TIME” indicates the value of the counter TIME, that is, the remaining time of the delta time between the events E0 and E1, DELTAT (1) indicates the delta time between the events E1 and E2, and DELTATAT (2) Indicates the delta time between events E2 and E3. In other words, in the illustrated example, “Σ” in the above equation (1) performs addition of DELTAT (k) for k = 1,2.
[0112]
In this way, the delta time accumulated value DELTA_ACM between the channel 1 key-on events can be obtained by the above equation (1).
[0113]
Returning to FIG. 17, in step S155, the delta time until the searched key-on event and the value of the counter TIME are each divided by a predetermined value, and the corresponding delta time and the value of the counter TIME are changed by each division result. That is, in the example of FIG. 18, each value is changed as in the following equation.
[0114]
TIME = TIME / C
DELTAT (1) = DELTAT (1) / C
DELTAT (2) = DELTAT (2) / C
Here, C is a constant and is a value larger than “1”. Thus, by changing the values of the delta time and the counter TIME, it is possible to quickly shift to the reading of the event between the next mark data.
[0115]
Returning to FIG. 17 again, the flag KON_RCV is set in step S156, the same processing as in steps S145 to S150 is performed in steps S157 to S162, and the tempo key-on reception processing is terminated.
[0116]
FIG. 19 is a flowchart showing a detailed procedure of the tempo coefficient calculation processing subroutine of steps S147 and S159.
[0117]
In the figure, first, in order to save the past T_COEF × RATE values, the values of the regions TC1 to TC15 out of the regions TC1 to TC16 secured at predetermined positions in the RAM 28 are stored in the regions TC2 to TC16, respectively. Re-execute (step S171).
[0118]
Next, in step S146 or S158, the tempo coefficient T_COEF × RATE changed using the ratio RATE newly calculated this time is stored in the area TC1 (step S172), and the moving average corrected in step S63 or S128 is stored. The moving average value of α stored values selected from the areas TC1 to TC16 is calculated according to the order α, and the final tempo coefficient T_COEF is determined (step S173), and then the tempo coefficient calculation process ends.
[0119]
FIG. 20 is a flowchart showing a detailed procedure of the tempo coefficient limit processing subroutine of steps S148 and S160.
[0120]
In the figure, first, the difference between the current value of the tempo coefficient T_COEF calculated in step S173 and the previous value is calculated, and whether or not the difference value is within the difference limit β corrected in step S63 or S128. Is determined (step S181). Here, in order to calculate the difference of the tempo coefficient T_COEF, it is necessary to store the final tempo coefficient T_COEF calculated this time. For example, this storage is performed immediately before the end of the tempo coefficient limit process. do it.
[0121]
If the difference of the tempo coefficient T_COEF is larger than the corrected difference limit β in the determination of step S181, the tempo coefficient T_COEF calculated this time is limited so that the difference is within the corrected difference limit β ( Step S182), if the difference of the tempo coefficient T_COEF is within the corrected difference limit β, the process skips step S182 and proceeds to step S183.
[0122]
In step S183, it is determined whether or not the final tempo coefficient T_COEF value calculated this time is not less than the lower limit value γ and the upper limit value δ corrected in step S63 or S128, and the tempo coefficient T_COEF value does not satisfy this condition. In this case, after limiting the tempo coefficient T_COEF to be between the lower limit value γ and the upper limit value δ (step S184), the present tempo coefficient limit process is terminated, while the tempo coefficient T_COEF value satisfies this condition. The tempo coefficient limit process is immediately terminated.
[0123]
As described above, in this embodiment, initial values of various values α to δ used for the tracking degree control are set according to the tracking degrees A to C, and the initial values are set as the difficulty level setting operation element 23.1The difficulty level coefficient is adjusted according to the difficulty coefficient D_COEF output from the player, and the difficulty level is adjusted so that the operator can adjust the difficulty level (stability or music) according to his / her proficiency level with the song or device. Expressive power) can be adjusted.
[0124]
In addition, since the mark data and the automatic performance data are mixed, the storage capacity of the RAM 28 can be reduced, thereby reducing the cost.
[0125]
In the present embodiment, the initial values of the various values α to δ are set by reading values stored in advance according to the respective tracking degrees A to C. However, the present invention is not limited to this, and the various values α to δ are set. The initial value may be changed. For example, the operator may arbitrarily determine, or a set of a plurality of values may be prepared in advance and one of them may be selected. Moreover, you may make it have an optimal set for every music, and may prepare several sets and may select the optimal set automatically according to a music.
[0126]
Further, the follow-up degree does not need to be limited to three types as in the present embodiment, and is one type (for example, the same follow-up degree is set for all songs so as not to change in the song). ), Or two or more. That is, it is only necessary to be configured so that each following degree can be changed regardless of the type of following degree.
[0127]
Furthermore, in the present embodiment, it is configured to control the five types of conditions of the order of the moving average, the difference from the previous value, the upper and lower limit values, and the ratio of skipping the mark data depending on the tracking degree. A part of the conditions may be combined and used for the tracking degree control, or other conditions may be controlled.
[0128]
In this embodiment, the tempo control is performed by multiplying the delta time value by the tempo coefficient T_COEF and increasing or decreasing the delta time value. For example, the tempo may be changed by changing the interrupt timing in this embodiment. In addition, when changing the value of the delta time, the value is not limited to multiplying by a predetermined value, and a predetermined value may be added.
[0129]
Further, not only the tempo control but also the dynamics control may be performed with the same difficulty control as the tempo control.
[0130]
In this embodiment, the swing operation of the tempo control signal output device 1 is detected based on the output signals from the two piezoelectric gyro sensors 2 and 3, but the swing operation is performed using three or more piezoelectric gyro sensors. You may make it detect operation | movement. In addition, the piezoelectric gyro sensor is not limited to a piezoelectric gyro sensor as long as it can detect a swing motion, and any sensor such as an acceleration sensor, magnetism, or light may be used, or a plurality of sensors may be used in combination. Good. Furthermore, the sensor is not limited to a sensor as long as it can detect a swing motion, and the swing operation may be detected by image processing and detecting a swing operation.
[0131]
Furthermore, in this embodiment, the types of swinging motions to be detected are limited to the above three types. However, the present invention is not limited to this, and more types of swinging motions may be detected. In this case, it is only necessary to increase the number of piezoelectric gyro sensors so that more swinging motions can be accurately detected. In the detection of the three types of swinging motions of the present embodiment, for example, the discrimination accuracy may be improved by using different sensors for 3 beats and 2/4 beats. The swinging motion may be detected by comprehensively judging two or more sensor outputs.
[0132]
In addition, as a form of attaching a sensor for detecting a swinging motion, the sensor is mounted on a body (for example, a hand or an arm) in addition to being incorporated in the tempo control signal output device 1 that can be grasped with one hand as in this embodiment. Alternatively, it may be built in a microphone, or may be built in a remote control device such as a karaoke device.
[0133]
In this embodiment, the tempo control signal is generated based on the swing operation of the tempo control signal output device 1. However, the present invention is not limited to this, and the tempo control signal is generated by a tapping operation or a performance operator. It may be generated.
[0134]
In this embodiment, the tempo control signal output device 1 that detects the type of swinging motion of the operator and its characteristic points (peaks and troughs) and outputs the tempo control timing, and the automatic performance that is the controlled object. Although the electronic musical instrument with a device 21 is configured as a separate body, these may be configured as one device. Alternatively, a tempo clock may be supplied to an externally connected device, and the performance tempo of the external device may be controlled.
[0135]
The object to be controlled by music is not limited to automatic performance, and may be automatic accompaniment or automatic rhythm. In addition to these reproductions, image reproduction such as moving images may be accompanied.
[0136]
【The invention's effect】
As described above, according to the present invention, when the automatic performance data is read from the automatic performance data storage means and automatically played,Linkage based onIs detected,Motion detection signal output corresponding to thisAccordingly, a music control signal is generated from the music control signal generating means, a music control value is calculated based on the music control signal and automatic performance data read by the automatic performance means, and the calculated music control value is calculated. Is changed according to the degree of difficulty adjusted by the difficulty level adjusting means, and the music characteristics of the automatic performance are controlled based on the changed music control value, so that the operator's own proficiency with the song or device It is possible to adjust the difficulty (stability or musical expressive power) of music characteristic control according to the above.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a music control apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a difficulty level setting operator that is one switch in the switch group of the electronic musical instrument with an automatic performance device of FIG. 1;
3 is a diagram showing an operator's operation detected by the tempo control signal output device of FIG. 1 and a value of a signal output from the tempo control signal output device according to each operation. FIG.
4 is a diagram showing a data format of automatic performance data of the electronic musical instrument of FIG. 1. FIG.
5 is a flowchart showing a procedure of piezoelectric vibration gyro sensor output processing executed by the CPU of the tempo control signal output device of FIG. 1; FIG.
6 is a flowchart showing a detailed procedure of a peak detection processing subroutine in step S3 of FIG.
FIG. 7 is a flowchart showing a detailed procedure of a peak type determination processing subroutine in step S12 of FIG.
FIG. 8 is a flowchart showing a detailed procedure of a peak 2 determination processing subroutine in step S24 of FIG.
9 is a flowchart showing a detailed procedure of a peak 3 determination processing subroutine in step S34 of FIG.
10 is a diagram for explaining a method for calculating a swing angle of a tempo control signal output device based on outputs from each piezoelectric gyro sensor in FIG. 1; FIG.
11 is a flowchart showing a procedure of a main routine executed by the CPU of the electronic musical instrument with an automatic performance device of FIG.
12 is a flowchart showing a procedure of difficulty level operator processing performed when the difficulty level setting operator of FIG. 2 is operated.
FIG. 13 is a diagram illustrating a specific example of various values α to δ for performing follow-up degree control and an example of correcting a value according to the degree of difficulty.
FIG. 14 is a flowchart showing a procedure of automatic performance data reproduction processing.
FIG. 15 is a diagram for explaining a relationship between a tempo control interval INTERVAL and a delta time accumulated value DELTA_ACM.
FIG. 16 is a flowchart showing a detailed procedure of an event handling subroutine in step S106 of FIG.
FIG. 17 is a flowchart showing a detailed procedure of a tempo key-on reception processing subroutine in step S113 of FIG.
FIG. 18 is a diagram for explaining a specific method for calculating a delta time accumulated value DELTA_ACM;
FIG. 19 is a flowchart showing a detailed procedure of a tempo coefficient calculation processing subroutine of steps S147 and S159 of FIG.
20 is a flowchart showing a detailed procedure of a tempo coefficient limit processing subroutine of steps S148 and S160 of FIG.
[Explanation of symbols]
1 Tempo control signal output device (music control signal generating means)
231  Difficulty level setting operator (difficulty level adjustment means)
26 CPU (automatic performance means, music control means, music control value calculation means, selection means, averaging means, change means, change width change means)
28 RAM (automatic performance data storage means, music control value storage means)

Claims (10)

操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、
該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、
操作者が音楽制御の難易度を調節するための難易度調節手段と、
自動演奏データを記憶する自動演奏データ記憶手段と、
該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、
該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、
前記音楽制御信号発生手段により発生された音楽制御信号および前記自動演奏手段により読み出された自動演奏データに基づいて、前記音楽制御手段が音楽特性制御に用いる音楽制御値を算出する音楽制御値算出手段と
を有し、
該音楽制御手段は、前記難易度調節手段により調節された難易度に応じて前記算出された音楽制御値を変更し、該変更後の音楽制御値に基づいて自動演奏の音楽特性を制御することを特徴とする音楽制御装置。
A motion detection means for detecting motion based on the motion of the operator and outputting a corresponding motion detection signal, which is worn or possessed by the operator;
Music control signal generating means for generating a music control signal in response to the motion detection signal output by the motion detection means;
Difficulty adjustment means for the operator to adjust the difficulty of music control;
Automatic performance data storage means for storing automatic performance data;
Automatic performance means for automatically reading out the stored automatic performance data, and
Music control means for controlling music characteristics of automatic performance by the automatic performance means based on the generated music control signal;
Music control value calculation for calculating a music control value used by the music control means for music characteristic control based on the music control signal generated by the music control signal generation means and the automatic performance data read by the automatic performance means Means,
The music control means changes the calculated music control value according to the difficulty level adjusted by the difficulty level adjustment means, and controls the music characteristics of the automatic performance based on the changed music control value. A music control device characterized by.
操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、
該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、
操作者が音楽制御の難易度を調節するための難易度調節手段と、
自動演奏データを記憶する自動演奏データ記憶手段と、
該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、
該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、
音楽制御値を所定個記憶するための記憶領域を備えた音楽制御値記憶手段と、
前記音楽制御信号発生手段により発生された音楽制御信号および前記自動演奏手段により読み出された自動演奏データに基づいて、前記音楽制御手段が音楽特性制御に用いる音楽制御値を算出する音楽制御値算出手段と
を有し、
前記音楽制御値算出手段は、
前記記憶領域に記憶された音楽制御値を、新たな音楽制御値が算出される度に更新する更新手段と、
前記難易度調節手段により調節された難易度に応じて、前記記憶された音楽制御値から所定個の音楽制御値を選択し、該選択された所定個の音楽制御値と当該音楽制御値算出手段により新たに算出された音楽制御値とを平均化する平均化手段と
を有し、前記音楽制御値の算出は、平均化による算出を含むものであり、
前記音楽制御手段は、前記平均化された音楽制御値に基づいて自動演奏の音楽特性を制御するとともに、前記難易度調節手段により調節された難易度に応じて前記算出された音楽制御値を変更し、該変更後の音楽制御値に基づいて自動演奏の音楽特性を制御する
ことを特徴とする音楽制御装置。
A motion detection means for detecting motion based on the motion of the operator and outputting a corresponding motion detection signal, which is worn or possessed by the operator;
Music control signal generating means for generating a music control signal in response to the motion detection signal output by the motion detection means;
Difficulty adjustment means for the operator to adjust the difficulty of music control;
Automatic performance data storage means for storing automatic performance data;
Automatic performance means for automatically reading out the stored automatic performance data, and
Music control means for controlling music characteristics of automatic performance by the automatic performance means based on the generated music control signal;
Music control value storage means having a storage area for storing a predetermined number of music control values;
Music control value calculation for calculating a music control value used by the music control means for music characteristic control based on the music control signal generated by the music control signal generation means and the automatic performance data read by the automatic performance means Means,
The music control value calculation means includes
Updating means for updating the music control value stored in the storage area each time a new music control value is calculated;
A predetermined number of music control values are selected from the stored music control values according to the degree of difficulty adjusted by the difficulty level adjustment means, and the selected predetermined music control values and the music control value calculation means are selected. Averaging means for averaging the music control value newly calculated by the calculation of the music control value includes calculation by averaging,
The music control means controls the music characteristic of the automatic performance based on the averaged music control value, and changes the calculated music control value according to the difficulty level adjusted by the difficulty level adjustment means. and, the music control apparatus and controls the musical characteristics of the automatic performance based on the musical control value after the change.
前記難易度調節手段により調節された難易度に応じて、前記音楽制御値算出手段により算出された音楽制御値を変更する際の上限値または下限値を変更する変更手段を有することを特徴とする請求項1に記載の音楽制御装置。  It has a change means which changes the upper limit or lower limit when changing the music control value calculated by the music control value calculation means according to the difficulty adjusted by the difficulty adjustment means. The music control device according to claim 1. 前記難易度調節手段により調節された難易度に応じて、前記音楽制御値算出手段により算出された音楽制御値を変更する際の変化幅を変更する変化幅変更手段を有することを特徴とする請求項1または3のいずれかに記載の音楽制御装置。  A change width changing means for changing a change width when changing the music control value calculated by the music control value calculating means in accordance with the difficulty level adjusted by the difficulty level adjusting means. Item 4. The music control device according to any one of Items 1 and 3. 前記自動演奏データ記憶手段は、前記自動演奏データとともに所定タイミング毎に音楽制御用マークデータを記憶し、
前記自動演奏手段は、該記憶された音楽制御用マークデータから、前記難易度調節手段により調節された難易度に応じて所定数の音楽制御用マークデータを読み飛ばし、
前記音楽制御値算出手段は、該読み出された音楽制御用マークデータおよび前記発生された音楽制御信号に基づいて音楽制御値を算出することを特徴とする請求項1記載の音楽制御装置。
The automatic performance data storage means stores music control mark data for each predetermined timing together with the automatic performance data,
The automatic performance means skips a predetermined number of music control mark data from the stored music control mark data according to the difficulty level adjusted by the difficulty level adjustment means,
2. The music control apparatus according to claim 1, wherein the music control value calculation means calculates a music control value based on the read music control mark data and the generated music control signal.
前記自動演奏データ記憶手段は、前記自動演奏データとともに、該自動演奏データ固有の音楽特性に追従すべき程度であって、当該自動演奏の音楽特性を制御する際の追従の程度を示す追従度データを記憶し、
前記自動演奏手段は、該記憶された追従度データを読み出し、
前記音楽制御手段は、前記難易度調整手段によって調節された難易度に応じて、前記読み出された追従度データによって示される追従の程度の高低を変更し、該変更後の追従の程度に基づいて自動演奏の音楽特性を制御することを特徴とする請求項1記載の音楽制御装置。
The automatic performance data storage means should follow the music characteristics specific to the automatic performance data together with the automatic performance data, and follow-up degree data indicating the degree of tracking when controlling the music characteristics of the automatic performance data Remember
The automatic performance means reads the stored tracking degree data,
The music control means changes the level of the degree of following indicated by the read degree-of-following degree data in accordance with the degree of difficulty adjusted by the degree of difficulty adjusting means , and based on the degree of following after the change 2. The music control apparatus according to claim 1, wherein the music characteristic of the automatic performance is controlled.
前記追従度データは、曲の途中に、少なくとも1つ以上埋め込まれ、曲の進行に従って前記自動演奏手段が前記追従度データを読み出し、該読み出された追従度データによって示される追従度の程度の高低が、前記調節された難易度に応じて変化することを特徴とする請求項6記載の音楽制御装置。  At least one or more of the following data is embedded in the middle of a song, the automatic performance means reads the following data as the music progresses, and the degree of following shown by the read following data is shown. 7. The music control apparatus according to claim 6, wherein the height changes according to the adjusted difficulty level. 前記動作検出手段は、操作者の揺動動作に基づく運動を検出することを特徴とする請求項1記載の音楽制御装置。  The music control device according to claim 1, wherein the motion detection unit detects a motion based on a swing motion of an operator. 前記動作検出手段は、センサの個数を多くすることで操作者の動作に基づく運動を複数種類検出し、該検出された複数種類の運動を総合的に判断して、前記動作検出信号を出力することを特徴とする請求項1記載の音楽制御装置。  The motion detection means detects a plurality of types of motions based on an operator's motion by increasing the number of sensors, comprehensively determines the detected types of motions, and outputs the motion detection signal. The music control apparatus according to claim 1. 操作者の動作に基づく運動を検出し、対応する動作検出信号を出力する動作検出手段であって、操作者に装着または所持されるものと、
該動作検出手段によって出力された動作検出信号に応じて音楽制御信号を発生する音楽制御信号発生手段と、
操作者が音楽制御の難易度を調節するための難易度調節手段と、
自動演奏データを記憶する自動演奏データ記憶手段と、
該記憶された自動演奏データを読み出して自動演奏する自動演奏手段と、
該自動演奏手段による自動演奏の音楽特性を前記発生された音楽制御信号に基づいて制御する音楽制御手段と、
前記難易度調節手段により調節された難易度が易から難に行くに従って、当該自動演奏の音楽特性を制御する際の追従の程度が高くなって行くように変更する変更手段とを有し、
前記音楽制御手段は、前記変更手段によって変更された追従の程度に応じて、当該自動演奏の音楽特性を制御することを特徴とする音楽制御装置。
A motion detection means for detecting motion based on the motion of the operator and outputting a corresponding motion detection signal, which is worn or possessed by the operator;
Music control signal generating means for generating a music control signal in response to the motion detection signal output by the motion detection means;
Difficulty adjustment means for the operator to adjust the difficulty of music control;
Automatic performance data storage means for storing automatic performance data;
Automatic performance means for automatically reading out the stored automatic performance data, and
Music control means for controlling music characteristics of automatic performance by the automatic performance means based on the generated music control signal;
Wherein according adjusted difficulty going to the flame from easily by difficulty adjusting means, and a changing means for changing as the degree of follow-up in controlling the music characteristic of the automatic performance becomes higher,
The music control device, wherein the music control means controls the music characteristic of the automatic performance according to the degree of follow-up changed by the changing means.
JP2002212882A 2002-07-22 2002-07-22 Music control device Expired - Fee Related JP3720004B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002212882A JP3720004B2 (en) 2002-07-22 2002-07-22 Music control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002212882A JP3720004B2 (en) 2002-07-22 2002-07-22 Music control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP13995595A Division JP3427569B2 (en) 1995-05-15 1995-05-15 Music control device

Publications (2)

Publication Number Publication Date
JP2003091280A JP2003091280A (en) 2003-03-28
JP3720004B2 true JP3720004B2 (en) 2005-11-24

Family

ID=19195930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002212882A Expired - Fee Related JP3720004B2 (en) 2002-07-22 2002-07-22 Music control device

Country Status (1)

Country Link
JP (1) JP3720004B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618058B2 (en) * 2005-09-01 2011-01-26 株式会社日立製作所 Background image generation method and apparatus, and image monitoring system
JP4320782B2 (en) 2006-03-23 2009-08-26 ヤマハ株式会社 Performance control device and program
JP5272899B2 (en) * 2009-06-02 2013-08-28 カシオ計算機株式会社 Music difficulty calculation device and music difficulty calculation program
JP5771908B2 (en) * 2010-06-07 2015-09-02 ヤマハ株式会社 Musical sound reproducing apparatus and program
CN109478398B (en) * 2016-07-22 2023-12-26 雅马哈株式会社 Control method and control device

Also Published As

Publication number Publication date
JP2003091280A (en) 2003-03-28

Similar Documents

Publication Publication Date Title
US5663514A (en) Apparatus and method for controlling performance dynamics and tempo in response to player&#39;s gesture
JP4353018B2 (en) Musical instrument performance learning apparatus and program thereof
EP1748417B1 (en) Tone generator control apparatus and program for electronic wind instrument
US8653350B2 (en) Performance apparatus and electronic musical instrument
US20120006181A1 (en) Performance apparatus and electronic musical instrument
JP2658463B2 (en) Automatic performance device
JP2022063777A (en) Performance information prediction device, effective string vibration determination model training device, performance information generation system, performance information prediction method, and effective string vibration determination model training method
JP2000020054A (en) Karaoke sing-along machine
JP3598613B2 (en) Music parameter control device
JP3720004B2 (en) Music control device
JP3750699B2 (en) Music playback device
US5629491A (en) Tempo control apparatus
JP3427569B2 (en) Music control device
JP2009198714A (en) Karaoke device and reproduction processing method of karaoke accompaniment music and program
JP3728814B2 (en) Automatic accompaniment device
JP3152104B2 (en) Tempo control device
JP3307162B2 (en) Music control device
JP3449045B2 (en) Performance control device
JP3303608B2 (en) Automatic performance device
JP3149736B2 (en) Performance dynamics control device
JP3259602B2 (en) Automatic performance device
JP3471480B2 (en) Tempo control device
JP3279122B2 (en) Tempo control device
US20020046639A1 (en) Method and apparatus for waveform reproduction
JP3227548U (en) Performance control system, performance control device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130916

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees