JP2005043484A - Musical tone controller and automatic performance system - Google Patents
Musical tone controller and automatic performance system Download PDFInfo
- Publication number
- JP2005043484A JP2005043484A JP2003200748A JP2003200748A JP2005043484A JP 2005043484 A JP2005043484 A JP 2005043484A JP 2003200748 A JP2003200748 A JP 2003200748A JP 2003200748 A JP2003200748 A JP 2003200748A JP 2005043484 A JP2005043484 A JP 2005043484A
- Authority
- JP
- Japan
- Prior art keywords
- musical tone
- tone control
- flat plate
- plate member
- musical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、演奏制御を簡単に行うことができる楽音制御装置及び自動演奏装置に関する。
【0002】
【従来の技術】
楽曲演奏の鑑賞等を嗜好するユーザは、単に再生される楽曲を鑑賞して楽しむのみならず、自分の曲想に合わせて該楽曲を演奏したいという思いがある。
このようなユーザの思いを実現すべく、各ユーザ(操作者)が操作する棒状の操作子と、該操作子の操作状態(「振る」、「叩く」、「傾ける」等)を検出し、検出結果に応じて音量等の楽音制御パラメータを変化させ、変化後の楽音制御パラメータに基づいて楽音を発生する装置が提案されている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開平2001−350474号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上記装置はあくまで自己の曲想を楽曲演奏に反映させることを目的としたものであり、かかる目的を達成するためには、ユーザは操作子の操作等についてある程度練習を積まなければならない。確かに、実際に楽器が弾きこなせるようになるまでに必要な練習量に比べれば、はるかに少なくてすむという利点はあるが、これまでに楽器を全く演奏したことがない楽器演奏初心者にとっては、このような練習でさえも、ためらいを感じてしまうという問題があった。
【0005】
本発明は、以上説明した事情を鑑みてなされたものであり、簡単な操作により演奏制御することができる楽音制御装置及び自動演奏装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上述した問題を解決するため、本発明に係る楽音制御装置は、肉薄で板状の平板部材で形成されるとともに、前記平板部材の面を空気抵抗に逆らって動かすことにより風を生じる面状送風体と、前記平板部材に取り付けられる複数のセンサと、楽音を制御するための複数の楽音制御パラメータについて、どの楽音制御パラメータを前記各センサのいずれの出力信号に基づいて生成するかを割り当てるパラメータ割当手段と、前記割当手段の割り当てに従い、前記各センサの出力信号に基づいて対応する楽音制御パラメータを生成する楽音制御パラメータ生成手段とを具備することを特徴とする。
【0007】
また、本発明に係る楽音制御装置は、肉薄で板状の平板部材で形成されるとともに、前記平板部材の面を空気抵抗に逆らって動かすことにより風を生じる面状送風体と、前記平板部材に取り付けられる複数のセンサと、前記各センサの出力信号を、予め定められたアルゴリズムに基づいて処理することにより、楽音を制御するための楽音制御パラメータを生成する楽音制御パラメータ生成手段とを具備することを特徴とする。
【0008】
【発明の実施の形態】
以下、本発明に係る実施の形態について説明する。かかる実施の形態は、本発明の一態様を示すものであり、本発明の技術的思想の範囲で任意に変更可能である。
【0009】
A.本実施形態
<実施形態の構成>
図1は、本実施形態の構成を示す図である。操作子1は、図2に示すように肉薄で板状の平板部材によって形成された団扇(面状送風体)と、この団扇の面1bに着脱自在に取り付けられた複数のセンサS−k(1≦k≦n)と、各センサS−kから出力されるセンサ信号SIを自動演奏装置100に無線送信する無線通信ユニットUとを備えている。なお、センサS−kについて特に区別する必要がない場合には、単にセンサSと表記する。
図2に示すように、団扇には柄1aが設けられており、操作者はこの団扇の柄1aを握って扇ぐ(すなわち、団扇の面1bを空気抵抗に逆らって動かす)ように操作(図3参照)することで、自動演奏装置100による自動演奏を制御する。
ここで、団扇の面1bに取り付けられた各センサSは、音振動をセンシングし、センサ信号SIとして出力する小型センサ(マイクロホンや圧電素子等)等から構成されている。無線通信ユニットUは、各センサSからセンサ信号SIを受け取ると、受け取ったセンサ信号SIに当該センサSを識別するための識別情報SIDを付加して自動演奏装置100に送信する。なお、以下の説明では、各センサS−1〜S−nの識別情報をそれぞれSID−1〜SID−nと表記する。また、無線通信ユニットUが採用する無線伝送方式としては、Bluetooth(登録商標)等が考えられるが、いずれの伝送方式を採用するかは任意である。
【0010】
図4は、パーソナルコンピュータ3の構成を示すブロック図であり、受信装置2は、USB(Universal Serial Bus)インターフェイス(I/F)309に接続されている。受信装置2によって受信されたセンサ信号SIは、USBインターフェイス309を介してCPU301に供給される。
CPU301は、RAM303の記憶領域をワークエリアとして利用し、ROM302に格納されている各種プログラムを実行することで装置各部を制御する。ハードディスク装置(以下、HDDと記す)304には複数の演奏データが記憶されており、また、外部記憶装置310に挿入されるCD−ROMにも複数の演奏データが記録されている。本実施形態において用いる演奏データは、MIDI規格によるものであるが、演奏データは楽音を指定する楽音制御パラメータの集合となっている。
自動演奏が指示されたときは、操作者によって選択等された演奏データがHDD304またはCD−ROMより呼び出されて、RAM303の演奏データ格納領域に格納される。演奏データ格納領域に格納された演奏データの各楽音制御パラメータは、CPU301によって演奏の進行に沿って順次読み出されるようになっている。
【0011】
表示部305は、CPU301の制御の下に各種情報を表示する。キーボード306およびポインティングデバイス307は、操作者の操作に従って各種の指示や情報を入力する。また、MIDIインターフェイス(I/F)308は、パーソナルコンピュータ3と音源装置4との間でMIDI規格の楽音制御パラメータの送受信を行うためのインターフェイスである。
次に、図1に示す音源装置4はパーソナルコンピュータ3から出力されたMIDI規格の楽音制御パラメータを受信して、これに基づいて楽音信号を生成する。この楽音信号の生成においては、楽音制御パラメータが示す音高、音量、残響、ブライトネス、音像等に従って楽音信号が形成される。この楽音信号は、アンプ5へと供給され、アンプ5において楽音信号が増幅された後にスピーカ6にて放音される。
以上説明した受信装置2,パーソナルコンピュータ3,音源装置4,アンプ5,スピーカ6によって自動演奏装置100が構成されている。
【0012】
(演奏データの内容)
ここで、HDD304またはCD−ROMに記憶されている演奏データの構造について説明する。
本実施形態においては、上述したようにMIDI規格による演奏データを用いて自動演奏を行う。演奏データを構成する楽音制御パラメータには、一つひとつの音符について音高、音長、ベロシティ(つよさ)などを示すもの、楽曲全体に影響を与えるもの(全体の音量、テンポ、残響や音像定位など)、あるいは特定のパートの全体に影響を与えるもの(パート別の残響や音像定位など)がある。
本実施形態においては、演奏の進行に応じて楽音制御パラメータを順次読み出して自動演奏処理を行うが、操作子1の操作に応じて楽曲の進行を制御するようになっている。
【0013】
以下においては、本実施形態で用いる演奏データについて図5を参照して詳細に説明する。図5は行と列のマトリックスになっているので、まず、列について説明する。
第1列のデルタタイムは、イベントとイベントの間隔を示しており、テンポクロックの数で表される。デルタタイムが「0」の場合は、直前のイベントと同時に実行される。
第2列には演奏データの各イベントが持つメッセージの内容が記述されている。このメッセージには、例えば発音を示すノートオンメッセージ(NoteOn)や消音を示すノートオフメッセージ(NoteOff)の他、音量やパンポット(音像定位)を指示するコントロールチェンジメッセージ(ControlChange)等が含まれる。
【0014】
第3列にはチャネルの番号が記述されている。各チャネルは各々異なる演奏パートに対応し、複数のチャネルが同時に演奏されることにより、アンサンブル演奏がなされる。なお、メタイベントやシステムエクスクルーシブイベント等のチャネルに依存しないイベントデータについては、この第3列に値を持たない。
第4列には、ノートナンバ(NoteNum)、プログラムナンバ(ProgNum)あるいはコントロールナンバ(CtrlNum)が記述されるが、どれが記述されるかはメッセージの内容により異なる。例えばノートオンメッセージまたはノートオフメッセージであれば、ここには音階を表すノートナンバが記述され、またコントロールチェンジメッセージであればその種類(音量やパンポット等)を示すコントロールナンバが記述されている。
第5列にはMIDIメッセージの具体的な値(データ)が記述されている。例えばノートオンメッセージまたはノートオフメッセージであれば、ここには音の強さを表すベロシティの値が記述され、またコントロールチェンジメッセージであればコントロールナンバに応じたパラメータの値が記述されている。
【0015】
次に、図5に示す各行について説明する。まず、第1行のヘッダー(Header)は時間単位を示している。「時間単位」とは分解能を示すものであり、4分音符あたりのテンポクロック数で表現される。図5においては「480」の値がセットされており、この場合は4分音符一つが480個分のテンポクロックの長さに対応することが指示されたことを意味している。
第2行のテンポ指令値(SetTempo)は、演奏の速さを指定し、4分音符の長さをマイクロ秒で表す。例えば、4分音符=120のテンポの場合、4分音符が1分間に120拍であるため、60(秒)/120(拍)×1000000=500000(マイクロ秒)の値が、テンポ指令値の値としてセットされる。自動演奏はテンポクロックに基づく速さで行われるが、テンポクロックの周期は、テンポ指令値と時間単位の値に応じて制御されるようになっている。したがって、テンポ指令値(SetTempo)が「500000」で時間単位が「480」の場合は、テンポクロックの周期は「1/960」となる。
第3行から第6行にはシステムエクスクルーシブメッセージが記述され、第7行から第11行にはプログラムチェンジメッセージとコントロールチェンジメッセージが記述されている。これらは、楽曲全体に影響を与える楽音制御パラメータであるが、本実施形態の動作には関係がないので、その説明は割愛する。
【0016】
次に、第12行以降は、各チャネルの音符についての楽音パラメータとなっている。これらは発音を示すノートオンイベント(NoteOn)と消音を示すノートオフイベント(NoteOff)のメッセージで構成され、各イベントには音高を示すノートナンバ(NoteNum)と、音の強さを示すベロシティ(Velocity)が付加される。
ここで、図5に示す音符列がどのように演奏されるかを説明すると、まずチャネル「1」で「C4」、チャネル「2」で「E4」、チャネル「3」で「G4」、チャネル「4」で「B4」、チャネル「5」で「C3」が同時に発音される。それからデルタタイム「240」の後にチャネル「2」から「5」が一斉に消音する。このときチャネル「1」にはノートオフイベントが記述されていないので、チャネル「1」では引き続き「C4」の音が発音される。チャネル「2」から「5」においては、消音と同時に次の音が発音される。具体的にはチャネル「2」、「4」、「5」で「F4」、チャネル「3」で「A4」の音が発音される。
以上のような手順で各チャネルの発音と消音が繰り返され、演奏が進行する。
すなわち、MIDIデータを用いた一般的な自動演奏処理は、デルタタイムによって示される時間を待って次々とイベントを実行する、という処理を演奏が終了するまで繰り返す。ただし、本実施形態においては、デルタタイムに基づいた楽曲の進行の制御よりも、操作子1の操作に応じた楽曲の進行制御の方が優先される。その詳細については後述する。
【0017】
(RAM303に設定されるテーブルの内容)
次に、RAM303に設定されるテーブルについて説明する。パーソナルコンピュータ3の電源投入時に起動されるROM302のプログラムに基づき、CPU301は、初期設定を行うが、このときCPU301は、図6に示されるようなパラメータ割り当てテーブルTB1を作成し、これをRAM303の所定エリアに格納する。
パラメータ割り当てテーブルTB1には、楽音制御パラメータと操作子1の各センサSとの対応関係が設定されている。図6に示す例では、センサS−1には「マスターボリューム」、センサS−2には「テンポ指令値」、センサS−3には「マスターバランス」、センサS−4には「マスターリバーブ」、センサS−5には「マスターブライトネス」等が設定されている。これら各センサSに対する楽音制御パラメータの割り当ては、操作者がキーボード306、ポインティングデバイス307を操作することによって自由に設定・変更することができる。
【0018】
<実施形態の動作>
操作者は、まず、団扇の面1bの所定箇所(例えば端面)に複数のセンサSを取り付ける。前述したように、各センサSは面1bに着脱自在に取り付け可能となっているため、操作者は各センサSを面1bにいったん取り付けた後であっても、かかる取り付け位置を自由に変えることができる。操作者は、各センサSの取り付け作業が終了すると、自動演奏装置100等に電源を投入した後、キーボード306等を用いて楽音制御パラメータと各センサSとの対応関係を入力する。なお、各センサS−kには、操作者が識別可能なセンサ番号等が予め付されているため、操作者は、このセンサ番号を確認しながら、センサS−1には「マスターボリューム」・・・といった具合で楽音制御パラメータと各センサSとの対応関係を入力してゆく。
【0019】
CPU(パラメータ割当手段)301は、かかる入力に従って図6に示すようなパラメータ割り当てテーブルTB1を作成し、これをRAM303の所定エリアに格納する。そして、操作者によって演奏すべき楽曲の選択指示が入力されると、CPU301は選択指示のあった楽曲の演奏データをHDD304等から読み出し、これをRAM303の演奏データ格納領域に転送する。そして、CPU301は、演奏データ格納領域に転送した演奏データを順次読み出し、音源装置4に転送することで自動演奏を開始する。
【0020】
一方、操作者は、操作子1の柄1aを握り、団扇を扇ぐといった操作を開始する(図3参照)。かかる操作がなされると、団扇の面1bが空気抵抗に逆らって揺らぎ、風が生じる。と同時に、団扇の面1bに取り付けられた各センサSは、風切り音などの音振動をセンシングし、センサ信号SIとして無線通信ユニットUに出力する。ここで、図7は、上記操作を行ったときの団扇の状態を示す側面図である。同図に示すように、団扇を紙面上下方向に扇ぐと、団扇の面(特にセンサSが取り付けられた端部)1bは、同図に破線で示すように紙面上下方向に微妙な揺れを起こす。この結果、従来型の操作子(棒状の操作子)を操作することによっては得られなかった複雑かつ微妙な振動をセンシングすることが可能となる。一方、無線通信ユニットUは、各センサSからセンサ信号SIを受け取ると、これら各センサ信号SIに対応するセンサSの識別情報SIDを付加し、受信装置2へ送信する。
【0021】
CPU301は、受信装置2を介してセンサ信号SIを受け取ると、このセンサ信号SIに付加さている識別情報SIDとパラメータ割り当てテーブルTB1(図6参照)とを比較することにより、このセンサ信号SIに基づいて生成すべき楽音制御パラメータを特定する。例えば、センサ信号SIに付加されている識別情報がSID−1である場合、CPU301は生成すべき楽音制御パラメータは「マスターボリューム」であると判断する。そして、CPU(楽音制御パラメータ生成手段)301は、このセンサ信号SIのピーク値等に基づいてマスターボリューム値を求める。このセンサ信号SIのピーク値等とマスターボリューム値との関係は、例えばROM302等に予め記憶されている関数(ピーク値からマスターボリューム値を求めるための関数)や、テーブル(ピーク値とマスターボリューム値との対応関係を示すテーブル)等によって決定される。また、CPU301は、識別情報がSID−2であり、生成すべき楽音制御パラメータが「テンポ指令値」であると判断すると、センサ信号SIのピークの時間間隔等を求め、求めたピークの時間間隔等に基づいてテンポ指令値(演奏テンポ)を求める。CPU301は、生成すべき楽音制御パラメータが他の場合(「マスターバランス」、「マスターリバーブ」、「マスターブライトネス」等)も同様にして対応する楽音制御パラメータの値を求める。
【0022】
CPU301は、このようにして各楽音制御パラメータの新たな値を求めると、これらの値をもつ「マスターボリューム」、「テンポ指令値」等のシステムエクスクルーシブメッセージを生成し、MIDIインターフェイス308を介して音源装置4に送信する。音源装置(自動演奏データ処理手段)4は、受け取った新たな値をもつ音楽制御パラメータに従って演奏データを再生する。この結果、楽音全体の音量、演奏テンポ、パンポット、残響、音響明瞭度等が変化し、微妙な味わいを持つ演奏を行うことが可能となる。
【0023】
以上説明したように、本実施形態においては、一般に涼を取るために用いられる団扇を、演奏を制御するための操作子1として利用しているため、楽器を全く演奏したことがない楽器演奏初心者であっても、何のためらいもなく当該操作子1を操作することができる。いいかえれば、団扇のような日用品を入力インタフェースに利用することで、楽器に対する心理的バリアを下げることができる。さらに言えば、団扇を扇ぐといった操作においては、操作者の意図しない特有の動作(図7参照)がセンシング等されるため、楽器演奏が得意な演奏上級者であると演奏初心者であるとを問わず、非常に味わい深い演奏を行うことができる。また、撓りのある薄板等によって形成された団扇を操作子1として使用することで、空気抵抗と団扇の柄1aにかかる力バランスにより板が撓り、手の動き(速度、或いは変位)の位相とセンサSの出力の位相との間に微妙なずれが生じ、これにより絶妙な演奏効果を得ることが可能となる。
【0024】
また、団扇等に特有の非常に細かな振動をセンシングし、これを楽曲演奏に反映させることができれば、従来の操作子では非常に細かな操作が必要とされるために困難とされてきたトレモロ演奏などの制御を、非常に簡単な操作で実現することができる。なお、上述した本実施形態では、団扇の面1bの端部に複数のセンサSを取り付けた場合について説明したが、これに限定する趣旨ではなく、例えば面1bの中央等にセンサSを取り付けても良い。また、本実施形態では、各センサSが団扇に対して着脱可能な場合について説明したが、これら各センサSが団扇に対して固着されていても良い。さらに、団扇の代わりに扇子や下敷きなど、撓る部材によって形成されたあらゆる日用品に複数のセンサSを取り付けて操作子1を構成するようにしても良い。
【0025】
B.変形例
<変形例1>
上述した本実施形態では、1人の操作者が操作子1を用いて楽曲演奏を制御する場合について説明したが、複数人の操作者がそれぞれ操作子1を用いて楽曲演奏を制御するようにしても良いのはもちろんである。なお、以下の説明では、第1操作者が操作する操作子を操作子1−1、・・・第n操作者(1≦n)が操作する操作子を操作子1−nと呼ぶ。ここで、図8は、変形例1に係るパラメータ割り当てテーブルTB2を例示した図である。パラメータ割り当てテーブルTB2には、単一のチャネルのみに影響を与える楽音制御パラメータと各操作子1に取り付けられた各センサS−kとの対応関係が設定されている。図8に示す例では、第1操作者が操作する操作子1−1のセンサS−1〜S−5には、それぞれチャネル「1」の「ボリューム」、・・・「ブライトネス」の楽音制御パラメータが割り当てられており、・・・第n操作者が操作する操作子1−nのセンサS−1〜S−5には、それぞれチャネル「n」の「ボリューム」、・・・「ブライトネス」の楽音制御パラメータが割り当てられている。これら各操作子1の各センサSに対する楽音制御パラメータの割り当ては、本実施形態と同様、操作者がキーボード306、ポインティングデバイス307を操作することによって自由に設定・変更することができる。また、変形例1に係る操作子1には、それぞれ固有の識別情報OIDが割り当てられている。
【0026】
各無線通信ユニットUは、センサ信号SIを送信する際、本実施形態と同様、センサ信号SIに対応するセンサS−kの識別情報SID−kを付加するほか、対応する操作子1に固有の識別情報OIDを付加して受信装置2へ送信する。CPU301は、受信装置2を介してセンサ信号SIを受け取ると、センサ信号SIに付加されている操作子1の識別情報OIDと、センサSの識別情報SIDと、パラメータ割り当てテーブルTB2とを比較することにより、このセンサ信号SIに基づいて生成すべき楽音制御パラメータを特定する。例えば、センサ信号SIに付加されている操作子1の識別情報がOID−2、センサSの識別情報がSID−1である場合、CPU301はパラメータ割り当てテーブルTB2を参照することにより、生成すべき楽音制御パラメータはチャネル「2」の「ボリューム」であると判断する。なお、この後の動作については、上述した本実施形態とほぼ同様に説明することができるため、説明を割愛する。また、本変形例では、第1操作者がチャネル「1」の楽音を制御するなど、各操作者が対応するチャネルの楽音を制御する場合について説明したが、例えば第1操作者〜第5操作者がそれぞれチャネル「1」の「ボリューム」、・・・「ブライトネス」を制御するなど、複数の操作者が1つのチャネルの楽音を制御しても良い。
【0027】
<変形例2>
また、上述した本実施形態では、パラメータ割り当てテーブルTB1(図6参照)に基づいて対応する楽音制御パラメータを新たに生成する場合について説明したが、予め定められたアルゴリズムに基づいて楽音制御パラメータを新たに生成するようにしても良い。詳述すると、変形例2に係るRAM303等には、パラメータ生成アルゴリズムが予め格納されている。かかるアルゴリズムについて説明すると、例えばセンサS−1のセンサ信号SIのピーク値とセンサS−2のセンサ信号SIのピーク値の合計からマスターボリューム値を求め、・・・センサS−5のセンサ信号SIのピーク間隔(時間間隔)とセンサS−7のセンサ信号SIのピーク間隔とから平均値を求め、求めた平均値をテンポ値とするといった内容である。CPU(楽音制御パラメータ生成手段)301は、操作子1から受信装置2を介して各センサ信号SIを受け取ると、このパラメータ生成アルゴリズムに必要な値(各センサ信号SIのピーク値等)を代入することにより、種々の楽音制御パラメータを生成する。このように、パラメータ生成アルゴリズムを用いて新たな楽音制御パラメータを生成しても良い。これにより、1つのセンサSのセンサ信号SIを用いて楽音制御パラメータを生成した場合には実現できない味わい深い演奏制御等が可能となる。また、かかる構成によれば、操作者は多数のセンサSの各々にどのような楽音制御パラメータ割り当てるかを適宜選択しなくても良いというメリットがある。なお、このパラメータ生成アルゴリズムと本実施形態に係るパラメータ割り当てテーブルTB2とを併用し、操作者が任意に選択できるようにしても良いのはもちろんである。
【0028】
<変形例3>
また、上述した本実施形態では、団扇に複数のセンサSを取り付けた操作子1を例示したが、例えば図9に示すシーリングファンFに複数のセンサSを取り付けた操作子1にも適用可能である。シーリングファンFは、取付部F1を介して天井に固着支持されており、この取付部F1にはシーリングファンFの羽(面状送風体)F2を回転駆動するためのモータ(図示略)が内蔵されている。このシーリングファンFの回転制御(回転方向の切り替え、回転スピードの調整等)及びシーリングファンFの先端に取り付けられた複数のライトLの照度調整等は、図示せぬリモコンによって操作可能となっている。また、シーリングファンFの各羽F2には、各羽F2の回転により生じる風きり音を検出するためのセンサ(マイクロホン、圧電素子)S等が取り付けられている。各センサSから出力されるセンサ信号SIは、取付部F1等に取り付けられた無線通信ユニットU(図示略)に供給され、無線通信ユニットUにて当該センサSを識別するための識別情報SIDが付加され、自動演奏装置100に送信される。なお、本変形例に係る自動演奏装置100は、図9に示すように複数のスピーカ6がシーリングファンFの取付部F1に取り付けられている点を除き、本実施形態に係る自動演奏装置100と同様であるため図示及び説明を割愛する。
【0029】
かかる構成において、シーリングファンFが回転を開始すると、羽F2に取り付けられた各センサSは風きり音をセンシングし、センサ信号SIを無線通信ユニットUに供給する。無線通信ユニットUは、供給されるセンシング信号SIに当該センサSに固有の識別情報SIDを付加し、受信装置2に送信する。CPU301は、受信装置2からセンシング信号SIを受け取ると、本実施形態と同様の動作を行って「テンポ指令値」等のシステムエクスクルーシブメッセージを生成し、これを音源装置4に供給する。この結果、シーリングファンFに取り付けられた複数のスピーカ6からはシーリングファンFの回転に応じて音量、テンポ、パンポット、残響、音響明瞭度等が制御された楽音が放音される。なお、変形例3では、上記センサSとして羽F2の回転により生じる風きり音を検出するセンサを例示したが、例えば室内温度、湿度、照度等を検出するセンサを設けても良い。かかる場合には、例えば室内温度に応じて「マスターボリューム」の値を変化させたり、湿度に応じて「マスターリバーブ」の値を変化させることができる。また、このように楽曲制御パラメータを生成するためにだけ用いるのではなく、例えば照度に応じて再生すべき楽曲を選択(例えば照度が高い場合には明るい楽曲、低い場合には暗い楽曲等)するようにしても良い。なお、本変形例に対して上述した変形例1及び変形例2を適用しても良いのはもちろんである。
【0030】
<変形例4>
なお、以上説明したCPU301に係る諸機能は、ROM302等のプログラムによって実現されるため、かかるプログラムについて、例えばCD−ROM等の記録媒体に記録して頒布したり、インターネット等の通信ネットワークを介して頒布しても良い。もちろん、上記諸機能を実現するCPU301、ROM302等を組み込んだ専用装置として構成することも可能である。
【0031】
【発明の効果】
以上説明したように、本発明によれば、楽器演奏が得意な演奏上級者であると演奏初心者であるとを問わず、非常に味わい深い演奏制御を行うことが可能となる。
【図面の簡単な説明】
【図1】本実施形態の構成を示す図である。
【図2】同実施形態に係る操作子の構成を示す図である。
【図3】同実施形態に係る操作子の操作態様を例示した図である。
【図4】同実施形態に係るパーソナルコンピュータの構成を示すブロック図である。
【図5】同実施形態に係る演奏データの構造を例示した図である。
【図6】同実施形態に係るパラメータ割り当てテーブルを例示した図である。
【図7】同実施形態に係る操作子の状態を示す側面図である。
【図8】変形例1に係るパラメータ割り当てテーブルを例示した図である。
【図9】変形例3に係る操作子を説明するための図である。
【符号の説明】
1・・・操作子、1a・・・柄、1b・・・面、U・・・無線通信ユニット、2・・・受信装置、3・・・パーソナルコンピュータ、4・・・音源装置、5・・・アンプ、6・・・スピーカ、S・・・センサ、301・・・CPU、302・・・ROM、303・・・RAM、304・・・HDD、305・・・表示部、306・・・キーボード、307・・・ポインティングデバイス、TB1、TB2・・・パラメータ割り当てテーブル、F・・・シーリングファン、F1・・・取付部、F2・・・羽。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a musical tone control apparatus and an automatic performance apparatus that can easily perform performance control.
[0002]
[Prior art]
A user who likes appreciation of music performances has a desire not only to enjoy and enjoy reproduced music, but also to play the music in accordance with his / her own musical idea.
In order to realize such a user's feeling, a rod-shaped operation element operated by each user (operator) and an operation state of the operation element (such as “shake”, “hit”, “tilt”) are detected. There has been proposed an apparatus that changes a musical tone control parameter such as a volume according to a detection result and generates a musical tone based on the changed musical tone control parameter (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-350474
[Problems to be solved by the invention]
However, the above-described device is intended only to reflect his / her own musical thoughts in the music performance, and in order to achieve this purpose, the user has to practice to some extent with respect to the operation of the operator. Certainly, it has the advantage of being far less than the amount of practice required to actually play an instrument, but for beginners who have never played an instrument before, Even with such practice, there was a problem that he felt hesitant.
[0005]
The present invention has been made in view of the circumstances described above, and an object thereof is to provide a musical sound control device and an automatic performance device capable of performing performance control by a simple operation.
[0006]
[Means for Solving the Problems]
In order to solve the above-described problems, a musical sound control apparatus according to the present invention is a planar air blower that is formed of a thin plate-like flat plate member and generates wind by moving the surface of the flat plate member against air resistance. Parameter assignment for assigning which musical tone control parameter to be generated based on which output signal of each of the body, a plurality of sensors attached to the flat plate member, and a plurality of musical tone control parameters for controlling musical tone And a tone control parameter generating means for generating a corresponding tone control parameter based on the output signal of each sensor in accordance with the assignment of the assigning means.
[0007]
The musical tone control apparatus according to the present invention is a flat plate member that is formed of a thin plate-like flat plate member and generates wind by moving the surface of the flat plate member against air resistance, and the flat plate member. And a tone control parameter generating means for generating a tone control parameter for controlling a tone by processing an output signal of each sensor based on a predetermined algorithm. It is characterized by that.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments according to the present invention will be described below. Such an embodiment shows one aspect of the present invention, and can be arbitrarily changed within the scope of the technical idea of the present invention.
[0009]
A. Embodiment <Configuration of Embodiment>
FIG. 1 is a diagram showing a configuration of the present embodiment. As shown in FIG. 2, the
As shown in FIG. 2, the
Here, each sensor S attached to the surface 1b of the fan is configured by a small sensor (such as a microphone or a piezoelectric element) that senses sound vibration and outputs it as a sensor signal SI. When the wireless communication unit U receives the sensor signal SI from each sensor S, the wireless communication unit U adds the identification information SID for identifying the sensor S to the received sensor signal SI and transmits it to the
[0010]
FIG. 4 is a block diagram showing a configuration of the
The
When automatic performance is instructed, performance data selected by the operator is called from the
[0011]
The
Next, the
The
[0012]
(Contents of performance data)
Here, the structure of performance data stored in the
In the present embodiment, as described above, automatic performance is performed using performance data according to the MIDI standard. Musical sound control parameters that make up the performance data indicate the pitch, pitch, velocity, etc. of each note, and affect the entire song (total volume, tempo, reverberation, sound localization, etc.) ), Or something that affects the whole of a specific part (such as reverberation or sound localization by part).
In the present embodiment, the musical tone control parameters are sequentially read according to the progress of the performance and the automatic performance processing is performed. However, the progress of the music is controlled according to the operation of the
[0013]
In the following, the performance data used in this embodiment will be described in detail with reference to FIG. Since FIG. 5 is a matrix of rows and columns, the columns will be described first.
The delta time in the first column indicates the interval between events, and is represented by the number of tempo clocks. When the delta time is “0”, it is executed simultaneously with the immediately preceding event.
In the second column, the contents of messages of each event of the performance data are described. This message includes, for example, a control change message (ControlChange) for instructing the volume and panpot (sound image localization) in addition to a note-on message (NoteOn) indicating sound generation and a note-off message (NoteOff) indicating mute.
[0014]
The third column describes channel numbers. Each channel corresponds to a different performance part, and an ensemble performance is performed by simultaneously performing a plurality of channels. It should be noted that event data that does not depend on the channel, such as meta events and system exclusive events, does not have a value in this third column.
In the fourth column, a note number (NoteNum), a program number (ProgNum), or a control number (CtrlNum) is described. Which is described depends on the content of the message. For example, in the case of a note-on message or note-off message, a note number indicating a musical scale is described here, and in the case of a control change message, a control number indicating the type (volume, panpot, etc.) is described.
The fifth column describes specific values (data) of the MIDI message. For example, in the case of a note-on message or a note-off message, a velocity value representing the sound intensity is described here, and in the case of a control change message, a parameter value corresponding to a control number is described.
[0015]
Next, each row shown in FIG. 5 will be described. First, the header (Header) in the first row indicates a time unit. “Time unit” indicates resolution and is expressed by the number of tempo clocks per quarter note. In FIG. 5, the value “480” is set, which means that one quarter note is instructed to correspond to the length of 480 tempo clocks.
The tempo command value (SetTempo) on the second line specifies the speed of performance and represents the length of a quarter note in microseconds. For example, in the case of a quarter note = 120 tempo, since a quarter note is 120 beats per minute, the value of 60 (seconds) / 120 (beats) × 1000000 = 500000 (microseconds) is the tempo command value. Set as a value. The automatic performance is performed at a speed based on the tempo clock, and the cycle of the tempo clock is controlled according to the tempo command value and the value in time unit. Therefore, when the tempo command value (SetTempo) is “500000” and the time unit is “480”, the cycle of the tempo clock is “1/960”.
[0016]
Next, the music parameters for the notes of each channel are shown in the twelfth and subsequent lines. These are composed of a note-on event (NoteOn) indicating sound and a note-off event (NoteOff) indicating mute. Each event has a note number (NoteNum) indicating a pitch and a velocity (note). (Velocity) is added.
Here, how the musical note sequence shown in FIG. 5 is played will be described. First, “C4” for channel “1”, “E4” for channel “2”, “G4” for channel “3”, channel “B4” is sounded simultaneously with “4”, and “C3” is sounded simultaneously with channel “5”. Then, after the delta time “240”, the channels “2” to “5” are muted all at once. At this time, since no note-off event is described in channel “1”, the sound of “C4” is continuously generated in channel “1”. In channels “2” to “5”, the next sound is produced simultaneously with the mute. Specifically, “F4” is sounded on channels “2”, “4”, and “5”, and “A4” is sounded on channel “3”.
The sounding and muting of each channel is repeated in the above procedure, and the performance proceeds.
That is, in a general automatic performance process using MIDI data, the process of waiting for the time indicated by the delta time and executing events one after another is repeated until the performance ends. However, in the present embodiment, the music progression control according to the operation of the
[0017]
(Contents of table set in RAM 303)
Next, a table set in the
In the parameter assignment table TB1, the correspondence relationship between the musical tone control parameter and each sensor S of the
[0018]
<Operation of Embodiment>
First, the operator attaches a plurality of sensors S to predetermined locations (for example, end surfaces) of the fan fan surface 1b. As described above, since each sensor S can be detachably attached to the surface 1b, the operator can freely change the attachment position even after the sensors S are once attached to the surface 1b. Can do. When the operation of attaching each sensor S is completed, the operator turns on the
[0019]
The CPU (parameter allocation means) 301 creates a parameter allocation table TB1 as shown in FIG. 6 in accordance with such input, and stores it in a predetermined area of the
[0020]
On the other hand, the operator starts an operation of grasping the
[0021]
When the
[0022]
When the
[0023]
As described above, in this embodiment, since a fan generally used for cooling is used as the
[0024]
In addition, tremolo that has been considered difficult because conventional operators require very fine operations if sensing the very fine vibrations peculiar to fan fans and reflecting them in music performances. Controls such as performance can be realized with very simple operations. In addition, although this embodiment mentioned above demonstrated the case where the some sensor S was attached to the edge part of the surface 1b of a fan, it is not the meaning limited to this, For example, the sensor S is attached to the center etc. of the surface 1b. Also good. Moreover, although this embodiment demonstrated the case where each sensor S was removable with respect to a fan, these each sensor S may be adhere | attached with respect to the fan. Furthermore, the
[0025]
B. Modification <
In the present embodiment described above, the case where one operator controls the music performance using the
[0026]
When transmitting the sensor signal SI, each wireless communication unit U adds the identification information SID-k of the sensor Sk corresponding to the sensor signal SI, as well as the present embodiment, and is specific to the
[0027]
<
Further, in the above-described embodiment, the case where a corresponding musical tone control parameter is newly generated based on the parameter assignment table TB1 (see FIG. 6) has been described. However, the musical tone control parameter is newly determined based on a predetermined algorithm. You may make it produce | generate to. More specifically, a parameter generation algorithm is stored in advance in the
[0028]
<
Moreover, in this embodiment mentioned above, although the
[0029]
In such a configuration, when the ceiling fan F starts to rotate, each sensor S attached to the wing F <b> 2 senses wind noise and supplies the sensor signal SI to the wireless communication unit U. The wireless communication unit U adds the identification information SID unique to the sensor S to the supplied sensing signal SI and transmits it to the receiving
[0030]
<
Since the various functions related to the
[0031]
【The invention's effect】
As described above, according to the present invention, it is possible to perform a very tasteful performance control regardless of whether a performance expert who is good at musical instrument performance or a beginner performance.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an embodiment.
FIG. 2 is a diagram showing a configuration of an operator according to the same embodiment.
FIG. 3 is a diagram illustrating an operation mode of an operator according to the embodiment.
FIG. 4 is a block diagram showing a configuration of a personal computer according to the embodiment.
FIG. 5 is a diagram illustrating a structure of performance data according to the embodiment.
FIG. 6 is a diagram illustrating a parameter assignment table according to the embodiment;
FIG. 7 is a side view showing a state of the operation element according to the embodiment;
FIG. 8 is a diagram illustrating a parameter assignment table according to a first modification.
FIG. 9 is a diagram for explaining an operator according to a third modification.
[Explanation of symbols]
DESCRIPTION OF
Claims (8)
前記平板部材に取り付けられる複数のセンサと、
楽音を制御するための複数の楽音制御パラメータについて、どの楽音制御パラメータを前記各センサのいずれの出力信号に基づいて生成するかを割り当てるパラメータ割当手段と、
前記割当手段の割り当てに従い、前記各センサの出力信号に基づいて対応する楽音制御パラメータを生成する楽音制御パラメータ生成手段と
を有することを特徴とする楽音制御装置。A planar air blower that is formed of a thin plate-like flat plate member and generates wind by moving the surface of the flat plate member against air resistance,
A plurality of sensors attached to the flat plate member;
Parameter allocation means for allocating which musical tone control parameter is to be generated based on which output signal of each of the plurality of musical tone control parameters for controlling musical tone;
A musical tone control apparatus comprising musical tone control parameter generating means for generating a corresponding musical tone control parameter based on an output signal of each sensor in accordance with the assignment by the assigning means.
前記平板部材に取り付けられる複数のセンサと、
前記各センサの出力信号を、予め定められたアルゴリズムに基づいて処理することにより、楽音を制御するための楽音制御パラメータを生成する楽音制御パラメータ生成手段と
を具備することを特徴とする楽音制御装置。A planar air blower that is formed of a thin plate-like flat plate member and generates wind by moving the surface of the flat plate member against air resistance,
A plurality of sensors attached to the flat plate member;
A musical tone control apparatus comprising a musical tone control parameter generating means for generating musical tone control parameters for controlling musical tones by processing the output signals of the sensors based on a predetermined algorithm. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003200748A JP4148051B2 (en) | 2003-07-23 | 2003-07-23 | Musical sound control device and automatic performance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003200748A JP4148051B2 (en) | 2003-07-23 | 2003-07-23 | Musical sound control device and automatic performance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005043484A true JP2005043484A (en) | 2005-02-17 |
JP4148051B2 JP4148051B2 (en) | 2008-09-10 |
Family
ID=34261061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003200748A Expired - Fee Related JP4148051B2 (en) | 2003-07-23 | 2003-07-23 | Musical sound control device and automatic performance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4148051B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011509419A (en) * | 2007-12-20 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | System and method for automatically generating sound associated with a lighting atmosphere |
-
2003
- 2003-07-23 JP JP2003200748A patent/JP4148051B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011509419A (en) * | 2007-12-20 | 2011-03-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | System and method for automatically generating sound associated with a lighting atmosphere |
Also Published As
Publication number | Publication date |
---|---|
JP4148051B2 (en) | 2008-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4501725B2 (en) | Keyboard instrument | |
US20040244566A1 (en) | Method and apparatus for producing acoustical guitar sounds using an electric guitar | |
US7297862B2 (en) | Musical tone control apparatus and method | |
US20090178533A1 (en) | Recording system for ensemble performance and musical instrument equipped with the same | |
JP4265551B2 (en) | Performance assist device and performance assist program | |
JP3922224B2 (en) | Automatic performance device and program | |
JP3750699B2 (en) | Music playback device | |
JP3879583B2 (en) | Musical sound generation control system, musical sound generation control method, musical sound generation control device, operation terminal, musical sound generation control program, and recording medium recording a musical sound generation control program | |
JPH10214083A (en) | Musical sound generating method and storage medium | |
JP4148051B2 (en) | Musical sound control device and automatic performance device | |
JP3835163B2 (en) | Electronic drum device | |
JP3972619B2 (en) | Sound generator | |
JP4506147B2 (en) | Performance playback device and performance playback control program | |
JP4228494B2 (en) | Control apparatus and control method | |
JPH08328555A (en) | Performance controller | |
JP2006267611A (en) | Stringed instrument type electronic musical instrument | |
JP4301549B2 (en) | Audio output system | |
JP3821117B2 (en) | Wind instrument type electronic musical instrument | |
JP3348584B2 (en) | Operator device for performance operation | |
JP4241833B2 (en) | Automatic performance device and program | |
JP3461916B2 (en) | Electronic musical instrument | |
JP2000003175A (en) | Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium | |
JP2005049497A (en) | Control program of sound source circuit and controller for the circuit | |
JP3646708B2 (en) | Operator device for performance operation of electronic musical instrument for performance | |
JPH06195071A (en) | Part information recording device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080603 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080616 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |