JP2007256631A - 演奏制御装置、およびプログラム - Google Patents

演奏制御装置、およびプログラム Download PDF

Info

Publication number
JP2007256631A
JP2007256631A JP2006080951A JP2006080951A JP2007256631A JP 2007256631 A JP2007256631 A JP 2007256631A JP 2006080951 A JP2006080951 A JP 2006080951A JP 2006080951 A JP2006080951 A JP 2006080951A JP 2007256631 A JP2007256631 A JP 2007256631A
Authority
JP
Japan
Prior art keywords
performance
note
operation information
time
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006080951A
Other languages
English (en)
Other versions
JP4320782B2 (ja
Inventor
Satoshi Usa
聡史 宇佐
Tomomitsu Urai
知光 浦井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006080951A priority Critical patent/JP4320782B2/ja
Priority to US11/689,526 priority patent/US7633003B2/en
Publication of JP2007256631A publication Critical patent/JP2007256631A/ja
Application granted granted Critical
Publication of JP4320782B2 publication Critical patent/JP4320782B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control

Abstract

【課題】演奏操作のミスが有っても演奏が乱れずに、楽器の操作に不慣れな者であっても安心して演奏を楽しめる電子楽器を提供する。
【解決手段】今回のノートオンメッセージの入力タイミングと前回のノートオンメッセージの入力タイミングの時間差を算出する。この時間差が所定の閾値未満であれば、時間差に基づいてテンポを決定する。決定したテンポで演奏曲データを読み出し、各楽音の発音指示データを決定する。時間差が所定の閾値未満であれば、演奏操作のミスによる打鍵であると判断して、今回のノートオンメッセージの入力を無視し、テンポ決定を行わない。
【選択図】図4

Description

この発明は、演奏者の操作に基づいて、演奏曲データを所定時間長シーケンスし、自動演奏を行う演奏制御装置、およびプログラムに関する。
従来より、演奏者の操作に対して楽音を発生する電子楽器が知られている。このような電子楽器は、例えばピアノ等をモデルとしており、自然楽器のピアノと同様の演奏操作を行うものが一般的であった。この様な電子楽器は演奏に熟練を要し、習熟に時間がかかるものである。
電子楽器(電子ピアノ)は、演奏者の打鍵の速度を検出し、この打鍵の速度に応じた楽音を発音する。電子ピアノは、打鍵の速度を検出するためのセンサを各鍵に設けている。このセンサは、複数の接点のオン/オフ時間を測定したり、弾性変形する部材を接点に用いてその挙動を利用することで打鍵の速度を検出する。しかし、センサに接点を用いることでチャタリング(オン/オフの繰り返し挙動)が発生してしまう。そこで、閾値範囲内の短時間のオン/オフ切替えであればこれを無視するという方法(特許文献1参照)が提案されている。
一方、電子楽器は、熟練者から初心者まで幅広い演奏者が使用するものである。熟練者は、自然楽器のように演奏操作に応じた様々な演奏表現をすることができる電子楽器を望んでいる。逆に初心者は容易な操作で演奏することができる電子楽器を望んでいる。
そこで、演奏者が簡易な操作(手で振る操作)を行うと、ある程度の長さの楽音(例えば1/2小節程度)が自動演奏されるもの(特許文献2参照)が提案されている。特許文献2には、複数の子機と1台の親機とで構成される楽器が記載されている。この様な電子楽器は、演奏者の演奏操作態様に応じて楽音を発音する。すなわち、演奏者が操作子を用いて演奏操作を行うと、子機から親機に、演奏者の演奏操作の速度等の情報が送信され、親機においては、その子機に割り当てたパートの楽音データを読み出し、上記の演奏者速度に基づいて楽音の音色等を決定する。
また、演奏操作速度に上限値を設け、所定の閾値以上の速度で演奏操作がされた場合、上限値の速度として処理する装置(特許文献3参照)が提案されている。この閾値を可変とすることで、演奏操作に対する追従度を可変とし、習熟度に合わせて音楽特性制御の難易度(安定度または音楽表現力)を調節することができるものである。
特開2002−244662号公報 特開2000−276141号公報 特許第3720004号公報
上述したように、近年は楽器の操作に不慣れな者が容易に演奏することができる楽器を実現することが望まれており、上記特許文献2の装置のような電子楽器において、各子機を電子ピアノとして用いることも考えられる。
しかし、各子機を電子ピアノとすると、初心者が演奏操作のミス(誤って隣の鍵を略同時に打鍵すること)をすることが考えられる。特許文献1の装置は、打鍵チャタリングを防止するものであり、演奏操作のミスを防止するものではない。また、この様な鍵盤は接点構造が複雑であり、判定アルゴリズムが複雑である。
特許文献3の電子楽器は、所定の閾値以上の速度で演奏操作がされた場合、上限値の速度として処理し、テンポの変化を緩和するものであるが、やはり上記のような演奏操作のミスを防止するものではなく、略同時に打鍵が有るとテンポが大きく変化し、演奏が乱れてしまう。
この発明は、演奏操作のミスが有っても演奏が乱れずに、楽器の操作に不慣れな者であっても安心して演奏を楽しめる演奏装置、およびプログラムを提供することを目的とする。
この発明の演奏制御装置は、使用者の演奏操作により、自動演奏の演奏タイミングの指示情報を含む演奏操作情報を発生する演奏操作子と、各楽音の音符情報のシーケンスデータからなる演奏曲データを記憶する記憶手段と、前記演奏操作情報の発生毎に、その前に発生した演奏操作情報との時間差に基づいて自動演奏のテンポを算出し、このテンポで前記演奏曲データを前記記憶手段から読み出す演奏制御手段と、を備えた演奏制御装置であって、前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満であれば、今回発生した演奏操作情報を前記テンポの算出対象から除外することを特徴とする。
この発明では、演奏操作子を用いて演奏者が演奏操作(例えば打鍵)を行うと、演奏タイミングの指示情報を含む操作信号を発生する。この演奏タイミングは、1拍毎、2拍毎、1/2拍毎等、一定間隔毎に、例えばガイド役であるファシリテータの指揮で示される。演奏制御装置は、操作信号と演奏曲データ(例えばMIDIデータ)に基づいて、各楽音の音量、音質等を決定する。ここで、演奏操作により操作信号が生成されたとき、前回操作信号が生成されてからの時間差を算出する。この算出した時間差が所定の閾値以上であれば、この時間差に基づいて楽音のテンポを決定し、各楽音の音量、強さ等を決定する。閾値未満であれば操作ミスによる連続打鍵であると判断し、上記各楽音の音量、強さ等の決定を行わない。
この発明は、さらに、前記演奏制御手段は、前記時間差に基づいて前記閾値を更新することを特徴とする。
この発明では、演奏中であっても前回操作信号が生成されてからの時間差に基づいて閾値を更新する。例えば、時間差の半分を閾値とすればよい。
この発明は、さらに、前記演奏制御手段は、前記発生時間差が前記閾値未満であった場合、今回発生した演奏操作情報を操作ミスによる演奏操作情報であるとしてカウントし、前記記憶手段にその発生回数を含む情報を記録することを特徴とする。
この発明では、時間差が閾値未満である操作ミスの回数をカウントし、ログとして記録しておく。例えばファシリテータは、このログを参照すれば操作ミスの回数を知ることができ、演奏者毎の習熟度を把握することができる。なお、操作ミスの回数以外にもその操作ミスの発生時刻、その鍵(ノートナンバ)、打鍵速度(ベロシティ)、その時の演奏曲、等の情報を記録するようにしてもよい。
この発明は、さらに、前記演奏制御部は、前記記憶手段に記録された操作ミスによる演奏操作情報の回数を含む情報に基づいて前記閾値を決定することを特徴とする。
この発明では、具体的には、ログとして記録されている操作ミスの回数に基づいて閾値を決定する。例えば操作ミスの多い場合は、閾値を大きくして、操作ミスによるテンポ変化が無く演奏が乱れないようにする。
この発明は、さらに、前記演奏操作子は、複数の鍵を有する演奏操作子であって、使用者の演奏操作により、各鍵毎に異なるノートナンバを有する演奏操作情報を発生し、前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満で、かつ、今回発生した演奏操作情報のノートナンバが、前回発生した演奏操作情報のノートナンバと隣接する場合、今回発生した演奏操作情報を前記テンポの算出対象から除外することを特徴とする。
この発明では、演奏操作子は複数の鍵を有する。演奏者が各鍵を打鍵すると、それぞれの鍵に応じたノートナンバが上記操作信号に含まれて発生する。ここで、演奏操作により操作信号が生成されたとき、前回操作信号が生成されてからの時間差を算出する。この算出した時間差が所定の閾値以上であれば、この時間差に基づいて楽音のテンポを決定し、各楽音の音量、強さ等を決定する。閾値未満であればさらに、今回の操作信号におけるノートナンバと前回の操作信号におけるノートナンバを比較し、ノートナンバが隣接していなければ、操作ミスによる打鍵でないとしてこの時間差に基づいて楽音のテンポを決定し、各楽音の音量、強さ等を決定する。操作ミスで誤打鍵される場合は、隣接する鍵が押されるため、操作ミスの判断を前回の打鍵の隣接鍵に限定すればよい。
この発明は、さらに、前記演奏操作子は、前記使用者の演奏操作毎に、当該演奏操作の開始時にノートオンメッセージを、当該演奏操作の終了時にノートオフメッセージを、前記演奏操作情報に含めて発生し、前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満で、かつ、前回発生した演奏操作情報のノートオフメッセージが発生していない場合に、今回発生した演奏操作情報を前記テンポの算出対象から除外することを特徴とする。
この発明では、演奏者が各鍵を打鍵すると、ノートオンメッセージが発生し、演奏者が鍵を離すと、ノートオフメッセージが発生する。ここで、演奏操作により操作信号が生成されたとき、前回操作信号が生成されてからの時間差を算出する。この算出した時間差が所定の閾値以上であれば、この時間差に基づいて楽音のテンポを決定し、各楽音の音量、強さ等を決定する。閾値未満であればさらに、前回の演奏操作時のノートオフメッセージが発生しているかを判断し、ノートオフメッセージが発生していなければ、操作ミスによる連続打鍵であると判断し、上記各楽音の音量、強さ等の決定を行わない。操作ミスで誤打鍵される場合は、隣接する鍵が略同時で押されるため、操作ミスの判断を前回の演奏操作時のノートオフメッセージが発生していない場合に限定すればよい。
この発明のプログラムは、使用者の演奏操作により、自動演奏の演奏タイミングの指示情報を含む演奏操作情報を発生する演奏操作子と、各楽音の音符情報のシーケンスデータからなる演奏曲データを記憶する記憶手段と、を備えた演奏制御装置に、前記演奏操作情報の発生毎に、その前に発生した演奏操作情報との時間差に基づいて自動演奏のテンポを算出し、このテンポで前記演奏曲データを前記記憶手段から読み出す処理と、前記演奏操作子が発生した演奏操作情報の発生時間差が所定の閾値未満であれば、今回発生した演奏操作情報を無視する処理と、を実行させることを特徴とする。
この発明によれば、演奏操作間の時間差を検出し、この時間差が閾値未満であれば操作ミスによる連続打鍵であると判断し、この演奏操作を無視して楽音のテンポ等の決定処理を行わない構成としたことで、演奏操作のミスが有っても演奏が乱れずに、楽器の操作に不慣れな者であっても安心して演奏を楽しむことができる。
図面を参照して、本発明の実施形態に係る合奏システムについて説明する。図1は、本実施形態に係る合奏システムの構成を示すブロック図である。この合奏システムは、コントローラ1と、コントローラ1にMIDIインタフェースボックス3を介して接続される複数(同図においては6台)の演奏端末2(2A〜2F)と、を備えている。この実施形態では、MIDIインタフェースボックス3を介することで、コントローラ1に各演奏端末2が別々のMIDI系統で接続されている。なお、MIDIインタフェースボックス3はコントローラ1とUSBで接続されている。
本実施形態に係る合奏システムでは、コントローラ1が各演奏端末2A〜2Fで異なった演奏パートの自動演奏を行うように各演奏端末2の演奏を制御し、これによって合奏が行われる。演奏パートとは、同一の合奏曲を構成する各旋律等である。演奏パートは、例えば、1または複数のメロディパート、リズムパート、異なった楽器による複数の伴奏パート等がある。
本合奏システムでは、各演奏端末2が完全に自動演奏を行うのではなく、各演奏パートの所定時間長のデータ毎(例えば1/2小節の区分データ毎)に各演奏端末2の演奏者による演奏操作によって音量、強さ、タイミング、及びテンポの指示等が行われる。本合奏システムでは、各演奏者が特定の操作タイミングで演奏操作を行った場合に、好適な演奏タイミングで合奏が行われるようになっている。
この操作タイミングは各演奏端末2で共通にしてもよく、例えばガイド役であるファシリテータ(例えば演奏端末2Aの演奏者)の演奏操作、或いは手足等の身体表現を用いた指揮によって操作タイミングを各演奏者に示すようにしてもよい。示された操作タイミングに従って各演奏者が演奏操作を行うことができた場合に、好適な合奏が行われる。
演奏端末2は、例えば電子ピアノ等の電子鍵盤楽器により構成される。演奏端末2は、演奏者の演奏操作(例えば鍵盤におけるいずれか1つの鍵を打鍵する操作)を受け付ける。演奏端末2は、コントローラ1との通信機能を備え、操作情報(例えばMIDIデータにおけるノートオンメッセージ)を示す操作信号をコントローラ1に送信する。この操作情報には、音高を示す情報が含まれているが、本実施形態のコントローラ1は、音高を示す情報は無視する(フィルタをかける)ことで、操作情報を演奏操作のタイミングを示すものとして用いる。このため、何れの鍵が打鍵されても同じ強さで打鍵された場合には同一の操作信号がコントローラ1に送信される。これによって、演奏者は何れか1の鍵を打鍵するだけで演奏を行うことができ、鍵盤楽器の演奏に不慣れな演奏者であっても演奏を行うことが可能になっている。
コントローラ1は、例えばパーソナルコンピュータにより構成され、このパーソナルコンピュータに搭載されたソフトウェアによって各演奏端末2の演奏動作の制御を行う。具体的には、コントローラ1は複数の演奏パートからなる演奏曲データを記憶している。コントローラ1は、合奏スタート前に、各演奏パート(または複数の演奏パート)を予め各演奏端末2A〜2Fに割り当てる。コントローラ1は各演奏端末2との通信機能を備え、演奏端末2から演奏操作を示す操作信号を入力したときに、この操作信号に基づいて、出力元の演奏端末2に割り当てられている演奏パートのテンポ・タイミングを決定する。そして、この決定したテンポ・タイミングで割り当てられた演奏パートの所定時間長の演奏曲データをシーケンスし、発音指示データとして演奏端末2に送信する。発音指示データには、発音すべきタイミング、音長、音量、音色、効果、音高変化(ピッチベンド)や、テンポ等が含まれる。
各演奏端末2では、内蔵音源を用いて、発音指示データに従って異なった演奏パートの自動演奏が行われる。これによって、各演奏者が演奏操作によって指示した強さで、かつコントローラ1によって割り当てられた演奏パートで各演奏端末2によって演奏が行われ、この結果として合奏が行われる。なお、演奏端末2は電子ピアノに限らず、電子ギター等他の形態の電子楽器であってもよい。無論、外観上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよい。
なお、演奏端末2が音源を内蔵する必要はなく、独立した音源をコントローラ1に接続してもよい。この場合、コントローラ1に接続する音源の数は1つであってもよいし、演奏端末2と同じ数であってもよい。演奏端末2と同じ数の音源を接続する場合、コントローラ1はそれぞれの音源と演奏端末2を対応付けて演奏曲データの各パートを割り当てるようにすればよい。
次に、コントローラ1と演奏端末2の構成について詳細に説明する。
図2は、コントローラ1の構成を示すブロック図である。同図に示すように、コントローラ1は、通信部11、制御部12、HDD13、RAM14、操作部15、および表示部16を備えている。制御部12には通信部11、HDD13、RAM14、操作部15、および表示部16が接続されている。
通信部11は、演奏端末2と通信を行う回路部であり、USBインタフェースを有している。このUSBインタフェースには、MIDIインタフェースボックス3が接続され、通信部11はこのMIDIインタフェースボックス3及びMIDIケーブルを介して6台の演奏端末2と通信する。HDD13は、コントローラ1の動作用プログラムや、複数パートからなる演奏曲データを記憶している。
制御部12は、HDD13に記憶されている動作用プログラムを読み出してワークメモリであるRAM14に展開し、パート割り当て50、シーケンス51、および発音指示52等の処理を実行する。パート割り当て50は、演奏曲データの各演奏パートを複数の演奏端末2に割り当てる。シーケンス51は、各演奏端末2から受信した操作信号に応じてテンポ・タイミングを決定し、決定したテンポ・タイミングで演奏曲データの各演奏パートをシーケンス(各音の音量、音色等を決定)する。発音指示52は、シーケンス51で決定した各音の音量、音色等を発音指示データとして演奏端末2に送信する。
操作部15は、演奏者(主にファシリテータ)がこの演奏システムの動作指示を行うためのものである。ファシリテータは、操作部15を操作し、例えば演奏する演奏曲データを指定したり、各演奏端末2の演奏パートを割り当てたりする。表示部16は、所謂ディスプレイ(モニタ)であり、ファシリテータや各演奏者はこの表示部16を見ながら演奏操作を行う。表示部16には合奏を行うための演奏タイミング等が表示される。
制御部12は、演奏操作のタイミングから次の演奏操作のタイミングに基づいて発音指示データのテンポを決定する。すなわち、各演奏端末2から受信した操作信号のうちノートオンメッセージの入力時間差に基づいてテンポを決定する。 なお、複数回(直近から数回前)の演奏操作について、移動平均を算出し、これに時間による重み付けを行うようにしてもよい。直近の演奏操作について最も重み付けを大きくし、過去の演奏操作になるほど重み付けを小さくする。このようにしてテンポを決定することで、ある演奏操作の時のみ前回との間隔が大きく変化したとしても突然にテンポが変化せず、曲の流れに応じて違和感無くテンポ変化を行うことができる。
図3は、演奏端末2の構成を示すブロック図である。同図に示すように、演奏端末2は、通信部21、制御部22、演奏操作子である鍵盤23、音源24、およびスピーカ25を備えている。制御部22には通信部21、鍵盤23、および音源24が接続されている。また、音源24にはスピーカ25が接続されている。
通信部21は、MIDIインタフェースであり、MIDIケーブルを介してコントローラ1と通信する。制御部22は、演奏端末2を統括的に制御する。
鍵盤23は、例えば61鍵や88鍵の鍵数を有し、5〜7オクターブの音域の演奏が可能であるが、この合奏システムでは鍵を区別せずにノートオン/ノートオフメッセージ、打鍵強さのデータを用いる。すなわち各鍵は、オン/オフを検出するセンサと打鍵強さを検出するセンサが内蔵されており、鍵盤23は各鍵の操作態様(どの鍵がどのような強さで打鍵されたか等)に応じて操作信号を制御部22に出力する。制御部22は、入力された操作信号に基づき、通信部21を介してコントローラ1にノートオンメッセージやノートオフメッセージを送信する。
音源24は、制御部22の制御(すなわち発音指示データ)に応じて楽音波形を生成し、音声信号としてスピーカ25に出力するものである。スピーカ25は、音源24から入力された音声信号を再生し、楽音を発音する。なお、上述したように、音源とスピーカは演奏端末2に内蔵していなくともよい。音源とスピーカをコントローラ1に接続し、演奏端末2と異なる場所から楽音が発音されるようにしてもよい。各演奏端末2と同じ数の音源をコントローラ1に接続してもよいが、単一の音源を用いてもよい。
上記の動作では、鍵盤23の各鍵を打鍵したとき、制御部22はノートオン/ノートオフメッセージをコントローラ1に送信し、鍵盤23によるノートメッセージではなく、コントローラ1からの指示に応じて楽音を発音(ローカルオフ)するが、上記の様な動作とは別に、一般的な電子楽器として使用することも無論可能である。鍵盤23の各鍵を打鍵したとき、制御部22はノートメッセージをコントローラ1に送信せずに、当該ノートメッセージに基づいて音源24に楽音を発音(ローカルオン)するように指示することも可能である。ローカルオン、ローカルオフは使用者がコントローラ1の操作部15を用いて切替えてもよいし、演奏端末2の端末操作部(図示せず)で切替えてもよい。また、一部の鍵のみローカルオフし、他の鍵はローカルオンとなるように設定することも可能である。
従来、コントローラ1の制御部12は、ノートオンメッセージの受信時間差に基づいてテンポを決定していた。しかし、初心者が鍵盤23のうち1つの鍵を打鍵すると、誤って隣の鍵まで打鍵してしまうことが多かった。この場合、短時間の間に複数のノートオンメッセージが送信され、極端にテンポが変更されることとなっていた。本実施形態は、ノートオンメッセージの受信時間差に閾値を設け、この閾値未満となる連続打鍵を無視することで演奏操作のミスが有ってもテンポが乱れずに、楽器の操作に不慣れな者であっても安心して演奏を楽しめることが特徴である。
以下、本実施形態における発音指示データの決定動作について説明する。図4は、演奏曲データ、演奏者の打鍵、ノートオンの受信時間差の関係を示す図である。同図において紙面横方向は時間の流れを示す。演奏者が演奏端末2の鍵盤23の各鍵を打鍵すると、ノートオンメッセージがコントローラ1に送信され、これにより所定長(例えば1拍分)の発音指示データが決定され、楽音が発音される。
制御部12は、ノートオンメッセージを受信すると、前回のノートオンメッセージ受信タイミング(打鍵1のタイミング)と今回のノートオンメッセージ受信タイミング(打鍵2のタイミング)の時間差Δt2を算出する。この時間差Δt2を所定の閾値Δt5(後に説明する)と比較する。打鍵間の時間差Δt2が所定の閾値Δt5以上であれば、今回の打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。テンポは、時間差Δt2に基づいて決定しても良いが、前回の時間差Δt1との平均値としてもよいし、さらに過去の時間差を平均化してもよい。また、上述したように直近の時間差について最も重み付けを大きくし、過去の演奏操作による時間差になるほど重み付けを小さくするようにしてもよい。
そして決定したタイミング・テンポで1拍分の演奏曲データを読み出し、発音指示データを決定する。決定した発音指示データは演奏端末2に送信される。また、制御部12は、時間差Δt2に基づいて閾値を更新する。更新した閾値が次回ノートオンメッセージが入力されたときの閾値Δt6となる。例えばΔt6=Δt2/2とすればよい。すなわち、打鍵2の時に時間差Δt2と比較した閾値Δt5は、Δt5=Δt1/2で表され、打鍵1のときに更新されていたものである。なお、閾値の更新方法は直近の打鍵時間差に基づいて求める例に限らず、過去の打鍵時間差の平均値に基づいて求めるようにしてもよい。また、1曲の演奏で固定であってもよいし、この固定値をファシリテータがマニュアルで変更できるようにしてもよい。
次に、同図において誤打鍵1(打鍵2の演奏操作をしたときに誤って打鍵されたもの)によるノートオンメッセージが入力されたとき、上記と同様に、前回のノートオンメッセージの受信タイミング(打鍵2のタイミング)と今回のノートオンメッセージの受信タイミング(誤打鍵1のタイミング)の時間差Δt4を算出する。この時間差Δt4を閾値Δt6と比較する。時間差Δt4が閾値Δt6未満であれば、操作ミスであると判断して今回のノートオンメッセージを無視する。したがって、このノートオンメッセージにおいてはテンポ・タイミングの決定がされず、発音指示データの決定もされない。無論、閾値の更新も行われない。
次の打鍵3によるノートオンメッセージが入力されたときは、打鍵2と打鍵3の時間差Δt3を算出し、この時間差Δt3と閾値Δt6を比較する。時間差Δt3が閾値Δt6以上であれば、この打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。その結果、打鍵3によって発音指示データが決定される。また、時間差Δt3に基づいて閾値を更新する。次回のノートオンメッセージが入力されたときの閾値Δt7は、Δt7=Δt3/2で更新される。
以上の制御部12の発音指示データ決定動作についてフローチャートを用いて説明する。図5は、発音指示データ決定動作を示すフローチャートである。演奏端末2からノートオンメッセージが入力されることが、この動作のトリガとなる。まず、入力されたノートオンメッセージのタイミングと前回のノートオンメッセージの入力タイミングの時間差を算出する(s11)。なお、演奏開始時点の最初のノートオンメッセージの入力がされた場合、通常、前回のノートオンメッセージは入力されていないが、本実施形態においては以下のようにして、演奏開始時点の最初のノートオンメッセージの入力がされた場合の前回との時間差を算出する。
すなわち、合奏スタート前に各演奏パートを各演奏端末2A〜2Fに割り当てられた後、ファシリテータの指示によって各演奏者が打鍵するとき、最初の数回の演奏タイミング(例えば4回分の打鍵)は、演奏曲データの読み出しをせずに、打鍵しても楽音を発しない(または「コン」というリズム音のみ発音する)ようにし、テンポ決定のためのノートオンメッセージの入力とする。この場合、後述する発音指示データ決定処理(s15)においては発音指示データの決定を行わない(または上記リズム音を発音するように決定する)ものである。したがって、5回目の演奏タイミングで初めて演奏曲データの読み出しをし、発音指示データが決定され、演奏が進行することとなる。なお、上記テンポ決定の動作のためのノートオンメッセージの入力のうち、最先のものについては、前回の演奏タイミングが存在しないため、s11で時間差算出はされない。
次に、制御部12は、s11で算出した時間差が、所定の閾値以上であるか否かを判断する(s12)。閾値は、前回の演奏タイミングで更新された値によって決定(後述、s17の処理)されるようにしてもよいし、1曲の演奏で固定であってもよい。閾値以上であれば、今回の打鍵を正しい演奏操作であると判断し、s13〜s17の処理を行う。閾値未満であれば、操作ミスであると判断して図5の動作を終える。なお、上述したように、演奏パート割り当て後の最初のノートオンメッセージの入力(上記テンポ決定の動作のためのノートオンメッセージの入力のうち、最先のもの)については、前回の演奏タイミングが存在しないため、この判断においては正しい演奏操作であるとして、s13〜s17の処理を行う。
次に、制御部12は、ノートオンメッセージ入力タイミングの時間差の移動平均を算出する(s13)。上述したように、直近の演奏操作について最も重み付けを大きくし、過去の演奏操作になるほど重み付けを小さくする重み付き移動平均を算出すればよい。その後、算出した移動平均値に基づいて所定時間長(例えば1拍分)のテンポ・タイミングを決定する(s14)。この決定したテンポ・タイミングで所定時間長の演奏曲データを読み出し、発音すべき楽音の音長、音量、音色、効果、音高変化や、テンポ等が含まれる発音指示データを決定する(s15)。この決定した発音指示データを演奏端末2に送信する(s16)。なお、上記テンポ決定の動作のためのノートオンメッセージ入力である場合は、発音指示データの決定を行わない(または上記リズム音を発音するように決定する)ものである。この場合、無論s14のテンポ決定はされない。
最後に、算出した移動平均値から閾値を更新する(s17)。上述したように、移動平均値の半分の時間を閾値として更新すればよい。なお、演奏パート割り当て後の最初のノートオンメッセージの入力については、移動平均値が算出されていないため、閾値の更新は行わない。あるいは、予め定めた所定の値に更新するようにしてもよい。また、1曲の演奏で固定である場合はこの閾値更新処理は実行しない。また、演奏曲データに記載されているテンポデータに基づいて、閾値の初期値が予め設定されるようにしてもよいし、ファシリテータがマニュアルで閾値の初期値を設定するようにしてもよい。この場合、最初の打鍵が検出されたタイミングより所定時間(例えば閾値の2倍)前に、仮想的に前回の打鍵が有ったとすればよい。このようにすることで、最初の打鍵時から誤打鍵検出を行うことができる。したがって、各演奏者は、最初の打鍵から演奏操作のミスを気にすることなく演奏を楽しめる。
以上のようにして、ノートオンメッセージ入力タイミングの時間差に閾値を設け、ノートオンメッセージの入力タイミングの時間差がこの閾値未満である場合はs13〜s17の処理を行わない(すなわち無視する)ことで演奏操作のミスが有ってもテンポが乱れずに、楽器の操作に不慣れな者であっても安心して演奏を楽しめる。
なお、本実施形態は、以下のような変形例が可能である。図6は、変形例における演奏曲データ、演奏者の打鍵、ノートオンの受信時間差の関係を示す図である。同図(A)は、演奏端末2から送信される音高を示す情報(ノートナンバ)を用いて操作ミスを検出する例について説明する図である。図5に示した時間関係と共通する部分については同一の時間記号(Δt1〜Δt7)を付し、その説明を省略する。
演奏者が演奏端末2の鍵盤23の各鍵を打鍵すると、ノートオンメッセージがコントローラ1に送信される。このノートオンメッセージには、ノートナンバの情報が含まれている。例えば、打鍵1、打鍵2のノートオンメッセージにはノートナンバ68の情報が含まれている。
制御部12は、ノートオンメッセージを受信すると、前回のノートオンメッセージ受信タイミング(打鍵1のタイミング)と今回のノートオンメッセージ受信タイミング(打鍵2のタイミング)の時間差Δt2を算出する。この時間差Δt2を所定の閾値Δt5と比較する。打鍵間の時間差Δt2が所定の閾値Δt5以上であれば、今回の打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。
そして決定したタイミング・テンポで1拍分の演奏曲データを読み出し、発音指示データを決定する。決定した発音指示データは演奏端末2に送信される。また、制御部12は、時間差Δt2に基づいて閾値を更新する。更新した閾値が次回ノートオンメッセージが入力されたときの閾値Δt6となる。
次に、同図において誤打鍵1(打鍵2の演奏操作をしたときに誤って打鍵されたもの)によるノートオンメッセージが入力されたとき、上記と同様に、前回のノートオンメッセージの受信タイミング(打鍵2のタイミング)と今回のノートオンメッセージの受信タイミング(誤打鍵1のタイミング)の時間差Δt4を算出する。この時間差Δt4を閾値Δt6と比較する。時間差Δt4が閾値Δt6未満であれば、さらに、今回のノートオンメッセージ(誤打鍵1)に含まれるノートナンバを前回のノートオンメッセージ(打鍵2)に含まれるノートナンバと比較する。その結果、今回のノートオンメッセージ(誤打鍵1)のノートナンバが、前回の打鍵2のノートナンバ68に隣接するノートナンバ69(または67)であれば、操作ミスであると判断して今回のノートオンメッセージを無視する。
次の打鍵3によるノートオンメッセージが入力されたときは、打鍵2と打鍵3の時間差Δt3を算出し、この時間差Δt3と閾値Δt6を比較する。時間差Δt3が閾値Δt6以上であれば、この打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。その結果、打鍵3によって発音指示データが決定される。また、時間差Δt3に基づいて閾値を更新する。次回のノートオンメッセージが入力されたときの閾値Δt7は、Δt7=Δt3/2で更新される。
次に、打鍵4によるノートオンメッセージが入力されたときは、打鍵3と打鍵4の時間差Δt8を算出し、この時間差Δt8と閾値Δt7を比較する。時間差Δt8が閾値Δt7未満であれば、さらに、今回のノートオンメッセージ(打鍵4)に含まれるノートナンバを前回のノートオンメッセージ(打鍵3)に含まれるノートナンバと比較する。その結果、今回のノートオンメッセージ(打鍵4)のノートナンバが、前回の打鍵3のノートナンバ68に隣接しないノートナンバ(同図においては38)であれば、正しい演奏操作であると判断してタイミング・テンポを決定する。その結果、打鍵4によって発音指示データが決定される。
このように、ノートオンメッセージの入力タイミングの時間差だけでなく、ノートナンバが隣接するか否かで操作ミスを検出するようにしてもよい。操作ミスで誤打鍵される場合は、隣接する鍵が押されるため、操作ミスの判断を前回の打鍵の隣接鍵に限定すればよい。このようにすることで、誤打鍵の判断をより正確に行うことができる。
図6(B)は、演奏端末2から送信されるノートオフメッセージを用いて操作ミスを検出する例について説明する図である。図6(A)に示した時間関係と共通する部分については同一の時間記号(Δt1〜Δt8)を付し、その説明を省略する。
演奏者が演奏端末2の鍵盤23の各鍵を打鍵すると、ノートオンメッセージがコントローラ1に送信され、演奏者が上記打鍵した鍵を離すと、ノートオフメッセージがコントローラ1に送信される。
制御部12は、ノートオンメッセージを受信すると、前回のノートオンメッセージ受信タイミング(打鍵1のタイミング)と今回のノートオンメッセージ受信タイミング(打鍵2のタイミング)の時間差Δt2を算出する。この時間差Δt2を所定の閾値Δt5と比較する。打鍵間の時間差Δt2が所定の閾値Δt5以上であれば、今回の打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。
そして決定したタイミング・テンポで1拍分の演奏曲データを読み出し、発音指示データを決定する。決定した発音指示データは演奏端末2に送信される。また、制御部12は、時間差Δt2に基づいて閾値を更新する。更新した閾値が次回ノートオンメッセージが入力されたときの閾値Δt6となる。
次に、同図において誤打鍵1(打鍵2の演奏操作をしたときに誤って打鍵されたもの)によるノートオンメッセージが入力されたとき、上記と同様に、前回のノートオンメッセージの受信タイミング(打鍵2のタイミング)と今回のノートオンメッセージの受信タイミング(誤打鍵1のタイミング)の時間差Δt4を算出する。この時間差Δt4を閾値Δt6と比較する。時間差Δt4が閾値Δt6未満であれば、さらに、前回の打鍵2のノートオフメッセージを受信済みであるか否かを判断する。前回の打鍵2のノートオフメッセージが受信されていなければ、操作ミスであると判断して今回のノートオンメッセージを無視する。
次の打鍵3によるノートオンメッセージが入力されたときは、打鍵2と打鍵3の時間差Δt3を算出し、この時間差Δt3と閾値Δt6を比較する。時間差Δt3が閾値Δt6以上であれば、この打鍵を正しい演奏操作であると判断し、タイミング・テンポを決定する。その結果、打鍵3によって発音指示データが決定される。また、時間差Δt3に基づいて閾値を更新する。次回のノートオンメッセージが入力されたときの閾値Δt7は、Δt7=Δt3/2で更新される。
次に、打鍵4によるノートオンメッセージが入力されたときは、打鍵3と打鍵4の時間差Δt8を算出し、この時間差Δt8と閾値Δt7を比較する。時間差Δt8が閾値Δt7未満であれば、さらに、前回の打鍵3のノートオフメッセージを受信済みであるか否かを判断する。前回の打鍵3のノートオフメッセージを受信済みであれば、正しい演奏操作であると判断してタイミング・テンポを決定する。その結果、打鍵4によって発音指示データが決定される。
このように、前回の打鍵によるノートオフメッセージが入力されているか否かで操作ミスを検出するようにしてもよい。操作ミスで誤打鍵される場合は、隣接する鍵が略同時で押されるため、操作ミスの判断を前回の打鍵のノートオフメッセージが受信されていない場合に限定すればよい。このようにすることで、誤打鍵の判断をより正確に行うことができる。
また、発生時間差やノートナンバの差、ノートオフメッセージの有無だけでなく、打鍵/離鍵のロジック(すなわち、打鍵、離鍵の順)を誤打鍵の判断基準としてもよい。例えば、ある1つの鍵が打鍵された後、その鍵が離鍵する前に、他の鍵の打鍵が続けて複数された場合、誤打鍵と判断する、等である。
また、さらに、演奏端末2から送信される操作信号に含まれる打鍵の強さを示す情報(ベロシティ)を用いて操作ミスを検出するようにしてもよい。上記のように、ノートオンメッセージの入力タイミングの時間差が閾値未満であった場合、さらに前回の打鍵のベロシティと今回の打鍵のベロシティを比較し、今回の打鍵のベロシティが前回の打鍵のベロシティと略同一(ベロシティ値の差が所定の値内)であれば、今回の打鍵を操作ミスとして判断するようにしてもよい。
なお、コントローラ1の制御部12は、操作ミスによる打鍵の回数を各演奏端末2毎に集計し、1曲の演奏を終えた後に、これをログとしてHDD13に記録しておくこともできる。ファシリテータは、このログを参照することで、各演奏者の習熟度を把握することができる。さらに、制御部12は、ログに記録されている操作ミスによる打鍵回数に基づいて閾値を決定する。操作ミスによる打鍵回数が多い演奏端末2(演奏者が初心者である場合等)については閾値を大きく設定し、操作ミスによるテンポ変化が無く演奏が乱れないようにする。逆に操作ミスによる打鍵回数が少ない演奏端末2(演奏者が初心者である場合等)については閾値を小さく設定し、大きなテンポ変化の演奏表現を実現できるようにする。
なお、本実施形態の合奏システムは、ノートオンからノートオフまでのゲートタイムをテンポ決定に考慮することで、以下のような演奏表現を実現することもできる。例えば、コントローラ1の制御部12(シーケンス部51)は、ある打鍵の時のみ短くポンと押された場合、その拍分の各音の音長を短く決定し、一方でゆったりと押された場合その拍分の各音の音長を長く決定する。これにより、演奏端末2によって、テンポは大きく変化しないが各音の歯切れをよくする演奏表現(スタッカート)を実現したり、テンポを大きく変化させずに音の長さを保つ演奏表現(テヌート)を実現したりすることができる。
なお、スタッカートやテヌートが効く鍵と効かない鍵とが鍵盤23において分けられてもよい。コントローラ1は、特定の鍵(例えばE3)からのノートオンメッセージ、ノートオフメッセージが入力された場合のみ、テンポを保ちながら音長を変化させるようにすればよい。
合奏システムの構成を示すブロック図 コントローラ1の構成を示すブロック図 演奏端末2の構成を示すブロック図 演奏曲データ、演奏者の拍打ベロシティ、ボリューム指定値の関係を示す図 発音指示データ決定動作を示すフローチャート 変形例に係る演奏曲データ、演奏者の拍打ベロシティ、ボリューム指定値の関係を示す図
符号の説明
1−コントローラ
2(2A〜2F)−演奏端末

Claims (7)

  1. 使用者の演奏操作により、自動演奏の演奏タイミングの指示情報を含む演奏操作情報を発生する演奏操作子と、
    各楽音の音符情報のシーケンスデータからなる演奏曲データを記憶する記憶手段と、
    前記演奏操作情報の発生毎に、その前に発生した演奏操作情報との時間差に基づいて自動演奏のテンポを算出し、このテンポで前記演奏曲データを前記記憶手段から読み出す演奏制御手段と、
    を備えた演奏制御装置であって、
    前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満であれば、今回発生した演奏操作情報を前記テンポの算出対象から除外する演奏制御装置。
  2. 前記演奏制御手段は、前記発生時間差に基づいて前記閾値を更新する請求項1に記載の演奏制御装置。
  3. 前記演奏制御手段は、前記発生時間差が前記閾値未満であった場合、今回発生した演奏操作情報を操作ミスによる演奏操作情報であるとしてカウントし、前記記憶手段にその発生回数を含む情報を記録する請求項1、または請求項2に記載の演奏制御装置。
  4. 前記演奏制御部は、前記記憶手段に記録された操作ミスによる演奏操作情報の回数を含む情報に基づいて前記閾値を決定する請求項3に記載の演奏制御装置。
  5. 前記演奏操作子は、複数の鍵を有する演奏操作子であって、使用者の演奏操作により、各鍵毎に異なるノートナンバを有する演奏操作情報を発生し、
    前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満で、かつ、今回発生した演奏操作情報のノートナンバが、前回発生した演奏操作情報のノートナンバと隣接する場合、今回発生した演奏操作情報を前記テンポの算出対象から除外する請求項1乃至請求項4のいずれかに記載の演奏制御装置。
  6. 前記演奏操作子は、前記使用者の演奏操作毎に、当該演奏操作の開始時にノートオンメッセージを、当該演奏操作の終了時にノートオフメッセージを、前記演奏操作情報に含めて発生し、
    前記演奏制御手段は、前記演奏操作情報の発生時間差が所定の閾値未満で、かつ、前回発生した演奏操作情報のノートオフメッセージが発生していない場合に、今回発生した演奏操作情報を前記テンポの算出対象から除外する請求項1乃至請求項5のいずれかに記載の演奏制御装置。
  7. 使用者の演奏操作により、自動演奏の演奏タイミングの指示情報を含む演奏操作情報を発生する演奏操作子と、
    各楽音の音符情報のシーケンスデータからなる演奏曲データを記憶する記憶手段と、を備えた演奏制御装置に、
    前記演奏操作情報の発生毎に、その前に発生した演奏操作情報との時間差に基づいて自動演奏のテンポを算出し、このテンポで前記演奏曲データを前記記憶手段から読み出す処理と、
    前記演奏操作子が発生した演奏操作情報の発生時間差が所定の閾値未満であれば、今回発生した演奏操作情報を無視する処理と、
    を実行させるプログラム。
JP2006080951A 2006-03-23 2006-03-23 演奏制御装置、およびプログラム Expired - Fee Related JP4320782B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006080951A JP4320782B2 (ja) 2006-03-23 2006-03-23 演奏制御装置、およびプログラム
US11/689,526 US7633003B2 (en) 2006-03-23 2007-03-22 Performance control apparatus and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006080951A JP4320782B2 (ja) 2006-03-23 2006-03-23 演奏制御装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2007256631A true JP2007256631A (ja) 2007-10-04
JP4320782B2 JP4320782B2 (ja) 2009-08-26

Family

ID=38573737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006080951A Expired - Fee Related JP4320782B2 (ja) 2006-03-23 2006-03-23 演奏制御装置、およびプログラム

Country Status (2)

Country Link
US (1) US7633003B2 (ja)
JP (1) JP4320782B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217230A (ja) * 2009-03-13 2010-09-30 Casio Computer Co Ltd 電子楽器および自動演奏プログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190426B2 (ja) * 2004-01-08 2008-12-03 ローランド株式会社 電子打楽器
US7565261B2 (en) * 2006-09-29 2009-07-21 Hewlett-Packard Development Company, L.P. Generating an alert to indicate stale data
EP2043088A1 (en) * 2007-09-28 2009-04-01 Yamaha Corporation Music performance system for music session and component musical instruments
JP5121487B2 (ja) * 2008-02-12 2013-01-16 任天堂株式会社 楽曲修正プログラムおよび楽曲修正装置
US8723011B2 (en) * 2011-04-06 2014-05-13 Casio Computer Co., Ltd. Musical sound generation instrument and computer readable medium
US9646587B1 (en) * 2016-03-09 2017-05-09 Disney Enterprises, Inc. Rhythm-based musical game for generative group composition
JP6642714B2 (ja) * 2016-07-22 2020-02-12 ヤマハ株式会社 制御方法、及び、制御装置
JP7143576B2 (ja) * 2017-09-26 2022-09-29 カシオ計算機株式会社 電子楽器、電子楽器の制御方法及びそのプログラム
US11749240B2 (en) * 2018-05-24 2023-09-05 Roland Corporation Beat timing generation device and method thereof
JP2022178747A (ja) * 2021-05-21 2022-12-02 カシオ計算機株式会社 電子楽器、電子楽器の制御方法及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04133097A (ja) * 1990-09-25 1992-05-07 Yamaha Corp テンポコントローラ
JPH05289606A (ja) * 1992-04-10 1993-11-05 Casio Comput Co Ltd 演奏練習装置
JPH05303326A (ja) * 1992-04-24 1993-11-16 Casio Comput Co Ltd 演奏練習装置
JP2530744Y2 (ja) * 1990-11-29 1997-03-26 カシオ計算機株式会社 電子楽器
JP2543307Y2 (ja) * 1989-10-06 1997-08-06 カシオ計算機株式会社 電子楽器
JP3192579B2 (ja) * 1995-08-17 2001-07-30 株式会社河合楽器製作所 自動演奏装置及び自動演奏方法
JP3374692B2 (ja) * 1997-01-09 2003-02-10 ヤマハ株式会社 テンポ制御装置
JP2004101957A (ja) * 2002-09-10 2004-04-02 Yamaha Corp 動作評価装置、カラオケ装置およびプログラム
JP2004287308A (ja) * 2003-03-25 2004-10-14 Yamaha Music Foundation 演奏制御装置およびプログラム
JP2005241747A (ja) * 2004-02-24 2005-09-08 Yamaha Corp カラオケ装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61254991A (ja) * 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
DE68921262T2 (de) * 1988-07-20 1995-10-26 Yamaha Corp Elektronisches Musikinstrument mit einer automatischen Funktion zur Bestimmung der Tonart.
JP2530744B2 (ja) 1990-04-19 1996-09-04 富士通株式会社 光モジュ―ル
EP0573711A1 (en) 1992-06-12 1993-12-15 International Business Machines Corporation Data processing system
US5521324A (en) * 1994-07-20 1996-05-28 Carnegie Mellon University Automated musical accompaniment with multiple input sensors
US6372975B1 (en) * 1995-08-28 2002-04-16 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3788085B2 (ja) * 1999-01-19 2006-06-21 カシオ計算機株式会社 演奏教習装置及び演奏教習処理プログラムを記録した記録媒体
JP3666291B2 (ja) 1999-03-25 2005-06-29 ヤマハ株式会社 電子楽器
JP3695337B2 (ja) 2001-02-16 2005-09-14 ヤマハ株式会社 操作速度情報出力方法、操作速度情報出力装置および記録媒体
WO2002091352A2 (en) * 2001-05-04 2002-11-14 Realtime Music Solutions, Llc Music performance system
JP3867630B2 (ja) * 2002-07-19 2007-01-10 ヤマハ株式会社 楽曲再生システム、楽曲編集システム、楽曲編集装置、楽曲編集端末、楽曲再生端末及び楽曲編集装置の制御方法
JP3720004B2 (ja) 2002-07-22 2005-11-24 ヤマハ株式会社 音楽制御装置
JP3922224B2 (ja) * 2003-07-23 2007-05-30 ヤマハ株式会社 自動演奏装置及びプログラム
JP3915807B2 (ja) * 2004-09-16 2007-05-16 ヤマハ株式会社 奏法自動判定装置及びプログラム
US7236226B2 (en) * 2005-01-12 2007-06-26 Ulead Systems, Inc. Method for generating a slide show with audio analysis
JP4654896B2 (ja) * 2005-12-06 2011-03-23 ソニー株式会社 オーディオ信号の再生装置および再生方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2543307Y2 (ja) * 1989-10-06 1997-08-06 カシオ計算機株式会社 電子楽器
JPH04133097A (ja) * 1990-09-25 1992-05-07 Yamaha Corp テンポコントローラ
JP2530744Y2 (ja) * 1990-11-29 1997-03-26 カシオ計算機株式会社 電子楽器
JPH05289606A (ja) * 1992-04-10 1993-11-05 Casio Comput Co Ltd 演奏練習装置
JPH05303326A (ja) * 1992-04-24 1993-11-16 Casio Comput Co Ltd 演奏練習装置
JP3192579B2 (ja) * 1995-08-17 2001-07-30 株式会社河合楽器製作所 自動演奏装置及び自動演奏方法
JP3374692B2 (ja) * 1997-01-09 2003-02-10 ヤマハ株式会社 テンポ制御装置
JP2004101957A (ja) * 2002-09-10 2004-04-02 Yamaha Corp 動作評価装置、カラオケ装置およびプログラム
JP2004287308A (ja) * 2003-03-25 2004-10-14 Yamaha Music Foundation 演奏制御装置およびプログラム
JP2005241747A (ja) * 2004-02-24 2005-09-08 Yamaha Corp カラオケ装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010217230A (ja) * 2009-03-13 2010-09-30 Casio Computer Co Ltd 電子楽器および自動演奏プログラム

Also Published As

Publication number Publication date
US7633003B2 (en) 2009-12-15
JP4320782B2 (ja) 2009-08-26
US20070234882A1 (en) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4320782B2 (ja) 演奏制御装置、およびプログラム
JP5169328B2 (ja) 演奏処理装置及び演奏処理プログラム
JP4752425B2 (ja) 合奏システム
JP2022063777A (ja) 演奏情報予測装置、有効弦振動判定モデル訓練装置、演奏情報生成システム、演奏情報予測方法及び有効弦振動判定モデル訓練方法
JP4797523B2 (ja) 合奏システム
JP5040927B2 (ja) 演奏教習装置及びプログラム
JP4692189B2 (ja) 合奏システム
US7405354B2 (en) Music ensemble system, controller used therefor, and program
US7838754B2 (en) Performance system, controller used therefor, and program
JP2008076708A (ja) 音色指定方法、音色指定装置及び音色指定のためのコンピュータプログラム
JP4131279B2 (ja) 合奏パラメータ表示装置
JP4259532B2 (ja) 演奏制御装置、およびプログラム
JP4891135B2 (ja) 評価装置
JP3551014B2 (ja) 演奏練習装置、演奏練習方法及び記録媒体
KR200255782Y1 (ko) 악기 연주연습이 가능한 영상가요 반주장치
JP3005915B2 (ja) 電子楽器
JP4211854B2 (ja) 合奏システム、コントローラ、およびプログラム
JPH06301333A (ja) 演奏教習装置
JP3259602B2 (ja) 自動演奏装置
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
US20150075355A1 (en) Sound synthesizer
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP6065827B2 (ja) 楽音演奏装置及び楽音演奏処理プログラム
JPH1185170A (ja) カラオケ即興演奏システム
JP2021026141A (ja) コード検出装置及びコード検出プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090403

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees