JP4612541B2 - 遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム - Google Patents
遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム Download PDFInfo
- Publication number
- JP4612541B2 JP4612541B2 JP2005379201A JP2005379201A JP4612541B2 JP 4612541 B2 JP4612541 B2 JP 4612541B2 JP 2005379201 A JP2005379201 A JP 2005379201A JP 2005379201 A JP2005379201 A JP 2005379201A JP 4612541 B2 JP4612541 B2 JP 4612541B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- delay
- musical
- delay time
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
この遠隔地合奏を行う方法として、従来からネットワークによる遅延時間分の時間遅らせて同時に楽音を発生させる考え方が知られている。その方法の一つである非特許文献1に示されている技術を図12を参照して説明する。
図12は、ネットワークを介した異なる地点であるサイトAとサイトBの演奏者が、例えば12小節のブルース進行などの、同一のコード進行の繰り返しを、テンポ一定で演奏する様子を示す図である。
同様に楽音の同時発音に拘った特許文献1に開示された技術を図13に示す。電子楽器端末13Aと13Bは、ネットワークを介した離れた地点に位置し、時刻t1で電子楽器端末13Aが演奏動作を行なう(S131)。その演奏動作によって生成されたMIDIファイルは、別に測定したネットワーク上の遅延時間(Δtnet)以上の遅延時間であるΔT後(ΔT>Δtnet)の楽音を発生させたい時刻t4の時刻情報と共にパケット(packet)化され、電子楽器端末13Bに送信される(S132)。その楽音を発生させたい時刻情報t4とMIDIファイルから成るパケットを受信した電子楽器端末13Bは(S133)、電子楽器端末13Aの楽音を、時刻t4において発生する(S134)。電子楽器13Aでは、同時刻の時刻t4で自身の楽音を発生させる(S135)。
RMCP:遠隔音楽制御用プロトコルを中心とした音楽情報処理;情報処理学会論文誌Vol.40,No.3,情報処理学会,pp.1335-1345(1999)(図6)
非特許文献1の技術では、そもそも一定のリズムを刻む一部のパートのMIDIファイルの交換を行なうものであり、サイトAとBにおいて同じ音楽を共有することができない。つまり、MIDIファイルを交換した同一コード進行の一部の旋律のみを共有するものであって、本来の合奏が実現できない。
また、特許文献1の技術では、一方の演奏動作に基づく楽音情報を、ネットワークの遅延時間以上遅らせて発音させる時刻情報と共に他方に送信することで、両方で同時刻に楽音を発生させる記載が見られる。しかし、他方の楽器をどのように演奏したら合奏出来るのかについての記載がない。特許文献1の段落〔0025〕に、「電子楽器端末13Bの演奏音を13Aで発生させる場合も、同様の処理を行なえばよい」との記載があるだけで、ネットワークを介して送信されて来る演奏音に自身の楽音をどのようにして同期させるのか、についての記載が一切ない。つまり、遠隔地間で楽音は同時に発生するが、演奏者同士が一体感を感じる合奏演奏を行なうための技術は何ら示されてない。
[第1実施形態]
電子楽器α(以下、電子は省略し単に楽器と称す)は、例えば電子ピアノのキーボードである演奏入力手段12と、その演奏入力信号が入力されるマイクロプロセッサ(microprocessor)ICで構成される楽器制御MPU14と、楽器制御MPU14(以下MPU14と略す)に遅延時間を設定する遅延時間設定手段16と、MPU14が出力するMIDIデータに基づく楽音信号を生成する楽音生成手段18と、楽音信号を音響信号に変換するスピーカー20とで構成される。
演奏者が演奏入力手段12を操作すると、演奏入力手段12は直に楽音情報生成手段12aによって楽器αの楽音情報を、例えばMIDIファイル形式で生成し、MPU14に入力する。そのMIDIファイルは、演奏情報として送信手段14aによってネットワーク10を介して別の場所にある楽器βに送信される。この楽音情報生成手段12aは、MPU14の中に設けられていても良い。その場合、MPU14には演奏入力手段12からの単純な操作信号のみが入力される。
つまり、遠く離れた場所にある楽器βからの演奏情報は、そのMIDIファイルが受信されたと同時に楽音生成手段18によって楽音信号に変換されるが、自身(楽器α)の演奏操作に基づく入力楽音情報は、遅延手段14bによって所定の時間遅らされた後に楽音信号に変換されるように構成されている。
この設定行為は、楽器αとβの演奏者が電話等で連絡を取り合って行なう。或いは、わざわざ電話するのではなく、今、楽器αとβとの間はパケット通信によって接続されているので、その通信環境に合奏のための演奏情報の他に音声情報や画像情報を乗せることで、音声又は、音声と画像によって、それぞれの演奏者が連携を取って遅延量の設定を行なうことも可能である。
[この発明の基本原理]
ここで、この発明の基本原理について述べる。図2(a)は、上記した楽器αからβへの往路の所要時間が例えば20msで復路が例えば180msの遅延時間の時に、楽器αで演奏入力動作(例えば鍵盤を1回押す動作)をした場合に、地点Aと地点Bで得られる楽音のタイミングを示した図である。つまり、ネットワーク上の通信の往復遅延時間を表している。
このA地点におけるB音に時刻taの演奏操作に基づくA音を、同期させるためには、演奏操作から200ms後に楽音を発生させなければならない。
これでは、楽器αの演奏者は自分の演奏動作とその動作に基づく楽音とのタイミングのずれが大きく違和感も大きい。また、それぞれの地点で演奏される楽音が同期して混合されないと合奏にならない。
そう設定した状態で、図2(b)に示すように楽器βの演奏者が、A音(以下楽音Bα1と表記する。B地点における楽音α1の意味である)に自身の楽器βの楽音が同期して発生するように演奏入力を行なう。音楽は一定のリズムとテンポで楽音が刻まれるので、楽音Bα1よりも過去の音を聞いてそれを行なうのは容易である。楽音Bα1に楽器βの演奏が同期すると、図2(b)に示すようにtaよりも80ms早い時刻において演奏入力β1が行なわれる。演奏入力β1に基づく楽器βの楽音Bβ1は、今、遅延時間が100msに設定されているので、taから20ms後に発生する楽器αの楽音Bα1と同時に発生する。
このように地点AとBでは、同時刻で同一の楽音は発生しないが、それぞれの地点において同一の音楽を共有することが可能になる。同一の音楽を共有するためには、楽器αとβに設定する遅延時間の和をネットワークの往復遅延時間以上にする必要がある。その関係が保たれれば、自身の演奏操作のタイミングから一定時間遅れて発生する自身の楽音に、他人の楽音を同期させることが出来る。この結果、自分の演奏操作がそれに同期したような錯覚を演奏者にもたらすことができる。
この発明の遅延時間設定手段16の一具体例を図3に示し、この実施例1の動作を更に詳しく説明する。
演奏入力手段12からの入力楽音情報は、ロータリースイッチ16aによって設定された遅延時間分、遅れて楽音生成手段18に伝達されるので、演奏操作から遅れてスピーカー20から楽音音響信号が出力される。
演奏入力手段12に演奏者からの演奏入力があると入力楽音情報が生成され、MPU14は割込み有りとして動作を開始する(ステップS40)。その割込みは、ステップS41で楽音割込みと判断され、演奏入力手段12から入力されたMIDIファイルを送信手段14aによってネットワーク10を介して楽器βに送信する(ステップS42)。送信されたMIDIファイルは、図4には図示していないが、楽器β側で演奏情報として受信手段で受信された後、直ちに楽音生成手段において楽音信号が生成され、楽器β側のスピーカーから音響信号として出力される。
この状態でMPU14が持つ例えば10ms間隔で発生するタイマー割込みを待つ。タイマー割込みが発生すると再びMPU14は動作を開始し、ステップS47でタイマー割込みと判断され遅延手段14bに設定された遅延時間の計時処理を行う(ステップS44)。例えば、遅延時間が100msだとすると、10ms間隔のタイマー割込みを数える処理を、10回繰り返す(ルート1)。ルート1の処理を10回繰り返すと、入力楽音情報が入力されてから100msの時間が経過するので、遅延時間計時がタイムアップしたと判断され(ステップS45)、MPU14から入力楽音情報が楽音生成手段18に出力される。楽音生成手段18は、MPU14から与えられたMIDIファイルに従った楽音信号を生成しスピーカー20から音響信号として出力させる。
楽音生成手段18は、上記したようにMIDIファイルに基づく楽音信号を生成するものであり、遅延手段14bからの入力楽音情報によって楽音信号を生成する楽音生成部18aと、受信手段14cからの演奏情報によって楽音信号を生成する楽音生成部18bを別々に持ち、その2つの楽音信号を混合部18cで混合してスピーカー20の入力信号とするものである。
なお遅延時間の計時を、タイマー割込みを数えるソフトウェアタイマの例で説明したが、専用のハードウェアタイマを用いてもよい。
以上述べたように、自身の演奏操作に基づいて発生する入力楽音情報は、遅延手段14bで所定の時間、遅らされて音響信号に変換され、ネットワーク10を介して入力される他者からの演奏情報は、受信されると直ぐに音響信号に変換される。
つまり、この感覚を同期させる最初の遅延時間を実施例1で決められた遅延時間より相当大きくしておき、ある程度その大きな遅延時間に自身の感覚を順応させた後に、一気に短い遅延時間、つまり上記実施例1で決められた遅延時間に短縮する。そうすると、最終的に設定される遅延時間が例えば上記した100msと同じ時間であっても、人間の感覚としては、最初から100msに自分の感覚を合わせるよりも遅れが短くなったように感じる。
この順応現象を利用した動作(順応手段)を付加した動作フローを図5に示し、その動作を説明する。図5は、順応現象を利用した2種類の遅延時間を遅延手段14bに設定する動作を示す動作フローであり、上記した図4のステップS43〜S45の部分だけを示したものである。
最初入力フラグを“1”(論理レベル1)にセット(ステップS432)した後に、順応タイマーの計時をスタートさせる(ステップS433)、順応タイマーの計時時間は例えば3分間である。順応タイマーの計時をスタートさせた後に、遅延手段14bに大きな遅延時間例えばパケット通信の往復遅延時間以上の大きな時間、例えば300msを(TDL=300ms)遅延手段14bにセットする(ステップS434)。遅延手段14bは、タイマー割込みによってセットされた遅延時間TDL=300msを計時する(ステップS44)。同時にタイマー割込みで順応タイマーの計時処理も行なう(ステップS50)。タイマー割込み処理を繰り返し、セットされた遅延時間TDL=300msの計時を終了すると(ステップS45)、遅延手段14bはMIDIファイルを楽音生成手段18に出力する(ステップS46)。
順応タイマーがタイムアップした後の入力楽音情報に対しては、そのタイムアップを判断する処理で分岐され(ステップS435のY)順応タイマーのタイムアップフラグ(以下、JTと略す)をセット(ステップS436)した後に、遅延手段に短い、例えば100msを(TDS=100ms)を設定する(ステップS437)。
順応タイマーがタイムアップするSF,JT=“1,1”の状態においては、遅延手段14bは小さな遅延時間TDSの経過後にMIDIファイルを楽音生成手段18に出力する。
以上、図5で説明した動作を機能構成で表すと図6になる。演奏入力手段12からの入力楽音情報は、遅延手段14bを構成する演奏開始検出部60に入力される。入力楽音情報があると、演奏開始検出部60の中の例えば計時時間3分の順応タイマー60aは直ちに計時を開始すると共に、入力楽音情報を遅らせて楽音生成手段18へ出力する遅延大処理部61と遅延小処理部62とに接続される制御線63を“1”にセットする。制御線63が“1”のとき遅延大処理部61が選択され、入力楽音情報は、遅延大処理部61で遅らされて楽音生成手段18に出力される。制御線63が“0”の時は遅延小処理部62が選択され、入力楽音情報は、遅延小処理部62で遅らされて楽音生成手段18に出力される。遅延大処理部61と遅延小処理部62における遅延時間量は、遅延時間設定手段16によってそれぞれ個別に設定される。例えば、図3で説明したロータリースイッチ16aを2個設け、遅延大処理部61の大きな遅延時間、例えば300ms、遅延小処理部62の小さな遅延時間、例えば100msを個別に設定出来るようにすればよい。
順応タイマーがタイムアップする(ステップS70)と、例えば10分間を計時する再順応開始タイマーの計時をスタートさせる(ステップS71)。再順応開始タイマーが計時を開始しているときの入力楽音情報によって再順応開始タイマーをリセットさせる(ステップS73)。再順応開始タイマーの計時時間の間に、演奏入力が無いまま再順応開始タイマーがタイムアップすると(ステップS74)、JT及びSFがリセットされ(ステップS75,76)、MPU14が初期化されたときの状態であるSF,JT=“0,0”となる。
なお、再順応開始タイマーの計時する時間を例えば10分で説明したが、その値に固定されるものではなく、遠隔地同士で最初に連携を取って任意の時間幅に設定できるようにしても良い。
この遅延時間を楽器自体が測定をして自動的に設定するようにした実施例4を図1を参照してその動作を説明する。説明済みの図1に、演奏入力手段12と受信手段14cとが接続される破線で示す楽音反射時間測定手段80を設けることで、遅延手段14bが入力楽音情報を遅らせて楽音生成手段18にMIDIファイルを出力する時間を自動的に設定することが可能になる。
その動作フローを図8に示し動作を説明する。楽音反射時間測定手段80は、内部時計80aの時刻情報のタイムスタンプを付けたパケットを生成(ステップS80)し、送信手段14aを経由してネットワーク10を介して異なる場所に在る楽器βに送信する(ステップS81)。楽器βの構成は、楽器αと同一であり、以下の説明において図1に図示していない楽器βの機能構成要素には、例えば楽音反射時間測定手段β80と参照符号にβを付けて区別して標記する。
そのtβ1のタイムスタンプ付パケットは、楽器αの受信手段14cで受信される(ステップS85)。tβ1のタイムスタンプ付パケットは、受信手段14cから楽音反射時間測定手段80の楽音反射時間測定部80cに伝達される。楽音反射時間測定部80cは、楽器βに送付したパケットのタイムスタンプtα1と、受信したtα2の2つの時刻情報から楽音反射時間(tnR=tα2−tα1)を算出する(ステップS86)。次に遅延時間決定部80dが、自身の遅延手段14bに設定する第1の遅延時間tDS1をtnRから、例えばtDS1=tnR/2として算出する(ステップS87)。次に相手側である楽器βの遅延手段β14bに設定するtDS2を、同様にtDS2=tnR/2として算出する(ステップS88)。
楽器β側の遅延時間tDS2は、受信手段β14cで受信(ステップS90)され楽音反射時間測定手段β80と遅延時間設定手段β16を経由して遅延手段β14bに設定される(ステップS91)。楽器α側ではステップS92で自身の遅延時間tDS1が遅延手段14bに設定される。
また、楽音反射時間測定手段80によって測定した往復遅延時間よりも大きな時間を楽器αとβで分け合ってもこの発明は実現できるので、その例を図8中に破線で示す。ステップ86で求められた楽音反射時間tnRを元に、楽音反射時間測定手段80の中に設けられた総遅延時間決定部80cが、tnRの例えば1.5倍の総遅延時間を決定する(ステップS93)。1.5×tnRの総遅延時間を、遅延時間決定部80dが、1.5×tnRの総遅延時間を100%として60〜40%の範囲で合計が100%となるようにtDS1とtDS2を決定する(ステップS94)。
以上の動作を整理すると、楽器αでタイムスタンプ付パケットを生成するステップ80〜楽音反射時間tnRを算出するステップS86までが、往復遅延時間測定過程となる。続く、楽音反射時間tnRからそれぞれの遅延時間を求めるステップS87とステップS88が、遅延時間分割過程となり、相手側の遅延時間tDS2を送信するステップS89〜それぞれの遅延手段に遅延時間を設定するステップS92までが、遅延時間分担過程となる。これらの過程をMPU14が実行することで、自動的に自身と相手側の遅延手段14b,β14bに遅延時間を設定することが可能になる。
その処理手順を図9に示し動作を説明する。楽音反射時間測定手段80の内部に往復遅延時間再測定タイマー80bがある(図1内に破線で示す)。この往復遅延時間再測定タイマー80bは、非演奏時に計時を行なうものであり、非演奏状態が例えば1時間継続するとタイムアップし、上記した往復遅延時間測定過程〜遅延時間分担過程を実行させるように働くものである。
この動作は、必ず非演奏時に行なわれるものである。楽器αがネットワーク10に接続されていれば、この動作が行なわれる。したがって、演奏開始の度に往復遅延時間を測定してお互いに遅延時間を設定し合う動作を行なう必要がなくなる。
上記したようにネットワーク10にかかる負荷は、時間帯と曜日によって異なることが多いので、その各時間帯において1回ずつ往復遅延時間の測定を自動的に行ない、自身及び相手側の遅延時間を自動的に更新させるようにしたものである。
内部時計80aはカレンダーまで計時可能であり、各時間帯において“1”となる出力信号線によって楽音反射時間測定手段80が起動される。その時間帯としては、例えば、平日の午前の時間帯、例えば6時から12時を代表して10時に“1”となる出力信号線100a、同様に平日の14時の100b、平日の22時の100cと、週末(土日)の10時の100d、週末の14時の100e、週末の22時の100fの出力信号線によって楽音反射時間測定処理が実行される。
図1の楽音制御MPU14の中に破線で示す刺激出力遅延手段110を設けることで、音以外の例えば光等の人間に対する刺激信号を生成するようにしたものである。刺激出力遅延手段110は、遅延時間設定手段16によって遅延時間が設定され、演奏入力手段12からの入力楽音情報を遅延させて刺激出力手段111に伝達するものである。
刺激出力手段111の具体例を図11に示す。演奏者120がこの発明を適用した電子ピアノ122を演奏している。演奏者120は、図示しないスピーカーから聞こえる遠隔地からの演奏音と、刺激出力手段111のLED124の発光タイミングに自らの楽音を同期させるように演奏する。
刺激出力手段111の刺激出力としては、光以外の信号も考えられる。光以外の信号の方が好ましいことが多い。何故ならば、演奏会のように演奏者120の周りには、第三者が居ることが想定され、そのような場合は、周囲に気づかれない刺激信号の方が好ましい。
このような電気刺激を用いると、周囲に気づかれずに遠隔地との同期を取ることが可能である。
Claims (8)
- スピーカーから再生される自地点の入力楽音情報に基づく楽音信号と、スピーカーから再生されるネットワークを介して受信した他地点の演奏情報に基づく楽音信号と、が同期するように、自地点での演奏を行うための電子楽器において、
人間の動作に基づく入力楽音情報を上記ネットワークを介して上記他地点に送信する送信手段と、
上記他地点で合奏する電子楽器からの演奏情報を受信する受信手段と、
上記入力楽音情報を上記2つの地点間の通信の往復遅延時間以上の時間の40%から60%の範囲の所定の時間遅らせる遅延手段と、
上記遅延手段により遅延された入力楽音情報と、上記受信手段で受信した演奏情報とから楽音信号を生成すると共に混合する楽音生成手段と、
上記楽音生成手段で混合した楽音信号を出力するスピーカーと、
を具備することを特徴とする電子楽器。 - 請求項1に記載の電子楽器において、
上記遅延手段の遅延時間を、上記演奏開始から予め決められた所定時間の順応時間の間、上記所定の時間の遅延時間より長い遅延時間とし、上記順応時間経過後は、上記所定の時間の遅延時間とする順応手段を備えたことを特徴とする電子楽器。 - 請求項1または2に記載の電子楽器において、
上記遅延手段から楽音情報が出力されるタイミングまたは該タイミングと所定の時間差を有するタイミングで、音響以外の刺激を出力する刺激出力手段を備えたことを特徴とする電子楽器。 - 自地点の入力楽音情報に基づく刺激信号と、ネットワークを介して受信した他地点の演奏情報から生成された信号と、が同期するように、自地点での演奏を行うための電子楽器において、
人間の動作に基づく入力楽音情報を上記ネットワークを介して上記他地点に送信する送信手段と、
上記他地点で合奏する電子楽器からの演奏情報を受信する受信手段と、
上記入力楽音情報を上記2つの地点間の通信の往復遅延時間以上の時間の40%から60%の範囲の所定の時間遅らせた音と同期または所定の時間差を有する音以外の刺激信号を生成する刺激出力遅延手段と、
上記刺激出力遅延手段により生成された刺激信号を出力する刺激出力手段と、
上記受信手段で受信した演奏情報から生成された信号を出力する手段と、
を具備することを特徴とする電子楽器。 - スピーカーから再生される自地点の入力楽音情報に基づく楽音信号と、スピーカーから
再生されるネットワークを介して受信した他地点の演奏情報に基づく楽音信号と、が同期するように、自地点での演奏を行うための遠隔地における合奏方法において、
送信手段が、人間の動作に基づく入力楽音情報を上記ネットワークを介して上記他地点に送信する送信過程と、
受信手段が、上記他地点で合奏する電子楽器からの演奏情報を受信する受信過程と、
遅延手段が、上記入力楽音情報を上記2つの地点間の通信の往復遅延時間以上の時間の40%から60%の範囲の所定の時間遅らせる遅延過程と、
楽音生成手段が、上記遅延手段により遅延された入力楽音情報と、上記受信手段で受信した演奏情報とから楽音信号を生成すると共に混合する楽音生成過程と、
スピーカーが、上記楽音生成手段で混合した楽音信号を出力する音響信号発生過程と、
を有することを特徴とする遠隔地における合奏方法。 - 請求項5に記載の遠隔地における合奏方法において、
順応手段が、上記遅延過程の遅延時間を、上記演奏開始から予め決められた所定時間の順応時間の間、上記所定の時間の遅延時間より長い遅延時間とし、上記順応時間経過後は、上記所定の時間の遅延時間とする順応過程と、
を有することを特徴とする遠隔地における合奏方法。 - 自地点の入力楽音情報に基づく刺激信号と、ネットワークを介して受信した他地点の演奏情報から生成された信号と、が同期するように、自地点での演奏を行うための遠隔地における合奏方法において、
送信手段が、人間の動作に基づく入力楽音情報を上記ネットワークを介して上記他地点に送信する送信過程と、
受信手段が、上記他地点で合奏する電子楽器からの演奏情報を受信する受信過程と、
刺激出力遅延手段が、上記入力楽音情報を上記2つの地点間の通信の往復遅延時間以上の時間の40%から60%の範囲の所定の時間遅らせた音と同期または所定の時間差を有する音以外の刺激信号を生成する刺激出力遅延過程と、
刺激出力手段が、上記刺激出力遅延手段により生成された刺激信号を出力する刺激出力過程と、
出力手段が、上記受信手段で受信した演奏情報から生成された信号を出力する信号発生過程と、
を有することを特徴とする遠隔地における合奏方法。 - 請求項1乃至4の何れかに記載した電子楽器としてコンピュータを機能させるための電子楽器プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005379201A JP4612541B2 (ja) | 2005-12-28 | 2005-12-28 | 遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005379201A JP4612541B2 (ja) | 2005-12-28 | 2005-12-28 | 遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007178860A JP2007178860A (ja) | 2007-07-12 |
JP4612541B2 true JP4612541B2 (ja) | 2011-01-12 |
Family
ID=38304090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005379201A Active JP4612541B2 (ja) | 2005-12-28 | 2005-12-28 | 遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4612541B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200047252A (ko) * | 2018-10-27 | 2020-05-07 | 장순철 | 인공지능 악기 서비스 제공 시스템 |
WO2020085836A3 (ko) * | 2018-10-27 | 2020-06-18 | 장순철 | 인공지능 악기 서비스 제공 시스템 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011242560A (ja) | 2010-05-18 | 2011-12-01 | Yamaha Corp | セッション端末及びネットワークセッションシステム |
JP5585254B2 (ja) * | 2010-07-08 | 2014-09-10 | ヤマハ株式会社 | セッション端末及びネットワークセッションシステム |
JP5877973B2 (ja) | 2011-08-08 | 2016-03-08 | アイキューブド研究所株式会社 | 情報システム、情報再現装置、情報生成方法、およびプログラム |
JP6170738B2 (ja) * | 2013-05-29 | 2017-07-26 | 株式会社第一興商 | 通信デュエット時の通信方式に特徴を有する通信カラオケシステム |
JP7331826B2 (ja) * | 2020-12-17 | 2023-08-23 | カシオ計算機株式会社 | 電子機器、デバイス、システム、方法及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02204794A (ja) * | 1989-02-02 | 1990-08-14 | Ricoh Co Ltd | 合奏システム |
JPH08256161A (ja) * | 1995-03-15 | 1996-10-01 | Nec Corp | ネットワークの時刻情報同期方式 |
JPH1083184A (ja) * | 1996-07-15 | 1998-03-31 | Kawai Musical Instr Mfg Co Ltd | 自動演奏装置および該自動演奏装置を備えた電子楽器 |
JP2004325775A (ja) * | 2003-04-24 | 2004-11-18 | Kawai Musical Instr Mfg Co Ltd | 合奏用ミキシングサーバ及び合奏用演奏装置 |
JP2005128296A (ja) * | 2003-10-24 | 2005-05-19 | Yamaha Corp | オーディオ・ミキサー装置 |
JP2005195982A (ja) * | 2004-01-08 | 2005-07-21 | Yamaha Corp | 遅延制御電子楽器および合奏システム |
-
2005
- 2005-12-28 JP JP2005379201A patent/JP4612541B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02204794A (ja) * | 1989-02-02 | 1990-08-14 | Ricoh Co Ltd | 合奏システム |
JPH08256161A (ja) * | 1995-03-15 | 1996-10-01 | Nec Corp | ネットワークの時刻情報同期方式 |
JPH1083184A (ja) * | 1996-07-15 | 1998-03-31 | Kawai Musical Instr Mfg Co Ltd | 自動演奏装置および該自動演奏装置を備えた電子楽器 |
JP2004325775A (ja) * | 2003-04-24 | 2004-11-18 | Kawai Musical Instr Mfg Co Ltd | 合奏用ミキシングサーバ及び合奏用演奏装置 |
JP2005128296A (ja) * | 2003-10-24 | 2005-05-19 | Yamaha Corp | オーディオ・ミキサー装置 |
JP2005195982A (ja) * | 2004-01-08 | 2005-07-21 | Yamaha Corp | 遅延制御電子楽器および合奏システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200047252A (ko) * | 2018-10-27 | 2020-05-07 | 장순철 | 인공지능 악기 서비스 제공 시스템 |
WO2020085836A3 (ko) * | 2018-10-27 | 2020-06-18 | 장순철 | 인공지능 악기 서비스 제공 시스템 |
KR102184378B1 (ko) * | 2018-10-27 | 2020-11-30 | 장순철 | 인공지능 악기 서비스 제공 시스템 |
CN113228089A (zh) * | 2018-10-27 | 2021-08-06 | 感性波长株式会社 | 人工智能乐器服务提供系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2007178860A (ja) | 2007-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4612541B2 (ja) | 遠隔地における合奏方法及びそれに用いる電子楽器及びそのプログラム | |
CN103493512A (zh) | 双耳助听系统和提供双耳节拍的方法 | |
WO2004051599A1 (en) | Tactile metronome | |
JP4259329B2 (ja) | 演奏装置および合奏システム | |
Cáceres et al. | Playing the network: the use of time delays as musical devices | |
JP4700351B2 (ja) | マルチユーザ環境の制御 | |
JP2005010154A (ja) | 電子式メトロノーム | |
JP6305958B2 (ja) | 合奏装置、合奏システム、その方法及びプログラム | |
JP3685805B2 (ja) | 分散型リアルタイム通信システム | |
JP3307567B2 (ja) | ミュージシャン及びダンサー用電子時計 | |
JP4158638B2 (ja) | 電子音楽システム | |
JP2007158985A (ja) | 楽曲再生において立体音響効果を付加する装置およびプログラム | |
WO2022168375A1 (ja) | 通信方法、通信システムおよび通信装置 | |
JPS5918466Y2 (ja) | アンサンブル効果発生装置 | |
JP2006163119A (ja) | 電子楽器 | |
JP2006163119A5 (ja) | ||
JP2003345350A (ja) | 楽音発生システム、通信端末および音源モジュール | |
JPS62161198A (ja) | 電子楽器の発音遅延装置 | |
Martin et al. | Composing Interface Connections for a Networked Touchscreen Ensemble | |
JP2004205483A (ja) | 電子メトロノームおよびメトロノーム携帯電話 | |
JPS5912183B2 (ja) | 自動リズム演奏装置 | |
JP6170738B2 (ja) | 通信デュエット時の通信方式に特徴を有する通信カラオケシステム | |
JP2000163054A (ja) | 音楽合同練習装置 | |
JP2002257963A (ja) | ミュージシャン及びダンサー用電子時計 | |
JP2000148164A (ja) | カラオケ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090924 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4612541 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |