JP4001091B2 - 演奏システム及び楽音映像再生装置 - Google Patents

演奏システム及び楽音映像再生装置 Download PDF

Info

Publication number
JP4001091B2
JP4001091B2 JP2003319320A JP2003319320A JP4001091B2 JP 4001091 B2 JP4001091 B2 JP 4001091B2 JP 2003319320 A JP2003319320 A JP 2003319320A JP 2003319320 A JP2003319320 A JP 2003319320A JP 4001091 B2 JP4001091 B2 JP 4001091B2
Authority
JP
Japan
Prior art keywords
time
signal
click
data
pulse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003319320A
Other languages
English (en)
Other versions
JP2005084578A (ja
Inventor
春喜 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003319320A priority Critical patent/JP4001091B2/ja
Priority to US10/910,017 priority patent/US7129408B2/en
Publication of JP2005084578A publication Critical patent/JP2005084578A/ja
Application granted granted Critical
Publication of JP4001091B2 publication Critical patent/JP4001091B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Synchronizing For Television (AREA)

Description

本発明は、送信側から例えば遠隔地の受信側に演奏データとオーディオビデオ信号を送信して、該受信側で演奏データに基づく楽音と該オーディオビデオ信号に基づく映像を再生する演奏システム及び楽音映像再生装置に関する。
従来、この種の演奏システムは、例えば自動演奏ピアノを使った遠隔コンサートや遠隔レッスンなどを行うために開発されている。図7は従来の演奏システムの概略図であり、送信側のコントローラ51と受信側のコントローラ61、送信側のビデオフォン52と受信側のビデオフォン62は、インターネット10でそれぞれ接続されている。送信側の例えば鍵盤式の電子楽器53の演奏で発生する演奏データ(MIDIデータ)はコントローラ51に入力され、コントローラ51は内部時計51aを参照してMIDIデータが発生した時刻をタイムスタンプとしてMIDIデータに付加し、これらのデータをパケットセンドモジュール51bからパケットデータとして送信する。また、ビデオフォン52で再生されるオーディオビデオ信号は(例えばストリーミングシステムやビデオ会議システムにより)受信側のビデオフォン62に送信される。
受信側のコントローラ61は、インターネット10を介して送信されるパケットデータをパケットレシーブモジュール61bで受信し、MIDIデータを抽出してMIDIアウトバッファ61cに格納する。このMIDIデータは内部時計61aとタイムスタンプとに基づいてMIDI出力のタイミングを調整して電子楽器63に出力し、電子楽器63でMIDIデータに基づく楽音を発生する。また、受信側のビデオファン62は、受信するオーディオビデオ信号に基づいて映像を再生する。
ここで、例えば遠隔コンサートの場合、送信側でプレーヤが電子楽器53を演奏するとともに、その映像を撮影してそのときのMIDIデータとオーディオビデオ信号を受信側に送信するが、このとき、受信側において発生する楽音と再生する映像とは同期していることが要求される。このことは、遠隔レッスンの場合も同様である。なお、1つのシステム内にMIDIデータとオーディオビデオ信号を送信するものを収めたシステムは、ほとんど実現されていないとともに、別のシステムにしておいたほうが伝送系の選択自由度が増すことから、それぞれ別系統の通信システム(異なる伝送系統)で送受信される。
そこで従来は、受信側において映像と楽音とを同期させるために、MIDIデータか映像のどちらか(あるいは両方)にディレイを入れて、そのディレイ時間を調整することで映像と楽音との同期再生を行うようにしている。この場合、ディレイ時間の調整は、映像と自動演奏を同時に再生し、オペレータが目と耳をたよりに手動で調整する必要があった。また、映像や楽音のどちらかの経路(伝送系統)が通信状態や送受信ソフトの影響で同期がずれた場合には、再度ディレイ時間の調整を実施する必要があり、長時間の安定した同期を確保することが困難である。なお、通信開始時に同期を合わせるだけの場合には、長時間後に映像と楽音との時間ずれが生じてしまう。
なお、異なるデータを同期して再生する技術として、本出願人が先に出願した特願平2002−7873号のもの、あるいは本出願人が提案し特開2003−208164号公報に開示されたものがあるが、これらの技術は特に記録媒体(メディア)に記録したデータの再生に適したものであり、CDレベルのオーディオクオリティが要求されるため、ネットワーク等の通信システムでリアルタイムに送受信及び再生するためには、改良の余地を残している。
特開2003−208164号公報
ここで、送信側の内部時計に基づいてLTC(絶対時間をオーディオ信号に変調したコード)を生成し、このLTCをオーディオビデオ信号で受信側に送信し、受信側でこのLTCを復号して絶対時間を得、この絶対時間とMIDIデータに付加されたタイムスタンプとに基づいて同期を取ることも考えられる。しかし、このように、LTCを送信する場合は、オーディオビデオ信号を送信する伝送系統がブロードバンドを前提とした高品質なシステムであれば可能であるが、例えばビデオ会議システムなどのように低品質な(圧縮率が高い)システムでは、LTCを復号できないという問題がある。
本発明は、MIDIデータ等の演奏データとオーディオビデオ信号を別系統の伝送系統で送受信するシステムにおいて、オーディオビデオ信号の伝送系統が低品質であっても、受信側で演奏データによる楽音とオーディオビデオ信号による映像とを自動的に同期させ、例えば長時間後でも同期が確保できるようにすることを課題とする。
本発明の請求項1の演奏システムは、送信側では、MIDIデータ等の演奏データが発生するとパケット通信等による第1伝送系統で送信する。また、所定間隔でクリック音等のパルス信号を発生して、このパルス信号をオーディオビデオ信号のオーディオ信号にて第2伝送系統で送信するとともに、コントローラの内部時計等に基づいて各パルス信号の発生時刻を示すパルス時間データをパルス信号に対応させて第1伝送系統から送信する。受信側では、パルス信号とこれに対応するパルス時間データとを検出し、このパルス信号の受信タイミングをパルス時間データが示す時刻とし、計時手段(内部時計等)を補正する。なお、「オーディオビデオ信号」とは映像用のビデオ信号に音声用のオーディオ信号が付加された信号のことである。また、請求項2の楽音映像再生装置は上記受信側の構成とする。
パルス信号は伝送系統が低品質であっても確実に送信でき、受信側においてもこのパルス信号を容易に検出することができる。また、このパルス信号に対応するパルス時間データはMIDIデータ等と同じ伝送系統から受信できるので、パルス信号とパルス時間データをペアにして検出でき、計時手段を逐次補正することができる。パルス信号はオーディオ信号で送信するのでビデオ信号と同期している。また、このパルス信号で補正した計時手段の時間をタイムベースとして演奏データで楽音を発生するので、ビデオ信号による映像と楽音とが同期する。
本発明の請求項1の演奏システム及び請求項2の楽音映像再生装置によれば、オーディオビデオ信号の伝送系統が低品質であっても、受信側で演奏データによる楽音とオーディオビデオ信号による映像とを自動的に同期させることができ、さらに、長時間後でも同期が確保できる。
以下、図面を参照して本発明の一実施形態について説明する。図1は本発明の実施形態における演奏システム及び楽音映像再生装置の要部機能を説明する機能ブロック図である。送信側のコントローラ11及び受信側のコントローラ21はコンピュータ等で構成されており、送信側の内部時計11a、タイムスタンプ付加モジュール11b、パケットセンドモジュール11c、クリック発生モジュール11dはコントローラ11の機能である。また、受信側の内部時計21a、クリック発生時刻バッファ21b、パケットレシーブモジュール21c、MIDIアウトバッファ21d、クリックタイミング検出モジュール21eはコントローラ21の機能である。なお、内部時計21aは「計時手段」に相当し、パケットレシーブモジュール21cは「パルス時間データ受信手段」に相当し、クリックタイミング検出モジュール21eは「パルス信号受信手段」に相当する。
送信側のコントローラ11は送信開始時にクリック発生モジュール11dを起動して該クリック発生モジュール11dは一定間隔でクリック信号を発生し、このクリック信号はビデオフォン13に入力されるとともにコントローラ11で内部処理される。コントローラ11は、電子楽器12からMIDIデータが発生されると、そのMIDIデータに対して、内部時計11aを参照して得られる該MIDIデータの発生時刻を示すタイムスタンプを付加し、パケットセンドモジュール11cからパケットデータとして送信する。また、クリック信号が検出されると、このクリック信号のクリック発生時刻を示すクリックタイムデータ(パルス時間データ)を生成し、このクリックタイムデータをパケットセンドモジュール11cからパケットデータとして送信する。また、ビデオフォン13は、クリック発生部15からクリック信号が発生する毎に、そのクリック信号をオーディオ信号に含ませて送信する。なお、パケットデータにはMIDI/クリックタイムかを識別するデータがヘッダ等に記録され、受信側ではこのヘッダの情報でMIDIデータとクリックタイムデータを識別する。
受信側のコントローラ21は、パケットレシーブモジュール21cでパケットデータを受信し、そのパケットデータがMIDIデータである場合は、MIDIデータをMIDIアウトバッファ21dに格納し、パケットデータがクリックタイムデータである場合は、クリックタイムデータをクリック発生時刻バッファ21bに格納する。また、ビデオフォン23で受信したオーディオ信号から、クリックタイミング検出モジュール21eでクリック信号が検出されると、このクリック信号に対応するクリックタイムデータとにより、内部時計21aを補正する。
図2は実施形態における演奏システムのハードウエア構成を示すブロック図であり、この演奏システムでは、送信側のコントローラ11と受信側のコントローラ21とでインターネット10を介して信号の送受信を行い、送信側の電子楽器12の演奏操作により受信側の自動演奏ピアノ22でピアノの楽音を発生して遠隔コンサートを行う。また、送信側のビデオカメラ14で撮影した生演奏の映像をビデオフォン13から送信して、受信側のビデオフォン23及びディスプレイ24で映像を再生する。なお、自動演奏ピアノ22は、MIDIデータに基づいて鍵駆動用のソレノイドを制御し、打弦によりピアノ音を発生することは公知の技術である。また、アンサンブル音源25及びサウンドシステム26は、ピアノ音以外のMIDIデータにより別パート音や伴奏音を電子的に発生するためのものである。
コントローラ11からのMIDIデータ及び前記クリックタイムデータ(クリック信号のクリック発生時刻)は、インターネット10を利用したパケット通信システム(第1伝送系統)でパケットデータとしてコントローラ21に送信する。また、ビデオフォン13はビデオ信号とモノラルのオーディオ信号を圧縮して出力し、このビデオ信号とオーディオ信号は、インターネット10を利用したビデオ会議システムの伝送系統(第2伝送系統)により、ビデオフォン23に送信する。そして、このオーディオ信号にはクリック発生モジュール11dからのクリック信号(パルス信号)を含めて送信する。
図3は実施形態における時間進行に対するパケットデータとクリック信号(オーディオ信号)の関係を概念的に示す図である。クリック信号は所定間隔のパルス信号として出力される。パケットデータは主にMIDIデータ(図中「MIDI」)を送信するが、送信側でクリック信号が発生したときにクリックタイムデータ(図中「クリック」)も送信する。このクリック信号とクリックタイムデータとは、受信側でクリックタイムデータを検出するタイミングとクリック信号を検出するタイミングが略同時となるように送信することで、互いにペアとなるように対応付けられている。この対応するクリック信号とクリックタイムデータとは同時に受信できるとは限らないので所定の時間間隔内で検出されたもの同士を対応するものとする。
図4はクリック信号とクリックタイムデータの受信タイミングの差を吸収してペアを検出する例を示す図である。図4(A) のようにクリック信号が先に到来すると、そのクリック信号の立ち上がりでクリック検出信号がえられる。そこでこのクリック検出信号により、所定時間を計時するタイマを起動し、クリックタイムデータが検出されるまでの時間ΔTを計時する。そして、クリックタイムデータが検出された時点で、そのクリックタイムデータが示すクリックタイムtにタイマ値ΔTを加算した時刻を、受信側の現時刻として内部時計21aを補正する。これにより、内部時計21aはクリック信号が検出された時点でそのクリック信号に対応する(ペアの)クリックタイムデータに基づいて補正されたと同様な結果となる。なお、タイマが計時終了する所定時間は、断続的に送信(及び受信)するクリック信号間の間隔(インターバル)に応じて設定されており、このクリック信号が検出されてから所定時間内にクリックタイムデータが検出されない場合は、この検出した今回のクリック信号による補正動作を中止する。
また、図4(B) のように、クリックタイムデータが先に到来した場合は、そのクリックタイムデータが示すクリックタイムtを前記クリック発生時刻バッファ21bに記憶しておき、所定時間内にクリック信号(クリック検出信号)が検出されると、クリック発生時刻バッファ21bに記憶しているクリックタイムtを、受信側のクリック信号検出時の現時刻として内部時計21aを補正する。この場合も、クリックタイムデータが検出されてから所定時間内にクリック信号が検出されない場合は、この検出した今回のクリックタイムデータによる補正動作を中止する。
次に第2伝送系統のシステムの違い(ビデオ会議系とストリーミング系)に応じた所定時間について説明する。第1伝送系統のMIDI信号側の遅延は、ネットワーク状態によって変化する部分もあるが、通常は10〜100m秒(ミリ秒)程度である。
(ビデオ会議系)ビデオ会議系は、ビデオ側の遅延時間が200〜300m秒程度であり、ネットワーク状態によってクリックタイムデータが検出信号より先に来る場合(図4(B) )とクリックタイムデータが検出信号より後に来る場合(図4(A) )を想定してタイミング補正動作をする。クリックタイムデータが検出信号より先に来る場合には、第1伝送系統の最小遅延時間10m秒と第2伝送系統の最大遅延時間の差である300m秒弱程度の遅延時間をカバーできればよいものであり、所定時間は300+αm秒(α:数十〜200m秒)あればよい。クリックタイムデータが検出信号より後に来る場合は、上述のMIDI信号側で想定する遅延時間の範囲を超える遅延が生じた場合のものなので、仮に300m秒程度の遅延でもカバーできるものにするとすれば、所定時間は第2伝送系統の最小遅延時間の差である100m秒弱程度あればよい。なお、第1伝送系統のネットワーク状態が悪く、MIDIパケットの送信に時間がかかることを想定しているもので、このような場合には、受信した側はタイミング補正と並行して通信の停止を送信側に促したりするようにしてもよい。
(ストリーミング系)ストリーミング系は、ビデオ側の遅延が15〜30秒程度であり、第1伝送系統の遅延時間と比較して桁違いに大きいものとなっている。このため、クリックタイムデータが先に来る場合にタイミング補正動作をする。クリックタイムデータが検出信号より後に来る場合は考えられなくはないが、その場合はMIDI信号自体がエラーとして処理され同期処理には利用されない。クリックタイムデータが先に来る場合の上記所定時間は、第1伝送系統の最小遅延時間と第2伝送系統の最大遅延時間との差分の補正ができればよいのだが、上述のように第2伝送系統の遅延時間が第1伝送系統に比べて非常に長いので、所定時間は30秒+β(β:数秒)あればよい。また、クリックタイムデータが後に来る場合の上記所定時間は0に設定すればよい。なお、αとβは、いずれもビデオ系の遅延が急激に変化する可能性のある値をさす。
これらのことに基づき、所定時間とクリック信号のインターバルの例をあげると、クリック信号(オーディオビデオ信号)を送信する第2伝送系統は、この実施形態ではビデオ会議システムであり、この場合には送信から受信に係る遅延が200〜300m秒程度であり、クリック信号間の間隔(インターバル)は2秒程度に設定されている。なお、クリックタイムデータが先に来る場合に対応して想定する所定時間を「所定時間B」とし、クリックタイムデータが後に来る場合に対応して想定する所定時間を「所定時間A」とする。この場合、上記タイマにより規制する所定時間Bは例えば0.5秒程度でよい。また、所定時間Aとしては、0.1秒程度でよい。なお、この第2伝送系統としてストリーミングシステムを利用する場合は、この伝送系統は遅延が5〜20秒程度であり、クリック信号間の間隔(インターバル)は余裕を見て30秒程度に設定するとよい。この場合は上記タイマにより規制する所定時間Bは25秒程度でよく、所定時間Aは0秒でよい。
図5は送信側のコントローラ11の送信処理の要部を示すフローチャートである。先ず、ステップS11で電子楽器13からMIDIデータが発生するのを監視するとともに、ステップS12でクリック発生モジュール11dからクリック信号が発生するのを監視する。MIDIデータが発生したら、ステップS13でMIDIデータにタイムスタンプを付加し、ステップS14でパケットデータとして送信する。また、クリック信号が発生したら、ステップS16で内部時計11aからクリックタイムを取得し、そのクリックタイムデータにタイムスタンプを付加してパケットデータとして送信する。そして、処理終了の指示があれば処理を終了する。なお、クリック発生モジュール11dからのクリック信号(オーディオ信号)はビデオフォン13により、コントローラ11の処理とは独立して送信される。
図6は受信側のコントローラ21の受信処理の要部を示すフローチャートであり、この処理では、前記図4(A) 及び図4(B) の処理を併用するために、AフラグとBフラグを用いている。また、所定時間Aを計時する所定時間Aタイマ、所定時間Bを計時する所定時間Bタイマを用いている。なお、パケットレシーブモジュール21cでの受信処理は別途割込み処理により行われ、MIDIデータあるいはクリックタイムデータの受信の有無に応じた処理を行う。先ず、ステップS21でAフラグ及びBフラグを“0”にリセットし、ステップS22でMIDIデータが有るかを判定する。受信したMIDIデータが有ればステップS23で発音時刻(イベントのタイミング)の調整などのMIDIデータ処理を行ってステップS24に進む。MIDIデータがなければステップS24でクリックタイムデータが有るかを判定する。クリックタイムデータが無ければステップS25でクリック信号を検出したかを判定し、検出していなければステップS22以降を繰り返す。
ステップS24でクリックタイムデータが無く、ステップS25でクリック信号が検出されていれば、前記図4(A) の場合(クリック信号が先)であり、ステップS26でBフラグ=“1”かを判定する。このBフラグはクリックタイムデータが先の場合に“1”にセットされるので、この場合は、ステップS27に進み、前記所定時間Aタイマを起動する。そして、ステップS28でAフラグを“1”にセットする。そして、ステップS29で所定時間Aタイマが計時終了したか否かを判定し、計時を終了していればステップS21に戻ってAフラグとBフラグをリセットする。所定時間Aタイマが計時終了していなければ、ステップS201に進み、処理終了の指示がなければステップS22に戻る。
すなわち、この状態では、所定時間Aタイマによる所定時間Aの計時を行いながら、クリックタイムデータの検出を監視する。そして、所定時間A内にクリックタイムデータが検出されれば、ステップS202でAフラグ=“1”かを判定する。このAフラグはクリック信号が先の場合に“1”にセットされるので、この場合は、ステップS203に進み、クリックタイムtにタイマ値ΔTを加算して現時刻を求め、内部時計21aを補正する。そして、204でAフラグ及び所定時間Aタイマをリセットし、ステップS29に進む。
一方、クリック信号が検出される前にステップS24でクリックタイムデータが検出されていれば、前記図4(B) の場合であり、この場合は、ステップS202からステップS205に進み、前記所定時間Bタイマを起動する。次に、ステップS206でクリックタイムデータをクリック発生時刻バッファ21bに記憶し、ステップS207でBフラグを“1”にセットする。そして、ステップS29で所定時間Bタイマが計時終了したか否かを判定し、計時を終了していればステップS21に戻ってAフラグとBフラグをリセットする。所定時間Bタイマが計時終了していなければ、ステップS201に進み、処理終了の指示がなければステップS22に戻る。
この状態では、所定時間Bタイマによる所定時間Bの計時を行いながら、クリック信号の検出を監視する。所定時間B内にクリック信号が検出されれば、ステップS25からステップS26に進み、さらにステップS26からステップS208に進む。そして、ステップS208で、クリック発生時刻バッファ21bに記憶したクリックタイムtを現時刻(クリック信号検出タイミング)として、内部時計21aを補正する。そして、ステップS209でBフラグ及び所定時間Bタイマをリセットする。
このように、クリック信号の到来時にそれに対応するクリックタイムデータを現時刻とし、あるいは、クリックタイムデータが先に到来したときは、それに対応するクリック信号が到来した時点の時刻をクリックタイムデータから求め、それぞれ内部時計21aを補正している。また、クリック信号を含んでいるオーディオビデオ信号はそのクリック信号と当然に同期している(同時性が保証されている)ので、内部時計21aをタイムベースとしてMIDIデータによる自動演奏を行ったとき、この自動演奏と再生される映像とが同期したものとなる。すなわち、自動的に同期をとることができる。
なお、何らかの事情でクリック信号あるいはクリックタイムデータを受信できなかった場合(取り逃した場合)でも、次のペアあるいはその次のペアによって時計を補正することができる。このような場合でも、一旦補正されると同期外れが生じるまで(あるいは時間のズレが目立つようになるまで)、有る程度の時間がかかるので問題はない。
以上の実施形態では、遠隔コンサートを行う例について説明したが、遠隔レッスンの場合でも適用できる。また、送信側から送信するMIDIデータ、あるいはビデオ信号等は予め記憶装置や記録メディア等に記録されているものを送信するようにしてもよい。また、ストリーミングシステムのように、オーディオ信号として左右(LR)のステレオ信号を伝送できる場合は、片方のチャンネルにクリック信号を含ませて他のチャンネルで音声信号をそのまま送信するようにしてもよい。また、実施形態のようにオーディオ信号がモノラルの場合、例えば音声信号として頻繁には出現しないような周波数(例えば40Hz)のクリック信号として音声信号に含ませ、受信側でフィルタを通してクリック信号を検出するようにしてもよい。
また、実施形態では、パルス信号の間隔(インターバル)が受信側においても予め既知であり、この間隔に応じて所定時間Aタイマ及び所定時間Bタイマの計時終了時間が予め決められているものとして説明したが、送信開始から受信側である程度の数のパルス信号を検出して、それに基づいてパルス信号の間隔を検出するとともに、所定時間Aタイマ及び所定時間Bタイマの計時終了時間を決定するようにしてもよい。
なお、実施形態ではパルス信号を「クリック信号」として説明しているが、オーディオ信号に含ませて圧縮しても、復号によりパルス信号として検出できるような信号であれば、どのような信号でもよい。
なお、クリック信号(パルス信号)とその発生時刻を示すクリックタイムデータ(パルス時間データ)とを対応させる方法として、実施形態では所定時間Aタイマ及び所定時間Bタイマの計時終了内に検出されるものをペアとして対応つけるようにしている。しかし、クリック信号あるいはクリックタイムデータが到来する間隔(あるいはタイミング)は予測がつくので、この予測した所定間隔のタイミングで検出できなければ、次のペアを目標とするような方法で、クリック信号とクリックタイムデータとを対応付けるようにしてもよい。
本発明の実施形態における演奏システムの要部機能を説明する機能ブロック図である。 実施形態における演奏システムのハードウエア構成を示すブロック図である。 実施形態におけるパケットデータとクリック信号の関係を概念的に示す図である。 実施形態におけるクリック信号とクリックタイムデータの受信タイミングの差を吸収してペアを検出する例を示す図である。 実施形態における送信処理の要部を示すフローチャートである。 実施形態における受信処理の要部を示すフローチャートである。 従来の演奏システムの概略図である。
符号の説明
11…コントローラ(送信側)、11a…内部時計、12…電子楽器、13…ビデオフォン(送信側)、11d…クリック発生モジュール、21…コントローラ(受信側)、21a…内部時計、22…自動演奏ピアノ、23…ビデオフォン(受信側)

Claims (2)

  1. 送信側にて発生する演奏データを第1伝送系統で送信するとともにオーディオビデオ信号を第2伝送系統で送信し、受信側にて該演奏データとオーディオビデオ信号とを受信して計時手段の時間情報を基に該演奏データによって楽音を生成するとともに、該オーディオビデオ信号によって映像を生成する演奏システムにおいて、
    前記送信側で所定間隔のパルス信号を発生して該パルス信号を前記第2伝送系統で送信するとともに、該パルス信号の個々の信号の発生時刻を示すパルス時間データを該パルス信号の送信に対応して前記第1伝送系統で送信し、
    前記受信側で前記パルス信号と該パルス信号に対応する前記パルス時間データを受信し、該パルス信号の受信タイミングを該パルス時間データが示す時刻として前記計時手段の時間情報を補正することを特徴とする演奏システム。
  2. 第1伝送系統にて演奏データを受信して計時手段の時間情報を基に該演奏データによって楽音を生成するとともに、第2伝送系統にてオーディオビデオ信号を受信して該オーディオビデオ信号によって映像を生成する楽音映像再生装置であって、
    所定間隔で発生され前記第2伝送系統で送信されるパルス信号を受信するパルス信号受信手段と、
    該パルス信号の個々の信号の発生時刻を示すパルス時間データであって前記第1伝送系統で送信されるパルス時間データを受信するパルス時間データ受信手段と、
    を備え、
    前記パルス信号受信手段で受信したパルス信号の受信タイミングを、該パルス信号に対応して前記パルス時間データ受信手段で受信したパルス時間データが示す時刻として前記計時手段の時間情報を補正することを特徴とする楽音映像再生装置。
JP2003319320A 2003-09-11 2003-09-11 演奏システム及び楽音映像再生装置 Expired - Fee Related JP4001091B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003319320A JP4001091B2 (ja) 2003-09-11 2003-09-11 演奏システム及び楽音映像再生装置
US10/910,017 US7129408B2 (en) 2003-09-11 2004-08-02 Separate-type musical performance system for synchronously producing sound and visual images and audio-visual station incorporated therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003319320A JP4001091B2 (ja) 2003-09-11 2003-09-11 演奏システム及び楽音映像再生装置

Publications (2)

Publication Number Publication Date
JP2005084578A JP2005084578A (ja) 2005-03-31
JP4001091B2 true JP4001091B2 (ja) 2007-10-31

Family

ID=34269871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003319320A Expired - Fee Related JP4001091B2 (ja) 2003-09-11 2003-09-11 演奏システム及び楽音映像再生装置

Country Status (2)

Country Link
US (1) US7129408B2 (ja)
JP (1) JP4001091B2 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7789742B1 (en) * 1999-05-12 2010-09-07 Wilbert Q. Murdock Smart golf club multiplayer system for the internet
JP4396451B2 (ja) * 2004-08-30 2010-01-13 ヤマハ株式会社 電子楽器及び該電子楽器に接続される音源装置
US10726822B2 (en) 2004-09-27 2020-07-28 Soundstreak, Llc Method and apparatus for remote digital content monitoring and management
US20120057842A1 (en) * 2004-09-27 2012-03-08 Dan Caligor Method and Apparatus for Remote Voice-Over or Music Production and Management
US9635312B2 (en) 2004-09-27 2017-04-25 Soundstreak, Llc Method and apparatus for remote voice-over or music production and management
JP2008517305A (ja) * 2004-09-27 2008-05-22 コールマン、デーヴィッド 遠隔のボイス・オーバまたは音楽の制作と管理の方法および装置
US7189909B2 (en) * 2004-11-23 2007-03-13 Román Viñoly Camera assembly for finger board instruments
US7297858B2 (en) * 2004-11-30 2007-11-20 Andreas Paepcke MIDIWan: a system to enable geographically remote musicians to collaborate
CA2489256A1 (en) * 2004-12-06 2006-06-06 Christoph Both System and method for video assisted music instrument collaboration over distance
IL165817A0 (en) * 2004-12-16 2006-01-15 Samsung Electronics U K Ltd Electronic music on hand portable and communication enabled devices
US7853342B2 (en) * 2005-10-11 2010-12-14 Ejamming, Inc. Method and apparatus for remote real time collaborative acoustic performance and recording thereof
JP4747847B2 (ja) * 2006-01-17 2011-08-17 ヤマハ株式会社 演奏情報発生装置およびプログラム
US7723605B2 (en) 2006-03-28 2010-05-25 Bruce Gremo Flute controller driven dynamic synthesis system
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
US20070245881A1 (en) * 2006-04-04 2007-10-25 Eran Egozy Method and apparatus for providing a simulated band experience including online interaction
DE102007026531A1 (de) * 2006-10-31 2008-05-08 Siemens Ag Verfahren zur Synchronisierung von Szene-Datenfiles und Mediendatenströmen in einem unidirektionalen Datenübertragungssystem
US9053753B2 (en) * 2006-11-09 2015-06-09 Broadcom Corporation Method and system for a flexible multiplexer and mixer
JP4940956B2 (ja) 2007-01-10 2012-05-30 ヤマハ株式会社 音声伝送システム
US7649136B2 (en) * 2007-02-26 2010-01-19 Yamaha Corporation Music reproducing system for collaboration, program reproducer, music data distributor and program producer
JP4998033B2 (ja) * 2007-03-23 2012-08-15 ヤマハ株式会社 鍵駆動装置付き電子鍵盤楽器
JP5168968B2 (ja) * 2007-03-23 2013-03-27 ヤマハ株式会社 鍵駆動装置付き電子鍵盤楽器
EP2206540A1 (en) 2007-06-14 2010-07-14 Harmonix Music Systems, Inc. System and method for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
JP4623060B2 (ja) * 2007-07-18 2011-02-02 ヤマハ株式会社 波形生成装置、音響効果付与装置、および楽音発生装置
EP2043088A1 (en) * 2007-09-28 2009-04-01 Yamaha Corporation Music performance system for music session and component musical instruments
US20090204490A1 (en) * 2008-02-13 2009-08-13 Music Innovations International, Llc Online professional development system and virtual manager for performance artists
US20090249222A1 (en) * 2008-03-25 2009-10-01 Square Products Corporation System and method for simultaneous media presentation
EP2141689A1 (en) * 2008-07-04 2010-01-06 Koninklijke KPN N.V. Generating a stream comprising interactive content
WO2010085760A1 (en) * 2009-01-23 2010-07-29 The Talk Market, Inc. Computer device, method, and graphical user interface for automating the digital transformation, enhancement, and database cataloging presentation videos
US8737815B2 (en) 2009-01-23 2014-05-27 The Talk Market, Inc. Computer device, method, and graphical user interface for automating the digital transformation, enhancement, and editing of personal and professional videos
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
WO2011007293A2 (en) * 2009-07-15 2011-01-20 Koninklijke Philips Electronics N.V. Method for controlling a second modality based on a first modality
JP5630155B2 (ja) * 2009-09-14 2014-11-26 ヤマハ株式会社 記憶システムおよび記憶装置
WO2011056657A2 (en) 2009-10-27 2011-05-12 Harmonix Music Systems, Inc. Gesture-based user interface
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US9058797B2 (en) 2009-12-15 2015-06-16 Smule, Inc. Continuous pitch-corrected vocal capture device cooperative with content server for backing track mix
US8983829B2 (en) 2010-04-12 2015-03-17 Smule, Inc. Coordinating and mixing vocals captured from geographically distributed performers
US8874243B2 (en) 2010-03-16 2014-10-28 Harmonix Music Systems, Inc. Simulating musical instruments
US10930256B2 (en) 2010-04-12 2021-02-23 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
US9601127B2 (en) 2010-04-12 2017-03-21 Smule, Inc. Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s)
US20110306397A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Audio and animation blending
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
RU2544749C1 (ru) * 2011-01-07 2015-03-20 Ямаха Корпорейшн Устройство автоматического музыкального исполнения
EP2665057B1 (en) * 2011-01-11 2016-04-27 YAMAHA Corporation Audiovisual synchronisation of Network Musical Performance
US11418580B2 (en) * 2011-04-01 2022-08-16 Pure Storage, Inc. Selective generation of secure signatures in a distributed storage network
US8962967B2 (en) * 2011-09-21 2015-02-24 Miselu Inc. Musical instrument with networking capability
US9373313B2 (en) * 2012-10-04 2016-06-21 Fender Musical Instruments Corporation System and method of storing and accessing musical performance on remote server
US9236039B2 (en) * 2013-03-04 2016-01-12 Empire Technology Development Llc Virtual instrument playing scheme
JP2015132695A (ja) 2014-01-10 2015-07-23 ヤマハ株式会社 演奏情報伝達方法、演奏情報伝達システム
JP6326822B2 (ja) 2014-01-14 2018-05-23 ヤマハ株式会社 録音方法
US10008190B1 (en) 2016-12-15 2018-06-26 Michael John Elson Network musical instrument
CN106782459B (zh) * 2016-12-22 2022-02-22 湖南卡罗德钢琴有限公司 基于移动终端应用程序的钢琴自动演奏控制系统及方法
US10068560B1 (en) * 2017-06-21 2018-09-04 Katherine Quittner Acoustic-electronic music machine
FR3072207A1 (fr) * 2017-10-06 2019-04-12 Amentz Dispositif multimedia pour musicien
US10121517B1 (en) 2018-03-16 2018-11-06 Videolicious, Inc. Systems and methods for generating audio or video presentation heat maps
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces
US10825351B2 (en) * 2018-10-24 2020-11-03 Michael Grande Virtual music lesson system and method of use
CN111816146A (zh) * 2019-04-10 2020-10-23 蔡佳昱 一种电子琴的示教方法、系统、示教电子琴及存储介质
US11830464B2 (en) * 2019-12-27 2023-11-28 Roland Corporation Wireless communication device and wireless communication method
JP2022041553A (ja) * 2020-09-01 2022-03-11 ヤマハ株式会社 通信制御方法
US20240054911A2 (en) * 2020-12-02 2024-02-15 Joytunes Ltd. Crowd-based device configuration selection of a music teaching system
US11900825B2 (en) 2020-12-02 2024-02-13 Joytunes Ltd. Method and apparatus for an adaptive and interactive teaching of playing a musical instrument
US11893898B2 (en) 2020-12-02 2024-02-06 Joytunes Ltd. Method and apparatus for an adaptive and interactive teaching of playing a musical instrument

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737531A (en) * 1995-06-27 1998-04-07 International Business Machines Corporation System for synchronizing by transmitting control packet to omit blocks from transmission, and transmitting second control packet when the timing difference exceeds second predetermined threshold
US5761439A (en) * 1995-09-25 1998-06-02 Intel Corporation Method and apparatus for synchronizing communications between networked computers
US5864868A (en) * 1996-02-13 1999-01-26 Contois; David C. Computer control system and user interface for media playing devices
US6449653B2 (en) * 1997-03-25 2002-09-10 Microsoft Corporation Interleaved multiple multimedia stream for synchronized transmission over a computer network
JP3196715B2 (ja) * 1997-10-22 2001-08-06 ヤマハ株式会社 楽音情報の通信装置、通信方法、制御装置、制御方法及びプログラムを記録した媒体
US6247072B1 (en) * 1998-01-27 2001-06-12 Cisco Technology, Inc. Real-time data rate matching across a medium
JP2000020055A (ja) * 1998-06-26 2000-01-21 Yamaha Corp 楽音情報転送装置
US6121536A (en) * 1999-04-29 2000-09-19 International Business Machines Corporation Method and apparatus for encoding text in a MIDI datastream
US6480902B1 (en) * 1999-05-25 2002-11-12 Institute For Information Industry Intermedia synchronization system for communicating multimedia data in a computer network
US6857130B2 (en) * 2000-04-08 2005-02-15 Sun Microsystems, Inc. Resynchronizing media during streaming
AU2001256036A1 (en) * 2000-05-09 2001-11-20 868970 Ontario Inc. Synchronized convergence platform
US6653545B2 (en) * 2002-03-01 2003-11-25 Ejamming, Inc. Method and apparatus for remote real time collaborative music performance
CN1720748A (zh) * 2002-12-04 2006-01-11 皇家飞利浦电子股份有限公司 信号的同步

Also Published As

Publication number Publication date
JP2005084578A (ja) 2005-03-31
US7129408B2 (en) 2006-10-31
US20050056141A1 (en) 2005-03-17

Similar Documents

Publication Publication Date Title
JP4001091B2 (ja) 演奏システム及び楽音映像再生装置
KR101554399B1 (ko) 자동 연주 장치, 저장 장치, 연주 정보 출력 장치 및 연주 시스템
JP3242028B2 (ja) データ送受信方法およびシステム
JP5729393B2 (ja) 演奏システム
WO2013132562A1 (ja) 映像音声処理装置および映像音声処理方法
WO2007130410A2 (en) System and method for processing data signals
JPH1124661A (ja) 音楽演奏情報伝送方式
JP2008079114A (ja) 同期再生システム
JPH0965303A (ja) 映像音声同期方法及び装置
JP4534168B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US6757303B1 (en) Technique for communicating time information
JP4214917B2 (ja) 演奏システム
US6525253B1 (en) Transmission of musical tone information
JP3705581B2 (ja) データ送信方法および送信システム
US20070248170A1 (en) Transmitting Apparatus, Receiving Apparatus, and Reproducing Apparatus
JP3944845B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
TWI814427B (zh) 影音同步方法
US20230274623A1 (en) Method and system for synchronizing a viewer-effect signal of a media content with a media signal of the media content
WO2022168375A1 (ja) 通信方法、通信システムおよび通信装置
JPH04357735A (ja) 音声パケット通信装置
KR100808201B1 (ko) 음성/영상 데이터의 동기화 방법
JP4127799B2 (ja) 復号再生装置
JPH05252495A (ja) 放送番組の伝送方法
WO2020043493A1 (en) A system for recording an interpretation of a source media item
JP2004312419A (ja) 符号化復号化方法、符号化装置及び復号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110824

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120824

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130824

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees