JP5729393B2 - 演奏システム - Google Patents

演奏システム Download PDF

Info

Publication number
JP5729393B2
JP5729393B2 JP2012552552A JP2012552552A JP5729393B2 JP 5729393 B2 JP5729393 B2 JP 5729393B2 JP 2012552552 A JP2012552552 A JP 2012552552A JP 2012552552 A JP2012552552 A JP 2012552552A JP 5729393 B2 JP5729393 B2 JP 5729393B2
Authority
JP
Japan
Prior art keywords
performance
identifier
musical instrument
time
synchronization signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012552552A
Other languages
English (en)
Other versions
JPWO2012095949A1 (ja
Inventor
上原 春喜
春喜 上原
福太郎 奥山
福太郎 奥山
横山 太郎
太郎 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2012095949A1 publication Critical patent/JPWO2012095949A1/ja
Application granted granted Critical
Publication of JP5729393B2 publication Critical patent/JP5729393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/62Establishing a time schedule for servicing the requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/14Multichannel or multilink protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • H04N21/8113Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/205Synchronous transmission of an analog or digital signal, e.g. according to a specific intrinsic timing, or according to a separate clock
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Computer Security & Cryptography (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像に同期して自動演奏する技術に関する。
遠隔地での楽器演奏を自動演奏装置の自動演奏で再現する技術がある。特許文献1は、自動演奏に用いられるMIDIデータ等の演奏データと、配信映像及び配信音声を示すオーディオビデオ信号とを別系統の伝送系統で送受信するシステムにおいて、オーディオビデオ信号と演奏データとを、受信側のシステムで同期再生することを開示している。具体的には、送信側のシステムは、クリック信号を発生させた場合、クリック信号をオーディオ信号に含ませて送信する一方で、クリック発生時刻を示すクリックタイムデータに、送信側のシステムの内部時計に基づいてタイプスタンプを付加して送信する。受信側のシステムは、クリック信号を受信した時刻をクリックタイムデータが示す時刻とするように内部時計を補正し、補正した内部時計を基に映像に同期した自動演奏を行う。
特開2005−84578号公報
特許文献1が開示する技術では、送信側のシステムは、内部時計に基づいて特定したクリック発生時刻と、内部時計とは関係なしに発生させたクリック信号とを別の伝送系統で、かつ、ほぼ同時に送信する。しかしながら、受信側のシステムでクリック信号とクリックタイムデータとを受信したときのこれらの相対的な遅延については、特許文献1が開示する技術では特に考慮されていない。この技術では、クリック信号とクリックタイムデータとの時間差が所定の時間間隔内であるもの同士を同一時刻のものとして対応付けるが、例えば一方の伝送系統の通信遅延が極端に大きい場合には、ほぼ同時に送信されたクリック信号とクリックタイムデータとの対応付けが正しく行われず、受信側のシステムで内部時計を正しく補正できないことがある。
本発明は上述した課題に鑑みてなされたものであり、その目的は、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、複数の自動演奏装置で配信映像に同期した自動演奏を行うことである。
上述した目的を達成するために、本発明に係る演奏システムは、演奏情報を出力する複数の演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバの配信映像に同期して前記演奏情報を再生する複数の自動演奏装置と、を備える演奏システムであって、前記演奏情報出力装置は、前記複数の演奏情報出力装置で互いに異なるように割り当てられた識別子を記憶する第1識別子記憶手段と、演奏情報を生成する演奏情報生成手段と、時刻を計る計時手段と、前記演奏情報生成手段で演奏情報が生成される毎に、前記第1識別子記憶手段に記憶された識別子と、前記計時手段で計られている時刻を示す時刻情報と、当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置に送信する第1演奏データ送信手段とを有し、前記複数の演奏情報出力装置の少なくとも一部の演奏情報出力装置が、前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段を有し、前記記憶装置は、前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、前記第1演奏データ受信手段が受信した演奏データを記憶する演奏データ記憶手段と、前記演奏データ記憶手段が前記受信した演奏データを記憶することと並行して、前記演奏データ記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記複数の自動演奏装置のいずれかへ送信する第2演奏データ送信手段とを有し、前記自動演奏装置は、前記第1識別子記憶手段に記憶される識別子のいずれかであって、前記複数の自動演奏装置で互いに異なるように割り当てられた識別子を記憶する第2識別子記憶手段と、前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、前記第2演奏データ受信手段が受信した前記第2識別子記憶手段に記憶された識別子が含まれる演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段とを有することを特徴とする。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、複数の自動演奏装置で配信映像に同期した自動演奏を行うことができる。
本発明において、前記複数の演奏情報出力装置は、1の第1の演奏情報出力装置と、それ以外である第2の演奏情報出力装置とを含み、前記第1の演奏情報出力装置が前記同期信号送信手段を有し、かつ、当該同期信号送信手段は前記動画配信サーバ及び前記第2の演奏情報出力装置のそれぞれに共通の前記同期信号を送信し、前記第2の演奏情報出力装置は、前記同期信号送信手段により送信された同期信号を受信し、受信した同期信号が示す時刻に基づいて、前記複数の演奏情報出力装置の計時部が計る時刻が一致するように自装置の計時部の時刻を補正する計時補正手段を有し、前記複数の自動演奏装置の同期信号受信手段は、前記同期信号送信手段により送信された共通の前記同期信号を受信するようにしてもよい。
本発明において、前記自動演奏装置は、自装置に割り当てられる識別子を設定して、前記第2識別子記憶手段に記憶させる第2識別子設定手段と、前記第2識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第2識別子設定手段により識別子が未設定であるいずれか1つの自動演奏装置に送信する第2識別子送信手段とを有し、前記第2識別子設定手段は、自装置以外の第2識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定するようにしてもよい。
本発明において、前記第1及び第2の演奏情報出力装置は、自装置に割り当てられる識別子を設定して、前記第1識別子記憶手段に記憶させる第1識別子設定手段と、前記第1識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第1識別子設定手段により識別子が未設定であるいずれか1つの演奏情報出力装置に送信する第1識別子送信手段とを有し、前記第1識別子設定手段は、自装置以外の第1識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定するようにしてもよい。
演奏システム100の概略構成を示す図。 送信側システム1の構成を示すブロック図。 サーバ装置20のハードウェア構成を示すブロック図。 受信側システム3の構成を示すブロック図。 同期信号のデータ構造を示す図。 演奏データ群241のデータ構造を示す図。 演奏システム100の機能的構成を示す機能ブロック図。 演奏システム100の処理手順を示すシーケンスチャート。 演奏システム100の処理手順を示すシーケンスチャート。 送信側システム1の機能的構成を示す機能ブロック図。 受信側システム3の機能的構成を示す機能ブロック図。 送信側システム1の機能的構成を示す機能ブロック図。 受信側システム3の機能的構成を示す機能ブロック図。 楽器IDの設定手順を説明する図。 演奏システム100の機能的構成を示す機能ブロック図。 演奏テーブルのフォーマットを例示した図。 演奏システム100の機能的構成を示す機能ブロック図。 合成部105の回路構成を示す図。 分離部302の回路構成を示す図。 同期信号のデータ構造を示す図。
1…送信側システム、10,10a,10b…楽器端末、100…演奏システム、101…ビデオカメラ、102…HDDレコーダ、103…遅延装置、104,301…PC、105…合成部、11…制御部、111,311…計時部、112…演奏情報生成部、113…第2演奏データ送信部、114…同期信号送信部、115…同期信号受信部、116…計時補正部、117a,117b…第1楽器ID設定部、118…第1楽器ID送信部、12…記憶部、13…楽音生成部、14…スピーカ、15…操作部、16…表示部、17…通信部、18…演奏部、19…信号送信部、20…サーバ装置、21…制御部、211…第1演奏データ受信部、212…第2演奏データ送信部、22…第1通信部、23…第2通信部、24…記憶部、241,241a、241b…演奏データ群、3…受信側システム、30…自動演奏楽器、302…分離部、31…制御部、312…第2演奏データ受信部、313…バッファリング部、314…同期信号受信部、315…計時補正部、316…補正部、317a,317b…第2楽器ID設定部、318…第2楽器ID送信部、32…記憶部、33…操作部、34…表示部、35…信号受信部、36…通信部、37…データバッファ、38…演奏部、40…動画配信サーバ、90…通信ネットワーク。
[第1実施形態]
(演奏システム100の構成)
以下、図面を参照しつつ本発明の一実施形態について説明する。
図1は、この実施形態の演奏システム100の概略構成を示す図である。図1に示すように、演奏システム100は、送信側システム1と、サーバ装置20と、受信側システム3とを備え、これらは通信ネットワーク90経由で接続されている。通信ネットワーク90は、ここではインターネットを含む通信網である。通信ネットワーク90には、演奏システム100の各装置のほかに、動画配信サーバ40が接続されている。動画配信サーバ40は、不特定のユーザが閲覧可能な映像及び音声を含む動画を配信する、いわゆる動画共有サービスを提供するものである。動画配信サーバ40は、ビデオストリーミングなどのプラットフォームを提供し、映像及び音声を含む動画(以下、「ライブ動画」という。)を配信することができるものである。この実施形態では、動画配信サーバ40は、送信側システム1及び受信側システム3の双方と通信可能であり、送信側システム1から提供されるライブ動画を、受信側システム3に配信する機能を実現する。
なお、本実施形態のライブ動画には、撮影が行われてから、遅延処理によって所定時間遅延させて配信される動画も含む。
送信側システム1は、コンサート等の楽器演奏が行われる場所に構成されるものである。送信側システム1は、例えば、楽器演奏の様子を撮影した映像を動画配信サーバ40に配信するために必要な設備や、受信側システム3でその楽器演奏を自動演奏で再現させるために必要な設備を備える。受信側システム3は、楽器演奏の観客側の場所に構成されるものであり、楽器演奏の様子を撮影した映像をユーザが視聴するために必要な設備や、その楽器演奏を自動演奏により再現するために必要な設備を備える。サーバ装置20は、送信側システム1及び受信側システム3の双方と通信可能であり、自動演奏に必要なデータを、両システムの間で中継する役割を担う記憶装置である。
送信側システム1は、互いに異なる2種類の通信経路で受信側システム3にデータを送信する。第1に、送信側システム1は、通信ネットワーク90及びサーバ装置20を経由し、かつ、動画配信サーバ40を経由しない第1経路で、演奏データを送信する。演奏データについては詳しくは後述する。第2に、送信側システム1は、通信ネットワーク90及び動画配信サーバ40を経由し、かつ、サーバ装置20を経由しない第2経路で、ライブ動画の放映に用いられる映像信号などのデータを送信する。また、この第2経路で送信されるデータには、さらに、受信側システム3側で映像信号が示す映像と、演奏データに基づいて行われる自動演奏とを同期させるために用いられる同期信号も含まれる。同期信号は、L,Rチャネルである2チャネルの音声信号の伝送経路を介して送受信される。
第1経路及び第2経路は、各々、通信ネットワーク90を経由するから一部の経路は共通するが、他の経路は異なっている。このように第1経路及び第2経路は、互いに独立した伝送系統といえるから、通信状況(例えば、通信遅延の程度)が相違することがある。
(送信側システム1の構成)
図2は、送信側システム1の構成を示すブロック図である。図2に示すように、送信側システム1は、楽器端末10と、ビデオカメラ101と、HDD(HardDisk Drive)レコーダ102と、PC(Personal Computer)104とにより構成される。
まず、楽器端末10の構成を説明する。楽器端末10は、ここでは電子ピアノであり、制御部11と、記憶部12と、楽音生成部13と、スピーカ14と、操作部15と、表示部16と、通信部17と、演奏部18と、信号送信部19とを備える。図2に示すように、スピーカ14を除く楽器端末10の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
制御部11は、CPU(Central Processing Unit)や、楽器端末10の各部を制御するためのプログラムを記憶したROM(Read Only Memory)、プログラムを実行する際のワークエリアとして使用されるRAM(Random Access Memory)を備える。CPUは、ROMに記憶されているプログラムを実行して、楽器端末10の各部を制御する。制御部11は計時部111を備え、計時部111により日時(ここでは、現在日時)を計る。また、制御部11は、演奏部18にされた操作(以下、「演奏操作」という。)に応じてMIDI(Musical Instrument Digital Interface:登録商標)メッセージを生成したり、生成したMIDIメッセージと、その演奏が行われた日時を示す日時情報と、自身の楽器端末10を識別する識別子(以下、「楽器ID」という。)との組である演奏データを生成したりする。MIDIメッセージは、楽器端末10で行われた演奏内容を示すMIDI形式の演奏情報である。日時情報は、日付を示す日付情報と、時刻を示す時刻情報との双方を含む情報である。
なお、楽器端末10で演奏が行われた日時は、計時部111が計時する日時により特定される。
また、制御部11は、動画配信サーバ40の配信映像に同期して自動演奏を行うために用いられる同期信号を生成する。図6は、同期信号のデータ構造を示す図である。図6に示すように、同期信号は、「楽器ID」と「タイムコード」とをそれぞれ示す信号である。タイムコードは、計時部111が計る日時であり、送信側システム1から動画配信サーバ40に、映像信号及び同期信号が送信される日時(つまり、絶対時刻を含む。)とみなすことができる。タイムコードは、これら各信号を受信した受信側システム3で、動画配信サーバ40から配信された映像がどの日時の演奏に対応しているのかを特定するために用いられる。なお、同期信号は、ホワイトノイズと似た周波数成分となるように生成され、人間が同期信号に応じた音を聞いた場合に耳障りにならないものであることが好ましい。
なお、計時部111が計る日時は、楽器端末10a,10bとで一致する場合を想定するが、この実施形態ではこれらの一致を必須の条件とはしない。
記憶部12は、不揮発性メモリを備え、楽器端末10を識別する楽器ID等を記憶する第1識別子記憶手段である。ここでは、楽器端末10aの記憶部12は、自楽器に割り当てられた楽器IDとして「0001」を記憶する。楽器端末10bの記憶部12は、自楽器に割り当てられた楽器IDとして「0002」を記憶する。楽器IDは、製造段階で予め決められていてもよいし、楽器端末10の利用者により設定されたものでもよいし、演奏開始時に制御部11により自動で設定されてもよい。楽音生成部13は、MIDIメッセージに基づいて、MIDIメッセージに応じた楽音信号を生成し、生成した楽音信号をスピーカ14に供給する。スピーカ14は、楽音生成部13により生成された楽音信号に応じて、楽器端末10の演奏音を出力するものである。操作部15は、楽器端末10を操作するための各種ボタンを備え、ユーザから楽器端末10に対する各種指示の入力が行われるものである。表示部16は、液晶ディスプレイを備え、楽器端末10を操作するための各種画面を表示する。
通信部17は、通信ネットワーク90に接続し、通信ネットワーク90経由で通信を行うためのインタフェースを備える。演奏部18は、例えば複数の鍵を備え、楽器端末10の演奏者であるユーザにより演奏操作されることで、楽器端末10の演奏が行われる。演奏部18は、ユーザにより鍵が操作されると、その鍵の操作に応じた操作信号を制御部11に出力する。信号送信部19は、HDDレコーダ102と接続するためのオーディオケーブルが接続される端子を有し、制御部11から供給される同期信号を、この端子に接続されるオーディオケーブルを介してHDDレコーダ102に送信する。
以上の構成の楽器端末10は、演奏情報を生成して出力する演奏情報出力装置として機能する。楽器端末10の構成の説明は以上である。
ビデオカメラ101は、ユーザが楽器端末10を演奏している様子等を撮影して、その映像(映像)を示す映像信号を生成するものである。ビデオカメラ101は、生成した映像信号を、HDDレコーダ102に送信する。HDDレコーダ102は、ビデオカメラ101から送信された映像信号と、信号送信部19から送信された同期信号とを、同じ時間軸上で日時毎に対応させて一時的に自身のHDDに記録するビデオレコーダである。この記録において、HDDレコーダ102は、ステレオチャネルのうち、Lチャネルを用いて楽器端末10aからの同期信号を記録し、Rチャネルを用いて楽器端末10bからの同期信号を記録する。
また、HDDレコーダ102は、遅延装置103を内蔵する。遅延装置103は、HDDに記録した映像信号及び同期信号に対して遅延処理を施す。この遅延処理は、例えば1分間程度、HDDレコーダ102からの各信号の送信タイミングを遅延するために行われるものである。この遅延処理を行う理由は、自動演奏ピアノ30における自動演奏をより確実に行えるようにするためであるが、その作用については後述する。
なお、各日時の映像信号及び同期信号の時間軸上での関係は、遅延処理が施された後も、遅延処理前から変化することはないものとする。また、遅延装置103がHDDレコーダ102に内蔵されるのではなく、HDDレコーダ102とPC104との間に外部接続されていてもよい。
PC104は、通信ネットワーク90に接続するインタフェースを備え、HDDレコーダ102から送信される映像信号及び同期信号を、通信ネットワーク90経由で動画配信サーバ40に送信する。動画配信サーバ40は、PC104から受信した映像信号及び同期信号を配信する。これら配信された各信号は、受信側システム3で受信される。
なお、動画配信サーバ40が、映像信号及び同期信号をPC104から受信したときから、これらを受信側システム3に配信するときまでに、例えば1分間程度要する。この遅延は、動画配信サーバ40で意図的な遅延処理によって奏するものであり、一般的な動画共有サービスでも採られることがある。
以上のように、送信側システム1は、動画配信サーバ40を経由して、ストリーミング形式で各種信号を送信するものとみなしてよい。
(サーバ装置20の構成)
図3は、サーバ装置20のハードウェア構成を示すブロック図である。図3に示すように、サーバ装置20は、制御部21と、第1通信部22と、第2通信部23と、記憶部24とを備える。
制御部21は、CPUや、サーバ装置20の各部を制御するためのプログラムを記憶したROM、プログラムを実行する際のワークエリアとして使用されるRAMを備える。CPUは、ROMに記憶されているプログラムを実行して、サーバ装置20の各部を制御する。第1通信部22は、通信ネットワーク90に接続するインタフェースを備え、楽器端末10と通信する。第2通信部23は通信ネットワーク90に接続するインタフェースを備え、自動演奏ピアノ30と通信する。第1通信部22及び第2通信部23という2つの通信手段が設けられるのは、制御部21が楽器端末10から演奏データを受信して記憶部24に記憶する処理と、記憶部24から演奏データを読み出して自動演奏ピアノ30へ送信する処理とを、並行して行うことを可能にするためである。よって、この並行処理が実現可能である限り、これら各通信手段はそれぞれ独立していなくてもよい。
記憶部24は、ハードディスク装置を備え、楽器端末10から送信される演奏データにより構成される演奏データ群241a,241bや、演奏システム100でのサーバの機能を実現するサーバプログラムを記憶する。制御部21のCPUはサーバプログラムを実行して、楽器端末10から受信した演奏データを記憶部24に記憶させたり、記憶部24に記憶された演奏データを自動演奏ピアノ30へ送信したりする。ここでは、楽器端末10aから受信した演奏データからなる演奏データ群を、「演奏データ群241a」とし、楽器端末10bからの演奏データからなる演奏データ群を、「演奏データ群241b」とする。
図5は、演奏データ群241a,bのデータ構造を示す図である。演奏データ群241a,bにあっては、楽器端末10での各演奏に対応する演奏データが、楽器ID、日時情報及びMIDIメッセージの組で構成される。例えば、楽器端末10aで押鍵操作が行われた場合、図5(a)の第1行に示すように、楽器端末10の楽器ID「0001」と、その押鍵操作が行われた日時を示す日時情報「2010-12-28T19:00:00:00」(2010年12月28日19時00分00秒00であることを示す。)と、演奏情報「MIDIメッセージ#a1」という組の演奏データが、演奏データ群241aに含まれる。他の行及び演奏データ群241bの各行に対応する演奏データも、これと同様のデータ構造である。以下、演奏データ群241a,241bを特に区別する必要しない場合には、「演奏データ群241」と総称することがある。
(受信側システム3の構成)
図4は、受信側システム3の構成を示すブロック図である。図4に示すように、受信側システム3は、2台の自動演奏ピアノ30a,30bとPC301とにより構成される。なお、自動演奏ピアノ30a,30bはそれぞれ共通の構成であるから、以下の説明でこれらを特に区別する必要がない場合は、「自動演奏ピアノ30」と総称することがある。PC301は、通信ネットワーク90経由で動画配信サーバ40と通信し、動画配信サーバ40から配信された映像信号及び同期信号を受信する。PC301は、受信した信号のうち映像信号を再生して、自身又は外部のモニタを用いてライブ動画を出力する。また、PC301は、映像信号と同時に再生される同期信号を、オーディオケーブルで接続された自動演奏ピアノ30a,30bへ送信する。ここでは、PC301は、楽器端末10aの楽器IDを自動演奏ピアノ30aに送信し、楽器端末10bの楽器IDを自動演奏ピアノ30bに送信するように、自動演奏ピアノ30a,30bのそれぞれと接続される。
次に、自動演奏ピアノ30の構成を説明する。自動演奏ピアノ30は、MIDIメッセージに基づいて自動演奏を行う機能を有する。自動演奏ピアノ30は、制御部31と、記憶部32と、操作部33と、表示部34と、信号受信部35と、通信部36と、データバッファ37と、演奏部38とを備える。自動演奏ピアノ30の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
制御部31は、CPU、自動演奏ピアノ30の各部を制御するためのプログラムを記憶したROM、RAMなどを備えている。制御部31のCPUは、ROMに記憶されているプログラムを読み出して実行することにより、自動演奏ピアノ30の各部を制御する。また、制御部31は計時部311を備え、計時部311により日時を計る。また、制御部31は、PC301から信号受信部35により受信した同期信号から楽器ID及びタイムコードを復号して、復号結果を記憶部32に記憶させる。制御部31は、復号したタイムコードに基づいて計時部311が計る日時を補正したり、復号した楽器IDを用いて再生対象の演奏データを特定したりする。また、制御部31は、通信部36により受信した演奏データをデータバッファ37にバッファリングし、それと並行して、データバッファ37にバッファリングされた演奏データを読み出し、その演奏データに含まれるMIDIメッセージを再生して、演奏部38に演奏させる(つまり、自動演奏を行う)。
記憶部32は、ハードディスク装置を備え、各種プログラム等を記憶する。記憶部32は、自動演奏ピアノ30によりPC301から同期信号が受信されると、この同期信号が示す楽器IDを記憶する第2識別子記憶手段である。記憶部32は、自動演奏ピアノ30毎に異なる楽器IDを予め記憶しているが、同期信号が受信されると、その同期信号が示す楽器IDを新たに記憶する。操作部33は、自動演奏ピアノ30を操作するための各種ボタンを備え、ユーザから自動演奏ピアノ30に対する各種指示の入力が行われるものである。表示部34は、液晶ディスプレイを備え、自動演奏ピアノ30を操作するための各種画面を表示する。
信号受信部35は、PC301と接続するためのオーディオケーブルを接続する端子を有し、この端子とオーディオケーブルを介して接続されるPC301から送信された同期信号を受信する。通信部36は、通信ネットワーク90に接続するインタフェースを備え、サーバ装置20と通信する。データバッファ37は、制御部31により演奏データがバッファリングされるバッファ領域を有する。制御部31は、データバッファ37にバッファリングされた演奏データを読み出し、その演奏データに含まれるMIDIメッセージを、その演奏データに含まれる日時情報と、PC301から受信された同期信号が示す特定したタイムコードとに応じたタイミングで演奏部38に供給することにより、MIDIメッセージを再生する。このMIDIメッセージにより自動演奏ピアノ30から演奏音が出力される。
演奏部38は、演奏データから抽出されたMIDIメッセージに従って演奏音を出力するほか、ユーザによる図示せぬ鍵の操作に応じて打弦による演奏音を出力する。前者を「自動演奏」と呼び、後者を「手動演奏」という。
演奏部38は、駆動機構38aと、キーセンサ38bと、ペダルセンサ38cと、ピアノ電子回路38dと、ピアノ音源38eと、ミキサ38fと、アンプ38gと、スピーカ38hとを有している。駆動機構38aは、複数の鍵や複数のペダルのほか、各鍵に対応して設けられた駆動ソレノイド群等を有している。キーセンサ38b及びペダルセンサ38cは、手動演奏を行うための構成であり、複数の鍵やペダルの各々に対応して設けられている。キーセンサ38b及びペダルセンサ38cは、鍵及びペダルを押したときの強さや深さなどを検出し、検出した鍵やペダルを特定するキー番号、ペダル番号、ベロシティ情報等を含む検出結果を、ピアノ電子回路38dに供給する。ピアノ電子回路38dは、自動演奏を行う場合、MIDIメッセージをピアノ音源38eに供給する。ピアノ音源38eは、MIDIメッセージにより指示された演奏音を出力するためのオーディオ信号を生成する。また、ピアノ電子回路38dは、MIDIメッセージに従って、駆動機構38aが備える駆動ソレノイド群を制御する。具体的には、ピアノ電子回路38dは、ある演奏音についてノートオン(押鍵)のMIDIメッセージを受け取った場合に、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を押下させるのに必要な磁力をソレノイドにより発生させる。一方、ある演奏音についてノートオフ(離鍵)のイベントを受け取った場合、ピアノ電子回路38dは、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を離鍵させるのに必要な磁力をソレノイドにより発生させる。また、ピアノ電子回路38dは、手動演奏を行う場合、キーセンサ38b及びペダルセンサ38cから供給される検出結果に基づいてイベントを生成し、そのイベントをピアノ音源38eに供給する。ピアノ音源38eは、このMIDIメッセージに従って、指示された演奏音を出力するためのオーディオ信号を生成する。
上記のようにしてピアノ音源38eにより生成されたオーディオ信号は、ミキサ38fへ出力される。ミキサ38fは、ピアノ音源38eから出力されるオーディオ信号を、必要に応じて他のオーディオ信号と混合してアンプ38gに出力する。この信号はアンプ38gによって増幅され、スピーカ38hから演奏音として出力される。
(演奏システム100の機能的構成)
図7は、自動演奏に関する演奏システム100の機能的構成を示す機能ブロック図である。
楽器端末10は、計時部111と、演奏情報生成部112と、第1演奏データ送信部113と、同期信号送信部114とに相当する機能を実現する。サーバ装置20は、第1演奏データ受信部211と、第2演奏データ送信部212とに相当する機能を実現する。自動演奏ピアノ30は、計時部311と、第2演奏データ受信部312と、バッファリング部313と、同期信号受信部314と、計時補正部315と、再生部316とに相当する機能を実現する。
計時部111は、上述したように日時を計る。演奏情報生成部112は、演奏部18の演奏操作に応じて、楽器端末10の演奏情報としてMIDIメッセージを生成する。第1演奏データ送信部113は、演奏情報生成部112で演奏情報(MIDIメッセージ)が生成される毎に、計時部111で計られている日時を示す日時情報と、その演奏情報と、記憶部12に記憶された楽器IDとの組である演奏データをサーバ装置20に送信する。同期信号送信部114は、計時部111で計られている日時であるタイムコード及び記憶部12に記憶された楽器IDを示す同期信号を生成し、生成した同期信号を動画配信サーバ40に送信する。
第1演奏データ受信部211は、第1演奏データ送信部113により送信された演奏データを受信する。第1演奏データ受信部211が受信した演奏データは演奏データ群241に含められる。第2演奏データ送信部212は、記憶部24に演奏データが記憶されることと並行して、記憶部24が記憶する演奏データ群241のうち、自動演奏ピアノ30から受信した演奏データ要求メッセージであって楽器ID及び日時情報を含む演奏データ要求メッセージに応じた演奏データを、自動演奏ピアノ30へ送信する。具体的には、第2演奏データ送信部212は、演奏データ要求メッセージに含まれる日時情報が示す日時から開始して当該日時の時系列順に、演奏データ要求メッセージと共通する楽器IDを含む演奏データを送信する。
計時部311は、上述したように日時を計る。第2演奏データ受信部312は、第2演奏データ送信部212により送信された演奏データを、動画配信サーバ40を経由しないで受信する。第2演奏データ受信部312は、演奏データ要求メッセージをサーバ装置20に送信して、その演奏データ要求メッセージに応じてサーバ装置20により送信された演奏データを受信する。バッファリング部313は、第2演奏データ受信部312が受信した演奏データをバッファ領域にバッファリングする。同期信号受信部314は、同期信号送信部114により動画配信サーバ40経由で送信された同期信号を受信する。計時補正部315は、計時部311が計時する日時を、同期信号を復号して得られるタイムコードに基づいて補正する。計時補正部315は、例えば、タイムコードと一致する日時を計るように、計時部311が計る日時を補正する。
再生部316は、第2演奏データ受信部312が受信した演奏データであって、自装置に割り当てられ記憶部32に記憶された楽器IDを含む演奏データの日時情報が示す日時と、同期信号受信部314が受信した同期信号が示すタイムコード(つまり、補正後の計時部311が計る日時)とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データのMIDIメッセージを再生する。例えば、再生部316は、計時部311が計る日時と演奏データに含まれる日時情報が示す日時とを所定の関係となるように連動させ、配信映像と演奏音とを同期させるべく、MIDIメッセージの再生の間隔を日時情報で規定される長さから変更したり、MIDIメッセージを再生するときのテンポを変えたり、再生するMIDIメッセージを変更したりする(つまり、スキップしたりする)。ここでは、再生部316は、計時部311が計時する日時から予め決められた時間前(ここでは、500ミリ秒前)を示す日時情報を含む演奏データのMIDIメッセージを、バッファリング部313から取得してこれを再生する。MIDIメッセージを演奏部38に供給してから、上述したように演奏部38の各部が動作して、そのMIDIメッセージの再生に応じた演奏音が出力されるまでには、ある程度の時間を要する(つまり、演奏部38で処理の遅延が生じる)。そこで、この処理遅延を見越して、再生部316が各演奏情報の再生タイミングを定めることで、ライブ動画と再生部316のMIDIメッセージの再生により出力される演奏音とが同期する。この再生タイミングについては、例えばPC301がライブ動画を表示する際の処理遅延を考慮して定められてもよい。
(実施形態の動作)
次に、演奏システム100の動作を説明する。
まず、ユーザが楽器端末10の電源を入れると、制御部11のROMに記憶されているプログラムをCPUが実行する。そして、楽器端末10は、電子ピアノの機能を実現し、また通信ネットワーク90と通信を行うことが可能となる。
次に、楽器端末10a,10bの制御部11は、演奏の開始に先立って、自楽器の演奏を再現する自動演奏を行わせる自動演奏ピアノ30を決定するべく、記憶部12に記憶された楽器IDを示す同期信号を生成し、信号送信部19によりHDDレコーダ102に送信する。HDDレコーダ102は、Lチャネルで楽器端末10aからの楽器ID「0001」を受信し、Rチャネルで楽器端末10bからの楽器ID「0002」を受信して、これらを記録する。そして、HDDレコーダ102は、楽器ID「0001」,「0002」を、それぞれ独立した伝送経路であるL,Rチャネルの伝送経路を用いて動画配信サーバ40に送信する。動画配信サーバ40は配信映像に同期して、各時刻の同期信号をPC301に送信する。PC301は、Lチャネルで受け取った同期信号を自動演奏ピアノ30aに送信し、Rチャネルで受け取った同期信号を自動演奏ピアノ30bに送信する。自動演奏ピアノ30a,30bの制御部31は、受信した同期信号が示す楽器IDを、自装置の記憶部32に記憶させる。これにより、自動演奏ピアノ30aの記憶部32には、楽器ID「0001」が記憶され、自動演奏ピアノ30bの記憶部32には、楽器ID「0002」が記憶される。記憶部32に楽器IDが記憶されることで、各自動演奏ピアノ30の楽器IDの設定が完了する。
以上が、楽器演奏の開始前に行われる動作である。なお、受信側システム3側にいるユーザが楽器IDを知ることができる場合(例えば、webページで通知するなど)、そのユーザの手入力によって、自動演奏ピアノ30a,30bに対して楽器IDが設定されてもよい。自動演奏ピアノ30に設定される楽器IDは、楽器端末10a,10bの記憶部12に記憶されている楽器IDのいずれかであって、自動演奏ピアノ30a,30bで互いに異なるように割り当てられた楽器IDであれば、どのような形式のものでもよい。
次に、演奏開始後の動作について図8,9を参照しつつ説明する。図8,9は、自動演奏の際の楽器端末10、サーバ装置20及び自動演奏ピアノ30が実行する処理手順を示すシーケンスチャートである。
ユーザが楽器端末10の鍵を押鍵すると(ステップS1)、制御部11は、ノートオンのメッセージ、押下された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、計時部111を用いて、このノートオンのMIDIメッセージを生成した日時を示す日時情報を生成する。制御部11は、生成した演奏情報、日時情報、及び記憶部12に記憶されている楽器IDを含む演奏データを生成して、通信部17によりサーバ装置20へ送信する(ステップS2)。
一方で、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、MIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号およびベロシティに対応した楽音の信号を生成し、生成した信号をスピーカ14に供給する。楽音生成部13から供給された信号がスピーカ14に供給されると、供給された信号に応じて楽音がスピーカ14から放音される。
サーバ装置20の制御部21は、楽器端末10から送信された演奏データを第1通信部22により受信すると、受信した演奏データを記憶部24に記憶させる(ステップS3)。例えば、制御部21は、日時情報「2010-12-28T19:00:00:00」と、楽器ID「0001」と、演奏情報「MIDIメッセージ♯a1」とを組とした演奏データを楽器端末10aから受信すると、これを演奏データ群241aに含ませるように記憶部24に記憶させる(図5(a)の第1行参照)。
次に、楽器端末10の制御部11は、計時部111が計る日時を示すタイムコード、及び記憶部12に記憶された楽器IDを符号化して同期信号を生成して、信号送信部19によりこれをHDDレコーダ102に送信する(ステップS4)。この同期信号は、PC104により、HDDレコーダ102から動画配信サーバ40に送信される。上述したように、楽器端末10aは楽器ID「0001」を示す同期信号を送信し、楽器端末10bは楽器ID「0002」を示す同期信号を送信する。本実施形態では、制御部11は、計時部111が計る日時に基づいて、1秒間に1回だけ同期信号を送信するものとする。
なお、同期信号は遅延装置103による遅延処理を経るとともに、動画配信サーバ40を経由する。本実施形態では、遅延装置103の遅延処理によって、ある時刻に生成された同期信号が受信側システム3で受信される時刻は、同時刻に生成された演奏情報を含む演奏データがサーバ装置20に受信されるときよりも2分程度遅延する。
次に、楽器端末10において、押下された鍵からユーザが指を離すと(ステップS5)、制御部11は、ノートオフのメッセージ、離鍵された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、このノートオフのMIDIメッセージを生成した日時を示す日時情報を計時部111を用いて生成する。制御部11は、生成したMIDIメッセージ、日時情報及び記憶部12に記憶されている楽器IDを含む演奏データを生成して、通信部17により送信する(ステップS6)。また、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、ノートオフのMIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号に対応した楽音の信号の生成を停止する。これにより、楽音のスピーカ14からの演奏音の出力が停止する。
楽器端末10から送信された演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる(ステップS7)。
ここで、制御部21は、日時情報「2010-12-28T19:00:02:24」と、楽器ID「0001」と、「MIDIメッセージ♯a2」との組である演奏データを楽器端末10から受信すると、これを演奏データ群241aに含ませるように、記憶部24に記憶する(図5(a)の第2行参照)。
以降も、楽器端末10は、演奏操作がある毎に演奏情報を生成して、通信部17により演奏データをサーバ装置20に送信する。サーバ装置20にあっては、楽器端末10から演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる。また、楽器端末10は、1秒毎に同期信号を送信する処理を繰り返す(ステップS8,S9)。
以上のような演奏データの送信及び記憶と並行して、サーバ装置20と自動演奏ピアノ30との間では、以下のような自動演奏に係る処理が実行される。これにより、サーバ装置20には、図5に示されるような演奏データ群241が記憶されているものとする。
自動演奏ピアノ30の制御部31は、楽器端末10により送信された同期信号がPC301によって受信されると、信号受信部35を介してこれを受信する。次に、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS10)。この楽器ID及びタイムコードによれば、PC301で出力されるライブ動画が、どの楽器によりどの日時に撮影されたかを特定することができる。
制御部31は、記憶部32に記憶された楽器IDに従って、再生対象のMIDIメッセージを含む演奏データをサーバ装置20から取得する。
次に、制御部31は、記憶部32に記憶した楽器IDと共通する楽器IDを含む同期信号に基づいて、ステップS10の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS11)。ここでは、制御部31は、タイムコードが示す日時と共通する日時に補正する。これにより、楽器端末10aの計時部111が計る日時と、自動演奏ピアノ30aの計時部311が計る日時とが同期する。また、楽器端末10bの計時部111が計る日時と、自動演奏ピアノ30bの計時部311が計る日時とが同期する。
次に、制御部31は、ステップS11の処理で特定した楽器ID及びタイムコードに基づいて、楽器ID及び日時情報を含む演奏データ要求メッセージを送信する(ステップS12)。ここでは、制御部31は、最新のタイムコードが示す日時及び記憶部32に記憶された楽器IDを指定して、演奏データ要求メッセージを送信する。
なお、上述したように、HDDレコーダ102は遅延装置103を有しており、楽器端末10側から1分程度遅れてタイムコード及び楽器IDがPC301で受信される。これに対し、楽器端末10からサーバ装置20への演奏データの送信には、このような遅延を意図的に生じさせていない。自動演奏ピアノ30が送信要求する演奏データは、サーバ装置20に確実に記憶されていると考えられる。
サーバ装置20の制御部21は、第2通信部23により演奏データ要求メッセージを受信すると、記憶部24に記憶された演奏データ群241に基づいて、当該送信要求メッセージで指定される日時の日時情報を含む演奏データから開始して、当該日時の時系列順に、演奏データ要求メッセージと共通の楽器IDを含む演奏データを送信する(ステップS13)。ここでは、自動演奏ピアノ30aからの演奏データ要求メッセージで指定される日時が「2010年12月28日の19時00分00秒00」で、かつ、楽器IDが「0001」であれば、制御部21は、日時情報「2010-12-28T19:00:00:00」を含む演奏データから送信し、それに続けて、「2010-12-28T19:00:02:24」に対応する演奏データ、「2010-12-28T19:00:03:59」に対応する演奏データを順次送信する。一方、自動演奏ピアノ30bからの演奏データ要求メッセージで指定される日時が「2010年12月28日の19時00分00秒00」で、かつ、楽器IDが「0002」であれば、制御部21は、日時情報「2010-12-28T19:00:00:02」を含む演奏データから送信し、それに続けて、「2010-12-28T19:00:01:43」に対応する演奏データ、「2010-12-28T19:00:04:21」に対応する演奏データを順次送信する。
このように、自動演奏ピアノ30a,30bのそれぞれが、自装置に対応する楽器端末10からの一の同期信号を受信したことを契機に、複数の演奏データを時系列順に次々と受信する。一方で、サーバ装置20の制御部21は、自動演奏ピアノ30に送信した演奏データや既に過ぎた日時の日時情報を含む演奏データを、記憶部24に残しておく。これにより、楽器端末10で演奏が行われたときからある程度の時間が経過した後であっても、自動演奏ピアノ30が演奏データを取得して、演奏情報を再生することも可能である。また、このような演奏データの蓄積により、自動演奏ピアノ30のデータバッファ37のバッファ領域の記憶容量を小さくすることができる。
自動演奏ピアノ30の制御部31は、通信部36により演奏データを受信すると、それをデータバッファ37に順次バッファリングする(ステップS14)。このとき、制御部31は、データバッファ37の記憶容量に対するバッファ量が閾値以上になった場合など、演奏データの受信及びバッファリングを一時的に停止する場合には、演奏データの消失を防ぐため、その停止をサーバ装置20に要求するとよい。
次に、自動演奏ピアノ30の制御部31は、通信部36により受信した演奏データの日時情報が示す日時と、計時部311が計時する日時(つまり、受信した同期信号が示すタイムコード)とに応じたタイミングで、MIDIメッセージを演奏部38に供給して、MIDIメッセージを再生する(ステップS15)。ここでは、制御部31は、計時部311が計時する日時よりも500ミリ秒前の日時情報との組であるMIDIメッセージを再生する。換言すると、計時部311が計時する日時が、MIDIメッセージとの組である日時情報が示す日時の500ミリ秒前になると、そのMIDIメッセージを再生する。このように、計時部311の補正に用いた同期信号の配信時刻の映像が出力されるときに、制御部31は、この同期信号が示すタイムコードを用いて、MIDIメッセージの再生タイミングを調整して、同期再生(自動演奏)を実現する。
以上の自動演奏において、自動演奏ピアノ30aは楽器端末10aから送信された同期信号に応じて、楽器端末10aにより生成された演奏データのMIDIメッセージの再生タイミングを調整し、自動演奏ピアノ30bは楽器端末10bから送信された同期信号に応じて、楽器端末10bにより生成された演奏データのMIDIメッセージの再生タイミングを調整する。このように独立した同期信号に応じて、自動演奏ピアノ30a,30bのそれぞれでMIDIメッセージの再生タイミングが調整されるが、それぞれの同期信号は同じ時間軸で記録・伝送されるため、楽器端末10a,10bの計時部111が計る日時が同期しているか否かに関わらず、自動演奏ピアノ30a,30bの自動演奏が同期する。
なお、制御部31は、再生した演奏データについてはデータバッファ37から消去して、その記憶容量を確保する。
制御部31は、以降引き続き、データバッファ37から時系列順にMIDIデータを読み出して再生する。同期信号が受信されない期間も、制御部31は計時部311の計る日時に従って各演奏データのMIDIメッセージを再生するので、このときライブ動画と自動演奏とが同期する。
そして、自動演奏ピアノ30の制御部31は、動画配信サーバ40から同期信号を受信する(ステップS16)。この場合も、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS17)。そして、制御部31はステップS15の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS18)。そして、制御部31は、上記手順で、PC301が出力する映像に同期するタイミングで、MIDIメッセージを再生する。
そして、制御部31は、データバッファ37の記憶容量が閾値以下になった場合などは、再び、サーバ装置20に対して演奏データ要求メッセージを送信する(ステップS19)。このときも制御部31は、計時部311が計る日時を指定して演奏データ要求メッセージを自動演奏ピアノ30に送信する。そして、制御部31は、演奏データ要求メッセージに応じて受信した演奏データを、データバッファ37にバッファリングして(ステップS20)、上記手順でMIDIメッセージに基づく自動演奏を継続する。
以上のような動作が、楽器端末10の演奏が終了して自動演奏ピアノ30の自動演奏が終了するまで継続して行われる。
以上説明した第1実施形態の演奏システム100では、動画画配信サーバ40を経由する通信経路の状態の影響を抑えつつ、複数の自動演奏装置30で配信映像に同期した自動演奏を行うことができる。具体的には、動画配信サーバ40を経由するのは、各楽器端末10から送信された同期信号であって、音声信号の伝送経路を楽器端末10毎に分けて送信された同期信号である。よって、受信側システム3の自動演奏ピアノ30a,30bはそれぞれ、自装置に割り当てられる楽器IDを、各々独立した伝送経路で送信される同期信号から特定することができる。これにより、自動演奏ピアノ30a,30bのそれぞれが、映像に同期再生すべきMIDIメッセージを含む演奏データをサーバ装置20から取得して、取得したMIDIメッセージを再生することができる。
また、演奏データは、動画配信サーバ40を経由しない。よって、動画配信サーバ40に多数のアクセスがあったり、何らかの原因でシステムダウンが発生したり、また、通信状態によって同期信号、映像信号及び音声信号の配信が遅延した場合であっても、自動演奏ピアノ30はこれとは別経路で受信する演奏データで、自動演奏を行うことができる。また、自動演奏ピアノ30のユーザにしてみれば、仮にライブ動画が一時的に途絶えても、自動演奏ピアノ30の自動演奏が継続する分だけ、その演奏音が途切れることによる違和感を持つことがない。また、自動演奏ピアノ30は、タイムコードに従って日時を特定するので、仮に、動画配信サーバ40の各信号の配信が中断し、その後復旧した場合であっても、その復旧後のタイミングから自動演奏を開始することができる。
また、本実施形態では、映像と同期して鍵等の演奏部38の各部が動作し、楽器端末10の動きを再現することにもなるので、自動演奏ピアノ30のユーザは遠隔地にいながら演奏会場の臨場感を味わうことができる。
また、同時に複数の会場に送信側システム1が構成されて、生演奏が行われている場合にも、本発明を適用可能である。この場合、動画配信サーバ40がチャネル毎に各送信側システム1(演奏会場)が割り当てられていればよいだけである。すなわち、PC301で現在設定されているチャネルに対応した同期信号が、自動演奏ピアノ30では受信される。チャネルの切り替えがあってから自動演奏ピアノ30が受信した同期信号に基づいて、自動演奏ピアノ30は楽器ID及び日時情報を特定し、自動演奏を行うことができる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。
上述した第1実施形態では、楽器端末10及び自動演奏ピアノ30がそれぞれ2台ずつである構成で、各自動演奏ピアノ30に送信される同期信号を、楽器端末10がL,Rチャネルの伝送経路を用いて送信していた。この構成では、ビデオカメラ101での収音音声を示す音声信号は送信されず、受信側システム3ではこの音声信号が示す音声を出力することができない。これに対し、この第2実施形態では、PC301からのこの音声出力を可能にしている。すなわち、この実施形態の演奏システム100では、L,Rチャネルの2チャネルのうち、一方のチャネルを同期信号が伝送し、他方のチャネルをビデオカメラ101の収音音声を示す音声信号が伝送する。なお、自動演奏ピアノ30に割り当てられる楽器IDは、それぞれ受信側システム3側のユーザにより手動設定されるものとする。以下の説明において、この実施形態の演奏システムの構成のうち、第1実施形態と共通するものは同一の符号を付して表し、それらの構成の説明及び図示を適宜省略する。
図10は、送信側システム1のうち楽器端末10a,10bの機能構成を示すブロック図である。図11は、受信側システム3のうち自動演奏ピアノ30a,30bの機能構成を示すブロック図である。
この実施形態では、楽器端末10aがマスタ端末(第1の楽器)となって、それ以外である楽器端末10bがスレーブ端末(第2の楽器)となり、楽器端末10bは楽器端末10aから受信する同期信号に従って動作する。具体的には、楽器端末10aの同期信号送信部114は、楽器端末10aの楽器IDとタイムコードとを示す同期信号を、動画配信サーバ40(自動演奏ピアノ30)だけでなく、スレーブ端末である楽器端末10bにも送信する。すなわち、自動演奏ピアノ30のそれぞれと、楽器端末10bに送信される同期信号はすべて共通する。
楽器端末10bの同期信号受信部115は、楽器端末10aから送信された同期信号を受信する。計時補正部116は、同期信号受信部115で受信された同期信号から特定したタイムコードに基づいて、このタイムコードの日時に一致させるように、楽器端末10bの計時部111が計る日時を補正する。これにより、楽器端末10a,10bの計時部111が計る日時が一致する。このように、本実施形態では、計時補正部116による補正後は、楽器端末10a,10bの計時部111が計る日時が互いに同期している必要がある。
これにより、楽器端末10a,10bから送信される演奏データにおいて、例えば同時に行われた演奏に対応する演奏データには、同日時の同時刻を示す日時情報が含まれる。
図11に示すように、自動演奏ピアノ30a,30bの各同期信号受信部314は、それぞれ共通の同期信号を受信する。そして、再生部316は、第1実施形態と同様にして、この同期信号から得たタイムコードに応じたタイミングで、演奏データのMIDIメッセージを再生する。同期信号には楽器端末10aの楽器IDが含まれるが、自動演奏ピアノ30a,30bはタイムコードを参照し、自装置の記憶部32に記憶された楽器IDに従ってサーバ装置20から受信する演奏データを選別する。自動演奏ピアノ30a,30bが演奏データを受信した以降の動作は、上述した第1実施形態と同じである。上述したように、楽器端末10a,10bの計時部111は同期しているから、受信側システム3の複数の自動演奏ピアノ30が共通の同期信号のタイムコードに従って自動演奏を行っても、本来一致すべき自動演奏ピアノ30同士の演奏タイミングがずれてしまうことがない。
以上の構成によれば、PC301で映像及び音声を含むライブ動画を出力しつつ、この映像に同期する自動演奏を実現することができる。同期信号を複数端末に供給するために、PC104やPC301がこれらを分配する機能を有してもよいし、別途設けられた信号処理装置がこの機能を実現してもよい。
[第3実施形態]
次に、本発明の第3実施形態について説明する。
上述した第2実施形態では、共通の同期信号が自動演奏ピアノ30a,30bの双方に送信される構成であるため、それぞれ楽器IDを手入力で設定する必要があった。これに対し、この実施形態では、楽器端末10及び自動演奏ピアノ30の双方が、楽器IDを自動設定する機能を有している。以下の説明において、この実施形態の演奏システムの構成のうち、第1実施形態と共通するものは同一の符号を付して表し、それらの構成の説明及び図示を適宜省略する。
図12は、送信側システム1のうち楽器端末10a,10bの機能構成を示すブロック図である。図13は、受信側システム3のうち自動演奏ピアノ30a,30bの機能構成を示すブロック図である。
楽器端末10aにおいて、第1楽器ID設定部117aは、楽器端末10aに割り当てられる楽器IDを設定して、記憶部12に記憶させる。マスタ端末である楽器端末10aでは、第1楽器ID設定部117aが楽器ID「0001」を設定するものとする。また、第1楽器ID設定部117aは、楽器端末10aの楽器IDを予め決められた規則で変換することで、楽器端末10bに割り当てられる楽器IDを生成する。ここでは、第1楽器ID設定部117aは、楽器端末10aの楽器ID「0001」に「1」を加算して、楽器ID「0002」を生成し、これを第1楽器ID送信部118に供給する。第1楽器ID送信部118は、第1楽器ID設定部117aからの楽器ID「0002」を、楽器IDが未設定である楽器端末10bに送信する。この楽器IDの伝送経路は、同期信号の伝送経路とは異なるものである。
楽器端末10bにおいて、第1楽器ID設定部117bは、第1楽器ID送信部118から送信された楽器IDを受信し、この楽器IDを、楽器端末10bに割り当てられる楽器IDとして設定する。すなわち、第1楽器ID設定部117bは、楽器ID「0002」を楽器端末10bに割り当てられる楽器IDとして、記憶部12に記憶させる。
以上の手順により、楽器端末10,10bの楽器IDの設定が完了したことになる。
図13に示すように、自動演奏ピアノ30aの同期信号受信部314は、楽器端末10aの同期信号送信部114で送信された同期信号を受信する。第2楽器ID設定部317aは、同期信号受信部314で受信された同期信号が示す楽器IDと同一である楽器IDを、自動演奏ピアノ30aの楽器IDとして設定し、記憶部32に記憶させる。また、第2楽器ID設定部317aは、自動演奏ピアノ30aに設定された楽器IDを、楽器端末10と共通する規則で変換することで、自動演奏ピアノ30bに割り当てられる楽器IDを生成する。つまり、ここでは、第2楽器ID設定部317aは、自動演奏ピアノ30aの楽器ID「0001」に「1」を加算して、楽器ID「0002」を生成し、これを第2楽器ID送信部318に供給する。第2楽器ID送信部318は、第2楽器ID設定部317aからの楽器ID「0002」を、楽器IDが未設定である自動演奏ピアノ30bに送信する。
自動演奏ピアノ30bは、第2楽器ID設定部317bを実現する。第2楽器ID設定部317bは、第2楽器ID送信部318から送信された楽器IDを受信し、この楽器IDを、自動演奏ピアノ30bに割り当てられる楽器IDとして設定する。すなわち、第2楽器ID設定部317bは、楽器ID「0002」を、自動演奏ピアノ30bに割り当てられる楽器IDとして、自装置の記憶部32に記憶させる。
以上の手順により、自動演奏ピアノ30a,30bの楽器IDの設定が完了したことになる。
以降、上述した第2実施形態と同じ手順で、自動演奏が実現されることになる。この実施形態によれば、送信側システム1及び受信側システム3の双方で事前に楽器IDを設定する必要がなく、その手間を省くことができる。
なお、ここでは、各楽器端末10aが楽器IDの送信先である楽器端末10bの楽器IDを生成していたが、楽器端末10aが自楽器の楽器IDを楽器端末10bに送信し、楽器端末10bが楽器端末10aの楽器IDを変換して、自楽器に割り当てられる楽器IDを生成し設定してもよい。同様に、自動演奏ピアノ30aが自装置の楽器IDを自動演奏ピアノ30bに送信し、自動演奏ピアノ30bが自動演奏ピアノ30aの楽器IDを変換して、自装置に割り当てられる楽器IDを設定してもよい。また、楽器IDの変換の仕方は、予め決められた規則に従っており、かつ、この規則が楽器端末10と自動演奏ピアノ30とで共通していればよく、例えばインクリメントに代えてデクリメントにしてもよい。
[他の実施形態]
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。なお、以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。なお、以下の説明において、実施形態と同じ符号を付した構成要素は実施形態と同じものであるから、その説明を適宜省略する。
(変形例1)
上述した各実施形態の演奏システム100では、楽器端末10及び自動演奏ピアノ30がそれぞれ2台ずつであった。これに対し、第2及び第3実施形態の構成で、楽器端末10及び自動演奏ピアノ30をそれぞれ3台以上とすることも可能である。
第2実施形態の構成であれば、スレーブ端末となる楽器端末10が複数になるだけであり、このスレーブ端末となる楽器端末10のそれぞれにおいて、マスタ端末である楽器端末10からの同期信号に基づいて、計時補正部116が計時部111が計る日時を補正すればよい。また、自動演奏ピアノ30においても、第2演奏データ受信部312は、受信した同期信号に含まれる楽器IDを無視して、タイムコードに基づいてサーバ装置20から演奏データを受信すればよい。
第3実施形態の構成であれば、図14に示される手順で楽器IDが設定される。
まず、楽器端末10aが自楽器の楽器ID「0001」を設定すると、この楽器IDに「1」を加算した楽器ID「0002」を生成し、楽器端末10bに送信する。楽器端末10bは、楽器端末10aからの楽器ID「0002」を自楽器の楽器IDとして設定するとともに、この楽器IDに「1」を加算した楽器ID「0003」を生成し、楽器端末10cに送信する。楽器端末10cは、楽器端末10bからの楽器ID「0003」を生成し、自楽器の楽器IDとして設定する。楽器端末10cは、この楽器IDに「1」を加算した楽器ID「0004」を生成し、楽器IDが未設定である1つの楽器端末10に送信する。このように、送信側システム1では、楽器端末10の数に応じて楽器IDの設定及び送信が繰り返される。
一方、楽器端末10aは、自楽器の楽器ID「0001」を自動演奏ピアノ30aに送信する。自動演奏ピアノ30aが自装置の楽器ID「0001」を設定すると、この楽器IDに「1」を加算した楽器ID「0002」を生成し、自動演奏ピアノ30bに送信する。自動演奏ピアノ30bは、自動演奏ピアノ30aからの楽器ID「0002」を自装置の楽器IDとして設定するとともに、この楽器IDに「1」を加算した楽器ID「0003」を生成し、自動演奏ピアノ30cに送信する。自動演奏ピアノ30cは、自動演奏ピアノ30bからの楽器ID「0003」を自装置の楽器IDとして設定する。自動演奏ピアノ30cは、この楽器IDに「1」を加算した楽器ID「0004」を生成し、楽器IDが未設定である1つの自動演奏ピアノ30に送信する。このように、受信側システム3でも、自動演奏ピアノ30の数に応じて楽器IDの設定及び送信が繰り返される。
以上の手順によれば、楽器端末10及び自動演奏ピアノ30がいくつずつあっても、楽器IDの自動設定を実現することができる。また、この構成でも、例えばインクリメントに代えてデクリメントにしてもよい。また、マスタ端末である楽器端末10aが、設定可能である複数の楽器IDのセットを予め生成しておき、各楽器端末10がこのセットから楽器IDを1つだけ選択して自楽器の楽器IDとするとともに、残りの楽器IDを別の楽器端末10が設定可能な楽器IDとして、楽器IDが未設定である1つの楽器端末10に送信してもよい。同様に、自動演奏ピアノ30aが、設定可能である複数の楽器IDのセットを楽器端末10aから受信すると、各自動演奏ピアノ30がこのセットから楽器IDを1つだけ選択して自楽器の楽器IDとするとともに、残りの楽器IDを別の自動演奏ピアノ30が設定可能な楽器IDとして、楽器IDが未設定である1つの自動演奏ピアノ30に送信するようにしてもよい。
なお、楽器端末10と自動演奏ピアノ30との一方についてだけ、手動により楽器IDが設定されてもよい。
また、第1実施形態の構成でも、音声信号の伝送経路が「3」以上あれば、その同数の楽器端末10及び自動演奏ピアノ30で自動演奏を実現可能である。この場合、この伝送経路のチャネル数と同数の楽器端末10が、上述の同期信号送信部114を実現することとなる。
(変形例2)
上述した実施形態及び各変形例では、楽器端末10と自動演奏ピアノ30とが同数であったが、互いの数が異なっていてもよい。
例えば、楽器端末10の数よりも自動演奏ピアノ30の数が少ないのであれば、自動演奏ピアノ30が複数の楽器の楽器IDを記憶して、対応する複数の楽器端末10で生成された演奏データをサーバ装置20から受信して、受信したすべての演奏データに基づいてMIDIメッセージを再生するとよい。また、楽器端末10の数よりも自動演奏ピアノ30の数が多いのであれば、1の楽器端末10の楽器IDが複数の自動演奏ピアノ30に割り当てられることで、複数の自動演奏ピアノ30が同一の楽器に対応した自動演奏を行ってもよい。
(変形例3)
上述した各実施形態では、自動演奏ピアノ30は、同期信号の受信を契機に、演奏データ要求メッセージをサーバ装置20に送信して、データバッファ37にバッファリングするための演奏データを受信していた。これに代えて、自動演奏ピアノ30がデータバッファ37を有さない構成であってもよい。図15は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図15に示すように、本実施形態では、自動演奏ピアノ30がバッファリング部313を実現しない。
例えば、自動演奏ピアノ30とサーバ装置20との間とが、高速のデータ通信が可能である通信路を介して接続される場合など、信頼性の高い通信路でこれらが接続される場合、自動演奏ピアノ30とサーバ装置20との間の通信遅延と、演奏部38が演奏情報が供給されてから演奏音を出力するまでの時間との合計時間を、ある程度正確に特定することができる。そこで、制御部31は、計時部311が計る日時からおよそこの合計時間分前の日時情報を含む演奏データを受信するように、演奏データ要求メッセージをサーバ装置20に送信する。そして、制御部31は、演奏データを受信するとこれをRAMに記憶させて、その演奏データに含まれるMIDIメッセージを、動画配信サーバ40の配信映像に同期するタイミングで読み出して再生する。
この変形例では、サーバ装置20の記憶部24がデータバッファ37と同等の機能を果たすこということもでき、自動演奏ピアノ30の構成を簡略化することもできる。
(変形例4)
上述した各実施形態では、自動演奏ピアノ30の制御部31は、所定の周期(ここでは、1秒間)で通信部36により同期信号を受信する。この場合に、制御部31はこの受信の周期よりも長い所定期間(例えば、1分間)内で同期信号が受信されなかった場合、MIDIメッセージを継続して再生するが、この所定期間を超えて同期信号が受信されなかった場合、MIDIメッセージの再生を中断してもよい。
例えば、動画配信サーバ40に何らかのアクシデントが発生した場合、自動演奏ピアノ30は演奏データを受信できるが、同期信号を受信できない状態が継続する。このとき、自動演奏ピアノ30はアクシデントが発生した後で合っても、演奏データを受信することはできるので、自動演奏を継続することができる。よって、演奏システム100によれば、自動演奏が突然停止するといった違和感をユーザが持つことがない。一方で、同期信号がある一定時間以上受信されないと、動画配信サーバ40の配信映像と自動演奏のタイミングとが大きくずれてしまって、好ましくない事態になることが考えられる。よって、制御部31は、同期信号がある程度受信できない場合であって、このような同期信号が受信されなくても問題ない期間を超えた場合には、演奏情報の演奏部38への供給を停止して、自動演奏を中断する。
なお、この変形例において、自動演奏ピアノ30は同期信号の受信が再開すると、自動演奏も再開するとよい。
(変形例5)
上述した各実施形態では、生演奏を撮影したライブ動画に同期する自動演奏の実現を前提としていたが、ライブ動画に代えて録画映像を用いた演奏システムにも本発明を適用可能である。この場合、サーバ装置20は、演奏の収録時に演奏データを蓄積する。自動演奏を実現する機会には、サーバ装置20が動画配信サーバ40に対して蓄積しておいた映像信号及び同期信号を動画配信サーバ40に送信する。そして、動画配信サーバ40はこの映像信号及び同期信号を配信する。また、これらの信号の記録をHDDレコーダ102が行ってもよい。一方、受信側システム3では、動画配信サーバ40から受信した各信号に基づいて、上記実施形態と同様の手順で自動演奏を行う。
この変形例の構成で、サーバ装置20は受信した演奏データをファイル化して記録してもよい。その理由は、例えばひとつの楽器端末10が複数回の演奏を行った場合に、自動演奏したい演奏を区別できるようにしたい場合がある。また、サーバ装置20において、コンサート単位や曲単位で演奏データをまとめておくことが、演奏データの管理上好ましい場合もあると考えられる。このファイル化について、手動によってコンサート単位や曲単位で複数の演奏情報がまとめられてファイル化されてもよいが、手動操作なしにこれを実現できることが好ましい。この場合、以下の手順でサーバ装置20がファイル化を行うとよい。なお、この構成で、サーバ装置20が日時を計る計時部を有しているものとする。
サーバ装置20の制御部21は、楽器端末10の演奏中には、第1通信部22により演奏データを受信してRAMに記憶する。やがて、楽器端末10の演奏が終了すると、楽器端末10からサーバ装置20に演奏データの送信が行われなくなる。楽器端末10から演奏データの送信が行われなくなると、サーバ装置20においては、自装置の計時部で計っている日時と、最後に受信した演奏データの日時情報が示す日時との差が次第に大きくなる。そこで、制御部21は、自装置の計時部で計っている日時と、最後に受信した演奏データの日時情報が示す日時との差が閾値(ここでは、5秒)以上となると、楽器ID「0001」で特定される楽器端末10での演奏が終了したと判断する。この場合、制御部21は、RAMに記憶した演奏データをファイル化して、記憶部24に記憶する処理を行う。具体的には、制御部21は、RAMに記憶されている演奏データのうち、RAMに記憶されている楽器ID「0001」を含む全ての演奏データを一つのファイルとしてまとめた演奏ファイルを生成する。また、制御部21は、演奏ファイルを一意に識別する演奏ファイル識別子を生成し、演奏ファイル識別子を含む演奏ファイルを記憶部24に記憶させる。このファイル識別子は、例えばコンサート単位や曲単位である一群の演奏情報である演奏情報群に対して割り当てられる識別子であるといえる。
また、制御部21は、演奏ファイルの演奏データに含まれている楽器ID、演奏ファイル中の演奏データに含まれている日時のうち最も早い日時情報が示す演奏開始日時と、最も遅い日時情報が示す演奏終了日時とを取得して、これらを対応付けて記憶してもよい。
図16は、楽器ID、演奏開始日時、演奏終了日時及び演奏ファイル識別子の組を記述した演奏テーブルの構造を示す図である。記憶部24は、この演奏テーブルを記憶している。例えば、演奏ファイル中の演奏データ含まれている場合において最も早い日時情報が「2010-12-28T19:00:00:00」、演奏の最後で楽器端末10から送信された演奏データに含まれていた日時情報が「2010-12-28T19:31:23:05」、楽器IDが「0001」、ファイル識別子として「F0001」が生成された場合、これらの情報が、図16に示したように演奏テーブルの同じ行に格納される。このように、楽器端末10の電源を入れた後にユーザが楽器端末10で演奏を行うと、演奏の記録開始のためのボタン操作や終了のためのボタン操作をユーザが行わなくても、ユーザが行った演奏を表すMIDIメッセージを含む演奏ファイルがサーバ装置20に記憶される。そして、上述した動作は、ユーザが演奏を行う度に行われ、サーバ装置20においては、ユーザが行った演奏毎に演奏ファイルが記憶される。
そして、この変形例では、ファイル識別子により自動演奏ピアノ30がサーバ装置20から受信する演奏データを特定するとよい。よって、楽器IDに代えて、又は楽器IDと併用してファイル識別子を用いて、楽器端末10が同期信号を生成して送信する。一方、自動演奏ピアノ30は同期信号が示すファイル識別子を含む演奏データのみをサーバ装置20から受信し、同期信号が示すファイル識別子を含まない演奏データを受信しないようにするとよい。
なお、この変形例のような録画映像の配信という態様によれば、映像のスキップや早送り、巻き戻しが行われて動画の再生位置が変更された場合でも、それに応じて動画配信サーバ40から配信される信号が変更後の再生位置に対応したものとなるので、自動演奏ピアノ30はその動画に同期した自動演奏を実現することができる。
(変形例6)
上述した第2,第3実施形態では、音声信号と同期信号とを別チャネルの音声信号の伝送経路を用いて送信していたが、いわゆる透かし技術を用いて音声信号に同期信号を重畳(合成)して送信してもよい。
図17は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図17に示すように、本変形例では、合成部105は送信側システム1側に構成されるが、楽器端末10の外部に構成される。また、分離部302は受信側システム3に構成されるが、自動演奏ピアノ30の外部に構成される。
合成部105は、例えば、音声信号を搬送するための搬送波を表す搬送波信号を透かし情報に基づいて位相変調することにより、音声信号の周波数成分よりも高い帯域に透かし情報を重畳(合成)する。また、合成部105は、いわゆるOFDM(Orthogonal Frequency-Division Multiplexing)変調により、音声信号に透かし情報を合成してもよい。分離部302にあっては、合成部105での同期信号の合成の方式に応じた方式で、音声信号と同期信号とを分離する。また、以下の手順で合成及び分離を行ってもよい。
図18は、同期信号Sを音声信号Aと合成する合成部105の回路構成を示す図である。なお、以下では、音声信号Aの位相を反転した信号を「音声信号−A」と表し、同期信号Sの位相を反転した信号を「楽音信号−S」と表す。
合成部105は、入力端c1、c2を有している。入力端c1は、音声信号Aが入力されるものである。入力端c2は、同期信号Sが入力されるものである。反転部c3は、入力された信号の位相を反転して出力する。ここでは、反転部c3は、入力端c2に入力された同期信号Sの位相を反転して、同期信号−Sを出力する。加算部c4,c5は、それぞれ入力される信号どうしを加算して出力するものである。加算部c4は、入力端c1に入力される音声信号Aと、反転部c3から出力される同期信号−Sとを加算して、その加算結果を第1差信号md(=A−S)として出力端c6に出力する。すなわち、反転部c3及び加算部c4は、楽音信号と同期信号との差を表す差信号を生成するものである。加算部c5は、入力端c1に入力される音声信号Aと、入力端c2に入力される同期信号Sとを加算して、その加算結果を第1和信号ms(=A+S)として出力端c7に出力する。加算部c5は、楽音信号と同期信号との和を表す和信号を生成する。
出力端c6は、一方のチャネル(ここでは、Lチャネル)に対応しており、第1差信号mdを出力する。出力端c7は、他方のチャネル(ここでは、Rチャネル)に対応しており、第1和信号msを出力する。PC104は、このように符号化された2チャネルの信号を、音声信号の伝送経路を用いて動画配信サーバ40に送信する。
図19は、同期信号Sと音声信号Aとを分離する分離部302の回路構成を示す図である。なお、以下では、第1差信号mdの位相を反転した信号を「第1差信号−md」と表し、第1和信号msの位相を反転した信号を「第1和信号−ms」と表す。また、信号「A」、「S」の前に付した整数は、それぞれ信号「A」、「S」の振幅をその整数倍にすることを意味する。
入力端c11は、Lチャネルに対応しており、第1差信号md(=A−S)が入力されるものである。入力端c12は、Rチャネルに対応しており、第1和信号ms(=A+S)が入力されるものである。反転部c13は、入力される信号の位相を反転して出力する。ここでは、反転部c13は、入力端c11に入力された第1差信号msの位相を反転して出力する。すなわち、反転部c13は、第1差信号md(=A−S)が入力されると、その逆位相の信号である第1差信号−md(=−A+S)を出力する。加算部c14、c15は、それぞれ入力される信号どうしを加算して出力するものである。加算部c14は、反転部c13から出力される第1差信号−md(=−A+S)と、入力端c11に入力される第1和信号md=A+Sとを加算して、その加算結果を第2差信号d(=2S)として出力端c16に出力する。すなわち、反転部c13及び加算部c14は、第1和信号から第1差信号を減算したときの差を表す差信号を生成するものである。加算部c15は、入力端c11に入力される第1差信号md(=A−S)と、入力端c12に入力される第1和信号ms(=A+S)とを加算して、その加算結果を第2和信号ds(=2A)として出力端c17に出力する。すなわち、加算部c15は、第1差信号と第1和信号との和を表す和信号を生成するものである。
出力端c16は、例えば左チャネルに対応しており、第2差信号ddを同期信号として出力する。出力端c17は、例えば右チャネルに対応しており、第2和信号dsを音声信号として出力する。PC301は、このように分離された音声信号Aに応じた音声を出力するとともに、同期信号Sを自動演奏ピアノ30に送信する。
なお、第2差信号dd及び第2和信号dsの振幅を元の振幅となるようにすれば(つまり、1/2にすれば)、符号化前の元情報である音声信号A及び同期信号Sを復号し、これらの内容をすることができる。
この構成によれば、動画配信サーバ40を経由する音声信号の伝送経路が2チャネルの場合であっても、送信側システム1から受信側システム3へステレオ方式の音声信号を送信することができる。また、同期信号Sの周波数成分の少なくとも一部が音声信号Aの周波数成分と同じ帯域に含まれる場合であっても、両信号の加減算によって符号化・復号が可能であるから、楽音信号の質の低下を抑制することができる。
以上のような透かし情報の合成を行う場合、演奏システム100にあって、例えばPCM(Pulse Code Modulation)方式を採用して、サンプリング周波数を高くして各信号を伝送させることが好ましい。また、上述した第2、第3実施形態で、ステレオ方式の音声信号を送信したい場合には、動画配信サーバ40を経由する通信経路に、3チャネル以上の音声信号の伝送経路が存在していればよい。第1実施形態の構成であれば、2チャネル分の音声信号の伝送経路が確保されるように、そのチャネル数よりも楽器端末10及び自動演奏ピアノ30の数を少なくとも「2」だけ少なくすればよい。
(変形例7)
上述した各実施形態では、PC104及びPC301が同期信号の送受信を行っていたが、PC104に代わって楽器端末10が通信ネットワーク90に接続して同期信号を送信してもよい。また、PC301に代わって自動演奏ピアノ30が通信ネットワーク90に接続して同期信号を送信してもよい。
また、サーバ装置20が楽器端末10と同じ場所にあり、例えば通信ネットワーク90を介さないで、LAN(Local Area Network)等の他の通信路を介してこれらが接続されてもよい。
また、同期信号及び映像信号の通信経路と演奏データの通信経路とは、それぞれ通信ネットワーク90を含んでいたが、それぞれ独立した通信ネットワークを経由してもよい。
また、動画配信サーバ40は不特定多数のユーザに利用されうるものに限らず、演奏システム100専用に設けられたものであってもよい。
また、HDDレコーダ102が遅延装置103を有していた。これに代えて、HDDレコーダ102が遅延装置103を有さず、動画配信サーバ40の遅延処理機能を利用して映像信号、音声信号及び同期信号の配信タイミングを遅延させてもよい。
(変形例8)
上述した実施形態において、計時部311は、例えば自動演奏開始時からの経過時間を計時するものであってもよい。この場合も、計時補正部315はタイムコードが示す日時に応じて計時部311が計る日時を補正するので、実施形態と同等の同期再生を実現可能である。
また、楽器端末10は、日付情報と時刻情報とを含む日時情報に代えて、時刻情報のみを演奏データに含めて送信し、また、タイムコードにその時刻を含めてもよい。この場合、上述した実施形態の「日時情報」を「時刻情報」に置き換えた構成になるが、生演奏を自動演奏するような場合、日付を特定できなくても演奏操作の時刻さえ受信側システム3で分かれば、自動演奏を実現可能である。
また、上述した実施形態では、同期信号が楽器ID及び演奏が行われた日時を示す日時情報を示すものであったが、同期信号はこれ以外の情報を示すものであってもよい。例えば、図20に示すように、同期信号は楽器ID、楽器端末10で演奏が行われた時刻である演奏開始時刻、及び演奏開始時刻からの経過時間(つまり、相対時刻)を示すタイムコードを示すものであってもよい。演奏開始時刻は、実施形態の場合は、「2010年12月28日の19時00分00秒00」を表す。また、タイムコードは、図5の例を用いると以下のようになる。第1行に対応する演奏データでは「0時間0分00秒00」を表し、第2行に対応する演奏データでは「0時間0分02秒24」を表し、第3行に対応する演奏データでは「0時間0分03秒59」を表す。
なお、演奏開始時刻は楽器端末10から送信されるすべての同期信号に含まれるが、自動演奏ピアノ30で再現する演奏が変化しない場合など、自動演奏ピアノ30が演奏開始時刻を特定できるのであれば、楽器端末10から送信される最初の同期信号にのみ演奏開始時刻が含まれていてもよい。この場合、自動演奏ピアノ30は、楽器端末10の演奏中には、最初に受信した同期信号が示す演奏開始時刻に基づいて、演奏開始時刻を特定する。
このように、自動演奏ピアノ30は、演奏データの時刻情報が示す時刻と、受信した同期信号が示す時刻とが連動するように、MIDIメッセージの再生タイミングを調整すれば、自動演奏を実現可能である。
(変形例9)
また、自動演奏ピアノ30において楽器端末10のピッチと一致させるように、自動演奏を行えるようにしてもよい。その手法は、特許第3867579号明細書にも開示されているとおりである。
具体的には、楽器端末10が自端末の基準ピッチを検出し、この基準ピッチを示す信号を例えば同期信号と同じ方法で、自動演奏ピアノ30に送信する。基準ピッチは、ある音程の音を演奏部18から出力したときの周波数であり、この周波数が演奏システム100の基準となるピッチを表す。なお、基準ピッチを示す信号の送信方法については、特に問わない。
自動演奏ピアノ30は、基準ピッチを取得すると、自装置の演奏部38の基準ピッチを検出して、これらの音程差を求める。そして、自動演奏ピアノ30は、自動演奏時には、この音程差に応じた読み出し速度でデータバッファ37から演奏データを読み出して再生することで、その音程の音の周波数が基準ピッチに近づくように(好ましくは、一致するように)再生する。
この変形例の構成によれば、楽器端末10と自動演奏ピアノ30との基準ピッチを近づけることができ、自動演奏ピアノ30の個体差等による影響を抑制して、より生演奏に近い音程で自動演奏を実現することが期待できる。
(変形例10)
上述した演奏システム100にあって、一部又は全サービスについて課金を行ってもよい。例えば、サーバ装置20がこの課金処理を行うものとし、演奏データの送信対象とする自動演奏ピアノ30を予め登録しておく。そして、サーバ装置20は自動演奏の開始前に自動演奏ピアノ30を認証して、その認証に成功すれば課金して、演奏データの送信を許可する。また、プライベートコンサートのように、自動演奏に係るサービスを許可するユーザを制限したい場合、サーバ装置20が演奏データの送信対象とする自動演奏ピアノ30を予め登録しておき、自動演奏の開始前にサーバ装置20が自動演奏ピアノ30を認証して、その認証に成功すれば自動演奏を許可してもよい。
(変形例11)
上述した実施形態では、本発明の演奏情報出力装置が楽器端末10である場合であって、特に電子ピアノである場合を説明したが、演奏操作に応じた演奏情報として、例えばMIDIメッセージを出力可能な自動演奏ピアノであってもよい。この場合、楽器端末10と自動演奏ピアノ30とを同じ自動演奏ピアノにすることもできる。また、本発明の演奏情報出力装置は演奏情報を出力可能であれば、ピアノ以外に対応する楽器端末でもよく、例えば、エレクトーン(登録商標)やオルガンなどの鍵盤楽器や、フルートやクラリネットなどの吹奏楽器、ドラム等の打楽器などであってもよい。したがって、本発明の自動演奏装置においても、自動演奏ピアノには限定されず、MIDIメッセージに基づいて自動演奏を行うことが可能な装置であってもよい。
また、本発明の演奏情報出力装置及び自動演奏装置は、例えば、楽器演奏用のアプリケーションプログラムがインストールされたスマートフォンやスレート型端末、スマートブックなどの情報端末、携帯型音楽プレーヤであってもよく、手動演奏の機能を有さないものであってもよい。
また、本発明の演奏情報はMIDI形式のものに限らず、楽器端末10の演奏内容を示し、自動演奏に利用できるものであればよい。
(変形例12)
上述した各実施形態における楽器端末10の制御部11や、サーバ装置20の制御部21、自動演奏ピアノ30の制御部31によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD)など)、光記録媒体(光ディスク(CD、DVD)など)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でダウンロードさせることも可能である。また、演奏システム100の各装置で実現される機能は、1又は複数のソフトウェアにより実現されてもよいし、1又は複数のハードウェアにより実現されてもよい。

Claims (4)

  1. 演奏情報を出力する複数の演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバの配信映像に同期して前記演奏情報を再生する複数の自動演奏装置と、を備える演奏システムであって、
    前記演奏情報出力装置は、
    前記複数の演奏情報出力装置で互いに異なるように割り当てられた識別子を記憶する第1識別子記憶手段と、
    演奏情報を生成する演奏情報生成手段と、
    時刻を計る計時手段と、
    前記演奏情報生成手段で演奏情報が生成される毎に、前記第1識別子記憶手段に記憶された識別子と、前記計時手段で計られている時刻を示す時刻情報と、当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置に送信する第1演奏データ送信手段と
    を有し、
    前記複数の演奏情報出力装置の少なくとも一部の演奏情報出力装置が、
    前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段を有し、
    前記記憶装置は、
    前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、
    前記第1演奏データ受信手段が受信した演奏データを記憶する演奏データ記憶手段と、
    前記演奏データ記憶手段が前記受信した演奏データを記憶することと並行して、前記演奏データ記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記複数の自動演奏装置のいずれかへ送信する第2演奏データ送信手段と
    を有し、
    前記自動演奏装置は、
    前記第1識別子記憶手段に記憶される識別子のいずれかであって、前記複数の自動演奏装置で互いに異なるように割り当てられた識別子を記憶する第2識別子記憶手段と、
    前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、
    前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、
    前記第2演奏データ受信手段が受信した前記第2識別子記憶手段に記憶された識別子が含まれる演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
    を有することを特徴とする演奏システム。
  2. 前記複数の演奏情報出力装置は、1の第1の演奏情報出力装置と、それ以外である第2の演奏情報出力装置とを含み、
    前記第1の演奏情報出力装置が前記同期信号送信手段を有し、かつ、当該同期信号送信手段は前記動画配信サーバ及び前記第2の演奏情報出力装置のそれぞれに共通の前記同期信号を送信し、
    前記第2の演奏情報出力装置は、前記同期信号送信手段により送信された同期信号を受信し、受信した同期信号が示す時刻に基づいて、前記複数の演奏情報出力装置の計時部が計る時刻が一致するように自装置の計時部の時刻を補正する計時補正手段を有し、
    前記複数の自動演奏装置の同期信号受信手段は、前記同期信号送信手段により送信された共通の前記同期信号を受信する
    ことを特徴とする請求項1に記載の演奏システム。
  3. 前記自動演奏装置は、
    自装置に割り当てられる識別子を設定して、前記第2識別子記憶手段に記憶させる第2識別子設定手段と、
    前記第2識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第2識別子設定手段により識別子が未設定であるいずれか1つの自動演奏装置に送信する第2識別子送信手段と
    を有し、
    前記第2識別子設定手段は、自装置以外の第2識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定する
    ことを特徴とする請求項2に記載の演奏システム。
  4. 前記第1及び第2の演奏情報出力装置は、
    自装置に割り当てられる識別子を設定して、前記第1識別子記憶手段に記憶させる第1識別子設定手段と、
    前記第1識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第1識別子設定手段により識別子が未設定であるいずれか1つの演奏情報出力装置に送信する第1識別子送信手段と
    を有し、
    前記第1識別子設定手段は、自装置以外の第1識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定する
    ことを特徴とする請求項3に記載の演奏システム。
JP2012552552A 2011-01-11 2011-01-11 演奏システム Active JP5729393B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/050298 WO2012095949A1 (ja) 2011-01-11 2011-01-11 演奏システム

Publications (2)

Publication Number Publication Date
JPWO2012095949A1 JPWO2012095949A1 (ja) 2014-06-09
JP5729393B2 true JP5729393B2 (ja) 2015-06-03

Family

ID=46506874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012552552A Active JP5729393B2 (ja) 2011-01-11 2011-01-11 演奏システム

Country Status (4)

Country Link
US (1) US8796528B2 (ja)
EP (1) EP2665057B1 (ja)
JP (1) JP5729393B2 (ja)
WO (1) WO2012095949A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5742217B2 (ja) * 2010-12-28 2015-07-01 ヤマハ株式会社 電子端末を制御する制御方法を実現するためのプログラムおよび電子音楽装置
JP6021004B2 (ja) * 2012-03-09 2016-11-02 パナソニックIpマネジメント株式会社 配信システム及び配信サーバ
US8912419B2 (en) * 2012-05-21 2014-12-16 Peter Sui Lun Fong Synchronized multiple device audio playback and interaction
US9373313B2 (en) * 2012-10-04 2016-06-21 Fender Musical Instruments Corporation System and method of storing and accessing musical performance on remote server
AU2016270352B2 (en) * 2015-06-03 2020-10-29 Smule, Inc. Automated generation of coordinated audiovisual work based on content captured from geographically distributed performers
US9583142B1 (en) 2015-07-10 2017-02-28 Musically Inc. Social media platform for creating and sharing videos
USD801347S1 (en) 2015-07-27 2017-10-31 Musical.Ly, Inc Display screen with a graphical user interface for a sound added video making and sharing app
USD788137S1 (en) 2015-07-27 2017-05-30 Musical.Ly, Inc Display screen with animated graphical user interface
USD801348S1 (en) 2015-07-27 2017-10-31 Musical.Ly, Inc Display screen with a graphical user interface for a sound added video making and sharing app
US9578362B1 (en) 2015-12-17 2017-02-21 At&T Intellectual Property I, L.P. Channel change server allocation
US11563504B2 (en) * 2020-06-25 2023-01-24 Sony Interactive Entertainment LLC Methods and systems for performing and recording live music using audio waveform samples

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331176A (ja) * 2000-05-23 2001-11-30 Yamaha Corp 楽曲再生方法、マルチメディアデータ再生方法、サーバクライアントシステムおよびサーバ装置
JP2003167575A (ja) * 2001-11-30 2003-06-13 Nippon Telegraph & Telephone East Corp 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体
JP2005084578A (ja) * 2003-09-11 2005-03-31 Yamaha Corp 演奏システム及び楽音映像再生装置
JP2005221657A (ja) * 2004-02-04 2005-08-18 Yamaha Corp 通信端末
JP2008216889A (ja) * 2007-03-07 2008-09-18 Yamaha Corp 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム
JP2010151936A (ja) * 2008-12-24 2010-07-08 Yamaha Corp 電子鍵盤楽器およびその制御方法を実現するためのプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3293227B2 (ja) * 1993-03-31 2002-06-17 ヤマハ株式会社 楽音制御装置
JP2003029771A (ja) 2001-07-19 2003-01-31 Sanyo Electric Co Ltd カラオケ装置
US6653545B2 (en) * 2002-03-01 2003-11-25 Ejamming, Inc. Method and apparatus for remote real time collaborative music performance
US7297858B2 (en) * 2004-11-30 2007-11-20 Andreas Paepcke MIDIWan: a system to enable geographically remote musicians to collaborate
CA2489256A1 (en) * 2004-12-06 2006-06-06 Christoph Both System and method for video assisted music instrument collaboration over distance
US7518051B2 (en) * 2005-08-19 2009-04-14 William Gibbens Redmann Method and apparatus for remote real time collaborative music performance and recording thereof
JP4747847B2 (ja) * 2006-01-17 2011-08-17 ヤマハ株式会社 演奏情報発生装置およびプログラム
US20090129605A1 (en) * 2007-11-15 2009-05-21 Sony Ericsson Mobile Communications Ab Apparatus and methods for augmenting a musical instrument using a mobile terminal
US20100319518A1 (en) * 2009-06-23 2010-12-23 Virendra Kumar Mehta Systems and methods for collaborative music generation
JP5630155B2 (ja) * 2009-09-14 2014-11-26 ヤマハ株式会社 記憶システムおよび記憶装置
US20110146476A1 (en) * 2009-12-18 2011-06-23 Edward Zimmerman Systems and methods of instruction including viewing lessons taken with hands-on training
JP5573297B2 (ja) * 2010-03-31 2014-08-20 ヤマハ株式会社 端末装置、電子機器およびプログラム
EP2662853B1 (en) * 2011-01-07 2016-06-22 YAMAHA Corporation Audiovisual synchronisation of network musical performance
US8383923B2 (en) * 2011-06-03 2013-02-26 L. Leonard Hacker System and method for musical game playing and training
US9075561B2 (en) * 2011-07-29 2015-07-07 Apple Inc. Systems, methods, and computer-readable media for managing collaboration on a virtual work of art

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331176A (ja) * 2000-05-23 2001-11-30 Yamaha Corp 楽曲再生方法、マルチメディアデータ再生方法、サーバクライアントシステムおよびサーバ装置
JP2003167575A (ja) * 2001-11-30 2003-06-13 Nippon Telegraph & Telephone East Corp 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体
JP2005084578A (ja) * 2003-09-11 2005-03-31 Yamaha Corp 演奏システム及び楽音映像再生装置
JP2005221657A (ja) * 2004-02-04 2005-08-18 Yamaha Corp 通信端末
JP2008216889A (ja) * 2007-03-07 2008-09-18 Yamaha Corp 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム
JP2010151936A (ja) * 2008-12-24 2010-07-08 Yamaha Corp 電子鍵盤楽器およびその制御方法を実現するためのプログラム

Also Published As

Publication number Publication date
EP2665057A4 (en) 2014-09-03
US20130276620A1 (en) 2013-10-24
US8796528B2 (en) 2014-08-05
EP2665057B1 (en) 2016-04-27
EP2665057A1 (en) 2013-11-20
WO2012095949A1 (ja) 2012-07-19
JPWO2012095949A1 (ja) 2014-06-09

Similar Documents

Publication Publication Date Title
JP5729393B2 (ja) 演奏システム
JP5733321B2 (ja) 自動演奏装置
JP4423790B2 (ja) 実演システム、ネットワークを介した実演方法
JPH10319950A (ja) データ送受信方法およびシステム
US11616589B2 (en) Methods and systems for performing and recording live music near live with no latency
JP7456019B2 (ja) オーディオ波形サンプルを用いてライブ音楽を演奏及び録音するための方法及びシステム
US6525253B1 (en) Transmission of musical tone information
JP4422656B2 (ja) ネットワークを用いた遠隔多地点合奏システム
JP3915517B2 (ja) マルチメディアシステム、再生装置及び再生記録装置
WO2022168375A1 (ja) 通信方法、通信システムおよび通信装置
JP3804536B2 (ja) 楽音再生記録装置、記録装置及び記録方法
JP6529116B2 (ja) 送信装置、受信装置およびプログラム
JP2021150795A (ja) 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム
JP2011145542A (ja) 再生装置、楽音信号出力装置、再生システム及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150323

R151 Written notification of patent or utility model registration

Ref document number: 5729393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151