JP5729393B2 - 演奏システム - Google Patents
演奏システム Download PDFInfo
- Publication number
- JP5729393B2 JP5729393B2 JP2012552552A JP2012552552A JP5729393B2 JP 5729393 B2 JP5729393 B2 JP 5729393B2 JP 2012552552 A JP2012552552 A JP 2012552552A JP 2012552552 A JP2012552552 A JP 2012552552A JP 5729393 B2 JP5729393 B2 JP 5729393B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- identifier
- musical instrument
- time
- synchronization signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 claims description 79
- 238000009826 distribution Methods 0.000 claims description 76
- 230000005540 biological transmission Effects 0.000 claims description 71
- 230000005236 sound signal Effects 0.000 claims description 40
- 230000008054 signal transmission Effects 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 13
- 238000013500 data storage Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 67
- 238000000034 method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 26
- 239000000872 buffer Substances 0.000 description 25
- 230000001360 synchronised effect Effects 0.000 description 23
- 230000004048 modification Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 230000003139 buffering effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 238000012384 transportation and delivery Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 229910001369 Brass Inorganic materials 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/62—Establishing a time schedule for servicing the requests
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/14—Multichannel or multilink protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/242—Synchronization processes, e.g. processing of PCR [Program Clock References]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4131—Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
- H04N21/8113—Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/175—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/205—Synchronous transmission of an analog or digital signal, e.g. according to a specific intrinsic timing, or according to a separate clock
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Computer Security & Cryptography (AREA)
- Electrophonic Musical Instruments (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は上述した課題に鑑みてなされたものであり、その目的は、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、複数の自動演奏装置で配信映像に同期した自動演奏を行うことである。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、複数の自動演奏装置で配信映像に同期した自動演奏を行うことができる。
本発明において、前記第1及び第2の演奏情報出力装置は、自装置に割り当てられる識別子を設定して、前記第1識別子記憶手段に記憶させる第1識別子設定手段と、前記第1識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第1識別子設定手段により識別子が未設定であるいずれか1つの演奏情報出力装置に送信する第1識別子送信手段とを有し、前記第1識別子設定手段は、自装置以外の第1識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定するようにしてもよい。
(演奏システム100の構成)
以下、図面を参照しつつ本発明の一実施形態について説明する。
図1は、この実施形態の演奏システム100の概略構成を示す図である。図1に示すように、演奏システム100は、送信側システム1と、サーバ装置20と、受信側システム3とを備え、これらは通信ネットワーク90経由で接続されている。通信ネットワーク90は、ここではインターネットを含む通信網である。通信ネットワーク90には、演奏システム100の各装置のほかに、動画配信サーバ40が接続されている。動画配信サーバ40は、不特定のユーザが閲覧可能な映像及び音声を含む動画を配信する、いわゆる動画共有サービスを提供するものである。動画配信サーバ40は、ビデオストリーミングなどのプラットフォームを提供し、映像及び音声を含む動画(以下、「ライブ動画」という。)を配信することができるものである。この実施形態では、動画配信サーバ40は、送信側システム1及び受信側システム3の双方と通信可能であり、送信側システム1から提供されるライブ動画を、受信側システム3に配信する機能を実現する。
なお、本実施形態のライブ動画には、撮影が行われてから、遅延処理によって所定時間遅延させて配信される動画も含む。
第1経路及び第2経路は、各々、通信ネットワーク90を経由するから一部の経路は共通するが、他の経路は異なっている。このように第1経路及び第2経路は、互いに独立した伝送系統といえるから、通信状況(例えば、通信遅延の程度)が相違することがある。
図2は、送信側システム1の構成を示すブロック図である。図2に示すように、送信側システム1は、楽器端末10と、ビデオカメラ101と、HDD(HardDisk Drive)レコーダ102と、PC(Personal Computer)104とにより構成される。
まず、楽器端末10の構成を説明する。楽器端末10は、ここでは電子ピアノであり、制御部11と、記憶部12と、楽音生成部13と、スピーカ14と、操作部15と、表示部16と、通信部17と、演奏部18と、信号送信部19とを備える。図2に示すように、スピーカ14を除く楽器端末10の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
なお、楽器端末10で演奏が行われた日時は、計時部111が計時する日時により特定される。
なお、計時部111が計る日時は、楽器端末10a,10bとで一致する場合を想定するが、この実施形態ではこれらの一致を必須の条件とはしない。
以上の構成の楽器端末10は、演奏情報を生成して出力する演奏情報出力装置として機能する。楽器端末10の構成の説明は以上である。
なお、各日時の映像信号及び同期信号の時間軸上での関係は、遅延処理が施された後も、遅延処理前から変化することはないものとする。また、遅延装置103がHDDレコーダ102に内蔵されるのではなく、HDDレコーダ102とPC104との間に外部接続されていてもよい。
なお、動画配信サーバ40が、映像信号及び同期信号をPC104から受信したときから、これらを受信側システム3に配信するときまでに、例えば1分間程度要する。この遅延は、動画配信サーバ40で意図的な遅延処理によって奏するものであり、一般的な動画共有サービスでも採られることがある。
以上のように、送信側システム1は、動画配信サーバ40を経由して、ストリーミング形式で各種信号を送信するものとみなしてよい。
図3は、サーバ装置20のハードウェア構成を示すブロック図である。図3に示すように、サーバ装置20は、制御部21と、第1通信部22と、第2通信部23と、記憶部24とを備える。
制御部21は、CPUや、サーバ装置20の各部を制御するためのプログラムを記憶したROM、プログラムを実行する際のワークエリアとして使用されるRAMを備える。CPUは、ROMに記憶されているプログラムを実行して、サーバ装置20の各部を制御する。第1通信部22は、通信ネットワーク90に接続するインタフェースを備え、楽器端末10と通信する。第2通信部23は通信ネットワーク90に接続するインタフェースを備え、自動演奏ピアノ30と通信する。第1通信部22及び第2通信部23という2つの通信手段が設けられるのは、制御部21が楽器端末10から演奏データを受信して記憶部24に記憶する処理と、記憶部24から演奏データを読み出して自動演奏ピアノ30へ送信する処理とを、並行して行うことを可能にするためである。よって、この並行処理が実現可能である限り、これら各通信手段はそれぞれ独立していなくてもよい。
図4は、受信側システム3の構成を示すブロック図である。図4に示すように、受信側システム3は、2台の自動演奏ピアノ30a,30bとPC301とにより構成される。なお、自動演奏ピアノ30a,30bはそれぞれ共通の構成であるから、以下の説明でこれらを特に区別する必要がない場合は、「自動演奏ピアノ30」と総称することがある。PC301は、通信ネットワーク90経由で動画配信サーバ40と通信し、動画配信サーバ40から配信された映像信号及び同期信号を受信する。PC301は、受信した信号のうち映像信号を再生して、自身又は外部のモニタを用いてライブ動画を出力する。また、PC301は、映像信号と同時に再生される同期信号を、オーディオケーブルで接続された自動演奏ピアノ30a,30bへ送信する。ここでは、PC301は、楽器端末10aの楽器IDを自動演奏ピアノ30aに送信し、楽器端末10bの楽器IDを自動演奏ピアノ30bに送信するように、自動演奏ピアノ30a,30bのそれぞれと接続される。
記憶部32は、ハードディスク装置を備え、各種プログラム等を記憶する。記憶部32は、自動演奏ピアノ30によりPC301から同期信号が受信されると、この同期信号が示す楽器IDを記憶する第2識別子記憶手段である。記憶部32は、自動演奏ピアノ30毎に異なる楽器IDを予め記憶しているが、同期信号が受信されると、その同期信号が示す楽器IDを新たに記憶する。操作部33は、自動演奏ピアノ30を操作するための各種ボタンを備え、ユーザから自動演奏ピアノ30に対する各種指示の入力が行われるものである。表示部34は、液晶ディスプレイを備え、自動演奏ピアノ30を操作するための各種画面を表示する。
演奏部38は、駆動機構38aと、キーセンサ38bと、ペダルセンサ38cと、ピアノ電子回路38dと、ピアノ音源38eと、ミキサ38fと、アンプ38gと、スピーカ38hとを有している。駆動機構38aは、複数の鍵や複数のペダルのほか、各鍵に対応して設けられた駆動ソレノイド群等を有している。キーセンサ38b及びペダルセンサ38cは、手動演奏を行うための構成であり、複数の鍵やペダルの各々に対応して設けられている。キーセンサ38b及びペダルセンサ38cは、鍵及びペダルを押したときの強さや深さなどを検出し、検出した鍵やペダルを特定するキー番号、ペダル番号、ベロシティ情報等を含む検出結果を、ピアノ電子回路38dに供給する。ピアノ電子回路38dは、自動演奏を行う場合、MIDIメッセージをピアノ音源38eに供給する。ピアノ音源38eは、MIDIメッセージにより指示された演奏音を出力するためのオーディオ信号を生成する。また、ピアノ電子回路38dは、MIDIメッセージに従って、駆動機構38aが備える駆動ソレノイド群を制御する。具体的には、ピアノ電子回路38dは、ある演奏音についてノートオン(押鍵)のMIDIメッセージを受け取った場合に、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を押下させるのに必要な磁力をソレノイドにより発生させる。一方、ある演奏音についてノートオフ(離鍵)のイベントを受け取った場合、ピアノ電子回路38dは、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を離鍵させるのに必要な磁力をソレノイドにより発生させる。また、ピアノ電子回路38dは、手動演奏を行う場合、キーセンサ38b及びペダルセンサ38cから供給される検出結果に基づいてイベントを生成し、そのイベントをピアノ音源38eに供給する。ピアノ音源38eは、このMIDIメッセージに従って、指示された演奏音を出力するためのオーディオ信号を生成する。
上記のようにしてピアノ音源38eにより生成されたオーディオ信号は、ミキサ38fへ出力される。ミキサ38fは、ピアノ音源38eから出力されるオーディオ信号を、必要に応じて他のオーディオ信号と混合してアンプ38gに出力する。この信号はアンプ38gによって増幅され、スピーカ38hから演奏音として出力される。
図7は、自動演奏に関する演奏システム100の機能的構成を示す機能ブロック図である。
楽器端末10は、計時部111と、演奏情報生成部112と、第1演奏データ送信部113と、同期信号送信部114とに相当する機能を実現する。サーバ装置20は、第1演奏データ受信部211と、第2演奏データ送信部212とに相当する機能を実現する。自動演奏ピアノ30は、計時部311と、第2演奏データ受信部312と、バッファリング部313と、同期信号受信部314と、計時補正部315と、再生部316とに相当する機能を実現する。
計時部111は、上述したように日時を計る。演奏情報生成部112は、演奏部18の演奏操作に応じて、楽器端末10の演奏情報としてMIDIメッセージを生成する。第1演奏データ送信部113は、演奏情報生成部112で演奏情報(MIDIメッセージ)が生成される毎に、計時部111で計られている日時を示す日時情報と、その演奏情報と、記憶部12に記憶された楽器IDとの組である演奏データをサーバ装置20に送信する。同期信号送信部114は、計時部111で計られている日時であるタイムコード及び記憶部12に記憶された楽器IDを示す同期信号を生成し、生成した同期信号を動画配信サーバ40に送信する。
次に、演奏システム100の動作を説明する。
まず、ユーザが楽器端末10の電源を入れると、制御部11のROMに記憶されているプログラムをCPUが実行する。そして、楽器端末10は、電子ピアノの機能を実現し、また通信ネットワーク90と通信を行うことが可能となる。
次に、楽器端末10a,10bの制御部11は、演奏の開始に先立って、自楽器の演奏を再現する自動演奏を行わせる自動演奏ピアノ30を決定するべく、記憶部12に記憶された楽器IDを示す同期信号を生成し、信号送信部19によりHDDレコーダ102に送信する。HDDレコーダ102は、Lチャネルで楽器端末10aからの楽器ID「0001」を受信し、Rチャネルで楽器端末10bからの楽器ID「0002」を受信して、これらを記録する。そして、HDDレコーダ102は、楽器ID「0001」,「0002」を、それぞれ独立した伝送経路であるL,Rチャネルの伝送経路を用いて動画配信サーバ40に送信する。動画配信サーバ40は配信映像に同期して、各時刻の同期信号をPC301に送信する。PC301は、Lチャネルで受け取った同期信号を自動演奏ピアノ30aに送信し、Rチャネルで受け取った同期信号を自動演奏ピアノ30bに送信する。自動演奏ピアノ30a,30bの制御部31は、受信した同期信号が示す楽器IDを、自装置の記憶部32に記憶させる。これにより、自動演奏ピアノ30aの記憶部32には、楽器ID「0001」が記憶され、自動演奏ピアノ30bの記憶部32には、楽器ID「0002」が記憶される。記憶部32に楽器IDが記憶されることで、各自動演奏ピアノ30の楽器IDの設定が完了する。
以上が、楽器演奏の開始前に行われる動作である。なお、受信側システム3側にいるユーザが楽器IDを知ることができる場合(例えば、webページで通知するなど)、そのユーザの手入力によって、自動演奏ピアノ30a,30bに対して楽器IDが設定されてもよい。自動演奏ピアノ30に設定される楽器IDは、楽器端末10a,10bの記憶部12に記憶されている楽器IDのいずれかであって、自動演奏ピアノ30a,30bで互いに異なるように割り当てられた楽器IDであれば、どのような形式のものでもよい。
ユーザが楽器端末10の鍵を押鍵すると(ステップS1)、制御部11は、ノートオンのメッセージ、押下された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、計時部111を用いて、このノートオンのMIDIメッセージを生成した日時を示す日時情報を生成する。制御部11は、生成した演奏情報、日時情報、及び記憶部12に記憶されている楽器IDを含む演奏データを生成して、通信部17によりサーバ装置20へ送信する(ステップS2)。
一方で、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、MIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号およびベロシティに対応した楽音の信号を生成し、生成した信号をスピーカ14に供給する。楽音生成部13から供給された信号がスピーカ14に供給されると、供給された信号に応じて楽音がスピーカ14から放音される。
次に、楽器端末10の制御部11は、計時部111が計る日時を示すタイムコード、及び記憶部12に記憶された楽器IDを符号化して同期信号を生成して、信号送信部19によりこれをHDDレコーダ102に送信する(ステップS4)。この同期信号は、PC104により、HDDレコーダ102から動画配信サーバ40に送信される。上述したように、楽器端末10aは楽器ID「0001」を示す同期信号を送信し、楽器端末10bは楽器ID「0002」を示す同期信号を送信する。本実施形態では、制御部11は、計時部111が計る日時に基づいて、1秒間に1回だけ同期信号を送信するものとする。
なお、同期信号は遅延装置103による遅延処理を経るとともに、動画配信サーバ40を経由する。本実施形態では、遅延装置103の遅延処理によって、ある時刻に生成された同期信号が受信側システム3で受信される時刻は、同時刻に生成された演奏情報を含む演奏データがサーバ装置20に受信されるときよりも2分程度遅延する。
ここで、制御部21は、日時情報「2010-12-28T19:00:02:24」と、楽器ID「0001」と、「MIDIメッセージ♯a2」との組である演奏データを楽器端末10から受信すると、これを演奏データ群241aに含ませるように、記憶部24に記憶する(図5(a)の第2行参照)。
以降も、楽器端末10は、演奏操作がある毎に演奏情報を生成して、通信部17により演奏データをサーバ装置20に送信する。サーバ装置20にあっては、楽器端末10から演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる。また、楽器端末10は、1秒毎に同期信号を送信する処理を繰り返す(ステップS8,S9)。
以上のような演奏データの送信及び記憶と並行して、サーバ装置20と自動演奏ピアノ30との間では、以下のような自動演奏に係る処理が実行される。これにより、サーバ装置20には、図5に示されるような演奏データ群241が記憶されているものとする。
制御部31は、記憶部32に記憶された楽器IDに従って、再生対象のMIDIメッセージを含む演奏データをサーバ装置20から取得する。
なお、上述したように、HDDレコーダ102は遅延装置103を有しており、楽器端末10側から1分程度遅れてタイムコード及び楽器IDがPC301で受信される。これに対し、楽器端末10からサーバ装置20への演奏データの送信には、このような遅延を意図的に生じさせていない。自動演奏ピアノ30が送信要求する演奏データは、サーバ装置20に確実に記憶されていると考えられる。
以上の自動演奏において、自動演奏ピアノ30aは楽器端末10aから送信された同期信号に応じて、楽器端末10aにより生成された演奏データのMIDIメッセージの再生タイミングを調整し、自動演奏ピアノ30bは楽器端末10bから送信された同期信号に応じて、楽器端末10bにより生成された演奏データのMIDIメッセージの再生タイミングを調整する。このように独立した同期信号に応じて、自動演奏ピアノ30a,30bのそれぞれでMIDIメッセージの再生タイミングが調整されるが、それぞれの同期信号は同じ時間軸で記録・伝送されるため、楽器端末10a,10bの計時部111が計る日時が同期しているか否かに関わらず、自動演奏ピアノ30a,30bの自動演奏が同期する。
なお、制御部31は、再生した演奏データについてはデータバッファ37から消去して、その記憶容量を確保する。
そして、自動演奏ピアノ30の制御部31は、動画配信サーバ40から同期信号を受信する(ステップS16)。この場合も、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS17)。そして、制御部31はステップS15の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS18)。そして、制御部31は、上記手順で、PC301が出力する映像に同期するタイミングで、MIDIメッセージを再生する。
そして、制御部31は、データバッファ37の記憶容量が閾値以下になった場合などは、再び、サーバ装置20に対して演奏データ要求メッセージを送信する(ステップS19)。このときも制御部31は、計時部311が計る日時を指定して演奏データ要求メッセージを自動演奏ピアノ30に送信する。そして、制御部31は、演奏データ要求メッセージに応じて受信した演奏データを、データバッファ37にバッファリングして(ステップS20)、上記手順でMIDIメッセージに基づく自動演奏を継続する。
以上のような動作が、楽器端末10の演奏が終了して自動演奏ピアノ30の自動演奏が終了するまで継続して行われる。
また、演奏データは、動画配信サーバ40を経由しない。よって、動画配信サーバ40に多数のアクセスがあったり、何らかの原因でシステムダウンが発生したり、また、通信状態によって同期信号、映像信号及び音声信号の配信が遅延した場合であっても、自動演奏ピアノ30はこれとは別経路で受信する演奏データで、自動演奏を行うことができる。また、自動演奏ピアノ30のユーザにしてみれば、仮にライブ動画が一時的に途絶えても、自動演奏ピアノ30の自動演奏が継続する分だけ、その演奏音が途切れることによる違和感を持つことがない。また、自動演奏ピアノ30は、タイムコードに従って日時を特定するので、仮に、動画配信サーバ40の各信号の配信が中断し、その後復旧した場合であっても、その復旧後のタイミングから自動演奏を開始することができる。
また、本実施形態では、映像と同期して鍵等の演奏部38の各部が動作し、楽器端末10の動きを再現することにもなるので、自動演奏ピアノ30のユーザは遠隔地にいながら演奏会場の臨場感を味わうことができる。
次に、本発明の第2実施形態について説明する。
上述した第1実施形態では、楽器端末10及び自動演奏ピアノ30がそれぞれ2台ずつである構成で、各自動演奏ピアノ30に送信される同期信号を、楽器端末10がL,Rチャネルの伝送経路を用いて送信していた。この構成では、ビデオカメラ101での収音音声を示す音声信号は送信されず、受信側システム3ではこの音声信号が示す音声を出力することができない。これに対し、この第2実施形態では、PC301からのこの音声出力を可能にしている。すなわち、この実施形態の演奏システム100では、L,Rチャネルの2チャネルのうち、一方のチャネルを同期信号が伝送し、他方のチャネルをビデオカメラ101の収音音声を示す音声信号が伝送する。なお、自動演奏ピアノ30に割り当てられる楽器IDは、それぞれ受信側システム3側のユーザにより手動設定されるものとする。以下の説明において、この実施形態の演奏システムの構成のうち、第1実施形態と共通するものは同一の符号を付して表し、それらの構成の説明及び図示を適宜省略する。
この実施形態では、楽器端末10aがマスタ端末(第1の楽器)となって、それ以外である楽器端末10bがスレーブ端末(第2の楽器)となり、楽器端末10bは楽器端末10aから受信する同期信号に従って動作する。具体的には、楽器端末10aの同期信号送信部114は、楽器端末10aの楽器IDとタイムコードとを示す同期信号を、動画配信サーバ40(自動演奏ピアノ30)だけでなく、スレーブ端末である楽器端末10bにも送信する。すなわち、自動演奏ピアノ30のそれぞれと、楽器端末10bに送信される同期信号はすべて共通する。
これにより、楽器端末10a,10bから送信される演奏データにおいて、例えば同時に行われた演奏に対応する演奏データには、同日時の同時刻を示す日時情報が含まれる。
以上の構成によれば、PC301で映像及び音声を含むライブ動画を出力しつつ、この映像に同期する自動演奏を実現することができる。同期信号を複数端末に供給するために、PC104やPC301がこれらを分配する機能を有してもよいし、別途設けられた信号処理装置がこの機能を実現してもよい。
次に、本発明の第3実施形態について説明する。
上述した第2実施形態では、共通の同期信号が自動演奏ピアノ30a,30bの双方に送信される構成であるため、それぞれ楽器IDを手入力で設定する必要があった。これに対し、この実施形態では、楽器端末10及び自動演奏ピアノ30の双方が、楽器IDを自動設定する機能を有している。以下の説明において、この実施形態の演奏システムの構成のうち、第1実施形態と共通するものは同一の符号を付して表し、それらの構成の説明及び図示を適宜省略する。
図12は、送信側システム1のうち楽器端末10a,10bの機能構成を示すブロック図である。図13は、受信側システム3のうち自動演奏ピアノ30a,30bの機能構成を示すブロック図である。
楽器端末10bにおいて、第1楽器ID設定部117bは、第1楽器ID送信部118から送信された楽器IDを受信し、この楽器IDを、楽器端末10bに割り当てられる楽器IDとして設定する。すなわち、第1楽器ID設定部117bは、楽器ID「0002」を楽器端末10bに割り当てられる楽器IDとして、記憶部12に記憶させる。
以上の手順により、楽器端末10,10bの楽器IDの設定が完了したことになる。
以上の手順により、自動演奏ピアノ30a,30bの楽器IDの設定が完了したことになる。
以降、上述した第2実施形態と同じ手順で、自動演奏が実現されることになる。この実施形態によれば、送信側システム1及び受信側システム3の双方で事前に楽器IDを設定する必要がなく、その手間を省くことができる。
なお、ここでは、各楽器端末10aが楽器IDの送信先である楽器端末10bの楽器IDを生成していたが、楽器端末10aが自楽器の楽器IDを楽器端末10bに送信し、楽器端末10bが楽器端末10aの楽器IDを変換して、自楽器に割り当てられる楽器IDを生成し設定してもよい。同様に、自動演奏ピアノ30aが自装置の楽器IDを自動演奏ピアノ30bに送信し、自動演奏ピアノ30bが自動演奏ピアノ30aの楽器IDを変換して、自装置に割り当てられる楽器IDを設定してもよい。また、楽器IDの変換の仕方は、予め決められた規則に従っており、かつ、この規則が楽器端末10と自動演奏ピアノ30とで共通していればよく、例えばインクリメントに代えてデクリメントにしてもよい。
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。なお、以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。なお、以下の説明において、実施形態と同じ符号を付した構成要素は実施形態と同じものであるから、その説明を適宜省略する。
(変形例1)
上述した各実施形態の演奏システム100では、楽器端末10及び自動演奏ピアノ30がそれぞれ2台ずつであった。これに対し、第2及び第3実施形態の構成で、楽器端末10及び自動演奏ピアノ30をそれぞれ3台以上とすることも可能である。
第2実施形態の構成であれば、スレーブ端末となる楽器端末10が複数になるだけであり、このスレーブ端末となる楽器端末10のそれぞれにおいて、マスタ端末である楽器端末10からの同期信号に基づいて、計時補正部116が計時部111が計る日時を補正すればよい。また、自動演奏ピアノ30においても、第2演奏データ受信部312は、受信した同期信号に含まれる楽器IDを無視して、タイムコードに基づいてサーバ装置20から演奏データを受信すればよい。
まず、楽器端末10aが自楽器の楽器ID「0001」を設定すると、この楽器IDに「1」を加算した楽器ID「0002」を生成し、楽器端末10bに送信する。楽器端末10bは、楽器端末10aからの楽器ID「0002」を自楽器の楽器IDとして設定するとともに、この楽器IDに「1」を加算した楽器ID「0003」を生成し、楽器端末10cに送信する。楽器端末10cは、楽器端末10bからの楽器ID「0003」を生成し、自楽器の楽器IDとして設定する。楽器端末10cは、この楽器IDに「1」を加算した楽器ID「0004」を生成し、楽器IDが未設定である1つの楽器端末10に送信する。このように、送信側システム1では、楽器端末10の数に応じて楽器IDの設定及び送信が繰り返される。
なお、楽器端末10と自動演奏ピアノ30との一方についてだけ、手動により楽器IDが設定されてもよい。
また、第1実施形態の構成でも、音声信号の伝送経路が「3」以上あれば、その同数の楽器端末10及び自動演奏ピアノ30で自動演奏を実現可能である。この場合、この伝送経路のチャネル数と同数の楽器端末10が、上述の同期信号送信部114を実現することとなる。
上述した実施形態及び各変形例では、楽器端末10と自動演奏ピアノ30とが同数であったが、互いの数が異なっていてもよい。
例えば、楽器端末10の数よりも自動演奏ピアノ30の数が少ないのであれば、自動演奏ピアノ30が複数の楽器の楽器IDを記憶して、対応する複数の楽器端末10で生成された演奏データをサーバ装置20から受信して、受信したすべての演奏データに基づいてMIDIメッセージを再生するとよい。また、楽器端末10の数よりも自動演奏ピアノ30の数が多いのであれば、1の楽器端末10の楽器IDが複数の自動演奏ピアノ30に割り当てられることで、複数の自動演奏ピアノ30が同一の楽器に対応した自動演奏を行ってもよい。
上述した各実施形態では、自動演奏ピアノ30は、同期信号の受信を契機に、演奏データ要求メッセージをサーバ装置20に送信して、データバッファ37にバッファリングするための演奏データを受信していた。これに代えて、自動演奏ピアノ30がデータバッファ37を有さない構成であってもよい。図15は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図15に示すように、本実施形態では、自動演奏ピアノ30がバッファリング部313を実現しない。
この変形例では、サーバ装置20の記憶部24がデータバッファ37と同等の機能を果たすこということもでき、自動演奏ピアノ30の構成を簡略化することもできる。
上述した各実施形態では、自動演奏ピアノ30の制御部31は、所定の周期(ここでは、1秒間)で通信部36により同期信号を受信する。この場合に、制御部31はこの受信の周期よりも長い所定期間(例えば、1分間)内で同期信号が受信されなかった場合、MIDIメッセージを継続して再生するが、この所定期間を超えて同期信号が受信されなかった場合、MIDIメッセージの再生を中断してもよい。
例えば、動画配信サーバ40に何らかのアクシデントが発生した場合、自動演奏ピアノ30は演奏データを受信できるが、同期信号を受信できない状態が継続する。このとき、自動演奏ピアノ30はアクシデントが発生した後で合っても、演奏データを受信することはできるので、自動演奏を継続することができる。よって、演奏システム100によれば、自動演奏が突然停止するといった違和感をユーザが持つことがない。一方で、同期信号がある一定時間以上受信されないと、動画配信サーバ40の配信映像と自動演奏のタイミングとが大きくずれてしまって、好ましくない事態になることが考えられる。よって、制御部31は、同期信号がある程度受信できない場合であって、このような同期信号が受信されなくても問題ない期間を超えた場合には、演奏情報の演奏部38への供給を停止して、自動演奏を中断する。
なお、この変形例において、自動演奏ピアノ30は同期信号の受信が再開すると、自動演奏も再開するとよい。
上述した各実施形態では、生演奏を撮影したライブ動画に同期する自動演奏の実現を前提としていたが、ライブ動画に代えて録画映像を用いた演奏システムにも本発明を適用可能である。この場合、サーバ装置20は、演奏の収録時に演奏データを蓄積する。自動演奏を実現する機会には、サーバ装置20が動画配信サーバ40に対して蓄積しておいた映像信号及び同期信号を動画配信サーバ40に送信する。そして、動画配信サーバ40はこの映像信号及び同期信号を配信する。また、これらの信号の記録をHDDレコーダ102が行ってもよい。一方、受信側システム3では、動画配信サーバ40から受信した各信号に基づいて、上記実施形態と同様の手順で自動演奏を行う。
この変形例の構成で、サーバ装置20は受信した演奏データをファイル化して記録してもよい。その理由は、例えばひとつの楽器端末10が複数回の演奏を行った場合に、自動演奏したい演奏を区別できるようにしたい場合がある。また、サーバ装置20において、コンサート単位や曲単位で演奏データをまとめておくことが、演奏データの管理上好ましい場合もあると考えられる。このファイル化について、手動によってコンサート単位や曲単位で複数の演奏情報がまとめられてファイル化されてもよいが、手動操作なしにこれを実現できることが好ましい。この場合、以下の手順でサーバ装置20がファイル化を行うとよい。なお、この構成で、サーバ装置20が日時を計る計時部を有しているものとする。
また、制御部21は、演奏ファイルの演奏データに含まれている楽器ID、演奏ファイル中の演奏データに含まれている日時のうち最も早い日時情報が示す演奏開始日時と、最も遅い日時情報が示す演奏終了日時とを取得して、これらを対応付けて記憶してもよい。
なお、この変形例のような録画映像の配信という態様によれば、映像のスキップや早送り、巻き戻しが行われて動画の再生位置が変更された場合でも、それに応じて動画配信サーバ40から配信される信号が変更後の再生位置に対応したものとなるので、自動演奏ピアノ30はその動画に同期した自動演奏を実現することができる。
上述した第2,第3実施形態では、音声信号と同期信号とを別チャネルの音声信号の伝送経路を用いて送信していたが、いわゆる透かし技術を用いて音声信号に同期信号を重畳(合成)して送信してもよい。
図17は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図17に示すように、本変形例では、合成部105は送信側システム1側に構成されるが、楽器端末10の外部に構成される。また、分離部302は受信側システム3に構成されるが、自動演奏ピアノ30の外部に構成される。
合成部105は、例えば、音声信号を搬送するための搬送波を表す搬送波信号を透かし情報に基づいて位相変調することにより、音声信号の周波数成分よりも高い帯域に透かし情報を重畳(合成)する。また、合成部105は、いわゆるOFDM(Orthogonal Frequency-Division Multiplexing)変調により、音声信号に透かし情報を合成してもよい。分離部302にあっては、合成部105での同期信号の合成の方式に応じた方式で、音声信号と同期信号とを分離する。また、以下の手順で合成及び分離を行ってもよい。
合成部105は、入力端c1、c2を有している。入力端c1は、音声信号Aが入力されるものである。入力端c2は、同期信号Sが入力されるものである。反転部c3は、入力された信号の位相を反転して出力する。ここでは、反転部c3は、入力端c2に入力された同期信号Sの位相を反転して、同期信号−Sを出力する。加算部c4,c5は、それぞれ入力される信号どうしを加算して出力するものである。加算部c4は、入力端c1に入力される音声信号Aと、反転部c3から出力される同期信号−Sとを加算して、その加算結果を第1差信号md(=A−S)として出力端c6に出力する。すなわち、反転部c3及び加算部c4は、楽音信号と同期信号との差を表す差信号を生成するものである。加算部c5は、入力端c1に入力される音声信号Aと、入力端c2に入力される同期信号Sとを加算して、その加算結果を第1和信号ms(=A+S)として出力端c7に出力する。加算部c5は、楽音信号と同期信号との和を表す和信号を生成する。
出力端c6は、一方のチャネル(ここでは、Lチャネル)に対応しており、第1差信号mdを出力する。出力端c7は、他方のチャネル(ここでは、Rチャネル)に対応しており、第1和信号msを出力する。PC104は、このように符号化された2チャネルの信号を、音声信号の伝送経路を用いて動画配信サーバ40に送信する。
入力端c11は、Lチャネルに対応しており、第1差信号md(=A−S)が入力されるものである。入力端c12は、Rチャネルに対応しており、第1和信号ms(=A+S)が入力されるものである。反転部c13は、入力される信号の位相を反転して出力する。ここでは、反転部c13は、入力端c11に入力された第1差信号msの位相を反転して出力する。すなわち、反転部c13は、第1差信号md(=A−S)が入力されると、その逆位相の信号である第1差信号−md(=−A+S)を出力する。加算部c14、c15は、それぞれ入力される信号どうしを加算して出力するものである。加算部c14は、反転部c13から出力される第1差信号−md(=−A+S)と、入力端c11に入力される第1和信号md=A+Sとを加算して、その加算結果を第2差信号d(=2S)として出力端c16に出力する。すなわち、反転部c13及び加算部c14は、第1和信号から第1差信号を減算したときの差を表す差信号を生成するものである。加算部c15は、入力端c11に入力される第1差信号md(=A−S)と、入力端c12に入力される第1和信号ms(=A+S)とを加算して、その加算結果を第2和信号ds(=2A)として出力端c17に出力する。すなわち、加算部c15は、第1差信号と第1和信号との和を表す和信号を生成するものである。
出力端c16は、例えば左チャネルに対応しており、第2差信号ddを同期信号として出力する。出力端c17は、例えば右チャネルに対応しており、第2和信号dsを音声信号として出力する。PC301は、このように分離された音声信号Aに応じた音声を出力するとともに、同期信号Sを自動演奏ピアノ30に送信する。
なお、第2差信号dd及び第2和信号dsの振幅を元の振幅となるようにすれば(つまり、1/2にすれば)、符号化前の元情報である音声信号A及び同期信号Sを復号し、これらの内容をすることができる。
この構成によれば、動画配信サーバ40を経由する音声信号の伝送経路が2チャネルの場合であっても、送信側システム1から受信側システム3へステレオ方式の音声信号を送信することができる。また、同期信号Sの周波数成分の少なくとも一部が音声信号Aの周波数成分と同じ帯域に含まれる場合であっても、両信号の加減算によって符号化・復号が可能であるから、楽音信号の質の低下を抑制することができる。
上述した各実施形態では、PC104及びPC301が同期信号の送受信を行っていたが、PC104に代わって楽器端末10が通信ネットワーク90に接続して同期信号を送信してもよい。また、PC301に代わって自動演奏ピアノ30が通信ネットワーク90に接続して同期信号を送信してもよい。
また、サーバ装置20が楽器端末10と同じ場所にあり、例えば通信ネットワーク90を介さないで、LAN(Local Area Network)等の他の通信路を介してこれらが接続されてもよい。
また、同期信号及び映像信号の通信経路と演奏データの通信経路とは、それぞれ通信ネットワーク90を含んでいたが、それぞれ独立した通信ネットワークを経由してもよい。
また、動画配信サーバ40は不特定多数のユーザに利用されうるものに限らず、演奏システム100専用に設けられたものであってもよい。
また、HDDレコーダ102が遅延装置103を有していた。これに代えて、HDDレコーダ102が遅延装置103を有さず、動画配信サーバ40の遅延処理機能を利用して映像信号、音声信号及び同期信号の配信タイミングを遅延させてもよい。
上述した実施形態において、計時部311は、例えば自動演奏開始時からの経過時間を計時するものであってもよい。この場合も、計時補正部315はタイムコードが示す日時に応じて計時部311が計る日時を補正するので、実施形態と同等の同期再生を実現可能である。
また、楽器端末10は、日付情報と時刻情報とを含む日時情報に代えて、時刻情報のみを演奏データに含めて送信し、また、タイムコードにその時刻を含めてもよい。この場合、上述した実施形態の「日時情報」を「時刻情報」に置き換えた構成になるが、生演奏を自動演奏するような場合、日付を特定できなくても演奏操作の時刻さえ受信側システム3で分かれば、自動演奏を実現可能である。
また、上述した実施形態では、同期信号が楽器ID及び演奏が行われた日時を示す日時情報を示すものであったが、同期信号はこれ以外の情報を示すものであってもよい。例えば、図20に示すように、同期信号は楽器ID、楽器端末10で演奏が行われた時刻である演奏開始時刻、及び演奏開始時刻からの経過時間(つまり、相対時刻)を示すタイムコードを示すものであってもよい。演奏開始時刻は、実施形態の場合は、「2010年12月28日の19時00分00秒00」を表す。また、タイムコードは、図5の例を用いると以下のようになる。第1行に対応する演奏データでは「0時間0分00秒00」を表し、第2行に対応する演奏データでは「0時間0分02秒24」を表し、第3行に対応する演奏データでは「0時間0分03秒59」を表す。
なお、演奏開始時刻は楽器端末10から送信されるすべての同期信号に含まれるが、自動演奏ピアノ30で再現する演奏が変化しない場合など、自動演奏ピアノ30が演奏開始時刻を特定できるのであれば、楽器端末10から送信される最初の同期信号にのみ演奏開始時刻が含まれていてもよい。この場合、自動演奏ピアノ30は、楽器端末10の演奏中には、最初に受信した同期信号が示す演奏開始時刻に基づいて、演奏開始時刻を特定する。
このように、自動演奏ピアノ30は、演奏データの時刻情報が示す時刻と、受信した同期信号が示す時刻とが連動するように、MIDIメッセージの再生タイミングを調整すれば、自動演奏を実現可能である。
また、自動演奏ピアノ30において楽器端末10のピッチと一致させるように、自動演奏を行えるようにしてもよい。その手法は、特許第3867579号明細書にも開示されているとおりである。
具体的には、楽器端末10が自端末の基準ピッチを検出し、この基準ピッチを示す信号を例えば同期信号と同じ方法で、自動演奏ピアノ30に送信する。基準ピッチは、ある音程の音を演奏部18から出力したときの周波数であり、この周波数が演奏システム100の基準となるピッチを表す。なお、基準ピッチを示す信号の送信方法については、特に問わない。
自動演奏ピアノ30は、基準ピッチを取得すると、自装置の演奏部38の基準ピッチを検出して、これらの音程差を求める。そして、自動演奏ピアノ30は、自動演奏時には、この音程差に応じた読み出し速度でデータバッファ37から演奏データを読み出して再生することで、その音程の音の周波数が基準ピッチに近づくように(好ましくは、一致するように)再生する。
この変形例の構成によれば、楽器端末10と自動演奏ピアノ30との基準ピッチを近づけることができ、自動演奏ピアノ30の個体差等による影響を抑制して、より生演奏に近い音程で自動演奏を実現することが期待できる。
上述した演奏システム100にあって、一部又は全サービスについて課金を行ってもよい。例えば、サーバ装置20がこの課金処理を行うものとし、演奏データの送信対象とする自動演奏ピアノ30を予め登録しておく。そして、サーバ装置20は自動演奏の開始前に自動演奏ピアノ30を認証して、その認証に成功すれば課金して、演奏データの送信を許可する。また、プライベートコンサートのように、自動演奏に係るサービスを許可するユーザを制限したい場合、サーバ装置20が演奏データの送信対象とする自動演奏ピアノ30を予め登録しておき、自動演奏の開始前にサーバ装置20が自動演奏ピアノ30を認証して、その認証に成功すれば自動演奏を許可してもよい。
上述した実施形態では、本発明の演奏情報出力装置が楽器端末10である場合であって、特に電子ピアノである場合を説明したが、演奏操作に応じた演奏情報として、例えばMIDIメッセージを出力可能な自動演奏ピアノであってもよい。この場合、楽器端末10と自動演奏ピアノ30とを同じ自動演奏ピアノにすることもできる。また、本発明の演奏情報出力装置は演奏情報を出力可能であれば、ピアノ以外に対応する楽器端末でもよく、例えば、エレクトーン(登録商標)やオルガンなどの鍵盤楽器や、フルートやクラリネットなどの吹奏楽器、ドラム等の打楽器などであってもよい。したがって、本発明の自動演奏装置においても、自動演奏ピアノには限定されず、MIDIメッセージに基づいて自動演奏を行うことが可能な装置であってもよい。
また、本発明の演奏情報出力装置及び自動演奏装置は、例えば、楽器演奏用のアプリケーションプログラムがインストールされたスマートフォンやスレート型端末、スマートブックなどの情報端末、携帯型音楽プレーヤであってもよく、手動演奏の機能を有さないものであってもよい。
また、本発明の演奏情報はMIDI形式のものに限らず、楽器端末10の演奏内容を示し、自動演奏に利用できるものであればよい。
上述した各実施形態における楽器端末10の制御部11や、サーバ装置20の制御部21、自動演奏ピアノ30の制御部31によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD)など)、光記録媒体(光ディスク(CD、DVD)など)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でダウンロードさせることも可能である。また、演奏システム100の各装置で実現される機能は、1又は複数のソフトウェアにより実現されてもよいし、1又は複数のハードウェアにより実現されてもよい。
Claims (4)
- 演奏情報を出力する複数の演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバの配信映像に同期して前記演奏情報を再生する複数の自動演奏装置と、を備える演奏システムであって、
前記演奏情報出力装置は、
前記複数の演奏情報出力装置で互いに異なるように割り当てられた識別子を記憶する第1識別子記憶手段と、
演奏情報を生成する演奏情報生成手段と、
時刻を計る計時手段と、
前記演奏情報生成手段で演奏情報が生成される毎に、前記第1識別子記憶手段に記憶された識別子と、前記計時手段で計られている時刻を示す時刻情報と、当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置に送信する第1演奏データ送信手段と
を有し、
前記複数の演奏情報出力装置の少なくとも一部の演奏情報出力装置が、
前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段を有し、
前記記憶装置は、
前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、
前記第1演奏データ受信手段が受信した演奏データを記憶する演奏データ記憶手段と、
前記演奏データ記憶手段が前記受信した演奏データを記憶することと並行して、前記演奏データ記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記複数の自動演奏装置のいずれかへ送信する第2演奏データ送信手段と
を有し、
前記自動演奏装置は、
前記第1識別子記憶手段に記憶される識別子のいずれかであって、前記複数の自動演奏装置で互いに異なるように割り当てられた識別子を記憶する第2識別子記憶手段と、
前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、
前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、
前記第2演奏データ受信手段が受信した前記第2識別子記憶手段に記憶された識別子が含まれる演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
を有することを特徴とする演奏システム。 - 前記複数の演奏情報出力装置は、1の第1の演奏情報出力装置と、それ以外である第2の演奏情報出力装置とを含み、
前記第1の演奏情報出力装置が前記同期信号送信手段を有し、かつ、当該同期信号送信手段は前記動画配信サーバ及び前記第2の演奏情報出力装置のそれぞれに共通の前記同期信号を送信し、
前記第2の演奏情報出力装置は、前記同期信号送信手段により送信された同期信号を受信し、受信した同期信号が示す時刻に基づいて、前記複数の演奏情報出力装置の計時部が計る時刻が一致するように自装置の計時部の時刻を補正する計時補正手段を有し、
前記複数の自動演奏装置の同期信号受信手段は、前記同期信号送信手段により送信された共通の前記同期信号を受信する
ことを特徴とする請求項1に記載の演奏システム。 - 前記自動演奏装置は、
自装置に割り当てられる識別子を設定して、前記第2識別子記憶手段に記憶させる第2識別子設定手段と、
前記第2識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第2識別子設定手段により識別子が未設定であるいずれか1つの自動演奏装置に送信する第2識別子送信手段と
を有し、
前記第2識別子設定手段は、自装置以外の第2識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定する
ことを特徴とする請求項2に記載の演奏システム。 - 前記第1及び第2の演奏情報出力装置は、
自装置に割り当てられる識別子を設定して、前記第1識別子記憶手段に記憶させる第1識別子設定手段と、
前記第1識別子設定手段で設定された識別子、又は自装置以外で設定可能な識別子を、前記第1識別子設定手段により識別子が未設定であるいずれか1つの演奏情報出力装置に送信する第1識別子送信手段と
を有し、
前記第1識別子設定手段は、自装置以外の第1識別子送信手段により送信された識別子を受信した場合、受信した識別子に基づいて自装置に割り当てられる識別子を設定する
ことを特徴とする請求項3に記載の演奏システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/050298 WO2012095949A1 (ja) | 2011-01-11 | 2011-01-11 | 演奏システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012095949A1 JPWO2012095949A1 (ja) | 2014-06-09 |
JP5729393B2 true JP5729393B2 (ja) | 2015-06-03 |
Family
ID=46506874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012552552A Active JP5729393B2 (ja) | 2011-01-11 | 2011-01-11 | 演奏システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8796528B2 (ja) |
EP (1) | EP2665057B1 (ja) |
JP (1) | JP5729393B2 (ja) |
WO (1) | WO2012095949A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5742217B2 (ja) * | 2010-12-28 | 2015-07-01 | ヤマハ株式会社 | 電子端末を制御する制御方法を実現するためのプログラムおよび電子音楽装置 |
JP6021004B2 (ja) * | 2012-03-09 | 2016-11-02 | パナソニックIpマネジメント株式会社 | 配信システム及び配信サーバ |
US8912419B2 (en) * | 2012-05-21 | 2014-12-16 | Peter Sui Lun Fong | Synchronized multiple device audio playback and interaction |
US9373313B2 (en) * | 2012-10-04 | 2016-06-21 | Fender Musical Instruments Corporation | System and method of storing and accessing musical performance on remote server |
AU2016270352B2 (en) * | 2015-06-03 | 2020-10-29 | Smule, Inc. | Automated generation of coordinated audiovisual work based on content captured from geographically distributed performers |
US9583142B1 (en) | 2015-07-10 | 2017-02-28 | Musically Inc. | Social media platform for creating and sharing videos |
USD801347S1 (en) | 2015-07-27 | 2017-10-31 | Musical.Ly, Inc | Display screen with a graphical user interface for a sound added video making and sharing app |
USD788137S1 (en) | 2015-07-27 | 2017-05-30 | Musical.Ly, Inc | Display screen with animated graphical user interface |
USD801348S1 (en) | 2015-07-27 | 2017-10-31 | Musical.Ly, Inc | Display screen with a graphical user interface for a sound added video making and sharing app |
US9578362B1 (en) | 2015-12-17 | 2017-02-21 | At&T Intellectual Property I, L.P. | Channel change server allocation |
US11563504B2 (en) * | 2020-06-25 | 2023-01-24 | Sony Interactive Entertainment LLC | Methods and systems for performing and recording live music using audio waveform samples |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331176A (ja) * | 2000-05-23 | 2001-11-30 | Yamaha Corp | 楽曲再生方法、マルチメディアデータ再生方法、サーバクライアントシステムおよびサーバ装置 |
JP2003167575A (ja) * | 2001-11-30 | 2003-06-13 | Nippon Telegraph & Telephone East Corp | 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体 |
JP2005084578A (ja) * | 2003-09-11 | 2005-03-31 | Yamaha Corp | 演奏システム及び楽音映像再生装置 |
JP2005221657A (ja) * | 2004-02-04 | 2005-08-18 | Yamaha Corp | 通信端末 |
JP2008216889A (ja) * | 2007-03-07 | 2008-09-18 | Yamaha Corp | 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム |
JP2010151936A (ja) * | 2008-12-24 | 2010-07-08 | Yamaha Corp | 電子鍵盤楽器およびその制御方法を実現するためのプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3293227B2 (ja) * | 1993-03-31 | 2002-06-17 | ヤマハ株式会社 | 楽音制御装置 |
JP2003029771A (ja) | 2001-07-19 | 2003-01-31 | Sanyo Electric Co Ltd | カラオケ装置 |
US6653545B2 (en) * | 2002-03-01 | 2003-11-25 | Ejamming, Inc. | Method and apparatus for remote real time collaborative music performance |
US7297858B2 (en) * | 2004-11-30 | 2007-11-20 | Andreas Paepcke | MIDIWan: a system to enable geographically remote musicians to collaborate |
CA2489256A1 (en) * | 2004-12-06 | 2006-06-06 | Christoph Both | System and method for video assisted music instrument collaboration over distance |
US7518051B2 (en) * | 2005-08-19 | 2009-04-14 | William Gibbens Redmann | Method and apparatus for remote real time collaborative music performance and recording thereof |
JP4747847B2 (ja) * | 2006-01-17 | 2011-08-17 | ヤマハ株式会社 | 演奏情報発生装置およびプログラム |
US20090129605A1 (en) * | 2007-11-15 | 2009-05-21 | Sony Ericsson Mobile Communications Ab | Apparatus and methods for augmenting a musical instrument using a mobile terminal |
US20100319518A1 (en) * | 2009-06-23 | 2010-12-23 | Virendra Kumar Mehta | Systems and methods for collaborative music generation |
JP5630155B2 (ja) * | 2009-09-14 | 2014-11-26 | ヤマハ株式会社 | 記憶システムおよび記憶装置 |
US20110146476A1 (en) * | 2009-12-18 | 2011-06-23 | Edward Zimmerman | Systems and methods of instruction including viewing lessons taken with hands-on training |
JP5573297B2 (ja) * | 2010-03-31 | 2014-08-20 | ヤマハ株式会社 | 端末装置、電子機器およびプログラム |
EP2662853B1 (en) * | 2011-01-07 | 2016-06-22 | YAMAHA Corporation | Audiovisual synchronisation of network musical performance |
US8383923B2 (en) * | 2011-06-03 | 2013-02-26 | L. Leonard Hacker | System and method for musical game playing and training |
US9075561B2 (en) * | 2011-07-29 | 2015-07-07 | Apple Inc. | Systems, methods, and computer-readable media for managing collaboration on a virtual work of art |
-
2011
- 2011-01-11 JP JP2012552552A patent/JP5729393B2/ja active Active
- 2011-01-11 EP EP11855382.5A patent/EP2665057B1/en active Active
- 2011-01-11 US US13/979,131 patent/US8796528B2/en active Active
- 2011-01-11 WO PCT/JP2011/050298 patent/WO2012095949A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001331176A (ja) * | 2000-05-23 | 2001-11-30 | Yamaha Corp | 楽曲再生方法、マルチメディアデータ再生方法、サーバクライアントシステムおよびサーバ装置 |
JP2003167575A (ja) * | 2001-11-30 | 2003-06-13 | Nippon Telegraph & Telephone East Corp | 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体 |
JP2005084578A (ja) * | 2003-09-11 | 2005-03-31 | Yamaha Corp | 演奏システム及び楽音映像再生装置 |
JP2005221657A (ja) * | 2004-02-04 | 2005-08-18 | Yamaha Corp | 通信端末 |
JP2008216889A (ja) * | 2007-03-07 | 2008-09-18 | Yamaha Corp | 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム |
JP2010151936A (ja) * | 2008-12-24 | 2010-07-08 | Yamaha Corp | 電子鍵盤楽器およびその制御方法を実現するためのプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2665057A4 (en) | 2014-09-03 |
US20130276620A1 (en) | 2013-10-24 |
US8796528B2 (en) | 2014-08-05 |
EP2665057B1 (en) | 2016-04-27 |
EP2665057A1 (en) | 2013-11-20 |
WO2012095949A1 (ja) | 2012-07-19 |
JPWO2012095949A1 (ja) | 2014-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5729393B2 (ja) | 演奏システム | |
JP5733321B2 (ja) | 自動演奏装置 | |
JP4423790B2 (ja) | 実演システム、ネットワークを介した実演方法 | |
JPH10319950A (ja) | データ送受信方法およびシステム | |
US11616589B2 (en) | Methods and systems for performing and recording live music near live with no latency | |
JP7456019B2 (ja) | オーディオ波形サンプルを用いてライブ音楽を演奏及び録音するための方法及びシステム | |
US6525253B1 (en) | Transmission of musical tone information | |
JP4422656B2 (ja) | ネットワークを用いた遠隔多地点合奏システム | |
JP3915517B2 (ja) | マルチメディアシステム、再生装置及び再生記録装置 | |
WO2022168375A1 (ja) | 通信方法、通信システムおよび通信装置 | |
JP3804536B2 (ja) | 楽音再生記録装置、記録装置及び記録方法 | |
JP6529116B2 (ja) | 送信装置、受信装置およびプログラム | |
JP2021150795A (ja) | 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム | |
JP2011145542A (ja) | 再生装置、楽音信号出力装置、再生システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150323 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5729393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |