JPWO2012093497A1 - 自動演奏装置 - Google Patents
自動演奏装置 Download PDFInfo
- Publication number
- JPWO2012093497A1 JPWO2012093497A1 JP2012551788A JP2012551788A JPWO2012093497A1 JP WO2012093497 A1 JPWO2012093497 A1 JP WO2012093497A1 JP 2012551788 A JP2012551788 A JP 2012551788A JP 2012551788 A JP2012551788 A JP 2012551788A JP WO2012093497 A1 JPWO2012093497 A1 JP WO2012093497A1
- Authority
- JP
- Japan
- Prior art keywords
- performance
- time
- performance data
- synchronization signal
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/24—Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
- H04N21/2402—Monitoring of the downstream path of the transmission network, e.g. bandwidth available
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/86—Arrangements characterised by the broadcast information itself
- H04H20/93—Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4392—Processing of audio elementary streams involving audio buffer management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/031—File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/175—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
- G10H2240/305—Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Electrophonic Musical Instruments (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は上述した課題に鑑みてなされたものであり、その目的は、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことである。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
本発明において、前記同期信号受信手段は、前記再生手段が演奏情報を再生する間、前記同期信号を決められた周期で受信し、前記再生手段は、前記周期よりも長い予め決められた期間内で前記同期信号が受信されなかった場合、前記演奏情報を継続して再生するが、当該期間を超えて前記同期信号が受信されなかった場合、前記演奏情報の再生を中断するようにしてもよい。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
以下、図面を参照しつつ本発明の一実施形態について説明する。
図1は、この実施形態の演奏システム100の概略構成を示す図である。図1に示すように、演奏システム100は、送信側システム1と、サーバ装置20と、受信側システム3とを備え、これらは通信ネットワーク90経由で接続されている。通信ネットワーク90は、ここではインターネットを含む通信網である。通信ネットワーク90には、演奏システム100の各装置のほかに、動画配信サーバ40が接続されている。動画配信サーバ40は、不特定のユーザが閲覧可能な映像及び音声を含む動画を配信する、いわゆる動画共有サービスを提供するものである。動画配信サーバ40は、ビデオストリーミングなどのプラットフォームを提供し、映像及び音声を含む動画(以下、「ライブ動画」という。)を配信することができるものである。この実施形態では、動画配信サーバ40は、送信側システム1及び受信側システム3の双方と通信可能であり、送信側システム1から提供されるライブ動画を、受信側システム3に配信する機能を実現する。
なお、本実施形態のライブ動画には、撮影が行われてから、遅延処理によって所定時間遅延させて配信される動画も含む。
第1経路及び第2経路は、各々、通信ネットワーク90を経由するから一部の経路は共通するが、他の経路は異なっている。このように第1経路及び第2経路は、互いに独立した伝送系統といえるから、通信状況(例えば、通信遅延の程度)が相違することがある。
図2は、送信側システム1の構成を示すブロック図である。図2に示すように、送信側システム1は、楽器端末10と、ビデオカメラ101と、HDD(HardDisk Drive)レコーダ102と、PC(Personal Computer)104とにより構成される。
まず、楽器端末10の構成を説明する。楽器端末10は、ここでは電子ピアノであり、制御部11と、記憶部12と、楽音生成部13と、スピーカ14と、操作部15と、表示部16と、通信部17と、演奏部18と、信号送信部19とを備える。図2に示すように、スピーカ14を除く楽器端末10の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
なお、楽器端末10で演奏が行われた日時は、計時部111が計時する日時により特定される。
以上の構成の楽器端末10は、演奏情報を生成して出力する演奏情報出力装置として機能する。楽器端末10の構成の説明は以上である。
なお、映像信号、音声信号及び同期信号の時間軸上での関係は、遅延処理が施された後も、遅延処理前から変化することはないものとする。また、遅延装置103がHDDレコーダ102に内蔵されるのではなく、HDDレコーダ102とPC104との間に外部接続されていてもよい。
なお、動画配信サーバ40が、映像信号、音声信号及び同期信号をPC104から受信したときから、これらを受信側システム3に配信するときまでに、例えば1分間程度要する。この遅延は、動画配信サーバ40で意図的な遅延処理によって奏するものであり、一般的な動画共有サービスでも採られることがある。
図3は、サーバ装置20のハードウェア構成を示すブロック図である。図3に示すように、サーバ装置20は、制御部21と、第1通信部22と、第2通信部23と、記憶部24とを備える。
制御部21は、CPUや、サーバ装置20の各部を制御するためのプログラムを記憶したROM、プログラムを実行する際のワークエリアとして使用されるRAMを備える。CPUは、ROMに記憶されているプログラムを実行して、サーバ装置20の各部を制御する。第1通信部22は、通信ネットワーク90に接続するインタフェースを備え、楽器端末10と通信する。第2通信部23は、通信ネットワーク90に接続するインタフェースを備え、自動演奏ピアノ30と通信する。第1通信部22及び第2通信部23という2つの通信手段が設けられるのは、制御部21が楽器端末10から演奏データを受信して記憶部24に記憶する処理と、記憶部24から演奏データを読み出して自動演奏ピアノ30へ送信する処理とを、並行して行うことを可能にするためである。よって、この並行処理が実現可能である限り、これら各通信手段はそれぞれ独立していなくてもよい。
図4は、受信側システム3の構成を示すブロック図である。図4に示すように、受信側システム3は、自動演奏ピアノ30とPC301とにより構成される。PC301は、通信ネットワーク90経由で動画配信サーバ40と通信し、動画配信サーバ40から配信された映像信号、音声信号及び同期信号を受信する。PC301は、受信した信号のうち、映像信号及び音声信号を再生して、自身又は外部のモニタを用いてライブ動画を出力する。また、PC301は、オーディオケーブルで接続された自動演奏ピアノ30へ同期信号を送信する。
記憶部32は、ハードディスク装置を備え、各種プログラムや楽器ID等を記憶する。記憶部32が記憶する楽器IDは、楽器端末10の楽器ID「0001」と異なる、例えば「0002」に予め設定される。この楽器IDは、自動演奏ピアノ30固有のものである。操作部33は、自動演奏ピアノ30を操作するための各種ボタンを備え、ユーザから自動演奏ピアノ30に対する各種指示の入力が行われるものである。表示部34は、液晶ディスプレイを備え、自動演奏ピアノ30を操作するための各種画面を表示する。
演奏部38は、駆動機構38aと、キーセンサ38bと、ペダルセンサ38cと、ピアノ電子回路38dと、ピアノ音源38eと、ミキサ38fと、アンプ38gと、スピーカ38hとを有している。駆動機構38aは、複数の鍵や複数のペダルのほか、各鍵に対応して設けられた駆動ソレノイド群等を有している。キーセンサ38b及びペダルセンサ38cは、手動演奏を行うための構成であり、複数の鍵やペダルの各々に対応して設けられている。キーセンサ38b及びペダルセンサ38cは、鍵及びペダルを押したときの強さや深さなどを検出し、検出した鍵やペダルを特定するキー番号、ペダル番号、ベロシティ情報等を含む検出結果を、ピアノ電子回路38dに供給する。ピアノ電子回路38dは、自動演奏を行う場合、MIDIメッセージをピアノ音源38eに供給する。ピアノ音源38eは、MIDIメッセージにより指示された演奏音を出力するためのオーディオ信号を生成する。また、ピアノ電子回路38dは、MIDIメッセージに従って、駆動機構38aが備える駆動ソレノイド群を制御する。具体的には、ピアノ電子回路38dは、ある演奏音についてノートオン(押鍵)のMIDIメッセージを受け取った場合に、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を押下させるのに必要な磁力をソレノイドにより発生させる。一方、ある演奏音についてノートオフ(離鍵)のイベントを受け取った場合、ピアノ電子回路38dは、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を離鍵させるのに必要な磁力をソレノイドにより発生させる。また、ピアノ電子回路38dは、手動演奏を行う場合、キーセンサ38b及びペダルセンサ38cから供給される検出結果に基づいてイベントを生成し、そのイベントをピアノ音源38eに供給する。ピアノ音源38eは、このMIDIメッセージに従って、指示された演奏音を出力するためのオーディオ信号を生成する。
上記のようにしてピアノ音源38eにより生成されたオーディオ信号は、ミキサ38fへ出力される。ミキサ38fは、ピアノ音源38eから出力されるオーディオ信号を、必要に応じて他のオーディオ信号と混合してアンプ38gに出力する。この信号はアンプ38gによって増幅され、スピーカ38hから演奏音として出力される。
図7は、自動演奏に関する演奏システム100の機能的構成を示す機能ブロック図である。
楽器端末10は、計時部111と、演奏情報生成部112と、第1演奏データ送信部113と、同期信号送信部114とに相当する機能を実現する。サーバ装置20は、第1演奏データ受信部211と、第2演奏データ送信部212とに相当する機能を実現する。自動演奏ピアノ30は、計時部311と、第2演奏データ受信部312と、バッファリング部313と、同期信号受信部314と、計時補正部315と、再生部316とに相当する機能を実現する。
計時部111は、上述したように日時を計る。演奏情報生成部112は、演奏部18の演奏操作に応じて、楽器端末10の演奏情報としてMIDIメッセージを生成する。第1演奏データ送信部113は、演奏情報生成部112で演奏情報(MIDIメッセージ)が生成される毎に、計時部111で計られている日時を示す日時情報と、その演奏情報と、楽器IDとの組である演奏データをサーバ装置20に送信する。同期信号送信部114は、演奏情報生成部112で生成された演奏情報が示す演奏が楽器端末10で行われたときに、計時部111で計られている日時であるタイムコード及び楽器IDを示す同期信号を生成し、生成した同期信号を動画配信サーバ40に送信する。
次に、本実施形態の動作について説明する。図8,9は、自動演奏の際の楽器端末10、サーバ装置20及び自動演奏ピアノ30が実行する処理手順を示すシーケンスチャートである。
ユーザが楽器端末10の電源を入れると、制御部11のROMに記憶されているプログラムをCPUが実行する。そして、楽器端末10は、電子ピアノの機能を実現し、また通信ネットワーク90と通信を行うことが可能となる。
演奏者が楽器端末10の鍵を押鍵すると(ステップS1)、制御部11は、ノートオンのメッセージ、押下された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、計時部111を用いて、このノートオンのMIDIメッセージを生成した日時を示す日時情報を生成する。制御部11は、生成した演奏情報、日時情報、及び記憶部12に記憶されている楽器ID「0001」を含む演奏データを生成して、通信部17によりサーバ装置20へ送信する(ステップS2)。ここでは、ステップS1の処理時に制御部11が計っている日時が「2010年12月28日の19時00分00秒00」であったとする。
一方で、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、MIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号およびベロシティに対応した楽音の信号を生成し、生成した信号をスピーカ14に供給する。楽音生成部13から供給された信号がスピーカ14に供給されると、供給された信号に応じて楽音がスピーカ14から放音される。
次に、楽器端末10の制御部11は、計時部111が計る日時を示すタイムコード、及び記憶部12に記憶された楽器IDを符号化して同期信号を生成して、信号送信部19によりHDDレコーダ102に送信する(ステップS4)。この同期信号は、PC104により、HDDレコーダ102から動画配信サーバ40に送信される。本実施形態では、制御部11は、計時部111が計る日時に基づいて、1秒間に1回だけ同期信号を送信するものとする。
なお、同期信号は遅延装置103による遅延処理を経るとともに、動画配信サーバ40を経由する。本実施形態では、遅延装置103の遅延処理によって、ある時刻に生成された同期信号が受信側システム3で受信される時刻は、同時刻に生成された演奏情報を含む演奏データがサーバ装置20に受信されるときよりも2分程度遅延する。
ここで、日時情報が示す日時が「2010年12月28日の19時00分02秒24」である場合、制御部21は、この日時を示す日時情報「2010-12-28T19:00:02:24」と、楽器ID「0001」と、「MIDIメッセージ♯2」との組である演奏データを、記憶部24に記憶する。
以降も、楽器端末10は、演奏操作がある毎に演奏情報を生成して、通信部17により演奏データをサーバ装置20に送信する。サーバ装置20にあっては、楽器端末10から演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる。また、楽器端末10は、1秒毎に同期信号を送信する処理を繰り返す(ステップS8,S9)。
以上のような演奏データの送信及び記憶と並行して、サーバ装置20と自動演奏ピアノ30との間では、以下のような自動演奏に係る処理が実行される。これにより、サーバ装置20には、図5に示されるような演奏データ群241が記憶されているものとする。
制御部31は、同期信号を受信すると、その同期信号が示す楽器IDを記憶部32に記憶させる。ここでは、制御部31は、予め記憶部32に記憶された楽器ID「0002」を保持したまま、それとは別に、同期信号が示す楽器ID「0001」を記憶部32に記憶させる。以降、制御部31は、同期信号に基づいて記憶部32に記憶された楽器ID「0001」に従って、再生対象のMIDIメッセージを含む演奏データをサーバ装置20から取得する。
なお、上述したように、HDDレコーダ102は遅延装置103を有しており、楽器端末10側から1分程度遅れてタイムコード及び楽器IDがPC301で受信される。これに対し、楽器端末10からサーバ装置20への演奏データの送信には、このような遅延を意図的に生じさせていない。自動演奏ピアノ30が送信要求する演奏データは、サーバ装置20に確実に記憶されていると考えられる。
なお、制御部31は、再生した演奏データについてはデータバッファ37から消去して、その記憶容量を確保する。
そして、自動演奏ピアノ30の制御部31は、動画配信サーバ40から同期信号を受信する(ステップS16)。この場合も、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS17)。そして、制御部31はステップS17の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS18)。そして、制御部31は、上記手順で、PC301が出力する映像及び音声に同期するタイミングで、MIDIメッセージを再生する。
そして、制御部31は、データバッファ37の記憶容量が閾値以下になった場合などは、再び、サーバ装置20に対して演奏データ要求メッセージを送信する(ステップS19)。そして、制御部31は、演奏データ要求メッセージに応じて受信した演奏データを、データバッファ37にバッファリングして(ステップS20)、上記手順でMIDIメッセージに基づく自動演奏を継続する。
以上のような動作が、楽器端末10の演奏が終了して自動演奏ピアノ30の自動演奏が終了するまで継続して行われる。
また、本実施形態では、映像と同期して鍵等の演奏部38の各部が動作し、楽器端末10の動きを再現することにもなるので、自動演奏ピアノ30のユーザは遠隔地にいながら演奏会場の臨場感を味わうことができる。
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。なお、以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
上述した実施形態では、自動演奏ピアノ30は、同期信号の受信を契機に、演奏データ要求メッセージをサーバ装置20に送信して、データバッファ37にバッファリングするための演奏データを受信していた。これに代えて、自動演奏ピアノ30がデータバッファ37を有さない構成であってもよい。図10は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図10に示すように、本実施形態では、自動演奏ピアノ30がバッファリング部313を実現しない。
この変形例では、サーバ装置20の記憶部24がデータバッファ37と同等の機能を果たすこということもでき、自動演奏ピアノ30の構成を簡略化することもできる。
自動演奏ピアノ30の制御部31は、所定の周期(ここでは、1秒間)で通信部36により同期信号を受信する。この場合に、制御部31はこの受信の周期よりも長い所定期間(例えば、1分間)内で同期信号が受信されなかった場合、MIDIメッセージを継続して再生するが、この所定期間を超えて同期信号が受信されなかった場合、MIDIメッセージの再生を中断してもよい。
例えば、動画配信サーバ40に何らかのアクシデントが発生した場合、自動演奏ピアノ30は演奏データを受信できるが、同期信号を受信できない状態が継続する。このとき、自動演奏ピアノ30はアクシデントが発生した後で合っても、演奏データを受信することはできるので、自動演奏を継続することができる。よって、演奏システム100によれば、自動演奏が突然停止するといった違和感をユーザが持つことがない。一方で、同期信号がある一定時間以上受信されないと、動画配信サーバ40の配信映像と自動演奏のタイミングとが大きくずれてしまって、好ましくない場合がある。よって、制御部31は、同期信号がある程度受信できない場合であって、このような同期信号が受信されなくても問題ない期間を超えた場合には、演奏情報の演奏部38への供給を停止して、自動演奏を中断する。
なお、この変形例において、自動演奏ピアノ30は同期信号の受信が再開すると、自動演奏も再開するとよい。
上述した実施形態では、生演奏を撮影したライブ動画に同期する自動演奏の実現を前提としていた、ライブ動画に代えて録画映像を含む動画を用いた演奏システムにも、本発明を適用可能である。この場合、サーバ装置20は、演奏の収録時に演奏データを蓄積する。自動演奏を実現する機会には、サーバ装置20が蓄積しておいた映像信号、音声信号及び同期信号を、動画配信サーバ40に送信する。そして、動画配信サーバ40はこの映像信号、音声信号及び同期信号を配信する。また、これらの信号の記録をHDDレコーダ102が行ってもよい。一方、受信側システム3では、動画配信サーバ40から受信した各信号に基づいて、上記実施形態と同様の手順で自動演奏を行う。
この変形例の構成で、サーバ装置20は、受信した演奏データをファイル化して記録してもよい。その理由は、例えばひとつの楽器端末10が複数回の演奏を行った場合に、自動演奏したい演奏を区別できるようにしたい場合がある。また、サーバ装置20において、コンサート単位や曲単位で演奏データをまとめておくことが、演奏データの管理上好ましい場合もあると考えられる。このファイル化について、手動によってコンサート単位や曲単位で複数の演奏情報がまとめられてファイル化されてもよいが、手動操作なしにこれを実現できることが好ましい。この場合、以下の手順でサーバ装置20がファイル化を行うとよい。なお、この構成で、サーバ装置20が日時を計る計時部を有しているものとする。
また、制御部21は、演奏ファイルの演奏データに含まれている楽器ID、演奏ファイル中の演奏データに含まれている日時のうち最も早い日時情報が示す演奏開始日時と、最も遅い日時情報が示す演奏終了日時とを取得して、これらを対応付けて記憶してもよい。
なお、この変形例のような録画映像の配信という態様によれば、映像のスキップや早送り、巻き戻しが行われて動画の再生位置が変更された場合でも、それに応じて動画配信サーバ40から配信される信号が変更後の再生位置に対応したものとなるので、自動演奏ピアノ30はその動画に同期した自動演奏を実現することができる。
上述した実施形態では、音声信号と同期信号とを別チャネルの音声信号の伝送経路を用いて送信していたが、いわゆる透かし技術を用いて音声信号に同期信号を重畳(つまり、合成)して送信してもよい。
図12は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図12に示すように、本変形例では、合成部105は送信側システム1側に構成され、楽器端末10の外部に構成される。また、分離部302は受信側システム3に構成され、自動演奏ピアノ30の外部に構成される。
合成部105は、例えば、音声信号を搬送するための搬送波を表す搬送波信号を透かし情報に基づいて位相変調することにより、音声信号の周波数成分よりも高い帯域に透かし情報を合成する。また、合成部105は、いわゆるOFDM(Orthogonal Frequency-Division Multiplexing)変調により、音声信号に透かし情報を合成してもよい。分離部302にあっては、合成部105での同期信号の合成の方式に応じた方式で、音声信号と同期信号とを分離する。また、以下の手順で合成及び分離を行ってもよい。
合成部105は、入力端c1、c2を有している。入力端c1は、音声信号Aが入力されるものである。入力端c2は、同期信号Sが入力されるものである。反転部c3は、入力された信号の位相を反転して出力する。ここでは、反転部c3は、入力端c2に入力された同期信号Sの位相を反転して、同期信号−Sを出力する。加算部c4,c5は、それぞれ入力される信号どうしを加算して出力するものである。加算部c4は、入力端c1に入力される音声信号Aと、反転部c3から出力される同期信号−Sとを加算して、その加算結果を第1差信号md(=A−S)として出力端c6に出力する。すなわち、反転部c3及び加算部c4は、楽音信号と同期信号との差を表す差信号を生成するものである。加算部c5は、入力端c1に入力される音声信号Aと、入力端c2に入力される同期信号Sとを加算して、その加算結果を第1和信号ms(=A+S)として出力端c7に出力する。加算部c5は、楽音信号と同期信号との和を表す和信号を生成する。
出力端c6は、一方のチャネル(ここでは、Lチャネル)に対応しており、第1差信号mdを出力する。出力端c7は、他方のチャネル(ここでは、Rチャネル)に対応しており、第1和信号msを出力する。PC104は、このように符号化された2チャネルの信号を、音声信号の伝送経路を用いて動画配信サーバ40に送信する。
入力端c11は、Lチャネルに対応しており、第1差信号md(=A−S)が入力されるものである。入力端c12は、Rチャネルに対応しており、第1和信号ms(=A+S)が入力されるものである。反転部c13は、入力される信号の位相を反転して出力する。ここでは、反転部c13は、入力端c11に入力された第1差信号msの位相を反転して出力する。すなわち、反転部c13は、第1差信号md(=A−S)が入力されると、その逆位相の信号である第1差信号−md(=−A+S)を出力する。加算部c14、c15は、それぞれ入力される信号どうしを加算して出力するものである。加算部c14は、反転部c13から出力される第1差信号−md(=−A+S)と、入力端c11に入力される第1和信号md=A+Sとを加算して、その加算結果を第2差信号d(=2S)として出力端c16に出力する。すなわち、反転部c13及び加算部c14は、第1和信号から第1差信号を減算したときの差を表す差信号を生成するものである。加算部c15は、入力端c11に入力される第1差信号md(=A−S)と、入力端c12に入力される第1和信号ms(=A+S)とを加算して、その加算結果を第2和信号ds(=2A)として出力端c17に出力する。すなわち、加算部c15は、第1差信号と第1和信号との和を表す和信号を生成するものである。
出力端c16は、第2差信号ddを同期信号として出力する。出力端c17は、第2和信号dsを音声信号として出力する。PC301は、このように分離された音声信号Aに応じた音声を出力するとともに、同期信号Sを自動演奏ピアノ30に送信する。
なお、第2差信号dd及び第2和信号dsの振幅を元の振幅となるようにすれば(つまり、1/2にすれば)、符号化前の元情報である音声信号A及び同期信号Sを特定する(つまり、復号)することができる。
この構成によれば、動画配信サーバ40を経由する音声信号の伝送経路が2チャネルの場合であっても、送信側システム1から受信側システム3へステレオ方式の音声信号を送信することができる。また、同期信号Sの周波数成分の少なくとも一部が音声信号Aの周波数成分と同じ帯域に含まれる場合であっても、両信号の加減算によって符号化・復号が可能であるから、楽音信号の質の低下を抑制することができる。
なお、上述した実施形態の構成で、ステレオ方式の音声信号を送信したい場合には、動画配信サーバ40を経由する通信経路に、3チャネル以上の音声信号の伝送経路が存在していればよい。
上述した実施形態では、PC104及びPC301が同期信号の送受信を行っていたが、PC104に代わって楽器端末10が通信ネットワーク90に接続して同期信号を送信してもよい。また、PC301に代わって、自動演奏ピアノ30が通信ネットワーク90に接続して同期信号を送信してもよい。
また、サーバ装置20が楽器端末10と同じ場所にあり、例えば通信ネットワーク90を介さないで、LAN(Local Area Network)等の他の通信路を介してこれらが接続されてもよい。
また、同期信号、映像信号及び音声信号の通信経路と演奏データの通信経路とは、それぞれ通信ネットワーク90を含んでいたが、それぞれ独立した通信ネットワークを経由してもよい。
また、動画配信サーバ40は不特定多数のユーザに利用されうるものに限らず、演奏システム100専用に設けられたものであってもよい。
また、上述した実施形態では、HDDレコーダ102が遅延装置103を有していた。これに代えて、HDDレコーダ102が遅延装置103を有さず、動画配信サーバ40の遅延処理機能を利用して映像信号、音声信号及び同期信号の配信タイミングを遅延させてもよい。
上述した実施形態において、楽器IDを省略することも可能である。例えば、サーバ装置20が1つの楽器で生成された演奏情報を含む演奏データを記憶するものであれば(例えば、楽器端末10が1つである場合)、楽器IDがなくともタイムコードのみで自動演奏ピアノ30は自動演奏を実現可能である。
また、計時部311は、例えば自動演奏開始時からの経過時間を計時するものであってもよい。この場合も、計時補正部315はタイムコードが示す日時に応じて計時部311が計る日時を補正するので、実施形態と同等の同期再生を実現可能である。
また、楽器端末10は、日付情報と時刻情報とを含む日時情報に代えて、時刻情報のみを演奏データに含めて送信し、また、タイムコードにその時刻を含めてもよい。この場合、上述した実施形態の「日時情報」を「時刻情報」に置き換えた構成になるが、生演奏を自動演奏するような場合、日付を特定できなくても演奏操作の時刻さえ受信側システム3で分かれば、自動演奏を実現可能である。
また、上述した実施形態では、同期信号が楽器ID及び演奏が行われた日時を示す日時情報を示すものであったが、同期信号はこれ以外の情報を示すものであってもよい。例えば、図15に示すように、同期信号は楽器ID、楽器端末10で演奏が行われた時刻である演奏開始時刻、及び演奏開始時刻からの経過時間(つまり、相対時刻)を示すタイムコードを示すものであってもよい。演奏開始時刻は、実施形態の場合は、「2010年12月28日の19時00分00秒00」を表す。また、タイムコードは、図5の例を用いると以下のようになる。第1行に対応する演奏データでは「0時間0分00秒00」を表し、第2行に対応する演奏データでは「0時間0分02秒24」を表し、第3行に対応する演奏データでは「0時間0分03秒59」を表す。
なお、演奏開始時刻は楽器端末10から送信されるすべての同期信号に含まれるが、自動演奏ピアノ30で再現する演奏が変化しない場合など、自動演奏ピアノ30が演奏開始時刻を特定できるのであれば、楽器端末10から送信される最初の同期信号にのみ演奏開始時刻が含まれていてもよい。この場合、自動演奏ピアノ30は、楽器端末10の演奏中には、最初に受信した同期信号が示す演奏開始時刻に基づいて、演奏開始時刻を特定する。
このように、自動演奏ピアノ30は、演奏データの時刻情報が示す時刻と、受信した同期信号が示す時刻とが連動するように、MIDIメッセージの再生タイミングを調整すれば、自動演奏を実現可能である。
また、自動演奏ピアノ30において楽器端末10のピッチと一致させるように、自動演奏を行えるようにしてもよい。その手法は、特許第3867579号明細書にも開示されているとおりである。
具体的には、楽器端末10が自端末の基準ピッチを検出し、この基準ピッチを示す信号を例えば同期信号と同じ方法で、自動演奏ピアノ30に送信する。基準ピッチは、或る音程の音を演奏部18から出力したときの周波数であり、この周波数が演奏システム100の基準となるピッチを表す。なお、基準ピッチを示す信号の送信方法については、特に問わない。
自動演奏ピアノ30は、基準ピッチを取得すると、自装置の演奏部38の基準ピッチを検出して、これらの音程差を求める。そして、自動演奏ピアノ30は、自動演奏時には、この音程差に応じた読み出し速度でデータバッファ37から演奏データを読み出して再生することで、その音程の音の周波数が基準ピッチに近づくように(好ましくは、一致するように)する。
この変形例の構成によれば、楽器端末10と自動演奏ピアノ30との基準ピッチを近づけることができ、自動演奏ピアノ30の個体差等による影響を抑制して、より生演奏に近い音程で自動演奏を実現することが期待できる。
上述した演奏システム100にあって、一部又は全サービスについて課金を行ってもよい。例えば、サーバ装置20がこの課金処理を行うものとし、演奏データの送信対象とする自動演奏ピアノ30を予め登録しておく。そして、サーバ装置20は自動演奏の開始前に自動演奏ピアノ30を認証して、その認証に成功すれば課金して、演奏データの送信を許可する。また、プライベートコンサートのように、自動演奏に係るサービスを許可するユーザを制限したい場合、サーバ装置20が演奏データの送信対象とする自動演奏ピアノ30を予め登録しておき、自動演奏の開始前にサーバ装置20が自動演奏ピアノ30を認証して、その認証に成功すれば自動演奏を許可してもよい。
上述した実施形態では、本発明の演奏情報出力装置が楽器端末10である場合であって、特に、電子ピアノである場合を説明したが、演奏操作に応じて例えばMIDIメッセージを出力可能な自動演奏ピアノであってもよい。この場合、楽器端末10と自動演奏ピアノ30とを同じ自動演奏ピアノにすることもできる。また、本発明の演奏情報出力装置は演奏情報を出力可能であれば、ピアノ以外に対応する楽器端末でもよく、例えば、エレクトーン(登録商標)やオルガンなどの鍵盤楽器や、フルートやクラリネットなどの吹奏楽器、ドラム等の打楽器などであってもよい。したがって、本発明の自動演奏装置においても、自動演奏ピアノには限定されず、MIDIメッセージに基づいて自動演奏を行うことが可能な装置であってもよい。
また、本発明の演奏情報出力装置及び自動演奏装置は、例えば、楽器演奏用のアプリケーションプログラムがインストールされたスマートフォンやスレート型端末、スマートブックなどの情報端末、携帯型音楽プレーヤであってもよく、手動演奏の機能を有さないものであってもよい。
また、本発明の演奏情報はMIDI形式のものに限らず、楽器端末10の演奏内容を示し、自動演奏に利用できるものであればよい。
上述した実施形態における楽器端末10の制御部11や、サーバ装置20の制御部21、自動演奏ピアノ30の制御部31によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD)など)、光記録媒体(光ディスク(CD、DVD)など)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でダウンロードさせることも可能である。また、制御部11、制御部21及び制御部31によって実現される機能は、1又は複数のソフトウェアにより実現されてもよいし、1又は複数のハードウェアにより実現されてもよい。
Claims (7)
- 映像及び音声を配信する動画配信サーバの配信映像に同期して、演奏情報出力装置から受信した演奏情報を再生する自動演奏装置であって、
前記演奏情報出力装置により出力された演奏情報と、前記演奏情報出力装置の計時部で計られた当該演奏情報の演奏が行われた時刻を示す時刻情報との組である演奏データを記憶する記憶装置から、前記動画配信サーバを経由せずに送信された演奏データを受信する演奏データ受信手段と、
前記演奏情報出力装置により送信された前記計時部で計られた時刻を示す同期信号を、前記動画配信サーバ経由で前記音声の音声信号の伝送経路を用いて受信する同期信号受信手段と、
前記演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
を備えることを特徴とする自動演奏装置。 - 前記演奏データ受信手段が受信した演奏データをバッファ領域にバッファリングするバッファリング手段を備え、
前記再生手段は、前記バッファリング手段によるバッファリングに並行して、バッファリングされた前記演奏データの演奏情報を前記バッファ領域から読み出して再生する
ことを特徴とする請求項1に記載の自動演奏装置。 - 前記同期信号受信手段は、前記再生手段が演奏情報を再生する間、前記同期信号を決められた周期で受信し、
前記再生手段は、前記周期よりも長い予め決められた期間内で前記同期信号が受信されなかった場合、前記演奏情報を継続して再生するが、当該期間を超えて前記同期信号が受信されなかった場合、前記演奏情報の再生を中断する
ことを特徴とする請求項1又は2に記載の自動演奏装置。 - 前記記憶装置は、前記演奏情報及び前記時刻情報のほか、前記演奏情報出力装置又は一群の前記演奏情報である演奏情報群を識別する識別子を記憶し、
前記同期信号は、前記識別子及び前記演奏が行われた時刻を示す信号であり、
前記再生手段は、前記同期信号が示す前記識別子を含む演奏データの演奏情報を再生するが、それ以外の識別子を含む演奏データの演奏情報を再生しない
ことを特徴とする請求項1から3のいずれか1項に記載の自動演奏装置。 - 演奏情報を出力する演奏情報出力装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置とのそれぞれと通信可能である記憶装置であって、
前記演奏情報出力装置で演奏情報が生成される毎に、当該演奏情報と、当該演奏情報が示す演奏が行われた時刻を示す時刻情報との組である演奏データを、前記動画配信サーバを経由せずに当該演奏情報出力装置から受信する演奏データ受信手段と、
前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、
前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記自動演奏装置へ送信する演奏データ送信手段と
を備えることを特徴とする記憶装置。 - 記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して演奏情報を再生する自動演奏装置とのそれぞれと通信可能である演奏情報出力装置であって、
演奏情報を生成する演奏情報生成手段と、
時刻を計る計時手段と、
前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する演奏データ送信手段と、
前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を介して前記動画配信サーバへ送信する同期信号送信手段と
を備えることを特徴とする演奏情報出力装置。 - 演奏情報を出力する演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置と、を備える演奏システムであって、
前記演奏情報出力装置は、
演奏情報を生成する演奏情報生成手段と、
時刻を計る計時手段と、
前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する第1演奏データ送信手段と、
前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段と
を有し、
前記記憶装置は、
前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、
前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、
前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに当該自動演奏装置へ送信する第2演奏データ送信手段と
を有し、
前記自動演奏装置は、
前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、
前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、
前記第2演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
を有することを特徴とする演奏システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/050222 WO2012093497A1 (ja) | 2011-01-07 | 2011-01-07 | 自動演奏装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012093497A1 true JPWO2012093497A1 (ja) | 2014-06-09 |
JP5733321B2 JP5733321B2 (ja) | 2015-06-10 |
Family
ID=46457362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012551788A Active JP5733321B2 (ja) | 2011-01-07 | 2011-01-07 | 自動演奏装置 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9003468B2 (ja) |
EP (1) | EP2662853B1 (ja) |
JP (1) | JP5733321B2 (ja) |
KR (1) | KR101554399B1 (ja) |
CN (1) | CN103403794B (ja) |
AU (1) | AU2011354005B2 (ja) |
CA (1) | CA2823888C (ja) |
RU (1) | RU2544749C1 (ja) |
WO (1) | WO2012093497A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8796528B2 (en) * | 2011-01-11 | 2014-08-05 | Yamaha Corporation | Performance system |
WO2014203870A1 (ja) * | 2013-06-17 | 2014-12-24 | ヤマハ株式会社 | 演奏システム、演奏方法及び演奏プログラム |
CN105657533B (zh) * | 2015-12-30 | 2017-11-17 | 广东欧珀移动通信有限公司 | 数据文件播放方法及装置 |
CN107770135A (zh) * | 2016-08-19 | 2018-03-06 | 范子文 | 电子乐器的音乐直播方法和装置 |
CN106601218A (zh) * | 2016-12-22 | 2017-04-26 | 湖南乐和云服网络科技有限公司 | 一种音视频与钢琴动作同步装置及方法 |
CN106782459B (zh) * | 2016-12-22 | 2022-02-22 | 湖南卡罗德钢琴有限公司 | 基于移动终端应用程序的钢琴自动演奏控制系统及方法 |
JP7391368B2 (ja) * | 2017-10-20 | 2023-12-05 | 国立大学法人電気通信大学 | 暗号化制御方法及び暗号化制御プログラム |
JP7343268B2 (ja) * | 2018-04-24 | 2023-09-12 | 培雄 唐沢 | 任意信号挿入方法及び任意信号挿入システム |
US11250825B2 (en) * | 2018-05-21 | 2022-02-15 | Smule, Inc. | Audiovisual collaboration system and method with seed/join mechanic |
CN109413476A (zh) * | 2018-10-17 | 2019-03-01 | 湖南乐和云服网络科技有限公司 | 一种音视频与钢琴动作同步直播方法及系统 |
CN110392276B (zh) * | 2019-07-29 | 2021-06-22 | 湖南卡罗德音乐集团有限公司 | 一种基于rtmp协议同步传输midi的直播录播方法 |
JP7181173B2 (ja) * | 2019-09-13 | 2022-11-30 | 株式会社スクウェア・エニックス | プログラム、情報処理装置、情報処理システム及び方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4265082B2 (ja) | 2000-05-23 | 2009-05-20 | ヤマハ株式会社 | サーバクライアントシステムおよびサーバ装置 |
JP2003029771A (ja) * | 2001-07-19 | 2003-01-31 | Sanyo Electric Co Ltd | カラオケ装置 |
JP3811055B2 (ja) | 2001-11-30 | 2006-08-16 | 東日本電信電話株式会社 | 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体 |
JP3867579B2 (ja) | 2002-01-15 | 2007-01-10 | ヤマハ株式会社 | マルチメディアシステム及び再生装置 |
JP4110807B2 (ja) * | 2002-03-15 | 2008-07-02 | ヤマハ株式会社 | 同期調整装置および同期調整方法を実現するためのプログラム |
JP4001091B2 (ja) * | 2003-09-11 | 2007-10-31 | ヤマハ株式会社 | 演奏システム及び楽音映像再生装置 |
JP4363204B2 (ja) * | 2004-02-04 | 2009-11-11 | ヤマハ株式会社 | 通信端末 |
US20080147558A1 (en) * | 2006-10-24 | 2008-06-19 | Robert Korbin Kraus | Method and system for providing prospective licensees and/or purchasers with access to licensable media content |
US7649136B2 (en) * | 2007-02-26 | 2010-01-19 | Yamaha Corporation | Music reproducing system for collaboration, program reproducer, music data distributor and program producer |
JP2008216889A (ja) | 2007-03-07 | 2008-09-18 | Yamaha Corp | 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム |
RU2364956C1 (ru) * | 2008-04-29 | 2009-08-20 | Дмитрий Эдгарович Эльяшев | Синтезатор музыкального инструмента с физическим моделированием |
JP5391684B2 (ja) * | 2008-12-24 | 2014-01-15 | ヤマハ株式会社 | 電子鍵盤楽器およびその制御方法を実現するためのプログラム |
-
2011
- 2011-01-07 JP JP2012551788A patent/JP5733321B2/ja active Active
- 2011-01-07 EP EP11854805.6A patent/EP2662853B1/en active Active
- 2011-01-07 RU RU2013136849/08A patent/RU2544749C1/ru active
- 2011-01-07 KR KR1020137017644A patent/KR101554399B1/ko active IP Right Grant
- 2011-01-07 WO PCT/JP2011/050222 patent/WO2012093497A1/ja active Application Filing
- 2011-01-07 CN CN201180069033.6A patent/CN103403794B/zh active Active
- 2011-01-07 AU AU2011354005A patent/AU2011354005B2/en not_active Ceased
- 2011-01-07 US US13/978,385 patent/US9003468B2/en active Active
- 2011-01-07 CA CA2823888A patent/CA2823888C/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CA2823888A1 (en) | 2012-07-12 |
EP2662853B1 (en) | 2016-06-22 |
CN103403794B (zh) | 2015-06-17 |
AU2011354005A1 (en) | 2013-08-01 |
CA2823888C (en) | 2015-11-10 |
AU2011354005B2 (en) | 2016-12-22 |
US20130283332A1 (en) | 2013-10-24 |
RU2544749C1 (ru) | 2015-03-20 |
EP2662853A1 (en) | 2013-11-13 |
JP5733321B2 (ja) | 2015-06-10 |
WO2012093497A1 (ja) | 2012-07-12 |
KR20130091358A (ko) | 2013-08-16 |
US9003468B2 (en) | 2015-04-07 |
RU2013136849A (ru) | 2015-02-20 |
EP2662853A4 (en) | 2014-09-03 |
CN103403794A (zh) | 2013-11-20 |
KR101554399B1 (ko) | 2015-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5733321B2 (ja) | 自動演奏装置 | |
JP5729393B2 (ja) | 演奏システム | |
JP4001091B2 (ja) | 演奏システム及び楽音映像再生装置 | |
JP4423790B2 (ja) | 実演システム、ネットワークを介した実演方法 | |
JP7242764B2 (ja) | 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム | |
JP7456019B2 (ja) | オーディオ波形サンプルを用いてライブ音楽を演奏及び録音するための方法及びシステム | |
CN112119456B (zh) | 任意信号插入方法以及任意信号插入系统 | |
JP4422656B2 (ja) | ネットワークを用いた遠隔多地点合奏システム | |
JP3915517B2 (ja) | マルチメディアシステム、再生装置及び再生記録装置 | |
JP2004094683A (ja) | サーバ、通信方法及び観客端末 | |
JP3804536B2 (ja) | 楽音再生記録装置、記録装置及び記録方法 | |
US20080140238A1 (en) | Method for Playing and Processing Audio Data of at Least Two Computer Units | |
JP7051923B2 (ja) | 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム | |
JP5568999B2 (ja) | 再生装置、楽音信号出力装置、再生システム及びプログラム | |
JP2016166975A (ja) | 送信装置、受信装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150330 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5733321 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |