JPWO2012093497A1 - 自動演奏装置 - Google Patents

自動演奏装置 Download PDF

Info

Publication number
JPWO2012093497A1
JPWO2012093497A1 JP2012551788A JP2012551788A JPWO2012093497A1 JP WO2012093497 A1 JPWO2012093497 A1 JP WO2012093497A1 JP 2012551788 A JP2012551788 A JP 2012551788A JP 2012551788 A JP2012551788 A JP 2012551788A JP WO2012093497 A1 JPWO2012093497 A1 JP WO2012093497A1
Authority
JP
Japan
Prior art keywords
performance
time
performance data
synchronization signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012551788A
Other languages
English (en)
Other versions
JP5733321B2 (ja
Inventor
上原 春喜
春喜 上原
福太郎 奥山
福太郎 奥山
横山 太郎
太郎 横山
健次 又平
健次 又平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2012093497A1 publication Critical patent/JPWO2012093497A1/ja
Application granted granted Critical
Publication of JP5733321B2 publication Critical patent/JP5733321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/93Arrangements characterised by the broadcast information itself which locates resources of other pieces of information, e.g. URL [Uniform Resource Locator]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/031File merging MIDI, i.e. merging or mixing a MIDI-like file or stream with a non-MIDI file or stream, e.g. audio or video
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本発明は、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うものである。楽器端末(10)の演奏情報及びこの演奏情報が示す演奏が行われた日時を示す日時情報の組である演奏データを記憶するサーバ装置(20)から、動画配信サーバ(40)を経由しないで送信された演奏データを受信する第2演奏データ受信部(312)と、動画配信サーバ(40)から音声信号の伝送経路で送信された同期信号を受信する同期信号受信部(314)と、第2演奏データ受信部(312)が受信した演奏データの日時情報が示す日時及び同期信号受信部(314)が受信した同期信号が示す日時に応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該受信した演奏データの演奏情報を再生する再生部(316)と、を備える。

Description

本発明は、映像に同期して自動演奏する技術に関する。
遠隔地での楽器演奏を自動演奏装置の自動演奏で再現する技術がある。特許文献1は、自動演奏に用いられるMIDIデータ等の演奏データと、配信映像及び配信音声を示すオーディオビデオ信号とを別系統の伝送系統で送受信するシステムにおいて、オーディオビデオ信号と演奏データとを、受信側のシステムで同期再生することを開示している。具体的には、送信側のシステムは、クリック信号を発生させた場合、クリック信号をオーディオ信号に含ませて送信する一方で、クリック発生時刻を示すクリックタイムデータに、送信側のシステムの内部時計に基づいてタイプスタンプを付加して送信する。受信側のシステムは、クリック信号を受信した時刻をクリックタイムデータが示す時刻とするように内部時計を補正し、補正した内部時計を基に映像に同期した自動演奏を行う。
特開2005−84578号公報
特許文献1が開示する技術では、送信側のシステムは、内部時計に基づいて特定したクリック発生時刻と、内部時計とは関係なしに発生させたクリック信号とを別の伝送系統で、かつ、ほぼ同時に送信する。しかしながら、受信側のシステムでクリック信号とクリックタイムデータとを受信したときのこれらの相対的な遅延については、特許文献1が開示する技術では特に考慮されていない。この技術では、クリック信号とクリックタイムデータとの時間差が所定の時間間隔内であるもの同士を同一時刻のものとして対応付けるが、例えば一方の伝送系統の通信遅延が極端に大きい場合には、ほぼ同時に送信されたクリック信号とクリックタイムデータとの対応付けが正しく行われず、受信側のシステムで内部時計を正しく補正できないことがある。
本発明は上述した課題に鑑みてなされたものであり、その目的は、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことである。
上述した目的を達成するために、本発明に係る自動演奏装置は、映像及び音声を配信する動画配信サーバの配信映像に同期して、演奏情報出力装置から受信した演奏情報を再生する自動演奏装置であって、前記演奏情報出力装置により出力された演奏情報と、前記演奏情報出力装置の計時部で計られた当該演奏情報の演奏が行われた時刻を示す時刻情報との組である演奏データを記憶する記憶装置から、前記動画配信サーバを経由せずに送信された演奏データを受信する演奏データ受信手段と、前記演奏情報出力装置により送信された前記計時部で計られた時刻を示す同期信号を、前記動画配信サーバ経由で前記音声の音声信号の伝送経路を用いて受信する同期信号受信手段と、前記演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段とを備えることを特徴とする。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
本発明において、前記演奏データ受信手段が受信した演奏データをバッファ領域にバッファリングするバッファリング手段を備え、前記再生手段は、前記バッファリング手段によるバッファリングに並行して、バッファリングされた前記演奏データの演奏情報を前記バッファ領域から読み出して再生するようにしてもよい。
本発明において、前記同期信号受信手段は、前記再生手段が演奏情報を再生する間、前記同期信号を決められた周期で受信し、前記再生手段は、前記周期よりも長い予め決められた期間内で前記同期信号が受信されなかった場合、前記演奏情報を継続して再生するが、当該期間を超えて前記同期信号が受信されなかった場合、前記演奏情報の再生を中断するようにしてもよい。
本発明において、前記記憶装置は、前記演奏情報及び前記時刻情報のほか、前記演奏情報出力装置又は一群の前記演奏情報である演奏情報群を識別する識別子を記憶し、前記同期信号は、前記識別子及び前記演奏が行われた時刻を示す信号であり、前記再生手段は、前記同期信号が示す前記識別子を含む演奏データの演奏情報を再生するが、それ以外の識別子を含む演奏データの演奏情報を再生しないようにしてもよい。
また、本発明の記憶装置は、演奏情報を出力する演奏情報出力装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置とのそれぞれと通信可能である記憶装置であって、前記演奏情報出力装置で演奏情報が生成される毎に、当該演奏情報と、当該演奏情報が示す演奏が行われた時刻を示す時刻情報との組である演奏データを、前記動画配信サーバを経由せずに当該演奏情報出力装置から受信する演奏データ受信手段と、前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記自動演奏装置へ送信する演奏データ送信手段とを備えることを特徴とする。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
また、本発明の演奏情報出力装置は、記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して演奏情報を再生する自動演奏装置とのそれぞれと通信可能である演奏情報出力装置であって、演奏情報を生成する演奏情報生成手段と、時刻を計る計時手段と、前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する演奏データ送信手段と、前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を介して前記動画配信サーバへ送信する同期信号送信手段とを備えることを特徴とする。
また、本発明の演奏システムは、演奏情報を出力する演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置と、を備える演奏システムであって、前記演奏情報出力装置は、演奏情報を生成する演奏情報生成手段と、時刻を計る計時手段と、前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する第1演奏データ送信手段と、前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段とを有し、前記記憶装置は、前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに当該自動演奏装置へ送信する第2演奏データ送信手段とを有し、前記自動演奏装置は、前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、前記第2演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段とを有することを特徴とする。
本発明によれば、動画配信サーバを経由する通信経路の状態の影響を抑えつつ、動画配信サーバの配信映像に同期して自動演奏を行うことができる。
演奏システム100の概略構成を示す図。 送信側システム1の構成を示すブロック図。 サーバ装置20のハードウェア構成を示すブロック図。 受信側システム3の構成を示すブロック図。 同期信号のデータ構造を示す図。 演奏データ群241のデータ構造を示す図。 演奏システム100の機能的構成を示す機能ブロック図。 演奏システム100の処理手順を示すシーケンスチャート。 演奏システム100の処理手順を示すシーケンスチャート。 演奏システム100の機能的構成を示す機能ブロック図。 演奏テーブルのフォーマットを例示した図。 演奏システム100の機能的構成を示す機能ブロック図。 合成部105の回路構成を示す図。 分離部302の回路構成を示す図。 同期信号のデータ構造を示す図。
1…送信側システム、10…楽器端末、100…演奏システム、101…ビデオカメラ、102…HDDレコーダ、103…遅延装置、104,301…PC、105…合成部105、11…制御部、111,311…時計部、112…演奏情報生成部、113…第2演奏データ送信部、114…同期信号送信部、12…記憶部、13…楽音生成部、14…スピーカ、15…操作部、16…表示部、17…通信部、18…演奏部、19…信号送信部、20…サーバ装置、21…制御部、211…第1演奏データ受信部、212…第2演奏データ送信部、22…第1通信部、23…第2通信部、24…記憶部、241…演奏データ群、3…受信側システム、30…自動演奏楽器、302…分離部、31…制御部、312…第2演奏データ受信部、313…バッファリング部、314…同期信号受信部、315…計時補正部、316…補正部、32…記憶部、33…操作部、34…表示部、35…信号受信部、36…通信部、37…データバッファ、38…演奏部、40…動画配信サーバ、90…通信ネットワーク。
(演奏システム100の構成)
以下、図面を参照しつつ本発明の一実施形態について説明する。
図1は、この実施形態の演奏システム100の概略構成を示す図である。図1に示すように、演奏システム100は、送信側システム1と、サーバ装置20と、受信側システム3とを備え、これらは通信ネットワーク90経由で接続されている。通信ネットワーク90は、ここではインターネットを含む通信網である。通信ネットワーク90には、演奏システム100の各装置のほかに、動画配信サーバ40が接続されている。動画配信サーバ40は、不特定のユーザが閲覧可能な映像及び音声を含む動画を配信する、いわゆる動画共有サービスを提供するものである。動画配信サーバ40は、ビデオストリーミングなどのプラットフォームを提供し、映像及び音声を含む動画(以下、「ライブ動画」という。)を配信することができるものである。この実施形態では、動画配信サーバ40は、送信側システム1及び受信側システム3の双方と通信可能であり、送信側システム1から提供されるライブ動画を、受信側システム3に配信する機能を実現する。
なお、本実施形態のライブ動画には、撮影が行われてから、遅延処理によって所定時間遅延させて配信される動画も含む。
送信側システム1は、コンサート等の楽器演奏が行われる場所に構成されるものである。送信側システム1は、例えば、楽器演奏の様子を撮影した映像及び音声を動画配信サーバ40に配信するために必要な設備や、受信側システム3でその楽器演奏を自動演奏で再現させるために必要な設備を備える。受信側システム3は、楽器演奏の観客側の場所に構成されるものであり、楽器演奏の様子を撮影した映像をユーザが視聴するために必要な設備や、その楽器演奏を自動演奏により再現するために必要な設備を備える。サーバ装置20は、送信側システム1及び受信側システム3の双方と通信可能であり、自動演奏に必要なデータを、両システムの間で中継する役割を担う記憶装置である。
送信側システム1は、互いに異なる2種類の通信経路で受信側システム3にデータを送信する。第1に、送信側システム1は、通信ネットワーク90及びサーバ装置20を経由し、かつ、動画配信サーバ40を経由しない第1経路で、演奏データを送信する。演奏データについては詳しくは後述する。第2に、送信側システム1は、通信ネットワーク90及び動画配信サーバ40を経由し、かつ、サーバ装置20を経由しない第2経路で、ライブ動画の放映に用いられる映像信号や音声信号などのデータを送信する。また、この第2経路で送信されるデータには、さらに、受信側システム3側で映像信号が示す映像(及び音声)と、演奏データに基づいて行われる自動演奏とを同期させるために用いられる同期信号も含まれる。音声信号及び同期信号は、L,Rチャネルである2チャネルの音声信号の伝送経路を介して送受信される。
第1経路及び第2経路は、各々、通信ネットワーク90を経由するから一部の経路は共通するが、他の経路は異なっている。このように第1経路及び第2経路は、互いに独立した伝送系統といえるから、通信状況(例えば、通信遅延の程度)が相違することがある。
(送信側システム1の構成)
図2は、送信側システム1の構成を示すブロック図である。図2に示すように、送信側システム1は、楽器端末10と、ビデオカメラ101と、HDD(HardDisk Drive)レコーダ102と、PC(Personal Computer)104とにより構成される。
まず、楽器端末10の構成を説明する。楽器端末10は、ここでは電子ピアノであり、制御部11と、記憶部12と、楽音生成部13と、スピーカ14と、操作部15と、表示部16と、通信部17と、演奏部18と、信号送信部19とを備える。図2に示すように、スピーカ14を除く楽器端末10の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
制御部11は、CPU(Central Processing Unit)や、楽器端末10の各部を制御するためのプログラムを記憶したROM(Read Only Memory)、プログラムを実行する際のワークエリアとして使用されるRAM(Random Access Memory)を備える。CPUは、ROMに記憶されているプログラムを実行して、楽器端末10の各部を制御する。制御部11は計時部111を備え、計時部111により日時(ここでは、現在日時)を計る。また、制御部11は、演奏部18にされた操作(以下、「演奏操作」という。)に応じてMIDI(Musical Instrument Digital Interface:登録商標)メッセージを生成したり、生成したMIDIメッセージと、その演奏が行われた日時を示す日時情報と、自身の楽器端末10を識別する識別子(以下、「楽器ID」という。)との組である演奏データを生成したりする。MIDIメッセージは、楽器端末10で行われた演奏内容を示すMIDI形式の演奏情報である。日時情報は、日付を示す日付情報と、時刻を示す時刻情報との双方を含む情報である。
なお、楽器端末10で演奏が行われた日時は、計時部111が計時する日時により特定される。
また、制御部11は、動画配信サーバ40の配信映像に同期して自動演奏を行うために用いられる同期信号を生成する。図6は、同期信号のデータ構造を示す図である。図6に示すように、同期信号は、「楽器ID」と「タイムコード」とをそれぞれ示す信号である。タイムコードは、計時部111が計る日時であり、送信側システム1から動画配信サーバ40に、映像信号、音声信号及び同期信号が送信される日時(つまり、絶対時刻を含む。)とみなすことができる。タイムコードは、これら各信号を受信した受信側システム3で、動画配信サーバ40から配信された映像がどの日時の演奏に対応しているのかを特定するために用いられる。なお、同期信号は、ホワイトノイズと似た周波数成分となるように生成され、人間が同期信号に応じた音を聞いた場合に耳障りにならないものであることが好ましい。
記憶部12は、不揮発性メモリを備え、楽器端末10を識別する楽器ID等を記憶する。記憶部12は、ここでは、楽器端末10の楽器IDとして「0001」を記憶する。楽器IDは、製造段階で予め決められていてもよいし、楽器端末10の利用者により設定されたものでもよいし、演奏開始時に制御部11により自動で設定されてもよい。楽音生成部13は、MIDIメッセージに基づいて、MIDIメッセージに応じた楽音信号を生成し、生成した楽音信号をスピーカ14に供給する。スピーカ14は、楽音生成部13により生成された楽音信号に応じて、楽器端末10の演奏音を出力するものである。操作部15は、楽器端末10を操作するための各種ボタンを備え、ユーザから楽器端末10に対する各種指示の入力が行われるものである。表示部16は、液晶ディスプレイを備え、楽器端末10を操作するための各種画面を表示する。
通信部17は、通信ネットワーク90に接続し、通信ネットワーク90経由で通信を行うためのインタフェースを備える。演奏部18は、例えば複数の鍵を備え、楽器端末10の演奏者により演奏操作されることで、楽器端末10の演奏が行われる。演奏部18は、演奏者により鍵が操作されると、その鍵の操作に応じた操作信号を制御部11に出力する。信号送信部19は、HDDレコーダ102と接続するためのオーディオケーブルが接続される端子を有し、制御部11から供給される同期信号を、この端子に接続されるオーディオケーブルを介してHDDレコーダ102に送信する。
以上の構成の楽器端末10は、演奏情報を生成して出力する演奏情報出力装置として機能する。楽器端末10の構成の説明は以上である。
ビデオカメラ101は、演奏者が楽器端末10を演奏している様子等を撮影して、その映像を示す映像信号と、楽器端末10周辺で収音して得られる音声信号とを生成するものである。ビデオカメラ101は、生成した映像信号及び音声信号を、HDDレコーダ102に送信する。HDDレコーダ102は、ビデオカメラ101から送信された映像信号及び音声信号と、信号送信部19から送信された同期信号とを、自身のHDDに記録する。この記録において、HDDレコーダ102は、ステレオチャネルのうち、一方のチャネルを用いて音声信号を記録し、他方のチャネルを用いて同期信号を記録する。つまり、ビデオカメラ101で生成された音声信号は、この時点でモノラル形式となる。
また、HDDレコーダ102は、遅延装置103を内蔵する。遅延装置103は、HDDに記録した映像信号、音声信号及び同期信号に対して遅延処理を施す。この遅延処理は、例えば1分間程度、HDDレコーダ102からの各信号の送信タイミングを遅延するために行われるものである。この遅延処理を行う理由は、自動演奏ピアノ30で自動演奏をより確実に行えるようにするためであるが、その作用については後述する。
なお、映像信号、音声信号及び同期信号の時間軸上での関係は、遅延処理が施された後も、遅延処理前から変化することはないものとする。また、遅延装置103がHDDレコーダ102に内蔵されるのではなく、HDDレコーダ102とPC104との間に外部接続されていてもよい。
PC104は、通信ネットワーク90に接続するインタフェースを備え、HDDレコーダ102から送信される映像信号、音声信号及び同期信号を、通信ネットワーク90経由で動画配信サーバ40に送信する。動画配信サーバ40は、PC104から受信した映像信号、音声信号及び同期信号を配信する。
なお、動画配信サーバ40が、映像信号、音声信号及び同期信号をPC104から受信したときから、これらを受信側システム3に配信するときまでに、例えば1分間程度要する。この遅延は、動画配信サーバ40で意図的な遅延処理によって奏するものであり、一般的な動画共有サービスでも採られることがある。
(サーバ装置20の構成)
図3は、サーバ装置20のハードウェア構成を示すブロック図である。図3に示すように、サーバ装置20は、制御部21と、第1通信部22と、第2通信部23と、記憶部24とを備える。
制御部21は、CPUや、サーバ装置20の各部を制御するためのプログラムを記憶したROM、プログラムを実行する際のワークエリアとして使用されるRAMを備える。CPUは、ROMに記憶されているプログラムを実行して、サーバ装置20の各部を制御する。第1通信部22は、通信ネットワーク90に接続するインタフェースを備え、楽器端末10と通信する。第2通信部23は、通信ネットワーク90に接続するインタフェースを備え、自動演奏ピアノ30と通信する。第1通信部22及び第2通信部23という2つの通信手段が設けられるのは、制御部21が楽器端末10から演奏データを受信して記憶部24に記憶する処理と、記憶部24から演奏データを読み出して自動演奏ピアノ30へ送信する処理とを、並行して行うことを可能にするためである。よって、この並行処理が実現可能である限り、これら各通信手段はそれぞれ独立していなくてもよい。
記憶部24は、ハードディスク装置を備え、楽器端末10から送信される演奏データにより構成される演奏データ群241や、演奏システム100でのサーバの機能を実現するサーバプログラムを記憶する。制御部21のCPUはサーバプログラムを実行して、楽器端末10から受信した演奏データを記憶部24に記憶させたり、記憶部24に記憶された演奏データを自動演奏ピアノ30へ送信したりする。
図5は、演奏データ群241のデータ構造を示す図である。演奏データ群241にあっては、楽器端末10での各演奏に対応する演奏データが、楽器ID、日時情報及びMIDIメッセージの組で構成される。例えば、楽器端末10で押鍵操作が行われた場合、図5の第1行に示すように、楽器端末10の楽器ID「0001」と、その押鍵操作が行われた日時を示す日時情報「2010-12-28T19:00:00:00」(2010年12月28日19時00分00秒00であることを示す。)と、演奏情報「MIDIメッセージ♯1」という組の演奏データが、演奏データ群241に含まれる。他の行に対応する演奏データもこれと同様のデータ構造を有している。
(受信側システム3の構成)
図4は、受信側システム3の構成を示すブロック図である。図4に示すように、受信側システム3は、自動演奏ピアノ30とPC301とにより構成される。PC301は、通信ネットワーク90経由で動画配信サーバ40と通信し、動画配信サーバ40から配信された映像信号、音声信号及び同期信号を受信する。PC301は、受信した信号のうち、映像信号及び音声信号を再生して、自身又は外部のモニタを用いてライブ動画を出力する。また、PC301は、オーディオケーブルで接続された自動演奏ピアノ30へ同期信号を送信する。
次に、自動演奏ピアノ30の構成を説明する。自動演奏ピアノ30は、MIDIメッセージに基づいて自動演奏を行う機能を有する。自動演奏ピアノ30は、制御部31と、記憶部32と、操作部33と、表示部34と、信号受信部35と、通信部36と、データバッファ37と、演奏部38とを備える。自動演奏ピアノ30の各部はバスによって互いに接続され、バスを介して各部間で信号の遣り取りが行われる。
制御部31は、CPU、自動演奏ピアノ30の各部を制御するためのプログラムを記憶したROM、RAMなどを備えている。制御部31のCPUは、ROMに記憶されているプログラムを読み出して実行することにより、自動演奏ピアノ30の各部を制御する。また、制御部31は計時部311を備え、計時部311により日時を計る。また、制御部31は、PC301から信号受信部35により受信した同期信号から楽器ID及びタイムコードを復号して、これらを特定する。制御部31は、タイムコードに基づいて計時部311が計る日時を補正したり、楽器IDを用いて再生対象の演奏データを特定したりする。また、制御部31は、通信部36により受信した演奏データをデータバッファ37にバッファリングし、それと並行して、データバッファ37にバッファリングされた演奏データを読み出し、その演奏データに含まれるMIDIメッセージを再生して、演奏部38に演奏させる(つまり、自動演奏を行う)。
記憶部32は、ハードディスク装置を備え、各種プログラムや楽器ID等を記憶する。記憶部32が記憶する楽器IDは、楽器端末10の楽器ID「0001」と異なる、例えば「0002」に予め設定される。この楽器IDは、自動演奏ピアノ30固有のものである。操作部33は、自動演奏ピアノ30を操作するための各種ボタンを備え、ユーザから自動演奏ピアノ30に対する各種指示の入力が行われるものである。表示部34は、液晶ディスプレイを備え、自動演奏ピアノ30を操作するための各種画面を表示する。
信号受信部35は、PC301と接続するためのオーディオケーブルを接続する端子を有し、この端子とオーディオケーブルを介して接続されるPC301から送信された同期信号を受信する。通信部36は、通信ネットワーク90に接続するインタフェースを備え、サーバ装置20と通信する。データバッファ37は、制御部31により演奏データがバッファリングされるバッファ領域を有する。制御部31は、データバッファ37にバッファリングされた演奏データを読み出し、その演奏データに含まれるMIDIメッセージを、その演奏データに含まれる日時情報と、PC301から受信された同期信号が示す特定したタイムコードとに応じたタイミングでMIDIメッセージを演奏部38に供給することにより、MIDIメッセージを再生する。このMIDIメッセージにより自動演奏ピアノ30から演奏音が出力される。
演奏部38は、演奏データから抽出されたMIDIメッセージに従って演奏音を出力するほか、ユーザによる図示せぬ鍵の操作に応じて打弦による演奏音を出力する。前者を「自動演奏」と呼び、後者を「手動演奏」という。
演奏部38は、駆動機構38aと、キーセンサ38bと、ペダルセンサ38cと、ピアノ電子回路38dと、ピアノ音源38eと、ミキサ38fと、アンプ38gと、スピーカ38hとを有している。駆動機構38aは、複数の鍵や複数のペダルのほか、各鍵に対応して設けられた駆動ソレノイド群等を有している。キーセンサ38b及びペダルセンサ38cは、手動演奏を行うための構成であり、複数の鍵やペダルの各々に対応して設けられている。キーセンサ38b及びペダルセンサ38cは、鍵及びペダルを押したときの強さや深さなどを検出し、検出した鍵やペダルを特定するキー番号、ペダル番号、ベロシティ情報等を含む検出結果を、ピアノ電子回路38dに供給する。ピアノ電子回路38dは、自動演奏を行う場合、MIDIメッセージをピアノ音源38eに供給する。ピアノ音源38eは、MIDIメッセージにより指示された演奏音を出力するためのオーディオ信号を生成する。また、ピアノ電子回路38dは、MIDIメッセージに従って、駆動機構38aが備える駆動ソレノイド群を制御する。具体的には、ピアノ電子回路38dは、ある演奏音についてノートオン(押鍵)のMIDIメッセージを受け取った場合に、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を押下させるのに必要な磁力をソレノイドにより発生させる。一方、ある演奏音についてノートオフ(離鍵)のイベントを受け取った場合、ピアノ電子回路38dは、その演奏音の鍵に対応したソレノイドに駆動電流を流し、鍵を離鍵させるのに必要な磁力をソレノイドにより発生させる。また、ピアノ電子回路38dは、手動演奏を行う場合、キーセンサ38b及びペダルセンサ38cから供給される検出結果に基づいてイベントを生成し、そのイベントをピアノ音源38eに供給する。ピアノ音源38eは、このMIDIメッセージに従って、指示された演奏音を出力するためのオーディオ信号を生成する。
上記のようにしてピアノ音源38eにより生成されたオーディオ信号は、ミキサ38fへ出力される。ミキサ38fは、ピアノ音源38eから出力されるオーディオ信号を、必要に応じて他のオーディオ信号と混合してアンプ38gに出力する。この信号はアンプ38gによって増幅され、スピーカ38hから演奏音として出力される。
(演奏システム100の機能的構成)
図7は、自動演奏に関する演奏システム100の機能的構成を示す機能ブロック図である。
楽器端末10は、計時部111と、演奏情報生成部112と、第1演奏データ送信部113と、同期信号送信部114とに相当する機能を実現する。サーバ装置20は、第1演奏データ受信部211と、第2演奏データ送信部212とに相当する機能を実現する。自動演奏ピアノ30は、計時部311と、第2演奏データ受信部312と、バッファリング部313と、同期信号受信部314と、計時補正部315と、再生部316とに相当する機能を実現する。
計時部111は、上述したように日時を計る。演奏情報生成部112は、演奏部18の演奏操作に応じて、楽器端末10の演奏情報としてMIDIメッセージを生成する。第1演奏データ送信部113は、演奏情報生成部112で演奏情報(MIDIメッセージ)が生成される毎に、計時部111で計られている日時を示す日時情報と、その演奏情報と、楽器IDとの組である演奏データをサーバ装置20に送信する。同期信号送信部114は、演奏情報生成部112で生成された演奏情報が示す演奏が楽器端末10で行われたときに、計時部111で計られている日時であるタイムコード及び楽器IDを示す同期信号を生成し、生成した同期信号を動画配信サーバ40に送信する。
第1演奏データ受信部211は、第1演奏データ送信部113により送信された演奏データを受信する。第1演奏データ受信部211が受信した演奏データは演奏データ群241に含められる。第2演奏データ送信部212は、記憶部24に演奏データが記憶されることと並行して、記憶部24が記憶する演奏データ群241のうち、自動演奏ピアノ30から受信した演奏データ要求メッセージであって楽器ID及び日時情報を含む演奏データ要求メッセージに応じた演奏データを、自動演奏ピアノ30へ送信する。具体的には、第2演奏データ送信部212は、演奏データ要求メッセージに含まれる日時情報が示す日時から開始して当該日時の時系列順に、演奏データ要求メッセージと共通する楽器IDを含む演奏データを送信する。
計時部311は、上述したように日時を計る。第2演奏データ受信部312は、第2演奏データ送信部212により送信された演奏データを、動画配信サーバ40を経由せずに受信する。第2演奏データ受信部312は、計時部311で計時される日時に応じた演奏データをサーバ装置20に要求して、その要求に応じて送信された演奏データを受信する。バッファリング部313は、第2演奏データ受信部312が受信した演奏データをバッファ領域にバッファリングする。同期信号受信部314は、同期信号送信部114により送信された同期信号を受信する。計時補正部315は、計時部311が計時する日時を、同期信号を復号して得られるタイムコードに基づいて補正する。計時補正部315は、例えば、タイムコードと一致する日時を計るように、計時部311が計る日時を補正する。
再生部316は、第2演奏データ受信部312が受信した演奏データの日時情報が示す日時と、同期信号受信部314が受信した同期信号が示す日時(つまり、補正後の計時部311が計る日時)とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該受信した演奏データのMIDIメッセージを再生する。例えば、再生部316は、計時部311が計時する日時と演奏データに含まれる日時情報が示す日時とを所定の関係となるように連動させて、配信映像と演奏音とを同期させるべく、MIDIメッセージの再生の間隔を日時情報で規定される長さから変更したり、MIDIメッセージを再生するときのテンポを変えたり、再生するMIDIメッセージを変更(スキップ)したりする。ここでは、再生部316は、計時部311が計時する日時から予め決められた時間前(ここでは、500ミリ秒前)を示す日時情報を含む演奏データのMIDIメッセージを、バッファリング部313から取得してこれを再生する。MIDIメッセージを演奏部38に供給してから、上述したように演奏部38の各部が動作して、そのMIDIメッセージの再生に応じた演奏音が出力されるまでには、ある程度の時間を要するからである(つまり、演奏部38で処理の遅延が生じるからである)。この処理遅延を見越して、再生部316の各演奏情報の再生タイミングが定められることで、ライブ動画と再生部316のMIDIメッセージの再生により出力される演奏音とが同期する。この再生タイミングについては、例えばPC301がライブ動画を表示する際の処理遅延を考慮して定められてもよい。
(実施形態の動作)
次に、本実施形態の動作について説明する。図8,9は、自動演奏の際の楽器端末10、サーバ装置20及び自動演奏ピアノ30が実行する処理手順を示すシーケンスチャートである。
ユーザが楽器端末10の電源を入れると、制御部11のROMに記憶されているプログラムをCPUが実行する。そして、楽器端末10は、電子ピアノの機能を実現し、また通信ネットワーク90と通信を行うことが可能となる。
演奏者が楽器端末10の鍵を押鍵すると(ステップS1)、制御部11は、ノートオンのメッセージ、押下された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、計時部111を用いて、このノートオンのMIDIメッセージを生成した日時を示す日時情報を生成する。制御部11は、生成した演奏情報、日時情報、及び記憶部12に記憶されている楽器ID「0001」を含む演奏データを生成して、通信部17によりサーバ装置20へ送信する(ステップS2)。ここでは、ステップS1の処理時に制御部11が計っている日時が「2010年12月28日の19時00分00秒00」であったとする。
一方で、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、MIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号およびベロシティに対応した楽音の信号を生成し、生成した信号をスピーカ14に供給する。楽音生成部13から供給された信号がスピーカ14に供給されると、供給された信号に応じて楽音がスピーカ14から放音される。
サーバ装置20の制御部21は、楽器端末10から送信された演奏データを第1通信部22により受信すると、受信した演奏データを記憶部24に記憶させる(ステップS3)。ここで、制御部21は、日時情報「2010-12-28T19:00:00:00」と、楽器ID「0001」と、演奏情報「MIDIメッセージ♯1」とを組とした演奏データを、記憶部24に記憶させる。
次に、楽器端末10の制御部11は、計時部111が計る日時を示すタイムコード、及び記憶部12に記憶された楽器IDを符号化して同期信号を生成して、信号送信部19によりHDDレコーダ102に送信する(ステップS4)。この同期信号は、PC104により、HDDレコーダ102から動画配信サーバ40に送信される。本実施形態では、制御部11は、計時部111が計る日時に基づいて、1秒間に1回だけ同期信号を送信するものとする。
なお、同期信号は遅延装置103による遅延処理を経るとともに、動画配信サーバ40を経由する。本実施形態では、遅延装置103の遅延処理によって、ある時刻に生成された同期信号が受信側システム3で受信される時刻は、同時刻に生成された演奏情報を含む演奏データがサーバ装置20に受信されるときよりも2分程度遅延する。
次に、楽器端末10において、押下された鍵からユーザが指を離すと(ステップS5)、制御部11は、ノートオフのメッセージ、離鍵された鍵に対応するノート番号、鍵にされた操作に対応するベロシティなどの演奏動作の情報を含むMIDIメッセージを生成する。また、制御部11は、このノートオフのMIDIメッセージを生成した日時を示す日時情報を、計時部111を用いて生成する。制御部11は、生成したMIDIメッセージ、日時情報及び記憶部12に記憶されている楽器ID「0001」を含む演奏データを生成して、通信部17により送信する(ステップS6)。また、制御部11は、MIDIメッセージを楽音生成部13へ送る。楽音生成部13は、ノートオフのMIDIメッセージが供給されると、MIDIメッセージで指定されるノート番号に対応した楽音の信号の生成を停止する。これにより、楽音のスピーカ14からの演奏音の出力が停止する。
楽器端末10から送信された演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる(ステップS7)。
ここで、日時情報が示す日時が「2010年12月28日の19時00分02秒24」である場合、制御部21は、この日時を示す日時情報「2010-12-28T19:00:02:24」と、楽器ID「0001」と、「MIDIメッセージ♯2」との組である演奏データを、記憶部24に記憶する。
以降も、楽器端末10は、演奏操作がある毎に演奏情報を生成して、通信部17により演奏データをサーバ装置20に送信する。サーバ装置20にあっては、楽器端末10から演奏データを第1通信部22により受信すると、制御部21は、受信した演奏データを記憶部24に記憶させる。また、楽器端末10は、1秒毎に同期信号を送信する処理を繰り返す(ステップS8,S9)。
以上のような演奏データの送信及び記憶と並行して、サーバ装置20と自動演奏ピアノ30との間では、以下のような自動演奏に係る処理が実行される。これにより、サーバ装置20には、図5に示されるような演奏データ群241が記憶されているものとする。
自動演奏ピアノ30の制御部31は、楽器端末10により送信された同期信号がPC301によって受信されると、信号受信部35を介してこれを受信する。次に、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS10)。この楽器ID及びタイムコードによれば、PC301で出力されるライブ動画が、どの楽器によりどの日時に撮影されたかを特定することができる。
制御部31は、同期信号を受信すると、その同期信号が示す楽器IDを記憶部32に記憶させる。ここでは、制御部31は、予め記憶部32に記憶された楽器ID「0002」を保持したまま、それとは別に、同期信号が示す楽器ID「0001」を記憶部32に記憶させる。以降、制御部31は、同期信号に基づいて記憶部32に記憶された楽器ID「0001」に従って、再生対象のMIDIメッセージを含む演奏データをサーバ装置20から取得する。
次に、制御部31は、ステップS10の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS11)。ここでは、制御部31は、タイムコードが示す日時と共通する日時に補正する。これにより、計時部311が計る日時と、PC301で現在出力されている映像の日時とが一致することとなる。
次に、制御部31は、ステップS11の処理で特定した楽器ID及びタイムコードに基づいて、楽器ID及び日時情報を含む演奏データ要求メッセージを送信する(ステップS12)。ここでは、制御部31は、タイムコードが示す日時及び記憶部32に記憶された楽器IDを指定して、演奏データ要求メッセージを送信する。
なお、上述したように、HDDレコーダ102は遅延装置103を有しており、楽器端末10側から1分程度遅れてタイムコード及び楽器IDがPC301で受信される。これに対し、楽器端末10からサーバ装置20への演奏データの送信には、このような遅延を意図的に生じさせていない。自動演奏ピアノ30が送信要求する演奏データは、サーバ装置20に確実に記憶されていると考えられる。
サーバ装置20の制御部21は、第2通信部23により演奏データ要求メッセージを受信すると、記憶部24に記憶された演奏データ群241に基づいて、当該送信要求メッセージで指定される日時の日時情報を含む演奏データから開始して、当該日時の時系列順に、演奏データ要求メッセージと共通の楽器IDを含む演奏データを送信する(ステップS13)。演奏データ要求メッセージで指定される日時が「2010年12月28日の19時00分00秒00」であれば、制御部21は、図5の第1行に示すように、日情報「2010-12-28T19:00:00:00」を含む演奏データから送信し、それに続けて、「2010-12-28T19:00:02:24」に対応する演奏データ、「2010-12-28T19:00:03:59」に対応する演奏データを順次送信する。
このように、自動演奏ピアノ30は一の同期信号を受信したことを契機に、複数の演奏データを時系列順に次々と受信する。一方で、サーバ装置20の制御部21は、自動演奏ピアノ30に送信した演奏データや既に過ぎた日時の日時情報を含む演奏データを、記憶部24に残しておく。これにより、楽器端末10で演奏が行われたときからある程度の時間が経過した後であっても、自動演奏ピアノ30が演奏データを取得して、演奏情報を再生することも可能である。また、このような演奏データの蓄積により、自動演奏ピアノ30のデータバッファ37のバッファ領域の記憶容量を小さくすることができる。
自動演奏ピアノ30の制御部31は、通信部36により演奏データを受信すると、それをデータバッファ37に順次バッファリングする(ステップS14)。このとき、制御部31は、データバッファ37の記憶容量に対するバッファ量が閾値以上になった場合など、演奏データの受信及びバッファリングを一時的に停止する場合には、演奏データの消失を防ぐため、その停止をサーバ装置20に要求するとよい。
次に、制御部31は、通信部36により受信した演奏データの日時情報が示す日時と、計時部311が計時する日時(つまり、受信した同期信号が示す日時)とに応じたタイミングで、MIDIメッセージを演奏部38に供給して、MIDIメッセージを再生する(ステップS15)。ここでは、制御部31は、計時部311が計時する日時よりも500ミリ秒前の日時情報との組であるMIDIメッセージを再生する。換言すると、計時部311が計時する日時が、MIDIメッセージとの組である日時情報が示す日時の500ミリ秒前になると、そのMIDIメッセージを再生する。このように、計時部311の補正に用いた同期信号の配信時刻の映像が出力されるときに、制御部31は、この同期信号が示す時刻を用いて、MIDIメッセージの再生タイミングを調整して、同期再生(自動演奏)を実現する。
なお、制御部31は、再生した演奏データについてはデータバッファ37から消去して、その記憶容量を確保する。
制御部31は、以降引き続き、データバッファ37から時系列順にMIDIデータを読み出して再生する。同期信号が受信されない期間も、制御部31は計時部311の計る日時に従って各演奏データのMIDIメッセージを再生するので、このときライブ動画と自動演奏とが同期する。
そして、自動演奏ピアノ30の制御部31は、動画配信サーバ40から同期信号を受信する(ステップS16)。この場合も、制御部31は、受信した同期信号を復号して、楽器ID及びタイムコードをそれぞれ特定する(ステップS17)。そして、制御部31はステップS17の処理で特定したタイムコードに従って、計時部311が計る日時を補正する(ステップS18)。そして、制御部31は、上記手順で、PC301が出力する映像及び音声に同期するタイミングで、MIDIメッセージを再生する。
そして、制御部31は、データバッファ37の記憶容量が閾値以下になった場合などは、再び、サーバ装置20に対して演奏データ要求メッセージを送信する(ステップS19)。そして、制御部31は、演奏データ要求メッセージに応じて受信した演奏データを、データバッファ37にバッファリングして(ステップS20)、上記手順でMIDIメッセージに基づく自動演奏を継続する。
以上のような動作が、楽器端末10の演奏が終了して自動演奏ピアノ30の自動演奏が終了するまで継続して行われる。
以上説明した実施形態の演奏システム100では、映像の伝送経路の状態による影響を抑えつつ、映像に同期させて自動演奏を行うことができる。具体的には、動画配信サーバ40を経由するのは同期信号であり、演奏データは経由しない。よって、動画配信サーバ40に多数のアクセスがあったり、何らかの原因でシステムダウンが発生したり、また、通信状態によって同期信号、映像信号及び音声信号の配信が遅延した場合であっても、自動演奏ピアノ30はこれとは別経路で受信する演奏データで、自動演奏を行うことができる。また、自動演奏ピアノ30のユーザにしてみれば、仮にライブ動画が一時的に途絶えても、自動演奏ピアノ30の自動演奏が継続する分だけ、その演奏音が途切れることによる違和感を持つことがない。また、自動演奏ピアノ30は、タイムコードに従って日時を特定するので、仮に、動画配信サーバ40の各信号の配信が中断し、その後復旧した場合であっても、その復旧後のタイミングから自動演奏を開始することができる。
また、本実施形態では、映像と同期して鍵等の演奏部38の各部が動作し、楽器端末10の動きを再現することにもなるので、自動演奏ピアノ30のユーザは遠隔地にいながら演奏会場の臨場感を味わうことができる。
また、同時に複数の会場に送信側システム1が構成されて、生演奏が行われている場合にも、本発明を適用可能である。この場合、動画配信サーバ40がチャネル毎に各受信側システム1(演奏会場)が割り当てられていればよいだけである。すなわち、PC301で現在設定されているチャネルに対応した同期信号が、自動演奏ピアノ30では受信される。チャネルの切り替えがあってから受信した同期信号に基づいて、自動演奏ピアノ30は、楽器ID及び日時情報を特定し、自動演奏を行うことができる。
[他の実施形態]
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。なお、以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
(変形例1)
上述した実施形態では、自動演奏ピアノ30は、同期信号の受信を契機に、演奏データ要求メッセージをサーバ装置20に送信して、データバッファ37にバッファリングするための演奏データを受信していた。これに代えて、自動演奏ピアノ30がデータバッファ37を有さない構成であってもよい。図10は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図10に示すように、本実施形態では、自動演奏ピアノ30がバッファリング部313を実現しない。
例えば、自動演奏ピアノ30とサーバ装置20との間とが、高速のデータ通信が可能である通信路を介して接続される場合など、信頼性の高い通信路でこれらが接続される場合、自動演奏ピアノ30とサーバ装置20との間の通信遅延と、演奏部38が演奏情報が供給されてから演奏音を出力するまでの時間との合計時間を、ある程度正確に特定することができる。そこで、制御部31は、計時部311が計る日時からおよそこの合計時間分前の日時情報を含む演奏データを受信するように、演奏データ要求メッセージをサーバ装置20に送信する。そして、制御部31は、演奏データを受信するとこれをRAMに記憶させて、その演奏データに含まれるMIDIメッセージを、動画配信サーバ40の配信映像に同期するタイミングで読み出して再生する。
この変形例では、サーバ装置20の記憶部24がデータバッファ37と同等の機能を果たすこということもでき、自動演奏ピアノ30の構成を簡略化することもできる。
(変形例2)
自動演奏ピアノ30の制御部31は、所定の周期(ここでは、1秒間)で通信部36により同期信号を受信する。この場合に、制御部31はこの受信の周期よりも長い所定期間(例えば、1分間)内で同期信号が受信されなかった場合、MIDIメッセージを継続して再生するが、この所定期間を超えて同期信号が受信されなかった場合、MIDIメッセージの再生を中断してもよい。
例えば、動画配信サーバ40に何らかのアクシデントが発生した場合、自動演奏ピアノ30は演奏データを受信できるが、同期信号を受信できない状態が継続する。このとき、自動演奏ピアノ30はアクシデントが発生した後で合っても、演奏データを受信することはできるので、自動演奏を継続することができる。よって、演奏システム100によれば、自動演奏が突然停止するといった違和感をユーザが持つことがない。一方で、同期信号がある一定時間以上受信されないと、動画配信サーバ40の配信映像と自動演奏のタイミングとが大きくずれてしまって、好ましくない場合がある。よって、制御部31は、同期信号がある程度受信できない場合であって、このような同期信号が受信されなくても問題ない期間を超えた場合には、演奏情報の演奏部38への供給を停止して、自動演奏を中断する。
なお、この変形例において、自動演奏ピアノ30は同期信号の受信が再開すると、自動演奏も再開するとよい。
(変形例3)
上述した実施形態では、生演奏を撮影したライブ動画に同期する自動演奏の実現を前提としていた、ライブ動画に代えて録画映像を含む動画を用いた演奏システムにも、本発明を適用可能である。この場合、サーバ装置20は、演奏の収録時に演奏データを蓄積する。自動演奏を実現する機会には、サーバ装置20が蓄積しておいた映像信号、音声信号及び同期信号を、動画配信サーバ40に送信する。そして、動画配信サーバ40はこの映像信号、音声信号及び同期信号を配信する。また、これらの信号の記録をHDDレコーダ102が行ってもよい。一方、受信側システム3では、動画配信サーバ40から受信した各信号に基づいて、上記実施形態と同様の手順で自動演奏を行う。
この変形例の構成で、サーバ装置20は、受信した演奏データをファイル化して記録してもよい。その理由は、例えばひとつの楽器端末10が複数回の演奏を行った場合に、自動演奏したい演奏を区別できるようにしたい場合がある。また、サーバ装置20において、コンサート単位や曲単位で演奏データをまとめておくことが、演奏データの管理上好ましい場合もあると考えられる。このファイル化について、手動によってコンサート単位や曲単位で複数の演奏情報がまとめられてファイル化されてもよいが、手動操作なしにこれを実現できることが好ましい。この場合、以下の手順でサーバ装置20がファイル化を行うとよい。なお、この構成で、サーバ装置20が日時を計る計時部を有しているものとする。
サーバ装置20の制御部21は、楽器端末10の演奏中には、第1通信部22により演奏データを受信してRAMに記憶する。やがて、楽器端末10の演奏が終了すると、楽器端末10からサーバ装置20に演奏データの送信が行われなくなる。楽器端末10から演奏データの送信が行われなくなると、サーバ装置20においては、自装置の計時部で計っている日時と、最後に受信した演奏データの日時情報が示す日時との差が次第に大きくなる。そこで、制御部21は、自装置の計時部で計っている日時と、最後に受信した演奏データの日時情報が示す日時との差が閾値(ここでは、5秒)以上となると、楽器ID「0001」で特定される楽器端末10での演奏が終了したと判断する。この場合、制御部21は、RAMに記憶した演奏データをファイル化して、記憶部24に記憶する処理を行う。具体的には、制御部21は、RAMに記憶されている演奏データのうち、RAMに記憶されている楽器ID「0001」を含む全ての演奏データを一つのファイルとしてまとめた演奏ファイルを生成する。また、制御部21は、演奏ファイルを一意に識別する演奏ファイル識別子を生成し、演奏ファイル識別子を含む演奏ファイルを記憶部24に記憶させる。このファイル識別子は、例えばコンサート単位や曲単位である一群の演奏情報である演奏情報群に対して割り当てられる識別子であるといえる。
また、制御部21は、演奏ファイルの演奏データに含まれている楽器ID、演奏ファイル中の演奏データに含まれている日時のうち最も早い日時情報が示す演奏開始日時と、最も遅い日時情報が示す演奏終了日時とを取得して、これらを対応付けて記憶してもよい。
図11は、楽器ID、演奏開始日時、演奏終了日時及び演奏ファイル識別子の組を記述した演奏テーブルの構造を示す図である。記憶部24は、この演奏テーブルを記憶している。例えば、演奏ファイル中の演奏データ含まれている場合において最も早い日時情報が「2010-12-28T19:00:00:00」、演奏の最後で楽器端末10から送信された演奏データに含まれていた日時情報が「2010-12-28T19:31:23:05」、楽器IDが「0001」、ファイル識別子として「F0001」が生成された場合、これらの情報が、図11に示したように演奏テーブルの同じ行に格納される。このように、楽器端末10の電源を入れた後にユーザが楽器端末10で演奏を行うと、演奏の記録開始のためのボタン操作や終了のためのボタン操作をユーザが行わなくても、ユーザが行った演奏を表すMIDIメッセージを含む演奏ファイルがサーバ装置20に記憶される。そして、上述した動作は、ユーザが演奏を行う度に行われ、サーバ装置20においては、ユーザが行った演奏毎に演奏ファイルが記憶される。
そして、この変形例では、ファイル識別子により自動演奏ピアノ30がサーバ装置20から受信する演奏データを特定するとよい。よって、楽器IDに代えて、又は楽器IDと併用してファイル識別子を用いて、楽器端末10が同期信号を生成して送信する。一方、自動演奏ピアノ30は同期信号が示すファイル識別子を含む演奏データのみをサーバ装置20から受信し、同期信号が示すファイル識別子を含まない演奏データを受信しないようにするとよい。
なお、この変形例のような録画映像の配信という態様によれば、映像のスキップや早送り、巻き戻しが行われて動画の再生位置が変更された場合でも、それに応じて動画配信サーバ40から配信される信号が変更後の再生位置に対応したものとなるので、自動演奏ピアノ30はその動画に同期した自動演奏を実現することができる。
(変形例4)
上述した実施形態では、音声信号と同期信号とを別チャネルの音声信号の伝送経路を用いて送信していたが、いわゆる透かし技術を用いて音声信号に同期信号を重畳(つまり、合成)して送信してもよい。
図12は、本変形例の演奏システム100の機能的構成を示すブロック図である。これら機能のうち、上述した実施形態と同じ機能については同じ符号を付して表し、その説明を省略する。図12に示すように、本変形例では、合成部105は送信側システム1側に構成され、楽器端末10の外部に構成される。また、分離部302は受信側システム3に構成され、自動演奏ピアノ30の外部に構成される。
合成部105は、例えば、音声信号を搬送するための搬送波を表す搬送波信号を透かし情報に基づいて位相変調することにより、音声信号の周波数成分よりも高い帯域に透かし情報を合成する。また、合成部105は、いわゆるOFDM(Orthogonal Frequency-Division Multiplexing)変調により、音声信号に透かし情報を合成してもよい。分離部302にあっては、合成部105での同期信号の合成の方式に応じた方式で、音声信号と同期信号とを分離する。また、以下の手順で合成及び分離を行ってもよい。
図13は、同期信号Sを音声信号Aと合成する合成部105の回路構成を示す図である。なお、以下では、音声信号Aの位相を反転した信号を「音声信号−A」と表し、同期信号Sの位相を反転した信号を「楽音信号−S」と表す。
合成部105は、入力端c1、c2を有している。入力端c1は、音声信号Aが入力されるものである。入力端c2は、同期信号Sが入力されるものである。反転部c3は、入力された信号の位相を反転して出力する。ここでは、反転部c3は、入力端c2に入力された同期信号Sの位相を反転して、同期信号−Sを出力する。加算部c4,c5は、それぞれ入力される信号どうしを加算して出力するものである。加算部c4は、入力端c1に入力される音声信号Aと、反転部c3から出力される同期信号−Sとを加算して、その加算結果を第1差信号md(=A−S)として出力端c6に出力する。すなわち、反転部c3及び加算部c4は、楽音信号と同期信号との差を表す差信号を生成するものである。加算部c5は、入力端c1に入力される音声信号Aと、入力端c2に入力される同期信号Sとを加算して、その加算結果を第1和信号ms(=A+S)として出力端c7に出力する。加算部c5は、楽音信号と同期信号との和を表す和信号を生成する。
出力端c6は、一方のチャネル(ここでは、Lチャネル)に対応しており、第1差信号mdを出力する。出力端c7は、他方のチャネル(ここでは、Rチャネル)に対応しており、第1和信号msを出力する。PC104は、このように符号化された2チャネルの信号を、音声信号の伝送経路を用いて動画配信サーバ40に送信する。
図14は、同期信号Sと音声信号Aとを分離する分離部302の回路構成を示す図である。なお、以下では、第1差信号mdの位相を反転した信号を「第1差信号−md」と表し、第1和信号msの位相を反転した信号を「第1和信号−ms」と表す。また、信号「A」、「S」の前に付した整数は、それぞれ信号「A」、「S」の振幅をその整数倍にすることを意味する。
入力端c11は、Lチャネルに対応しており、第1差信号md(=A−S)が入力されるものである。入力端c12は、Rチャネルに対応しており、第1和信号ms(=A+S)が入力されるものである。反転部c13は、入力される信号の位相を反転して出力する。ここでは、反転部c13は、入力端c11に入力された第1差信号msの位相を反転して出力する。すなわち、反転部c13は、第1差信号md(=A−S)が入力されると、その逆位相の信号である第1差信号−md(=−A+S)を出力する。加算部c14、c15は、それぞれ入力される信号どうしを加算して出力するものである。加算部c14は、反転部c13から出力される第1差信号−md(=−A+S)と、入力端c11に入力される第1和信号md=A+Sとを加算して、その加算結果を第2差信号d(=2S)として出力端c16に出力する。すなわち、反転部c13及び加算部c14は、第1和信号から第1差信号を減算したときの差を表す差信号を生成するものである。加算部c15は、入力端c11に入力される第1差信号md(=A−S)と、入力端c12に入力される第1和信号ms(=A+S)とを加算して、その加算結果を第2和信号ds(=2A)として出力端c17に出力する。すなわち、加算部c15は、第1差信号と第1和信号との和を表す和信号を生成するものである。
出力端c16は、第2差信号ddを同期信号として出力する。出力端c17は、第2和信号dsを音声信号として出力する。PC301は、このように分離された音声信号Aに応じた音声を出力するとともに、同期信号Sを自動演奏ピアノ30に送信する。
なお、第2差信号dd及び第2和信号dsの振幅を元の振幅となるようにすれば(つまり、1/2にすれば)、符号化前の元情報である音声信号A及び同期信号Sを特定する(つまり、復号)することができる。
この構成によれば、動画配信サーバ40を経由する音声信号の伝送経路が2チャネルの場合であっても、送信側システム1から受信側システム3へステレオ方式の音声信号を送信することができる。また、同期信号Sの周波数成分の少なくとも一部が音声信号Aの周波数成分と同じ帯域に含まれる場合であっても、両信号の加減算によって符号化・復号が可能であるから、楽音信号の質の低下を抑制することができる。
以上のような透かし情報の合成を行う場合、演奏システム100にあって、例えばPCM(Pulse Code Modulation)方式を採用して、サンプリング周波数を高くして各信号を伝送させることが好ましい。
なお、上述した実施形態の構成で、ステレオ方式の音声信号を送信したい場合には、動画配信サーバ40を経由する通信経路に、3チャネル以上の音声信号の伝送経路が存在していればよい。
(変形例5)
上述した実施形態では、PC104及びPC301が同期信号の送受信を行っていたが、PC104に代わって楽器端末10が通信ネットワーク90に接続して同期信号を送信してもよい。また、PC301に代わって、自動演奏ピアノ30が通信ネットワーク90に接続して同期信号を送信してもよい。
また、サーバ装置20が楽器端末10と同じ場所にあり、例えば通信ネットワーク90を介さないで、LAN(Local Area Network)等の他の通信路を介してこれらが接続されてもよい。
また、同期信号、映像信号及び音声信号の通信経路と演奏データの通信経路とは、それぞれ通信ネットワーク90を含んでいたが、それぞれ独立した通信ネットワークを経由してもよい。
また、動画配信サーバ40は不特定多数のユーザに利用されうるものに限らず、演奏システム100専用に設けられたものであってもよい。
また、上述した実施形態では、HDDレコーダ102が遅延装置103を有していた。これに代えて、HDDレコーダ102が遅延装置103を有さず、動画配信サーバ40の遅延処理機能を利用して映像信号、音声信号及び同期信号の配信タイミングを遅延させてもよい。
(変形例6)
上述した実施形態において、楽器IDを省略することも可能である。例えば、サーバ装置20が1つの楽器で生成された演奏情報を含む演奏データを記憶するものであれば(例えば、楽器端末10が1つである場合)、楽器IDがなくともタイムコードのみで自動演奏ピアノ30は自動演奏を実現可能である。
また、計時部311は、例えば自動演奏開始時からの経過時間を計時するものであってもよい。この場合も、計時補正部315はタイムコードが示す日時に応じて計時部311が計る日時を補正するので、実施形態と同等の同期再生を実現可能である。
また、楽器端末10は、日付情報と時刻情報とを含む日時情報に代えて、時刻情報のみを演奏データに含めて送信し、また、タイムコードにその時刻を含めてもよい。この場合、上述した実施形態の「日時情報」を「時刻情報」に置き換えた構成になるが、生演奏を自動演奏するような場合、日付を特定できなくても演奏操作の時刻さえ受信側システム3で分かれば、自動演奏を実現可能である。
また、上述した実施形態では、同期信号が楽器ID及び演奏が行われた日時を示す日時情報を示すものであったが、同期信号はこれ以外の情報を示すものであってもよい。例えば、図15に示すように、同期信号は楽器ID、楽器端末10で演奏が行われた時刻である演奏開始時刻、及び演奏開始時刻からの経過時間(つまり、相対時刻)を示すタイムコードを示すものであってもよい。演奏開始時刻は、実施形態の場合は、「2010年12月28日の19時00分00秒00」を表す。また、タイムコードは、図5の例を用いると以下のようになる。第1行に対応する演奏データでは「0時間0分00秒00」を表し、第2行に対応する演奏データでは「0時間0分02秒24」を表し、第3行に対応する演奏データでは「0時間0分03秒59」を表す。
なお、演奏開始時刻は楽器端末10から送信されるすべての同期信号に含まれるが、自動演奏ピアノ30で再現する演奏が変化しない場合など、自動演奏ピアノ30が演奏開始時刻を特定できるのであれば、楽器端末10から送信される最初の同期信号にのみ演奏開始時刻が含まれていてもよい。この場合、自動演奏ピアノ30は、楽器端末10の演奏中には、最初に受信した同期信号が示す演奏開始時刻に基づいて、演奏開始時刻を特定する。
このように、自動演奏ピアノ30は、演奏データの時刻情報が示す時刻と、受信した同期信号が示す時刻とが連動するように、MIDIメッセージの再生タイミングを調整すれば、自動演奏を実現可能である。
(変形例7)
また、自動演奏ピアノ30において楽器端末10のピッチと一致させるように、自動演奏を行えるようにしてもよい。その手法は、特許第3867579号明細書にも開示されているとおりである。
具体的には、楽器端末10が自端末の基準ピッチを検出し、この基準ピッチを示す信号を例えば同期信号と同じ方法で、自動演奏ピアノ30に送信する。基準ピッチは、或る音程の音を演奏部18から出力したときの周波数であり、この周波数が演奏システム100の基準となるピッチを表す。なお、基準ピッチを示す信号の送信方法については、特に問わない。
自動演奏ピアノ30は、基準ピッチを取得すると、自装置の演奏部38の基準ピッチを検出して、これらの音程差を求める。そして、自動演奏ピアノ30は、自動演奏時には、この音程差に応じた読み出し速度でデータバッファ37から演奏データを読み出して再生することで、その音程の音の周波数が基準ピッチに近づくように(好ましくは、一致するように)する。
この変形例の構成によれば、楽器端末10と自動演奏ピアノ30との基準ピッチを近づけることができ、自動演奏ピアノ30の個体差等による影響を抑制して、より生演奏に近い音程で自動演奏を実現することが期待できる。
(変形例8)
上述した演奏システム100にあって、一部又は全サービスについて課金を行ってもよい。例えば、サーバ装置20がこの課金処理を行うものとし、演奏データの送信対象とする自動演奏ピアノ30を予め登録しておく。そして、サーバ装置20は自動演奏の開始前に自動演奏ピアノ30を認証して、その認証に成功すれば課金して、演奏データの送信を許可する。また、プライベートコンサートのように、自動演奏に係るサービスを許可するユーザを制限したい場合、サーバ装置20が演奏データの送信対象とする自動演奏ピアノ30を予め登録しておき、自動演奏の開始前にサーバ装置20が自動演奏ピアノ30を認証して、その認証に成功すれば自動演奏を許可してもよい。
(変形例9)
上述した実施形態では、本発明の演奏情報出力装置が楽器端末10である場合であって、特に、電子ピアノである場合を説明したが、演奏操作に応じて例えばMIDIメッセージを出力可能な自動演奏ピアノであってもよい。この場合、楽器端末10と自動演奏ピアノ30とを同じ自動演奏ピアノにすることもできる。また、本発明の演奏情報出力装置は演奏情報を出力可能であれば、ピアノ以外に対応する楽器端末でもよく、例えば、エレクトーン(登録商標)やオルガンなどの鍵盤楽器や、フルートやクラリネットなどの吹奏楽器、ドラム等の打楽器などであってもよい。したがって、本発明の自動演奏装置においても、自動演奏ピアノには限定されず、MIDIメッセージに基づいて自動演奏を行うことが可能な装置であってもよい。
また、本発明の演奏情報出力装置及び自動演奏装置は、例えば、楽器演奏用のアプリケーションプログラムがインストールされたスマートフォンやスレート型端末、スマートブックなどの情報端末、携帯型音楽プレーヤであってもよく、手動演奏の機能を有さないものであってもよい。
また、本発明の演奏情報はMIDI形式のものに限らず、楽器端末10の演奏内容を示し、自動演奏に利用できるものであればよい。
(変形例10)
上述した実施形態における楽器端末10の制御部11や、サーバ装置20の制御部21、自動演奏ピアノ30の制御部31によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD)など)、光記録媒体(光ディスク(CD、DVD)など)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由でダウンロードさせることも可能である。また、制御部11、制御部21及び制御部31によって実現される機能は、1又は複数のソフトウェアにより実現されてもよいし、1又は複数のハードウェアにより実現されてもよい。

Claims (7)

  1. 映像及び音声を配信する動画配信サーバの配信映像に同期して、演奏情報出力装置から受信した演奏情報を再生する自動演奏装置であって、
    前記演奏情報出力装置により出力された演奏情報と、前記演奏情報出力装置の計時部で計られた当該演奏情報の演奏が行われた時刻を示す時刻情報との組である演奏データを記憶する記憶装置から、前記動画配信サーバを経由せずに送信された演奏データを受信する演奏データ受信手段と、
    前記演奏情報出力装置により送信された前記計時部で計られた時刻を示す同期信号を、前記動画配信サーバ経由で前記音声の音声信号の伝送経路を用いて受信する同期信号受信手段と、
    前記演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
    を備えることを特徴とする自動演奏装置。
  2. 前記演奏データ受信手段が受信した演奏データをバッファ領域にバッファリングするバッファリング手段を備え、
    前記再生手段は、前記バッファリング手段によるバッファリングに並行して、バッファリングされた前記演奏データの演奏情報を前記バッファ領域から読み出して再生する
    ことを特徴とする請求項1に記載の自動演奏装置。
  3. 前記同期信号受信手段は、前記再生手段が演奏情報を再生する間、前記同期信号を決められた周期で受信し、
    前記再生手段は、前記周期よりも長い予め決められた期間内で前記同期信号が受信されなかった場合、前記演奏情報を継続して再生するが、当該期間を超えて前記同期信号が受信されなかった場合、前記演奏情報の再生を中断する
    ことを特徴とする請求項1又は2に記載の自動演奏装置。
  4. 前記記憶装置は、前記演奏情報及び前記時刻情報のほか、前記演奏情報出力装置又は一群の前記演奏情報である演奏情報群を識別する識別子を記憶し、
    前記同期信号は、前記識別子及び前記演奏が行われた時刻を示す信号であり、
    前記再生手段は、前記同期信号が示す前記識別子を含む演奏データの演奏情報を再生するが、それ以外の識別子を含む演奏データの演奏情報を再生しない
    ことを特徴とする請求項1から3のいずれか1項に記載の自動演奏装置。
  5. 演奏情報を出力する演奏情報出力装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置とのそれぞれと通信可能である記憶装置であって、
    前記演奏情報出力装置で演奏情報が生成される毎に、当該演奏情報と、当該演奏情報が示す演奏が行われた時刻を示す時刻情報との組である演奏データを、前記動画配信サーバを経由せずに当該演奏情報出力装置から受信する演奏データ受信手段と、
    前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、
    前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに前記自動演奏装置へ送信する演奏データ送信手段と
    を備えることを特徴とする記憶装置。
  6. 記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して演奏情報を再生する自動演奏装置とのそれぞれと通信可能である演奏情報出力装置であって、
    演奏情報を生成する演奏情報生成手段と、
    時刻を計る計時手段と、
    前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する演奏データ送信手段と、
    前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を介して前記動画配信サーバへ送信する同期信号送信手段と
    を備えることを特徴とする演奏情報出力装置。
  7. 演奏情報を出力する演奏情報出力装置と、記憶装置と、映像及び音声を配信する動画配信サーバが配信する映像に同期して前記演奏情報を再生する自動演奏装置と、を備える演奏システムであって、
    前記演奏情報出力装置は、
    演奏情報を生成する演奏情報生成手段と、
    時刻を計る計時手段と、
    前記演奏情報生成手段で演奏情報が生成される毎に、前記計時手段で計られている時刻を示す時刻情報と当該演奏情報との組である演奏データを、前記動画配信サーバを経由せずに前記記憶装置へ送信する第1演奏データ送信手段と、
    前記計時手段で計られている時刻を示す同期信号を、前記音声の音声信号の伝送経路を用いて前記動画配信サーバへ送信する同期信号送信手段と
    を有し、
    前記記憶装置は、
    前記第1演奏データ送信手段により送信された演奏データを受信する第1演奏データ受信手段と、
    前記演奏データ受信手段が受信した演奏データを記憶する記憶手段と、
    前記記憶手段が前記受信した演奏データを記憶することと並行して、前記記憶手段が記憶する演奏データを、前記動画配信サーバを経由せずに当該自動演奏装置へ送信する第2演奏データ送信手段と
    を有し、
    前記自動演奏装置は、
    前記第2演奏データ送信手段により送信された演奏データを受信する第2演奏データ受信手段と、
    前記同期信号送信手段により送信された同期信号を、前記伝送経路を用いて前記動画配信サーバから受信する同期信号受信手段と、
    前記第2演奏データ受信手段が受信した演奏データの時刻情報が示す時刻と、前記同期信号受信手段が受信した同期信号が示す時刻とに応じたタイミングで、当該同期信号が配信された時刻の配信映像に同期して当該演奏データの演奏情報を再生する再生手段と
    を有することを特徴とする演奏システム。
JP2012551788A 2011-01-07 2011-01-07 自動演奏装置 Active JP5733321B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/050222 WO2012093497A1 (ja) 2011-01-07 2011-01-07 自動演奏装置

Publications (2)

Publication Number Publication Date
JPWO2012093497A1 true JPWO2012093497A1 (ja) 2014-06-09
JP5733321B2 JP5733321B2 (ja) 2015-06-10

Family

ID=46457362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012551788A Active JP5733321B2 (ja) 2011-01-07 2011-01-07 自動演奏装置

Country Status (9)

Country Link
US (1) US9003468B2 (ja)
EP (1) EP2662853B1 (ja)
JP (1) JP5733321B2 (ja)
KR (1) KR101554399B1 (ja)
CN (1) CN103403794B (ja)
AU (1) AU2011354005B2 (ja)
CA (1) CA2823888C (ja)
RU (1) RU2544749C1 (ja)
WO (1) WO2012093497A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8796528B2 (en) * 2011-01-11 2014-08-05 Yamaha Corporation Performance system
WO2014203870A1 (ja) * 2013-06-17 2014-12-24 ヤマハ株式会社 演奏システム、演奏方法及び演奏プログラム
CN105657533B (zh) * 2015-12-30 2017-11-17 广东欧珀移动通信有限公司 数据文件播放方法及装置
CN107770135A (zh) * 2016-08-19 2018-03-06 范子文 电子乐器的音乐直播方法和装置
CN106601218A (zh) * 2016-12-22 2017-04-26 湖南乐和云服网络科技有限公司 一种音视频与钢琴动作同步装置及方法
CN106782459B (zh) * 2016-12-22 2022-02-22 湖南卡罗德钢琴有限公司 基于移动终端应用程序的钢琴自动演奏控制系统及方法
JP7391368B2 (ja) * 2017-10-20 2023-12-05 国立大学法人電気通信大学 暗号化制御方法及び暗号化制御プログラム
JP7343268B2 (ja) * 2018-04-24 2023-09-12 培雄 唐沢 任意信号挿入方法及び任意信号挿入システム
US11250825B2 (en) * 2018-05-21 2022-02-15 Smule, Inc. Audiovisual collaboration system and method with seed/join mechanic
CN109413476A (zh) * 2018-10-17 2019-03-01 湖南乐和云服网络科技有限公司 一种音视频与钢琴动作同步直播方法及系统
CN110392276B (zh) * 2019-07-29 2021-06-22 湖南卡罗德音乐集团有限公司 一种基于rtmp协议同步传输midi的直播录播方法
JP7181173B2 (ja) * 2019-09-13 2022-11-30 株式会社スクウェア・エニックス プログラム、情報処理装置、情報処理システム及び方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4265082B2 (ja) 2000-05-23 2009-05-20 ヤマハ株式会社 サーバクライアントシステムおよびサーバ装置
JP2003029771A (ja) * 2001-07-19 2003-01-31 Sanyo Electric Co Ltd カラオケ装置
JP3811055B2 (ja) 2001-11-30 2006-08-16 東日本電信電話株式会社 音・映像同期合成配信方法、演奏者端末用装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体並びに、サービス提供装置、本装置用プログラムおよび本装置用プログラムを記録した記録媒体
JP3867579B2 (ja) 2002-01-15 2007-01-10 ヤマハ株式会社 マルチメディアシステム及び再生装置
JP4110807B2 (ja) * 2002-03-15 2008-07-02 ヤマハ株式会社 同期調整装置および同期調整方法を実現するためのプログラム
JP4001091B2 (ja) * 2003-09-11 2007-10-31 ヤマハ株式会社 演奏システム及び楽音映像再生装置
JP4363204B2 (ja) * 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
US20080147558A1 (en) * 2006-10-24 2008-06-19 Robert Korbin Kraus Method and system for providing prospective licensees and/or purchasers with access to licensable media content
US7649136B2 (en) * 2007-02-26 2010-01-19 Yamaha Corporation Music reproducing system for collaboration, program reproducer, music data distributor and program producer
JP2008216889A (ja) 2007-03-07 2008-09-18 Yamaha Corp 電子音楽装置、電子音楽装置システム、及びそれらに用いるプログラム
RU2364956C1 (ru) * 2008-04-29 2009-08-20 Дмитрий Эдгарович Эльяшев Синтезатор музыкального инструмента с физическим моделированием
JP5391684B2 (ja) * 2008-12-24 2014-01-15 ヤマハ株式会社 電子鍵盤楽器およびその制御方法を実現するためのプログラム

Also Published As

Publication number Publication date
CA2823888A1 (en) 2012-07-12
EP2662853B1 (en) 2016-06-22
CN103403794B (zh) 2015-06-17
AU2011354005A1 (en) 2013-08-01
CA2823888C (en) 2015-11-10
AU2011354005B2 (en) 2016-12-22
US20130283332A1 (en) 2013-10-24
RU2544749C1 (ru) 2015-03-20
EP2662853A1 (en) 2013-11-13
JP5733321B2 (ja) 2015-06-10
WO2012093497A1 (ja) 2012-07-12
KR20130091358A (ko) 2013-08-16
US9003468B2 (en) 2015-04-07
RU2013136849A (ru) 2015-02-20
EP2662853A4 (en) 2014-09-03
CN103403794A (zh) 2013-11-20
KR101554399B1 (ko) 2015-09-18

Similar Documents

Publication Publication Date Title
JP5733321B2 (ja) 自動演奏装置
JP5729393B2 (ja) 演奏システム
JP4001091B2 (ja) 演奏システム及び楽音映像再生装置
JP4423790B2 (ja) 実演システム、ネットワークを介した実演方法
JP7242764B2 (ja) 遅延なくニアライブでライブインターネット音楽を演奏及び録音するための方法及びシステム
JP7456019B2 (ja) オーディオ波形サンプルを用いてライブ音楽を演奏及び録音するための方法及びシステム
CN112119456B (zh) 任意信号插入方法以及任意信号插入系统
JP4422656B2 (ja) ネットワークを用いた遠隔多地点合奏システム
JP3915517B2 (ja) マルチメディアシステム、再生装置及び再生記録装置
JP2004094683A (ja) サーバ、通信方法及び観客端末
JP3804536B2 (ja) 楽音再生記録装置、記録装置及び記録方法
US20080140238A1 (en) Method for Playing and Processing Audio Data of at Least Two Computer Units
JP7051923B2 (ja) 動画生成装置、動画生成方法、動画生成プログラム、再生装置、動画配信装置、及び動画システム
JP5568999B2 (ja) 再生装置、楽音信号出力装置、再生システム及びプログラム
JP2016166975A (ja) 送信装置、受信装置およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R151 Written notification of patent or utility model registration

Ref document number: 5733321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151