JP2004094163A - ネットワークサウンドシステムおよびサウンドサーバ - Google Patents
ネットワークサウンドシステムおよびサウンドサーバ Download PDFInfo
- Publication number
- JP2004094163A JP2004094163A JP2002258837A JP2002258837A JP2004094163A JP 2004094163 A JP2004094163 A JP 2004094163A JP 2002258837 A JP2002258837 A JP 2002258837A JP 2002258837 A JP2002258837 A JP 2002258837A JP 2004094163 A JP2004094163 A JP 2004094163A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- terminal station
- network
- information
- sound system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】電子楽器が個々に保有する音源や、エフェクタが個々に保有する処理機能を、ネットワーク上で共有することを課題とする。
【解決手段】端末10においてSMFをシーケンサーで自動演奏することにより、あるいは、MIDI鍵盤12を用いて手動演奏することにより、端末10はMIDIデータを出力する。MIDIデータは、基地局に送信され、基地局の電子楽器22の音源を利用して再生される。再生出力された音声信号は、送信端末27においてWavデータやストリーミングデータに変換される。変換されたWavデータは、端末10においてダウンロードされる。また、ストリーミングデータは、端末10においてストリーミング再生される。また、端末10は、SMFを基地局にファイル転送し、受信端末21で自動再生することによりMIDIデータを出力し、電子楽器22に入力するようにすることも可能である。
【選択図】 図3
【解決手段】端末10においてSMFをシーケンサーで自動演奏することにより、あるいは、MIDI鍵盤12を用いて手動演奏することにより、端末10はMIDIデータを出力する。MIDIデータは、基地局に送信され、基地局の電子楽器22の音源を利用して再生される。再生出力された音声信号は、送信端末27においてWavデータやストリーミングデータに変換される。変換されたWavデータは、端末10においてダウンロードされる。また、ストリーミングデータは、端末10においてストリーミング再生される。また、端末10は、SMFを基地局にファイル転送し、受信端末21で自動再生することによりMIDIデータを出力し、電子楽器22に入力するようにすることも可能である。
【選択図】 図3
Description
【0001】
【発明の属する技術分野】
本発明は、音楽情報の変換技術に関する。
【0002】
【技術背景と課題】
電子鍵盤楽器あるいはPC上で動作する仮想電子楽器が存在する。これらは、MIDI(Musical Instruments Digital Interface)等の通信規格を用いて、相互に接続することが可能である。MIDI等に基づいて手動あるいは自動(音楽シーケンサーを利用)で電子楽器に入力された演奏情報は、一般的にアナログ音声により出力されるが、これをデジタル音声(Wave形式やmp3形式など)として出力することや、ハードディスクなどに保管することが可能である。
【0003】
一方、CATVネットワーク、ADSL、光ファイバーからなるブロードバンド(高速)ネットワークあるいはLANが普及している。これらは256Kbps〜100Mbps程度の通信帯域幅を持ち、この帯域にMIDI(31.25Kbps)はもとより、HIFI(周波数特性20Hz〜20KHz)の音声データ(圧縮時128Kbps〜非圧縮ステレオで1.4Mbps程度)をそのまま通信しても問題は無い。
【0004】
<通信による遠隔演奏の遅延問題>
このようにブロードバンド等の普及によりMIDIの通信に関して帯域上の問題は解消しているが、従来、ネットワークを用いて演奏情報を交換しながらの演奏が行なわれなかった理由は、ネットワーク上の通信では、特有の遅延が発生するからである。通常数10ms程度の遅延で演奏に支障をきたすといわれている状況下において、ネットワーク上の複数の地点での同期演奏は不可能に近かった。
【0005】
ただし、リアルタイムでは無い状態(ノンリアルタイム)での遠隔地演奏は可能である。具体的な例としては、通信カラオケや、携帯電話の着信メロディが存在する。これらは基地局(サーバ局)に、MIDIやSMF(Standard MIDI File)形式等からなる演奏情報を保管しておき、カラオケBOXや携帯端末のリクエストに応じ、この演奏情報を配信する。利用者は、好みのタイミングでこの演奏情報をカラオケ機器や携帯電話に搭載されたシンセサイザ音源を用いて再生することができる。
【0006】
<希少な電子楽器の音色の利用の問題>
次に、電子楽器に特有の音色に関する技術背景を述べる。過去に存在した電子楽器(たとえば、ミニムーグ、DX−7、Jupiter 8、Hammond B−3 Organ、ローズピアノ等)は、個々に特有の個性的な音色をもっている。これらの音色は、最新の電子楽器が開発されてきた今日においても貴重な存在である。したがって、音楽の作編曲において、未だそれらの音色が欠かせない例も存在する。
【0007】
しかしながら、これらの電子楽器はその生産時期も古く、生産数も少なく、高価であり入手しにくい。そこで近年では、前述のPC上で動作するソフトウェア仮想楽器によりこれらの名機の音色をCPUの演算やサンプリング(実際の楽器の波形をある単位時間で録音し、再生鍵盤のピッチ(音高)の調整や音量の時間的変化を加えて実楽器の音色の模倣をする技術やその機能を持つ楽器のこと)により再生することが行なわれている。しかし、これらの仮想楽器音はやはり実際の楽器とは音色が微妙に異なると言われている。
【0008】
<特殊な音声処理を行なう際の問題>
また、エフェクタと呼ばれる音響機器が存在する。エフェクタは、AD、DA変換器とDSP(Digital Signal Processor)や高速CPUと高速RAMを持ち、デジタル信号処理理論に基づきフィルタや遅延などを演算することにより、音声に様々な変調処理を行なう装置あるいはソフトウェアである。例としてはエコー(遅延)、リバーブ(残響)、ピッチシフタ(音声の高さを変える)、ノイズリダクション(雑音を除去する)などがある。加えて、音声圧縮(G726.1やMP3)にDSPが用いられることがある。
【0009】
これらの様々な処理を行なう為には、アルゴリズムまたはミドルウェアと呼ばれ、DSPなどに個々の処理を指示するための手順からなる一種のソフトウェアプログラムが必要である。通常このプログラムは汎用性が非常に少なく、特定のDSPあるいはエフェクタ機器に搭載されるアルゴリズムは固定的である場合が多い。
【0010】
したがって様々な音声処理を行なう為には、多数のアルゴリズムを搭載するとともに、それらのアルゴリズムを同時あるいは切り替えて実行可能なエフェクタ機器を利用するか、個別の目的に合ったエフェクタを複数用意するしかない。
【0011】
<シンセサイザ端末の種類による演奏可能音色の差異の問題>
シンセサイザ音源とは、MIDIなどからなる演奏情報を解釈し、ウェーブROMあるいはWave Tableと呼ばれる音色(音素片)を記録したデータを、ピッチ(音高)やエンベロープ(音量の時間的変化)に応じて適宜演算調整し、DSPや高速CPUを用いて正弦波や矩形波などの演算を行いながら、実際の楽器音に似せた、あるいは実際に存在しない音色を演奏できる楽器を言う。
【0012】
このシンセサイザー音源は近年では電子楽器だけでなく、ソフトウェアにおいてPC上で実現されており、また携帯電話に搭載されていて一般的なものになっている。
【0013】
しかしながら、シンセサイザ音源はそのハードウェア的なコストや記憶容量、処理速度の制約があり、ソフトウェア音源を利用した場合にはCPU処理速度や他のアプリケーション同時利用の制限などがある。このため、たとえば携帯電話においては、一般の電子楽器よりも極端に同時発音数が少なく薄い音しか発音することができない。またウェーブROMの搭載容量についてもハード的、コスト的制約から、音質の良く無いウェーブによる演奏しかできないものも存在した。
【0014】
そこで、本発明は前記問題点に鑑み、高価な電子楽器や、多数のエフェクタを個々の端末局が保有することなく、それらの音源や処理機能を利用することを可能としたシステムを提供することを目的とする。
【0015】
【課題を解決するための手段】
MIDIやSMFによる演奏情報を、性能の高い、あるいは特徴的で希少なシンセサイザー音源に入力することで、品質の良いWavデータ(や圧縮音声データ)を得ることができる。Wavデータは、リニア(非圧縮)PCM(Pulse Code Modulation)などの形式で、ほとんどのPCや端末機器で同一音色で再生させることができる。つまり、端末搭載シンセサイザーの性能に依存しない。
【0016】
また、音声を、遠隔地に存在する性能の高いエフェクタに転送すれば、そのエフェクタより出力された変調あるいは加工された音声を、同様に品質の良いWavデータの形式で得ることが可能である。
【0017】
したがって、ネットワークを介して端末機器と接続された基地局にこのような高性能なシンセサイザやエフェクタを設置し、端末機器側よりMIDI等の演奏情報あるいは加工前のWavデータを基地局に転送し、基地局上で演奏あるいは加工変調された結果の品質の高い音声を端末局に返すことにより、端末の性能に依存しない音声サービスを運営することが可能となる。
【0018】
また、このサービスはノンリアルタイムで行なわれることが前提なのでネットワークの遅延は関係が無い。
【0019】
すなわち、請求項1記載の発明は、端末局と、前記端末局とネットワークを介して接続された基地局と、を備え、前記端末局は、前記基地局に対して演奏情報を送信する手段、を備え、前記基地局は、前記端末局から受信した前記演奏情報を入力して再生する電子楽器と、前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する送信手段と、を備えることを特徴とする。
【0020】
請求項2記載の発明は、請求項1に記載のネットワークサウンドシステムにおいて、前記電子楽器は、ソフトウェアによって実現された仮想楽器、を含むことを特徴とする。
【0021】
請求項3記載の発明は、請求項1または請求項2に記載のネットワークサウンドシステムにおいて、前記演奏情報は、楽譜情報、を含み、前記電子楽器は、前記端末局から受信した前記楽譜情報に基づいて生成された演奏情報を入力して再生することを特徴とする。
【0022】
請求項4記載の発明は、請求項1ないし請求項3のいずれかに記載のネットワークサウンドシステムにおいて、前記送信手段は、前記音声情報を前記端末局とは異なる他の端末に対して送信する手段、を備えることを特徴とする。
【0023】
請求項5記載の発明は、請求項4に記載のネットワークサウンドシステムにおいて、前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とする。
【0024】
請求項6記載の発明は、請求項1ないし請求項5のいずれかに記載のネットワークサウンドシステムにおいて、前記端末局は、さらに、マイクと、前記マイクから入力した音声を演奏情報に変換する変換手段と、を備え、前記変換手段により変換された演奏情報を前記基地局に送信することを特徴とする。
【0025】
請求項7記載の発明は、端末局と、前記端末局とネットワークを介して接続された基地局と、を備え、前記端末局は、前記基地局に対して音声情報を送信する手段、を備え、前記基地局は、前記端末局から受信した前記音声情報を入力し、前記音声情報に基づく音声波形を操作するエフェクタと、前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する送信手段と、を備えることを特徴とする。
【0026】
請求項8記載の発明は、請求項7に記載のネットワークサウンドシステムにおいて、前記エフェクタは、ソフトウェアエフェクタを、含むことを特徴とする。
【0027】
請求項9記載の発明は、請求項7または請求項8に記載のネットワークサウンドシステムにおいて、前記送信手段は、前記エフェクタにより変化を加えられた音声情報を前記端末局とは異なる他の端末に対して送信する手段、を備えることを特徴とする。
【0028】
請求項10記載の発明は、請求項9に記載のネットワークサウンドシステムにおいて、前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とする。
【0029】
請求項11記載の発明は、端末局とネットワークを介して接続されたサーバであって、前記端末局が送信した演奏情報を受信する手段と、受信した前記演奏情報を入力して再生する電子楽器と、前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する手段と、を備えることを特徴とする。
【0030】
請求項12記載の発明は、端末局とネットワークを介して接続されたサーバであって、前記端末局が送信した音声情報を受信する手段と、受信した前記音声情報に基づく音声波形を操作するエフェクタと、前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する手段と、を備えることを特徴とするサウンドサーバ。
【0031】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかるネットワークサウンドシステムの全体構成図である。
【0032】
ネットワークサウンドシステムは、ネットワーク5を介して接続された端末局1と基地局2とから構成される。端末局1は、MIDIデータなどの演奏情報や音声情報を基地局2に送信する機能を備える。基地局2は、電子楽器やエフェクタを備えることにより、端末局1から受信した演奏情報や音声情報を再生、変換する機能を備える。基地局2において再生、変換された音声情報は端末局1に送信され、端末局1において音声再生が行われる。
【0033】
<1.端末局における処理>
端末局1は、図2に示すように、PC等からなる端末10と、端末10に接続されたMIDI鍵盤12、マイク13、スピーカ14等を備えている。
【0034】
端末10は、MIDIインタフェース(MIDI IF)101を備え、MIDIシーケンサーソフトウェアや、各種音声データの再生ソフトウェアなどがインストールされている。MIDIシーケンサーソフトウェアの実行により実現される機能部をMIDI再生部102、各種再生ソフトウェアのうち、Wavデータの再生ソフトウェアにより実現される機能部をWav再生部106、ストリーミングデータの再生ソフトウェアにより実現される機能部をストリーミング再生部107として図示している。
【0035】
MIDIは、シンセサイザや音源、PC間で楽曲データをやりとりするための規格であり、MIDIデータは、音色、音程などの演奏に関する情報(このような情報を演奏情報と呼ぶ。)であって、MIDI規格によって定められた手順に従って送受信される。したがってMIDI規格に対応した機器であれば、このMIDIデータを交換することで、同様の演奏音を再生することが可能である。
【0036】
MIDI鍵盤12は、操作者によって操作された鍵盤の入力情報をMIDIデータとして出力する。出力されたMIDIデータは、MIDI IF101を介して端末10に入力される。端末10は、MIDI鍵盤12から入力したMIDIデータを、送信部104によりネットワーク5を介して基地局2に送信する機能を備える。このようにして、MIDI鍵盤12を用いた手動演奏によって得られたMIDIデータが基地局2に送信される。
【0037】
また、MIDI再生部102は、MIDI音源103を利用することにより、記憶部110に格納されたSMFを再生(自動演奏)することによって、MIDIデータを出力することが可能である。そして、送信部104は、自動演奏によって出力されたMIDIデータをネットワーク5を介して基地局2に送信する機能を備える。SMFは、MIDIデータをファイル化したデータであり、MIDI対応機器であればSMFに基づいてMIDIデータを再生することが可能である。
【0038】
なお、本実施の形態においては、演奏情報としてMIDIデータを採用しているが、演奏情報はこれに限定されるものではなく、統一した規格のもとに相互に交換可能であり、同様の演奏音を再生させることが可能な情報であればよい。
【0039】
また、送信部104は、記憶部110に格納されているSMFをネットワーク5を介して基地局2に送信(ファイル転送)する機能を備える。
【0040】
また、送信部104は、記憶部110に格納されている楽譜情報をネットワーク5を介して基地局2に送信する機能を備える。
【0041】
また、送信部104は、記憶部110に格納されているデジタルの音声情報であるオーディオ音声データを基地局2に送信する機能を備える。本実施の形態においては、オーディオ音声データとしてWavデータ(Wave形式)が基地局2に送信される。
【0042】
これら、SMF、楽譜情報、Wavデータの転送には、FTPやHTTPなどのプロトコルが用いられる。
【0043】
なお、本実施の形態においては、オーディオ音声データとしてWavデータを採用しているが、オーディオ音声データはこれに限定されるものではなく、たとえば、AU形式や、AIFF形式のオーディオ音声データを採用してもよい。
【0044】
このように、端末10は、基地局2に対して演奏情報(MIDIデータ、SMF)、音声情報(Wavデータなどのオーディオ音声データ)、あるいは楽譜情報を送信する。
【0045】
<2.基地局における処理>
基地局2では、MIDIデータを受信すると、MIDIデータは、電子楽器22あるいは仮想楽器23に入力される。この時、受信端末21は、入力したMIDIデータをそのまま出力し、電子楽器22あるいは仮想楽器23に送信する。なお、受信端末21を経由しない形態でもよい。このような処理の流れを図3の処理▲1▼、処理▲2▼として示す。処理▲1▼は、端末局10のシーケンサーソフトウェアによって自動演奏がされた場合の処理であり、処理▲2▼は、MIDI鍵盤12を用いて手動演奏が行われた場合の処理である。
【0046】
基地局10が、SMFを受信した場合には、受信端末21上で動作するシーケンサーソフトウェアによりSMFの自動演奏が行われ、MIDIデータが出力される。出力されたMIDIデータは、電子楽器22あるいは仮想楽器23に入力される。このような処理の流れを図3の処理▲3▼で示す。
【0047】
基地局10が、楽譜情報を受信した場合には、受信端末21上で動作する楽譜シーケンサーソフトウェアにより楽譜の解読および自動演奏が行われ、MIDIデータが出力される。出力されたMIDIデータは、電子楽器22あるいは仮想楽器23に入力される。このような処理の流れを図3の処理▲4▼で示す。
【0048】
基地局10がWavデータを受信した場合には、受信端末24上で動作する再生ソフトウェアによりWavデータが再生され、音声信号を出力する。出力された音声信号は、エフェクタ25あるいはソフトウェアエフェクタ26に入力される。
【0049】
<3.電子楽器による再生>
図4は、電子楽器22および仮想楽器23に共通する機能をブロック図として示したものである。
【0050】
電子楽器22は、MIDI IF221を備えており、MIDIデータを入力する。入力されたMIDIデータは、MIDI音源223を利用して再生部222において再生される。MIDIデータが再生されると、アナログの音声情報である音声信号が音声出力部224より出力される。
【0051】
仮想楽器23の場合も、電子楽器22の場合と基本的な機能は同様であるが、電子楽器22が専用のハードウェアとして構成されているのに対して、仮想楽器23は、たとえばPC上で動作するソフトウェアにより実現されている。したがって、再生部222およびMIDI音源223がソフトウェアによって実現されている。あるいは、再生部222のみがソフトウェアによって実現されている。
【0052】
電子楽器22あるいは仮想楽器23の音声出力部224より出力された音声信号は、図1等に示した送信端末27において、デジタルの音声情報であるWavデータに変換され、端末局1に送信される。
【0053】
また、送信端末27は、電子楽器22あるいは仮想楽器23より入力した音声信号をストリーミング系のオーディオ音声データ(Real audioなど)に変換し、端末局1に対してストーミングデータを送信する。
【0054】
端末局1では、基地局2から送信されたWavデータを受信すると、Wavデータをハードディスク等の記憶部に格納する。格納されたWavデータは任意のタイミングでWav再生部106により再生され、スピーカ14より出力される。あるいは、基地局2から受信したWavデータをそのまま再生してもよい。
【0055】
端末局1がストリーミングデータを受信した場合には、ストリーミング再生部107によりストリーミングデータのリアルタイム再生が行われ、スピーカ14より出力される。
【0056】
このようにして、端末局1では、自局で保有していない電子楽器22や仮想楽器23の音源を利用したオーディオ音声データを再生、蓄積することが可能である。
【0057】
特に、入手困難で高価な電子楽器の音源をネットワークを利用して共有することで、利用者にとって利便性の高いシステムとなる。
【0058】
基地局2より端末局1に送信するオーディオ音声データのデータ形式は、特に、限定されるものではないが、非圧縮のWavデータを利用することで、端末性能に依存することなく、基地局2で再生された音声をそのまま再現することが可能である。
【0059】
<4.エフェクタ処理>
図5は、エフェクタ25およびソフトウェアエフェクタ26に共通する機能をブロック図として示したものである。
【0060】
端末局1から送信されたWavデータは、受信端末24において受信される。端末端末24は、音声再生ソフトウェアを実行することにより、Wavデータの再生を行いアナログの音声情報である音声信号を出力する。
【0061】
エフェクタ25は、音声入力部251を備えており、受信端末24が出力した音声信号を入力する。入力された音声信号は、操作部252において様々な波形処理が行われる。たとえば、リバーブ、エコー、などの処理が加えられる。波形処理が行われた音声信号は、音声出力部253より出力される。
【0062】
ソフトウェアエフェクタ26の場合も、エフェクタ25の場合と基本的な機能は同様であるが、エフェクタ25が専用のハードウェアとして構成されているのに対して、ソフトウェアエフェクタ26は、たとえばPC上で動作するソフトウェアにより実現されている。したがって、操作部252がソフトウェアによって実現されている。
【0063】
エフェクタ25あるいはソフトウェアエフェクタ26の音声出力部253より出力された音声信号は、図1等に示した送信端末27において、Wavデータに変換され、端末局1に送信される。
【0064】
また、送信端末27は、エフェクタ25あるいはソフトウェアエフェクタ26より入力した音声信号をストリーミング系のオーディオ音声データ(Real audioなど)に変換し、端末局1に対してストーミングデータを送信する。
【0065】
端末局1では、Wavデータを受信すると、Wavデータをハードディスク等の記憶部に格納する。格納されたWavデータは任意のタイミングでWav再生部106により再生され、スピーカ14より出力される。あるいは、受信したWavデータをそのまま再生する。
【0066】
端末局1がストリーミングデータを受信した場合には、ストリーミング再生部107によりストリーミングデータがリアルタイム再生され、スピーカ14より出力される。
【0067】
このようにして、端末局1では、自局で保有していないエフェクタ25やソフトウェアエフェクタ26を利用したオーディオ音声データを再生、蓄積することが可能である。
【0068】
したがって、基地局2において、多種多様のエフェクタを用意して、ネットワークに接続することにより、利用者は、基地局2上に存在する様々なエフェクタを利用した楽曲作成を行うことが可能である。
【0069】
基地局2より端末局1に送信するオーディオ音声データのデータ形式は、特に、限定されるものではないが、非圧縮のWavデータを利用することで、端末性能に依存することなく、基地局2で再生された音声をそのまま再現することが可能である。
【0070】
<5.マイク入力によるMIDI出力>
端末局1は、また、マイク13から入力された音声信号をMIDIデータに変換して出力する機能を備える。
【0071】
図6は、音声信号をMIDIデータに変換する変換部15の機能ブロック図である。変換部15は、ピッチ抽出ブロック151およびMIDI変換部152を備える。マイク13から入力された音声信号は、LPF(Law Pass Filter)1511において高周波成分が取り除かれる(あるいは、IIR型積分器を通過させてもよい。)。その後、エンベロープフォロワによってエンベロープが形成され、ピーク検出部1512において帯域毎に分割されつつピークが検出される。その結果からピークの間隔あるいはピークから波形の傾きを検知することでピッチ抽出部1513において基本ピッチ(周波数)が抽出される。
【0072】
このようにしてピッチ抽出ブロック151において抽出されたピッチの情報をMIDI変換部152においてMIDI規格に基づいて変換し、MIDIデータを出力する。
【0073】
出力されたMIDIデータは、送信部104により基地局2に送信される。その後の処理は、上述した実施の形態と同様である。
【0074】
<6.変形例>
上記実施の形態においては、演奏情報等を送信する端末局1において、基地局2から受信したWavデータ等を再生することとしたが、再生する端末は別の端末でもよい。
【0075】
図7に示した実施の形態では、基地局2は、演奏情報等を送信する端末局1とは異なる再生端末局3に対してWavデータやストリーミングデータを送信する。再生端末局3としては、PCのほか、携帯電話等を利用することが可能である。
【0076】
これにより、たとえば、端末局1において作曲した楽曲を、他人の携帯電話にグリーティング音声メールとして配信するなどの利用方法が可能である。
【0077】
なお、オーディオ音声データを配信する先の端末は、端末局1から指定するようにすればよい。たとえば、端末局1は、演奏情報等を基地局2に送信するに際し、配信先の端末のIPアドレスやメールアドレスを記述したデータを添付するようにすればよい。もしくは、演奏情報等のヘッダなどに配信先情報を埋め込むようにしてもよい。
【0078】
上記実施の形態においては、基地局2は、複数の端末を備える構成としているが、これら端末の一部または全部を共用としてもよい。つまり、受信端末21,24、仮想楽器23やソフトウェアエフェクタ26の動作する端末、送信端末27などは、図1等において便宜的にそれぞれ別の端末として図示しているが、これらを1つの端末で実現することも可能である。
【0079】
【発明の効果】
以上説明したように、請求項1記載の発明は、ネットワーク上に接続された電子楽器の音源を利用し、再生された音声情報を端末局が受信するので、端末局は、自局に存在しない電子楽器の音源を利用した楽曲作成を行うことが可能である。
【0080】
請求項2記載の発明は、端末局は、基地局に備えられたソフトウェアによって実現された仮想楽器を利用可能であり、自局に存在しない仮想楽器の音源を利用した楽曲作成を行うことが可能である。
【0081】
請求項3記載の発明は、端末局より送信された楽譜情報に対して、基地局の電子楽器が再生した音声情報が端末局に返送されるので、MIDI等の再生機能を持たない端末局においても、基地局の音源を利用した音声情報を得ることが可能である。
【0082】
請求項4記載の発明は、基地局は、演奏情報等を受信した端末とは異なる端末に音声情報を送信するので、基地局の音源を利用した音声情報を直接、他の端末で楽しむことが可能である。
【0083】
請求項5記載の発明は、音声情報を送信する先の端末を端末局より指定可能としたので、利用者は、所望の端末に対して、基地局の音源を利用した音声情報を提供することが可能である。
【0084】
請求項6記載の発明は、マイクから入力した音声を演奏情報に変換して基地局に送信するので、演奏技術を持たない利用者であっても、基地局の音源を利用した楽曲作成を行うことが可能である。
【0085】
請求項7記載の発明は、音声情報を送信することにより、ネットワーク上に接続されたエフェクタを利用することが可能であるので、端末局は、一般的な音声データを保有することで、自局に存在しないエフェクタの処理機能を利用した楽曲作成を行うことが可能である。
【0086】
請求項8記載の発明は、端末局は、基地局に備えられたソフトウェアによって実現されたエフェクタを利用可能であり、自局に存在しないエフェクタの処理機能を利用した楽曲作成を行うことが可能である。
【0087】
請求項9記載の発明は、基地局は、演奏情報等を受信した端末とは異なる端末に音声情報を送信するので、基地局のエフェクタの処理機能によって変化を加えられた音声情報を直接、他の端末で楽しむことが可能である。
【0088】
請求項10記載の発明は、音声情報を送信する先の端末を端末局より指定可能としたので、利用者は、所望の端末に対して、基地局のエフェクタによって変化の加えられた音声情報を提供することが可能である。
【0089】
請求項11記載の発明は、電子楽器の保有する音源を利用した音声情報をネットワークを介して遠隔地にある端末局に提供することを可能としたサーバに関するものである。
【0090】
請求項12記載の発明は、エフェクタの処理機能により変化を加えた音声情報をネットワークを介して遠隔地にある端末局に提供することを可能としたサーバに関するものである。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかるネットワークサウンドシステムの全体図である。
【図2】端末局の機能ブロック図である。
【図3】基地局でMIDI再生を行う処理パターンを示す図である。
【図4】電子楽器および仮想楽器の機能ブロック図である。
【図5】エフェクタおよびソフトウェアエフェクタの機能ブロック図である。
【図6】音声変換に関わる機能ブロック図である。
【図7】再生端末が端末局と異なる場合の実施の形態を示す図である。
【符号の説明】
1 端末局
2 基地局
5 ネットワーク
10 端末
12 MIDI鍵盤
22 電子楽器
23 仮想楽器
25 エフェクタ
26 ソフトウェアエフェクタ
【発明の属する技術分野】
本発明は、音楽情報の変換技術に関する。
【0002】
【技術背景と課題】
電子鍵盤楽器あるいはPC上で動作する仮想電子楽器が存在する。これらは、MIDI(Musical Instruments Digital Interface)等の通信規格を用いて、相互に接続することが可能である。MIDI等に基づいて手動あるいは自動(音楽シーケンサーを利用)で電子楽器に入力された演奏情報は、一般的にアナログ音声により出力されるが、これをデジタル音声(Wave形式やmp3形式など)として出力することや、ハードディスクなどに保管することが可能である。
【0003】
一方、CATVネットワーク、ADSL、光ファイバーからなるブロードバンド(高速)ネットワークあるいはLANが普及している。これらは256Kbps〜100Mbps程度の通信帯域幅を持ち、この帯域にMIDI(31.25Kbps)はもとより、HIFI(周波数特性20Hz〜20KHz)の音声データ(圧縮時128Kbps〜非圧縮ステレオで1.4Mbps程度)をそのまま通信しても問題は無い。
【0004】
<通信による遠隔演奏の遅延問題>
このようにブロードバンド等の普及によりMIDIの通信に関して帯域上の問題は解消しているが、従来、ネットワークを用いて演奏情報を交換しながらの演奏が行なわれなかった理由は、ネットワーク上の通信では、特有の遅延が発生するからである。通常数10ms程度の遅延で演奏に支障をきたすといわれている状況下において、ネットワーク上の複数の地点での同期演奏は不可能に近かった。
【0005】
ただし、リアルタイムでは無い状態(ノンリアルタイム)での遠隔地演奏は可能である。具体的な例としては、通信カラオケや、携帯電話の着信メロディが存在する。これらは基地局(サーバ局)に、MIDIやSMF(Standard MIDI File)形式等からなる演奏情報を保管しておき、カラオケBOXや携帯端末のリクエストに応じ、この演奏情報を配信する。利用者は、好みのタイミングでこの演奏情報をカラオケ機器や携帯電話に搭載されたシンセサイザ音源を用いて再生することができる。
【0006】
<希少な電子楽器の音色の利用の問題>
次に、電子楽器に特有の音色に関する技術背景を述べる。過去に存在した電子楽器(たとえば、ミニムーグ、DX−7、Jupiter 8、Hammond B−3 Organ、ローズピアノ等)は、個々に特有の個性的な音色をもっている。これらの音色は、最新の電子楽器が開発されてきた今日においても貴重な存在である。したがって、音楽の作編曲において、未だそれらの音色が欠かせない例も存在する。
【0007】
しかしながら、これらの電子楽器はその生産時期も古く、生産数も少なく、高価であり入手しにくい。そこで近年では、前述のPC上で動作するソフトウェア仮想楽器によりこれらの名機の音色をCPUの演算やサンプリング(実際の楽器の波形をある単位時間で録音し、再生鍵盤のピッチ(音高)の調整や音量の時間的変化を加えて実楽器の音色の模倣をする技術やその機能を持つ楽器のこと)により再生することが行なわれている。しかし、これらの仮想楽器音はやはり実際の楽器とは音色が微妙に異なると言われている。
【0008】
<特殊な音声処理を行なう際の問題>
また、エフェクタと呼ばれる音響機器が存在する。エフェクタは、AD、DA変換器とDSP(Digital Signal Processor)や高速CPUと高速RAMを持ち、デジタル信号処理理論に基づきフィルタや遅延などを演算することにより、音声に様々な変調処理を行なう装置あるいはソフトウェアである。例としてはエコー(遅延)、リバーブ(残響)、ピッチシフタ(音声の高さを変える)、ノイズリダクション(雑音を除去する)などがある。加えて、音声圧縮(G726.1やMP3)にDSPが用いられることがある。
【0009】
これらの様々な処理を行なう為には、アルゴリズムまたはミドルウェアと呼ばれ、DSPなどに個々の処理を指示するための手順からなる一種のソフトウェアプログラムが必要である。通常このプログラムは汎用性が非常に少なく、特定のDSPあるいはエフェクタ機器に搭載されるアルゴリズムは固定的である場合が多い。
【0010】
したがって様々な音声処理を行なう為には、多数のアルゴリズムを搭載するとともに、それらのアルゴリズムを同時あるいは切り替えて実行可能なエフェクタ機器を利用するか、個別の目的に合ったエフェクタを複数用意するしかない。
【0011】
<シンセサイザ端末の種類による演奏可能音色の差異の問題>
シンセサイザ音源とは、MIDIなどからなる演奏情報を解釈し、ウェーブROMあるいはWave Tableと呼ばれる音色(音素片)を記録したデータを、ピッチ(音高)やエンベロープ(音量の時間的変化)に応じて適宜演算調整し、DSPや高速CPUを用いて正弦波や矩形波などの演算を行いながら、実際の楽器音に似せた、あるいは実際に存在しない音色を演奏できる楽器を言う。
【0012】
このシンセサイザー音源は近年では電子楽器だけでなく、ソフトウェアにおいてPC上で実現されており、また携帯電話に搭載されていて一般的なものになっている。
【0013】
しかしながら、シンセサイザ音源はそのハードウェア的なコストや記憶容量、処理速度の制約があり、ソフトウェア音源を利用した場合にはCPU処理速度や他のアプリケーション同時利用の制限などがある。このため、たとえば携帯電話においては、一般の電子楽器よりも極端に同時発音数が少なく薄い音しか発音することができない。またウェーブROMの搭載容量についてもハード的、コスト的制約から、音質の良く無いウェーブによる演奏しかできないものも存在した。
【0014】
そこで、本発明は前記問題点に鑑み、高価な電子楽器や、多数のエフェクタを個々の端末局が保有することなく、それらの音源や処理機能を利用することを可能としたシステムを提供することを目的とする。
【0015】
【課題を解決するための手段】
MIDIやSMFによる演奏情報を、性能の高い、あるいは特徴的で希少なシンセサイザー音源に入力することで、品質の良いWavデータ(や圧縮音声データ)を得ることができる。Wavデータは、リニア(非圧縮)PCM(Pulse Code Modulation)などの形式で、ほとんどのPCや端末機器で同一音色で再生させることができる。つまり、端末搭載シンセサイザーの性能に依存しない。
【0016】
また、音声を、遠隔地に存在する性能の高いエフェクタに転送すれば、そのエフェクタより出力された変調あるいは加工された音声を、同様に品質の良いWavデータの形式で得ることが可能である。
【0017】
したがって、ネットワークを介して端末機器と接続された基地局にこのような高性能なシンセサイザやエフェクタを設置し、端末機器側よりMIDI等の演奏情報あるいは加工前のWavデータを基地局に転送し、基地局上で演奏あるいは加工変調された結果の品質の高い音声を端末局に返すことにより、端末の性能に依存しない音声サービスを運営することが可能となる。
【0018】
また、このサービスはノンリアルタイムで行なわれることが前提なのでネットワークの遅延は関係が無い。
【0019】
すなわち、請求項1記載の発明は、端末局と、前記端末局とネットワークを介して接続された基地局と、を備え、前記端末局は、前記基地局に対して演奏情報を送信する手段、を備え、前記基地局は、前記端末局から受信した前記演奏情報を入力して再生する電子楽器と、前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する送信手段と、を備えることを特徴とする。
【0020】
請求項2記載の発明は、請求項1に記載のネットワークサウンドシステムにおいて、前記電子楽器は、ソフトウェアによって実現された仮想楽器、を含むことを特徴とする。
【0021】
請求項3記載の発明は、請求項1または請求項2に記載のネットワークサウンドシステムにおいて、前記演奏情報は、楽譜情報、を含み、前記電子楽器は、前記端末局から受信した前記楽譜情報に基づいて生成された演奏情報を入力して再生することを特徴とする。
【0022】
請求項4記載の発明は、請求項1ないし請求項3のいずれかに記載のネットワークサウンドシステムにおいて、前記送信手段は、前記音声情報を前記端末局とは異なる他の端末に対して送信する手段、を備えることを特徴とする。
【0023】
請求項5記載の発明は、請求項4に記載のネットワークサウンドシステムにおいて、前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とする。
【0024】
請求項6記載の発明は、請求項1ないし請求項5のいずれかに記載のネットワークサウンドシステムにおいて、前記端末局は、さらに、マイクと、前記マイクから入力した音声を演奏情報に変換する変換手段と、を備え、前記変換手段により変換された演奏情報を前記基地局に送信することを特徴とする。
【0025】
請求項7記載の発明は、端末局と、前記端末局とネットワークを介して接続された基地局と、を備え、前記端末局は、前記基地局に対して音声情報を送信する手段、を備え、前記基地局は、前記端末局から受信した前記音声情報を入力し、前記音声情報に基づく音声波形を操作するエフェクタと、前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する送信手段と、を備えることを特徴とする。
【0026】
請求項8記載の発明は、請求項7に記載のネットワークサウンドシステムにおいて、前記エフェクタは、ソフトウェアエフェクタを、含むことを特徴とする。
【0027】
請求項9記載の発明は、請求項7または請求項8に記載のネットワークサウンドシステムにおいて、前記送信手段は、前記エフェクタにより変化を加えられた音声情報を前記端末局とは異なる他の端末に対して送信する手段、を備えることを特徴とする。
【0028】
請求項10記載の発明は、請求項9に記載のネットワークサウンドシステムにおいて、前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とする。
【0029】
請求項11記載の発明は、端末局とネットワークを介して接続されたサーバであって、前記端末局が送信した演奏情報を受信する手段と、受信した前記演奏情報を入力して再生する電子楽器と、前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する手段と、を備えることを特徴とする。
【0030】
請求項12記載の発明は、端末局とネットワークを介して接続されたサーバであって、前記端末局が送信した音声情報を受信する手段と、受信した前記音声情報に基づく音声波形を操作するエフェクタと、前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する手段と、を備えることを特徴とするサウンドサーバ。
【0031】
【発明の実施の形態】
以下、図面を参照しつつ本発明の実施の形態について説明する。図1は、本発明の実施の形態にかかるネットワークサウンドシステムの全体構成図である。
【0032】
ネットワークサウンドシステムは、ネットワーク5を介して接続された端末局1と基地局2とから構成される。端末局1は、MIDIデータなどの演奏情報や音声情報を基地局2に送信する機能を備える。基地局2は、電子楽器やエフェクタを備えることにより、端末局1から受信した演奏情報や音声情報を再生、変換する機能を備える。基地局2において再生、変換された音声情報は端末局1に送信され、端末局1において音声再生が行われる。
【0033】
<1.端末局における処理>
端末局1は、図2に示すように、PC等からなる端末10と、端末10に接続されたMIDI鍵盤12、マイク13、スピーカ14等を備えている。
【0034】
端末10は、MIDIインタフェース(MIDI IF)101を備え、MIDIシーケンサーソフトウェアや、各種音声データの再生ソフトウェアなどがインストールされている。MIDIシーケンサーソフトウェアの実行により実現される機能部をMIDI再生部102、各種再生ソフトウェアのうち、Wavデータの再生ソフトウェアにより実現される機能部をWav再生部106、ストリーミングデータの再生ソフトウェアにより実現される機能部をストリーミング再生部107として図示している。
【0035】
MIDIは、シンセサイザや音源、PC間で楽曲データをやりとりするための規格であり、MIDIデータは、音色、音程などの演奏に関する情報(このような情報を演奏情報と呼ぶ。)であって、MIDI規格によって定められた手順に従って送受信される。したがってMIDI規格に対応した機器であれば、このMIDIデータを交換することで、同様の演奏音を再生することが可能である。
【0036】
MIDI鍵盤12は、操作者によって操作された鍵盤の入力情報をMIDIデータとして出力する。出力されたMIDIデータは、MIDI IF101を介して端末10に入力される。端末10は、MIDI鍵盤12から入力したMIDIデータを、送信部104によりネットワーク5を介して基地局2に送信する機能を備える。このようにして、MIDI鍵盤12を用いた手動演奏によって得られたMIDIデータが基地局2に送信される。
【0037】
また、MIDI再生部102は、MIDI音源103を利用することにより、記憶部110に格納されたSMFを再生(自動演奏)することによって、MIDIデータを出力することが可能である。そして、送信部104は、自動演奏によって出力されたMIDIデータをネットワーク5を介して基地局2に送信する機能を備える。SMFは、MIDIデータをファイル化したデータであり、MIDI対応機器であればSMFに基づいてMIDIデータを再生することが可能である。
【0038】
なお、本実施の形態においては、演奏情報としてMIDIデータを採用しているが、演奏情報はこれに限定されるものではなく、統一した規格のもとに相互に交換可能であり、同様の演奏音を再生させることが可能な情報であればよい。
【0039】
また、送信部104は、記憶部110に格納されているSMFをネットワーク5を介して基地局2に送信(ファイル転送)する機能を備える。
【0040】
また、送信部104は、記憶部110に格納されている楽譜情報をネットワーク5を介して基地局2に送信する機能を備える。
【0041】
また、送信部104は、記憶部110に格納されているデジタルの音声情報であるオーディオ音声データを基地局2に送信する機能を備える。本実施の形態においては、オーディオ音声データとしてWavデータ(Wave形式)が基地局2に送信される。
【0042】
これら、SMF、楽譜情報、Wavデータの転送には、FTPやHTTPなどのプロトコルが用いられる。
【0043】
なお、本実施の形態においては、オーディオ音声データとしてWavデータを採用しているが、オーディオ音声データはこれに限定されるものではなく、たとえば、AU形式や、AIFF形式のオーディオ音声データを採用してもよい。
【0044】
このように、端末10は、基地局2に対して演奏情報(MIDIデータ、SMF)、音声情報(Wavデータなどのオーディオ音声データ)、あるいは楽譜情報を送信する。
【0045】
<2.基地局における処理>
基地局2では、MIDIデータを受信すると、MIDIデータは、電子楽器22あるいは仮想楽器23に入力される。この時、受信端末21は、入力したMIDIデータをそのまま出力し、電子楽器22あるいは仮想楽器23に送信する。なお、受信端末21を経由しない形態でもよい。このような処理の流れを図3の処理▲1▼、処理▲2▼として示す。処理▲1▼は、端末局10のシーケンサーソフトウェアによって自動演奏がされた場合の処理であり、処理▲2▼は、MIDI鍵盤12を用いて手動演奏が行われた場合の処理である。
【0046】
基地局10が、SMFを受信した場合には、受信端末21上で動作するシーケンサーソフトウェアによりSMFの自動演奏が行われ、MIDIデータが出力される。出力されたMIDIデータは、電子楽器22あるいは仮想楽器23に入力される。このような処理の流れを図3の処理▲3▼で示す。
【0047】
基地局10が、楽譜情報を受信した場合には、受信端末21上で動作する楽譜シーケンサーソフトウェアにより楽譜の解読および自動演奏が行われ、MIDIデータが出力される。出力されたMIDIデータは、電子楽器22あるいは仮想楽器23に入力される。このような処理の流れを図3の処理▲4▼で示す。
【0048】
基地局10がWavデータを受信した場合には、受信端末24上で動作する再生ソフトウェアによりWavデータが再生され、音声信号を出力する。出力された音声信号は、エフェクタ25あるいはソフトウェアエフェクタ26に入力される。
【0049】
<3.電子楽器による再生>
図4は、電子楽器22および仮想楽器23に共通する機能をブロック図として示したものである。
【0050】
電子楽器22は、MIDI IF221を備えており、MIDIデータを入力する。入力されたMIDIデータは、MIDI音源223を利用して再生部222において再生される。MIDIデータが再生されると、アナログの音声情報である音声信号が音声出力部224より出力される。
【0051】
仮想楽器23の場合も、電子楽器22の場合と基本的な機能は同様であるが、電子楽器22が専用のハードウェアとして構成されているのに対して、仮想楽器23は、たとえばPC上で動作するソフトウェアにより実現されている。したがって、再生部222およびMIDI音源223がソフトウェアによって実現されている。あるいは、再生部222のみがソフトウェアによって実現されている。
【0052】
電子楽器22あるいは仮想楽器23の音声出力部224より出力された音声信号は、図1等に示した送信端末27において、デジタルの音声情報であるWavデータに変換され、端末局1に送信される。
【0053】
また、送信端末27は、電子楽器22あるいは仮想楽器23より入力した音声信号をストリーミング系のオーディオ音声データ(Real audioなど)に変換し、端末局1に対してストーミングデータを送信する。
【0054】
端末局1では、基地局2から送信されたWavデータを受信すると、Wavデータをハードディスク等の記憶部に格納する。格納されたWavデータは任意のタイミングでWav再生部106により再生され、スピーカ14より出力される。あるいは、基地局2から受信したWavデータをそのまま再生してもよい。
【0055】
端末局1がストリーミングデータを受信した場合には、ストリーミング再生部107によりストリーミングデータのリアルタイム再生が行われ、スピーカ14より出力される。
【0056】
このようにして、端末局1では、自局で保有していない電子楽器22や仮想楽器23の音源を利用したオーディオ音声データを再生、蓄積することが可能である。
【0057】
特に、入手困難で高価な電子楽器の音源をネットワークを利用して共有することで、利用者にとって利便性の高いシステムとなる。
【0058】
基地局2より端末局1に送信するオーディオ音声データのデータ形式は、特に、限定されるものではないが、非圧縮のWavデータを利用することで、端末性能に依存することなく、基地局2で再生された音声をそのまま再現することが可能である。
【0059】
<4.エフェクタ処理>
図5は、エフェクタ25およびソフトウェアエフェクタ26に共通する機能をブロック図として示したものである。
【0060】
端末局1から送信されたWavデータは、受信端末24において受信される。端末端末24は、音声再生ソフトウェアを実行することにより、Wavデータの再生を行いアナログの音声情報である音声信号を出力する。
【0061】
エフェクタ25は、音声入力部251を備えており、受信端末24が出力した音声信号を入力する。入力された音声信号は、操作部252において様々な波形処理が行われる。たとえば、リバーブ、エコー、などの処理が加えられる。波形処理が行われた音声信号は、音声出力部253より出力される。
【0062】
ソフトウェアエフェクタ26の場合も、エフェクタ25の場合と基本的な機能は同様であるが、エフェクタ25が専用のハードウェアとして構成されているのに対して、ソフトウェアエフェクタ26は、たとえばPC上で動作するソフトウェアにより実現されている。したがって、操作部252がソフトウェアによって実現されている。
【0063】
エフェクタ25あるいはソフトウェアエフェクタ26の音声出力部253より出力された音声信号は、図1等に示した送信端末27において、Wavデータに変換され、端末局1に送信される。
【0064】
また、送信端末27は、エフェクタ25あるいはソフトウェアエフェクタ26より入力した音声信号をストリーミング系のオーディオ音声データ(Real audioなど)に変換し、端末局1に対してストーミングデータを送信する。
【0065】
端末局1では、Wavデータを受信すると、Wavデータをハードディスク等の記憶部に格納する。格納されたWavデータは任意のタイミングでWav再生部106により再生され、スピーカ14より出力される。あるいは、受信したWavデータをそのまま再生する。
【0066】
端末局1がストリーミングデータを受信した場合には、ストリーミング再生部107によりストリーミングデータがリアルタイム再生され、スピーカ14より出力される。
【0067】
このようにして、端末局1では、自局で保有していないエフェクタ25やソフトウェアエフェクタ26を利用したオーディオ音声データを再生、蓄積することが可能である。
【0068】
したがって、基地局2において、多種多様のエフェクタを用意して、ネットワークに接続することにより、利用者は、基地局2上に存在する様々なエフェクタを利用した楽曲作成を行うことが可能である。
【0069】
基地局2より端末局1に送信するオーディオ音声データのデータ形式は、特に、限定されるものではないが、非圧縮のWavデータを利用することで、端末性能に依存することなく、基地局2で再生された音声をそのまま再現することが可能である。
【0070】
<5.マイク入力によるMIDI出力>
端末局1は、また、マイク13から入力された音声信号をMIDIデータに変換して出力する機能を備える。
【0071】
図6は、音声信号をMIDIデータに変換する変換部15の機能ブロック図である。変換部15は、ピッチ抽出ブロック151およびMIDI変換部152を備える。マイク13から入力された音声信号は、LPF(Law Pass Filter)1511において高周波成分が取り除かれる(あるいは、IIR型積分器を通過させてもよい。)。その後、エンベロープフォロワによってエンベロープが形成され、ピーク検出部1512において帯域毎に分割されつつピークが検出される。その結果からピークの間隔あるいはピークから波形の傾きを検知することでピッチ抽出部1513において基本ピッチ(周波数)が抽出される。
【0072】
このようにしてピッチ抽出ブロック151において抽出されたピッチの情報をMIDI変換部152においてMIDI規格に基づいて変換し、MIDIデータを出力する。
【0073】
出力されたMIDIデータは、送信部104により基地局2に送信される。その後の処理は、上述した実施の形態と同様である。
【0074】
<6.変形例>
上記実施の形態においては、演奏情報等を送信する端末局1において、基地局2から受信したWavデータ等を再生することとしたが、再生する端末は別の端末でもよい。
【0075】
図7に示した実施の形態では、基地局2は、演奏情報等を送信する端末局1とは異なる再生端末局3に対してWavデータやストリーミングデータを送信する。再生端末局3としては、PCのほか、携帯電話等を利用することが可能である。
【0076】
これにより、たとえば、端末局1において作曲した楽曲を、他人の携帯電話にグリーティング音声メールとして配信するなどの利用方法が可能である。
【0077】
なお、オーディオ音声データを配信する先の端末は、端末局1から指定するようにすればよい。たとえば、端末局1は、演奏情報等を基地局2に送信するに際し、配信先の端末のIPアドレスやメールアドレスを記述したデータを添付するようにすればよい。もしくは、演奏情報等のヘッダなどに配信先情報を埋め込むようにしてもよい。
【0078】
上記実施の形態においては、基地局2は、複数の端末を備える構成としているが、これら端末の一部または全部を共用としてもよい。つまり、受信端末21,24、仮想楽器23やソフトウェアエフェクタ26の動作する端末、送信端末27などは、図1等において便宜的にそれぞれ別の端末として図示しているが、これらを1つの端末で実現することも可能である。
【0079】
【発明の効果】
以上説明したように、請求項1記載の発明は、ネットワーク上に接続された電子楽器の音源を利用し、再生された音声情報を端末局が受信するので、端末局は、自局に存在しない電子楽器の音源を利用した楽曲作成を行うことが可能である。
【0080】
請求項2記載の発明は、端末局は、基地局に備えられたソフトウェアによって実現された仮想楽器を利用可能であり、自局に存在しない仮想楽器の音源を利用した楽曲作成を行うことが可能である。
【0081】
請求項3記載の発明は、端末局より送信された楽譜情報に対して、基地局の電子楽器が再生した音声情報が端末局に返送されるので、MIDI等の再生機能を持たない端末局においても、基地局の音源を利用した音声情報を得ることが可能である。
【0082】
請求項4記載の発明は、基地局は、演奏情報等を受信した端末とは異なる端末に音声情報を送信するので、基地局の音源を利用した音声情報を直接、他の端末で楽しむことが可能である。
【0083】
請求項5記載の発明は、音声情報を送信する先の端末を端末局より指定可能としたので、利用者は、所望の端末に対して、基地局の音源を利用した音声情報を提供することが可能である。
【0084】
請求項6記載の発明は、マイクから入力した音声を演奏情報に変換して基地局に送信するので、演奏技術を持たない利用者であっても、基地局の音源を利用した楽曲作成を行うことが可能である。
【0085】
請求項7記載の発明は、音声情報を送信することにより、ネットワーク上に接続されたエフェクタを利用することが可能であるので、端末局は、一般的な音声データを保有することで、自局に存在しないエフェクタの処理機能を利用した楽曲作成を行うことが可能である。
【0086】
請求項8記載の発明は、端末局は、基地局に備えられたソフトウェアによって実現されたエフェクタを利用可能であり、自局に存在しないエフェクタの処理機能を利用した楽曲作成を行うことが可能である。
【0087】
請求項9記載の発明は、基地局は、演奏情報等を受信した端末とは異なる端末に音声情報を送信するので、基地局のエフェクタの処理機能によって変化を加えられた音声情報を直接、他の端末で楽しむことが可能である。
【0088】
請求項10記載の発明は、音声情報を送信する先の端末を端末局より指定可能としたので、利用者は、所望の端末に対して、基地局のエフェクタによって変化の加えられた音声情報を提供することが可能である。
【0089】
請求項11記載の発明は、電子楽器の保有する音源を利用した音声情報をネットワークを介して遠隔地にある端末局に提供することを可能としたサーバに関するものである。
【0090】
請求項12記載の発明は、エフェクタの処理機能により変化を加えた音声情報をネットワークを介して遠隔地にある端末局に提供することを可能としたサーバに関するものである。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかるネットワークサウンドシステムの全体図である。
【図2】端末局の機能ブロック図である。
【図3】基地局でMIDI再生を行う処理パターンを示す図である。
【図4】電子楽器および仮想楽器の機能ブロック図である。
【図5】エフェクタおよびソフトウェアエフェクタの機能ブロック図である。
【図6】音声変換に関わる機能ブロック図である。
【図7】再生端末が端末局と異なる場合の実施の形態を示す図である。
【符号の説明】
1 端末局
2 基地局
5 ネットワーク
10 端末
12 MIDI鍵盤
22 電子楽器
23 仮想楽器
25 エフェクタ
26 ソフトウェアエフェクタ
Claims (12)
- 端末局と、
前記端末局とネットワークを介して接続された基地局と、
を備え、
前記端末局は、
前記基地局に対して演奏情報を送信する手段、
を備え、
前記基地局は、
前記端末局から受信した前記演奏情報を入力して再生する電子楽器と、
前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する送信手段と、
を備えることを特徴とするネットワークサウンドシステム。 - 請求項1に記載のネットワークサウンドシステムにおいて、
前記電子楽器は、
ソフトウェアによって実現された仮想楽器、
を含むことを特徴とするネットワークサウンドシステム。 - 請求項1または請求項2に記載のネットワークサウンドシステムにおいて、
前記演奏情報は、
楽譜情報、
を含み、
前記電子楽器は、
前記端末局から受信した前記楽譜情報に基づいて生成された演奏情報を入力して再生することを特徴とするネットワークサウンドシステム。 - 請求項1ないし請求項3のいずれかに記載のネットワークサウンドシステムにおいて、
前記送信手段は、
前記音声情報を前記端末局とは異なる他の端末に対して送信する手段、
を備えることを特徴とするネットワークサウンドシステム。 - 請求項4に記載のネットワークサウンドシステムにおいて、
前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とするネットワークサウンドシステム。 - 請求項1ないし請求項5のいずれかに記載のネットワークサウンドシステムにおいて、
前記端末局は、さらに、
マイクと、
前記マイクから入力した音声を演奏情報に変換する変換手段と、
を備え、
前記変換手段により変換された演奏情報を前記基地局に送信することを特徴とするネットワークサウンドシステム。 - 端末局と、
前記端末局とネットワークを介して接続された基地局と、
を備え、
前記端末局は、
前記基地局に対して音声情報を送信する手段、
を備え、
前記基地局は、
前記端末局から受信した前記音声情報を入力し、前記音声情報に基づく音声波形を操作するエフェクタと、
前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する送信手段と、
を備えることを特徴とするネットワークサウンドシステム。 - 請求項7に記載のネットワークサウンドシステムにおいて、
前記エフェクタは、
ソフトウェアエフェクタを、
含むことを特徴とするネットワークサウンドシステム。 - 請求項7または請求項8に記載のネットワークサウンドシステムにおいて、
前記送信手段は、
前記エフェクタにより変化を加えられた音声情報を前記端末局とは異なる他の端末に対して送信する手段、
を備えることを特徴とするネットワークサウンドシステム。 - 請求項9に記載のネットワークサウンドシステムにおいて、
前記音声情報を送信する先の異なる端末は、前記端末局より指定されることを特徴とするネットワークサウンドシステム。 - 端末局とネットワークを介して接続されたサーバであって、
前記端末局が送信した演奏情報を受信する手段と、
受信した前記演奏情報を入力して再生する電子楽器と、
前記電子楽器の音源を用い、前記演奏情報に基づいて再生された音声情報を前記端末局に送信する手段と、
を備えることを特徴とするサウンドサーバ。 - 端末局とネットワークを介して接続されたサーバであって、
前記端末局が送信した音声情報を受信する手段と、
受信した前記音声情報に基づく音声波形を操作するエフェクタと、
前記エフェクタにおいて変化を加えられた音声情報を前記端末局に送信する手段と、
を備えることを特徴とするサウンドサーバ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002258837A JP2004094163A (ja) | 2002-09-04 | 2002-09-04 | ネットワークサウンドシステムおよびサウンドサーバ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002258837A JP2004094163A (ja) | 2002-09-04 | 2002-09-04 | ネットワークサウンドシステムおよびサウンドサーバ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004094163A true JP2004094163A (ja) | 2004-03-25 |
Family
ID=32063360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002258837A Pending JP2004094163A (ja) | 2002-09-04 | 2002-09-04 | ネットワークサウンドシステムおよびサウンドサーバ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004094163A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006308655A (ja) * | 2005-04-26 | 2006-11-09 | Roland Corp | 電子楽器 |
JP2008310363A (ja) * | 2008-09-12 | 2008-12-25 | Kawai Musical Instr Mfg Co Ltd | 電子楽器演奏システム |
JP2010128482A (ja) * | 2008-12-01 | 2010-06-10 | Yamaha Corp | 電子音楽装置及び音楽コンテンツ利用プログラム |
US7771074B2 (en) | 2006-05-05 | 2010-08-10 | Stabila Messgerate Gustav Ullrich Gmbh | Device and method for projecting a marking onto a boundary |
JP2010191458A (ja) * | 2010-04-09 | 2010-09-02 | Kawai Musical Instr Mfg Co Ltd | 電子楽器演奏システムの楽音発生端末および演奏端末 |
JP2011123462A (ja) * | 2009-11-16 | 2011-06-23 | Yamaha Corp | 音響処理装置 |
JP2016004184A (ja) * | 2014-06-18 | 2016-01-12 | ヤマハ株式会社 | サーバ装置及び音楽システム |
-
2002
- 2002-09-04 JP JP2002258837A patent/JP2004094163A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006308655A (ja) * | 2005-04-26 | 2006-11-09 | Roland Corp | 電子楽器 |
JP4596966B2 (ja) * | 2005-04-26 | 2010-12-15 | ローランド株式会社 | 電子楽器 |
US7771074B2 (en) | 2006-05-05 | 2010-08-10 | Stabila Messgerate Gustav Ullrich Gmbh | Device and method for projecting a marking onto a boundary |
JP2008310363A (ja) * | 2008-09-12 | 2008-12-25 | Kawai Musical Instr Mfg Co Ltd | 電子楽器演奏システム |
JP4557267B2 (ja) * | 2008-09-12 | 2010-10-06 | 株式会社河合楽器製作所 | 電子楽器演奏システム |
JP2010128482A (ja) * | 2008-12-01 | 2010-06-10 | Yamaha Corp | 電子音楽装置及び音楽コンテンツ利用プログラム |
JP2011123462A (ja) * | 2009-11-16 | 2011-06-23 | Yamaha Corp | 音響処理装置 |
US8818540B2 (en) | 2009-11-16 | 2014-08-26 | Yamaha Corporation | Sound processing apparatus |
US9460203B2 (en) | 2009-11-16 | 2016-10-04 | Yamaha Corporation | Sound processing apparatus |
JP2010191458A (ja) * | 2010-04-09 | 2010-09-02 | Kawai Musical Instr Mfg Co Ltd | 電子楽器演奏システムの楽音発生端末および演奏端末 |
JP2016004184A (ja) * | 2014-06-18 | 2016-01-12 | ヤマハ株式会社 | サーバ装置及び音楽システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7853342B2 (en) | Method and apparatus for remote real time collaborative acoustic performance and recording thereof | |
US7119268B2 (en) | Portable telephony apparatus with music tone generator | |
US7012185B2 (en) | Methods and apparatus for combining processing power of MIDI-enabled mobile stations to increase polyphony | |
JP2002207492A (ja) | 実演システム、実演収録装置、実演管理装置、ネットワークを介した実演方法 | |
JPH1173182A (ja) | 音楽作品ファイルを作成、配布、記憶、及び、実行するシステム並びに方法 | |
WO2001093245A1 (fr) | Appareil et procede pour reproduire des compositions musicales, terminal portable et dispositif de memoire | |
JP2004062190A (ja) | 1つ以上の音声信号をディジタル方式で処理するシステムおよび方法 | |
JP2004094163A (ja) | ネットワークサウンドシステムおよびサウンドサーバ | |
US7356373B2 (en) | Method and device for enhancing ring tones in mobile terminals | |
KR100619826B1 (ko) | 이동 통신 단말기의 음악 및 음성 합성 장치와 방법 | |
JP4591391B2 (ja) | オーディオデータ再生装置および携帯端末装置 | |
JP5966531B2 (ja) | 通信システム、端末装置、再生制御方法およびプログラム | |
JPH11284588A (ja) | 通信装置、通信方法及びプログラムを記録した媒体 | |
JP3975698B2 (ja) | 携帯通信端末 | |
JP2001356764A (ja) | 音声情報配信方法及び携帯通信機器を使用した合奏方法 | |
EP1519619B1 (en) | Loudspeaker sensitive sound reproduction | |
JP2007102103A (ja) | オーディオデータ再生装置および携帯端末装置 | |
JP3620467B2 (ja) | 通信端末 | |
JP3788280B2 (ja) | 携帯通信端末 | |
JP3589122B2 (ja) | 携帯用端末装置 | |
JP2004093975A (ja) | 通信端末及びプログラム | |
JP3876595B2 (ja) | 音声信号発生方法、音声信号発生装置および記録媒体 | |
JP3675361B2 (ja) | 通信端末 | |
JP3933147B2 (ja) | 発音制御装置 | |
JP2017194658A (ja) | Fm音源を使った、cdに替わる音楽再生方法 |