JP2000020055A - 楽音情報転送装置 - Google Patents
楽音情報転送装置Info
- Publication number
- JP2000020055A JP2000020055A JP10180866A JP18086698A JP2000020055A JP 2000020055 A JP2000020055 A JP 2000020055A JP 10180866 A JP10180866 A JP 10180866A JP 18086698 A JP18086698 A JP 18086698A JP 2000020055 A JP2000020055 A JP 2000020055A
- Authority
- JP
- Japan
- Prior art keywords
- data
- encoder
- time
- packet
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
- G10H2240/305—Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/315—Firewire, i.e. transmission according to IEEE1394
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
(57)【要約】
【課題】 効率的に楽音情報を転送することができる楽
音情報転送装置を提供することを課題とする。 【解決手段】 楽音情報を入力する入力手段(PC0)
と、入力手段に入力される楽音情報を加工する複数の加
工手段(PC1,PC2)と、入力手段に入力される楽
音情報を複数の加工手段に振り分け、該振り分けた楽音
情報をそれぞれ該複数の加工手段に加工させる振り分け
手段(PC0)と、複数の加工手段により加工された楽
音情報を転送する転送手段(PC1,PC2)とを有す
る楽音情報転送装置。
音情報転送装置を提供することを課題とする。 【解決手段】 楽音情報を入力する入力手段(PC0)
と、入力手段に入力される楽音情報を加工する複数の加
工手段(PC1,PC2)と、入力手段に入力される楽
音情報を複数の加工手段に振り分け、該振り分けた楽音
情報をそれぞれ該複数の加工手段に加工させる振り分け
手段(PC0)と、複数の加工手段により加工された楽
音情報を転送する転送手段(PC1,PC2)とを有す
る楽音情報転送装置。
Description
【0001】
【発明の属する技術分野】本発明は、転送技術に関し、
特に楽音情報の転送技術に関する。
特に楽音情報の転送技術に関する。
【0002】
【従来の技術】電子楽器間の通信の統一規格として、M
IDI(musical instrument digitalinterface)規格
がある。MIDI規格のインターフェースを備えた電子
楽器は、MIDI用ケーブルを用いて、他の電子楽器と
接続することができる。電子楽器は、MIDI用ケーブ
ルを介して、MIDIデータを通信することができる。
例えば、一つの電子楽器は、演奏者が演奏した情報をM
IDIデータとして送信し、他の電子楽器は、当該MI
DIデータを受信し、楽音を発音することができる。一
つの電子楽器で演奏すると、他の電子楽器でリアルタイ
ムに発音することができる。
IDI(musical instrument digitalinterface)規格
がある。MIDI規格のインターフェースを備えた電子
楽器は、MIDI用ケーブルを用いて、他の電子楽器と
接続することができる。電子楽器は、MIDI用ケーブ
ルを介して、MIDIデータを通信することができる。
例えば、一つの電子楽器は、演奏者が演奏した情報をM
IDIデータとして送信し、他の電子楽器は、当該MI
DIデータを受信し、楽音を発音することができる。一
つの電子楽器で演奏すると、他の電子楽器でリアルタイ
ムに発音することができる。
【0003】また、複数の汎用コンピュータを接続する
通信ネットワークでは、種々の情報を通信することがで
きる。例えば、コンピュータに接続されているハードデ
ィスク等にオーディオデータ(生の楽音情報)やMID
Iデータ等の情報を一度蓄積しておき、通信ネットワー
クを介して、当該情報を送信する。他のコンピュータ
は、当該情報を受信して、ハードディスク等の記憶装置
に記憶する。汎用の通信ネットワークは、情報の通信を
行うのみであり、MIDIとは性質を異にする。
通信ネットワークでは、種々の情報を通信することがで
きる。例えば、コンピュータに接続されているハードデ
ィスク等にオーディオデータ(生の楽音情報)やMID
Iデータ等の情報を一度蓄積しておき、通信ネットワー
クを介して、当該情報を送信する。他のコンピュータ
は、当該情報を受信して、ハードディスク等の記憶装置
に記憶する。汎用の通信ネットワークは、情報の通信を
行うのみであり、MIDIとは性質を異にする。
【0004】MIDI規格は、電子楽器間のリアルタイ
ム通信を可能にするが、長距離の通信及び多数ノード間
の通信に適していない。一方、汎用通信ネットワーク
は、長距離の通信及び多数ノード間の通信に適している
が、電子楽器間のリアルタイム通信を考慮したものでは
ない。
ム通信を可能にするが、長距離の通信及び多数ノード間
の通信に適していない。一方、汎用通信ネットワーク
は、長距離の通信及び多数ノード間の通信に適している
が、電子楽器間のリアルタイム通信を考慮したものでは
ない。
【0005】
【発明が解決しようとする課題】汎用ネットワークにお
いて、マルチメディアの通信が普及しつつある。オーデ
ィオデータは、サンプリング周波数が例えば48kHz
であり、データ量が比較的多い。サンプリングされたオ
ーディオデータをリアルタイムで送信することは困難で
ある。特に、送信装置の処理能力が低い場合に困難であ
る。その場合には、オーディオデータを間引いてデータ
量を減らすことが考えられるが、データを間引くと音質
が悪くなってしまう。
いて、マルチメディアの通信が普及しつつある。オーデ
ィオデータは、サンプリング周波数が例えば48kHz
であり、データ量が比較的多い。サンプリングされたオ
ーディオデータをリアルタイムで送信することは困難で
ある。特に、送信装置の処理能力が低い場合に困難であ
る。その場合には、オーディオデータを間引いてデータ
量を減らすことが考えられるが、データを間引くと音質
が悪くなってしまう。
【0006】オーディオデータを圧縮して送信する場合
がある。その圧縮処理に長時間を要する場合にも、オー
ディオデータをリアルタイムで送信することが困難であ
る。
がある。その圧縮処理に長時間を要する場合にも、オー
ディオデータをリアルタイムで送信することが困難であ
る。
【0007】本発明の目的は、効率的に楽音情報を転送
することができる楽音情報転送装置を提供することであ
る。
することができる楽音情報転送装置を提供することであ
る。
【0008】
【課題を解決するための手段】本発明の一観点によれ
ば、楽音情報を入力する入力手段と、前記入力手段に入
力される楽音情報を加工する複数の加工手段と、前記入
力手段に入力される楽音情報を前記複数の加工手段に振
り分け、該振り分けた楽音情報をそれぞれ該複数の加工
手段に加工させる振り分け手段と、前記複数の加工手段
により加工された楽音情報を転送する転送手段とを有す
る楽音情報転送装置が提供される。
ば、楽音情報を入力する入力手段と、前記入力手段に入
力される楽音情報を加工する複数の加工手段と、前記入
力手段に入力される楽音情報を前記複数の加工手段に振
り分け、該振り分けた楽音情報をそれぞれ該複数の加工
手段に加工させる振り分け手段と、前記複数の加工手段
により加工された楽音情報を転送する転送手段とを有す
る楽音情報転送装置が提供される。
【0009】楽音情報の加工は、複数の加工手段で分散
して行われるので、各加工手段の負担は軽減される。加
工手段の負担を軽減させることにより、楽音情報のリア
ルタイム処理が可能になる。また、楽音情報の情報量を
増やして、楽音情報の質を高めることできる。
して行われるので、各加工手段の負担は軽減される。加
工手段の負担を軽減させることにより、楽音情報のリア
ルタイム処理が可能になる。また、楽音情報の情報量を
増やして、楽音情報の質を高めることできる。
【0010】本発明の他の観点によれば、楽音情報を入
力する入力手段と、前記入力手段に入力される楽音情報
を加工する加工手段と、前記加工手段により加工された
所定周期内の楽音情報の量を検出し、その量が所定量よ
りも多いときにはその所定量の楽音情報を抽出してパケ
ット化し、その後、該パケット化したパケット内の最後
の楽音情報に対応する時刻から前記所定周期経過後に次
の楽音情報の量を検出して前記パケット化を行うパケッ
ト生成手段と、前記パケット生成手段によりパケット化
されたパケットを転送する転送手段とを有する楽音情報
転送装置が提供される。
力する入力手段と、前記入力手段に入力される楽音情報
を加工する加工手段と、前記加工手段により加工された
所定周期内の楽音情報の量を検出し、その量が所定量よ
りも多いときにはその所定量の楽音情報を抽出してパケ
ット化し、その後、該パケット化したパケット内の最後
の楽音情報に対応する時刻から前記所定周期経過後に次
の楽音情報の量を検出して前記パケット化を行うパケッ
ト生成手段と、前記パケット生成手段によりパケット化
されたパケットを転送する転送手段とを有する楽音情報
転送装置が提供される。
【0011】加工された所定周期内の楽音情報の量を検
出し、その量が所定量よりも多いときにはその所定量の
楽音情報を抽出してパケット化する。次のパケット化の
際には、前回パケット化したパケット内の最後の楽音情
報に対応する時刻から所定周期経過後に次の楽音情報の
量を検出して前記パケット化を行う。上記の所定周期の
開始時刻は、前回のパケット内の楽音情報の量に応じて
決まるので、効率的なパケット転送を行うことができ
る。
出し、その量が所定量よりも多いときにはその所定量の
楽音情報を抽出してパケット化する。次のパケット化の
際には、前回パケット化したパケット内の最後の楽音情
報に対応する時刻から所定周期経過後に次の楽音情報の
量を検出して前記パケット化を行う。上記の所定周期の
開始時刻は、前回のパケット内の楽音情報の量に応じて
決まるので、効率的なパケット転送を行うことができ
る。
【0012】
【発明の実施の形態】図1は、マルチメディアの通信ネ
ットワークを示す図である。
ットワークを示す図である。
【0013】演奏会場1には、カメラ4、マイク3、M
IDI楽器2、エンコーダ5a,5b,5c、送信サー
バ6が備えられる。演奏会場1では、演奏者がMIDI
楽器2を演奏し、歌手がその演奏にあわせてマイク3に
向かって歌う。さらに、他のマイク3を生ドラムや生ピ
アノや生ギターのそばに置いて、それらの音を他のマイ
ク3に入力する。
IDI楽器2、エンコーダ5a,5b,5c、送信サー
バ6が備えられる。演奏会場1では、演奏者がMIDI
楽器2を演奏し、歌手がその演奏にあわせてマイク3に
向かって歌う。さらに、他のマイク3を生ドラムや生ピ
アノや生ギターのそばに置いて、それらの音を他のマイ
ク3に入力する。
【0014】マイク3は、歌手の歌声又はドラムの音等
を電気信号に変換してアナログ形式のオーディオ信号
(音声信号)を生成し、リアルタイムでエンコーダ5b
に供給する。エンコーダ5bは、アナログ形式のオーデ
ィオ信号をデジタル形式のオーディオデータ(音声デー
タ)に変換する。
を電気信号に変換してアナログ形式のオーディオ信号
(音声信号)を生成し、リアルタイムでエンコーダ5b
に供給する。エンコーダ5bは、アナログ形式のオーデ
ィオ信号をデジタル形式のオーディオデータ(音声デー
タ)に変換する。
【0015】MIDI楽器2は、演奏者の演奏操作に応
じてMIDIデータを生成し、リアルタイムでエンコー
ダ5cに供給する。カメラ4は、演奏者が演奏している
様子を撮影し、その様子を画像データとしてリアルタイ
ムでエンコーダ5aに供給する。
じてMIDIデータを生成し、リアルタイムでエンコー
ダ5cに供給する。カメラ4は、演奏者が演奏している
様子を撮影し、その様子を画像データとしてリアルタイ
ムでエンコーダ5aに供給する。
【0016】エンコーダ5a,5b,5cのうちの全て
又は特に負荷が重いものは分散処理を行う。例えば、エ
ンコーダ5bは、複数のエンコーダ(コンピュータ)を
有し、分散処理を行う。分散処理によりエンコーダ5b
の処理効率を向上させ、効率的なリアルタイム処理が可
能になる。その詳細は、後に図2を参照しながら説明す
る。
又は特に負荷が重いものは分散処理を行う。例えば、エ
ンコーダ5bは、複数のエンコーダ(コンピュータ)を
有し、分散処理を行う。分散処理によりエンコーダ5b
の処理効率を向上させ、効率的なリアルタイム処理が可
能になる。その詳細は、後に図2を参照しながら説明す
る。
【0017】エンコーダ5a,5b,5cは、画像デー
タ、オーディオデータ、及びMIDIデータを所定のデ
ータ形式にパケット化して、リアルタイムで送信サーバ
6に送信する。パケット形式は、後に図10(A)、
(B)を参照しながら説明する。
タ、オーディオデータ、及びMIDIデータを所定のデ
ータ形式にパケット化して、リアルタイムで送信サーバ
6に送信する。パケット形式は、後に図10(A)、
(B)を参照しながら説明する。
【0018】送信サーバ6は、ルータ7を介して中継プ
ロバイダ8にリアルタイムでパケット送信する。送信サ
ーバ6は、リアルタイムでパケット送信することが好ま
しい。リアルタイムは、エンコーダ5a、5b又は5c
がカメラ4、マイク3又はMIDI楽器2からデータを
入力してから、送信サーバ6がそのデータに対応するパ
ケットを送信するまでの時間が30秒以内、好ましくは
10秒以内、より好ましくは5秒以内、さらにより好ま
しくは3秒以内がよい。例えば、データをバッファリン
グする時間は1〜2秒であり、エンコード(例えば圧
縮)及びパケット化する時間は数m秒である。送信サー
バ6の代わりに、エンコーダ5a、5b及び5cがパケ
ット生成処理を行う場合には、エンコーダ5a、5b又
は5cがデータを入力してからパケットを送信するまで
の時間が上記の時間である。
ロバイダ8にリアルタイムでパケット送信する。送信サ
ーバ6は、リアルタイムでパケット送信することが好ま
しい。リアルタイムは、エンコーダ5a、5b又は5c
がカメラ4、マイク3又はMIDI楽器2からデータを
入力してから、送信サーバ6がそのデータに対応するパ
ケットを送信するまでの時間が30秒以内、好ましくは
10秒以内、より好ましくは5秒以内、さらにより好ま
しくは3秒以内がよい。例えば、データをバッファリン
グする時間は1〜2秒であり、エンコード(例えば圧
縮)及びパケット化する時間は数m秒である。送信サー
バ6の代わりに、エンコーダ5a、5b及び5cがパケ
ット生成処理を行う場合には、エンコーダ5a、5b又
は5cがデータを入力してからパケットを送信するまで
の時間が上記の時間である。
【0019】また、リアルタイムは、演奏会場1で演奏
が開始してから終了するまでの間に、送信サーバ6又は
エンコーダ5a、5b、5cがパケット送信を開始する
ことが好ましい。すなわち、エンコーダ5a、5b、5
cがデータ(好ましくは、1曲のデータ)の入力を開示
してから終了するまでの間に、送信サーバ6又はエンコ
ーダ5a、5b、5cがパケット送信を開始することが
好ましい。
が開始してから終了するまでの間に、送信サーバ6又は
エンコーダ5a、5b、5cがパケット送信を開始する
ことが好ましい。すなわち、エンコーダ5a、5b、5
cがデータ(好ましくは、1曲のデータ)の入力を開示
してから終了するまでの間に、送信サーバ6又はエンコ
ーダ5a、5b、5cがパケット送信を開始することが
好ましい。
【0020】また、リアルタイムは、エンコーダ5a、
5b、5c又は送信サーバ6が人為的な送信要求を受け
ることなく、入力されたデータをパケット送信すること
が好ましい。例えば、エンコーダ5a、5b、5cは、
入力されたデータをハードディスクに蓄積しておき、操
作者がキーボードやマウス等で送信指示をしない限り、
送信されないようではリアルタイム性が失われる。送信
要求がなくても、入力されたデータを自動的にパケット
送信することにより、リアルタイム性が維持される。
5b、5c又は送信サーバ6が人為的な送信要求を受け
ることなく、入力されたデータをパケット送信すること
が好ましい。例えば、エンコーダ5a、5b、5cは、
入力されたデータをハードディスクに蓄積しておき、操
作者がキーボードやマウス等で送信指示をしない限り、
送信されないようではリアルタイム性が失われる。送信
要求がなくても、入力されたデータを自動的にパケット
送信することにより、リアルタイム性が維持される。
【0021】中継プロバイダ8は、複数設けられ、分散
処理により、そのパケットをインターネット回線9に送
信する。ルータ8aは、中継プロバイダ8の入力を管理
し、ルータ8bは中継プロバイダ8の出力を管理する。
処理により、そのパケットをインターネット回線9に送
信する。ルータ8aは、中継プロバイダ8の入力を管理
し、ルータ8bは中継プロバイダ8の出力を管理する。
【0022】インターネット回線9は、例えば電話回線
又は専用回線である。複数の送信プロバイダ10は、そ
れぞれルータ10aを介してインターネット回線9から
パケットを受信する。
又は専用回線である。複数の送信プロバイダ10は、そ
れぞれルータ10aを介してインターネット回線9から
パケットを受信する。
【0023】ユーザは、ホームコンピュータ12を用い
てダイヤルアップすることにより送信プロバイダ10に
接続することができる。また、ホームコンピュータ12
は、ルータ11,10bを介して送信プロバイダ10に
常に(直接)接続することができる。
てダイヤルアップすることにより送信プロバイダ10に
接続することができる。また、ホームコンピュータ12
は、ルータ11,10bを介して送信プロバイダ10に
常に(直接)接続することができる。
【0024】ホームコンピュータ12は、インターネッ
トに接続し、オーディオデータ、MIDIデータ及び画
像データを受信することができる。ホームコンピュータ
12は、ディスプレイ装置とMIDI音源を有し、その
MIDI音源は外部の音声出力装置14に接続される。
トに接続し、オーディオデータ、MIDIデータ及び画
像データを受信することができる。ホームコンピュータ
12は、ディスプレイ装置とMIDI音源を有し、その
MIDI音源は外部の音声出力装置14に接続される。
【0025】画像データは、ディスプレイ装置に表示さ
れる。MIDIデータは、MIDI音源で楽音信号に変
換され、音声出力装置14で発音される。オーディオデ
ータは、デジタル形式からアナログ形式に変換されて、
音声出力装置14で発音される。ホームコンピュータ1
2は、MIDIデータとオーディオデータの同期をとっ
て、両データに応じて音声出力装置14で発音させる。
演奏会場1の演奏音や歌声と同等の音が音声出力装置1
4からリアルタイムで発音される。
れる。MIDIデータは、MIDI音源で楽音信号に変
換され、音声出力装置14で発音される。オーディオデ
ータは、デジタル形式からアナログ形式に変換されて、
音声出力装置14で発音される。ホームコンピュータ1
2は、MIDIデータとオーディオデータの同期をとっ
て、両データに応じて音声出力装置14で発音させる。
演奏会場1の演奏音や歌声と同等の音が音声出力装置1
4からリアルタイムで発音される。
【0026】また、ホームコンピュータ12の外部に、
MIDI音源13を接続すれば、ホームコンピュータ1
2は、MIDI音源13に楽音信号を生成させ、音声出
力装置14から発音させることができる。
MIDI音源13を接続すれば、ホームコンピュータ1
2は、MIDI音源13に楽音信号を生成させ、音声出
力装置14から発音させることができる。
【0027】ルータ7が送信してからホームコンピュー
タ12が受信するまでの時間は、例えば遅くても30秒
である。ホームコンピュータ12は、受信を開始した
後、連続的にデータを受信する。受信データを基に、リ
アルタイムで楽音の発音及び/又は画像の表示を行う。
タ12が受信するまでの時間は、例えば遅くても30秒
である。ホームコンピュータ12は、受信を開始した
後、連続的にデータを受信する。受信データを基に、リ
アルタイムで楽音の発音及び/又は画像の表示を行う。
【0028】なお、音楽の演奏において、ユーザにとっ
ては、画像データよりもMIDIデータ及びオーディオ
データの方が重要な情報であるので、画像データよりも
MIDIデータ及びオーディオデータを優先して処理を
行う。画像データは、画質が悪く、コマ数が少なくても
さほど気にならないが、MIDIデータ及びオーディオ
データに基づく楽音信号は高品質が要求される。なお、
スポーツの中継等の場合は、画像と音との関係が逆にな
る。
ては、画像データよりもMIDIデータ及びオーディオ
データの方が重要な情報であるので、画像データよりも
MIDIデータ及びオーディオデータを優先して処理を
行う。画像データは、画質が悪く、コマ数が少なくても
さほど気にならないが、MIDIデータ及びオーディオ
データに基づく楽音信号は高品質が要求される。なお、
スポーツの中継等の場合は、画像と音との関係が逆にな
る。
【0029】ユーザは、演奏会場1に赴かなくても、自
宅にいながらディスプレイ装置で演奏会場1の映像を見
ながら、リアルタイムで演奏音及び歌声を聴くことがで
きる。また、自宅のホームコンピュータ12をインター
ネットに接続すれば、誰でも演奏音及び歌声を聴くこと
ができる。例えば、演奏会場1でコンサートを行った場
合には、不特定多数人が自宅でそのコンサートを楽しむ
ことができる。
宅にいながらディスプレイ装置で演奏会場1の映像を見
ながら、リアルタイムで演奏音及び歌声を聴くことがで
きる。また、自宅のホームコンピュータ12をインター
ネットに接続すれば、誰でも演奏音及び歌声を聴くこと
ができる。例えば、演奏会場1でコンサートを行った場
合には、不特定多数人が自宅でそのコンサートを楽しむ
ことができる。
【0030】演奏会場からMIDIデータを自宅に送信
することにより、演奏者が複数のユーザのそれぞれの自
宅で電子楽器を演奏しているかのような状況を作り出す
ことができる。MIDIデータの通信は、雑音により音
質を下げることはない。
することにより、演奏者が複数のユーザのそれぞれの自
宅で電子楽器を演奏しているかのような状況を作り出す
ことができる。MIDIデータの通信は、雑音により音
質を下げることはない。
【0031】図2(A)は、図1に示すエンコーダ5b
の分散処理を示す。エンコーダ5bは、例えば3つのエ
ンコーダPC0,PC1,PC2からなる。マイク3
(図1)は、ステレオデータを構成する左チャンネルデ
ータDL及び右チャンネルデータDRをエンコーダPC
0に供給する。エンコーダPC0は、データDL及びD
RをA/D変換し、左チャンネルデータDLをエンコー
ダPC1に転送し、右チャンネルデータDRをエンコー
ダPC2に転送する。
の分散処理を示す。エンコーダ5bは、例えば3つのエ
ンコーダPC0,PC1,PC2からなる。マイク3
(図1)は、ステレオデータを構成する左チャンネルデ
ータDL及び右チャンネルデータDRをエンコーダPC
0に供給する。エンコーダPC0は、データDL及びD
RをA/D変換し、左チャンネルデータDLをエンコー
ダPC1に転送し、右チャンネルデータDRをエンコー
ダPC2に転送する。
【0032】エンコーダPC1は、左チャンネルデータ
DLを圧縮し、パケット化して送信サーバ6(図1)に
送信する。エンコーダPC2は、右チャンネルデータD
Rを圧縮し、パケット化して送信サーバ6(図1)に送
信する。
DLを圧縮し、パケット化して送信サーバ6(図1)に
送信する。エンコーダPC2は、右チャンネルデータD
Rを圧縮し、パケット化して送信サーバ6(図1)に送
信する。
【0033】以上のように、エンコーダPC0は、受け
たオーディオデータDL,DRをエンコーダPC1及び
PC2に振り分ける。オーディオデータDL,DRは、
エンコーダPC1及びPC2で分散処理される。分散処
理を行うことにより、各エンコーダPC0,PC1,P
C2の処理負担を軽減させることができる。
たオーディオデータDL,DRをエンコーダPC1及び
PC2に振り分ける。オーディオデータDL,DRは、
エンコーダPC1及びPC2で分散処理される。分散処
理を行うことにより、各エンコーダPC0,PC1,P
C2の処理負担を軽減させることができる。
【0034】仮に、エンコーダ5bを1つのエンコーダ
で構成する場合には、分散処理できず、エンコーダ5b
の処理負担が増える。入力データDL,DRは、エンコ
ーダ5b内のバッファに蓄積され、やがてバッファが溢
れてしまうことがある。また、データDL,DRの処理
のリアルタイム性が失われることもある。
で構成する場合には、分散処理できず、エンコーダ5b
の処理負担が増える。入力データDL,DRは、エンコ
ーダ5b内のバッファに蓄積され、やがてバッファが溢
れてしまうことがある。また、データDL,DRの処理
のリアルタイム性が失われることもある。
【0035】オーディオデータを分散処理することによ
り、左チャンネルデータDLと右チャンネルデータDR
との2チャンネル分のデータを処理することができ、ま
た3チャンネル以上のデータも処理することができる。
チャンネルは、演奏パート毎に使用してもよい。
り、左チャンネルデータDLと右チャンネルデータDR
との2チャンネル分のデータを処理することができ、ま
た3チャンネル以上のデータも処理することができる。
チャンネルは、演奏パート毎に使用してもよい。
【0036】また、オーディオデータDL,DRのサン
プル数を増やして、音質を向上させることができる。分
散処理により各エンコーダPC1,PC2の処理負担が
軽減されるので、チャンネル数又はサンプル数が増加し
ても、オーディオデータのリアルタイム処理が可能であ
る。
プル数を増やして、音質を向上させることができる。分
散処理により各エンコーダPC1,PC2の処理負担が
軽減されるので、チャンネル数又はサンプル数が増加し
ても、オーディオデータのリアルタイム処理が可能であ
る。
【0037】なお、エンコーダPC1,PC2は必ずし
もパケット化処理を行う必要はない。図2(B)に示す
ように、エンコーダPC0がエンコーダPC1,PC2
から圧縮データを受け取って、パケット化し、送信サー
バ6(図1)にパケットを送信してもよい。同様に、図
2(C)に示すように、送信サーバ6がパケット化し、
パケットを送信してもよい。エンコーダPC0又は送信
サーバ6がパケット化する場合には、データDL及びD
Rを別々にパケット化してもよいし、それらをまとめて
パケット化してもよい。
もパケット化処理を行う必要はない。図2(B)に示す
ように、エンコーダPC0がエンコーダPC1,PC2
から圧縮データを受け取って、パケット化し、送信サー
バ6(図1)にパケットを送信してもよい。同様に、図
2(C)に示すように、送信サーバ6がパケット化し、
パケットを送信してもよい。エンコーダPC0又は送信
サーバ6がパケット化する場合には、データDL及びD
Rを別々にパケット化してもよいし、それらをまとめて
パケット化してもよい。
【0038】図3にエンコーダ5bの見かけ上の処理を
示し、図4にエンコーダ5bの分散処理を示す。図3
は、エンコーダ5bの見かけ上の処理を示すフローチャ
ートである。
示し、図4にエンコーダ5bの分散処理を示す。図3
は、エンコーダ5bの見かけ上の処理を示すフローチャ
ートである。
【0039】ステップSA1では、入力データDL,D
RをA/D変換し、圧縮処理し、時間データ等を付与す
る。時間データは、演奏時間を表し、パケット毎に付与
される。
RをA/D変換し、圧縮処理し、時間データ等を付与す
る。時間データは、演奏時間を表し、パケット毎に付与
される。
【0040】ステップSA2では、前記データをパケッ
ト化して、送信サーバ6に転送する。パケット形式は、
後に図10(A)を参照しながら説明する。
ト化して、送信サーバ6に転送する。パケット形式は、
後に図10(A)を参照しながら説明する。
【0041】図4は、エンコーダ5bが行う分散処理を
示すフローチャートである。左側の処理SB1,SB2
はエンコーダPC0が行う処理であり、右側の処理SB
3,SB4はエンコーダPC1,PC2が行う処理であ
る。
示すフローチャートである。左側の処理SB1,SB2
はエンコーダPC0が行う処理であり、右側の処理SB
3,SB4はエンコーダPC1,PC2が行う処理であ
る。
【0042】ステップSB1では、エンコーダPC0が
入力データDL,DRをA/D変換する。
入力データDL,DRをA/D変換する。
【0043】ステップSB2では、エンコーダPC0が
左チャンネルデータDLをエンコーダPC1に、右チャ
ンネルデータDRをエンコーダPC2に転送する。
左チャンネルデータDLをエンコーダPC1に、右チャ
ンネルデータDRをエンコーダPC2に転送する。
【0044】ステップSB3では、エンコーダPC1,
PC2がそれぞれ受信データを圧縮し、時間データ等を
付与する。
PC2がそれぞれ受信データを圧縮し、時間データ等を
付与する。
【0045】ステップSB4では、エンコーダPC1,
PC2がそれぞれ前記データをパケット化して、送信サ
ーバ6に転送する。
PC2がそれぞれ前記データをパケット化して、送信サ
ーバ6に転送する。
【0046】図5は、エンコーダ5bの他の分散処理例
を示す。エンコーダ5bは、例えばn+1個のエンコー
ダPC0,PC1,PC2,PC3,・・・,PCnか
らなる。オーディオデータDTは、マイク3(図1)か
らエンコーダPC0に供給される。
を示す。エンコーダ5bは、例えばn+1個のエンコー
ダPC0,PC1,PC2,PC3,・・・,PCnか
らなる。オーディオデータDTは、マイク3(図1)か
らエンコーダPC0に供給される。
【0047】エンコーダPC0は、オーディオデータD
TをA/D変換し、そのデジタル形式のオーディオデー
タDTを時分割して、エンコーダPC1〜PCnに振り
分ける。例えば、オーディオデータDTは、データD
1,D2,D3,・・・,Dn,Dn+1,・・・に時
分割される。
TをA/D変換し、そのデジタル形式のオーディオデー
タDTを時分割して、エンコーダPC1〜PCnに振り
分ける。例えば、オーディオデータDTは、データD
1,D2,D3,・・・,Dn,Dn+1,・・・に時
分割される。
【0048】エンコーダPC1〜PCnは、それぞれ所
定時間分のデータが自己のバッファ内に蓄積されたとこ
ろで圧縮処理を開始し、圧縮したデータをパケット化し
て、送信サーバ6(図1)に転送する。
定時間分のデータが自己のバッファ内に蓄積されたとこ
ろで圧縮処理を開始し、圧縮したデータをパケット化し
て、送信サーバ6(図1)に転送する。
【0049】データD1はエンコーダPC1、データD
2はエンコーダPC2、データD3はエンコーダPC
3、・・・、データDnはエンコーダPCnによりそれ
ぞれ処理されて転送される。次のデータDn+1は、再
びエンコーダPC1で処理され、転送される。
2はエンコーダPC2、データD3はエンコーダPC
3、・・・、データDnはエンコーダPCnによりそれ
ぞれ処理されて転送される。次のデータDn+1は、再
びエンコーダPC1で処理され、転送される。
【0050】以上のように、エンコーダPC0は、受け
たオーディオデータDTをn個のエンコーダPC1〜P
Cnに時分割で振り分ける。オーディオデータDTは、
エンコーダPC1〜PCnで分散して処理される。この
分散処理は、例えば圧縮処理等であり、必要に応じてパ
ケット化処理も含む。分散処理により各エンコーダPC
1〜PCnの処理負担が軽減されるので、サンプル数を
増やして(サンプリング周波数を高くして)、音質を向
上させることができる。
たオーディオデータDTをn個のエンコーダPC1〜P
Cnに時分割で振り分ける。オーディオデータDTは、
エンコーダPC1〜PCnで分散して処理される。この
分散処理は、例えば圧縮処理等であり、必要に応じてパ
ケット化処理も含む。分散処理により各エンコーダPC
1〜PCnの処理負担が軽減されるので、サンプル数を
増やして(サンプリング周波数を高くして)、音質を向
上させることができる。
【0051】オーディオデータを処理するエンコーダ5
bについて説明したが、画像データを処理するエンコー
ダ5a及びMIDIデータを処理するエンコーダ5cも
同様に分散処理を行うことできる。
bについて説明したが、画像データを処理するエンコー
ダ5a及びMIDIデータを処理するエンコーダ5cも
同様に分散処理を行うことできる。
【0052】エンコーダ5aは、画像データの圧縮処理
を分散することができる。例えば、フレーム毎に処理を
分散させることができる。
を分散することができる。例えば、フレーム毎に処理を
分散させることができる。
【0053】エンコーダ5cは、MIDIデータを複数
のMIDIデータ群に時分割し、MIDIデータ群内の
各MIDIデータの時間間隔を計測し、その時間間隔の
情報を対応するMIDIデータに付与する。これらの処
理を分散処理することができる。所定周期で1個又は複
数のMIDIデータがパケット化される。1つのパケッ
トには、1つの時間データ(図3のステップSA1)が
付与される。この時間データは、パケット内のMIDI
データの演奏時間を表す。上記の各MIDIデータ毎の
時間情報は、さらに高分解能の演奏時間を表す。
のMIDIデータ群に時分割し、MIDIデータ群内の
各MIDIデータの時間間隔を計測し、その時間間隔の
情報を対応するMIDIデータに付与する。これらの処
理を分散処理することができる。所定周期で1個又は複
数のMIDIデータがパケット化される。1つのパケッ
トには、1つの時間データ(図3のステップSA1)が
付与される。この時間データは、パケット内のMIDI
データの演奏時間を表す。上記の各MIDIデータ毎の
時間情報は、さらに高分解能の演奏時間を表す。
【0054】図6は、MIDIデータの第1のパケット
生成処理を示す。MIDIデータは、ノートオン、ノー
トオフ又はプログラムチェンジ(音色指定)等を含み、
単位時間当たりのデータ量は一定ではない。
生成処理を示す。MIDIデータは、ノートオン、ノー
トオフ又はプログラムチェンジ(音色指定)等を含み、
単位時間当たりのデータ量は一定ではない。
【0055】エンコーダ5cは、周期Tpで入力データ
MD1,MD2のパケット生成処理を行う。パケット生
成周期Tpは、例えば500msである。MIDIデー
タMD1は、時刻t0からt10までの周期Tpに受け
たデータであり、例えば600バイトである。MIDI
データMD2は、時刻t10からt20までの周期Tp
に受けたデータであり、例えば700バイトである。
MD1,MD2のパケット生成処理を行う。パケット生
成周期Tpは、例えば500msである。MIDIデー
タMD1は、時刻t0からt10までの周期Tpに受け
たデータであり、例えば600バイトである。MIDI
データMD2は、時刻t10からt20までの周期Tp
に受けたデータであり、例えば700バイトである。
【0056】エンコーダ5cは、入力データMD1,M
D2を自己のバッファに格納し、周期Tp毎にバッファ
内のデータについてパケット生成処理を行う。パケット
内のデータ部は、500バイト程度が好ましい。データ
量が多すぎると、転送負荷が重くなってしまう。逆に、
データ量が少なすぎると、データ転送の効率が悪くなる
(オーバーヘッドが増加する)。
D2を自己のバッファに格納し、周期Tp毎にバッファ
内のデータについてパケット生成処理を行う。パケット
内のデータ部は、500バイト程度が好ましい。データ
量が多すぎると、転送負荷が重くなってしまう。逆に、
データ量が少なすぎると、データ転送の効率が悪くなる
(オーバーヘッドが増加する)。
【0057】まず、エンコーダ5cは、時刻t0から周
期Tp経過後の時刻t10において、パケット生成処理
を行う。バッファ内の入力データMD1は、600バイ
トであり、500バイトを超えている。エンコーダ5c
は、入力データMD1を分割し、2つのパケットP1及
びP2を生成する。パケットP1は、データMD1中の
最初の500バイトを含み、パケットP2は、データM
D1中の残りの100バイトを含む。パケットP1及び
P2は、共に500バイト以内のデータ部を有する。
期Tp経過後の時刻t10において、パケット生成処理
を行う。バッファ内の入力データMD1は、600バイ
トであり、500バイトを超えている。エンコーダ5c
は、入力データMD1を分割し、2つのパケットP1及
びP2を生成する。パケットP1は、データMD1中の
最初の500バイトを含み、パケットP2は、データM
D1中の残りの100バイトを含む。パケットP1及び
P2は、共に500バイト以内のデータ部を有する。
【0058】次に、エンコーダ5cは、時刻t10から
周期Tp経過後の時刻t20において、パケット生成処
理を行う。バッファ内の入力データMD2は、700バ
イトであり、500バイトを超えている。エンコーダ5
cは、入力データMD2を分割し、2つのパケットP3
及びP4を生成する。パケットP3は、データMD2中
の最初の500バイトを含み、パケットP4は、データ
MD2中の残りの200バイトを含む。
周期Tp経過後の時刻t20において、パケット生成処
理を行う。バッファ内の入力データMD2は、700バ
イトであり、500バイトを超えている。エンコーダ5
cは、入力データMD2を分割し、2つのパケットP3
及びP4を生成する。パケットP3は、データMD2中
の最初の500バイトを含み、パケットP4は、データ
MD2中の残りの200バイトを含む。
【0059】上記のパケット生成処理によれば、パケッ
ト内のデータを常に500バイト以下に収めることがで
きる。エンコーダ5cは、4個のパケットP1〜P4を
転送する。
ト内のデータを常に500バイト以下に収めることがで
きる。エンコーダ5cは、4個のパケットP1〜P4を
転送する。
【0060】図7は、MIDIデータの第2のパケット
生成処理を示す。エンコーダ5cは、周期Tpの開始タ
イミングを調整して、効率的に入力データMD1,MD
2のパケット生成処理を行う。
生成処理を示す。エンコーダ5cは、周期Tpの開始タ
イミングを調整して、効率的に入力データMD1,MD
2のパケット生成処理を行う。
【0061】まず、エンコーダ5cは、時刻t0から周
期Tp経過後の時刻t10でパケット生成処理を行う。
その際、600バイトの入力データMD1の最初の50
0バイトのデータを基にパケットP1を生成する。この
パケットP1内の500バイトのデータの終了時刻t9
を次の周期Tpの開始時刻とする。
期Tp経過後の時刻t10でパケット生成処理を行う。
その際、600バイトの入力データMD1の最初の50
0バイトのデータを基にパケットP1を生成する。この
パケットP1内の500バイトのデータの終了時刻t9
を次の周期Tpの開始時刻とする。
【0062】ここで、時刻t9の取得方法を2つ説明す
る。まず、第1の方法を示す。1個のMIDIデータ
(MIDIイベント)は、代表的には1〜3バイトで構
成される。エンコーダ5cは、MIDIデータが入力さ
れる度に、その入力時刻(好ましくは絶対時間)をMI
DIデータと共にバッファに格納する。そして、パケッ
トP1を生成した後、パケットP1内の500バイトの
データの最後のデータに対応する入力時刻を取得する。
その入力時刻をt9とする。
る。まず、第1の方法を示す。1個のMIDIデータ
(MIDIイベント)は、代表的には1〜3バイトで構
成される。エンコーダ5cは、MIDIデータが入力さ
れる度に、その入力時刻(好ましくは絶対時間)をMI
DIデータと共にバッファに格納する。そして、パケッ
トP1を生成した後、パケットP1内の500バイトの
データの最後のデータに対応する入力時刻を取得する。
その入力時刻をt9とする。
【0063】また、上記の入力時刻は絶対時間でも相対
時間でもよい。エンコーダ5cは、パケットP1内の5
00バイトの最初のデータの入力時刻と最後のデータの
入力時刻を取得し、その両者の入力時刻の差を時刻t0
に加算して、時刻t9を取得してもよい。
時間でもよい。エンコーダ5cは、パケットP1内の5
00バイトの最初のデータの入力時刻と最後のデータの
入力時刻を取得し、その両者の入力時刻の差を時刻t0
に加算して、時刻t9を取得してもよい。
【0064】次に、第2の方法を示す。エンコーダ5c
は、MIDIデータが入力される度に、前回のMIDI
データと今回のMIDIデータの入力時間の間隔を今回
のMIDIデータと共にバッファに格納する。そして、
パケットP1を生成した後、パケットP1内のすべての
MIDIデータに対応する時間間隔を加算し、その加算
値を時刻t0に加算することにより、時刻t9を取得す
ることができる。以上で時刻t9の取得方法の説明を終
える。
は、MIDIデータが入力される度に、前回のMIDI
データと今回のMIDIデータの入力時間の間隔を今回
のMIDIデータと共にバッファに格納する。そして、
パケットP1を生成した後、パケットP1内のすべての
MIDIデータに対応する時間間隔を加算し、その加算
値を時刻t0に加算することにより、時刻t9を取得す
ることができる。以上で時刻t9の取得方法の説明を終
える。
【0065】次に、エンコーダ5cは、時刻t9から周
期Tp経過後の時刻t19において、パケット生成処理
を行う。その際、バッファに格納されている入力データ
MD1の残り及びMD2の先頭の500バイトを基にパ
ケットP2を生成する。パケットP2は、入力データM
D1の最後の100バイトのデータ及び入力データMD
2の先頭の400バイトのデータを有する。このパケッ
トP2内の500バイトのデータの終了時刻t18を次
の周期Tpの開始時刻とする。
期Tp経過後の時刻t19において、パケット生成処理
を行う。その際、バッファに格納されている入力データ
MD1の残り及びMD2の先頭の500バイトを基にパ
ケットP2を生成する。パケットP2は、入力データM
D1の最後の100バイトのデータ及び入力データMD
2の先頭の400バイトのデータを有する。このパケッ
トP2内の500バイトのデータの終了時刻t18を次
の周期Tpの開始時刻とする。
【0066】次に、エンコーダ5cは、時刻t18から
周期Tp経過後の時刻t27において、パケット生成処
理を行う。その際、バッファに格納されている入力デー
タMD2中の残りの300バイトのデータを基にパケッ
トP3を生成する。
周期Tp経過後の時刻t27において、パケット生成処
理を行う。その際、バッファに格納されている入力デー
タMD2中の残りの300バイトのデータを基にパケッ
トP3を生成する。
【0067】このパケットP3内の300バイトのデー
タの終了時刻をt20とする。次の周期Tpの開始時刻
は、時刻t20又はt27のいずれにしてもよい。時刻
t20を開始時刻とすると、パケットを細分化して送信
することができる利点がある。一方、時刻t27を開始
時刻とすると、送信するパケットの数を減らすことがで
きる利点がある。
タの終了時刻をt20とする。次の周期Tpの開始時刻
は、時刻t20又はt27のいずれにしてもよい。時刻
t20を開始時刻とすると、パケットを細分化して送信
することができる利点がある。一方、時刻t27を開始
時刻とすると、送信するパケットの数を減らすことがで
きる利点がある。
【0068】第1のパケット生成処理(図6)はパケッ
ト数が4個であったが、第2のパケット生成処理(図
7)はパケット数を3個に減らすことができる。第2の
パケット生成処理は、パケット数を減らし、効率的なパ
ケット転送を行うことができる。
ト数が4個であったが、第2のパケット生成処理(図
7)はパケット数を3個に減らすことができる。第2の
パケット生成処理は、パケット数を減らし、効率的なパ
ケット転送を行うことができる。
【0069】なお、上記の第1又は第2のパケット生成
処理は、エンコーダ5cの他、他のエンコーダ5a,5
b又は送信サーバ6(図1)が行ってもよい。オーディ
オデータは、サンプリング周波数を変更することによ
り、単位当たりのデータ量が変化する。
処理は、エンコーダ5cの他、他のエンコーダ5a,5
b又は送信サーバ6(図1)が行ってもよい。オーディ
オデータは、サンプリング周波数を変更することによ
り、単位当たりのデータ量が変化する。
【0070】図8は、上記の第2のパケット生成処理
(図7)を示すフローチャートである。
(図7)を示すフローチャートである。
【0071】ステップSC1では、バッファ内のデータ
(例えばデータMD1)を先頭から500バイト分だけ
パケット化する。このバッファは、ファーストインファ
ーストアウトバッファ(FIFO)であり、パケット化
されたデータはバッファから消去される。
(例えばデータMD1)を先頭から500バイト分だけ
パケット化する。このバッファは、ファーストインファ
ーストアウトバッファ(FIFO)であり、パケット化
されたデータはバッファから消去される。
【0072】ステップSC2では、バッファ内に未だデ
ータが残っているか否かをチェックする。残っていると
きにはyesの矢印に従い、ステップSC3へ進み、残
っていないときにはnoの矢印に従い、ステップSC4
へ進む。
ータが残っているか否かをチェックする。残っていると
きにはyesの矢印に従い、ステップSC3へ進み、残
っていないときにはnoの矢印に従い、ステップSC4
へ進む。
【0073】ステップSC3では、パケット化した最後
のデータに相当する時刻(例えば時刻t9)を取得し、
ステップSC5へ進む。
のデータに相当する時刻(例えば時刻t9)を取得し、
ステップSC5へ進む。
【0074】ステップSC4では、今回パケット処理を
開始した時刻(例えば時刻t27)を取得し、ステップ
SC5へ進む。
開始した時刻(例えば時刻t27)を取得し、ステップ
SC5へ進む。
【0075】なお、ステップSC2では、バッファ内に
データが残っていても残っていなくても、ステップSC
3へ進むようにしてもよい。
データが残っていても残っていなくても、ステップSC
3へ進むようにしてもよい。
【0076】ステップSC5では、上記で取得した時間
から周期Tp(500ms)経過後にこのパケット処理
モジュール(図8)が再起動されるように準備する。
から周期Tp(500ms)経過後にこのパケット処理
モジュール(図8)が再起動されるように準備する。
【0077】図9は、エンコーダ5(エンコーダ5a,
5b又は5c)とホームコンピュータ12の具体的なハ
ードウエア構成を示す図である。エンコーダ5とホーム
コンピュータ12は、共に汎用コンピュータ又はパーソ
ナルコンピュータ等を用いることができる。
5b又は5c)とホームコンピュータ12の具体的なハ
ードウエア構成を示す図である。エンコーダ5とホーム
コンピュータ12は、共に汎用コンピュータ又はパーソ
ナルコンピュータ等を用いることができる。
【0078】エンコーダ5とホームコンピュータ12
は、基本的に同じ構成である。両者の構成を説明する。
バス21には、CPU22、RAM24、外部記憶装置
25、外部に対してMIDIデータを送受信するための
MIDIインターフェース26、サウンドカード27、
ROM28、表示装置29、キーボードやスイッチやマ
ウス等の入力手段30、インターネットを行うための通
信インターフェース31が接続されている。
は、基本的に同じ構成である。両者の構成を説明する。
バス21には、CPU22、RAM24、外部記憶装置
25、外部に対してMIDIデータを送受信するための
MIDIインターフェース26、サウンドカード27、
ROM28、表示装置29、キーボードやスイッチやマ
ウス等の入力手段30、インターネットを行うための通
信インターフェース31が接続されている。
【0079】サウンドカード27は、バッファ27aと
コーデック回路27bを有する。バッファ27aは、外
部に対して入力又は出力するためのデータをバッファリ
ングする。コーデック回路27bは、A/D変換器及び
D/A変換器を有し、アナログ形式とデジタル形式の両
者間の変換を行うことができる。さらに、コーデック回
路27bは、圧縮/伸張回路を有し、データの圧縮及び
伸張を行うことができる。データは、圧縮された状態
で、インターネット通信される。
コーデック回路27bを有する。バッファ27aは、外
部に対して入力又は出力するためのデータをバッファリ
ングする。コーデック回路27bは、A/D変換器及び
D/A変換器を有し、アナログ形式とデジタル形式の両
者間の変換を行うことができる。さらに、コーデック回
路27bは、圧縮/伸張回路を有し、データの圧縮及び
伸張を行うことができる。データは、圧縮された状態
で、インターネット通信される。
【0080】外部記憶装置25は、例えばハードディス
クドライブ、フロッピーディスクドライブ、CD−RO
Mドライブ、光磁気ディスクドライブ等であり、MID
Iデータ、オーディオデータ、画像データ又はコンピュ
ータプログラム等を記憶することができる。
クドライブ、フロッピーディスクドライブ、CD−RO
Mドライブ、光磁気ディスクドライブ等であり、MID
Iデータ、オーディオデータ、画像データ又はコンピュ
ータプログラム等を記憶することができる。
【0081】ROM28は、コンピュータプログラム及
び各種パラメータを記憶することができる。RAM24
は、バッファやレジスタ等のワーキングエリアを有し、
外部記憶装置25に記憶されている内容をコピーして記
憶することができる。
び各種パラメータを記憶することができる。RAM24
は、バッファやレジスタ等のワーキングエリアを有し、
外部記憶装置25に記憶されている内容をコピーして記
憶することができる。
【0082】CPU22は、ROM28又はRAM24
に記憶されているコンピュータプログラムに従って、各
種演算または処理を行う。システムクロック23は、時
間情報を生成する。CPU22は、システムクロック2
3から時間情報を得て、タイマ割り込み処理を行うこと
ができる。
に記憶されているコンピュータプログラムに従って、各
種演算または処理を行う。システムクロック23は、時
間情報を生成する。CPU22は、システムクロック2
3から時間情報を得て、タイマ割り込み処理を行うこと
ができる。
【0083】インターネット回線32には、エンコーダ
5の通信インターフェース31及びホームコンピュータ
12の通信インタフェース31が接続される。通信イン
ターフェース31は、インターネットにより、MIDI
データ、オーディオデータ及び画像データを送受信する
ためのインターフェースである。エンコーダ5とホーム
コンピュータ12は、インターネット回線32により接
続される。
5の通信インターフェース31及びホームコンピュータ
12の通信インタフェース31が接続される。通信イン
ターフェース31は、インターネットにより、MIDI
データ、オーディオデータ及び画像データを送受信する
ためのインターフェースである。エンコーダ5とホーム
コンピュータ12は、インターネット回線32により接
続される。
【0084】まず、エンコーダ5について説明する。エ
ンコーダ5c(図1)では、MIDIインタフェース2
6にMIDI楽器2が接続され、エンコーダ5b(図
1)では、サウンドカード27にマイク3が接続され
る。MIDI楽器2は、演奏者の演奏操作に応じてMI
DIデータを生成し、MIDIインタフェース26に出
力する。マイク3は、演奏会場における音声を入力し、
アナログ形式のオーディオ信号をサウンドカード27に
出力する。サウンドカード27は、アナログ形式のオー
ディオ信号をバッファ27aにバッファリングし、コー
デック回路27bでアナログ形式のオーディオ信号をデ
ジタル形式のオーディオデータに変換し、そのデータを
圧縮する。
ンコーダ5c(図1)では、MIDIインタフェース2
6にMIDI楽器2が接続され、エンコーダ5b(図
1)では、サウンドカード27にマイク3が接続され
る。MIDI楽器2は、演奏者の演奏操作に応じてMI
DIデータを生成し、MIDIインタフェース26に出
力する。マイク3は、演奏会場における音声を入力し、
アナログ形式のオーディオ信号をサウンドカード27に
出力する。サウンドカード27は、アナログ形式のオー
ディオ信号をバッファ27aにバッファリングし、コー
デック回路27bでアナログ形式のオーディオ信号をデ
ジタル形式のオーディオデータに変換し、そのデータを
圧縮する。
【0085】次に、ホームコンピュータ12について説
明する。MIDIインタフェース26には、MIDI音
源13が接続され、サウンドカード27には、音声出力
装置14が接続される。CPU22は、通信インタフェ
ース31を介して、インタネット回線32上からMID
Iデータとオーディオデータと画像データを受信する。
明する。MIDIインタフェース26には、MIDI音
源13が接続され、サウンドカード27には、音声出力
装置14が接続される。CPU22は、通信インタフェ
ース31を介して、インタネット回線32上からMID
Iデータとオーディオデータと画像データを受信する。
【0086】通信インタフェース31は、インターネッ
ト用インタフェースの他、イーサネット用インタフェー
ス、IEEE1394規格のデジタル通信インタフェー
ス、RS−232C用インタフェースでもよく、種々の
ネットワークに接続することができる。
ト用インタフェースの他、イーサネット用インタフェー
ス、IEEE1394規格のデジタル通信インタフェー
ス、RS−232C用インタフェースでもよく、種々の
ネットワークに接続することができる。
【0087】エンコーダ5は、分散処理やパケット転送
等をするためのコンピュータプログラムを記憶する。ホ
ームコンピュータ12は、オーディオデータの受信や再
生等をするためのコンピュータプログラムを記憶する。
コンピュータプログラムや各種パラメータ等を外部記憶
装置25に記憶させておき、それをRAM24に読み込
むことにより、コンピュータプログラム等の追加やバー
ジョンアップ等が容易に行える。
等をするためのコンピュータプログラムを記憶する。ホ
ームコンピュータ12は、オーディオデータの受信や再
生等をするためのコンピュータプログラムを記憶する。
コンピュータプログラムや各種パラメータ等を外部記憶
装置25に記憶させておき、それをRAM24に読み込
むことにより、コンピュータプログラム等の追加やバー
ジョンアップ等が容易に行える。
【0088】CD−ROM(コンパクトディスク−リー
ド・オンリィ・メモリ)ドライブは、CD−ROMに記
憶されているコンピュータプログラム等を読み出す装置
である。読み出したコンピュータプログラム等は、ハー
ドディスクにストアされる。コンピュータプログラムの
新規インストールやバージョンアップ等が容易に行え
る。
ド・オンリィ・メモリ)ドライブは、CD−ROMに記
憶されているコンピュータプログラム等を読み出す装置
である。読み出したコンピュータプログラム等は、ハー
ドディスクにストアされる。コンピュータプログラムの
新規インストールやバージョンアップ等が容易に行え
る。
【0089】通信インターフェース31はLAN(ロー
カルエリアネットワーク)やインターネット、電話回線
等の通信ネットワーク32に接続されており、該通信ネ
ットワーク32を介して、コンピュータ33と接続され
る。外部記憶装置25内に上記のコンピュータプログラ
ム等が記憶されていない場合、コンピュータ33からコ
ンピュータプログラム等をダウンロードすることができ
る。エンコーダ5又はホームコンピュータ12は、通信
インターフェース31及び通信ネットワーク32を介し
てコンピュータ33へコンピュータプログラム等のダウ
ンロードを要求するコマンドを送信する。コンピュータ
33は、このコマンドを受け、要求されたコンピュータ
プログラム等を、通信ネットワーク32を介してエンコ
ーダ5又はホームコンピュータ12へ配信する。エンコ
ーダ5又はホームコンピュータ12が通信インタフェー
ス31を介して、コンピュータプログラム等を受信して
外部記憶装置25に蓄積することにより、ダウンロード
が完了する。
カルエリアネットワーク)やインターネット、電話回線
等の通信ネットワーク32に接続されており、該通信ネ
ットワーク32を介して、コンピュータ33と接続され
る。外部記憶装置25内に上記のコンピュータプログラ
ム等が記憶されていない場合、コンピュータ33からコ
ンピュータプログラム等をダウンロードすることができ
る。エンコーダ5又はホームコンピュータ12は、通信
インターフェース31及び通信ネットワーク32を介し
てコンピュータ33へコンピュータプログラム等のダウ
ンロードを要求するコマンドを送信する。コンピュータ
33は、このコマンドを受け、要求されたコンピュータ
プログラム等を、通信ネットワーク32を介してエンコ
ーダ5又はホームコンピュータ12へ配信する。エンコ
ーダ5又はホームコンピュータ12が通信インタフェー
ス31を介して、コンピュータプログラム等を受信して
外部記憶装置25に蓄積することにより、ダウンロード
が完了する。
【0090】なお、本実施例は、本実施例に対応するコ
ンピュータプログラム等をインストールした市販のパー
ソナルコンピュータ等によって、実施させるようにして
もよい。その場合には、本実施例に対応するコンピュー
タプログラム等を、CD−ROMやフロッピディスク等
の、コンピュータが読み込むことができる記憶媒体に記
憶させた状態で、ユーザーに提供してもよい。そのパー
ソナルコンピュータ等が、LAN、インターネット、電
話回線等の通信ネットワークに接続されている場合に
は、通信ネットワークを介して、コンピュータプログラ
ムや各種データ等をパーソナルコンピュータ等に提供し
てもよい。
ンピュータプログラム等をインストールした市販のパー
ソナルコンピュータ等によって、実施させるようにして
もよい。その場合には、本実施例に対応するコンピュー
タプログラム等を、CD−ROMやフロッピディスク等
の、コンピュータが読み込むことができる記憶媒体に記
憶させた状態で、ユーザーに提供してもよい。そのパー
ソナルコンピュータ等が、LAN、インターネット、電
話回線等の通信ネットワークに接続されている場合に
は、通信ネットワークを介して、コンピュータプログラ
ムや各種データ等をパーソナルコンピュータ等に提供し
てもよい。
【0091】また、エンコーダ5又はホームコンピュー
タ12は、パーソナルコンピュータの他、電子楽器、ゲ
ーム機、カラオケ装置、テレビ等の形態として適用して
もよい。
タ12は、パーソナルコンピュータの他、電子楽器、ゲ
ーム機、カラオケ装置、テレビ等の形態として適用して
もよい。
【0092】図10(A)は、エンコーダ5bが送信す
るオーディオデータパケット50の構造を示す。
るオーディオデータパケット50の構造を示す。
【0093】オーディオデータパケット50は、ヘッダ
51とオーディオデータ48とフッタ52を有する。ヘ
ッダ51は、時間情報を表すタイムスタンプ41、パケ
ットの順番を示すシーケンスナンバ53、当該パケット
がオーディオデータであることを示す識別子(ID)4
2、当該パケットのサイズ43を有する。
51とオーディオデータ48とフッタ52を有する。ヘ
ッダ51は、時間情報を表すタイムスタンプ41、パケ
ットの順番を示すシーケンスナンバ53、当該パケット
がオーディオデータであることを示す識別子(ID)4
2、当該パケットのサイズ43を有する。
【0094】タイムスタンプ41は、パケット内のオー
ディオデータ48の送信時刻を表すと共に、演奏時刻、
録音時刻、或いは再生時刻をも表す。エンコーダ5b
は、自己のシステムクロックが生成する時間情報に応じ
て、タイムスタンプ41を生成する。
ディオデータ48の送信時刻を表すと共に、演奏時刻、
録音時刻、或いは再生時刻をも表す。エンコーダ5b
は、自己のシステムクロックが生成する時間情報に応じ
て、タイムスタンプ41を生成する。
【0095】識別子42は、オーディオデータパケット
やMIDIデータパケットや画像データパケット等のパ
ケットの種類を表すことが可能である。ここでは、オー
ディオデータ48を送信するので、オーディオデータパ
ケットを表すものとなる。
やMIDIデータパケットや画像データパケット等のパ
ケットの種類を表すことが可能である。ここでは、オー
ディオデータ48を送信するので、オーディオデータパ
ケットを表すものとなる。
【0096】オーディオデータ48は、サンプリング周
波数及び圧縮モードを含むヘッダ48aとオーディオデ
ータ48bを含む。オーディオデータ48bは、マイク
3(図1、図9)で生成されたデータを、A/D変換
し、圧縮したデータである。
波数及び圧縮モードを含むヘッダ48aとオーディオデ
ータ48bを含む。オーディオデータ48bは、マイク
3(図1、図9)で生成されたデータを、A/D変換
し、圧縮したデータである。
【0097】フッタ52は、データの終了を表すデータ
を有する。ヘッダ51又はフッタ52に、チェックサム
を含ませてもよい。チェックサムは、例えばオーディオ
データ48の合計値である。この場合、エンコーダ5b
は、当該合計値を計算し、チェックサムとしてパケット
中に付与する。ホームコンピュータ12は、当該合計値
を計算し、チェックサムの値と合っていれば、通信エラ
ーがないことを確認することができる。
を有する。ヘッダ51又はフッタ52に、チェックサム
を含ませてもよい。チェックサムは、例えばオーディオ
データ48の合計値である。この場合、エンコーダ5b
は、当該合計値を計算し、チェックサムとしてパケット
中に付与する。ホームコンピュータ12は、当該合計値
を計算し、チェックサムの値と合っていれば、通信エラ
ーがないことを確認することができる。
【0098】図10(B)は、エンコーダ5cが送信す
るMIDIデータパケット49の構造を示す。
るMIDIデータパケット49の構造を示す。
【0099】MIDIデータパケット49は、ヘッダ5
1とMIDIデータ44とフッタ52を有する。
1とMIDIデータ44とフッタ52を有する。
【0100】ヘッダ51は、オーディオデータパケット
の場合と同様に、タイムスタンプ41、シーケンスナン
バ53、当該パケットがMIDIデータであることを示
す識別子(ID)42、当該パケットのサイズ43を有
する。
の場合と同様に、タイムスタンプ41、シーケンスナン
バ53、当該パケットがMIDIデータであることを示
す識別子(ID)42、当該パケットのサイズ43を有
する。
【0101】MIDIデータ44は、スタンダードMI
DIファイルフォーマットに準拠したものであり、デル
タタイム(インターバル)とMIDIイベントを1組に
したデータの列である。デルタタイムは、直前のMID
Iイベントと当該MIDIイベントの間の時間間隔を表
す。ただし、デルタタイムが0であるときには、デルタ
タイムを省略することができる。
DIファイルフォーマットに準拠したものであり、デル
タタイム(インターバル)とMIDIイベントを1組に
したデータの列である。デルタタイムは、直前のMID
Iイベントと当該MIDIイベントの間の時間間隔を表
す。ただし、デルタタイムが0であるときには、デルタ
タイムを省略することができる。
【0102】画像データについても、上記のオーディオ
データパケットと同様なパケット構造を有する。その場
合、識別子42は、画像データであることを示す。
データパケットと同様なパケット構造を有する。その場
合、識別子42は、画像データであることを示す。
【0103】以上のように、エンコーダ5a,5b,5
cは、分散処理を行うことにより、画像データ、オーデ
ィオデータ、MIDIデータのリアルタイム処理の負担
を軽減させることができる。エンコーダ5a,5b,5
cの処理負担は軽減されるので、オーディオデータのサ
ンプル数等を増加させて、音質等を向上させることがで
きる。
cは、分散処理を行うことにより、画像データ、オーデ
ィオデータ、MIDIデータのリアルタイム処理の負担
を軽減させることができる。エンコーダ5a,5b,5
cの処理負担は軽減されるので、オーディオデータのサ
ンプル数等を増加させて、音質等を向上させることがで
きる。
【0104】分散処理の対象としては、特に楽音情報の
加工処理が好ましい。楽音情報は、オーディオデータ又
はMIDIデータ等である。加工処理は、圧縮処理、時
間情報の付与、又はパケット生成処理である。
加工処理が好ましい。楽音情報は、オーディオデータ又
はMIDIデータ等である。加工処理は、圧縮処理、時
間情報の付与、又はパケット生成処理である。
【0105】また、パケット生成処理では、図7に示し
たように、周期Tpの開始時刻をバッファ内のデータ量
に応じて調整することにより、パケット数を減らし、パ
ケット転送負荷を軽減させることができる。
たように、周期Tpの開始時刻をバッファ内のデータ量
に応じて調整することにより、パケット数を減らし、パ
ケット転送負荷を軽減させることができる。
【0106】なお、本実施例は、オーディオデータ及び
MIDIデータ等をインターネットで通信する場合に限
定されない。例えば、IEEE1394規格のデジタル
シリアル通信や通信衛星等の他の通信にも適用すること
ができる。
MIDIデータ等をインターネットで通信する場合に限
定されない。例えば、IEEE1394規格のデジタル
シリアル通信や通信衛星等の他の通信にも適用すること
ができる。
【0107】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
【0108】
【発明の効果】以上説明したように、本発明によれば、
楽音情報の加工を分散して行うことにより加工の負担は
軽減される。加工の負担を軽減させることにより、楽音
情報のリアルタイム処理が可能になる。また、楽音情報
の情報量を増やして、楽音情報の質を高めることもでき
る。
楽音情報の加工を分散して行うことにより加工の負担は
軽減される。加工の負担を軽減させることにより、楽音
情報のリアルタイム処理が可能になる。また、楽音情報
の情報量を増やして、楽音情報の質を高めることもでき
る。
【0109】また、パケット化の際に、前回パケット化
したパケット内の最後の楽音情報に対応する時刻から所
定周期経過後に次の楽音情報の量を検出してパケット化
を行うことにより、効率的なパケット転送を行うことが
できる。
したパケット内の最後の楽音情報に対応する時刻から所
定周期経過後に次の楽音情報の量を検出してパケット化
を行うことにより、効率的なパケット転送を行うことが
できる。
【図1】 マルチメディアの通信ネットワークを示すブ
ロック図である。
ロック図である。
【図2】 図2(A)〜(C)はステレオチャンネルデ
ータの分散処理を行うエンコーダを示すブロック図であ
る。
ータの分散処理を行うエンコーダを示すブロック図であ
る。
【図3】 エンコーダの見かけ上の処理を示すフローチ
ャートである。
ャートである。
【図4】 エンコーダの分散処理を示すフローチャート
である。
である。
【図5】 時分割で分散処理を行うエンコーダを示すブ
ロック図である。
ロック図である。
【図6】 第1のパケット生成処理を示すタイムチャー
トである。
トである。
【図7】 第2のパケット生成処理を示すタイムチャー
トである。
トである。
【図8】 第2のパケット生成処理を示すフローチャー
トである。
トである。
【図9】 エンコーダ及びホームコンピュータのハード
ウエアの構成を示す図である。
ウエアの構成を示す図である。
【図10】 図10(A)はオーディオデータパケット
の構造を示し、図10(B)はMIDIデータパケット
の構造を示す図である。
の構造を示し、図10(B)はMIDIデータパケット
の構造を示す図である。
1 演奏会場、 2 MIDI楽器、 3 マイ
ク、 4 カメラ、5a,5b,5c エンコーダ、
6 送信サーバ、 7 ルータ、8 中継プロバ
イダ、 8a,8b ルータ、 9 インタネット
回線、10 送信プロバイダ、 10a,10b ル
ータ、 11 ルータ、12 ホームコンピュータ、
13 MIDI音源、 14 音声出力装置、
PC エンコーダ、 21 バス、 22 CP
U、 23 システムクロック、 24 RAM、
25 外部記憶装置、 26 MIDIインタフ
ェース、 27 サウンドカード、 27a バッ
ファ、27b コーデック回路、 28 ROM、
29 表示装置、 30入力手段、 31 通信
インタフェース、 32 通信ネットワーク、33
コンピュータ、 41 タイムスタンプ、 42
識別子(ID)、43 パケットサイズ、 44 M
IDIデータ、 45,47 MIDIイベント、
46 デルタタイム、 48 デジタルオーディオ
データ、 49 MIDIデータパケット、 50
オーディオデータパケット、51 ヘッダ、 52
フッタ、 53 シーケンスナンバ
ク、 4 カメラ、5a,5b,5c エンコーダ、
6 送信サーバ、 7 ルータ、8 中継プロバ
イダ、 8a,8b ルータ、 9 インタネット
回線、10 送信プロバイダ、 10a,10b ル
ータ、 11 ルータ、12 ホームコンピュータ、
13 MIDI音源、 14 音声出力装置、
PC エンコーダ、 21 バス、 22 CP
U、 23 システムクロック、 24 RAM、
25 外部記憶装置、 26 MIDIインタフ
ェース、 27 サウンドカード、 27a バッ
ファ、27b コーデック回路、 28 ROM、
29 表示装置、 30入力手段、 31 通信
インタフェース、 32 通信ネットワーク、33
コンピュータ、 41 タイムスタンプ、 42
識別子(ID)、43 パケットサイズ、 44 M
IDIデータ、 45,47 MIDIイベント、
46 デルタタイム、 48 デジタルオーディオ
データ、 49 MIDIデータパケット、 50
オーディオデータパケット、51 ヘッダ、 52
フッタ、 53 シーケンスナンバ
フロントページの続き Fターム(参考) 5D378 MM02 MM34 MM35 MM97 QQ23 QQ26 QQ30 QQ34 TT01 TT23 5K030 HA08 HB01 LA07 LA08 LE03 MA13 MB15
Claims (2)
- 【請求項1】 楽音情報を入力する入力手段と、 前記入力手段に入力される楽音情報を加工する複数の加
工手段と、 前記入力手段に入力される楽音情報を前記複数の加工手
段に振り分け、該振り分けた楽音情報をそれぞれ該複数
の加工手段に加工させる振り分け手段と、 前記複数の加工手段により加工された楽音情報を転送す
る転送手段とを有する楽音情報転送装置。 - 【請求項2】 楽音情報を入力する入力手段と、 前記入力手段に入力される楽音情報を加工する加工手段
と、 前記加工手段により加工された所定周期内の楽音情報の
量を検出し、その量が所定量よりも多いときにはその所
定量の楽音情報を抽出してパケット化し、その後、該パ
ケット化したパケット内の最後の楽音情報に対応する時
刻から前記所定周期経過後に次の楽音情報の量を検出し
て前記パケット化を行うパケット生成手段と、 前記パケット生成手段によりパケット化されたパケット
を転送する転送手段とを有する楽音情報転送装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10180866A JP2000020055A (ja) | 1998-06-26 | 1998-06-26 | 楽音情報転送装置 |
US09/337,958 US6525253B1 (en) | 1998-06-26 | 1999-06-22 | Transmission of musical tone information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10180866A JP2000020055A (ja) | 1998-06-26 | 1998-06-26 | 楽音情報転送装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002316010A Division JP3700693B2 (ja) | 2002-10-30 | 2002-10-30 | 楽音情報転送装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000020055A true JP2000020055A (ja) | 2000-01-21 |
Family
ID=16090731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10180866A Pending JP2000020055A (ja) | 1998-06-26 | 1998-06-26 | 楽音情報転送装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6525253B1 (ja) |
JP (1) | JP2000020055A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006527864A (ja) * | 2003-06-17 | 2006-12-07 | 松下電器産業株式会社 | 受信機器、送信機器および伝送システム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3758450B2 (ja) * | 2000-01-10 | 2006-03-22 | ヤマハ株式会社 | 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体 |
US6961631B1 (en) * | 2000-04-12 | 2005-11-01 | Microsoft Corporation | Extensible kernel-mode audio processing architecture |
US6646195B1 (en) * | 2000-04-12 | 2003-11-11 | Microsoft Corporation | Kernel-mode audio processing modules |
US6728801B2 (en) * | 2001-06-29 | 2004-04-27 | Intel Corporation | Method and apparatus for period promotion avoidance for hubs |
JP2005017992A (ja) * | 2003-06-30 | 2005-01-20 | Yamaha Corp | 演奏データ送信装置及び演奏システム並びに演奏方法 |
JP4001091B2 (ja) * | 2003-09-11 | 2007-10-31 | ヤマハ株式会社 | 演奏システム及び楽音映像再生装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2812246B2 (ja) | 1995-02-28 | 1998-10-22 | ヤマハ株式会社 | ディジタル信号処理装置 |
US5744741A (en) | 1995-01-13 | 1998-04-28 | Yamaha Corporation | Digital signal processing device for sound signal processing |
JP3587916B2 (ja) * | 1995-10-31 | 2004-11-10 | ブラザー工業株式会社 | 映像音声データ供給装置 |
JP3198937B2 (ja) | 1996-09-02 | 2001-08-13 | ヤマハ株式会社 | オーディオ信号の伝送方法、オーディオ信号送信装置、オーディオ信号受信再生装置、オーディオ信号送信方法およびオーディオ信号受信再生方法 |
JP3870490B2 (ja) * | 1997-06-30 | 2007-01-17 | ヤマハ株式会社 | 音楽演奏情報伝送方式 |
US6423893B1 (en) * | 1999-10-15 | 2002-07-23 | Etonal Media, Inc. | Method and system for electronically creating and publishing music instrument instructional material using a computer network |
-
1998
- 1998-06-26 JP JP10180866A patent/JP2000020055A/ja active Pending
-
1999
- 1999-06-22 US US09/337,958 patent/US6525253B1/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006527864A (ja) * | 2003-06-17 | 2006-12-07 | 松下電器産業株式会社 | 受信機器、送信機器および伝送システム |
US7917237B2 (en) | 2003-06-17 | 2011-03-29 | Panasonic Corporation | Receiving apparatus, sending apparatus and transmission system |
KR101063562B1 (ko) * | 2003-06-17 | 2011-09-07 | 파나소닉 주식회사 | 수신 장치, 전송 장치 및 송신 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US6525253B1 (en) | 2003-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7096080B2 (en) | Method and apparatus for producing and distributing live performance | |
US6088733A (en) | Communications of MIDI and other data | |
US6143973A (en) | Process techniques for plurality kind of musical tone information | |
US20070140510A1 (en) | Method and apparatus for remote real time collaborative acoustic performance and recording thereof | |
JP5729393B2 (ja) | 演奏システム | |
JP4155185B2 (ja) | コンテンツ配信方法、コンテンツ配信サーバ、およびコンテンツ受信装置 | |
JP2000020055A (ja) | 楽音情報転送装置 | |
CN102394860A (zh) | 信号传送系统、方法、电脑程序产品及电脑可读取储存媒体 | |
JP3180708B2 (ja) | 音源設定情報通信装置 | |
US6757303B1 (en) | Technique for communicating time information | |
US6928060B1 (en) | Audio data communication | |
KR20210108715A (ko) | 네트워크에 기반한 합동 공연을 제공하는 장치 및 그 방법 | |
JP3700693B2 (ja) | 楽音情報転送装置 | |
JP3705581B2 (ja) | データ送信方法および送信システム | |
JP2004094683A (ja) | サーバ、通信方法及び観客端末 | |
JP2005017992A (ja) | 演奏データ送信装置及び演奏システム並びに演奏方法 | |
JP3977784B2 (ja) | リアルタイムパケット処理装置及びその方法 | |
JP2004094163A (ja) | ネットワークサウンドシステムおよびサウンドサーバ | |
JP3786039B2 (ja) | 通信装置及び方法 | |
JP3180751B2 (ja) | データの通信装置、通信方法、通信システム及びプログラムを記録した媒体 | |
JP3271572B2 (ja) | 楽音情報の通信方法、通信装置及びプログラムを記録した媒体 | |
JP3196681B2 (ja) | 通信データ一時記憶装置 | |
Kleimola | Latency issues in distributed musical performance | |
JP2003085068A (ja) | ライブ情報提供サーバ、情報通信端末、ライブ情報提供システムおよびライブ情報提供方法 | |
TW201239641A (en) | Signal transmission system, method, program and storage medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030204 |