JP4035076B2 - Data processing apparatus and method - Google Patents

Data processing apparatus and method Download PDF

Info

Publication number
JP4035076B2
JP4035076B2 JP2003088339A JP2003088339A JP4035076B2 JP 4035076 B2 JP4035076 B2 JP 4035076B2 JP 2003088339 A JP2003088339 A JP 2003088339A JP 2003088339 A JP2003088339 A JP 2003088339A JP 4035076 B2 JP4035076 B2 JP 4035076B2
Authority
JP
Japan
Prior art keywords
data
performance data
sound
performance
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003088339A
Other languages
Japanese (ja)
Other versions
JP2004294869A (en
Inventor
孝嗣 桑野
郁 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2003088339A priority Critical patent/JP4035076B2/en
Publication of JP2004294869A publication Critical patent/JP2004294869A/en
Application granted granted Critical
Publication of JP4035076B2 publication Critical patent/JP4035076B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Small-Scale Networks (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、データ処理技術に関し、特に演奏データ及び音声データの処理技術に関する。
【0002】
【従来の技術】
図9は、従来技術による送信側電子楽器901の構成を示す。送信側電子楽器901は、マイク911、鍵盤912、音源913、スピーカー914及びバッファ915を有し、受信側電子楽器に音声データA1及び演奏データA2を送信することができる。演奏者の歌声等は、マイク911により電気信号に変換され、音声データが生成される。その音声データは、バッファ915を介して、音声データA1として、送信される。演奏者が鍵盤912で演奏操作を行うと、電子楽器901は鍵盤912が生成した演奏データA2を送信する。音源913は、鍵盤912で生成された演奏データを基に音声信号を生成し、スピーカー914に供給する。スピーカー914は、その音声信号を基に音声920を発音する。
【0003】
しかし、演奏データに基づく音声920がマイク911に入力されてしまうと、電子楽器901はその音声920に基づく音声データA1を送信してしまう。受信側電子楽器は、演奏データA2そのものと、その演奏データが音声化された音声データA1の双方を受信することになる。音声データはバッファ915にてバッファリングされるため、演奏データA2そのものと、その演奏データが音声化された音声データA1とは時間差を持って送受信される。その結果、受信側電子楽器では、時間差をおいて演奏データが2重に再生されてしまう問題が生じる。
【0004】
また、下記の特許文献1〜3が公開されている。
【0005】
【特許文献1】
特開2002−62884号公報
【特許文献2】
特開平11−190993号公報
【特許文献3】
特許第3242028号公報
【0006】
【発明が解決しようとする課題】
本発明の目的は、演奏データとその演奏データの発音に基づく音声データとの2重再生を防止することができるデータ処理技術を提供することである。
【0007】
【課題を解決するための手段】
本発明の一観点によれば、演奏データを入力する演奏データ入力手段と、前記入力された演奏データを送信する演奏データ送信手段と、前記入力された演奏データを基に音声を発音する発音手段と、音声を電気信号に変換して音声データを生成するマイクと、前記演奏データ入力後の所定時間経過前は前記生成された音声データの送信を許可せず、所定時間経過後は前記生成された音声データの送信を許可する音声データ送信手段とを有するデータ処理装置が提供される。
本発明の他の観点によれば、演奏データを受信する演奏データ受信手段と、前記受信した演奏データを基に音声を発音する演奏データ発音手段と、音声データを受信する音声データ受信手段と、前記演奏データ受信後の所定時間経過前は前記受信した音声データの発音を許可せず、所定時間経過後は前記受信した音声データの発音を許可する音声データ発音手段とを有するデータ処理装置が提供される。
本発明のさらに他の観点によれば、演奏データを入力する演奏データ入力ステップと、前記入力された演奏データを送信する演奏データ送信ステップと、前記入力された演奏データを基に音声を発音する発音ステップと、音声を電気信号に変換して音声データを生成する生成ステップと、前記演奏データ入力後の所定時間経過前は前記生成された音声データの送信を許可せず、所定時間経過後は前記生成された音声データの送信を許可する音声データ送信ステップとを有するデータ処理方法が提供される。
本発明のさらに他の観点によれば、演奏データを受信する演奏データ受信ステップと、前記受信した演奏データを基に音声を発音する演奏データ発音ステップと、音声データを受信する音声データ受信ステップと、前記演奏データ受信後の所定時間経過前は前記受信した音声データの発音を許可せず、所定時間経過後は前記受信した音声データの発音を許可する音声データ発音ステップとを有するデータ処理方法が提供される。
【0008】
本発明によれば、送信側データ処理装置では、演奏データ入力後の所定時間経過前は生成された音声データの送信を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重送信を防止することができる。所定時間経過後は生成された音声データの送信を許可するので、音声データの送信を行い、受信側で音声データを発音させることができる。
【0009】
また、受信側データ処理装置では、演奏データ受信後の所定時間経過前は受信した音声データの発音を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重再生を防止することができる。所定時間経過後は受信した音声データの発音を許可するので、音声データを発音することができる。
【0010】
【発明の実施の形態】
図1(A)は、本発明の実施形態によるデータ通信システムの第1の構成例を示す。2個の電子楽器101及び102は、ネットワークを介して相互に接続される。電子楽器101が演奏データ(MIDI(Musical Instrument Digital Interface)データ)等を送信すると、電子楽器102はその演奏データ等を受信する。逆に、電子楽器102が演奏データ等を送信すると、電子楽器101がその演奏データ等を受信する。電子楽器101及び102は、例えば鍵盤を有する。2人の演奏者がそれぞれ電子楽器101及び102で演奏すると、自己の電子楽器は楽音を発音すると共に、相手の電子楽器に演奏データを送信して発音させることができる。ネットワークを利用して演奏データ等を送受信することにより、遠隔地の演奏者同士が合奏を行う、いわゆるネットセッションを行うことができる。
【0011】
図1(B)は、本発明の実施形態によるデータ通信システムの第2の構成例を示す。3個の電子楽器121〜123は、ネットワークサーバー120を介して相互に接続される。3個の電子楽器121〜123とネットワークサーバー120とは、ネットワークを介して接続される。電子楽器121〜123は、ネットワークサーバー120を介して演奏データ等の通信を行うことができる。この場合も、遠隔地の演奏者同士が合奏を行うことができる。
【0012】
なお、図1(A)及び(B)のネットワークは、例えばMIDI、インターネット、USB又はIEEE1394等である。
【0013】
図1(A)のように、2人が電子楽器101及び102で合奏する場合には、電子楽器101及び102を直接接続して通信を行うことが好ましい。電子楽器101及び102間を直接接続すると、高速に通信を行うことができる。しかし、3個以上の電子楽器を直接接続すると、各電子楽器がそれぞれ複数の電子楽器に対して通信を行うため負荷が増大する。したがって、図1(B)のように、3個以上の電子楽器121〜123で合奏する場合には、ネットワークサーバー120を介して3個以上の電子楽器121〜123を接続して通信を行うことが好ましい。ネットワークサーバー120を介して電子楽器121〜123を接続すると、各電子楽器はネットワークサーバー120のみに対して通信すればよいので、各電子楽器の負荷を軽減することができる。
【0014】
図2は、本実施形態によるデータ通信システムの第1の具体的構成例を示す。送信側電子楽器201及び受信側電子楽器202は、それぞれマイク211、鍵盤(演奏操作子)212、音源213及びスピーカー214を有し、ネットワーク203を介して接続される。送信側電子楽器201は、さらにスイッチ220を有する。また、送信側電子楽器201は、図9と同様に、バッファ915を設けてもよい。
【0015】
まず、送信側電子楽器201の動作を説明する。演奏者の歌声等は、マイク211により電気信号に変換され、音声データA1が生成される。その音声データA1は、スピーカー214から発音される。また、その音声データA1は、スイッチ220及びネットワーク203を介して、受信側電子楽器202に送信される。演奏者が鍵盤212で演奏操作を行うと、鍵盤212は演奏データ(MIDIデータ)A2を生成する。その演奏データA2は、音源213に供給される。また、その演奏データA2は、ネットワーク203を介して、受信側電子楽器202に送信される。音源213は、演奏データA2を基に音声信号を生成し、スピーカー214に供給する。スピーカー214は、その音声信号を基に音声を発音する。
【0016】
スイッチ220は、鍵盤212からの演奏データA2入力後、所定期間経過前は開いて、生成された音声データA1の送信を許可せず、所定時間経過後は閉じて、生成された音声データA1の送信を許可する。
【0017】
受信側電子楽器202は、ネットワーク203を介して、送信側電子楽器201から音声データB1及び演奏データB2を受信することができる。スピーカー214は、音声データB1を基に音声を発音する。音源213は、演奏データB2を基に音声信号を生成し、スピーカー214から音声が発音される。
【0018】
図9に示すように、スイッチがない場合には、鍵盤912で生成された演奏データA2は、受信側電子楽器に送信されると共に、音源913を介してスピーカー914で音声920として発音される。その演奏データに基づく音声920がマイク911に入力されてしまうと、電子楽器901はその音声920に基づく音声データA1を送信してしまう。受信側電子楽器は、演奏データA2そのものと、その演奏データが音声化された音声データA1の双方を受信することになる。音声データはバッファ915にてバッファリングされるため、演奏データA2そのものと、その演奏データが音声化された音声データA1とは時間差を持って送受信される。その結果、受信側電子楽器では、時間差をおいて演奏データが2重に再生されてしまう。この2重再生は、ノイズとして聞こえる。
【0019】
本実施形態では、鍵盤212で生成された演奏データA2は、受信側電子楽器202に送信されると共に、音源213を介してスピーカー214で音声として発音される。その演奏データに基づく音声は、マイク211に入力され、音声データA1が生成される。しかし、スイッチ220は、演奏データA2入力後所定期間は開いているので、その音声データA1は受信側電子楽器202に送信されない。以上のように、鍵盤212から演奏データA2が入力されたときには、演奏データA2のみが受信側電子楽器202に送信され、その演奏データの発音に基づく音声データA1は送信されない。これにより、演奏データA2そのものと、その演奏データが音声化された音声データA1との2重送信を防止でき、受信側電子楽器202では2重再生を防止できる。また、演奏データA2入力後の所定時間経過後は生成された音声データA1を送信する。
【0020】
図3は、本実施形態によるデータ通信システムの第2の具体的構成例を示す。図2では送信側電子楽器201にスイッチ220を設けたが、図3では受信側電子楽器202にスイッチ320を設ける。その他の点については、両者は同じである。
【0021】
演奏者が鍵盤212で演奏操作を行うと、鍵盤212は演奏データA2を生成する。その演奏データA2は、音源213に供給される。また、その演奏データA2は、ネットワーク203を介して、受信側電子楽器202に送信される。音源213は、演奏データA2を基に音声信号を生成し、スピーカー214に供給する。スピーカー214は、その音声信号を基に音声を発音する。その演奏データに基づく音声は、マイク211に入力され、音声データA1が生成される。音声データA1は、ネットワーク203を介して、受信側電子楽器202に送信する。すなわち、ここでは、演奏データA2そのものと、その演奏データが音声化された音声データA1とを2重送信する。
【0022】
受信側電子楽器202は、ネットワーク203を介して、音声データB1及び演奏データB2を受信することができる。演奏データB2は、音源213に供給される。音源213は、演奏データB2を基に音声信号を生成し、スピーカー214から音声が発音される。音声データB1は、スイッチ320を介して、スピーカー214に供給されて発音される。
【0023】
スイッチ320は、演奏データB2受信後の所定時間経過前は開いて受信した音声データB1の発音を許可せず、所定時間経過後は閉じて受信した音声データB1の発音を許可する。
【0024】
仮にスイッチ320がないと、送信側電子楽器201から2重送信された演奏データB2及びその演奏データに基づく音声データB1を2重再生することになってしまう。
【0025】
スイッチ320は、演奏データB2受信後所定期間は開いているので、その音声データB1はスピーカー214には供給されず、発音されない。一方、演奏データB2は、音源213及びスピーカー214を介して、発音される。以上のように、演奏データB2を受信したときには、演奏データB2のみを発音し、その演奏データの発音に基づく音声データB1は発音しない。これにより、演奏データB2と、その演奏データが音声化された音声データB1との2重再生を防止できる。また、演奏データB2受信後の所定時間経過後は受信した音声データB1を発音する。
【0026】
図4は、図2の送信側電子楽器201のメインルーチンの処理を示すフローチャートである。ステップS401では、初期設定を行う。この処理の詳細は、後に図5を参照しながら説明する。次に、ステップS402では、鍵盤からキーイベント(MIDIデータ)の入力があるか否かをチェックする。キーイベントは、キーオンイベント及びキーオフイベントを含む。鍵盤を押鍵するとキーオンイベントが発生し、鍵盤を離鍵するとキーオフイベントが発生する。キーイベントが入力されたときにはステップS403へ進み、入力されないときにはステップS404へ進む。ステップS403では、キーイベント処理を行う。この処理の詳細は、後に図6を参照しながら説明する。その後、ステップS404へ進む。
【0027】
ステップS404では、所定時間が経過したか否かをチェックする。経過していればステップS405へ進み、経過していなければステップS406へ進む。ステップS405では、タイマーイベント処理を行う。この処理の詳細は、後に図7を参照しながら説明する。その後、ステップS406へ進む。ステップS406では、マイク入力処理を行う。具体的には、音声を電気信号に変換して音声データを生成する。次に、ステップS407では、音声データ送信処理を行う。この処理の詳細は、後に図8を参照しながら説明する。その後、ステップS402へ戻り、上記の処理を繰り返す。
【0028】
図5は、図4のステップS401の初期設定の詳細を示すフローチャートである。ステップS501では、カウンターをゼロにクリアする。次に、ステップS502では、フラグをリセットする。以上で、処理を終了し、図4の処理に戻る。
【0029】
図6は、図4のステップS403のキーイベント処理の詳細を示すフローチャートである。ステップS601では、カウンターに所定値をセットする。次に、ステップS602では、フラグをセットする。次に、ステップS603では、キーイベントに応じた発音処理を行う。具体的には、キーオンイベントであれば発音処理を行い、キーオフイベントであれば消音処理を行う。次に、ステップS604では、キーイベント(演奏データ)の送信処理を行う。以上で、処理を終了し、図4の処理に戻る。
【0030】
図7は、図4のステップS405のタイマーイベント処理の詳細を示すフローチャートである。ステップS701では、カウンターがゼロか否かをチェックする。ゼロであればステップS702へ進み、ゼロでなければステップS703へ進む。ステップS702では、フラグをリセットする。その後、処理を終了し、図4の処理に戻る。ステップS703では、カウンターの値を1減らす。その後、処理を終了し、図4の処理に戻る。
【0031】
図8は、図4のステップS407の音声データ送信処理の詳細を示すフローチャートである。ステップS801では、フラグがリセットされているか否かをチェックする。リセットされていればステップS802へ進み、リセットされていなければ処理を終了して図4の処理に戻る。ステップS802では、送信すべき音声データがあるか否かをチェックする。音声データがあればステップS803へ進み、音声データがなければ処理を終了して図4の処理に戻る。ステップS803では、音声データを送信する。以上で、処理を終了し、図4の処理に戻る。
【0032】
スピーカーからの演奏音のまわりこみを防ぐ方法として、演奏時にマイク入力を無効にする方法が考えられる。これを演奏者が手動で行うことができるが、本実施形態のように演奏時自動的に制御するのが好ましい。鍵盤から演奏データの入力があった場合には、フラグをセットしておき、このフラグがセットされている場合には音声データの送信を行わない。フラグは一定時間鍵盤からの入力がない場合にはリセットされるようになっているため、演奏をやめれば自動的に音声データの送信が行われるようになる。また、送信側電子楽器で制御する他に、図3に示すように受信側電子楽器で制御を行っても同等の効果を得ることができる。
【0033】
以上のように、本実施形態によれば、図2に示すように、送信側電子楽器201では、演奏データ入力後の所定時間経過前は生成された音声データの送信を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重送信を防止することができる。所定時間経過後は生成された音声データの送信を許可するので、音声データの送信を行い、受信側電子楽器202で音声データを発音させることができる。
【0034】
また、図3に示すように、受信側電子楽器202では、演奏データ受信後の所定時間経過前は受信した音声データの発音を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重再生を防止することができる。所定時間経過後は受信した音声データの発音を許可するので、音声データを発音することができる。
【0035】
本実施形態は、コンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、例えばかかるプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体又はかかるプログラムを伝送するインターネット等の伝送媒体も本発明の実施形態として適用することができる。また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のコンピュータプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体及びコンピュータプログラムプロダクトは、本発明の範疇に含まれる。記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0036】
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
【0037】
【発明の効果】
以上説明したように、送信側データ処理装置では、演奏データ入力後の所定時間経過前は生成された音声データの送信を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重送信を防止することができる。所定時間経過後は生成された音声データの送信を許可するので、音声データの送信を行い、受信側で音声データを発音させることができる。
【0038】
また、受信側データ処理装置では、演奏データ受信後の所定時間経過前は受信した音声データの発音を許可しないので、演奏データとその演奏データの発音に基づく音声データとの2重再生を防止することができる。所定時間経過後は受信した音声データの発音を許可するので、音声データを発音することができる。
【図面の簡単な説明】
【図1】図1(A)及び(B)は本発明の実施形態によるデータ通信システムの構成例を示す図である。
【図2】本実施形態によるデータ通信システムの第1の具体的構成例を示す図である。
【図3】本実施形態によるデータ通信システムの第2の具体的構成例を示す図である。
【図4】送信側電子楽器のメインルーチンの処理を示すフローチャートである。
【図5】初期設定の詳細を示すフローチャートである。
【図6】キーイベント処理の詳細を示すフローチャートである。
【図7】タイマーイベント処理の詳細を示すフローチャートである。
【図8】音声データ送信処理の詳細を示すフローチャートである。
【図9】従来技術による送信側電子楽器の構成を示す図である。
【符号の説明】
101,102 電子楽器
120 ネットワークサーバー
121〜123 電子楽器
201 送信側電子楽器
202 受信側電子楽器
203 ネットワーク
211 マイク
212 鍵盤
213 音源
214 スピーカー
220,320 スイッチ
901 送信側電子楽器
911 マイク
912 鍵盤
913 音源
914 スピーカー
915 バッファ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to data processing technology, and more particularly to performance data and audio data processing technology.
[0002]
[Prior art]
FIG. 9 shows a configuration of a transmission-side electronic musical instrument 901 according to the prior art. The transmission-side electronic musical instrument 901 includes a microphone 911, a keyboard 912, a sound source 913, a speaker 914, and a buffer 915, and can transmit audio data A1 and performance data A2 to the reception-side electronic musical instrument. The performer's singing voice or the like is converted into an electric signal by the microphone 911, and sound data is generated. The audio data is transmitted as audio data A1 via the buffer 915. When the performer performs a performance operation on the keyboard 912, the electronic musical instrument 901 transmits performance data A2 generated by the keyboard 912. The sound source 913 generates an audio signal based on the performance data generated by the keyboard 912 and supplies it to the speaker 914. The speaker 914 generates sound 920 based on the sound signal.
[0003]
However, if the sound 920 based on the performance data is input to the microphone 911, the electronic musical instrument 901 transmits the sound data A1 based on the sound 920. The receiving electronic musical instrument receives both the performance data A2 itself and the sound data A1 obtained by converting the performance data into sound. Since the audio data is buffered in the buffer 915, the performance data A2 itself and the audio data A1 obtained by converting the performance data into audio are transmitted / received with a time difference. As a result, the reception-side electronic musical instrument has a problem that performance data is reproduced twice with a time difference.
[0004]
Moreover, the following patent documents 1 to 3 are disclosed.
[0005]
[Patent Document 1]
JP 2002-62884 A [Patent Document 2]
Japanese Patent Laid-Open No. 11-190993 [Patent Document 3]
Japanese Patent No. 3242028 [0006]
[Problems to be solved by the invention]
An object of the present invention is to provide a data processing technique capable of preventing double reproduction of performance data and audio data based on pronunciation of the performance data.
[0007]
[Means for Solving the Problems]
According to one aspect of the present invention, performance data input means for inputting performance data, performance data transmission means for transmitting the input performance data, and sound generation means for generating a sound based on the input performance data And a microphone that converts the sound into an electrical signal to generate sound data, and the transmission of the generated sound data is not permitted before the elapse of a predetermined time after the performance data is input, and is generated after the elapse of a predetermined time. There is provided a data processing apparatus having voice data transmission means for permitting transmission of the voice data.
According to another aspect of the present invention, performance data receiving means for receiving performance data, performance data sounding means for generating sound based on the received performance data, sound data receiving means for receiving sound data, Provided is a data processing device having voice data sound generation means that does not permit the sound generation of the received sound data before elapse of a predetermined time after reception of the performance data and permits sound generation of the received sound data after elapse of a predetermined time. Is done.
According to still another aspect of the present invention, a performance data input step for inputting performance data, a performance data transmission step for transmitting the input performance data, and sound generation based on the input performance data A sound generation step, a generation step of generating sound data by converting a sound into an electric signal, and transmission of the generated sound data is not permitted before the elapse of a predetermined time after the performance data is input, and after the elapse of the predetermined time There is provided a data processing method including a voice data transmission step for permitting transmission of the generated voice data.
According to still another aspect of the present invention, a performance data receiving step for receiving performance data, a performance data sounding step for generating a sound based on the received performance data, and a sound data receiving step for receiving sound data A data processing method comprising: a sound data sound generation step that does not permit the sound generation of the received sound data before the elapse of a predetermined time after reception of the performance data and permits sound generation of the received sound data after the elapse of a predetermined time. Provided.
[0008]
According to the present invention, the transmission-side data processing device does not permit transmission of the generated audio data before the lapse of a predetermined time after the performance data is input, so that the performance data and the audio data based on the pronunciation of the performance data are 2 Double transmission can be prevented. Since transmission of the generated audio data is permitted after a predetermined time has elapsed, the audio data can be transmitted and the audio data can be generated on the receiving side.
[0009]
In addition, since the receiving-side data processing device does not permit the sound generation of the received audio data before the elapse of a predetermined time after reception of the performance data, double reproduction of the performance data and the sound data based on the sound of the performance data is prevented. be able to. Since the sound generation of the received sound data is permitted after the predetermined time has elapsed, the sound data can be sounded.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1A shows a first configuration example of a data communication system according to an embodiment of the present invention. The two electronic musical instruments 101 and 102 are connected to each other via a network. When the electronic musical instrument 101 transmits performance data (MIDI (Musical Instrument Digital Interface) data) or the like, the electronic musical instrument 102 receives the performance data or the like. Conversely, when the electronic musical instrument 102 transmits performance data or the like, the electronic musical instrument 101 receives the performance data or the like. The electronic musical instruments 101 and 102 have a keyboard, for example. When two performers perform with the electronic musical instruments 101 and 102, their own electronic musical instruments can generate musical sounds and transmit performance data to the other electronic musical instrument to generate sound. By transmitting and receiving performance data and the like using a network, it is possible to perform a so-called net session in which remote performers perform ensembles.
[0011]
FIG. 1B shows a second configuration example of the data communication system according to the embodiment of the present invention. The three electronic musical instruments 121 to 123 are connected to each other via the network server 120. The three electronic musical instruments 121 to 123 and the network server 120 are connected via a network. The electronic musical instruments 121 to 123 can communicate performance data and the like via the network server 120. Also in this case, performers from remote locations can perform an ensemble.
[0012]
Note that the networks in FIGS. 1A and 1B are, for example, MIDI, the Internet, USB, IEEE 1394, or the like.
[0013]
As shown in FIG. 1A, when two persons perform an ensemble with the electronic musical instruments 101 and 102, it is preferable to communicate by directly connecting the electronic musical instruments 101 and 102. If the electronic musical instruments 101 and 102 are directly connected, high-speed communication can be performed. However, when three or more electronic musical instruments are directly connected, the load increases because each electronic musical instrument communicates with a plurality of electronic musical instruments. Accordingly, as shown in FIG. 1B, when performing with three or more electronic musical instruments 121 to 123, communication is performed by connecting three or more electronic musical instruments 121 to 123 via the network server 120. Is preferred. When the electronic musical instruments 121 to 123 are connected via the network server 120, each electronic musical instrument needs to communicate only with the network server 120, so that the load on each electronic musical instrument can be reduced.
[0014]
FIG. 2 shows a first specific configuration example of the data communication system according to the present embodiment. The transmission-side electronic musical instrument 201 and the reception-side electronic musical instrument 202 each have a microphone 211, a keyboard (performance operator) 212, a sound source 213, and a speaker 214, and are connected via a network 203. The transmission-side electronic musical instrument 201 further includes a switch 220. Further, the transmission-side electronic musical instrument 201 may be provided with a buffer 915 as in FIG.
[0015]
First, the operation of the transmission-side electronic musical instrument 201 will be described. The performer's singing voice or the like is converted into an electrical signal by the microphone 211, and voice data A1 is generated. The sound data A1 is generated from the speaker 214. The audio data A1 is transmitted to the receiving electronic musical instrument 202 via the switch 220 and the network 203. When the performer performs a performance operation on the keyboard 212, the keyboard 212 generates performance data (MIDI data) A2. The performance data A2 is supplied to the sound source 213. The performance data A2 is transmitted to the receiving electronic musical instrument 202 via the network 203. The sound source 213 generates an audio signal based on the performance data A2 and supplies it to the speaker 214. The speaker 214 produces a sound based on the sound signal.
[0016]
The switch 220 opens after the performance data A2 is input from the keyboard 212 and before the elapse of a predetermined period, does not allow transmission of the generated audio data A1, closes after the elapse of a predetermined time, and closes the generated audio data A1. Allow transmission.
[0017]
The reception-side electronic musical instrument 202 can receive the audio data B1 and the performance data B2 from the transmission-side electronic musical instrument 201 via the network 203. The speaker 214 produces a sound based on the sound data B1. The sound source 213 generates a sound signal based on the performance data B2, and a sound is generated from the speaker 214.
[0018]
As shown in FIG. 9, when there is no switch, the performance data A2 generated by the keyboard 912 is transmitted to the reception-side electronic musical instrument and is also sounded as sound 920 by the speaker 914 via the sound source 913. When the sound 920 based on the performance data is input to the microphone 911, the electronic musical instrument 901 transmits the sound data A1 based on the sound 920. The receiving electronic musical instrument receives both the performance data A2 itself and the sound data A1 obtained by converting the performance data into sound. Since the audio data is buffered in the buffer 915, the performance data A2 itself and the audio data A1 obtained by converting the performance data into audio are transmitted / received with a time difference. As a result, in the receiving electronic musical instrument, the performance data is reproduced twice with a time difference. This double reproduction sounds as noise.
[0019]
In the present embodiment, the performance data A2 generated by the keyboard 212 is transmitted to the reception-side electronic musical instrument 202 and is sounded as sound by the speaker 214 via the sound source 213. Voice based on the performance data is input to the microphone 211, and voice data A1 is generated. However, since the switch 220 is open for a predetermined period after the performance data A 2 is input, the audio data A 1 is not transmitted to the receiving electronic musical instrument 202. As described above, when the performance data A2 is input from the keyboard 212, only the performance data A2 is transmitted to the receiving electronic musical instrument 202, and the audio data A1 based on the pronunciation of the performance data is not transmitted. Thereby, the double transmission of the performance data A2 itself and the sound data A1 obtained by converting the performance data into sound can be prevented, and the reception-side electronic musical instrument 202 can prevent double reproduction. Also, after a predetermined time has elapsed after the performance data A2 is input, the generated audio data A1 is transmitted.
[0020]
FIG. 3 shows a second specific configuration example of the data communication system according to the present embodiment. In FIG. 2, the switch 220 is provided on the transmission-side electronic musical instrument 201, but in FIG. 3, the switch 320 is provided on the reception-side electronic musical instrument 202. The other points are the same.
[0021]
When the performer performs a performance operation on the keyboard 212, the keyboard 212 generates performance data A2. The performance data A2 is supplied to the sound source 213. The performance data A2 is transmitted to the receiving electronic musical instrument 202 via the network 203. The sound source 213 generates an audio signal based on the performance data A2 and supplies it to the speaker 214. The speaker 214 produces a sound based on the sound signal. Voice based on the performance data is input to the microphone 211, and voice data A1 is generated. The audio data A1 is transmitted to the receiving electronic musical instrument 202 via the network 203. That is, here, the performance data A2 itself and the audio data A1 obtained by converting the performance data into voice are transmitted twice.
[0022]
The receiving electronic musical instrument 202 can receive the sound data B1 and the performance data B2 via the network 203. The performance data B2 is supplied to the sound source 213. The sound source 213 generates a sound signal based on the performance data B2, and a sound is generated from the speaker 214. The audio data B1 is supplied to the speaker 214 via the switch 320 and is sounded.
[0023]
The switch 320 does not permit the sound of the received sound data B1 to open before the predetermined time elapses after reception of the performance data B2, and closes the sound of the received sound data B1 after the predetermined time elapses.
[0024]
If the switch 320 is not provided, the performance data B2 transmitted twice from the transmitting electronic musical instrument 201 and the audio data B1 based on the performance data will be reproduced twice.
[0025]
Since the switch 320 is open for a predetermined period after the performance data B2 is received, the audio data B1 is not supplied to the speaker 214 and is not sounded. On the other hand, the performance data B2 is generated through the sound source 213 and the speaker 214. As described above, when the performance data B2 is received, only the performance data B2 is sounded, and the sound data B1 based on the sound of the performance data is not sounded. Thereby, it is possible to prevent double reproduction of the performance data B2 and the sound data B1 obtained by converting the performance data into sound. In addition, after the elapse of a predetermined time after reception of the performance data B2, the received audio data B1 is generated.
[0026]
FIG. 4 is a flowchart showing processing of a main routine of the transmission-side electronic musical instrument 201 in FIG. In step S401, initialization is performed. Details of this processing will be described later with reference to FIG. In step S402, it is checked whether or not a key event (MIDI data) is input from the keyboard. The key event includes a key-on event and a key-off event. When a key is pressed, a key-on event occurs. When a key is released, a key-off event occurs. When a key event is input, the process proceeds to step S403, and when it is not input, the process proceeds to step S404. In step S403, key event processing is performed. Details of this processing will be described later with reference to FIG. Thereafter, the process proceeds to step S404.
[0027]
In step S404, it is checked whether or not a predetermined time has elapsed. If it has elapsed, the process proceeds to step S405, and if it has not elapsed, the process proceeds to step S406. In step S405, timer event processing is performed. Details of this processing will be described later with reference to FIG. Thereafter, the process proceeds to step S406. In step S406, microphone input processing is performed. Specifically, sound data is generated by converting sound into an electrical signal. Next, in step S407, audio data transmission processing is performed. Details of this processing will be described later with reference to FIG. Then, it returns to step S402 and repeats said process.
[0028]
FIG. 5 is a flowchart showing details of the initial setting in step S401 of FIG. In step S501, the counter is cleared to zero. Next, in step S502, the flag is reset. This is the end of the process, and the process returns to the process of FIG.
[0029]
FIG. 6 is a flowchart showing details of the key event processing in step S403 of FIG. In step S601, a predetermined value is set in the counter. Next, in step S602, a flag is set. Next, in step S603, a sound generation process corresponding to the key event is performed. Specifically, if a key-on event, a sound generation process is performed, and if a key-off event, a mute process is performed. In step S604, a key event (performance data) transmission process is performed. This is the end of the process, and the process returns to the process of FIG.
[0030]
FIG. 7 is a flowchart showing details of the timer event process in step S405 of FIG. In step S701, it is checked whether or not the counter is zero. If zero, the process proceeds to step S702, and if not zero, the process proceeds to step S703. In step S702, the flag is reset. Thereafter, the process is terminated, and the process returns to the process of FIG. In step S703, the counter value is decreased by one. Thereafter, the process is terminated, and the process returns to the process of FIG.
[0031]
FIG. 8 is a flowchart showing details of the audio data transmission processing in step S407 of FIG. In step S801, it is checked whether or not the flag is reset. If it has been reset, the process proceeds to step S802. If it has not been reset, the process ends and the process returns to the process of FIG. In step S802, it is checked whether there is audio data to be transmitted. If there is audio data, the process proceeds to step S803. If there is no audio data, the process ends and the process returns to the process in FIG. In step S803, audio data is transmitted. This is the end of the process, and the process returns to the process of FIG.
[0032]
As a method of preventing the performance sound from the speakers from being sneak in, it is conceivable to disable the microphone input during performance. Although this can be performed manually by the performer, it is preferable to automatically control the performance as in the present embodiment. When performance data is input from the keyboard, a flag is set. When this flag is set, audio data is not transmitted. Since the flag is reset when there is no input from the keyboard for a certain period of time, audio data is automatically transmitted when the performance is stopped. In addition to the control with the transmission-side electronic musical instrument, the same effect can be obtained by performing the control with the reception-side electronic musical instrument as shown in FIG.
[0033]
As described above, according to the present embodiment, as shown in FIG. 2, the transmission-side electronic musical instrument 201 does not permit transmission of the generated audio data before a predetermined time elapses after the performance data is input. And transmission of voice data based on the pronunciation of the performance data can be prevented. Since transmission of the generated audio data is permitted after a predetermined time has elapsed, the audio data can be transmitted and the audio data can be generated by the receiving electronic musical instrument 202.
[0034]
Also, as shown in FIG. 3, the receiving electronic musical instrument 202 does not permit the sound of the received sound data before the elapse of a predetermined time after reception of the performance data, so that the performance data and the sound data based on the sound of the performance data are Double reproduction can be prevented. Since the sound generation of the received sound data is permitted after the predetermined time has elapsed, the sound data can be sounded.
[0035]
This embodiment can be realized by a computer executing a program. Also, means for supplying a program to a computer, for example, a computer-readable recording medium such as a CD-ROM recording such a program, or a transmission medium such as the Internet for transmitting such a program is also applied as an embodiment of the present invention. Can do. A computer program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and computer program product are included in the scope of the present invention. As the recording medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0036]
The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
[0037]
【The invention's effect】
As described above, since the transmission side data processing apparatus does not permit transmission of the generated audio data before the elapse of a predetermined time after the performance data is input, 2 of the performance data and the audio data based on the pronunciation of the performance data. Double transmission can be prevented. Since transmission of the generated audio data is permitted after a predetermined time has elapsed, the audio data can be transmitted and the audio data can be generated on the receiving side.
[0038]
In addition, since the receiving-side data processing device does not permit the sound generation of the received audio data before the elapse of a predetermined time after reception of the performance data, double reproduction of the performance data and the sound data based on the sound of the performance data is prevented. be able to. Since the sound generation of the received sound data is permitted after the predetermined time has elapsed, the sound data can be sounded.
[Brief description of the drawings]
FIGS. 1A and 1B are diagrams showing a configuration example of a data communication system according to an embodiment of the present invention.
FIG. 2 is a diagram showing a first specific configuration example of the data communication system according to the present embodiment.
FIG. 3 is a diagram showing a second specific configuration example of the data communication system according to the present embodiment.
FIG. 4 is a flowchart showing processing of a main routine of the transmitting electronic musical instrument.
FIG. 5 is a flowchart showing details of initial setting.
FIG. 6 is a flowchart showing details of key event processing.
FIG. 7 is a flowchart showing details of timer event processing.
FIG. 8 is a flowchart showing details of audio data transmission processing;
FIG. 9 is a diagram illustrating a configuration of a transmission-side electronic musical instrument according to a conventional technique.
[Explanation of symbols]
101, 102 Electronic musical instrument 120 Network server 121-123 Electronic musical instrument 201 Transmission-side electronic musical instrument 202 Reception-side electronic musical instrument 203 Network 211 Microphone 212 Keyboard 213 Sound source 214 Speaker 220, 320 Switch 901 Transmission-side electronic musical instrument 911 Microphone 912 Keyboard 913 Sound source 914 Speaker 915 buffer

Claims (8)

演奏データを入力する演奏データ入力手段と、
前記入力された演奏データを送信する演奏データ送信手段と、
前記入力された演奏データを基に音声を発音する発音手段と、
音声を電気信号に変換して音声データを生成するマイクと、
前記演奏データ入力後の所定時間経過前は前記生成された音声データの送信を許可せず、所定時間経過後は前記生成された音声データの送信を許可する音声データ送信手段と
を有するデータ処理装置。
Performance data input means for inputting performance data;
Performance data transmission means for transmitting the input performance data;
Pronunciation means for generating a voice based on the input performance data;
A microphone that converts audio into electrical signals and generates audio data;
A data processing apparatus comprising: audio data transmitting means that does not permit transmission of the generated audio data before the elapse of a predetermined time after the performance data is input and permits transmission of the generated audio data after the elapse of a predetermined time. .
さらに、演奏者の演奏操作を基に演奏データを生成する演奏操作子を有し、
前記演奏データ入力手段は、前記演奏操作子により生成された演奏データを入力する請求項1記載のデータ処理装置。
Furthermore, it has a performance operator for generating performance data based on the performance operation of the performer,
The data processing apparatus according to claim 1, wherein the performance data input means inputs performance data generated by the performance operator.
前記演奏操作子は、鍵盤である請求項2記載のデータ処理装置。The data processing apparatus according to claim 2, wherein the performance operator is a keyboard. 前記演奏データは、MIDIデータである請求項1〜3のいずれか1項に記載のデータ処理装置。The data processing apparatus according to claim 1, wherein the performance data is MIDI data. 演奏データを受信する演奏データ受信手段と、
前記受信した演奏データを基に音声を発音する演奏データ発音手段と、
音声データを受信する音声データ受信手段と、
前記演奏データ受信後の所定時間経過前は前記受信した音声データの発音を許可せず、所定時間経過後は前記受信した音声データの発音を許可する音声データ発音手段と
を有するデータ処理装置。
Performance data receiving means for receiving performance data;
Performance data sounding means for generating a sound based on the received performance data;
Audio data receiving means for receiving audio data;
A data processing apparatus comprising: audio data sound generation means that does not permit the sound generation of the received sound data before elapse of a predetermined time after reception of the performance data, and permits sound generation of the received sound data after elapse of a predetermined time.
前記演奏データは、MIDIデータである請求項5記載のデータ処理装置。6. A data processing apparatus according to claim 5, wherein the performance data is MIDI data. 演奏データを入力する演奏データ入力ステップと、
前記入力された演奏データを送信する演奏データ送信ステップと、
前記入力された演奏データを基に音声を発音する発音ステップと、
音声を電気信号に変換して音声データを生成する生成ステップと、
前記演奏データ入力後の所定時間経過前は前記生成された音声データの送信を許可せず、所定時間経過後は前記生成された音声データの送信を許可する音声データ送信ステップと
を有するデータ処理方法。
A performance data input step for inputting performance data;
A performance data transmission step of transmitting the input performance data;
A pronunciation step for generating a voice based on the input performance data;
A generation step of converting sound into an electrical signal to generate sound data;
A data processing method comprising: an audio data transmission step that does not permit transmission of the generated audio data before the elapse of a predetermined time after the performance data is input and permits transmission of the generated audio data after the elapse of a predetermined time. .
演奏データを受信する演奏データ受信ステップと、
前記受信した演奏データを基に音声を発音する演奏データ発音ステップと、
音声データを受信する音声データ受信ステップと、
前記演奏データ受信後の所定時間経過前は前記受信した音声データの発音を許可せず、所定時間経過後は前記受信した音声データの発音を許可する音声データ発音ステップと
を有するデータ処理方法。
A performance data receiving step for receiving performance data;
A performance data sound generation step for sound generation based on the received performance data;
An audio data receiving step for receiving audio data;
A data processing method comprising: a sound data sound generation step that does not permit the sound generation of the received sound data before elapse of a predetermined time after reception of the performance data, and permits sound generation of the received sound data after elapse of a predetermined time.
JP2003088339A 2003-03-27 2003-03-27 Data processing apparatus and method Expired - Fee Related JP4035076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003088339A JP4035076B2 (en) 2003-03-27 2003-03-27 Data processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003088339A JP4035076B2 (en) 2003-03-27 2003-03-27 Data processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2004294869A JP2004294869A (en) 2004-10-21
JP4035076B2 true JP4035076B2 (en) 2008-01-16

Family

ID=33402497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003088339A Expired - Fee Related JP4035076B2 (en) 2003-03-27 2003-03-27 Data processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4035076B2 (en)

Also Published As

Publication number Publication date
JP2004294869A (en) 2004-10-21

Similar Documents

Publication Publication Date Title
Corbett Mic it!: microphones, microphone techniques, and their impact on the final mix
US20110146480A1 (en) Digital audio connections for portable handheld computing devices
JP4305084B2 (en) Music player
JP2002221974A (en) Audio system, volume setting method and program
JP4035076B2 (en) Data processing apparatus and method
JP2008225498A (en) Electronic keyboard instrument
USH1503H (en) Cordless electric guitar
JP4816678B2 (en) Electronic keyboard instrument
JP4214917B2 (en) Performance system
JP2016081039A (en) Acoustic system
JP2004347704A (en) Device and method for data processing
JP2004170717A (en) Karaoke system
KR20140125440A (en) Acoustic processing device and communication acoustic processing system
JP2002050943A (en) Studio sound recording device and method
KR100695368B1 (en) Sound processing device of mobile terminal to output high quality sound
JP6819236B2 (en) Sound processing equipment, sound processing methods, and programs
JPWO2010109614A1 (en) Audio signal processing apparatus and audio signal processing method
JP4090925B2 (en) Performance data transmission apparatus, communication system, transmission method and program
JP6834398B2 (en) Sound processing equipment, sound processing methods, and programs
JP4360212B2 (en) Karaoke equipment
JPH11231878A (en) Control method for sound field treatment
WO2018092286A1 (en) Sound processing device, sound processing method and program
Collins et al. In/Out: Speaker as Microphone, Microphone as Speaker, the Symmetry of It All
JP4557267B2 (en) Electronic musical instrument performance system
JP3257789B2 (en) Recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071026

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees