JP2010191458A - Musical sound generating terminal and performance terminal of electronic musical instrument performance system - Google Patents

Musical sound generating terminal and performance terminal of electronic musical instrument performance system Download PDF

Info

Publication number
JP2010191458A
JP2010191458A JP2010090040A JP2010090040A JP2010191458A JP 2010191458 A JP2010191458 A JP 2010191458A JP 2010090040 A JP2010090040 A JP 2010090040A JP 2010090040 A JP2010090040 A JP 2010090040A JP 2010191458 A JP2010191458 A JP 2010191458A
Authority
JP
Japan
Prior art keywords
performance
terminal
packet
data
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010090040A
Other languages
Japanese (ja)
Inventor
Yasushi Sato
康史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2010090040A priority Critical patent/JP2010191458A/en
Publication of JP2010191458A publication Critical patent/JP2010191458A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Small-Scale Networks (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically allocate a destination address from a musical sound generation terminal to a performance terminal. <P>SOLUTION: The musical sound generation terminal 1 creates musical sound data based on performance data which is received from the performance terminal 2 via a network 12, and transmits the musical sound data to the performance terminal 2 via the network 12. The performance terminal 2 transmits an address request to the network 12 using wide area address when starting. When the musical sound generation terminal 1 receives the wide area address as a destination, the musical sound generation terminal transmits an address to the network 12 to allocate the address to the performance terminal 2 which has transmitted the wide area address. The performance terminal 2 transmits the performance data to the network using the address which has been transmitted to the network in response to the address request, as a destination address. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、電子楽器演奏システムに関し、特に、電子楽器演奏システムに含まれる楽音データ発生端末と複数の演奏データ発生端末に関する。   The present invention relates to an electronic musical instrument performance system, and more particularly to a musical sound data generation terminal and a plurality of performance data generation terminals included in the electronic musical instrument performance system.

複数の楽器をMIDIケーブルを用いて接続する方法が知られる。MIDIでは、基本的に1対1の接続しか考慮されていないため、複数台の電子楽器を接続する場合は接続数に応じたMIDIケーブルを必要とする。また、電子楽器には限定された数のMIDI端子しか設けられていないので、接続される電子楽器の台数はあまり多くできない。例えば、MIDIチャネルが16チャネルであることから、同時に17台以上の電子楽器を相互に接続することはできない。さらに、MIDI規格では通信速度が演奏情報を転送するように決定されており、それ以上の高速転送は困難である。   A method of connecting a plurality of musical instruments using a MIDI cable is known. In MIDI, basically only one-to-one connection is considered, so when connecting a plurality of electronic musical instruments, a MIDI cable corresponding to the number of connections is required. Further, since the electronic musical instrument is provided with only a limited number of MIDI terminals, the number of connected electronic musical instruments cannot be increased so much. For example, since there are 16 MIDI channels, 17 or more electronic musical instruments cannot be connected to each other at the same time. Further, in the MIDI standard, the communication speed is determined so as to transfer performance information, and it is difficult to transfer at higher speed.

一方、特許文献1において、上記MIDIによる接続の問題点を解消するシステムとして、LANを経由して複数の電子楽器局、操作子局、音源局、およびシーケンサ局を互いに接続したシステムが提案されている。   On the other hand, Patent Document 1 proposes a system in which a plurality of electronic musical instrument stations, operation slave stations, sound source stations, and sequencer stations are connected to each other via a LAN as a system that solves the above-described connection problems by MIDI. Yes.

特開平6−252928号公報Japanese Patent Laid-Open No. 6-252928

上記特許文献1に開示された従来技術のようにLANを経由して複数の電子楽器等を互いに接続したシステムでは、例えば、操作子局から送出されるリアルタイム演奏データに基づいて電子楽器局で楽音を発生させたり、リアルタイム演奏データに基づいて音源局で楽音を合成して電子楽器で楽音を発生させたりするように構成することが考えられる。   In a system in which a plurality of electronic musical instruments and the like are connected to each other via a LAN as in the prior art disclosed in Patent Document 1 described above, for example, an electronic musical instrument station generates musical sounds based on real-time performance data transmitted from an operation slave station. It is conceivable that the musical sound is generated by the sound source station based on the real-time performance data and the musical sound is generated by the electronic musical instrument.

しかし、従来技術では、他端末で発生した楽音データによって自端末で発音することはできるが、演奏データを送出した演奏端末が、その演奏データに基づいて他端末で発生された楽音データによってリアルタイムで楽音を発生するということはできなかった。すなわち、演奏端末間で音源を共有しているものではなかった。   However, in the prior art, although it is possible to generate sound at the own terminal using the musical sound data generated at the other terminal, the performance terminal that has transmitted the performance data is transmitted in real time by the musical sound data generated at the other terminal based on the performance data. It was not possible to generate music. That is, the sound source was not shared between performance terminals.

例えば、学校や音楽教室等で複数の電子鍵盤楽器をLANを経由して接続してレッスンをしたり合奏をしたりする場合、複数の生徒が操作子としての鍵盤装置を持つだけではこれらの生徒は自分の演奏音を聞くことができない。各自が自己の演奏音をモニタするためには、全ての生徒が鍵盤装置とともに楽音データを生成する音源を備えた電子鍵盤楽器をそれぞれ持たなければならない。また、自己の演奏音だけでなく他の生徒との合奏音を聞きたいという要望もある。そのために、大勢の生徒が簡易な鍵盤装置などの演奏端末を使って同時に電子楽器のレッスンを行うことができるシステムが望まれる。   For example, when a plurality of electronic keyboard instruments are connected via a LAN at a school or a music classroom to give a lesson or an ensemble, these students need only to have a keyboard device as an operator. Can't hear his performance. In order for each student to monitor his / her performance sound, all students must have an electronic keyboard instrument with a sound source that generates musical tone data together with the keyboard device. There is also a desire to hear not only their own performance sounds but also ensemble sounds with other students. Therefore, a system is desired in which a large number of students can simultaneously perform lessons on electronic musical instruments using a performance terminal such as a simple keyboard device.

本発明は、上記課題に鑑み、音源を重複して設けるという無駄を省きつつ、複数の演奏者による演奏を可能にする電子楽器演奏システムに含まれる楽音発生端末および演奏端末を提供することを目的とする。   An object of the present invention is to provide a musical sound generating terminal and a performance terminal included in an electronic musical instrument performance system that enables performance by a plurality of performers while eliminating the waste of providing duplicate sound sources in view of the above problems. And

上記の課題を解決し、目的を達成するための本発明は、ネットワークを経由して演奏端末から演奏データを受信し、該演奏データに基づく楽音データを発生し、該楽音データを、前記ネットワークを経由して前記演奏端末に送信する楽音発生端末において、前記演奏端末から送信された宛先アドレスを受信する受信手段と、前記受信手段が受信した宛先アドレスが個別の送信先を示さない広域アドレスかどうかを検出する検出手段と、前記検出手段が検出した広域アドレスを送信した演奏端末に対してアドレスを割り当てる割り当て手段と、前記割り当て手段が割り当てたアドレスを前記ネットワークに送出する送出手段とを備えている楽音発生端末である点に第1の特徴がある。   In order to solve the above problems and achieve the object, the present invention receives performance data from a performance terminal via a network, generates musical sound data based on the performance data, and transmits the musical sound data to the network. In the musical sound generating terminal that transmits to the performance terminal via, receiving means for receiving the destination address transmitted from the performance terminal, and whether the destination address received by the receiving means is a wide area address not indicating an individual transmission destination Detecting means for detecting the address, assigning means for assigning an address to a performance terminal that has transmitted the wide-area address detected by the detecting means, and sending means for sending the address assigned by the assigning means to the network. The first feature is that it is a musical sound generating terminal.

また、本発明は、ネットワークを経由して演奏者による演奏データを楽音発生端末に送信し、前記ネットワークを経由して前記演奏データに基づいて前記楽音発生端末で発生された楽音データを受信して発音する演奏端末において、前記演奏端末の立ち上げ時に、個別に送信先を示さない広域アドレスを用いてアドレス要求を前記ネットワークに送信する送信手段と、前記アドレス要求に応じてネットワークに送出されたアドレスを受信する受信手段と、前記受信したアドレスを宛先アドレスとして前記演奏データを前記ネットワークに送出する送出手段とを備えている演奏端末である点に第2の特徴がある。   Further, the present invention transmits performance data by a performer to a musical tone generation terminal via a network, and receives musical tone data generated at the musical tone generation terminal based on the performance data via the network. In the performance terminal that generates sound, when the performance terminal is started up, transmission means for transmitting an address request to the network using a wide-area address that does not individually indicate a transmission destination, and an address sent to the network in response to the address request There is a second feature in that the performance terminal includes a receiving unit that receives the performance data and a sending unit that sends the performance data to the network using the received address as a destination address.

上記第1および第2の特徴を有する本発明によれば、演奏端末と楽音発生端末とをネットワークを介して接続している電子楽器演奏システムにおいて、演奏端末の立ち上げ時に、演奏端末が立ち上げた広域通信に応答して楽音発生端末から演奏端末に宛先アドレスとしてのアドレスを自動的に割り当てることができる。   According to the present invention having the first and second features, in the electronic musical instrument performance system in which the performance terminal and the musical sound generating terminal are connected via a network, the performance terminal is started up when the performance terminal is started up. In response to the wide area communication, an address as a destination address can be automatically assigned from the musical sound generating terminal to the performance terminal.

本発明の一実施形態に係る電子楽器演奏システムのブロック図である。It is a block diagram of the electronic musical instrument performance system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るシステムの端末に含まれる制御部のブロック図である。It is a block diagram of the control part contained in the terminal of the system concerning one embodiment of the present invention. IPパケットの構造例を示す図である。It is a figure which shows the structural example of an IP packet. IPヘッダの内容およびその意味を示す図である。It is a figure which shows the content of an IP header, and its meaning. 楽音発生端末のメインフローチャートである。It is a main flowchart of a musical tone generation terminal. イベント処理のフローチャートである。It is a flowchart of an event process. 通信処理のフローチャートである。It is a flowchart of a communication process. タイマ処理のフローチャートである。It is a flowchart of a timer process. 演奏端末における初期化のフローチャートである。It is a flowchart of initialization in a performance terminal. 演奏端末におけるイベント処理のフローチャートである。It is a flowchart of the event process in a performance terminal. パケット処理のフローチャートである。It is a flowchart of a packet process. 鍵処理のフローチャートである。It is a flowchart of a key process. パケット送信処理のフローチャートである。It is a flowchart of a packet transmission process. 楽音発生端末の操作パネル4の要部を示す図である。It is a figure which shows the principal part of the operation panel 4 of a musical tone generation terminal. 操作パネルの要部機能を示すブロック図である。It is a block diagram which shows the principal part function of an operation panel. 変形例に係る操作パネルの要部機能を示すブロック図である。It is a block diagram which shows the principal part function of the operation panel which concerns on a modification. 操作パネル上のスイッチの状態を示す図である。It is a figure which shows the state of the switch on an operation panel. 不着時処理の要部機能を示すブロック図である。It is a block diagram which shows the principal part function of a non-delivery process. 発音タイミングまでにパケットが到着しなかったときのクロスフェード処理に係るフローチャートである。It is a flowchart which concerns on a cross fade process when a packet does not arrive by the sounding timing. パケットの受信処理のフローチャートである。It is a flowchart of the reception process of a packet. 発音処理のフローチャートである。It is a flowchart of a pronunciation process. 復帰処理のフローチャートである。It is a flowchart of a return process.

以下、図面を参照して本発明を詳細に説明する。図1は本発明の一実施形態に係る電子楽器演奏システムのブロック図である。同図において、この演奏システムは、例えば、複数の生徒のための電子楽器のレッスンシステムである。この演奏システムは、教師が使用する楽音データ発生端末(以下、「楽音発生端末」という)1と生徒が使用する複数の演奏データ発生端末(以下、「演奏端末」という)2とからなる。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an electronic musical instrument performance system according to an embodiment of the present invention. In the figure, this performance system is, for example, an electronic musical instrument lesson system for a plurality of students. This performance system includes a musical sound data generation terminal (hereinafter referred to as “musical sound generation terminal”) 1 used by a teacher and a plurality of performance data generation terminals (hereinafter referred to as “performance terminals”) 2 used by students.

楽音発生端末1は、鍵盤3、操作パネル4、音源(TG)5、サウンドシステム6、および制御部7を備える。鍵盤3は押鍵・離鍵を検出して演奏データ(キーナンバおよびベロシティを含む)を演奏者の演奏に応じてリアルタイムに出力する図示しないキーセンサを備える。操作パネル4は各種指示入力のためのスイッチや液晶パネル等の表示画面を有する。音源5は複数設けられ、演奏データに基づいて楽音データを発生する。サウンドシステム6は楽音データのD/A変換器(DAC)61、増幅器(AMP)62およびスピーカ(SP)63を備える。ヘッドフォン端子を設けて増幅器62の出力をスピーカ63だけでなくヘッドフォン端子(図示しない)にも供給できるようにする。   The musical sound generating terminal 1 includes a keyboard 3, an operation panel 4, a sound source (TG) 5, a sound system 6, and a control unit 7. The keyboard 3 includes a key sensor (not shown) that detects key depression / release and outputs performance data (including key number and velocity) in real time according to the performance of the performer. The operation panel 4 has a display screen such as a switch for inputting various instructions and a liquid crystal panel. A plurality of sound sources 5 are provided and generate musical sound data based on performance data. The sound system 6 includes a D / A converter (DAC) 61 for music data, an amplifier (AMP) 62, and a speaker (SP) 63. A headphone terminal is provided so that the output of the amplifier 62 can be supplied not only to the speaker 63 but also to a headphone terminal (not shown).

演奏端末2は、鍵盤8、操作パネル9、サウンドシステム10、および制御部11を備える。演奏端末2は、音源5並びに音源5で使用する波形データやパラメータを保持していない点で楽音発生端末1と異なる。また、楽音発生端末1の操作パネル4には、演奏端末2の操作パネル9にないスイッチ(後述)を設ける。なお、楽音発生端末1には、必ずしも鍵盤3を設けなくてもよい。   The performance terminal 2 includes a keyboard 8, an operation panel 9, a sound system 10, and a control unit 11. The performance terminal 2 is different from the tone generation terminal 1 in that it does not hold the sound source 5 and the waveform data and parameters used by the sound source 5. Further, the operation panel 4 of the musical tone generating terminal 1 is provided with a switch (described later) that is not provided on the operation panel 9 of the performance terminal 2. Note that the musical tone generating terminal 1 is not necessarily provided with the keyboard 3.

楽音発生端末1および演奏端末2の制御部7,11は、回線12に接続される。回線12は、IEEE802.3標準のLANつまりイーサネット(登録商標)で、伝送速度100メガビット/秒の100BASE−T仕様のものを使用するのがよい。なお、以下の説明は、回線12がLANであることを前提に説明するが、本発明は回線の種類はLANに限定されない。つまり、分離された複数の教室同士を接続した広域ネットワーク(WAN)であってもよい。   The control units 7 and 11 of the tone generation terminal 1 and the performance terminal 2 are connected to the line 12. The line 12 is an IEEE 802.3 standard LAN, that is, Ethernet (registered trademark), and it is preferable to use a 100BASE-T specification having a transmission rate of 100 megabits / second. The following description will be made on the assumption that the line 12 is a LAN, but the present invention is not limited to a LAN. That is, it may be a wide area network (WAN) in which a plurality of separated classrooms are connected.

楽音波形のサンプリング周波数を44.1kHz、サンプル精度を18ビット×2(ステレオを考慮する)、演奏端末数nを48として、楽音データ送出による情報量Sは、44100×18×2×48=76,204,800(ビット/秒)となる。この情報量Sにアドレスやヘッダなどのオーバヘッドを例えば30%見込んでも回線12上に送出されるデータ量は99,066,240ビット/秒となり、100BASE−T仕様の回線12の許容能力を上回らない。なお、演奏端末2からの演奏データ送出による情報量は、楽音データ送出による情報量と比べて桁違いに小さいので計算上無視できる。   Assuming that the sampling frequency of the musical sound waveform is 44.1 kHz, the sampling accuracy is 18 bits × 2 (considering stereo), the number of performance terminals n is 48, the amount of information S by transmitting musical sound data is 44100 × 18 × 2 × 48 = 76. , 204,800 (bits / second). Even if 30% overhead such as an address or header is estimated for this information amount S, the amount of data transmitted on the line 12 is 99,066,240 bits / second, which does not exceed the allowable capacity of the line 12 of 100BASE-T specifications. . Note that the amount of information transmitted by the performance data from the performance terminal 2 can be ignored in calculation because it is an order of magnitude smaller than the amount of information transmitted by the musical sound data.

図2は制御部7の構成を示すブロック図である。制御部7は、CPU13、ROM14、RAM15、デジタルシグナルプロセッサ(DSP)16、および入出力インタフェース(SIO)17を有する。これらCPU13、ROM14、RAM15、DSP16およびSIO17はバス18を介して接続される。CPU13には、鍵盤3、操作パネル4、および音源5が接続され、音源5はDSP16に接続される。制御部7はSIO17を通じて回線12と接続される。ROM14には音源5で使用する波形データやパラメータが予め格納される。   FIG. 2 is a block diagram showing the configuration of the control unit 7. The control unit 7 includes a CPU 13, a ROM 14, a RAM 15, a digital signal processor (DSP) 16, and an input / output interface (SIO) 17. The CPU 13, ROM 14, RAM 15, DSP 16 and SIO 17 are connected via a bus 18. The keyboard 13, the operation panel 4, and the sound source 5 are connected to the CPU 13, and the sound source 5 is connected to the DSP 16. The control unit 7 is connected to the line 12 through the SIO 17. The ROM 14 stores waveform data and parameters used by the sound source 5 in advance.

演奏端末2の制御部11も、音源5との接続並びにROM14に保持するデータの違いを除いて制御部7と同様に構成される。制御部7,11ではインタネットプロトコル(IP)を使用してデータを送受する。   The control unit 11 of the performance terminal 2 is also configured in the same manner as the control unit 7 except for the connection with the sound source 5 and the difference in data held in the ROM 14. The control units 7 and 11 transmit and receive data using the Internet protocol (IP).

図3は、IPパケットの構造例を示す図である。パケット19は、イーサネット(登録商標)ヘッダ、IPヘッダ、MIDI/PCMヘッダ、MIDI/PCMボディ、イーサネット(登録商標)トレーラを含む。IPヘッダの内容およびその役割を図4に示す。   FIG. 3 is a diagram illustrating a structure example of an IP packet. The packet 19 includes an Ethernet (registered trademark) header, an IP header, a MIDI / PCM header, a MIDI / PCM body, and an Ethernet (registered trademark) trailer. The contents of the IP header and its role are shown in FIG.

図5は、楽音発生端末1のメインルーチンを示すフローチャートである。ステップS1では、各種レジスタ、カウンタ、フラグなどの初期化を行う。ステップS2では、鍵盤3の操作(鍵盤イベント)や操作パネル4の操作(パネルイベント)等、イベントの有無を判別する。パネルイベントの有無は、操作パネル4に備えられるスイッチやボリューム類の状態の監視動作によって判別される。鍵盤イベントの有無判別は、鍵盤3の各鍵毎に設けられるキーセンサの出力監視動作によって行われ、各鍵毎に押鍵・離鍵の有無、ならびにベロシティが検出される。なんらかのイベントが検出されれば、ステップS3で、そのイベントに対応する処理が実行される。イベント処理が終われば、ステップS4でタイマ処理が行われる。   FIG. 5 is a flowchart showing the main routine of the musical tone generating terminal 1. In step S1, various registers, counters, flags, etc. are initialized. In step S2, the presence / absence of an event such as operation of the keyboard 3 (keyboard event) or operation of the operation panel 4 (panel event) is determined. The presence / absence of a panel event is determined by a monitoring operation of the state of switches and volumes provided in the operation panel 4. The presence / absence of a keyboard event is determined by an output monitoring operation of a key sensor provided for each key of the keyboard 3, and the presence / absence of key depression / release and the velocity are detected for each key. If any event is detected, processing corresponding to the event is executed in step S3. When the event processing is completed, timer processing is performed in step S4.

図6は、イベント処理のフローチャートである。ステップS10では、本体イベントか否か、つまり楽音発生端末1側で生じたイベントか、演奏端末2で生じたイベントかが判別される。本体イベントならば、ステップS11で発音のための通常の処理を行う。例えば、鍵盤イベントの押鍵か離鍵かによって発音または消音のための処理が行われる。なお、鍵盤イベントに従って、通常の発音とともに、予定の伴奏データによる自動伴奏を行うようにしてもよい。本体イベントでない場合は、ステップS12に進んで通信処理を行う。   FIG. 6 is a flowchart of event processing. In step S10, it is determined whether or not the event is a main body event, that is, an event that has occurred on the musical sound generating terminal 1 side or an event that has occurred on the performance terminal 2. If the event is a main body event, normal processing for sound generation is performed in step S11. For example, a process for sound generation or muting is performed depending on whether a keyboard event is pressed or released. Note that automatic accompaniment using scheduled accompaniment data may be performed along with normal pronunciation according to a keyboard event. If it is not a main body event, the process proceeds to step S12 to perform communication processing.

図7は、通信処理のフローチャートである。ステップS20では、パケットが自局宛てかどうか、つまりパケットの宛先アドレスTADDが楽音発生端末1のアドレスか否かを判別する。自局宛てならば、ステップS21に進んで受信パケットからMIDIデータを取り出す。ステップS22では、このMIDIデータに基づいて楽音データを作成する。   FIG. 7 is a flowchart of the communication process. In step S20, it is determined whether or not the packet is addressed to the own station, that is, whether or not the destination address TADD of the packet is the address of the musical tone generating terminal 1. If it is addressed to the own station, the process proceeds to step S21 to extract MIDI data from the received packet. In step S22, musical tone data is created based on this MIDI data.

ステップS20が否定(自局アドレスでない)ならば、ステップS23に進んで広域通信か否か、つまり楽音発生端末1がアドレスを割り当てた演奏端末2からの通信か、それ以外からの通信かを判断する。広域通信でないならば、この処理はスルーし、広域通信ならば、各演奏端末の立ち上げ時もしくは新たに演奏端末が発生した場合であり、ステップS24に進んでその演奏端末にアドレスを割り当てる。ステップS25では、ステップS24で割り当てたアドレスを回線12に送出する。   If step S20 is negative (not the own station address), the process proceeds to step S23 to determine whether the communication is a wide area communication, that is, whether the musical sound generating terminal 1 is a communication from the performance terminal 2 to which the address is assigned or a communication from other than that To do. If it is not wide-area communication, this process is passed, and if it is wide-area communication, it is the time when each performance terminal is started up or a new performance terminal is generated, and the process proceeds to step S24 and an address is assigned to that performance terminal. In step S25, the address assigned in step S24 is sent to the line 12.

図8は、タイマ処理のフローチャートである。ステップS30では、楽音データの有無が判断される。ステップS22で楽音データが作成された場合は、この判断は肯定であり、ステップS31に進んでこの楽音データを送信するためにパケットを作成する。ステップS32では、作成されたパケットを回線12に送出する。   FIG. 8 is a flowchart of the timer process. In step S30, it is determined whether or not there is musical tone data. If the musical sound data is created in step S22, this determination is affirmative, and the process proceeds to step S31 to create a packet for transmitting the musical sound data. In step S32, the created packet is sent to the line 12.

続いて、演奏端末2の処理を説明する。演奏端末2のメインフローチャートは楽音発生端末1のものと同様であるので省略し、メインフローチャートの各ステップの具体的な処理のみを説明する。   Subsequently, processing of the performance terminal 2 will be described. Since the main flowchart of the performance terminal 2 is the same as that of the musical tone generating terminal 1, it will be omitted, and only specific processing of each step of the main flowchart will be described.

図9は、演奏端末2の初期化のフローチャートである。この初期化の処理は演奏端末2の立ち上げ時に毎回行われる。ステップS40では、パケットを格納するパケット・バッファをクリアする。ステップS41では楽音発生端末1にアドレスを要求する。前記ステップS24は、このアドレス要求に対応する処理である。ステップS42では、その他のパラメータ等を初期化する。   FIG. 9 is a flowchart of initialization of the performance terminal 2. This initialization process is performed every time the performance terminal 2 is started up. In step S40, the packet buffer for storing the packet is cleared. In step S41, the musical tone generating terminal 1 is requested for an address. Step S24 is a process corresponding to this address request. In step S42, other parameters and the like are initialized.

図10、演奏端末2におけるイベント処理のフローチャートである。ステップS50では、パケット受信か否かを判断する。パケットを受信したのであれば、ステップS51に進んでパケット処理(後述)を行う。   FIG. 10 is a flowchart of event processing in the performance terminal 2. In step S50, it is determined whether or not a packet is received. If a packet has been received, the process proceeds to step S51 to perform packet processing (described later).

パケットを受信したのでないならば、ステップS52に進んで鍵盤イベントか否かを判断する。鍵盤イベントであれば、ステップS53に進んで鍵処理(後述)を行う。鍵盤イベントでなければステップS54に進んでパネルイベントか否かを判断する。パネルイベントであれば、ステップS55に進んでパネル処理を行う。パネル処理では、例えば音色データやエクスプレッション等の制御データを制御パケットデータとして作成し、パケット・バッファに書き込む。パネルイベントでなければステップS56に進んでその他のイベントか否かを判断し、その他のイベントであればステップS57で予定されたその他の処理を行う。   If a packet has not been received, the process proceeds to step S52 to determine whether it is a keyboard event. If it is a keyboard event, the process proceeds to step S53 to perform key processing (described later). If it is not a keyboard event, it will progress to step S54 and it will be judged whether it is a panel event. If it is a panel event, the process proceeds to step S55 to perform panel processing. In the panel processing, for example, control data such as timbre data and expression is created as control packet data and written to the packet buffer. If it is not a panel event, the process proceeds to step S56 to determine whether it is another event or not, and if it is another event, the other process scheduled in step S57 is performed.

図11は、パケット処理のフローチャートである。ステップS60では、アドレス受信か否かを判断する。アドレスを受信したのであれば、ステップS61に進み、受信したアドレスをRAM15上の所定の記憶領域に書き込むアドレス処理を行う。アドレス受信でなければ、ステップS60からステップS62に進んで楽音データの受信か否かを判断する。楽音データを受信したのであれば、ステップS63に進んで楽音発生のための楽音処理を行う。楽音処理では、パケットを分解してMIDI/PCMボディからPCMデータを取り出し、RAM15のバッファに蓄積する。このバッファに蓄積されたPCMデータはサウンドシステム6のD/A変換器61および増幅器62を介してスピーカ63に入力され、発音に供される。   FIG. 11 is a flowchart of packet processing. In step S60, it is determined whether an address is received. If an address has been received, the process proceeds to step S61, where address processing for writing the received address in a predetermined storage area on the RAM 15 is performed. If the address is not received, the process proceeds from step S60 to step S62 to determine whether or not the musical sound data is received. If the musical sound data has been received, the process proceeds to step S63 to perform musical sound processing for generating a musical sound. In the musical tone processing, the packet is disassembled, PCM data is taken out from the MIDI / PCM body, and stored in the buffer of the RAM 15. The PCM data stored in this buffer is input to the speaker 63 via the D / A converter 61 and the amplifier 62 of the sound system 6 and is used for sound generation.

図12は、鍵処理のフローチャートである。ステップS70では、押鍵か否かが判別され、押鍵であればステップS71に進んで押鍵パケットデータを生成する。つまり押鍵された鍵のキーナンバおよびベロシティをパケットのデータフィールドに書き込むためにパケット・バッファに格納する。押鍵でなければ、ステップS72に進んで離鍵か否かが判別され、離鍵であればステップS73に進んで離鍵パケットデータを生成する。離鍵パケットデータは押鍵パケットデータと同様、パケット・バッファに格納される。   FIG. 12 is a flowchart of key processing. In step S70, it is determined whether or not the key is depressed. If the key is depressed, the process proceeds to step S71 to generate key depression packet data. That is, the key number and velocity of the pressed key are stored in the packet buffer for writing into the data field of the packet. If the key is not depressed, the process proceeds to step S72 to determine whether or not the key is released. If the key is released, the process proceeds to step S73 and key release packet data is generated. The key release packet data is stored in the packet buffer in the same manner as the key depression packet data.

図13は、パケット送信処理のフローチャートである。この処理はタイマ処理として予定の割り込み時間毎に行われる。ステップS80では、パケット・バッファ内のデータ有無を判断する。パケット・バッファ内にデータがあればステップS81に進んでパケットを作成する。つまり押鍵パケットデータ、離鍵パケットデータ、および制御パケットデータにヘッダやトレーラ等を付加してパケットを完成させる。ステップS82では、このパケットを回線12に送出する。   FIG. 13 is a flowchart of packet transmission processing. This process is performed every scheduled interruption time as a timer process. In step S80, it is determined whether or not there is data in the packet buffer. If there is data in the packet buffer, the process proceeds to step S81 to create a packet. That is, a packet is completed by adding a header, a trailer, or the like to key-pressed packet data, key-released packet data, and control packet data. In step S82, this packet is sent to the line 12.

次に、上記レッスンシステムによる具体的なレッスンの例を説明する。図14は、教師が使用する楽音発生端末1の操作パネル4の要部を示す図である。この操作パネル4の要部は、生徒が使用する演奏端末2の操作パネル9には設けない。ここでは、最大生徒数24名を想定する。但し、生徒が使用する演奏端末2は、全員が単一の教室に収容されているのに限らず、複数の部屋に分かれて収容されていてもよいし、演奏端末2が個々にブースつまり小部屋に収容されていてもよい。要は、生徒数24名の使用する演奏端末および楽音発生端末1がLANまたはWANの回線12で互いに接続されていればよい。   Next, specific examples of lessons by the lesson system will be described. FIG. 14 is a diagram showing a main part of the operation panel 4 of the musical tone generating terminal 1 used by the teacher. The main part of the operation panel 4 is not provided on the operation panel 9 of the performance terminal 2 used by students. Here, a maximum of 24 students is assumed. However, the performance terminals 2 used by the students are not limited to being accommodated in a single classroom, but may be accommodated in a plurality of rooms. May be housed in a room. In short, it is only necessary that the performance terminal and the musical sound generating terminal 1 used by 24 students are connected to each other via a LAN or WAN line 12.

操作パネル4には、マイクロフォン(マイク)20、並びにマイクスイッチ21、モニタスイッチ22、合奏スイッチ23、および自己演奏スイッチ24が設けられる。各スイッチは最大生徒数分の24個設けられる。各スイッチ21〜24は、オン・オフの切り替えができ、その切り替え位置が目で認識できるものがよい。プッシュスイッチ、トグルスイッチ、タッチスイッチ等、その種類は問わない。   The operation panel 4 includes a microphone (microphone) 20, a microphone switch 21, a monitor switch 22, an ensemble switch 23, and a self-performance switch 24. Each switch has 24 switches for the maximum number of students. Each of the switches 21 to 24 is preferably one that can be switched on and off and whose switching position can be recognized with the eyes. There are no restrictions on the type of push switch, toggle switch, touch switch, etc.

マイク20から入力された音声は、デジタル化されて楽音データと加算されたうえ、マイクスイッチ21をオンにしている生徒の演奏端末2に送信される。モニタスイッチ22は、このスイッチ22をオンにしている演奏端末2からの演奏データによる発音をモニタするためのものであり、教師はスピーカ63および図示しないヘッドフォンにより演奏を聞くことができる。   The sound input from the microphone 20 is digitized and added to the musical sound data, and then transmitted to the performance terminal 2 of the student whose microphone switch 21 is turned on. The monitor switch 22 is for monitoring the sound generation by the performance data from the performance terminal 2 with the switch 22 turned on, and the teacher can listen to the performance through the speaker 63 and headphones (not shown).

合奏スイッチ23は、生徒が、自分の演奏と他の生徒の演奏との合奏音を聞くことができるように設けられる。合奏スイッチ23がオンになっている演奏端末2からの演奏データによって楽音発生端末1で形成された楽音データは互いに加算されて該演奏端末2に送信される。   The ensemble switch 23 is provided so that the student can hear the ensemble sound of his / her performance and the performance of another student. The musical sound data formed at the musical sound generating terminal 1 by the performance data from the performance terminal 2 whose ensemble switch 23 is turned on are added together and transmitted to the performance terminal 2.

自己演奏スイッチ24は、このスイッチ24をオンにしている演奏端末2からの演奏データのみが有効になって楽音発生端末1で処理されるもので、このスイッチ24をオンにしていない演奏端末2からの演奏データは無視される。   The self-playing switch 24 is one in which only the performance data from the performance terminal 2 with the switch 24 turned on is validated and processed by the musical sound generating terminal 1, and from the performance terminal 2 with the switch 24 not turned on. The performance data of is ignored.

図14における各スイッチの状態(黒丸はオン、白丸はオフ)によれば、マイクスイッチ21は全てオンなので、教師の音声はマイク20を通して全生徒の演奏端末2に届く。合奏スイッチ23は2番および4番の演奏端末2のみについてオンになっているので、2番および4番の演奏端末2の生徒は互いに両生徒の演奏を合奏として聞くことができる。また、自己演奏スイッチ24は全ての演奏端末2を選択しているので、2番および4番の演奏端末の生徒以外の生徒は自分の演奏のみを聞くことができる。したがって、2番および4番のみの合奏を評価したいときに、他の生徒が演奏をしても、その音は2番および4番の生徒の合奏に影響しない。また、モニタスイッチ22は2番の演奏端末2のみを選択しているので、教師は2番の演奏のみをモニタしている状況である。   According to the state of each switch in FIG. 14 (black circle is on, white circle is off), since all the microphone switches 21 are on, the teacher's voice reaches the performance terminals 2 of all students through the microphone 20. Since the ensemble switch 23 is turned on only for the performance terminals 2 and 4, the students of the performance terminals 2 and 4 can hear each other's performance as an ensemble. In addition, since all the performance terminals 2 are selected by the self-performance switch 24, students other than the students of the performance terminals 2 and 4 can listen only to their performance. Accordingly, when it is desired to evaluate the second and fourth ensembles, even if other students perform, the sound does not affect the second and fourth students. Further, since the monitor switch 22 selects only the second performance terminal 2, the teacher is monitoring only the second performance.

図15は、図14に示した操作パネル4の要部機能を示すブロック図である。図15において、A/D変換器25が設けられ、マイクスイッチ(SW1)21がオンの間、マイク20からの入力音声信号はこのA/D変換器25でデジタル変換されて加算器26に入力される。   FIG. 15 is a block diagram showing the main functions of the operation panel 4 shown in FIG. In FIG. 15, while an A / D converter 25 is provided and the microphone switch (SW 1) 21 is on, an input audio signal from the microphone 20 is digitally converted by the A / D converter 25 and input to the adder 26. Is done.

自己演奏スイッチ(SW4)24で選択されている演奏端末2からの演奏データが回線12を経由して音源5に入力される。音源5は演奏データに基づいて楽音データを生成する。音源5からは、モニタスイッチ(SW2)22がオンになっている演奏端末2の演奏データによる楽音データがモニタ信号Moutとして出力される。モニタスイッチ(SW2)22がオンになっている全ての演奏端末2からの演奏データに基づくモニタ信号Moutが加算されて前記サウンドシステム6のD/A変換器61に入力される。この加算はD/A変換器61の出力側で行ってもよい。   Performance data from the performance terminal 2 selected by the self performance switch (SW4) 24 is input to the sound source 5 via the line 12. The sound source 5 generates musical tone data based on the performance data. The tone generator 5 outputs musical tone data based on the performance data of the performance terminal 2 whose monitor switch (SW2) 22 is turned on as the monitor signal Mout. Monitor signals Mout based on performance data from all performance terminals 2 for which the monitor switch (SW2) 22 is turned on are added and input to the D / A converter 61 of the sound system 6. This addition may be performed on the output side of the D / A converter 61.

音源5で生成された楽音データEoutは、合奏スイッチ(SW3)23を介して合成部26へ出力される。合成部26は、合奏スイッチ(SW3)23がオンになっている演奏端末2の楽音データを互いに加算(好ましくはデジタル加算)して、合成楽音データEinを出力する。合成楽音データEinは、デジタル変換されたマイク20からの前記入力音声信号に加算器26で加算されてパケット生成部28でパケット化され、さらに転送ユニット29を介して回線12に送出される。   The musical sound data Eout generated by the sound source 5 is output to the synthesizing unit 26 via the ensemble switch (SW3) 23. The synthesizer 26 adds (preferably digitally) the musical tone data of the performance terminals 2 whose ensemble switch (SW3) 23 is turned on to output synthesized musical tone data Ein. The synthesized musical sound data Ein is added to the input audio signal from the digitally converted microphone 20 by the adder 26, packetized by the packet generator 28, and sent to the line 12 via the transfer unit 29.

音源5からの出力はスイッチ(SW2)22およびスイッチ(SW3)23の状態にかかわらず回線12に常時送出される。したがって、音源5からのこの出力が加算器27で合成楽音データEinに加算されて二重加算になるのを防止するため、減算器30を介して予め音源5から直接送出される楽音データを除くようにしている。   The output from the sound source 5 is always sent to the line 12 regardless of the state of the switch (SW2) 22 and the switch (SW3) 23. Therefore, in order to prevent this output from the sound source 5 from being added to the synthesized musical sound data Ein by the adder 27 and resulting in double addition, the musical sound data directly transmitted from the sound source 5 in advance via the subtractor 30 is excluded. I am doing so.

減算器30は音源5の出力を常時回線12に送出するため加算器27を設けたために必要となるのであり、同様の機能は減算器30によらずに果たすこともできる。例えば、音源5の出力を合奏スイッチ(SW3)23の逆の論理で出力し、合成楽音データEinをそのまま加算器27に入力してもよい(図16参照)。図16において、スイッチSW3'(スイッチ23a)は合奏スイッチ(SW3)23の逆論理スイッチを示す。   The subtractor 30 is necessary because the adder 27 is provided to constantly send the output of the sound source 5 to the line 12, and the same function can be achieved without using the subtractor 30. For example, the output of the sound source 5 may be output with the reverse logic of the ensemble switch (SW3) 23, and the synthesized musical sound data Ein may be input to the adder 27 as it is (see FIG. 16). In FIG. 16, a switch SW3 ′ (switch 23a) is an inverse logic switch of the ensemble switch (SW3) 23.

図17は、スイッチ21〜24の、他の状態を示す図である。この図のスイッチの状態によれば、合奏スイッチ23は全ての生徒の分がオンになっているので、全ての生徒は楽音データを受け取って再生できる。しかし、自己演奏スイッチ24は2番と4番の生徒の分しかオンになっていないので、演奏データはこれら2番および4番の生徒の演奏端末2の分しか有効にならない。したがって、これら2番と4番の生徒の演奏が合奏されるだけであり、その他の生徒もこの合奏音を聴けることになる。自己演奏スイッチ24の機能により、いたずらや誤りによって2番および4番以外の生徒が演奏してもそれは無視され、合奏に反映されないという効果がある。   FIG. 17 is a diagram illustrating another state of the switches 21 to 24. According to the state of the switch in this figure, the ensemble switch 23 is turned on for all students, so that all students can receive and reproduce musical tone data. However, since the self-performance switch 24 is turned on only for the second and fourth students, the performance data is only valid for the performance terminals 2 of the second and fourth students. Therefore, only the performances of the students No. 2 and No. 4 are ensembled, and other students can listen to the ensemble sound. The function of the self-play switch 24 has the effect that even if a student other than No. 2 and No. 4 plays due to mischief or mistake, it is ignored and not reflected in the ensemble.

なお、操作パネル4上のスイッチの構成は上記実施例に限定されない。例えば、合奏スイッチ23は省略してもよい。また、合奏スイッチ23を省略するとともに、合奏および独奏の選択スイッチを一つ設け、この選択スイッチによって合奏か独奏かを選択できるようにする。この場合、合奏端末として選択された演奏端末のみが自らの演奏を含む合奏音を聞くことができる。   The configuration of the switch on the operation panel 4 is not limited to the above embodiment. For example, the ensemble switch 23 may be omitted. Also, the ensemble switch 23 is omitted, and one ensemble and solo selection switch is provided so that the selection of the ensemble or solo can be selected. In this case, only the performance terminal selected as the ensemble terminal can hear the ensemble sound including its own performance.

次に、楽音データの通信エラーを補正する装置について説明する。インタネットプロトコルを使って行われるパケット通信では、データに誤りが含まれることがある。また、パケットが送出順に着信しないこと(遅着)があったり、パケットが着信しないこと(不着)があったりする。   Next, a device for correcting a communication error in music data will be described. In packet communication performed using the Internet protocol, data may contain errors. In addition, packets may not arrive in the order of transmission (late arrival), or packets may not arrive (non-arrival).

そこで、本実施形態では、パケットの遅着、不着およびデータの誤りに対して次のように対処する。まず、発音タイミングまでに当該パケットが到着しないときには遅着および不着のいずれの場合も不着とみなして、そのタイミング以後に到着してもそのパケットは廃棄する。不着に対してパケットの再送は要求しない。そして、廃棄したパケットに代えて、直前のパケットをループして発音させる。再送を要求しないのは、再送要求に応答してパケットが再送されてくるまで待っていては発音が途切れるからである。   Therefore, in the present embodiment, the following countermeasures are taken against packet late arrival, non-arrival, and data error. First, when the packet does not arrive by the sound generation timing, it is regarded as non-arrival for both late arrival and non-arrival, and the packet is discarded even if it arrives after that timing. No packet retransmission is requested for non-delivery. Then, instead of the discarded packet, the previous packet is looped and sounded. The reason for not requesting retransmission is that the sound is interrupted if the packet is retransmitted in response to the retransmission request.

直前のパケットを使用するために、まず、前提として、発音は常に1パケット分遅延させて行う。したがって、不着とみなされた時点で直前のパケットが到着しているが、発音はまだ実行されていない。直前のパケットによる発音を開始するまでに該パケットが到着しなかったら、直前のパケットを自己ループして発音し、不着パケットに代えて発音する。そして、次のパケットが到着したら、ループしている直前のパケットとこの到着パケットとをクロスフェードして発音する。   In order to use the immediately preceding packet, first, as a premise, sound generation is always performed with a delay of one packet. Therefore, the previous packet has arrived when it is regarded as non-delivery, but sound generation has not yet been performed. If the packet does not arrive by the start of sound generation by the immediately preceding packet, the immediately preceding packet is sounded by self-looping and is sounded instead of the non-delivery packet. When the next packet arrives, the packet immediately before looping and the arrival packet are cross-faded and sounded.

図を参照して不着時の処理を説明する。図18は、不着時処理の要部機能を示すブロック図である。なお、この図では、理解の容易のため、パケットとパケットに収容された楽音データは同義として扱う。受信されたパケットは到着順にバッファ31に蓄積され、パケットは読み出し部32で到着順に分解されて発音に供するためD/A変換器61に入力される。判別部33は、発音開始時にその発音に供しているパケットの次のパケットが不着かどうかを判別する。そして、不着のときは後述するように第1演算手段としての第1クロスフェード部34で楽音データをクロスフェードし、不着パケットに代える。第1クロスフェード部34で演算された楽音データによる発音開始時に後続パケットが到着していることを判別部33で判別したときには、後述するように第2クロスフェード部35で楽音データをクロスフェードし、後続パケットに代える。   The process at the time of non-delivery is demonstrated with reference to a figure. FIG. 18 is a block diagram illustrating main functions of the non-delivery process. In this figure, for easy understanding, the packet and the musical sound data contained in the packet are treated as synonymous. The received packets are stored in the buffer 31 in the order of arrival, and the packets are decomposed in the order of arrival by the reading unit 32 and input to the D / A converter 61 for sound generation. The discriminating unit 33 discriminates whether or not the packet next to the packet used for the sound generation at the start of sound generation is non-delivery. When not arrived, the musical sound data is cross-faded by the first cross-fade unit 34 as the first calculating means, as will be described later, and replaced with a non-arrival packet. When the determination unit 33 determines that the subsequent packet has arrived at the start of sound generation based on the musical sound data calculated by the first crossfade unit 34, the second crossfade unit 35 crossfades the musical sound data as will be described later. Instead of the subsequent packet.

図18の例では、先行パケットp[j−1]、現パケットp[j]、後続パケットp[y]が到着している。現パケットp[j]と後続パケットp[y]との間に到着するはずのパケットp[j+1]およびp[j+2]が到着していない。   In the example of FIG. 18, the preceding packet p [j-1], the current packet p [j], and the succeeding packet p [y] have arrived. The packets p [j + 1] and p [j + 2] that should arrive between the current packet p [j] and the subsequent packet p [y] have not arrived.

ここで、現パケットp[j]が発音処理開始されているものとする。この現パケットp[j]による発音開始時にその次のパケットp[j+1]が到着しているか否かが判別部33で判別される。ここでパケットp[j+1]が到着していないときは、第1クロスフェード部34によって先行パケットp[j−1]および現パケットp[j]をクロスフェードさせてパケットp[x]を得る。パケットp[j]の発音が終わると、クロスフェードして得られたパケットp[x]をパケットp[j+1]の楽音データに代えて使用し、楽音を発生させる。   Here, it is assumed that the current packet p [j] has started sound generation processing. The determination unit 33 determines whether or not the next packet p [j + 1] has arrived at the start of sound generation by the current packet p [j]. Here, when the packet p [j + 1] has not arrived, the first crossfade unit 34 crossfades the preceding packet p [j-1] and the current packet p [j] to obtain the packet p [x]. When the sound of the packet p [j] is finished, the packet p [x] obtained by crossfading is used in place of the musical sound data of the packet p [j + 1] to generate a musical sound.

そして、このパケットp[x]による発音開始時にパケットp[j+2]が到着しているか否かが判断され、不着時はパケットp[x]を再度ループさせる。さらにこのループの開始時に、後続パケットp[y]の到着有無を判断する。ここでは、後続パケットp[y]が到着しているので、判別部33は第2クロスフェード部35によって現在ループ中のパケットp[x]および後続パケットp[y]をクロスフェードさせ、このクロスフェードされたパケットを後続パケットp[y]に代えて使用し、発音させる。このように、楽音データをクロスフェードして代替の楽音データを作成することによって、本来連続していない楽音データを連続性をもったものにする。   Then, it is determined whether or not the packet p [j + 2] has arrived at the start of sound generation by the packet p [x], and when it does not arrive, the packet p [x] is looped again. Further, at the start of this loop, it is determined whether or not the subsequent packet p [y] has arrived. Here, since the subsequent packet p [y] has arrived, the determination unit 33 causes the second crossfading unit 35 to crossfade the packet p [x] and the subsequent packet p [y] currently in the loop, and this cross The faded packet is used in place of the succeeding packet p [y] to generate sound. In this way, the musical sound data is cross-faded to create alternative musical sound data, thereby making the musical sound data that is not originally continuous have continuity.

図19は、不着処理つまり発音タイミングまでにパケットが到着しなかったときのクロスフェード処理に係るフローチャートである。ステップS90では、楽音データのパケット内のサンプル番号を示す変数iに「0」をセットする。サンプル数つまり変数iの最大値はnである。ステップS91では、不着パケットの直前パケットp[j]より一つ前のパケット[j−1]のサンプル番号iに対応する振幅として値aをセットする。ステップS92では、サンプル番号iとサンプル数n(例えば「256個」)との比の値i/nを振幅aに乗算して新たに振幅aとしてセットする。ステップS93では、直前パケット[j]のサンプル番号iに対応する振幅を示す値bとしてセットする。ステップS94では、補数「1−i/n]を振幅bに乗算して新たに振幅bとしてセットする。ステップS95では、クロスフェードされたパケットp'のサンプル番号iの振幅として「a+b」をセットする。ステップS96では、サンプル番号iを更新(+1)してその値iがサンプル数nに等しいか否かによってn個のサンプルを処理したかどうかが判断される。サンプル番号iがサンプル数nと等しくなるまでステップS91に進み、サンプル番号iがサンプル数nと等しくなればステップS97に進んで、クロスフェードモードであることを示すフラグxfmodeに「1」をセットする。フラグxfmodeの初期値は「0」である。   FIG. 19 is a flowchart related to the non-delivery process, that is, the crossfade process when the packet does not arrive by the sound generation timing. In step S90, "0" is set to the variable i indicating the sample number in the packet of musical sound data. The maximum number of samples, that is, the variable i is n. In step S91, the value a is set as the amplitude corresponding to the sample number i of the packet [j-1] immediately before the packet p [j] immediately before the non-arrival packet. In step S92, the amplitude a is multiplied by the value i / n of the ratio between the sample number i and the number of samples n (for example, “256”) to set a new amplitude a. In step S93, it is set as a value b indicating the amplitude corresponding to the sample number i of the immediately preceding packet [j]. In step S94, the complement “1-i / n” is multiplied by the amplitude b and set as a new amplitude b. In step S95, “a + b” is set as the amplitude of the sample number i of the crossfade packet p ′. To do. In step S96, the sample number i is updated (+1), and whether or not n samples have been processed is determined based on whether or not the value i is equal to the number of samples n. The process proceeds to step S91 until the sample number i is equal to the number of samples n. If the sample number i is equal to the number of samples n, the process proceeds to step S97, and the flag xfmode indicating the crossfade mode is set to “1”. . The initial value of the flag xfmode is “0”.

図20は、パケットを受信したときの受信処理のフローチャートである。ステップS100では、受信したパケットが、不着とみなされて廃棄されたのものかどうかを判断する。廃棄されたものであれば、このフローチャートはスルーされる。ステップS101では、フラグxfmodeが判別される。フラグxfmodeが「0」ならば、正常な受信であると判断してステップS102に進み、パリティエラーの有無を判断する。パリティエラーが発生しているときは、ステップS103で、エラーのあるサンプルの直前および直後のサンプル間で補間値をとり、その補間値をエラーのあるサンプルに代えて使用する。そして、ステップS104に進む。ステップS103のサンプル補間は、エラーのあるデータの前後のパリティエラーがないときは省略される。ステップS104では、受信したパケットを保存する。ステップS101でフラグxfmodeが「1」と判別されたときは、ステップS105に進み、復帰処理のために受信したパケットを復帰処理部に転送する。   FIG. 20 is a flowchart of reception processing when a packet is received. In step S100, it is determined whether or not the received packet is regarded as non-delivery and discarded. If it has been discarded, this flowchart is bypassed. In step S101, the flag xfmode is determined. If the flag xfmode is “0”, it is determined that the reception is normal, and the process proceeds to step S102 to determine whether there is a parity error. If a parity error has occurred, in step S103, an interpolation value is taken between samples immediately before and after the error sample, and the interpolation value is used in place of the error sample. Then, the process proceeds to step S104. The sample interpolation in step S103 is omitted when there is no parity error before and after the erroneous data. In step S104, the received packet is stored. When the flag xfmode is determined to be “1” in step S101, the process proceeds to step S105, and the received packet is transferred to the return processing unit for the return process.

図21は、発音処理のフローチャートである。ステップS110では、発音すべきパケットの有無を判別して、パケットがある場合はステップS111に進む。ステップS111では、次のパケットが到着しているか否かを判断する。次のパケットも到着している場合は、ステップS112に進んでフラグxfmodeを判別する。フラグxfmodeが「1」であれば、ステップS113に進んで次のパケットの復帰処理を行ってステップS114に進み、復帰処理が行われたパケットの楽音データを、発音のためD/A変換器61に転送する。フラグxfmodeが「0」であれば、ステップS113の復帰処理をスキップしてステップS114に進み、先頭パケットの楽音データを、発音のためD/A変換器61に転送する。   FIG. 21 is a flowchart of the sound generation process. In step S110, it is determined whether there is a packet to be sounded. If there is a packet, the process proceeds to step S111. In step S111, it is determined whether the next packet has arrived. If the next packet has also arrived, the process proceeds to step S112 to determine the flag xfmode. If the flag xfmode is “1”, the process proceeds to step S113, the next packet is restored, and the process proceeds to step S114. The musical tone data of the packet subjected to the restoration process is converted into a D / A converter 61 for sound generation. Forward to. If the flag xfmode is “0”, the return process of step S113 is skipped and the process proceeds to step S114, where the musical sound data of the first packet is transferred to the D / A converter 61 for sound generation.

次のパケットが到着していないときは、ステップS111からステップS115に進む。ステップS115では、不着イベントとして、不着処理でクロスフェードされたパケットを読み出す。ステップS114では、ステップS115で読み出されたパケットの楽音データを発音のためD/A変換器61に転送する。   When the next packet has not arrived, the process proceeds from step S111 to step S115. In step S115, as a non-arrival event, the packet that has been crossfade in the non-delivery process is read. In step S114, the musical tone data of the packet read in step S115 is transferred to the D / A converter 61 for sound generation.

図22は、復帰処理のフローチャートである。ステップS120では、楽音データのパケット内のサンプル番号を示す変数iに「0」をセットする。サンプル数つまり変数iの最大値はnである。ステップS121では、ループしているパケットp[x]のサンプル番号iに対応する振幅として値aをセットする。ステップS122では、サンプル番号iとサンプル数n(例えば「256個」)との比の値i/nを振幅aに乗算して新たに振幅aとしてセットする。ステップS123では、到着パケット[y]のサンプル番号iに対応する振幅を示す値bとしてセットする。ステップS124では、補数「1−i/n]を振幅bに乗算して新たに振幅bとしてセットする。ステップS125では、クロスフェードされたパケットp'のサンプル番号iの振幅として「a+b」をセットする。ステップS126では、サンプル番号iを更新(+1)してその値iがサンプル数nに等しいか否かによってn個のサンプルを処理したかどうかが判断される。サンプル番号iがサンプル数nと等しくなるまでステップS121に進み、サンプル番号iがサンプル数nと等しくなればステップS127に進んで、クロスフェードモードが終了したことを示すためフラグxfmodeに「0」をセットする。   FIG. 22 is a flowchart of the return process. In step S120, "0" is set to a variable i indicating the sample number in the musical sound data packet. The maximum number of samples, that is, the variable i is n. In step S121, the value a is set as the amplitude corresponding to the sample number i of the packet p [x] being looped. In step S122, the value i / n of the ratio between the sample number i and the number of samples n (for example, “256”) is multiplied by the amplitude a to set a new amplitude a. In step S123, a value b indicating the amplitude corresponding to the sample number i of the arrival packet [y] is set. In step S124, the complement “1-i / n” is multiplied by the amplitude b and set as a new amplitude b. In step S125, “a + b” is set as the amplitude of the sample number i of the crossfade packet p ′. To do. In step S126, it is determined whether or not n samples have been processed based on whether or not the sample number i is updated (+1) and the value i is equal to the number of samples n. The process proceeds to step S121 until the sample number i is equal to the number of samples n. If the sample number i is equal to the number of samples n, the process proceeds to step S127, and “0” is set in the flag xfmode to indicate that the crossfade mode has ended. set.

なお、パリティエラーのあったサンプルを、直前のサンプルと直後のサンプルとの間の補間値に置き換えるのに代えて、次のように処置をしてもよい。例えば、誤りのあったパケットを廃棄する。また、誤りの個数が予定値以下ならば、補間値を使うようにし、誤りの個数が予定値以上ならばパケットを廃棄するようにして両者を使い分けることもできる。さらに、パリティデータの量を増やして、誤りデータを論理的に回復するようにしてもよい。   Instead of replacing the sample having the parity error with an interpolation value between the immediately preceding sample and the immediately following sample, the following treatment may be performed. For example, an erroneous packet is discarded. Further, if the number of errors is less than or equal to the predetermined value, an interpolation value can be used, and if the number of errors is greater than or equal to the predetermined value, the packets can be discarded. Further, the error data may be logically recovered by increasing the amount of parity data.

以上、本発明を実施形態に従って説明したが、本発明はこれに限定されない。例えば、楽音発生端末から操作パネルや鍵盤を除いてもよい。要は、演奏データを作成して送出できる演奏端末からネットワークを経由して送出した演奏端末に基づいて作成された楽音データがネットワークを経由して同じ演奏端末で受信・発音できればよい。   While the present invention has been described according to the embodiment, the present invention is not limited to this. For example, the operation panel or keyboard may be removed from the musical sound generating terminal. In short, it is only necessary that the musical sound data generated based on the performance terminal transmitted via the network from the performance terminal capable of generating and transmitting the performance data can be received and produced by the same performance terminal via the network.

1…楽音発生端末、 2…演奏端末鍵盤、 4,9…操作パネル、 5…音源、 6、10…サウンドシステム、 7,11…制御部、 12…LAN、 20…マイクロフォン、 21…マイクスイッチ、 22…モニタスイッチ、 23…合奏スイッチ、 24…自己演奏スイッチ、 31…バッファ、 33…判別部、 34…第1クロスフェード部、 35…第2クロスフェード部 DESCRIPTION OF SYMBOLS 1 ... Musical sound generation terminal, 2 ... Performance terminal keyboard, 4, 9 ... Operation panel, 5 ... Sound source, 6, 10 ... Sound system, 7, 11 ... Control part, 12 ... LAN, 20 ... Microphone, 21 ... Microphone switch, 22 ... Monitor switch, 23 ... Ensemble switch, 24 ... Self-play switch, 31 ... Buffer, 33 ... Discrimination part, 34 ... First cross-fade part, 35 ... Second cross-fade part

Claims (2)

ネットワークを経由して演奏端末から演奏データを受信し、該演奏データに基づく楽音データを発生し、該楽音データを、前記ネットワークを経由して前記演奏端末に送信する電子楽器演奏システムの楽音発生端末において、
前記演奏端末から送信された宛先アドレスを受信する受信手段と、
前記受信手段が受信した宛先アドレスが個別の送信先を示さない広域アドレスかどうかを検出する検出手段と、
前記検出手段が検出した広域アドレスを送信した演奏端末に対してアドレスを割り当てる割り当て手段と、
前記割り当て手段が割り当てたアドレスを前記ネットワークに送出する送出手段とを備えていることを特徴とする電子楽器演奏システムの楽音発生端末。
A musical sound generating terminal of an electronic musical instrument performance system that receives performance data from a performance terminal via a network, generates musical sound data based on the performance data, and transmits the musical sound data to the performance terminal via the network In
Receiving means for receiving a destination address transmitted from the performance terminal;
Detecting means for detecting whether the destination address received by the receiving means is a wide area address not indicating an individual destination; and
Assigning means for assigning an address to a performance terminal that has transmitted the wide-area address detected by the detecting means;
A musical sound generating terminal for an electronic musical instrument performance system, comprising: sending means for sending the address assigned by the assigning means to the network.
ネットワークを経由して演奏者による演奏データを楽音発生端末に送信し、前記ネットワークを経由して前記演奏データに基づいて前記楽音発生端末で発生された楽音データを受信して発音する電子楽器演奏システムの演奏端末において、
前記演奏端末の立ち上げ時に、個別に送信先を示さない広域アドレスを用いてアドレス要求を前記ネットワークに送信する送信手段と、
前記アドレス要求に応じてネットワークに送出されたアドレスを受信する受信手段と、
前記受信したアドレスを宛先アドレスとして前記演奏データを前記ネットワークに送出する送出手段とを備えていることを特徴とする電子楽器演奏システムの演奏端末。
An electronic musical instrument performance system for transmitting performance data by a performer to a musical tone generation terminal via a network, and receiving and generating musical tone data generated at the musical tone generation terminal based on the performance data via the network In the performance terminal of
A transmission means for transmitting an address request to the network using a wide-area address that does not individually indicate a transmission destination when starting the performance terminal;
Receiving means for receiving an address sent to the network in response to the address request;
A performance terminal for an electronic musical instrument performance system, comprising: transmission means for transmitting the performance data to the network using the received address as a destination address.
JP2010090040A 2010-04-09 2010-04-09 Musical sound generating terminal and performance terminal of electronic musical instrument performance system Pending JP2010191458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010090040A JP2010191458A (en) 2010-04-09 2010-04-09 Musical sound generating terminal and performance terminal of electronic musical instrument performance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010090040A JP2010191458A (en) 2010-04-09 2010-04-09 Musical sound generating terminal and performance terminal of electronic musical instrument performance system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008234739A Division JP4557267B2 (en) 2008-09-12 2008-09-12 Electronic musical instrument performance system

Publications (1)

Publication Number Publication Date
JP2010191458A true JP2010191458A (en) 2010-09-02

Family

ID=42817488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010090040A Pending JP2010191458A (en) 2010-04-09 2010-04-09 Musical sound generating terminal and performance terminal of electronic musical instrument performance system

Country Status (1)

Country Link
JP (1) JP2010191458A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285370A (en) * 2000-04-04 2001-10-12 Matsushita Electric Ind Co Ltd Remote access server apparatus and dhcp server apparatus
JP2001292135A (en) * 2000-04-07 2001-10-19 Matsushita Electric Ind Co Ltd Key exchange system
JP2002314549A (en) * 2001-04-18 2002-10-25 Nec Corp User authentication system and user authentication method used for the same
JP2002328860A (en) * 2001-02-09 2002-11-15 Seiko Epson Corp Data transfer system, portable terminal, transfer origin terminal, transfer destination terminal, program for terminal, and data transfer method
JP2003216148A (en) * 2002-01-18 2003-07-30 Yamaha Corp Electronic music apparatus and program for the same
JP2003233384A (en) * 2002-02-12 2003-08-22 Yamaha Corp Musical sound generating method of network automatic playing system and automatic playing device
JP2004094163A (en) * 2002-09-04 2004-03-25 Megafusion Corp Network sound system and sound server

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285370A (en) * 2000-04-04 2001-10-12 Matsushita Electric Ind Co Ltd Remote access server apparatus and dhcp server apparatus
JP2001292135A (en) * 2000-04-07 2001-10-19 Matsushita Electric Ind Co Ltd Key exchange system
JP2002328860A (en) * 2001-02-09 2002-11-15 Seiko Epson Corp Data transfer system, portable terminal, transfer origin terminal, transfer destination terminal, program for terminal, and data transfer method
JP2002314549A (en) * 2001-04-18 2002-10-25 Nec Corp User authentication system and user authentication method used for the same
JP2003216148A (en) * 2002-01-18 2003-07-30 Yamaha Corp Electronic music apparatus and program for the same
JP2003233384A (en) * 2002-02-12 2003-08-22 Yamaha Corp Musical sound generating method of network automatic playing system and automatic playing device
JP2004094163A (en) * 2002-09-04 2004-03-25 Megafusion Corp Network sound system and sound server

Similar Documents

Publication Publication Date Title
US9602388B2 (en) Session terminal apparatus and network session system
JP4940956B2 (en) Audio transmission system
JPH08274812A (en) Voice communication system
Carôt et al. Network music performance-problems, approaches and perspectives
JP2006330533A (en) Electronic musical instrument
JP3852348B2 (en) Playback and transmission switching device and program
WO2017150064A1 (en) System, control method, control terminal, and program
JP4259329B2 (en) Performance device and ensemble system
JP2005292655A (en) Performance system of electronic musical instrument
JP4557267B2 (en) Electronic musical instrument performance system
JP2010191458A (en) Musical sound generating terminal and performance terminal of electronic musical instrument performance system
JP5966531B2 (en) COMMUNICATION SYSTEM, TERMINAL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM
US6525253B1 (en) Transmission of musical tone information
JP2008097096A (en) Server device and communication session establishment method
JP4214917B2 (en) Performance system
JP2022552893A (en) wireless midi headset
JP2008309928A (en) Karaoke system, music piece distribution device and program
JP2008096462A (en) Concert system and personal digital assistant
JP2010221945A (en) Signal processing method, signal processing device, and signal processing program
JP2006333051A (en) Voice distribution apparatus, voice distribution system, and program
JP6686756B2 (en) Electronic musical instrument
JP4131678B2 (en) Performance data communication system
JPH02257749A (en) Music broadcast system
JP2004093975A (en) Communication terminal and program
CN116741124A (en) Sound processing system and sound processing method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120613