JP2006284796A - Musical sound signal transmitting terminal and musical sound signal receiving terminal - Google Patents

Musical sound signal transmitting terminal and musical sound signal receiving terminal Download PDF

Info

Publication number
JP2006284796A
JP2006284796A JP2005103137A JP2005103137A JP2006284796A JP 2006284796 A JP2006284796 A JP 2006284796A JP 2005103137 A JP2005103137 A JP 2005103137A JP 2005103137 A JP2005103137 A JP 2005103137A JP 2006284796 A JP2006284796 A JP 2006284796A
Authority
JP
Japan
Prior art keywords
musical
parameter
sound
waveform
attack
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005103137A
Other languages
Japanese (ja)
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005103137A priority Critical patent/JP2006284796A/en
Publication of JP2006284796A publication Critical patent/JP2006284796A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To transmit the performance sound of a non-MIDI musical instrument, by reducing the amount of information to be transferred so that the features of the performance sound will not be lost, and moreover, the delays in the performance sound will be small. <P>SOLUTION: In a musical sound signal transmitting terminal 1, sound production of a musical instrument is collected by a microphone 12 to be outputted as a musical sound signal, and rising of the musical sound signal outputted from the microphone 12 is detected. When the rising is detected, a control part 10 reads an attack time W from a non-volatile storage part 11b and starts a time counting and converts the musical sound signal into audio data. Next, the part 10 transmits sampled audio data to a terminal 2. When the attack time W is finished, the part 10 generates a MIDI signal including a parameter instructing the same pitch as in the audio data to transmit the MIDI signal to the terminal 2 instead of the audio data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、楽器の演奏音を集音し、ネットワークを介して送受信する技術に関する。   The present invention relates to a technique for collecting performance sounds of musical instruments and transmitting / receiving them via a network.

ネットワークを介して合奏を行うネットセッションと呼ばれる演奏形態が普及しつつある。この場合、自然楽器の音をデジタル信号化してオーディオデータとして伝送したり、あるいは電子楽器から出力されるMIDI(Musical Instrument Digital Interface)信号を伝送したりすることが一般的である。
特許文献1においては、音楽指導を行うシステムにおいて、教師と生徒間の通信を行う際に、マイクによって集音した音声や楽器音についてはオーディオデータで通信を行い、電子楽器の演奏についてはMIDI信号で通信を行っている。
特開2003−255935号公報
A performance form called a net session in which an ensemble is performed via a network is becoming widespread. In this case, the sound of a natural musical instrument is generally converted into a digital signal and transmitted as audio data, or a MIDI (Musical Instrument Digital Interface) signal output from an electronic musical instrument is generally transmitted.
In Patent Document 1, in a system for performing music instruction, when communication between a teacher and students is performed, voice data collected by a microphone and musical instrument sound are communicated by audio data, and an electronic musical instrument performance is transmitted by a MIDI signal. We are communicating with.
JP 2003-255935 A

ところで、ネットワークにおけるデータ伝送は、端末の処理速度の問題、トラフィック増加の問題あるいはネットワークの遅延などの問題を考慮した場合、データ量を減らすことが重要である。この場合、MIDI信号による通信を行った方が、オーディオデータによる通信を行う場合にくらべ、データ量は圧倒的に少ない。
しかしながら、MIDI信号を出力できるのは、電子楽器やMIDI機器だけであるから、自然楽器の楽音を伝送しようとした場合は、特許文献1に示されるようにオーディオデータを用いて通信を行うしかなかった。また、オーディオデータのサンプリング周波数を低くしたり、圧縮技術によってデータ量を削減したりすることもできるが、この場合には、自然楽器特有の音色を忠実に伝送することできず、楽音品質が著しく低下してしまうという問題があった。
By the way, in the data transmission in the network, it is important to reduce the data amount in consideration of the problem of the processing speed of the terminal, the problem of the traffic increase or the network delay. In this case, the amount of data is overwhelmingly smaller when performing communication using MIDI signals than when performing communication using audio data.
However, since only an electronic musical instrument or a MIDI device can output a MIDI signal, it is only possible to communicate using audio data as disclosed in Patent Document 1 when attempting to transmit musical sounds of a natural musical instrument. It was. In addition, the sampling frequency of audio data can be lowered or the amount of data can be reduced by compression technology. In this case, however, the tone quality peculiar to natural instruments cannot be faithfully transmitted, and the tone quality is remarkably high. There was a problem of being lowered.

この発明は上述した事情に鑑みてなされたもので、MIDI信号を出力できない自然楽器等の楽音を伝送する際に、楽音の品質を保ちつつ、データ量を削減することができる楽音信号送信端末を提供することを目的とする。   The present invention has been made in view of the above-described circumstances. When transmitting a musical tone such as a natural musical instrument that cannot output a MIDI signal, a musical tone signal transmitting terminal capable of reducing the data amount while maintaining the quality of the musical tone is provided. The purpose is to provide.

上記課題を解決するため、本発明は、楽器から放音される楽音が入力されるとこれを楽音信号として出力する入力手段と、前記入力手段が出力する楽音信号に対し、波形の立ち上がりから所定の範囲をアタック部として抽出するアタック部抽出手段と、前記入力手段が出力する楽音信号のピッチを検出するピッチ検出手段と、前記入力手段が出力する楽音信号の消音時点を検出する消音検出手段と、ネットワークを介して信号の授受を行う通信手段と、前記ピッチ検出手段が検出したピッチと同じピッチを指示するピッチパラメータ、前記アタック部の終了時点を楽音の発音タイミングとして指示する発音タイミングパラメータおよび前記消音検出手段が検出した消音時点を消音タイミングとして指示する消音タイミングパラメータを生成するパラメータ生成手段と、前記入力手段に入力された一の楽音について、前記アタック部抽出手段が抽出した波形信号を波形データに変換して前記通信手段を用いて送信させるとともに、当該波形データの送信に続いて前記パラメータ生成手段が生成したピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータを送信させる送信制御手段とを具備することを特徴とする楽音信号送信端末を提供する。   In order to solve the above-mentioned problems, the present invention provides an input means for outputting a musical sound emitted from a musical instrument as a musical sound signal when the musical sound is input, and a predetermined tone from the rising edge of the waveform for the musical sound signal output by the input means. An attack part extracting means for extracting the range of the musical sound signal output from the input means, a pitch detecting means for detecting the pitch of the musical sound signal output from the input means, A communication means for exchanging signals via a network, a pitch parameter for instructing the same pitch as the pitch detected by the pitch detection means, a sounding timing parameter for instructing an end point of the attack unit as a sounding sounding timing, and the above A mute timing parameter is generated that indicates the mute timing detected by the mute detection means as the mute timing. For the one tone input to the parameter generation means and the input means, the waveform signal extracted by the attack section extraction means is converted into waveform data and transmitted using the communication means, and the waveform data is transmitted. Subsequently, there is provided a musical sound signal transmitting terminal comprising transmission control means for transmitting the pitch parameter, sound generation timing parameter and mute timing parameter generated by the parameter generating means.

本発明の好ましい態様において、前記アタック抽出部における前記所定の部分は、前記波形の立ち上がり時から予め定められた所定の区間であるようにしてもよい。
また、本発明の別の好ましい態様において、前記アタック抽出部は、前記波形のレベルが立ち上がり時のピークから所定量下回る時点をアタック終了点として検出し、前記波形の立ち上がりからアタック終了点までをアタック部として抽出するようにしてもよい。
また、本発明の別の好ましい態様において、前記アタック抽出部は、前記波形の立ち上がり時から前記ピッチ検出手段がピッチを検出するまでの間をアタック部として抽出するようにしてもよい。
In a preferred aspect of the present invention, the predetermined portion in the attack extraction unit may be a predetermined section determined in advance from the rising edge of the waveform.
In another preferred aspect of the present invention, the attack extraction unit detects a time point when the waveform level falls below a predetermined amount from a peak at the time of rising as an attack end point, and attacks from the waveform rising to the attack end point. You may make it extract as a part.
In another preferable aspect of the present invention, the attack extraction unit may extract an interval from the rising of the waveform until the pitch detection unit detects the pitch as an attack unit.

また、本発明の別の好ましい態様において、前記パラメータ生成手段は、音色を指定する音色パラメータを発生する音色パラメータ発生手段を有し、前記送信制御手段は、ピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータに加えて、前記音色パラメータ発生手段が指示した音色パラメータをも前記通信手段に送信させるようにしてもよい。
また、本発明の更に好ましい態様においては、前記音色パラメータ発生手段は、前記入力手段が出力する楽音信号を解析することにより音色を特定し、この音色を示す音色パラメータを発生するようにしてもよい。
In another preferred aspect of the present invention, the parameter generation means includes timbre parameter generation means for generating a timbre parameter for designating a timbre, and the transmission control means includes a pitch parameter, a sound generation timing parameter, and a mute timing parameter. In addition, the communication unit may transmit the timbre parameter instructed by the timbre parameter generation unit.
In a further preferred aspect of the present invention, the timbre parameter generating means may specify a timbre by analyzing a musical tone signal output from the input means and generate a timbre parameter indicating the timbre. .

また、本発明は、ネットワークを介して信号の授受を行う通信手段と、前記通信手段が受信した波形データに基づいて楽音信号を生成する波形再生手段と、前記通信手段が、ピッチを指示するピッチパラメータ、楽音の発音タイミングを指示する発音タイミングパラメータおよび前記楽音の消音タイミングを指示する消音タイミングパラメータを受信した場合には、これらのパラメータに基づいて楽音信号を生成する音源手段と、前記波形再生手段が生成した楽音信号の再生に続けて前記音源手段が生成した楽音信号の再生を行わせる再生制御手段とを具備することを特徴とする楽音信号受信端末を提供する。
本発明の好ましい態様においては、前記音源手段は、前記通信手段が音色を指示する音色パラメータを受信した場合には、前記音色パラメータに基づく音色により前記楽音信号の生成を行うようにしてもよい。
また、本発明の更に好ましい態様においては、前記再生制御手段は、前記波形再生手段による波形信号の再生が終了する前に前記音源手段が生成した楽音信号の再生を開始し、両者の再生が重なる期間においてはクロスフェード処理を行うようにしてもよい。
In addition, the present invention provides a communication unit that transmits and receives signals via a network, a waveform reproduction unit that generates a musical sound signal based on waveform data received by the communication unit, and a pitch at which the communication unit indicates a pitch. When receiving the parameters, the sound generation timing parameter for instructing the sound generation timing, and the mute timing parameter for instructing the sound mute timing, sound source means for generating a music signal based on these parameters, and the waveform reproduction means And a reproduction control means for reproducing the musical sound signal generated by the sound source means following the reproduction of the musical sound signal generated by the sound source means.
In a preferred aspect of the present invention, when the communication means receives a timbre parameter indicating a timbre, the tone generator means may generate the musical tone signal based on a timbre based on the timbre parameter.
Further, in a further preferred aspect of the present invention, the reproduction control means starts reproduction of the musical tone signal generated by the sound source means before the reproduction of the waveform signal by the waveform reproduction means ends, and the reproduction of both overlaps. Cross fade processing may be performed during the period.

特徴のあるアタック部分は実際の波形データ(例えば、オーディオデータ)に基づいて楽音を発音し、アタック部以外はパラメータ(例えばMIDIデータ)に基づいて発音することによって、自然楽器などで実際に発音される楽音の特徴を損なわせることなく、実際の楽音に近い楽音を発音することが可能となる。しかも、データ転送量は著しく低減される。   A characteristic attack part sounds a musical tone based on actual waveform data (eg, audio data), and a sound other than the attack part is actually pronounced by a natural instrument by sounding based on a parameter (eg, MIDI data). It is possible to produce a musical tone that is close to the actual musical tone without detracting from the characteristics of the musical tone. In addition, the data transfer amount is significantly reduced.

以下、図面を参照しつつ本発明の実施形態について説明する。
(1)構成
まず、本実施形態に係るシステムの全体構成について説明する。図1は、本実施形態に係るセッションシステムの全体構成を示すブロック図である。図に示すように、このシステムは、端末1と端末2とが通信ネットワークにより接続されて構成される。なお、実際にはより多くの端末が接続されるが、説明の簡略化のために2つの端末1,2だけを示している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(1) Configuration First, the overall configuration of the system according to the present embodiment will be described. FIG. 1 is a block diagram showing the overall configuration of the session system according to the present embodiment. As shown in the figure, this system is configured by connecting a terminal 1 and a terminal 2 via a communication network. Although more terminals are actually connected, only two terminals 1 and 2 are shown for simplicity of explanation.

図2は、端末1の構成の示す図である。端末1は、アコースティックギターAGなどの自然楽器の音を集音してネットワークを介して他の端末に通信するものである。図において、10は、CPU(Central Processing Unit)等の制御部であり、記憶部11に格納されているソフトウェアプログラムに従い、BUSを介して回路各部を制御する。   FIG. 2 is a diagram illustrating a configuration of the terminal 1. The terminal 1 collects the sound of a natural instrument such as an acoustic guitar AG and communicates it with other terminals via a network. In the figure, reference numeral 10 denotes a control unit such as a CPU (Central Processing Unit) which controls each part of the circuit via a BUS in accordance with a software program stored in the storage unit 11.

12は、アコースティックギターAGなどの楽器が放音する楽音を集音するマイクロフォンである。制御部10は、マイクロフォン12で集音した楽音に対して所定の処理を行い、デジタルオーディオデータやMIDI形式のデジタルデータを生成する。なお、以下の説明では、説明の便宜上、デジタルオーディオデータを「オーディオデータ」と称し、MIDI形式のデジタルデータを、「MIDIデータ」と称する。   Reference numeral 12 denotes a microphone for collecting musical sounds emitted by an instrument such as an acoustic guitar AG. The control unit 10 performs predetermined processing on the musical sound collected by the microphone 12 to generate digital audio data and MIDI format digital data. In the following description, for convenience of explanation, digital audio data is referred to as “audio data”, and MIDI format digital data is referred to as “MIDI data”.

13は、通信インターフェース等を有する通信部であり、制御部10の制御の下、制御部10が生成したオーディオデータまたはMIDIデータを、ブロック単位で通信ネットワークを介して端末2に送信する。14は、計時部であり、時刻を計時して時刻情報TIを出力する。   Reference numeral 13 denotes a communication unit having a communication interface and the like, which transmits audio data or MIDI data generated by the control unit 10 to the terminal 2 via the communication network in units of blocks under the control of the control unit 10. Reference numeral 14 denotes a time measuring unit, which measures time and outputs time information TI.

ここで、制御部10が生成するデータブロックの構成について、図3を参照しつつ説明する。図示のように、データブロックは、ブロック識別子BIと時刻情報TIとデータDAとの3つの情報によって構成される。ブロック識別子BIは、データブロックが、オーディオデータであるかそれともMIDIデータであるかを示す識別子である。ブロック識別子BIがオーディオデータを示す場合は、データDAがオーディオデータであることを示し、ブロック識別子BIがMIDIデータを示す場合は、データDAがMIDIデータであることを示す。時刻情報TIは、前述した計時部14が生成する情報である。   Here, the configuration of the data block generated by the control unit 10 will be described with reference to FIG. As shown in the figure, the data block includes three pieces of information including a block identifier BI, time information TI, and data DA. The block identifier BI is an identifier indicating whether the data block is audio data or MIDI data. When the block identifier BI indicates audio data, the data DA indicates audio data. When the block identifier BI indicates MIDI data, the data DA indicates MIDI data. The time information TI is information generated by the time measuring unit 14 described above.

記憶部11は、図2に示すように、揮発性記憶部11aと不揮発性記憶部11bとを含んでいる。揮発性記憶部11aは、例えばRAM(Random Access Memory)であり、各種ソフトウェアプログラムにしたがって作動している制御部10によってワークエリアとして利用される。一方、不揮発性記憶部11bは、例えばROM(Read Only Memory)やハードディスクであり、本発明に係る端末1に特有な機能を制御部10に実現させるためのソフトウェアを格納しておくためのものである。この不揮発性記憶部11bに格納されているソフトウェアの一例としては、OS(Operating System)を制御部10に実現させるためのOSソフトウェアプログラムと、上記オーディオデータとMIDIデータの生成処理や送信処理を制御部10に実行させるためのソフトウェアがある。   As shown in FIG. 2, the storage unit 11 includes a volatile storage unit 11a and a nonvolatile storage unit 11b. The volatile storage unit 11a is, for example, a RAM (Random Access Memory), and is used as a work area by the control unit 10 operating according to various software programs. On the other hand, the non-volatile storage unit 11b is, for example, a ROM (Read Only Memory) or a hard disk, and stores software for causing the control unit 10 to realize functions specific to the terminal 1 according to the present invention. is there. As an example of software stored in the nonvolatile storage unit 11b, an OS software program for causing the control unit 10 to implement an OS (Operating System), and the generation processing and transmission processing of the audio data and MIDI data are controlled. There is software for causing the unit 10 to execute.

また、記憶部11の不揮発性記憶部11bには、入力される楽器の音のアタック部の時間幅を示すアタック時間Wが記憶されている。ここで、図4を参照しながら、このアタック時間Wについて以下に説明する。
図4は、マイクロフォン12が集音する楽器音の波形の一例をグラフで示した図である。図において、横軸は時刻、縦軸は波形の振幅である。この図では、時刻t1に楽音が発生し、時刻t3に消音した場合を表している。波形の立ち上がりから一定区間(時刻t1から時刻t2の間に発音される楽音)は一般にアタック部と呼ばれ、この部分の波形にはその楽器特有の音色や弾き方の特徴が現れる。一方、それ以降(時刻t2から時刻t3の間に発音される楽音)では音の波形がほぼ一定となって徐々に減衰する波形となる。このような波形は電子的に構成しても品質はあまり劣化しないことが知られている。本実施形態においては、アタック部を抽出するための期間として固定のアタック時間Wを設定している。この場合、アタック部の時間は、楽器の特性や弾き方によって若干の変動があるが、発音開始時の短い時間であるため、固定の値を設定しても実用上は問題ない。
The nonvolatile storage unit 11b of the storage unit 11 stores an attack time W indicating the time width of the attack unit of the input instrument sound. Here, the attack time W will be described below with reference to FIG.
FIG. 4 is a graph showing an example of the waveform of the instrument sound collected by the microphone 12. In the figure, the horizontal axis represents time, and the vertical axis represents waveform amplitude. This figure shows a case where a musical sound is generated at time t 1 and muted at time t 3 . A certain interval (musical sound generated between time t 1 and time t 2 ) from the rising edge of the waveform is generally called an attack portion, and the waveform of this portion shows a characteristic of the tone color and how to play it. On the other hand, after that (musical sound generated between time t 2 and time t 3 ), the waveform of the sound becomes almost constant and gradually attenuates. It is known that the quality of such a waveform does not deteriorate much even if it is constructed electronically. In the present embodiment, a fixed attack time W is set as a period for extracting the attack part. In this case, the attack time varies slightly depending on the characteristics of the musical instrument and how it is played, but since it is a short time at the start of sound generation, there is no practical problem even if a fixed value is set.

次に、端末2の構成について図5を参照しつつ説明する。同図において、20は、例えばCPU等の制御部であり、記憶部21に格納されているソフトウェアプログラムに従い、BUSを介して回路各部を制御する。22は、DSP(Digital signal processor)等の音声信号処理回路およびスピーカ等を有する発音部であり、制御部20の制御の下に楽音を発音させる。23は、通信インターフェースを有する通信部であり、制御部20の制御の下、端末1から送信されるデータブロックを受信する。24は、計時部であり、発音タイミング等を決定する上で基準となる時刻を生成する。   Next, the configuration of the terminal 2 will be described with reference to FIG. In the figure, reference numeral 20 denotes a control unit such as a CPU, which controls each part of the circuit via the BUS in accordance with a software program stored in the storage unit 21. Reference numeral 22 denotes a sound generation unit having an audio signal processing circuit such as a DSP (Digital signal processor) and a speaker, and causes a musical sound to be generated under the control of the control unit 20. A communication unit 23 having a communication interface receives a data block transmitted from the terminal 1 under the control of the control unit 20. Reference numeral 24 denotes a time measuring unit that generates a reference time for determining sound generation timing and the like.

記憶部21は、図5に示すように、揮発性記憶部21aと不揮発性記憶部21bとを含んでいる。不揮発性記憶部21bには、音色パラメータTPが記憶されている。本実施形態の場合は、アコースティックギターの音色を示すパラメータが記憶されている。25は音源であり、音色パラメータTPで示される音色に対応する楽音信号を生成する。この楽音信号は発音部22に供給され、ここで楽音として放音される。   As shown in FIG. 5, the storage unit 21 includes a volatile storage unit 21a and a nonvolatile storage unit 21b. A timbre parameter TP is stored in the nonvolatile storage unit 21b. In the case of this embodiment, a parameter indicating the tone color of the acoustic guitar is stored. A sound source 25 generates a musical tone signal corresponding to the timbre indicated by the timbre parameter TP. This musical sound signal is supplied to the sound generator 22 where it is emitted as a musical sound.

(2)動作
次に、本実施形態に係るセッションシステムの動作について説明する。
以下では、端末1のユーザがアコースティックギターAG(図2参照)を演奏し、この楽音が端末2に送信される場合を例にとる。なお、以下の説明においては、アコースティックギターAGは単音で演奏されるものとする。
(2) Operation Next, the operation of the session system according to the present embodiment will be described.
In the following, a case where the user of the terminal 1 plays the acoustic guitar AG (see FIG. 2) and this musical sound is transmitted to the terminal 2 is taken as an example. In the following description, it is assumed that the acoustic guitar AG is played with a single note.

(2−1)端末1の動作
図6は、端末1の制御部10が行う処理を示すフローチャートである。マイクロフォン12はアコースティックギターAGから放音される音を集音し、楽音信号として出力する。制御部10は、マイクロフォン12から出力される楽音信号を解析する。
この解析は、ビートトラッキングと呼ばれる一般的な手法が用いられ、マイクロフォン12が出力する楽音信号と所定の閾値を比較し、信号の立ち上がりを検出する。具体的には、楽音信号に対してハイパスフィルタをかけ、その振れ幅が所定の閾値より大きければ、信号が立ち上がりアタック部が開始されたと認識する。
そして、信号の立ち上がりが検出されると、ステップSP1の判定がYESとなり、制御部10は不揮発性記憶部11bからアタック時間Wを読み出して計時を開始し(ステップSP2)、マイクロフォン12が出力する楽音信号(アナログ信号)を所定のサンプリングレートでオーディオデータに変換する。そして、サンプリングされたこのオーディオデータをデータDAとして、各サンプリング時点における計時部14の時刻情報TIを付けてデータブロックを順次生成する。そして、このようにして生成されたデータブロックの各々の識別情報BIをオーディオデータとして、通信部13から端末2に向けて送信する(ステップSP3)。同時に、制御部10はオーディオデータを解析してピッチ検出を開始する(ステップSP4)。
(2-1) Operation of Terminal 1 FIG. 6 is a flowchart showing processing performed by the control unit 10 of the terminal 1. The microphone 12 collects the sound emitted from the acoustic guitar AG and outputs it as a musical sound signal. The control unit 10 analyzes the musical sound signal output from the microphone 12.
For this analysis, a general method called beat tracking is used, and a tone signal output from the microphone 12 is compared with a predetermined threshold value to detect the rising of the signal. Specifically, a high-pass filter is applied to the musical sound signal, and if the fluctuation width is larger than a predetermined threshold, it is recognized that the signal has risen and the attack part has started.
When the rising edge of the signal is detected, the determination in step SP1 is YES, and the control unit 10 reads the attack time W from the nonvolatile storage unit 11b and starts measuring time (step SP2), and the musical sound output from the microphone 12 A signal (analog signal) is converted into audio data at a predetermined sampling rate. Then, the sampled audio data is used as data DA, and data blocks are sequentially generated with the time information TI of the time measuring unit 14 at each sampling time. Then, the identification information BI of each data block generated in this way is transmitted as audio data from the communication unit 13 to the terminal 2 (step SP3). At the same time, the control unit 10 analyzes the audio data and starts pitch detection (step SP4).

そして、アタック時間Wの計時が終了して、ステップSP5の判定が「YES」となると、制御部10はオーディオデータのデータブロックの送信を停止し(ステップSP6)、検出されたピッチをノートとして指定するノートオンのMIDIデータを生成し、これをデータDAとするデータブロックを生成して通信部13から端末2に向けて送信する(ステップSP7)。このデータブロックには、計時部14が出力する時刻情報TIが付加され、また、MIDIであることを指示する識別情報BIが付加される。このとき、付加される時刻情報TIは、発音開始時刻にアタック時間Wが終了する時間を加えた時刻(図4の時刻t2参照)となる。 When the measurement of the attack time W is completed and the determination in step SP5 is “YES”, the control unit 10 stops transmitting the data block of the audio data (step SP6), and designates the detected pitch as a note. Note-on MIDI data to be generated is generated, and a data block having the data DA as data DA is generated and transmitted from the communication unit 13 to the terminal 2 (step SP7). The time information TI output from the timer unit 14 is added to this data block, and the identification information BI indicating that it is MIDI is added. At this time, the time information TI to be added is a time attack the sounding start time period W is plus the time to end (see time t 2 in FIG. 4).

続けて、制御部10は、マイクロフォン12が出力している楽音波形に対して消音したか否かを判定する(ステップSP8)。消音したと判定された場合は(ステップSP8;YES)、MIDIのノートオフデータを生成し、データブロックのデータDAに配置して送信する(ステップSP9)。このとき、生成されるノートオフデータは、時刻t2において送信したノートオンと同じノートを指示するものであり、また、このノートオフデータに付加される時刻情報TIは消音検出時において計時部14が出力する時刻情報TIである(図4の時刻t3参照)。一方、ステップSP8において、消音していないと判定された場合は(ステップSP8;NO)、消音が検出されるまで待機する。 Subsequently, the control unit 10 determines whether or not the musical sound waveform output from the microphone 12 has been muted (step SP8). If it is determined that the sound has been silenced (step SP8; YES), MIDI note-off data is generated, arranged in the data DA of the data block, and transmitted (step SP9). At this time, the generated note-off data indicates the same note as the note-on transmitted at time t 2 , and the time information TI added to the note-off data is the time counting unit 14 at the time of silence detection. Is the time information TI output (see time t 3 in FIG. 4). On the other hand, if it is determined in step SP8 that the sound is not muted (step SP8; NO), the process waits until muting is detected.

上述した一連の処理において、一つの楽音(単音)がどのように送信されるかについて以下に概略的に説明する。図7の(a)は、オーディオデータの波形の一例をグラフで示した図であり、図4と同一のものである。図7の(b)は、図7の(a)と対応する時刻に送信されるデータブロックに含まれるオーディオデータまたはMIDIデータを図示したものであり、図において、D1はオーディオデータを示し、D2はMIDIデータ(ノートオン)、D3はMIDIデータ(ノートオフ)を示している。図7の時刻t1において、端末1の演奏者がアコースティックギターAGを用いて楽音の発音を開始させると、端末1の制御部10は、図6のステップSP1→SP2→SP3→SP4→SP5の処理を実行し、アタック時間Wが経過するまでの間、オーディオデータD1の送信を連続して行うとともに、ピッチ検出処理を並行して行う。
アタック時間Wが経過すると(時刻t2)、図6のステップSP6、ステップSP7の処理を行い、ノートオンパラメータを含むMIDIデータD2を端末2に送信する。そして、時刻t3において楽音が消音すると、ノートオフパラメータを含むMIDIデータD3を端末2に送信する。
In the series of processes described above, how one musical tone (single tone) is transmitted will be schematically described below. FIG. 7A is a graph showing an example of a waveform of audio data, which is the same as FIG. FIG. 7B illustrates audio data or MIDI data included in a data block transmitted at a time corresponding to FIG. 7A. In the drawing, D1 indicates audio data, and D2 Indicates MIDI data (note-on), and D3 indicates MIDI data (note-off). At time t 1 in FIG. 7, when the performer of the terminal 1 starts sound generation using the acoustic guitar AG, the control unit 10 of the terminal 1 performs steps SP1 → SP2 → SP3 → SP4 → SP5 in FIG. Until the attack time W elapses, the audio data D1 is continuously transmitted and the pitch detection process is performed in parallel.
When the attack time W elapses (time t 2 ), the processing of step SP6 and step SP7 in FIG. 6 is performed, and the MIDI data D2 including the note-on parameter is transmitted to the terminal 2. When the musical sound is muted at time t 3 , MIDI data D 3 including a note-off parameter is transmitted to the terminal 2.

以上のように、楽音の特徴を多く含むアタック部については、再現性の高いオーディオデータを送信し、アタック部以外についてはMIDIデータを送信しているので、送信するデータ量は著しく削減される。   As described above, since the highly reproducible audio data is transmitted for the attack part including many features of the musical sound and the MIDI data is transmitted for other parts than the attack part, the amount of data to be transmitted is significantly reduced.

(2−2)端末2の動作
次に、端末2の動作について、図面を参照しつつ説明する。
図8は、端末2が行う処理を示すフローチャートである。端末2の制御部20は、データブロック(オーディオデータまたはMIDIデータを含む)を受信すると(ステップS51;YES)、そのブロックに含まれるブロック識別子を判定する(ステップS52)。ブロック識別子BIが「オーディオ」である場合は、そのデータ部DAがオーディオデータであると判断し、時刻情報TIに基づくタイミングでオーディオデータを順次発音部22に供給する。発音部22は、供給されたオーディオデータに基づいて、楽音を発音する(ステップS53)。例えば、図7(b)に示すオーディオデータを受信した場合は、時刻t1から時刻t2に至る間は、端末1から順次送信される各サンプリングタイミング毎のデータブロックを受信し、そこに含まれるオーディオデータに基づいて楽音が発生される。これにより、アコースティックギターAGのアタック部の楽音がオーディオデータに基づいて高音質で発音される。
一方、制御部20は、受信したデータブロックのブロック識別子BIが「MIDI」である場合は、データ部DAがMIDIデータであると判断し、そのMIDIデータに基づいて、音源25によって楽音信号を発生させ、発生した楽音信号を発音部22に供給する(ステップS54)。例えば、図7(b)に示すような場合は、時刻t2においてキーオンのMIDIデータを受信すると、このMIDIデータに対して記憶部21に記憶した音色パラメータTPを付加して音源25に供給する。この結果、音源25は時刻t2に対応する時刻からギターの音色の楽音信号を生成し、この楽音信号が発音部22に供給されて発音される。この場合に再生される音高は、MIDIデータによって指定されたノートの音高となる。すなわち、時刻t1から時刻t2まではオーディオデータに基づくアタック部の楽音が再生され、時刻t2からはMIDI用の音源25による楽音がアタック部と同じ音高によって再生される。そして、図7(b)に示すMIDIデータD3を通信部23が受信すると、ステップS52→S54と進み、制御部20は音源25に対して消音処理を指示する。この結果、時刻t2から発音されていた音源25による発音が停止される。
(2-2) Operation of Terminal 2 Next, the operation of the terminal 2 will be described with reference to the drawings.
FIG. 8 is a flowchart showing processing performed by the terminal 2. When receiving a data block (including audio data or MIDI data) (step S51; YES), the control unit 20 of the terminal 2 determines a block identifier included in the block (step S52). If the block identifier BI is “audio”, it is determined that the data portion DA is audio data, and the audio data is sequentially supplied to the sound generation portion 22 at a timing based on the time information TI. The sound generation unit 22 generates a musical tone based on the supplied audio data (step S53). For example, when the audio data shown in FIG. 7B is received, during the period from time t 1 to time t 2 , a data block for each sampling timing sequentially transmitted from the terminal 1 is received and included therein. Musical sound is generated based on the audio data to be recorded. Thereby, the musical sound of the attack part of acoustic guitar AG is sounded with high sound quality based on audio data.
On the other hand, when the block identifier BI of the received data block is “MIDI”, the control unit 20 determines that the data unit DA is MIDI data, and generates a musical sound signal by the sound source 25 based on the MIDI data. The generated tone signal is supplied to the sound generator 22 (step S54). For example, in the case shown in FIG. 7B, when key-on MIDI data is received at time t 2 , the timbre parameter TP stored in the storage unit 21 is added to the MIDI data and supplied to the sound source 25. . As a result, the sound source 25 generates a musical tone signal of the tone color of the guitar from the time corresponding to the time t 2 , and this musical tone signal is supplied to the sound generation unit 22 to be sounded. In this case, the pitch to be played is the pitch of the note specified by the MIDI data. That is, the musical sound of the attack part based on the audio data is reproduced from time t 1 to time t 2, and the musical sound from the MIDI sound source 25 is reproduced with the same pitch as that of the attack part from time t 2 . Then, when the communication unit 23 receives the MIDI data D3 shown in FIG. 7B, the process proceeds from step S52 to S54, and the control unit 20 instructs the sound source 25 to mute. As a result, the sound generation by the sound source 25 that has been sounded from time t 2 is stopped.

以上のように、本実施形態では、特徴のあるアタック部分は実際のオーディオデータに基づいて楽音を発音し、アタック部以外はMIDIデータに基づいて発音することによって、端末2は、アコースティックギターAGで実際に発音される楽音の特徴を損なわせることなく、実際の楽音に近い楽音を発音することが可能となる。
また、上述の実施形態においては、音源25が生成する楽音信号としては、キーオンが指示されたときから、アタック部以降の楽音信号(ディケイ部、サステイン部などの信号)を生成するとよい(図4のDW2参照)。オーディオデータによるアタック部の波形の後にMIDIデータによる楽音波形が続くため、MIDIデータによる発音にはアタック部が不要だからである。なお、一般的なMIDI音源を用いる場合は、キーオンが指示されるとアタック部を有した楽音信号を生成するが、聴感上問題がなければ、このような音源を用いても良い。
As described above, in the present embodiment, the characteristic attack portion sounds a musical tone based on actual audio data, and the portion other than the attack portion sounds based on MIDI data, whereby the terminal 2 is an acoustic guitar AG. It is possible to generate a musical sound that is close to the actual musical sound without impairing the characteristics of the musical sound that is actually generated.
Further, in the above-described embodiment, as the tone signal generated by the sound source 25, tone signals after the attack portion (signals from the decay portion, the sustain portion, etc.) may be generated from when the key-on is instructed (FIG. 4). Of DW2). This is because the waveform of the attack portion by the audio data is followed by a musical sound waveform by the MIDI data, so that the attack portion is not necessary for sound generation by the MIDI data. When a general MIDI sound source is used, a tone signal having an attack portion is generated when key-on is instructed. However, such a sound source may be used if there is no problem in hearing.

<変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.

(変形例1)
上述した実施形態においては、端末1が送信するMIDIデータには音色パラメータは含まれておらず、端末2が記憶している音色パラメータTPによって音源25が生成する楽音信号の音色を指定するようにしたが、これに変えて、端末1が送信するMIDIデータに音色パラメータTPを含めるようにしてもよい。例えば、図2に破線で示すように、ユーザの操作に従って音色を選択する音色選択部15を設け、制御部10がMIDIデータを生成する際には、この音色選択部15が選択している音色パラメータTPを付加するように構成する。そして、音色パラメータTPが付加されたMIDIデータを端末2に送信するように構成し、端末2の音源25においては、送信されたMIDIデータに含まれる音色パラメータTPによって指示される音色の楽音信号を生成するようにする。また、端末1の制御部10がマイクロフォン12が出力する楽音信号を周波数解析することによって音色を特定するように構成し、特定した音色に対応する音色パラメータTPをMIDI信号に含めて送信するように構成してもよい。
(Modification 1)
In the embodiment described above, the timbre parameter is not included in the MIDI data transmitted by the terminal 1, and the timbre of the musical tone signal generated by the sound source 25 is designated by the timbre parameter TP stored in the terminal 2. However, instead of this, the timbre parameter TP may be included in the MIDI data transmitted by the terminal 1. For example, as shown by a broken line in FIG. 2, a timbre selection unit 15 for selecting a timbre according to a user operation is provided, and when the control unit 10 generates MIDI data, the timbre selected by the timbre selection unit 15 is selected. The configuration is such that the parameter TP is added. Then, the MIDI data to which the timbre parameter TP is added is configured to be transmitted to the terminal 2, and the tone generator 25 of the terminal 2 receives the musical tone signal of the timbre indicated by the timbre parameter TP included in the transmitted MIDI data. To generate. Further, the control unit 10 of the terminal 1 is configured to specify a timbre by frequency-analyzing the musical tone signal output from the microphone 12 and transmit the timbre parameter TP corresponding to the specified timbre included in the MIDI signal. It may be configured.

(変形例2)
上述した実施形態では、アタック部の長さは、固定値(記憶部11に記憶されているアタック時間W)であったが、アタック部の長さを切り替えるようにしてもよい。例えば、アタック部の長さは弾き方によって異なることがあるので、図2に示す不揮発性記憶部11b内に複数のアタック時間を記憶させておき、これをランダムに選択してアタック時間にゆらぎを持たせるようにしてもよい。また、マイクロフォン12が出力する楽音信号の振幅から楽音の強さ(ベロシティ)を検出し、このベロシティに対応して不揮発性記憶部11b内のアタック時間を選択してもよい。
また、楽音波形の立ち上がりから、ピッチが検出されるまでの期間をアタック部の長さとして特定してもよい。このようにすると、アタック部においてピッチが変動しているためにピッチが特定できない場合に有効である。この場合においても、アタック部が終了して波形が安定した直後にピッチ検出を行うことができるから、アタック部として検出された期間は、実際のアタック部に対して過度に長い期間が設定されることはなく、端末2において不自然な楽音が再生されることはない。
また、アタック部の長さを特定する他の方法として、波形の振幅の変化率が所定の閾値を下回ったとき(波形が安定領域に入ったとき)をアタック部の終了点として特定してもよい。なお、アタック部の検知方法は上記に限定されるものではなく、例えば、アタック部の振幅だけでは検出が難しい楽器の場合は、周波数成分の変化が振幅変化より優位にある区間をアタック部とする、といった検知方法を用いるようにしてもよい。
(Modification 2)
In the embodiment described above, the length of the attack part is a fixed value (the attack time W stored in the storage unit 11), but the length of the attack part may be switched. For example, since the length of the attack part may differ depending on how to play, a plurality of attack times are stored in the non-volatile storage part 11b shown in FIG. 2, and this is randomly selected to change the attack time. You may make it have. Further, the intensity (velocity) of the musical sound may be detected from the amplitude of the musical sound signal output from the microphone 12, and the attack time in the nonvolatile storage unit 11b may be selected corresponding to this velocity.
Further, the period from the rise of the musical sound waveform until the pitch is detected may be specified as the length of the attack portion. This is effective when the pitch cannot be specified because the pitch fluctuates in the attack portion. Even in this case, since the pitch can be detected immediately after the attack portion is finished and the waveform is stabilized, the period detected as the attack portion is set to an excessively long period with respect to the actual attack portion. No unnatural musical sound is played back on the terminal 2.
Further, as another method for specifying the length of the attack portion, it is possible to specify the end point of the attack portion when the rate of change in the amplitude of the waveform falls below a predetermined threshold (when the waveform enters the stable region). Good. The detection method of the attack part is not limited to the above. For example, in the case of an instrument that is difficult to detect only by the amplitude of the attack part, a section in which the change of the frequency component is superior to the amplitude change is set as the attack part. Such a detection method may be used.

(変形例3)
上述した実施形態においては、アタック部分は実際のオーディオデータに基づいて楽音を発音し、アタック部以外はMIDIデータに基づいて発音するようにしたが、オーディオデータとMIDIデータをクロスフェードさせるようにしてもよい。例えば、図2に破線で示すように、フェード時間W´(アタック時間Wよりも長い時間が設定される)を端末1の記憶部11に記憶させておくようにする。そして、図7の(c)に示すように、端末1の制御部10は、時刻t1からフェード時間W´が経過する時刻t2´までの間、オーディオデータD1の送信を連続して行うとともに、時刻t1からアタック時間Wが経過した時刻t2において、ノートオンパラメータを含むMIDIデータD2を端末2に送信する。
(Modification 3)
In the embodiment described above, the attack portion sounds a tone based on actual audio data, and the portion other than the attack portion sounds based on MIDI data. However, the audio data and MIDI data are cross-faded. Also good. For example, as indicated by a broken line in FIG. 2, the fade time W ′ (a time longer than the attack time W is set) is stored in the storage unit 11 of the terminal 1. Then, as shown in FIG. 7C, the control unit 10 of the terminal 1 continuously transmits the audio data D1 from the time t 1 to the time t 2 ′ when the fade time W ′ elapses. together, at time t 2 when the attack time W elapses from the time t 1, and transmits the MIDI data D2 including a note-on parameter to the terminal 2.

図9は、端末2によって発音される楽音の波形を示す図である。図において、T1は、受信されるMIDIデータに基づいて発音される楽音の波形を示したものであり、T2は、受信されるオーディオデータに基づいて発音される楽音の波形を示したものである。図示のように、端末2の音源25は、時刻t2から時刻t3までの間、受信したMIDIデータD2に基づいて楽音信号を生成する。また、時刻t1から時刻t2´までの間は、発音部22が受信したオーディオデータに基づいて楽音を発音する。この際、端末2の発音部22は、時刻t2から時刻t2´の間は、MIDIデータに基づく楽音がフェードインするように楽音信号を再生する一方、オーディオデータに基づく楽音がフェードアウトするように楽音信号を再生する。そして、これらの2種類の楽音信号を合成した楽音信号によって放音を行う。このようにすることで、MIDIデータに基づく楽音とオーディオデータに基づく楽音とがクロスフェードして発音され、両者をより自然な感覚で切り換えることができる。 FIG. 9 is a diagram illustrating a waveform of a musical sound generated by the terminal 2. In the figure, T1 indicates a waveform of a musical sound that is generated based on received MIDI data, and T2 indicates a waveform of a musical sound that is generated based on received audio data. . As shown, the sound source 25 of the terminal 2, between the time t 2 to time t 3, and generates a musical tone signal based on the MIDI data D2 received. Further, during the period from time t 1 to time t 2 ′, a tone is generated based on the audio data received by the sound generation unit 22. At this time, the sound generator 22 of the terminal 2 reproduces the musical sound signal so that the musical sound based on the MIDI data fades in from the time t 2 to the time t 2 ′, while the musical sound based on the audio data fades out. Play a music signal. Then, sound is emitted by a tone signal obtained by synthesizing these two types of tone signals. In this way, the musical sound based on the MIDI data and the musical sound based on the audio data are generated by cross-fading and can be switched with a more natural feeling.

(変形例4)
上述した実施形態においては、端末1が送信するMIDIデータにはベロシティパラメータは含まれていなかったが、端末1の制御部10が、マイクロフォン12が出力する楽音信号の振幅からベロシティを検出するようにし、端末1が送信するMIDIデータにベロシティパラメータを含めるようにしてもよい。この場合、端末2の音源25においては、送信されたMIDIデータに含まれるベロシティパラメータによって指示される音量の楽音信号を生成するようにする。
(Modification 4)
In the above-described embodiment, the velocity parameter is not included in the MIDI data transmitted from the terminal 1, but the control unit 10 of the terminal 1 detects the velocity from the amplitude of the tone signal output from the microphone 12. The velocity parameter may be included in the MIDI data transmitted by the terminal 1. In this case, the tone generator 25 of the terminal 2 generates a musical tone signal having a volume indicated by the velocity parameter included in the transmitted MIDI data.

(変形例5)
端末2の発音部22は、楽音が消音される直前にMIDIデータに基づく発音から予め記憶した波形による発音に切り換えるようにしてもよい。この場合、消音付近の発音はどの楽音についても近似しているため、一つの波形を用意しておけば、MIDIデータ内のノートに従ったピッチ変換をするだけで全ての音高の楽音に使用することができる。したがって、波形データによる発音を行う場合であっても記憶する波形は一つ(あるいは少数)で済む。そして、消音付近発音を波形データに切り換えると、音が消えて行く瞬間の余韻を自然楽器のような味わいのあるものにすることができ、音質をさらに向上させることができる。
(Modification 5)
The sound generation unit 22 of the terminal 2 may switch from sound generation based on MIDI data to sound generation using a previously stored waveform immediately before the musical sound is muted. In this case, since the sound near the mute is approximate for any musical tone, if one waveform is prepared, it can be used for musical tones of all pitches simply by converting the pitch according to the notes in the MIDI data. can do. Therefore, only one (or a small number) of waveforms are stored even when sound generation is performed using waveform data. Then, by switching the sound generation near mute to waveform data, the reverberation at the moment when the sound disappears can be made to have a taste like a natural musical instrument, and the sound quality can be further improved.

(変形例6)
また、端末2の音源25において、通常のMIDIデータと上記実施形態におけるMIDIデータとで発音する楽音をそれぞれ異ならせるようにしてもよい。例えば、図3に示したデータブロックのブロック識別子BIに設定される識別情報として、上記実施形態で説明した「オーディオ」と「MIDI」に加え、「特殊MIDI」を設定できるようにする。そして、端末1は、上記実施形態においてMIDIデータを送信する際に設定していた「MIDI」に代えて、ブロック識別子BIに「特殊MIDI」を設定してMIDIデータを送信する。
また、端末2の音源25に、図5に破線で示すような、楽音の波形を示す波形データ25aを記憶させておく。この波形データ25aは、図4に示すような、アタック部の波形データDA1(DW1に対応)と、アタック部以降の振幅が安定している波形データDA2(DW2に対応)とを有している。
(Modification 6)
Further, in the sound source 25 of the terminal 2, the musical sounds generated by the normal MIDI data and the MIDI data in the above embodiment may be made different from each other. For example, as the identification information set in the block identifier BI of the data block shown in FIG. 3, “special MIDI” can be set in addition to “audio” and “MIDI” described in the above embodiment. Then, the terminal 1 sets the block identifier BI to “special MIDI” instead of “MIDI” set when transmitting the MIDI data in the above embodiment, and transmits the MIDI data.
Further, the sound source 25 of the terminal 2 stores waveform data 25a indicating the waveform of the musical tone as indicated by a broken line in FIG. The waveform data 25a includes waveform data DA1 (corresponding to DW1) of the attack part and waveform data DA2 (corresponding to DW2) in which the amplitude after the attack part is stable, as shown in FIG. .

端末2の音源25は、ブロック識別子BIが「MIDI」であるデータを受信すると、波形データDA1に基づいて楽音信号を生成した後、波形データDA2に基づいて楽音信号を生成する。このように、アタック部の波形データDA1を用いて楽音信号を生成することによって、オーディオデータが付随していない通常のMIDIデータに対しては、アタック部を有する楽音を発音させることができる。
一方、ブロック識別子BIが「特殊MIDI」であるデータを受信した場合は、アタック部の波形データDA1を用いず、波形データDA2のみを用いて楽音信号を生成するようにする。これは、アタック部分は実際のオーディオデータに基づいて楽音が発音されるため、アタック部の波形データDA1を用いて楽音信号を生成する必要がないためである。
When receiving the data whose block identifier BI is “MIDI”, the tone generator 25 of the terminal 2 generates a tone signal based on the waveform data DA1, and then generates a tone signal based on the waveform data DA2. Thus, by generating a musical tone signal using the waveform data DA1 of the attack portion, it is possible to generate a musical tone having an attack portion for normal MIDI data not accompanied by audio data.
On the other hand, when data having the block identifier BI of “special MIDI” is received, a tone signal is generated using only the waveform data DA2 without using the waveform data DA1 of the attack section. This is because a musical tone is generated based on actual audio data in the attack portion, and it is not necessary to generate a musical tone signal using the waveform data DA1 of the attack portion.

端末2が、端末1からMIDIデータを受信するとともに、本発明の特徴を有さない他の端末からもMIDIデータを受信する場合には、上述したような処理を行うことによって、端末2は、どちらのMIDIデータに対しても、アタック部分の楽音を表現することができる。   When the terminal 2 receives MIDI data from the terminal 1 and also receives MIDI data from other terminals that do not have the characteristics of the present invention, the terminal 2 performs the above-described processing, The musical sound of the attack part can be expressed for both MIDI data.

(変形例7)
また、本発明で用いられる楽器は、上記実施形態で用いたアコースティックギターに限定されるものではない。例えば、太鼓やドラム等の打楽器や、ピアノ等の弦楽器など、任意の楽器に対して適用可能である。
(Modification 7)
The musical instrument used in the present invention is not limited to the acoustic guitar used in the above embodiment. For example, the present invention can be applied to an arbitrary musical instrument such as a percussion instrument such as a drum or a drum or a stringed instrument such as a piano.

(変形例8)
上述した実施形態は楽器から単音が出力される場合を例にしたが、一定の条件を満たせば、単音に限ることなく和音の演奏にも本発明は適用することができる。例えば、ギターのストローク演奏などにおいては、アタック部は各弦について同じタイミングであり、同じ期間になる。そして、ピッチについてマイクロフォン12が出力する複数の音程を含んだ楽音信号から識別して分離し、各音程に対応するノートを有するMIDIデータを生成して、端末2に送信すればよい。
(Modification 8)
In the above-described embodiment, an example in which a single sound is output from a musical instrument is taken as an example. However, the present invention can be applied to playing a chord without being limited to a single sound as long as a certain condition is satisfied. For example, in the case of guitar stroke performance, the attack part has the same timing for each string and the same period. Then, it is only necessary to identify and separate from a musical tone signal including a plurality of pitches output by the microphone 12 with respect to the pitch, generate MIDI data having notes corresponding to each pitch, and transmit the MIDI data to the terminal 2.

(変形例9)
なお、上述した実施形態においては、楽音信号送信端末として端末1を、楽音信号受信端末として端末2を用いたが、1台の端末に送信側と受信側の両方の機能を設けるようにし、端末間で双方向のセッションを行えるようにしてもよい。例えば、上記実施形態における端末1に、端末2に設けられている音源と発音部を設け、受信するオーディオデータまたはMIDIデータに基づいた楽音を発音するようにする。このような構成の端末を複数台用いれば、それぞれの端末が、マイクロフォンから出力される楽音信号からオーディオデータとMIDIデータを生成して他の端末に送信するとともに、他の端末から受信するオーディオデータまたはMIDIデータに基づいた楽音を発音させることができ、これにより、複数の端末1同士で双方向のセッションを行うことが可能となる。
(Modification 9)
In the embodiment described above, the terminal 1 is used as the musical tone signal transmitting terminal and the terminal 2 is used as the musical tone signal receiving terminal. However, the terminal is provided with both functions of the transmitting side and the receiving side. A two-way session may be performed between them. For example, the terminal 1 in the above embodiment is provided with a sound source and a sound generation unit provided in the terminal 2 so that a musical sound based on received audio data or MIDI data is generated. If a plurality of terminals having such a configuration are used, each terminal generates audio data and MIDI data from the musical tone signal output from the microphone, transmits the data to other terminals, and receives audio data from other terminals. Alternatively, it is possible to generate a musical sound based on MIDI data, thereby enabling a bidirectional session between a plurality of terminals 1.

本実施形態に係るシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the system which concerns on this embodiment. 同実施形態の端末1の構成を示す図である。It is a figure which shows the structure of the terminal 1 of the embodiment. 同実施形態の端末1の制御部10が生成するデータブロックのデータ構成図である。It is a data block diagram of the data block which the control part 10 of the terminal 1 of the embodiment produces | generates. オーディオデータの波形の一例をグラフで示した図である。It is the figure which showed an example of the waveform of audio data by the graph. 同実施形態の端末2の構成を示す図である。It is a figure which shows the structure of the terminal 2 of the embodiment. 同実施形態の端末1が行う処理を示すフローチャートである。It is a flowchart which shows the process which the terminal 1 of the embodiment performs. オーディオデータの波形の一例をグラフで示した図である。It is the figure which showed an example of the waveform of audio data by the graph. 同実施形態の端末2が行う処理を示すフローチャートである。It is a flowchart which shows the process which the terminal 2 of the embodiment performs. オーディオデータの波形とMIDIデータに基づく楽音波形の一例を示した図である。It is the figure which showed an example of the tone waveform based on the waveform and MIDI data of audio data.

符号の説明Explanation of symbols

1…端末、2…端末、10,20…制御部、11,21…記憶部、12…マイクロフォン、22…発音部、13,23…通信部、14,24…計時部、AG…アコースティックギター。 DESCRIPTION OF SYMBOLS 1 ... Terminal, 2 ... Terminal, 10, 20 ... Control part, 11, 21 ... Memory | storage part, 12 ... Microphone, 22 ... Sound generation part, 13, 23 ... Communication part, 14, 24 ... Timekeeping part, AG ... Acoustic guitar.

Claims (9)

楽器から放音される楽音が入力されるとこれを楽音信号として出力する入力手段と、
前記入力手段が出力する楽音信号に対し、波形の立ち上がりから所定の範囲をアタック部として抽出するアタック部抽出手段と、
前記入力手段が出力する楽音信号のピッチを検出するピッチ検出手段と、
前記入力手段が出力する楽音信号の消音時点を検出する消音検出手段と、
ネットワークを介して信号の授受を行う通信手段と、
前記ピッチ検出手段が検出したピッチと同じピッチを指示するピッチパラメータ、前記アタック部の終了時点を楽音の発音タイミングとして指示する発音タイミングパラメータおよび前記消音検出手段が検出した消音時点を消音タイミングとして指示する消音タイミングパラメータを生成するパラメータ生成手段と、
前記入力手段に入力された一の楽音について、前記アタック部抽出手段が抽出した波形信号を波形データに変換して前記通信手段を用いて送信させるとともに、当該波形データの送信に続いて前記パラメータ生成手段が生成したピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータを送信させる送信制御手段と
を具備することを特徴とする楽音信号送信端末。
An input means for outputting a musical sound emitted from a musical instrument as a musical sound signal;
Attack part extraction means for extracting a predetermined range from the rising edge of the waveform as an attack part for the musical sound signal output by the input means;
Pitch detecting means for detecting the pitch of the musical sound signal output by the input means;
Mute detection means for detecting a mute time point of the musical sound signal output by the input means;
A communication means for transmitting and receiving signals via a network;
A pitch parameter indicating the same pitch as the pitch detected by the pitch detecting means, a sounding timing parameter indicating the end time of the attack section as a sounding sounding timing, and a sounding time point detected by the sounding detecting means are indicated as a sounding timing. Parameter generating means for generating a mute timing parameter;
For one musical sound input to the input means, the waveform signal extracted by the attack extraction means is converted into waveform data and transmitted using the communication means, and the parameter generation is performed following transmission of the waveform data. And a transmission control means for transmitting the pitch parameter, sound generation timing parameter, and mute timing parameter generated by the means.
前記アタック抽出部における前記所定の部分は、前記波形の立ち上がり時から予め定められた所定の区間であることを特徴とする請求項1記載の楽音信号送信端末。   2. The musical tone signal transmitting terminal according to claim 1, wherein the predetermined portion in the attack extraction unit is a predetermined section determined in advance from the rising edge of the waveform. 前記アタック抽出部は、前記波形のレベルが立ち上がり時のピークから所定量下回る時点をアタック終了点として検出し、前記波形の立ち上がりからアタック終了点までをアタック部として抽出することを特徴とする請求項1記載の楽音信号送信端末。   The attack extraction unit detects a time point when the level of the waveform falls below a predetermined amount from a peak at the time of rising as an attack end point, and extracts from the rise of the waveform to the attack end point as an attack unit. The musical tone signal transmitting terminal according to 1. 前記アタック抽出部は、前記波形の立ち上がり時から前記ピッチ検出手段がピッチを検出するまでの間をアタック部として抽出することを特徴とする請求項1記載の楽音信号送信端末。   2. The musical tone signal transmitting terminal according to claim 1, wherein the attack extraction unit extracts an interval from the rise of the waveform until the pitch detection unit detects the pitch as an attack unit. 前記パラメータ生成手段は、音色を指定する音色パラメータを発生する音色パラメータ発生手段を有し、前記送信制御手段は、ピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータに加えて、前記音色パラメータ発生手段が指示した音色パラメータをも前記通信手段に送信させることを特徴とする請求項1から4いずれかに記載の楽音信号送信端末。   The parameter generation means includes a timbre parameter generation means for generating a timbre parameter for designating a timbre, and the transmission control means is instructed by the timbre parameter generation means in addition to the pitch parameter, the sound generation timing parameter and the mute timing parameter. 5. The musical tone signal transmitting terminal according to claim 1, wherein the timbre parameter is also transmitted to the communication means. 前記音色パラメータ発生手段は、前記入力手段が出力する楽音信号を解析することにより音色を特定し、この音色を示す音色パラメータを発生することを特徴とする請求項5記載の楽音信号送信端末。   6. A musical tone signal transmitting terminal according to claim 5, wherein said timbre parameter generating means specifies a timbre by analyzing a musical tone signal output from said input means, and generates a timbre parameter indicating the timbre. ネットワークを介して信号の授受を行う通信手段と、
前記通信手段が受信した波形データに基づいて楽音信号を生成する波形再生手段と、
前記通信手段が、ピッチを指示するピッチパラメータ、楽音の発音タイミングを指示する発音タイミングパラメータおよび前記楽音の消音タイミングを指示する消音タイミングパラメータを受信した場合には、これらのパラメータに基づいて楽音信号を生成する音源手段と、
前記波形再生手段が生成した楽音信号の再生に続けて前記音源手段が生成した楽音信号の再生を行わせる再生制御手段と
を具備することを特徴とする楽音信号受信端末。
A communication means for transmitting and receiving signals via a network;
Waveform reproducing means for generating a musical sound signal based on the waveform data received by the communication means;
When the communication means receives a pitch parameter for instructing a pitch, a sound generation timing parameter for instructing the sound generation timing of a musical sound, and a mute timing parameter instructing the sound muffling timing of the music sound, a musical sound signal is generated based on these parameters. Sound source means to generate,
A musical tone signal receiving terminal comprising: a reproduction control unit that reproduces the musical tone signal generated by the sound source unit following the reproduction of the musical tone signal generated by the waveform reproducing unit.
前記音源手段は、前記通信手段が音色を指示する音色パラメータを受信した場合には、前記音色パラメータに基づく音色により前記楽音信号の生成を行うことを特徴とする請求項7記載の楽音信号受信端末。   8. The musical tone signal receiving terminal according to claim 7, wherein, when the communication means receives a timbre parameter indicating a timbre, the tone generator generates the musical tone signal based on a timbre based on the timbre parameter. . 前記再生制御手段は、前記波形再生手段による波形信号の再生が終了する前に前記音源手段が生成した楽音信号の再生を開始し、両者の再生が重なる期間においてはクロスフェード処理を行うことを特徴とする請求項7または8記載の楽音信号受信端末。   The reproduction control unit starts reproduction of a musical sound signal generated by the sound source unit before the reproduction of the waveform signal by the waveform reproduction unit is completed, and performs cross-fade processing in a period in which both reproductions overlap. The musical tone signal receiving terminal according to claim 7 or 8.
JP2005103137A 2005-03-31 2005-03-31 Musical sound signal transmitting terminal and musical sound signal receiving terminal Withdrawn JP2006284796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005103137A JP2006284796A (en) 2005-03-31 2005-03-31 Musical sound signal transmitting terminal and musical sound signal receiving terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005103137A JP2006284796A (en) 2005-03-31 2005-03-31 Musical sound signal transmitting terminal and musical sound signal receiving terminal

Publications (1)

Publication Number Publication Date
JP2006284796A true JP2006284796A (en) 2006-10-19

Family

ID=37406819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005103137A Withdrawn JP2006284796A (en) 2005-03-31 2005-03-31 Musical sound signal transmitting terminal and musical sound signal receiving terminal

Country Status (1)

Country Link
JP (1) JP2006284796A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853650B (en) * 2009-04-03 2012-04-25 王路露 Music processing and output system and method thereof
JP2016161831A (en) * 2015-03-03 2016-09-05 ヤマハ株式会社 Device and program for singing evaluation
CN110168634A (en) * 2017-03-24 2019-08-23 雅马哈株式会社 Sounding device and sonification system
CN114205400A (en) * 2020-09-01 2022-03-18 雅马哈株式会社 Communication control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853650B (en) * 2009-04-03 2012-04-25 王路露 Music processing and output system and method thereof
JP2016161831A (en) * 2015-03-03 2016-09-05 ヤマハ株式会社 Device and program for singing evaluation
CN110168634A (en) * 2017-03-24 2019-08-23 雅马哈株式会社 Sounding device and sonification system
CN110168634B (en) * 2017-03-24 2024-03-19 雅马哈株式会社 Sound producing device, sound producing system and game device
CN114205400A (en) * 2020-09-01 2022-03-18 雅马哈株式会社 Communication control method
CN114205400B (en) * 2020-09-01 2023-09-01 雅马哈株式会社 communication control method

Similar Documents

Publication Publication Date Title
JP5311863B2 (en) Electronic keyboard instrument
JP4107107B2 (en) Keyboard instrument
JP2006011364A (en) Electronic hi-hat cymbal
JP5494677B2 (en) Performance device and performance program
WO2022095656A1 (en) Audio processing method and apparatus, and device and medium
JP2003241757A (en) Device and method for waveform generation
JP2006251375A (en) Voice processor and program
JP5533892B2 (en) Performance equipment
JP2006284796A (en) Musical sound signal transmitting terminal and musical sound signal receiving terminal
JP4802857B2 (en) Musical sound synthesizer and program
JP3750533B2 (en) Waveform data recording device and recorded waveform data reproducing device
JP3176273B2 (en) Audio signal processing device
JP5458494B2 (en) Electronic musical instruments
JPH08227296A (en) Sound signal processor
JP2008518248A (en) Apparatus and method for reproducing MIDI file
JP5151603B2 (en) Electronic musical instruments
JP2019168646A (en) Recording and reproducing apparatus, control method and control program for recording and reproducing apparatus, and electronic musical instrument
JP3719129B2 (en) Music signal synthesis method, music signal synthesis apparatus and recording medium
JP2010175739A (en) Electronic metronome and program
JP2002297139A (en) Playing data modification processor
JP5754404B2 (en) MIDI performance device
Canfer Music Technology in Live Performance: Tools, Techniques, and Interaction
JP3590189B2 (en) Electronic stringed instruments
JP6102131B2 (en) Musical sound control device, musical sound control method and program
JPH10171475A (en) Karaoke (accompaniment to recorded music) device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080122

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090128