JP2006284796A - Musical sound signal transmitting terminal and musical sound signal receiving terminal - Google Patents
Musical sound signal transmitting terminal and musical sound signal receiving terminal Download PDFInfo
- Publication number
- JP2006284796A JP2006284796A JP2005103137A JP2005103137A JP2006284796A JP 2006284796 A JP2006284796 A JP 2006284796A JP 2005103137 A JP2005103137 A JP 2005103137A JP 2005103137 A JP2005103137 A JP 2005103137A JP 2006284796 A JP2006284796 A JP 2006284796A
- Authority
- JP
- Japan
- Prior art keywords
- musical
- parameter
- sound
- waveform
- attack
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、楽器の演奏音を集音し、ネットワークを介して送受信する技術に関する。 The present invention relates to a technique for collecting performance sounds of musical instruments and transmitting / receiving them via a network.
ネットワークを介して合奏を行うネットセッションと呼ばれる演奏形態が普及しつつある。この場合、自然楽器の音をデジタル信号化してオーディオデータとして伝送したり、あるいは電子楽器から出力されるMIDI(Musical Instrument Digital Interface)信号を伝送したりすることが一般的である。
特許文献1においては、音楽指導を行うシステムにおいて、教師と生徒間の通信を行う際に、マイクによって集音した音声や楽器音についてはオーディオデータで通信を行い、電子楽器の演奏についてはMIDI信号で通信を行っている。
In
ところで、ネットワークにおけるデータ伝送は、端末の処理速度の問題、トラフィック増加の問題あるいはネットワークの遅延などの問題を考慮した場合、データ量を減らすことが重要である。この場合、MIDI信号による通信を行った方が、オーディオデータによる通信を行う場合にくらべ、データ量は圧倒的に少ない。
しかしながら、MIDI信号を出力できるのは、電子楽器やMIDI機器だけであるから、自然楽器の楽音を伝送しようとした場合は、特許文献1に示されるようにオーディオデータを用いて通信を行うしかなかった。また、オーディオデータのサンプリング周波数を低くしたり、圧縮技術によってデータ量を削減したりすることもできるが、この場合には、自然楽器特有の音色を忠実に伝送することできず、楽音品質が著しく低下してしまうという問題があった。
By the way, in the data transmission in the network, it is important to reduce the data amount in consideration of the problem of the processing speed of the terminal, the problem of the traffic increase or the network delay. In this case, the amount of data is overwhelmingly smaller when performing communication using MIDI signals than when performing communication using audio data.
However, since only an electronic musical instrument or a MIDI device can output a MIDI signal, it is only possible to communicate using audio data as disclosed in
この発明は上述した事情に鑑みてなされたもので、MIDI信号を出力できない自然楽器等の楽音を伝送する際に、楽音の品質を保ちつつ、データ量を削減することができる楽音信号送信端末を提供することを目的とする。 The present invention has been made in view of the above-described circumstances. When transmitting a musical tone such as a natural musical instrument that cannot output a MIDI signal, a musical tone signal transmitting terminal capable of reducing the data amount while maintaining the quality of the musical tone is provided. The purpose is to provide.
上記課題を解決するため、本発明は、楽器から放音される楽音が入力されるとこれを楽音信号として出力する入力手段と、前記入力手段が出力する楽音信号に対し、波形の立ち上がりから所定の範囲をアタック部として抽出するアタック部抽出手段と、前記入力手段が出力する楽音信号のピッチを検出するピッチ検出手段と、前記入力手段が出力する楽音信号の消音時点を検出する消音検出手段と、ネットワークを介して信号の授受を行う通信手段と、前記ピッチ検出手段が検出したピッチと同じピッチを指示するピッチパラメータ、前記アタック部の終了時点を楽音の発音タイミングとして指示する発音タイミングパラメータおよび前記消音検出手段が検出した消音時点を消音タイミングとして指示する消音タイミングパラメータを生成するパラメータ生成手段と、前記入力手段に入力された一の楽音について、前記アタック部抽出手段が抽出した波形信号を波形データに変換して前記通信手段を用いて送信させるとともに、当該波形データの送信に続いて前記パラメータ生成手段が生成したピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータを送信させる送信制御手段とを具備することを特徴とする楽音信号送信端末を提供する。 In order to solve the above-mentioned problems, the present invention provides an input means for outputting a musical sound emitted from a musical instrument as a musical sound signal when the musical sound is input, and a predetermined tone from the rising edge of the waveform for the musical sound signal output by the input means. An attack part extracting means for extracting the range of the musical sound signal output from the input means, a pitch detecting means for detecting the pitch of the musical sound signal output from the input means, A communication means for exchanging signals via a network, a pitch parameter for instructing the same pitch as the pitch detected by the pitch detection means, a sounding timing parameter for instructing an end point of the attack unit as a sounding sounding timing, and the above A mute timing parameter is generated that indicates the mute timing detected by the mute detection means as the mute timing. For the one tone input to the parameter generation means and the input means, the waveform signal extracted by the attack section extraction means is converted into waveform data and transmitted using the communication means, and the waveform data is transmitted. Subsequently, there is provided a musical sound signal transmitting terminal comprising transmission control means for transmitting the pitch parameter, sound generation timing parameter and mute timing parameter generated by the parameter generating means.
本発明の好ましい態様において、前記アタック抽出部における前記所定の部分は、前記波形の立ち上がり時から予め定められた所定の区間であるようにしてもよい。
また、本発明の別の好ましい態様において、前記アタック抽出部は、前記波形のレベルが立ち上がり時のピークから所定量下回る時点をアタック終了点として検出し、前記波形の立ち上がりからアタック終了点までをアタック部として抽出するようにしてもよい。
また、本発明の別の好ましい態様において、前記アタック抽出部は、前記波形の立ち上がり時から前記ピッチ検出手段がピッチを検出するまでの間をアタック部として抽出するようにしてもよい。
In a preferred aspect of the present invention, the predetermined portion in the attack extraction unit may be a predetermined section determined in advance from the rising edge of the waveform.
In another preferred aspect of the present invention, the attack extraction unit detects a time point when the waveform level falls below a predetermined amount from a peak at the time of rising as an attack end point, and attacks from the waveform rising to the attack end point. You may make it extract as a part.
In another preferable aspect of the present invention, the attack extraction unit may extract an interval from the rising of the waveform until the pitch detection unit detects the pitch as an attack unit.
また、本発明の別の好ましい態様において、前記パラメータ生成手段は、音色を指定する音色パラメータを発生する音色パラメータ発生手段を有し、前記送信制御手段は、ピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータに加えて、前記音色パラメータ発生手段が指示した音色パラメータをも前記通信手段に送信させるようにしてもよい。
また、本発明の更に好ましい態様においては、前記音色パラメータ発生手段は、前記入力手段が出力する楽音信号を解析することにより音色を特定し、この音色を示す音色パラメータを発生するようにしてもよい。
In another preferred aspect of the present invention, the parameter generation means includes timbre parameter generation means for generating a timbre parameter for designating a timbre, and the transmission control means includes a pitch parameter, a sound generation timing parameter, and a mute timing parameter. In addition, the communication unit may transmit the timbre parameter instructed by the timbre parameter generation unit.
In a further preferred aspect of the present invention, the timbre parameter generating means may specify a timbre by analyzing a musical tone signal output from the input means and generate a timbre parameter indicating the timbre. .
また、本発明は、ネットワークを介して信号の授受を行う通信手段と、前記通信手段が受信した波形データに基づいて楽音信号を生成する波形再生手段と、前記通信手段が、ピッチを指示するピッチパラメータ、楽音の発音タイミングを指示する発音タイミングパラメータおよび前記楽音の消音タイミングを指示する消音タイミングパラメータを受信した場合には、これらのパラメータに基づいて楽音信号を生成する音源手段と、前記波形再生手段が生成した楽音信号の再生に続けて前記音源手段が生成した楽音信号の再生を行わせる再生制御手段とを具備することを特徴とする楽音信号受信端末を提供する。
本発明の好ましい態様においては、前記音源手段は、前記通信手段が音色を指示する音色パラメータを受信した場合には、前記音色パラメータに基づく音色により前記楽音信号の生成を行うようにしてもよい。
また、本発明の更に好ましい態様においては、前記再生制御手段は、前記波形再生手段による波形信号の再生が終了する前に前記音源手段が生成した楽音信号の再生を開始し、両者の再生が重なる期間においてはクロスフェード処理を行うようにしてもよい。
In addition, the present invention provides a communication unit that transmits and receives signals via a network, a waveform reproduction unit that generates a musical sound signal based on waveform data received by the communication unit, and a pitch at which the communication unit indicates a pitch. When receiving the parameters, the sound generation timing parameter for instructing the sound generation timing, and the mute timing parameter for instructing the sound mute timing, sound source means for generating a music signal based on these parameters, and the waveform reproduction means And a reproduction control means for reproducing the musical sound signal generated by the sound source means following the reproduction of the musical sound signal generated by the sound source means.
In a preferred aspect of the present invention, when the communication means receives a timbre parameter indicating a timbre, the tone generator means may generate the musical tone signal based on a timbre based on the timbre parameter.
Further, in a further preferred aspect of the present invention, the reproduction control means starts reproduction of the musical tone signal generated by the sound source means before the reproduction of the waveform signal by the waveform reproduction means ends, and the reproduction of both overlaps. Cross fade processing may be performed during the period.
特徴のあるアタック部分は実際の波形データ(例えば、オーディオデータ)に基づいて楽音を発音し、アタック部以外はパラメータ(例えばMIDIデータ)に基づいて発音することによって、自然楽器などで実際に発音される楽音の特徴を損なわせることなく、実際の楽音に近い楽音を発音することが可能となる。しかも、データ転送量は著しく低減される。 A characteristic attack part sounds a musical tone based on actual waveform data (eg, audio data), and a sound other than the attack part is actually pronounced by a natural instrument by sounding based on a parameter (eg, MIDI data). It is possible to produce a musical tone that is close to the actual musical tone without detracting from the characteristics of the musical tone. In addition, the data transfer amount is significantly reduced.
以下、図面を参照しつつ本発明の実施形態について説明する。
(1)構成
まず、本実施形態に係るシステムの全体構成について説明する。図1は、本実施形態に係るセッションシステムの全体構成を示すブロック図である。図に示すように、このシステムは、端末1と端末2とが通信ネットワークにより接続されて構成される。なお、実際にはより多くの端末が接続されるが、説明の簡略化のために2つの端末1,2だけを示している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(1) Configuration First, the overall configuration of the system according to the present embodiment will be described. FIG. 1 is a block diagram showing the overall configuration of the session system according to the present embodiment. As shown in the figure, this system is configured by connecting a
図2は、端末1の構成の示す図である。端末1は、アコースティックギターAGなどの自然楽器の音を集音してネットワークを介して他の端末に通信するものである。図において、10は、CPU(Central Processing Unit)等の制御部であり、記憶部11に格納されているソフトウェアプログラムに従い、BUSを介して回路各部を制御する。
FIG. 2 is a diagram illustrating a configuration of the
12は、アコースティックギターAGなどの楽器が放音する楽音を集音するマイクロフォンである。制御部10は、マイクロフォン12で集音した楽音に対して所定の処理を行い、デジタルオーディオデータやMIDI形式のデジタルデータを生成する。なお、以下の説明では、説明の便宜上、デジタルオーディオデータを「オーディオデータ」と称し、MIDI形式のデジタルデータを、「MIDIデータ」と称する。
13は、通信インターフェース等を有する通信部であり、制御部10の制御の下、制御部10が生成したオーディオデータまたはMIDIデータを、ブロック単位で通信ネットワークを介して端末2に送信する。14は、計時部であり、時刻を計時して時刻情報TIを出力する。
ここで、制御部10が生成するデータブロックの構成について、図3を参照しつつ説明する。図示のように、データブロックは、ブロック識別子BIと時刻情報TIとデータDAとの3つの情報によって構成される。ブロック識別子BIは、データブロックが、オーディオデータであるかそれともMIDIデータであるかを示す識別子である。ブロック識別子BIがオーディオデータを示す場合は、データDAがオーディオデータであることを示し、ブロック識別子BIがMIDIデータを示す場合は、データDAがMIDIデータであることを示す。時刻情報TIは、前述した計時部14が生成する情報である。
Here, the configuration of the data block generated by the
記憶部11は、図2に示すように、揮発性記憶部11aと不揮発性記憶部11bとを含んでいる。揮発性記憶部11aは、例えばRAM(Random Access Memory)であり、各種ソフトウェアプログラムにしたがって作動している制御部10によってワークエリアとして利用される。一方、不揮発性記憶部11bは、例えばROM(Read Only Memory)やハードディスクであり、本発明に係る端末1に特有な機能を制御部10に実現させるためのソフトウェアを格納しておくためのものである。この不揮発性記憶部11bに格納されているソフトウェアの一例としては、OS(Operating System)を制御部10に実現させるためのOSソフトウェアプログラムと、上記オーディオデータとMIDIデータの生成処理や送信処理を制御部10に実行させるためのソフトウェアがある。
As shown in FIG. 2, the
また、記憶部11の不揮発性記憶部11bには、入力される楽器の音のアタック部の時間幅を示すアタック時間Wが記憶されている。ここで、図4を参照しながら、このアタック時間Wについて以下に説明する。
図4は、マイクロフォン12が集音する楽器音の波形の一例をグラフで示した図である。図において、横軸は時刻、縦軸は波形の振幅である。この図では、時刻t1に楽音が発生し、時刻t3に消音した場合を表している。波形の立ち上がりから一定区間(時刻t1から時刻t2の間に発音される楽音)は一般にアタック部と呼ばれ、この部分の波形にはその楽器特有の音色や弾き方の特徴が現れる。一方、それ以降(時刻t2から時刻t3の間に発音される楽音)では音の波形がほぼ一定となって徐々に減衰する波形となる。このような波形は電子的に構成しても品質はあまり劣化しないことが知られている。本実施形態においては、アタック部を抽出するための期間として固定のアタック時間Wを設定している。この場合、アタック部の時間は、楽器の特性や弾き方によって若干の変動があるが、発音開始時の短い時間であるため、固定の値を設定しても実用上は問題ない。
The
FIG. 4 is a graph showing an example of the waveform of the instrument sound collected by the
次に、端末2の構成について図5を参照しつつ説明する。同図において、20は、例えばCPU等の制御部であり、記憶部21に格納されているソフトウェアプログラムに従い、BUSを介して回路各部を制御する。22は、DSP(Digital signal processor)等の音声信号処理回路およびスピーカ等を有する発音部であり、制御部20の制御の下に楽音を発音させる。23は、通信インターフェースを有する通信部であり、制御部20の制御の下、端末1から送信されるデータブロックを受信する。24は、計時部であり、発音タイミング等を決定する上で基準となる時刻を生成する。
Next, the configuration of the
記憶部21は、図5に示すように、揮発性記憶部21aと不揮発性記憶部21bとを含んでいる。不揮発性記憶部21bには、音色パラメータTPが記憶されている。本実施形態の場合は、アコースティックギターの音色を示すパラメータが記憶されている。25は音源であり、音色パラメータTPで示される音色に対応する楽音信号を生成する。この楽音信号は発音部22に供給され、ここで楽音として放音される。
As shown in FIG. 5, the
(2)動作
次に、本実施形態に係るセッションシステムの動作について説明する。
以下では、端末1のユーザがアコースティックギターAG(図2参照)を演奏し、この楽音が端末2に送信される場合を例にとる。なお、以下の説明においては、アコースティックギターAGは単音で演奏されるものとする。
(2) Operation Next, the operation of the session system according to the present embodiment will be described.
In the following, a case where the user of the
(2−1)端末1の動作
図6は、端末1の制御部10が行う処理を示すフローチャートである。マイクロフォン12はアコースティックギターAGから放音される音を集音し、楽音信号として出力する。制御部10は、マイクロフォン12から出力される楽音信号を解析する。
この解析は、ビートトラッキングと呼ばれる一般的な手法が用いられ、マイクロフォン12が出力する楽音信号と所定の閾値を比較し、信号の立ち上がりを検出する。具体的には、楽音信号に対してハイパスフィルタをかけ、その振れ幅が所定の閾値より大きければ、信号が立ち上がりアタック部が開始されたと認識する。
そして、信号の立ち上がりが検出されると、ステップSP1の判定がYESとなり、制御部10は不揮発性記憶部11bからアタック時間Wを読み出して計時を開始し(ステップSP2)、マイクロフォン12が出力する楽音信号(アナログ信号)を所定のサンプリングレートでオーディオデータに変換する。そして、サンプリングされたこのオーディオデータをデータDAとして、各サンプリング時点における計時部14の時刻情報TIを付けてデータブロックを順次生成する。そして、このようにして生成されたデータブロックの各々の識別情報BIをオーディオデータとして、通信部13から端末2に向けて送信する(ステップSP3)。同時に、制御部10はオーディオデータを解析してピッチ検出を開始する(ステップSP4)。
(2-1) Operation of
For this analysis, a general method called beat tracking is used, and a tone signal output from the
When the rising edge of the signal is detected, the determination in step SP1 is YES, and the
そして、アタック時間Wの計時が終了して、ステップSP5の判定が「YES」となると、制御部10はオーディオデータのデータブロックの送信を停止し(ステップSP6)、検出されたピッチをノートとして指定するノートオンのMIDIデータを生成し、これをデータDAとするデータブロックを生成して通信部13から端末2に向けて送信する(ステップSP7)。このデータブロックには、計時部14が出力する時刻情報TIが付加され、また、MIDIであることを指示する識別情報BIが付加される。このとき、付加される時刻情報TIは、発音開始時刻にアタック時間Wが終了する時間を加えた時刻(図4の時刻t2参照)となる。
When the measurement of the attack time W is completed and the determination in step SP5 is “YES”, the
続けて、制御部10は、マイクロフォン12が出力している楽音波形に対して消音したか否かを判定する(ステップSP8)。消音したと判定された場合は(ステップSP8;YES)、MIDIのノートオフデータを生成し、データブロックのデータDAに配置して送信する(ステップSP9)。このとき、生成されるノートオフデータは、時刻t2において送信したノートオンと同じノートを指示するものであり、また、このノートオフデータに付加される時刻情報TIは消音検出時において計時部14が出力する時刻情報TIである(図4の時刻t3参照)。一方、ステップSP8において、消音していないと判定された場合は(ステップSP8;NO)、消音が検出されるまで待機する。
Subsequently, the
上述した一連の処理において、一つの楽音(単音)がどのように送信されるかについて以下に概略的に説明する。図7の(a)は、オーディオデータの波形の一例をグラフで示した図であり、図4と同一のものである。図7の(b)は、図7の(a)と対応する時刻に送信されるデータブロックに含まれるオーディオデータまたはMIDIデータを図示したものであり、図において、D1はオーディオデータを示し、D2はMIDIデータ(ノートオン)、D3はMIDIデータ(ノートオフ)を示している。図7の時刻t1において、端末1の演奏者がアコースティックギターAGを用いて楽音の発音を開始させると、端末1の制御部10は、図6のステップSP1→SP2→SP3→SP4→SP5の処理を実行し、アタック時間Wが経過するまでの間、オーディオデータD1の送信を連続して行うとともに、ピッチ検出処理を並行して行う。
アタック時間Wが経過すると(時刻t2)、図6のステップSP6、ステップSP7の処理を行い、ノートオンパラメータを含むMIDIデータD2を端末2に送信する。そして、時刻t3において楽音が消音すると、ノートオフパラメータを含むMIDIデータD3を端末2に送信する。
In the series of processes described above, how one musical tone (single tone) is transmitted will be schematically described below. FIG. 7A is a graph showing an example of a waveform of audio data, which is the same as FIG. FIG. 7B illustrates audio data or MIDI data included in a data block transmitted at a time corresponding to FIG. 7A. In the drawing, D1 indicates audio data, and D2 Indicates MIDI data (note-on), and D3 indicates MIDI data (note-off). At time t 1 in FIG. 7, when the performer of the terminal 1 starts sound generation using the acoustic guitar AG, the
When the attack time W elapses (time t 2 ), the processing of step SP6 and step SP7 in FIG. 6 is performed, and the MIDI data D2 including the note-on parameter is transmitted to the
以上のように、楽音の特徴を多く含むアタック部については、再現性の高いオーディオデータを送信し、アタック部以外についてはMIDIデータを送信しているので、送信するデータ量は著しく削減される。 As described above, since the highly reproducible audio data is transmitted for the attack part including many features of the musical sound and the MIDI data is transmitted for other parts than the attack part, the amount of data to be transmitted is significantly reduced.
(2−2)端末2の動作
次に、端末2の動作について、図面を参照しつつ説明する。
図8は、端末2が行う処理を示すフローチャートである。端末2の制御部20は、データブロック(オーディオデータまたはMIDIデータを含む)を受信すると(ステップS51;YES)、そのブロックに含まれるブロック識別子を判定する(ステップS52)。ブロック識別子BIが「オーディオ」である場合は、そのデータ部DAがオーディオデータであると判断し、時刻情報TIに基づくタイミングでオーディオデータを順次発音部22に供給する。発音部22は、供給されたオーディオデータに基づいて、楽音を発音する(ステップS53)。例えば、図7(b)に示すオーディオデータを受信した場合は、時刻t1から時刻t2に至る間は、端末1から順次送信される各サンプリングタイミング毎のデータブロックを受信し、そこに含まれるオーディオデータに基づいて楽音が発生される。これにより、アコースティックギターAGのアタック部の楽音がオーディオデータに基づいて高音質で発音される。
一方、制御部20は、受信したデータブロックのブロック識別子BIが「MIDI」である場合は、データ部DAがMIDIデータであると判断し、そのMIDIデータに基づいて、音源25によって楽音信号を発生させ、発生した楽音信号を発音部22に供給する(ステップS54)。例えば、図7(b)に示すような場合は、時刻t2においてキーオンのMIDIデータを受信すると、このMIDIデータに対して記憶部21に記憶した音色パラメータTPを付加して音源25に供給する。この結果、音源25は時刻t2に対応する時刻からギターの音色の楽音信号を生成し、この楽音信号が発音部22に供給されて発音される。この場合に再生される音高は、MIDIデータによって指定されたノートの音高となる。すなわち、時刻t1から時刻t2まではオーディオデータに基づくアタック部の楽音が再生され、時刻t2からはMIDI用の音源25による楽音がアタック部と同じ音高によって再生される。そして、図7(b)に示すMIDIデータD3を通信部23が受信すると、ステップS52→S54と進み、制御部20は音源25に対して消音処理を指示する。この結果、時刻t2から発音されていた音源25による発音が停止される。
(2-2) Operation of
FIG. 8 is a flowchart showing processing performed by the
On the other hand, when the block identifier BI of the received data block is “MIDI”, the
以上のように、本実施形態では、特徴のあるアタック部分は実際のオーディオデータに基づいて楽音を発音し、アタック部以外はMIDIデータに基づいて発音することによって、端末2は、アコースティックギターAGで実際に発音される楽音の特徴を損なわせることなく、実際の楽音に近い楽音を発音することが可能となる。
また、上述の実施形態においては、音源25が生成する楽音信号としては、キーオンが指示されたときから、アタック部以降の楽音信号(ディケイ部、サステイン部などの信号)を生成するとよい(図4のDW2参照)。オーディオデータによるアタック部の波形の後にMIDIデータによる楽音波形が続くため、MIDIデータによる発音にはアタック部が不要だからである。なお、一般的なMIDI音源を用いる場合は、キーオンが指示されるとアタック部を有した楽音信号を生成するが、聴感上問題がなければ、このような音源を用いても良い。
As described above, in the present embodiment, the characteristic attack portion sounds a musical tone based on actual audio data, and the portion other than the attack portion sounds based on MIDI data, whereby the
Further, in the above-described embodiment, as the tone signal generated by the
<変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(変形例1)
上述した実施形態においては、端末1が送信するMIDIデータには音色パラメータは含まれておらず、端末2が記憶している音色パラメータTPによって音源25が生成する楽音信号の音色を指定するようにしたが、これに変えて、端末1が送信するMIDIデータに音色パラメータTPを含めるようにしてもよい。例えば、図2に破線で示すように、ユーザの操作に従って音色を選択する音色選択部15を設け、制御部10がMIDIデータを生成する際には、この音色選択部15が選択している音色パラメータTPを付加するように構成する。そして、音色パラメータTPが付加されたMIDIデータを端末2に送信するように構成し、端末2の音源25においては、送信されたMIDIデータに含まれる音色パラメータTPによって指示される音色の楽音信号を生成するようにする。また、端末1の制御部10がマイクロフォン12が出力する楽音信号を周波数解析することによって音色を特定するように構成し、特定した音色に対応する音色パラメータTPをMIDI信号に含めて送信するように構成してもよい。
(Modification 1)
In the embodiment described above, the timbre parameter is not included in the MIDI data transmitted by the
(変形例2)
上述した実施形態では、アタック部の長さは、固定値(記憶部11に記憶されているアタック時間W)であったが、アタック部の長さを切り替えるようにしてもよい。例えば、アタック部の長さは弾き方によって異なることがあるので、図2に示す不揮発性記憶部11b内に複数のアタック時間を記憶させておき、これをランダムに選択してアタック時間にゆらぎを持たせるようにしてもよい。また、マイクロフォン12が出力する楽音信号の振幅から楽音の強さ(ベロシティ)を検出し、このベロシティに対応して不揮発性記憶部11b内のアタック時間を選択してもよい。
また、楽音波形の立ち上がりから、ピッチが検出されるまでの期間をアタック部の長さとして特定してもよい。このようにすると、アタック部においてピッチが変動しているためにピッチが特定できない場合に有効である。この場合においても、アタック部が終了して波形が安定した直後にピッチ検出を行うことができるから、アタック部として検出された期間は、実際のアタック部に対して過度に長い期間が設定されることはなく、端末2において不自然な楽音が再生されることはない。
また、アタック部の長さを特定する他の方法として、波形の振幅の変化率が所定の閾値を下回ったとき(波形が安定領域に入ったとき)をアタック部の終了点として特定してもよい。なお、アタック部の検知方法は上記に限定されるものではなく、例えば、アタック部の振幅だけでは検出が難しい楽器の場合は、周波数成分の変化が振幅変化より優位にある区間をアタック部とする、といった検知方法を用いるようにしてもよい。
(Modification 2)
In the embodiment described above, the length of the attack part is a fixed value (the attack time W stored in the storage unit 11), but the length of the attack part may be switched. For example, since the length of the attack part may differ depending on how to play, a plurality of attack times are stored in the
Further, the period from the rise of the musical sound waveform until the pitch is detected may be specified as the length of the attack portion. This is effective when the pitch cannot be specified because the pitch fluctuates in the attack portion. Even in this case, since the pitch can be detected immediately after the attack portion is finished and the waveform is stabilized, the period detected as the attack portion is set to an excessively long period with respect to the actual attack portion. No unnatural musical sound is played back on the
Further, as another method for specifying the length of the attack portion, it is possible to specify the end point of the attack portion when the rate of change in the amplitude of the waveform falls below a predetermined threshold (when the waveform enters the stable region). Good. The detection method of the attack part is not limited to the above. For example, in the case of an instrument that is difficult to detect only by the amplitude of the attack part, a section in which the change of the frequency component is superior to the amplitude change is set as the attack part. Such a detection method may be used.
(変形例3)
上述した実施形態においては、アタック部分は実際のオーディオデータに基づいて楽音を発音し、アタック部以外はMIDIデータに基づいて発音するようにしたが、オーディオデータとMIDIデータをクロスフェードさせるようにしてもよい。例えば、図2に破線で示すように、フェード時間W´(アタック時間Wよりも長い時間が設定される)を端末1の記憶部11に記憶させておくようにする。そして、図7の(c)に示すように、端末1の制御部10は、時刻t1からフェード時間W´が経過する時刻t2´までの間、オーディオデータD1の送信を連続して行うとともに、時刻t1からアタック時間Wが経過した時刻t2において、ノートオンパラメータを含むMIDIデータD2を端末2に送信する。
(Modification 3)
In the embodiment described above, the attack portion sounds a tone based on actual audio data, and the portion other than the attack portion sounds based on MIDI data. However, the audio data and MIDI data are cross-faded. Also good. For example, as indicated by a broken line in FIG. 2, the fade time W ′ (a time longer than the attack time W is set) is stored in the
図9は、端末2によって発音される楽音の波形を示す図である。図において、T1は、受信されるMIDIデータに基づいて発音される楽音の波形を示したものであり、T2は、受信されるオーディオデータに基づいて発音される楽音の波形を示したものである。図示のように、端末2の音源25は、時刻t2から時刻t3までの間、受信したMIDIデータD2に基づいて楽音信号を生成する。また、時刻t1から時刻t2´までの間は、発音部22が受信したオーディオデータに基づいて楽音を発音する。この際、端末2の発音部22は、時刻t2から時刻t2´の間は、MIDIデータに基づく楽音がフェードインするように楽音信号を再生する一方、オーディオデータに基づく楽音がフェードアウトするように楽音信号を再生する。そして、これらの2種類の楽音信号を合成した楽音信号によって放音を行う。このようにすることで、MIDIデータに基づく楽音とオーディオデータに基づく楽音とがクロスフェードして発音され、両者をより自然な感覚で切り換えることができる。
FIG. 9 is a diagram illustrating a waveform of a musical sound generated by the
(変形例4)
上述した実施形態においては、端末1が送信するMIDIデータにはベロシティパラメータは含まれていなかったが、端末1の制御部10が、マイクロフォン12が出力する楽音信号の振幅からベロシティを検出するようにし、端末1が送信するMIDIデータにベロシティパラメータを含めるようにしてもよい。この場合、端末2の音源25においては、送信されたMIDIデータに含まれるベロシティパラメータによって指示される音量の楽音信号を生成するようにする。
(Modification 4)
In the above-described embodiment, the velocity parameter is not included in the MIDI data transmitted from the
(変形例5)
端末2の発音部22は、楽音が消音される直前にMIDIデータに基づく発音から予め記憶した波形による発音に切り換えるようにしてもよい。この場合、消音付近の発音はどの楽音についても近似しているため、一つの波形を用意しておけば、MIDIデータ内のノートに従ったピッチ変換をするだけで全ての音高の楽音に使用することができる。したがって、波形データによる発音を行う場合であっても記憶する波形は一つ(あるいは少数)で済む。そして、消音付近発音を波形データに切り換えると、音が消えて行く瞬間の余韻を自然楽器のような味わいのあるものにすることができ、音質をさらに向上させることができる。
(Modification 5)
The
(変形例6)
また、端末2の音源25において、通常のMIDIデータと上記実施形態におけるMIDIデータとで発音する楽音をそれぞれ異ならせるようにしてもよい。例えば、図3に示したデータブロックのブロック識別子BIに設定される識別情報として、上記実施形態で説明した「オーディオ」と「MIDI」に加え、「特殊MIDI」を設定できるようにする。そして、端末1は、上記実施形態においてMIDIデータを送信する際に設定していた「MIDI」に代えて、ブロック識別子BIに「特殊MIDI」を設定してMIDIデータを送信する。
また、端末2の音源25に、図5に破線で示すような、楽音の波形を示す波形データ25aを記憶させておく。この波形データ25aは、図4に示すような、アタック部の波形データDA1(DW1に対応)と、アタック部以降の振幅が安定している波形データDA2(DW2に対応)とを有している。
(Modification 6)
Further, in the
Further, the
端末2の音源25は、ブロック識別子BIが「MIDI」であるデータを受信すると、波形データDA1に基づいて楽音信号を生成した後、波形データDA2に基づいて楽音信号を生成する。このように、アタック部の波形データDA1を用いて楽音信号を生成することによって、オーディオデータが付随していない通常のMIDIデータに対しては、アタック部を有する楽音を発音させることができる。
一方、ブロック識別子BIが「特殊MIDI」であるデータを受信した場合は、アタック部の波形データDA1を用いず、波形データDA2のみを用いて楽音信号を生成するようにする。これは、アタック部分は実際のオーディオデータに基づいて楽音が発音されるため、アタック部の波形データDA1を用いて楽音信号を生成する必要がないためである。
When receiving the data whose block identifier BI is “MIDI”, the
On the other hand, when data having the block identifier BI of “special MIDI” is received, a tone signal is generated using only the waveform data DA2 without using the waveform data DA1 of the attack section. This is because a musical tone is generated based on actual audio data in the attack portion, and it is not necessary to generate a musical tone signal using the waveform data DA1 of the attack portion.
端末2が、端末1からMIDIデータを受信するとともに、本発明の特徴を有さない他の端末からもMIDIデータを受信する場合には、上述したような処理を行うことによって、端末2は、どちらのMIDIデータに対しても、アタック部分の楽音を表現することができる。
When the
(変形例7)
また、本発明で用いられる楽器は、上記実施形態で用いたアコースティックギターに限定されるものではない。例えば、太鼓やドラム等の打楽器や、ピアノ等の弦楽器など、任意の楽器に対して適用可能である。
(Modification 7)
The musical instrument used in the present invention is not limited to the acoustic guitar used in the above embodiment. For example, the present invention can be applied to an arbitrary musical instrument such as a percussion instrument such as a drum or a drum or a stringed instrument such as a piano.
(変形例8)
上述した実施形態は楽器から単音が出力される場合を例にしたが、一定の条件を満たせば、単音に限ることなく和音の演奏にも本発明は適用することができる。例えば、ギターのストローク演奏などにおいては、アタック部は各弦について同じタイミングであり、同じ期間になる。そして、ピッチについてマイクロフォン12が出力する複数の音程を含んだ楽音信号から識別して分離し、各音程に対応するノートを有するMIDIデータを生成して、端末2に送信すればよい。
(Modification 8)
In the above-described embodiment, an example in which a single sound is output from a musical instrument is taken as an example. However, the present invention can be applied to playing a chord without being limited to a single sound as long as a certain condition is satisfied. For example, in the case of guitar stroke performance, the attack part has the same timing for each string and the same period. Then, it is only necessary to identify and separate from a musical tone signal including a plurality of pitches output by the
(変形例9)
なお、上述した実施形態においては、楽音信号送信端末として端末1を、楽音信号受信端末として端末2を用いたが、1台の端末に送信側と受信側の両方の機能を設けるようにし、端末間で双方向のセッションを行えるようにしてもよい。例えば、上記実施形態における端末1に、端末2に設けられている音源と発音部を設け、受信するオーディオデータまたはMIDIデータに基づいた楽音を発音するようにする。このような構成の端末を複数台用いれば、それぞれの端末が、マイクロフォンから出力される楽音信号からオーディオデータとMIDIデータを生成して他の端末に送信するとともに、他の端末から受信するオーディオデータまたはMIDIデータに基づいた楽音を発音させることができ、これにより、複数の端末1同士で双方向のセッションを行うことが可能となる。
(Modification 9)
In the embodiment described above, the
1…端末、2…端末、10,20…制御部、11,21…記憶部、12…マイクロフォン、22…発音部、13,23…通信部、14,24…計時部、AG…アコースティックギター。
DESCRIPTION OF
Claims (9)
前記入力手段が出力する楽音信号に対し、波形の立ち上がりから所定の範囲をアタック部として抽出するアタック部抽出手段と、
前記入力手段が出力する楽音信号のピッチを検出するピッチ検出手段と、
前記入力手段が出力する楽音信号の消音時点を検出する消音検出手段と、
ネットワークを介して信号の授受を行う通信手段と、
前記ピッチ検出手段が検出したピッチと同じピッチを指示するピッチパラメータ、前記アタック部の終了時点を楽音の発音タイミングとして指示する発音タイミングパラメータおよび前記消音検出手段が検出した消音時点を消音タイミングとして指示する消音タイミングパラメータを生成するパラメータ生成手段と、
前記入力手段に入力された一の楽音について、前記アタック部抽出手段が抽出した波形信号を波形データに変換して前記通信手段を用いて送信させるとともに、当該波形データの送信に続いて前記パラメータ生成手段が生成したピッチパラメータ、発音タイミングパラメータおよび消音タイミングパラメータを送信させる送信制御手段と
を具備することを特徴とする楽音信号送信端末。 An input means for outputting a musical sound emitted from a musical instrument as a musical sound signal;
Attack part extraction means for extracting a predetermined range from the rising edge of the waveform as an attack part for the musical sound signal output by the input means;
Pitch detecting means for detecting the pitch of the musical sound signal output by the input means;
Mute detection means for detecting a mute time point of the musical sound signal output by the input means;
A communication means for transmitting and receiving signals via a network;
A pitch parameter indicating the same pitch as the pitch detected by the pitch detecting means, a sounding timing parameter indicating the end time of the attack section as a sounding sounding timing, and a sounding time point detected by the sounding detecting means are indicated as a sounding timing. Parameter generating means for generating a mute timing parameter;
For one musical sound input to the input means, the waveform signal extracted by the attack extraction means is converted into waveform data and transmitted using the communication means, and the parameter generation is performed following transmission of the waveform data. And a transmission control means for transmitting the pitch parameter, sound generation timing parameter, and mute timing parameter generated by the means.
前記通信手段が受信した波形データに基づいて楽音信号を生成する波形再生手段と、
前記通信手段が、ピッチを指示するピッチパラメータ、楽音の発音タイミングを指示する発音タイミングパラメータおよび前記楽音の消音タイミングを指示する消音タイミングパラメータを受信した場合には、これらのパラメータに基づいて楽音信号を生成する音源手段と、
前記波形再生手段が生成した楽音信号の再生に続けて前記音源手段が生成した楽音信号の再生を行わせる再生制御手段と
を具備することを特徴とする楽音信号受信端末。 A communication means for transmitting and receiving signals via a network;
Waveform reproducing means for generating a musical sound signal based on the waveform data received by the communication means;
When the communication means receives a pitch parameter for instructing a pitch, a sound generation timing parameter for instructing the sound generation timing of a musical sound, and a mute timing parameter instructing the sound muffling timing of the music sound, a musical sound signal is generated based on these parameters. Sound source means to generate,
A musical tone signal receiving terminal comprising: a reproduction control unit that reproduces the musical tone signal generated by the sound source unit following the reproduction of the musical tone signal generated by the waveform reproducing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005103137A JP2006284796A (en) | 2005-03-31 | 2005-03-31 | Musical sound signal transmitting terminal and musical sound signal receiving terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005103137A JP2006284796A (en) | 2005-03-31 | 2005-03-31 | Musical sound signal transmitting terminal and musical sound signal receiving terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006284796A true JP2006284796A (en) | 2006-10-19 |
Family
ID=37406819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005103137A Withdrawn JP2006284796A (en) | 2005-03-31 | 2005-03-31 | Musical sound signal transmitting terminal and musical sound signal receiving terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006284796A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853650B (en) * | 2009-04-03 | 2012-04-25 | 王路露 | Music processing and output system and method thereof |
JP2016161831A (en) * | 2015-03-03 | 2016-09-05 | ヤマハ株式会社 | Device and program for singing evaluation |
CN110168634A (en) * | 2017-03-24 | 2019-08-23 | 雅马哈株式会社 | Sounding device and sonification system |
CN114205400A (en) * | 2020-09-01 | 2022-03-18 | 雅马哈株式会社 | Communication control method |
-
2005
- 2005-03-31 JP JP2005103137A patent/JP2006284796A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853650B (en) * | 2009-04-03 | 2012-04-25 | 王路露 | Music processing and output system and method thereof |
JP2016161831A (en) * | 2015-03-03 | 2016-09-05 | ヤマハ株式会社 | Device and program for singing evaluation |
CN110168634A (en) * | 2017-03-24 | 2019-08-23 | 雅马哈株式会社 | Sounding device and sonification system |
CN110168634B (en) * | 2017-03-24 | 2024-03-19 | 雅马哈株式会社 | Sound producing device, sound producing system and game device |
CN114205400A (en) * | 2020-09-01 | 2022-03-18 | 雅马哈株式会社 | Communication control method |
CN114205400B (en) * | 2020-09-01 | 2023-09-01 | 雅马哈株式会社 | communication control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5311863B2 (en) | Electronic keyboard instrument | |
JP4107107B2 (en) | Keyboard instrument | |
JP2006011364A (en) | Electronic hi-hat cymbal | |
JP5494677B2 (en) | Performance device and performance program | |
WO2022095656A1 (en) | Audio processing method and apparatus, and device and medium | |
JP2003241757A (en) | Device and method for waveform generation | |
JP2006251375A (en) | Voice processor and program | |
JP5533892B2 (en) | Performance equipment | |
JP2006284796A (en) | Musical sound signal transmitting terminal and musical sound signal receiving terminal | |
JP4802857B2 (en) | Musical sound synthesizer and program | |
JP3750533B2 (en) | Waveform data recording device and recorded waveform data reproducing device | |
JP3176273B2 (en) | Audio signal processing device | |
JP5458494B2 (en) | Electronic musical instruments | |
JPH08227296A (en) | Sound signal processor | |
JP2008518248A (en) | Apparatus and method for reproducing MIDI file | |
JP5151603B2 (en) | Electronic musical instruments | |
JP2019168646A (en) | Recording and reproducing apparatus, control method and control program for recording and reproducing apparatus, and electronic musical instrument | |
JP3719129B2 (en) | Music signal synthesis method, music signal synthesis apparatus and recording medium | |
JP2010175739A (en) | Electronic metronome and program | |
JP2002297139A (en) | Playing data modification processor | |
JP5754404B2 (en) | MIDI performance device | |
Canfer | Music Technology in Live Performance: Tools, Techniques, and Interaction | |
JP3590189B2 (en) | Electronic stringed instruments | |
JP6102131B2 (en) | Musical sound control device, musical sound control method and program | |
JPH10171475A (en) | Karaoke (accompaniment to recorded music) device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080122 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |