JP6728843B2 - Electronic musical instrument, musical tone generating device, musical tone generating method and program - Google Patents

Electronic musical instrument, musical tone generating device, musical tone generating method and program Download PDF

Info

Publication number
JP6728843B2
JP6728843B2 JP2016060391A JP2016060391A JP6728843B2 JP 6728843 B2 JP6728843 B2 JP 6728843B2 JP 2016060391 A JP2016060391 A JP 2016060391A JP 2016060391 A JP2016060391 A JP 2016060391A JP 6728843 B2 JP6728843 B2 JP 6728843B2
Authority
JP
Japan
Prior art keywords
signal
pitch
human voice
exhalation
musical instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016060391A
Other languages
Japanese (ja)
Other versions
JP2017173606A (en
JP2017173606A5 (en
Inventor
仲江 哲一
哲一 仲江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016060391A priority Critical patent/JP6728843B2/en
Publication of JP2017173606A publication Critical patent/JP2017173606A/en
Publication of JP2017173606A5 publication Critical patent/JP2017173606A5/ja
Application granted granted Critical
Publication of JP6728843B2 publication Critical patent/JP6728843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、電子楽器、楽音発生装置、楽音発生方法及びプログラムに関する。 The present invention relates to an electronic musical instrument, a musical tone generating device, a musical tone generating method and a program.

管楽器を電子技術によって実現する電子楽器において、吹奏者(演奏者)の個人差を吸収しながら、伝統的な管楽器(例えばサクソホーン)における吹奏者の息の強さや吹口部を噛む強さ等を楽音パラメータとしてその特性値に従って吹奏演奏を行なうことができる従来技術が知られている(例えば特許文献1に記載の技術)。 In an electronic musical instrument that implements a wind instrument by electronic technology, it absorbs the individual differences of the wind instrument player (performer) while giving a musical sound of the wind intensity of the wind instrument player and the strength of biting the mouthpiece of a traditional wind instrument (for example, a saxophone). There is known a conventional technique capable of performing a wind performance in accordance with its characteristic value as a parameter (for example, the technique described in Patent Document 1).

また、電子楽器において、吹奏者の舌の位置と動き、いわゆるタンギング奏法を検出して、発音中の管楽器音を制御する従来技術が知られている(例えば特許文献2又は3に記載の技術)。 Further, in an electronic musical instrument, there is known a conventional technique of controlling the position and movement of the winder's tongue, a so-called tongue rendition style, and controlling the sound of the wind instrument being produced (for example, the technique described in Patent Document 2 or 3). ..

特許第2605761号公報Japanese Patent No. 2605761 特許第2712406号公報Japanese Patent No. 2712406 特許第3389618号公報Japanese Patent No. 3389618

ここで、伝統的な管楽器には、ただ吹いたりタンギングしたりするだけでなく、演奏時に「ウーーーーーッ」と実際に声を出しながら吹奏を行い、音に濁りを与える特殊奏法として「グロウル奏法」がある。 Here, for traditional wind instruments, there is a "growl method" as a special playing method that not only blows or tongs, but also makes a sound while actually uttering "Woooo" while giving a muddy sound. is there.

しかし、従来の電子管楽器においては、通常の管楽器の楽音であるノーマル楽音と上述のグロウリング音とは個別の音色とされ、両者は音色切り替え操作で使い分けを行う必要があった。そのため、演奏/発音中に両音色間のシームレスな音色変化を行うことができなかった。 However, in the conventional electronic wind instrument, the normal tone, which is the tone of a normal wind instrument, and the above-described glowing tone are different tones, and it is necessary to use them separately by a tone color switching operation. Therefore, it was not possible to seamlessly change the timbre between the two timbres during performance/pronunciation.

また、従来のアコースティック管楽器においては、ノーマル楽音とグロウル奏法による特殊音との音程関係などスキルを要するものであった。
この問題を解決するには、グロウル奏法による特殊奏法音を予めメモリに記憶しておき、それを演奏に応じて必要なときにメモリから読み出す方式が考えられるが、奏法等を変更しても画一的なグロウリング音しか発音させることができない問題がある。
Further, in the conventional acoustic wind instrument, skill is required such as the pitch relationship between the normal musical sound and the special sound by the growl playing method.
To solve this problem, it is possible to store the special performance sound by the growl method in the memory in advance and read it from the memory when needed according to the performance. There is a problem that only a single glowing sound can be produced.

更に、吹奏者がマウスピースを咥えながらグロウル奏法音を発音できるようにすることも考えられるが、その場合には、マウスピースにグロウル奏法音を拾うためのマイクが必要になってしまうという問題がある。 Further, it may be possible to allow the wind performer to pronounce the growl sound while holding the mouthpiece, but in that case, a microphone is required for the mouthpiece to pick up the growl sound. There is.

本発明は、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて多彩な人声合成音を生成して出力することにより、より変化の富んだ楽音を発音できるようにすることを目的とする。 INDUSTRIAL APPLICABILITY The present invention makes it possible to generate a more varied musical tone by generating and outputting a variety of human voice synthesized sounds based on the vocalization action of a wind performer without requiring a dedicated microphone or the like. With the goal.

態様の一例では、呼気の状態を検知する呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離し、前記吹奏信号と、指定される音高と、指定される音色とに基づいて楽器音を出力し、前記指定される音高に対応するピッチ周期を有するパルス列信号を、前記指定される音色に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、処理部を備える。 In one example embodiment, to separate the output signal from the breath sensor for detecting the state of breath, to the human voice signal indicating the state of exhalation generated by blowing signal and human voice indicating the state of exhalation generated by blowing, the A musical instrument sound is output based on a wind signal, a designated pitch, and a designated tone color, and a pulse train signal having a pitch cycle corresponding to the designated pitch is associated with the designated tone color . it outputs human voice synthetic sound and filtered by the speech synthesis filter, and a processing unit.

本発明によれば、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて多彩な人声合成音を生成して出力することにより、より変化の富んだ楽音を発音することが可能となる。 According to the present invention, it is possible to generate a more varied musical tone by generating and outputting a variety of human voice synthesized sounds based on the vocalization action of the wind performer without requiring a dedicated microphone or the like. It will be possible.

実施形態におけるマウスピースの構成例を示す断面図である。It is sectional drawing which shows the structural example of the mouthpiece in embodiment. 電子楽器の実施形態のハードウェア構成例を示す図である。It is a figure showing an example of hardware constitutions of an embodiment of an electronic musical instrument. CPUのブロック構成例を示す図である。It is a figure which shows the block structural example of CPU. 第2Wave Generatorのブロック構成例を示す図である。It is a figure which shows the block structural example of 2nd Wave Generator. 人声の音韻「う」のFFT分析の結果とフォルマントフィルタの周波数特性の例を示す図である。It is a figure which shows the result of FFT analysis of the phoneme "u" of a human voice, and the example of the frequency characteristic of a formant filter. 人声の音韻「あ」のFFT分析の結果とフォルマントフィルタの周波数特性の例を示す図である。It is a figure which shows the result of FFT analysis of the phoneme "a" of a human voice, and the example of the frequency characteristic of a formant filter. パルス発生器402が発声する音源パルス列の時間域波形とフォルマントフィルタ403が生成する人声合成音信号310の時間域波形の関係を示す図である。7 is a diagram showing a relationship between a time-domain waveform of a sound source pulse train uttered by a pulse generator 402 and a time-domain waveform of a human voice synthesis sound signal 310 generated by a formant filter 403. FIG. 楽器音色毎に、マウスピースとグロウル時の発音の特徴、及びフォルマントフィルタが生成するのに好適な音韻の種類の対応関係を示した表である。9 is a table showing correspondences between mouthpieces, characteristics of pronunciation at the time of growl, and types of phonemes suitable for generation by the formant filter, for each musical instrument timbre. 普通に吹いた場合のセンサ出力信号と人声信号の波形例を示す図である。It is a figure which shows the example of a waveform of a sensor output signal and a human voice signal when it blows normally. 特殊奏法を意識して吹いた場合のセンサ出力信号と人声信号の波形例を示す図である。It is a figure which shows the example of a waveform of a sensor output signal and a human voice signal at the time of consciously paying attention to a special performance style. 本実施形態における波形例を示す図である。It is a figure which shows the example of a waveform in this embodiment. CPUが実行する発音制御処理の例を示すフローチャートである。It is a flow chart which shows an example of pronunciation control processing which a CPU performs. 管楽器の反射音の説明図である。It is explanatory drawing of the reflected sound of a wind instrument. 人声合成音信号に反射音効果を付加する機能を示すブロック図である。It is a block diagram which shows the function which adds a reflected sound effect to a synthetic voice signal.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、本発明による電子楽器の一実施形態におけるマウスピースの構成例を示す断面図である。マウスピース100は、マウスピース本体102と、吹き込み口103と、呼気センサ101を備える。本実施形態においては、呼気センサ101は、吹奏者の吹奏に伴う呼気の圧力及びその呼気の流量の少なくとも一方を検知する圧力センサである。呼気センサ101は、吹奏時に吹き込み口103から混入する唾液等により濡れてしまわないように、保護壁104により保護されており、穴105を介して流入する呼気の例えば圧力を検知する。 Hereinafter, modes for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a sectional view showing a configuration example of a mouthpiece in an embodiment of an electronic musical instrument according to the present invention. The mouthpiece 100 includes a mouthpiece body 102, a blowing port 103, and an exhalation sensor 101. In the present embodiment, the exhalation sensor 101 is a pressure sensor that detects at least one of the pressure of the exhalation and the flow rate of the exhalation that accompany the blowing of the blower. The exhalation sensor 101 is protected by a protective wall 104 so as not to get wet with saliva or the like mixed from the insufflation port 103 at the time of blowing, and detects, for example, the pressure of the exhaled air flowing in through the hole 105.

図2は、電子楽器200の実施形態のハードウェア構成例を示す図である。吹奏者の吹く息は図1のマウスピース100内の呼気センサ101でセンサ出力信号208として検出される。このセンサ出力信号208は、A/D(アナログ/デジタル)変換部202によってデジタル信号に変換された後、吹圧信号209に変換されてCPU(中央演算処理装置)201に入力される。 FIG. 2 is a diagram illustrating a hardware configuration example of the embodiment of the electronic musical instrument 200. The breath of the wind blower is detected as a sensor output signal 208 by the exhalation sensor 101 in the mouthpiece 100 of FIG. The sensor output signal 208 is converted into a digital signal by the A/D (analog/digital) conversion unit 202, then converted into a blow pressure signal 209, and input to the CPU (central processing unit) 201.

なお、A/D変換部202の出力側に、人声の基本周波数以上の周波数成分をカットするACカット素子が配置されてもよい。或いは、A/D変換部202の手前に、アナログ回路としてACカット素子が配置されてもよい。 It should be noted that an AC cut element that cuts a frequency component equal to or higher than the fundamental frequency of human voice may be arranged on the output side of the A/D conversion unit 202. Alternatively, an AC cut element may be arranged as an analog circuit before the A/D conversion unit 202.

また、センサ出力信号208は、コンデンサ等のDC(直流)カット素子203によって人声の基本周波数よりも十分に低い直流成分付近がカットされた後に、A/D変換部204によってデジタル信号に変換されて人声信号210としてCPU201に入力される。本実施形態においては、このA/D変換部202、204、及びDCカット素子203(並びにACカット素子)により、センサ出力信号208を吹奏に伴う呼気の圧力を示す吹圧信号209と人声による呼気の圧力を示す人声信号210とに分離する分離部が構成される。 Further, the sensor output signal 208 is converted into a digital signal by the A/D conversion unit 204 after a DC (direct current) cut element 203 such as a capacitor cuts off a direct current component sufficiently lower than the fundamental frequency of human voice. And is input to the CPU 201 as a human voice signal 210. In the present embodiment, the A/D conversion units 202 and 204 and the DC cut element 203 (and the AC cut element) are used to output the sensor output signal 208 by the blow pressure signal 209 indicating the pressure of the expiratory air accompanying the blowing and the human voice. A separation unit that separates the human voice signal 210 indicating the pressure of the exhaled air is formed.

操作キー205は、吹奏者が音高及び音色を指定するためのキーであり、吹奏者が操作キー205を押さえることで、音高情報211及び音色選択情報212としてCPU201に取り込まれて、楽器音の音高及び音色を決める要素となる。即ち、操作キー205は、音高出力部及び音色選択情報出力部として機能する。 The operation key 205 is a key for the wind player to specify a pitch and a tone color. When the wind player presses the operation key 205, the operation key 205 is fetched into the CPU 201 as the pitch information 211 and the tone color selection information 212, and the instrument sound is reproduced. It is a factor that determines the pitch and tone of the. That is, the operation key 205 functions as a pitch output section and a tone color selection information output section.

CPU201は、吹圧信号209と音高情報211と音色選択情報212に基づいて、楽器音信号を生成する。また、CPU201は、音色選択情報212に対応するフィルタパラメータを選択し、そのフィルタパラメータに基づいて音声合成フィルタを構成し、音高情報211に対応するピッチ周期を有する音源パルス列を生成して音声合成フィルタに入力させ、音声合成フィルタからの出力として人声合成音を生成し、更に生成した人声合成音を人声信号210に基づいて制御する。そして、CPU201は、楽器音信号と人声合成音信号とから楽音信号213を生成して出力する。 The CPU 201 generates a musical instrument sound signal based on the blow pressure signal 209, the pitch information 211, and the tone color selection information 212. Further, the CPU 201 selects a filter parameter corresponding to the tone color selection information 212, configures a voice synthesis filter based on the filter parameter, generates a sound source pulse train having a pitch cycle corresponding to the pitch information 211, and performs voice synthesis. It is input to the filter, a human voice synthesis sound is generated as an output from the voice synthesis filter, and the generated human voice synthesis sound is controlled based on the human voice signal 210. Then, the CPU 201 generates and outputs a musical sound signal 213 from the musical instrument sound signal and the human voice synthetic sound signal.

出力されたデジタルの楽音信号213は、D/A変換部206によってアナログ音声信号に変換され、音響システム207で吹奏者達に聴こえる音量にまで増幅されて、特には図示しないスピーカから放音される。 The output digital musical sound signal 213 is converted into an analog audio signal by the D/A conversion unit 206, amplified by the sound system 207 to a volume that can be heard by the wind performers, and is particularly emitted from a speaker (not shown). ..

図3は、図2のCPU201のブロック構成例を示す図である。CPU201は、例えばDSP(デジタルシグナルプロセッサ)によって構成され、図3に示される各機能部分はDSPのデジタル信号処理機能として実現される。なお、これらの機能部分は、プロセッサが制御プログラムを実行する通常のソフトウェア処理として実現されてもよい。 FIG. 3 is a diagram showing a block configuration example of the CPU 201 of FIG. The CPU 201 is composed of, for example, a DSP (digital signal processor), and each functional portion shown in FIG. 3 is realized as a digital signal processing function of the DSP. Note that these functional parts may be realized as normal software processing in which the processor executes the control program.

第1Wave Generator301(楽器音生成部)は、図2の操作キー205からの音高情報211及び音色選択情報212から、楽器音信号309を生成する。本実施形態では、第1Wave Generator301は、例えばパルス変調方式又は正弦波合成方式により楽器音信号309を生成するが、サンプリング音源であってもよい。 The first Wave Generator 301 (musical instrument sound generation unit) generates a musical instrument sound signal 309 from the pitch information 211 and the tone color selection information 212 from the operation keys 205 of FIG. In the present embodiment, the first Wave Generator 301 generates the instrument sound signal 309 by, for example, the pulse modulation method or the sine wave synthesis method, but may be a sampling sound source.

第1Wave Generator301が出力する楽器音信号309は、AMP(増幅ブロック)304にて、吹圧信号209から生成された吹圧エンベロープ311に基づいて増幅制御された後、加算器306に入力される。 The musical instrument sound signal 309 output from the first Wave Generator 301 is amplification-controlled by the AMP (amplification block) 304 based on the blow pressure envelope 311 generated from the blow pressure signal 209, and then input to the adder 306.

第2Wave Generator302は、音色選択情報212に対応するフィルタパラメータを選択し、そのフィルタパラメータに基づいて音声合成フィルタを構成し、音高情報211に対応するピッチ周期を有する音源パルス列を生成して音声合成フィルタに入力させ、音声合成フィルタからの出力として人声合成音信号310を生成して出力する。 The second Wave Generator 302 selects a filter parameter corresponding to the tone color selection information 212, configures a voice synthesis filter based on the filter parameter, generates a sound source pulse train having a pitch period corresponding to the pitch information 211, and performs voice synthesis. It is input to the filter, and a human voice synthesis sound signal 310 is generated and output as the output from the voice synthesis filter.

第2Wave Generator302が出力する人声合成音信号310は、AMP305にて、人声信号210から生成された人声エンベロープ312に基づいて増幅制御された後、加算器306に入力される。 The human voice synthesis sound signal 310 output from the second Wave Generator 302 is amplification-controlled by the AMP 305 based on the human voice envelope 312 generated from the human voice signal 210, and then input to the adder 306.

加算器(加算部)306は、上述のAMP304から出力される楽器音信号309と、AMP305から出力される人声合成音信号310を加算して混合し出力する。更に、クリップ部307は、加算器306の出力に対して吹奏者が操作キー205でクリッピングを指定したときに、後述するクリッピング処理を実行する。これにより、最終的な楽音信号213が図2のCPU201から出力される。 The adder (adding unit) 306 adds the instrument sound signal 309 output from the AMP 304 and the human voice synthesized sound signal 310 output from the AMP 305, mixes them, and outputs the mixed signal. Further, the clip unit 307 executes a clipping process, which will be described later, on the output of the adder 306 when the player specifies clipping with the operation key 205. As a result, the final tone signal 213 is output from the CPU 201 of FIG.

図4は、図3の第2Wave Generator302(人声合成音生成部)のブロック構成例を示す図である。第2Wave Generator302は、演算器401、パルス発生器402、及びフォルマントフィルタ403を備える。更に、フォルマントフィルタ403は、第1フィルタ404、第2フィルタ405、及び加算器406から成る。 FIG. 4 is a diagram showing an example of a block configuration of the second Wave Generator 302 (human voice synthetic speech generation unit) of FIG. The second Wave Generator 302 includes a calculator 401, a pulse generator 402, and a formant filter 403. Further, the formant filter 403 includes a first filter 404, a second filter 405, and an adder 406.

図4に示されるように、フォルマントフィルタ403は、第1フィルタ404及び第2フィルタ405を備える。第1フィルタ404は、これから生成しようとする人声合成音信号310に対応する音韻の第1フォルマントで極大となるようなフィルタである。そのフィルタパラメータ(以下「第1フィルタパラメータ」と記載する)は、上記音韻の第1フォルマントに対応する周波数及び利得の組として与えられる。同様に、第2フィルタ405は、これから生成しようとする人声合成音信号310に対応する音韻の第2フォルマントで極大となるようなフィルタである。そのフィルタパラメータ(以下「第2フィルタパラメータ」と記載する)は、上記音韻の第2フォルマントに対応する周波数及び利得の組として与えられる。いま、音色選択情報212が入力したときに、フォルマントフィルタ403は、音色毎に記憶している第1フィルタパラメータ及び第2フィルタパラメータのセットのうち、入力した音色選択情報212に対応する第1フィルタパラメータ及び第2フィルタパラメータを選択し、第1フィルタ404及び第2フィルタ405に設定する。 As shown in FIG. 4, the formant filter 403 includes a first filter 404 and a second filter 405. The first filter 404 is a filter that maximizes the first formant of the phoneme corresponding to the synthesized human voice signal 310 to be generated. The filter parameter (hereinafter, referred to as “first filter parameter”) is given as a set of frequency and gain corresponding to the first formant of the phoneme. Similarly, the second filter 405 is a filter that maximizes the second formant of the phoneme corresponding to the synthesized human voice signal 310 to be generated. The filter parameter (hereinafter referred to as “second filter parameter”) is given as a set of frequency and gain corresponding to the second formant of the phoneme. Now, when the tone color selection information 212 is input, the formant filter 403 selects the first filter corresponding to the input tone color selection information 212 from the set of the first filter parameter and the second filter parameter stored for each tone color. The parameters and the second filter parameters are selected and set in the first filter 404 and the second filter 405.

例えば、図5(a)は、人声の音韻「う」のFFT(高速フーリエ変換)分析の結果である。図5(a)及び後述する図6(a)において、横軸は周波数(Hz:ヘルツ)であり、縦軸は振幅(dB:デシベル)である。図5(a)においては、400Hzの大きな山の第1フォルマントを第1フィルタ404で作り、それよりかなり小さい2000Hzの第2フォルマントを第2フィルタ405で作る。フォルマントフィルタ403は、第1フィルタ404及び第2フィルタ405の各出力を加算器406で足し合わせることで、音韻「う」の人声合成音信号310を合成する。図5(a)のFFT分析結果に基づいて動作するフォルマントフィルタ403の第1フィルタ404と第2フィルタ405を合成したフィルタ特性は、図5(b)に示される如くとなる。図5(b)及び後述する図6(b)において、横軸は周波数(Hz)、縦軸は振幅(dB)である。 For example, FIG. 5A shows the result of FFT (Fast Fourier Transform) analysis of the phoneme "U" of a human voice. In FIG. 5A and FIG. 6A described later, the horizontal axis represents frequency (Hz: Hertz) and the vertical axis represents amplitude (dB: decibel). In FIG. 5A, the first formant of a large peak of 400 Hz is made by the first filter 404, and the second formant of 2000 Hz which is much smaller than that is made by the second filter 405. The formant filter 403 adds the outputs of the first filter 404 and the second filter 405 by the adder 406 to synthesize the synthesized voice signal 310 of the phoneme “U”. The filter characteristic obtained by combining the first filter 404 and the second filter 405 of the formant filter 403 which operates based on the FFT analysis result of FIG. 5A is as shown in FIG. 5B. In FIG. 5B and FIG. 6B described later, the horizontal axis represents frequency (Hz) and the vertical axis represents amplitude (dB).

実際の音声では、第3フォルマント、第4フォルマント等も存在するが、効果音としての人声合成音信号310を作成する目的としては、第1フォルマントと第2フォルマントのみを模した第1フィルタ404及び第2フィルタ405の2つのフィルタによる簡易演算でも十分である。これにより、第2Wave Generator302に要求される演算性能を抑えることができ、電子楽器200を製造する場合にコストダウンを実現することができる。なお、フォルマントフィルタ403を実現するプロセッサの演算能力に余裕があれば、フォルマントフィルタ403の代わりに、線形予測フィルタのような高度なフィルタが用いられてもよい。その場合には、フィルタパラメータは、線形予測フィルタを構成するための音韻毎の線形予測パラメータの組とされる。 Although there are third formants, fourth formants, and the like in actual speech, the first filter 404 simulating only the first formant and the second formant is used for the purpose of creating the human voice synthesis sound signal 310 as a sound effect. Also, a simple calculation using the two filters of the second filter 405 is sufficient. As a result, the calculation performance required for the second Wave Generator 302 can be suppressed, and a cost reduction can be realized when the electronic musical instrument 200 is manufactured. Note that if the processor that implements the formant filter 403 has sufficient computing power, a sophisticated filter such as a linear prediction filter may be used instead of the formant filter 403. In that case, the filter parameter is a set of linear prediction parameters for each phoneme for forming the linear prediction filter.

フォルマントフィルタ403内の第1フィルタ404及び第2フィルタ405をデジタル信号処理として実装する場合、次数が少なくても鋭いピークを得られる共振フィルタが好適である。 When the first filter 404 and the second filter 405 in the formant filter 403 are implemented as digital signal processing, a resonance filter that can obtain a sharp peak even if the order is small is preferable.

図6(a)は、人声の音韻「あ」のFFT分析の結果である。図6(a)においては、1000Hzの大きな山の第1フォルマントを第1フィルタ404で作り、それより少し小さい1800Hzの第2フォルマントを第2フィルタ405で作る。第1フィルタ404及び第2フィルタ405の各出力を加算器406で足し合わせることで、音韻「お」の人声合成音信号310を合成する。図6(a)のFFT分析結果に基づいて動作するフォルマントフィルタ403の第1フィルタ404と第2フィルタ405を合成したフィルタ特性は、図6(b)に示される如くとなる。 FIG. 6A shows the result of the FFT analysis of the phoneme "A" of the human voice. In FIG. 6A, the first formant having a large mountain of 1000 Hz is formed by the first filter 404, and the second formant having a slightly smaller size of 1800 Hz is formed by the second filter 405. The outputs of the first filter 404 and the second filter 405 are added by the adder 406 to synthesize the synthesized voice signal 310 of the phoneme "O". The filter characteristic obtained by combining the first filter 404 and the second filter 405 of the formant filter 403 which operates based on the FFT analysis result of FIG. 6A is as shown in FIG. 6B.

図5(b)と図6(b)を比較してわかるように、音韻「う」は400Hz付近の低い周波数の振幅が大きく、音韻「あ」は低い周波数の振幅は小さい。本実施形態では、音色選択情報212により、即ち吹奏者により選択された楽器音により、母音「う」か「あ」の効果が大きい方のフォルマントフィルタ403のフィルタパラメータ(第1フィルタパラメータ+第2フィルタパラメータ)を割り振る。 As can be seen by comparing FIG. 5B and FIG. 6B, the phoneme “U” has a large amplitude at a low frequency near 400 Hz, and the phoneme “A” has a small amplitude at a low frequency. In the present embodiment, the filter parameter (first filter parameter+second filter) of the formant filter 403 having a larger vowel “U” or “A” effect according to the tone color selection information 212, that is, the musical instrument sound selected by the player. Allocate filter parameters).

一方、図4において、パルス発生器402は、音高情報211に対応するピッチ周期を有する、例えば図7(a)に示されるような音源パルス列を生成して、その音源パルス列をフォルマントフィルタ403に入力させる。フォルマントフィルタ403内の第1フィルタ404と第2フィルタ405がそれぞれ、入力した音源パルス列に対してフィルタリング処理を実行し、各出力が加算器406で加算されることにより、図5(a)又は図6(a)に近似した周波数特性を有し、図7(b)に示されるような時間域波形の人声合成音信号310を生成する。 On the other hand, in FIG. 4, the pulse generator 402 generates a sound source pulse train having a pitch period corresponding to the pitch information 211, for example, as shown in FIG. 7A, and sends the sound source pulse train to the formant filter 403. Input. The first filter 404 and the second filter 405 in the formant filter 403 respectively execute the filtering process on the input sound source pulse train, and the outputs are added by the adder 406. The synthesized human voice signal 310 having a frequency characteristic similar to that of 6(a) and having a time domain waveform as shown in FIG. 7(b) is generated.

ここで、パルス発生器402は、音高を指定する操作キー205から出力された音高情報211に対応するピッチ周波数のみによって音源パルス列のピッチ周期を決定するのではなく、演算器401が、音高情報211を、人声信号210から生成した人声エンベロープ312に基づいて変化させ、その変化後に演算器401から出力される音高情報が、パルス発生器402に入力されるようにすることができる。これにより、図3の加算器306が楽器音信号309と人声合成音信号310とを混合したときに、楽器音信号309の音高は音高情報211によって決定され、人声合成音信号310の音高は吹奏者が吹奏して得られる人声エンベロープ312に基づいて音高情報211のピッチ周波数を微妙に変化させたものによって決定されるようにできる。これにより、楽器音信号309と人声合成音信号310との間で人声エンベロープ312に従って微妙なうねりを生じさせることができ、出力される楽音信号213に、多彩な変化をつけることが可能となる。この場合、演算器401は、ほぼ音高情報211に従うが、最大で4分の1半音ほど人声エンベロープ312の値の大きさに比例させて、上か下かのどちらかにピッチ周波数をずらすように動作してよい。微妙にずれがある方が、出力音声に「うねり」が発生する効果を得る事ができる。ただし両者のピッチ周波数のずれが大き過ぎると、出力される楽音信号213において、2つの別々の音が鳴っているように聴こえてしまうので、更に演算器401が、吹奏者が示す音高情報211によりずれ具合を制御することで、人間が吹いたような雑な「うねり」を得ることが可能となる。 Here, the pulse generator 402 does not determine the pitch period of the sound source pulse train only by the pitch frequency corresponding to the pitch information 211 output from the operation key 205 that specifies the pitch, but the calculator 401 determines The pitch information 211 is changed based on the human voice envelope 312 generated from the human voice signal 210, and the pitch information output from the calculator 401 after the change is input to the pulse generator 402. it can. Accordingly, when the adder 306 of FIG. 3 mixes the musical instrument sound signal 309 and the human voice synthesized sound signal 310, the pitch of the musical instrument sound signal 309 is determined by the pitch information 211, and the human voice synthesized sound signal 310 is obtained. The pitch of the pitch can be determined by the pitch frequency of the pitch information 211 which is slightly changed based on the human voice envelope 312 obtained by the winder playing the pitch. As a result, a subtle undulation can be generated between the instrument sound signal 309 and the human voice synthesis sound signal 310 according to the human voice envelope 312, and various changes can be made to the output musical sound signal 213. Become. In this case, the calculator 401 substantially follows the pitch information 211, but shifts the pitch frequency to either up or down in proportion to the magnitude of the value of the human voice envelope 312 by up to a quarter semitone. May act like. If there is a slight deviation, it is possible to obtain the effect that "swell" occurs in the output sound. However, if the difference between the pitch frequencies of the two is too large, the output tone signal 213 sounds like two separate sounds, so the calculator 401 further causes the pitch information 211 indicated by the player. By controlling the degree of shift by, it is possible to obtain a rough "swell" that a human blows.

図8は、音色選択情報212として指定される楽器音色毎に、マウスピースとグロウル時の発音の特徴、及びフォルマントフィルタ403が生成するのに好適な音韻の種類の対応関係を示した表である。このように、音色選択情報212として例えば「トランペット」の音色が指定された場合には、フォルマントフィルタ403は、音韻「ぶ」に対応するフィルタパラメータ(第1フィルタパラメータ+第2フィルタパラメータ)を選択すれば、トランペットが吹奏された場合におけるグロウル音を最適に再現することができる。同様に、ホルンの場合は母音「う」、クラリネットの場合は音韻「ぼ」、サックスの場合は母音「お」、フルートの場合は母音「あ」、オーボエの場合は母音「い」が好適である。 FIG. 8 is a table showing, for each musical instrument tone color specified as the tone color selection information 212, the correspondence between the mouthpiece and the pronunciation characteristic at the time of growling, and the type of phoneme suitable for the formant filter 403 to generate. .. In this way, when, for example, the tone color of “trumpet” is specified as the tone color selection information 212, the formant filter 403 selects the filter parameter (first filter parameter+second filter parameter) corresponding to the phoneme “bu”. By doing so, it is possible to optimally reproduce the growling sound when the trumpet is played. Similarly, the vowel "u" for the horn, the phonological "vo" for the clarinet, the vowel "o" for the saxophone, the vowel "a" for the flute, and the vowel "i" for the oboe are preferred. is there.

以上のようにして、第2Wave Generator302は、吹奏者が指定した音高の操作キー205から出力される音高情報211と、吹奏者が指定した音色の操作キー205から出力される音色選択情報212と、マウスピース100の呼気センサ101から分離される人声信号210とに基づいて、人声合成音信号310を生成する。これにより、吹奏者がうまく特殊奏法音を発声できない場合であっても、それなりに吹奏者の意思を反映させることができる特殊奏法音を人声合成音信号310として簡単に得ることが可能となる。 As described above, the second Wave Generator 302 has the pitch information 211 output from the operation key 205 of the pitch designated by the wind instrument player and the tone color selection information 212 output from the operation key 205 of the tone color designated by the wind instrument player. And a human voice signal 210 separated from the breath sensor 101 of the mouthpiece 100, a human voice synthetic sound signal 310 is generated. As a result, even if the wind instrument player cannot utter the special rendition style sound well, it is possible to easily obtain the special rendition style sound that can reflect the intention of the wind instrument player as the human voice synthesized sound signal 310. ..

以上の構成を有する電子楽器200の実施形態の動作について、以下に説明する。まず、吹奏者が吹き込み口103で吹いた人声波形について説明する。図9は、吹奏者が普通に吹いた場合の図2のセンサ出力信号208(図9(a))と人声信号210(図9(b))の波形例を示す図である。一方、図10は、特殊奏法を意識して「ウ〜」と唸りながら吹いた場合のセンサ出力信号208(図10(a))と人声信号210(図10(b))の波形例を示す図である。両図とも、縦軸は各信号の振幅波形の大きさを表し、横軸は時間を表す。図9と図10との関係から読み取れるように、図1のマウスピース100内に専用のマイクを設置しなくても、図2に示されるDCカット素子203とA/D変換器202を組み合わせた回路により、図10(b)に示されるように、呼気センサ101の波形から吹奏者が発した声に相当する人声信号210を検出できることがわかる。そして、CPU201内のデジタル信号処理として実現される図3の第2Wave Generator302が、この人声信号210に基づいて人声合成音信号310を生成することにより、吹奏者の特殊奏法の意思を反映させた人声合成音信号310を生成することが可能となる。 The operation of the embodiment of the electronic musical instrument 200 having the above configuration will be described below. First, the human voice waveform blown by the wind blower at the blowing opening 103 will be described. FIG. 9 is a diagram showing an example of waveforms of the sensor output signal 208 (FIG. 9A) and the human voice signal 210 (FIG. 9B) of FIG. 2 when the player blows normally. On the other hand, FIG. 10 shows an example of the waveforms of the sensor output signal 208 (FIG. 10A) and the human voice signal 210 (FIG. 10B) when the player is groaning “U-” in consideration of the special performance. FIG. In both figures, the vertical axis represents the magnitude of the amplitude waveform of each signal, and the horizontal axis represents time. As can be read from the relationship between FIGS. 9 and 10, the DC cut element 203 and the A/D converter 202 shown in FIG. 2 are combined without installing a dedicated microphone in the mouthpiece 100 of FIG. As shown in FIG. 10B, it can be seen that the circuit can detect the human voice signal 210 corresponding to the voice of the wind blower from the waveform of the exhalation sensor 101. Then, the second Wave Generator 302 of FIG. 3, which is realized as digital signal processing in the CPU 201, generates a human voice synthesized sound signal 310 based on the human voice signal 210, thereby reflecting the intention of the wind performer's special performance style. It is possible to generate the synthesized human voice signal 310.

図11は、本実施形態における波形例を示す図である。図11(a)は、図3の第1Wave Generator301で生成される楽器音信号309の波形例を示す図である。前述したように、第1Wave Generator301は、例えばパルス変調方式により楽器音信号309を生成することにより、図11(a)に例示されるようなパルス変調波形として、楽器音信号309を生成することができる。 FIG. 11 is a diagram showing a waveform example in the present embodiment. FIG. 11A is a diagram showing a waveform example of the musical instrument sound signal 309 generated by the first Wave Generator 301 of FIG. As described above, the first Wave Generator 301 can generate the instrument sound signal 309 as a pulse-modulated waveform as illustrated in FIG. 11A by generating the instrument sound signal 309 by, for example, the pulse modulation method. it can.

図11(b)は、図3の第2Wave Generator302で生成される人声合成音信号310の波形例を示す図である。第2Wave Generator302は、フォルマントフィルタ403内の第1フィルタ404と第2フィルタ405による計算結果を加算器406で合成することにより、図11(b)に例示されるような音韻波形を生成する。 FIG. 11B is a diagram showing a waveform example of the human voice synthesis sound signal 310 generated by the second Wave Generator 302 of FIG. The second Wave Generator 302 synthesizes the calculation results of the first filter 404 and the second filter 405 in the formant filter 403 with the adder 406 to generate a phoneme waveform as illustrated in FIG. 11B.

図11(c)及び(d)は、図3のクリップ部307での処理波形例を示す図である。クリップ部307は、加算器306が出力する波形データに対して、図11(c)に示されるように、正閾値より大きな振幅値を正閾値に置き換え、負閾値より小さな振幅値を負閾値に置き換えることにより、図11(d)に示されるような波形データを出力する。これにより、出力される楽音信号213に、複雑な信号成分を含まれることが可能となる。 11C and 11D are diagrams showing examples of processing waveforms in the clip unit 307 of FIG. For the waveform data output from the adder 306, the clipping unit 307 replaces the amplitude value larger than the positive threshold value with the positive threshold value and the amplitude value smaller than the negative threshold value with the negative threshold value, as shown in FIG. 11C. By replacing, the waveform data as shown in FIG. 11D is output. As a result, the output musical tone signal 213 can include a complicated signal component.

図12は、以上の制御動作を実現するためにCPU201が実行する制御動作の処理例を示す全体フローチャートである。この処理は、CPU201が、特には図示しないROM(リードオンリーメモリ)等のメモリに記憶されている制御プログラムを実行する動作として実現され、図3に示される各機能部分はDSPのデジタル信号処理により実現されている。ステップS1201からS1213までの一連の処理が1周する周期は、図2のD/A変換部206のサンプリング周波数(44.1キロヘルツ)であり、約22マイクロ秒の時間を要する。 FIG. 12 is an overall flowchart showing a processing example of the control operation executed by the CPU 201 to realize the above control operation. This processing is realized as an operation in which the CPU 201 executes a control program stored in a memory such as a ROM (read only memory) which is not particularly shown. Each functional portion shown in FIG. 3 is realized by digital signal processing of the DSP. Has been realized. The cycle in which the series of steps S1201 to S1213 completes once is the sampling frequency (44.1 kilohertz) of the D/A conversion unit 206 in FIG. 2, and requires about 22 microseconds.

CPU201はまず、音色の操作キー205の状態を読み取る(ステップS1201)。 First, the CPU 201 reads the state of the tone color operation key 205 (step S1201).

次に、CPU201は、音色の操作キー205の値から音色を決定し、音色選択情報212を出力する(ステップS1202)。 Next, the CPU 201 determines the tone color from the value of the tone color operation key 205 and outputs the tone color selection information 212 (step S1202).

次に、CPU201は、音高の操作キー205の状態を読み取る(ステップS1203)。 Next, the CPU 201 reads the state of the pitch operation key 205 (step S1203).

次に、CPU201は、音色の操作キー205の値から音高を決定し、音高情報211を出力する(ステップS1204)。 Next, the CPU 201 determines the pitch from the value of the tone color operation key 205 and outputs the pitch information 211 (step S1204).

次に、CPU201は、呼気センサ101から、図2のハードウェア回路を介して、吹圧信号209と人声信号210を読み取る(ステップS1205)。 Next, the CPU 201 reads the blow pressure signal 209 and the human voice signal 210 from the exhalation sensor 101 via the hardware circuit of FIG. 2 (step S1205).

次に、CPU201は、吹圧信号209から、吹圧エンベロープ311を生成する(ステップS1206)。この生成処理は例えば、吹圧信号209に対する移動平均処理等の適切な平滑化処理である。 Next, the CPU 201 generates the blow pressure envelope 311 from the blow pressure signal 209 (step S1206). This generation process is, for example, an appropriate smoothing process such as a moving average process for the blow pressure signal 209.

次に、CPU201は、前述した図3の第1Wave Generator301及びAMP304に対応する処理を実行することにより、楽器音信号309を生成する(ステップS1207)。 Next, the CPU 201 generates the musical instrument sound signal 309 by executing the processing corresponding to the above-mentioned first Wave Generator 301 and AMP 304 of FIG. 3 (step S1207).

次に、CPU201は、ステップS1205で得た人声信号210から、人声エンベロープ312を生成する(ステップS1208)。この生成処理は、ステップS1206と同様に、例えば人声信号210に対する移動平均処理等の適切な平滑化処理である。 Next, the CPU 201 generates a human voice envelope 312 from the human voice signal 210 obtained in step S1205 (step S1208). Similar to step S1206, this generation process is an appropriate smoothing process such as a moving average process for the human voice signal 210.

次に、CPU201は、図3の第2Wave Generator302内の前述した図4の演算器401及びパルス発生器402に対応する処理を実行することにより、人声エンベロープ312と音高情報211とから、音源パルス列のパルス波を作成する(ステップS1209)。 Next, the CPU 201 executes the processing corresponding to the arithmetic unit 401 and the pulse generator 402 in FIG. 4 in the second Wave Generator 302 in FIG. 3 to generate the sound source from the human voice envelope 312 and the pitch information 211. A pulse wave of a pulse train is created (step S1209).

次に、CPU201は、ステップS1209で作成した音源パルス列のパルス波を入力として、図3の第2Wave Generator302内の前述した図4のフォルマントフィルタ403に対応する処理を実行する(ステップS1210)。この結果、CPU201は、人声合成音信号310を生成する(ステップS1211)。 Next, the CPU 201 receives the pulse wave of the sound source pulse train created in step S1209 as an input and executes the process corresponding to the above-described formant filter 403 in FIG. 4 in the second Wave Generator 302 in FIG. 3 (step S1210). As a result, the CPU 201 generates the human voice synthesized voice signal 310 (step S1211).

次に、CPU201は、前述した図3の加算器306に対応する処理を実行することにより、ステップS1207で生成した楽器音信号309とステップS1211で生成した人声合成音信号310とを加算する(ステップS1212)。 Next, the CPU 201 executes the process corresponding to the adder 306 of FIG. 3 described above to add the musical instrument sound signal 309 generated in step S1207 and the synthesized human voice signal 310 generated in step S1211 ( Step S1212).

更に、CPU201は、前述した図3のクリップ部307に対応する処理を実行することにより、加算器306が出力する楽音信号に対して、クリッピング処理を実行する(ステップS1213)。 Further, the CPU 201 executes the processing corresponding to the clipping unit 307 of FIG. 3 described above, thereby executing the clipping processing on the musical tone signal output from the adder 306 (step S1213).

最後に、CPU201は、ステップS1212のクリッピング処理の結果得られる楽音信号213を、デジタル音声としてD/A変換部206に送信する(ステップS1214)。 Finally, the CPU 201 transmits the musical sound signal 213 obtained as a result of the clipping processing in step S1212 as digital audio to the D/A conversion unit 206 (step S1214).

以上により、CPU201は、1サンプリング周期の処理を終了し、次のサンプリング周期のタイミングでステップS1201の処理に戻る。 As described above, the CPU 201 ends the process of one sampling period and returns to the process of step S1201 at the timing of the next sampling period.

以上説明した実施形態によれば、専用のマイク等を必要とせずに、吹奏者の発声動作に基づいて意図したように簡単に人声合成音信号310が楽器音信号309に混合された楽音信号213を得ることができ、より変化の富んだ楽音を発音することが可能となる。より具体的には、呼気センサ101で取り込んだ吹奏者の吹き圧を、直流成分と交流成分に分離して2つの要素とするので、専用のマイク等を必要とせずに呼気センサ101を効果的に利用することが可能となり、電子楽器200のコストダウンに寄与できる。 According to the above-described embodiment, a musical tone signal in which the synthesized voice signal 310 of the human voice is easily mixed with the musical instrument sound signal 309 as intended based on the vocalization operation of the winder without requiring a dedicated microphone or the like. 213 can be obtained, and it becomes possible to pronounce a more varied musical tone. More specifically, since the blower's blowing pressure taken in by the exhalation sensor 101 is separated into a direct current component and an alternating current component and made into two elements, the exhalation sensor 101 is effective without requiring a dedicated microphone or the like. It is possible to contribute to the cost reduction of the electronic musical instrument 200.

また、上述した実施形態によれば、図3の第2Wave Generator302が、図4に示した第1フィルタ404と第2フィルタ405とで構成されるフォルマントフィルタ403により実現される。この場合、音色選択情報212によって指定される1つの音色に対応するフィルタパラメータは、第1フォルマントに対応する第1フィルタパラメータ(周波数データと利得データ)と、第2フォルマントに対応する第2フィルタパラメータ(周波数データと利得データ)だけでよいため、1音色あたり合計で4つのデータを記憶するだけでよい。このため、様々な音色に対応する人声合成音信号310を生成するために必要なデータ容量を非常に小さくすることができ、電子楽器200のコストダウンを図ることが可能となる。 Further, according to the above-described embodiment, the second Wave Generator 302 of FIG. 3 is realized by the formant filter 403 including the first filter 404 and the second filter 405 shown in FIG. In this case, the filter parameters corresponding to one timbre designated by the timbre selection information 212 are the first filter parameter (frequency data and gain data) corresponding to the first formant and the second filter parameter corresponding to the second formant. Since only (frequency data and gain data) is required, it is only necessary to store four data in total for each tone color. For this reason, the data capacity required to generate the human voice synthesis sound signal 310 corresponding to various tones can be made extremely small, and the cost of the electronic musical instrument 200 can be reduced.

更に、上述した実施形態によれば、電子楽器200において、吹奏者が息を吹き出しながら声を発することで、吹奏者の声の周波数に依存させることなく、管楽器特有の特殊奏法「グロウル」を効果的に鳴らせる効果がある。また、電子楽器200において、選択した楽器音に対応させて人声合成音を作るので、吹奏者の発した言葉に依存させることなく、管楽器特有の特殊奏法「グロウル」を効果的に鳴らせる効果がある。 Further, according to the above-described embodiment, in the electronic musical instrument 200, the winder makes a voice while blowing his breath, and the special playing method “growl” unique to the wind instrument is effective without depending on the frequency of the voice of the winder. It has the effect of sounding. Further, in the electronic musical instrument 200, since the human voice synthesis sound is made to correspond to the selected musical instrument sound, there is an effect that the special playing method "growl" peculiar to the wind instrument can be effectively sounded without depending on the words emitted by the wind instrument player. is there.

以上の実施形態は、グロウル奏法のための人声合成音を作る方法であったが、電子楽器200が出力する楽音信号213に生の管楽器内での声の反射を考慮した効果を反映させることのできる他の実施形態について、以下に説明する。 Although the above embodiment is a method of producing a human voice synthesis sound for the growl playing method, it is necessary to reflect the effect in consideration of the reflection of the voice in the live wind instrument in the musical tone signal 213 output from the electronic musical instrument 200. Other possible embodiments will be described below.

例えば図13(a)に示されるサックスは、口に咥えるマウスピースから発した声は、管のU字部で一部が反射して戻って来る。そのために、マウスピースからU字部までの長さ1301(例えば50cm)を2倍した距離を伝わった声が、マウスピースから発した声に加算される。空気中において、音が伝搬する速度は1秒間に333mほどであるから、図13(b)に示されるように、元の人声合成音1302に対して、3msずつ遅延する反射音成分1303を加算すれば、反射音をシミュレートすることができると考えられる。 For example, in the saxophone shown in FIG. 13(a), the voice uttered from the mouthpiece held in the mouth comes back with a part thereof reflected at the U-shaped portion of the tube. Therefore, a voice transmitted over a distance twice the length 1301 (for example, 50 cm) from the mouthpiece to the U-shaped portion is added to the voice uttered from the mouthpiece. In the air, the speed at which the sound propagates is about 333 m per second. Therefore, as shown in FIG. 13B, a reflected sound component 1303 delayed by 3 ms with respect to the original synthesized human voice 1302 is generated. It is considered that reflected sounds can be simulated by adding them.

そこで他の実施形態において、図3のAMP305が出力する人声合成音信号310を入力とする、図14に示されるような遅延処理部1100及び加算器1403を設ける。この遅延処理部1100は、ディレイ部1401と減衰器1402を備える。ディレイ部1401は人声合成音信号310を例えば3ms遅延させ、減衰器1402はその遅延させられた信号を減衰することにより、図13(b)に示される反射音1303のうちの1つの反射音に対応する反射音信号を生成する。このとき、ディレイ部1401でのディレイ時間や減衰器1402での減衰量は、管楽器の種類によって異なるため、例えば図2の音色選択情報212に従ってこれらのパラメータが制御されるようにすることができる。このようにして、遅延処理部1100で生成された反射音信号は、加算器1403において、元の人声合成音信号310と混合されて出力される。 Therefore, in another embodiment, a delay processing unit 1100 and an adder 1403 as shown in FIG. 14 to which the synthesized human voice signal 310 output from the AMP 305 of FIG. 3 is input are provided. The delay processing unit 1100 includes a delay unit 1401 and an attenuator 1402. The delay unit 1401 delays the synthesized human voice signal 310 by, for example, 3 ms, and the attenuator 1402 attenuates the delayed signal, whereby one of the reflected sounds 1303 shown in FIG. 13B is reflected. Generates a reflected sound signal corresponding to. At this time, since the delay time in the delay unit 1401 and the attenuation amount in the attenuator 1402 differ depending on the type of wind instrument, these parameters can be controlled according to the tone color selection information 212 in FIG. 2, for example. In this way, the reflected sound signal generated by the delay processing unit 1100 is mixed with the original human voice synthesized sound signal 310 and output by the adder 1403.

以上の構成により、電子楽器200において、人声合成音を遅延させて元の人声合成音に付加するので、管楽器特有の特殊奏法「グロウル」において、いかにも管で鳴らしたかのような効果音を得ることが可能である。 With the above-described configuration, in the electronic musical instrument 200, the human voice synthesis sound is delayed and added to the original human voice synthesis sound. Therefore, in the special playing method “growl” peculiar to a wind instrument, a sound effect like that played by a wind pipe is obtained. It is possible.

以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、
発生すべき楽音の音高を指定する音高指定キーと、
発生すべき楽音の音色を指定する音色指定キーと、
前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
前記音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、前記音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
を備える電子楽器。
(付記2)
前記分離部は、前記呼気センサからのセンサ出力信号に含まれる周波数成分から前記人声の基本周波数以上の周波数成分をカットした信号を前記吹奏信号とし、前記人声の基本周波数より低い周波数成分をカットした信号を前記人声信号とする、付記1に記載の電子楽器。
(付記3)
前記処理部は、前記フィルタ処理において、記音色選択情報に対応するフィルタパラメータを取得し、前記取得されたフィルタパラメータに基づいた音声合成フィルタにより前記パルス列信号をフィルタリングして人声合成音を出力する処理を実行する、付記1または2に記載の電子楽器。
(付記4)
前記フィルタパラメータは、前記音色選択情報に対応する音韻に対応する複数のフォルマント毎に前記フォルマントの周波数及び利得の組を保持し、
前記音声合成フィルタは、前記フォルマントの周波数及び利得の組によって共振する共振フィルタを、前記複数のフォルマントに対応する数だけ備えたフォルマントフィルタである、付記3に記載の電子楽器。
(付記5)
前記音色選択情報に対応するフィルタパラメータは、当該音色選択情報に対応する音韻に対応する線形予測パラメータであり、
前記音声合成フィルタは、前記線形予測パラメータによって構成される線形予測フィルタである、付記3に記載の電子楽器。
(付記6)
前記処理部は、前記音高出力処理において、前記音高指定キーの操作状態に基づいて決定した音高情報を、前記人声信号に基づいて生成した人声エンベロープに基づいて変化させて出力する処理を実行する、付記1乃至5の何れか記載の電子楽器。
(付記7)
前記処理部は、前記人声合成音出力処理において、前記人声信号から生成された人声エンベロープに基づいて、前記人声合成音の振幅を制御する処理を実行する、付記1乃至6の何れか記載の電子楽器。
(付記8)
前記処理部はさらに、前記楽器音と前記人声合成音とを加算して楽音信号として出力する加算処理を実行する、付記1乃至7の何れかに記載の電子楽器。
(付記9)
前記処理部は、前記加算処理において、前記楽器音と前記人声合成音とを加算した後、前記加算結果を所定の閾値でクリッピングし、前記クリッピング後の信号を前記楽音信号として出力する処理を実行する、付記8に記載の電子楽器。
(付記10)
前記処理部はさらに、前記人声合成音信号を遅延させるとともに、前記遅延後の人声合成音信号と元の前記人声信号とを加算して出力する遅延処理を実行する、付記1乃至9の何れか記載の電子楽器。
(付記11)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器に用いられる楽音発生方法であって、前記電子楽器が、
前記音色指定キーの操作状態に基づいて音色選択情報を出力し、
前記音高指定キーの操作状態に基づいて音高情報を出力し、
前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力し、
前記音高情報に対応するピッチ周期を有するパルス列信号を生成し、
前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、楽音発生方法。
(付記12)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサと、発生すべき楽音の音高を指定する音高指定キーと、発生すべき楽音の音色を指定する音色指定キーと、前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、有する電子楽器として用いられるコンピュータに、
前記音色指定キーの操作状態に基づいて音色選択情報を出力するステップと、
前記音高指定キーの操作状態に基づいて音高情報を出力するステップと、
前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力するステップと、
前記音高情報に対応するピッチ周期を有するパルス列信号を生成するステップと、
前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するステップと、
を実行させるプログラム。
(付記13)
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
発生すべき楽音の音色を指定する音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、発生すべき楽音の音高を指定する音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
を備える楽音発生装置。
Regarding the above embodiment, the following supplementary notes will be further disclosed.
(Appendix 1)
An exhalation sensor that detects a state of exhalation and outputs a signal corresponding to the detected state of exhalation,
A pitch specification key that specifies the pitch of the musical sound to be generated,
A tone designating key that designates the tone color of the musical sound to be generated,
An output signal from the exhalation sensor, a separation unit that separates a blowing signal indicating a state of exhalation generated by a blow and a human voice signal indicating a state of exhalation generated by a human voice,
A tone color selection output process that outputs tone color selection information based on an operation state of the tone color designation key, a tone pitch output process that outputs tone pitch information based on an operation state of the tone pitch designation key, the wind signal and the Musical instrument sound output processing for outputting a musical instrument sound based on pitch information and the tone color selection information, pulse train generation processing for generating a pulse train signal having a pitch cycle corresponding to the pitch information, and the pulse train signal, A processing unit that executes a filtering process for outputting a human voice synthesized voice by filtering with a voice synthesis filter corresponding to the tone color selection information;
An electronic musical instrument equipped with.
(Appendix 2)
The separating unit uses the blowing signal as a signal obtained by cutting a frequency component equal to or higher than the fundamental frequency of the human voice from a frequency component included in a sensor output signal from the exhalation sensor, and a frequency component lower than the fundamental frequency of the human voice. The electronic musical instrument according to Appendix 1, wherein the cut signal is used as the human voice signal.
(Appendix 3)
In the filter process, the processing unit acquires a filter parameter corresponding to the phonetic color selection information, filters the pulse train signal by a voice synthesis filter based on the acquired filter parameter, and outputs a human voice synthesized voice. The electronic musical instrument according to appendix 1 or 2, which executes processing.
(Appendix 4)
The filter parameter holds a set of frequency and gain of the formants for each of a plurality of formants corresponding to the phonemes corresponding to the tone color selection information,
The electronic musical instrument according to appendix 3, wherein the voice synthesis filter is a formant filter provided with a number of resonance filters that resonate according to a set of frequencies and gains of the formants, the number corresponding to the plurality of formants.
(Appendix 5)
The filter parameter corresponding to the timbre selection information is a linear prediction parameter corresponding to the phoneme corresponding to the timbre selection information,
The electronic musical instrument according to Appendix 3, wherein the voice synthesis filter is a linear prediction filter configured by the linear prediction parameter.
(Appendix 6)
In the pitch output process, the processing unit changes pitch information determined based on an operation state of the pitch designation key, based on a human voice envelope generated based on the human voice signal, and outputs the pitch information. 6. The electronic musical instrument according to any one of appendices 1 to 5, which executes processing.
(Appendix 7)
The processing unit executes a process of controlling the amplitude of the synthesized human voice based on a human voice envelope generated from the human voice signal in the synthetic voice output process. Or electronic musical instrument described.
(Appendix 8)
8. The electronic musical instrument according to any one of appendices 1 to 7, wherein the processing unit further executes an addition process of adding the musical instrument sound and the human voice synthesis sound and outputting the resultant as a musical tone signal.
(Appendix 9)
In the addition processing, the processing unit adds the musical instrument sound and the human voice synthesis sound, clips the addition result with a predetermined threshold, and outputs the clipped signal as the musical tone signal. The electronic musical instrument according to appendix 8, which is executed.
(Appendix 10)
The processing unit further delays the human voice synthesis sound signal, and executes a delay process of adding and outputting the delayed human voice synthesis sound signal and the original human voice signal. The electronic musical instrument according to any one of 1.
(Appendix 11)
A breath sensor for detecting the state of exhalation and outputting a signal corresponding to the detected state of exhalation, a pitch designation key for designating the pitch of a musical tone to be generated, and a tone color of the musical tone to be generated. An electronic musical instrument having a tone color designating key and a separating unit for separating an output signal from the exhalation sensor into a blowing signal indicating a state of exhalation generated by a blow and a human voice signal indicating a state of exhalation generated by a human voice. A method for generating a musical sound used in, wherein the electronic musical instrument comprises:
Outputs tone color selection information based on the operation state of the tone color designation key,
Outputs pitch information based on the operation state of the pitch designation key,
Output a musical instrument sound based on the wind signal, the pitch information, and the tone color selection information,
Generating a pulse train signal having a pitch period corresponding to the pitch information,
A method for generating a musical tone, wherein the pulse train signal is filtered by a voice synthesis filter corresponding to the tone color selection information to output a human voice synthesized voice.
(Appendix 12)
A breath sensor that detects the state of exhalation and outputs a signal corresponding to the detected state of exhalation, a pitch designation key that designates the pitch of a musical tone that should be generated, and a tone color of the musical tone that should be generated An electronic musical instrument having a tone color designating key and a separating unit for separating an output signal from the exhalation sensor into a blowing signal indicating a state of exhalation generated by a blow and a human voice signal indicating a state of exhalation generated by a human voice. To the computer used as
Outputting tone color selection information based on the operation state of the tone color designation key,
Outputting pitch information based on the operation state of the pitch designation key,
Outputting a musical instrument sound based on the wind signal, the pitch information, and the tone color selection information,
Generating a pulse train signal having a pitch period corresponding to the pitch information;
A step of filtering the pulse train signal with a voice synthesis filter corresponding to the tone color selection information to output a human voice synthesis voice;
A program to execute.
(Appendix 13)
An output signal from an exhalation sensor that detects a state of exhalation and outputs a signal corresponding to the detected state of exhalation, indicates a state of exhalation generated by a blowing signal and a human voice that indicates the state of exhalation generated by blowing. A separation unit that separates the human voice signal shown,
Based on the tone selection output process that outputs tone selection information based on the tone selection key operation state that specifies the tone color of the tone that should be generated, and the operation state of the tone pitch specification key that specifies the tone pitch of the tone that should be generated. Pitch output processing for outputting pitch information, instrument sound output processing for outputting a musical instrument sound based on the wind signal, the pitch information, and the tone color selection information, and a pitch cycle corresponding to the pitch information. A pulse train generation process for generating a pulse train signal having, and a processing unit for executing a filter process for filtering the pulse train signal by a voice synthesis filter corresponding to the tone color selection information and outputting a human voice synthesized voice,
Musical tone generator equipped with.

100 マウスピース
101 呼気センサ
102 マウスピース本体
103 吹き込み口
104 保護壁
105 穴
200 電子楽器
201 CPU201
202、204 A/D変換部
203 DCカット素子
205 操作キー
206 D/A変換部
207 音響システム
208 センサ出力信号
209 吹圧信号
210 人声信号
211 音高情報
212 音色選択情報
213 楽音信号
301 第1Wave Generator
302 第2Wave Generator
303 演算器
306、406、1403 加算器
307 クリップ部
308 人声選択情報
309 楽器音信号
310 人声合成音信号
311 吹圧エンベロープ
312 人声エンベロープ
401 演算器
402 パルス発生器
403 フォルマントフィルタ
404 第1フィルタ
405 第2フィルタ
1100 遅延処理部
1401 ディレイ部
1402 減衰器
100 Mouthpiece 101 Exhalation Sensor 102 Mouthpiece Body 103 Blow-in Port 104 Protective Wall 105 Hole 200 Electronic Musical Instrument 201 CPU201
202, 204 A/D conversion unit 203 DC cut element 205 Operation key 206 D/A conversion unit 207 Acoustic system 208 Sensor output signal 209 Blowing pressure signal 210 Human voice signal 211 Pitch information 212 Sound color selection information 213 Musical sound signal 301 First Wave Generator
302 Second Wave Generator
303 arithmetic unit 306, 406, 1403 adder 307 clip section 308 human voice selection information 309 musical instrument sound signal 310 human voice synthesized sound signal 311 blowing pressure envelope 312 human voice envelope 401 arithmetic unit 402 pulse generator 403 formant filter 404 first filter 405 2nd filter 1100 Delay processing part 1401 Delay part 1402 Attenuator

Claims (13)

呼気の状態を検知する呼気センサの出力信号から、吹奏により発生する呼気の状態を示す吹奏信号を抽出し、
前記吹奏信号と、指定される音高と、指定される音色とに基づいて楽器音を出力し、
前記指定される音高に対応するピッチ周期を有するパルス列信号を、前記指定される音色に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、処理部を備える電子楽器。
From the output signal of the exhalation sensor that detects the state of exhalation, extract the blowing signal indicating the state of exhalation generated by the blowing,
The instrument signal is output based on the wind signal, the specified pitch, and the specified tone color,
An electronic musical instrument comprising a processing unit for filtering a pulse train signal having a pitch period corresponding to the specified pitch by a voice synthesis filter corresponding to the designated tone color and outputting a human voice synthesis sound.
前記処理部は、前記指定される音色に対応するフィルタパラメータを取得し、前記取得されたフィルタパラメータに基づいた音声合成フィルタにより前記パルス列信号をフィルタリングして前記人声合成音を出力する処理を実行する、請求項1に記載の電子楽器。 The processing unit acquires a filter parameter corresponding to the specified tone color, executes a process of filtering the pulse train signal with a voice synthesis filter based on the acquired filter parameter, and outputting the human voice synthesis voice. The electronic musical instrument according to claim 1 . 前記フィルタパラメータは、前記指定される音色に対応する音韻に対応する複数のフォルマント毎に前記フォルマントの周波数及び利得の組を保持し、
前記音声合成フィルタは、前記フォルマントの周波数及び利得の組によって共振する共振フィルタを、前記複数のフォルマントに対応する数だけ備えたフォルマントフィルタである、請求項に記載の電子楽器。
The filter parameter holds a set of frequency and gain of the formants for each of a plurality of formants corresponding to the phonemes corresponding to the designated timbre,
The electronic musical instrument according to claim 2 , wherein the voice synthesis filter is a formant filter including a number of resonance filters that resonate according to a set of frequencies and gains of the formants, the number corresponding to the plurality of formants.
前記指定される音色に対応するフィルタパラメータは、前記指定される音色に対応する音韻に対応する線形予測パラメータであり、
前記音声合成フィルタは、前記線形予測パラメータによって構成される線形予測フィルタである、請求項2又は3に記載の電子楽器。
The filter parameter corresponding to the specified tone color is a linear prediction parameter corresponding to the phoneme corresponding to the specified tone color,
The electronic musical instrument according to claim 2 , wherein the voice synthesis filter is a linear prediction filter configured by the linear prediction parameter.
前記処理部は、前記楽器音と前記人声合成音とを加算した後、前記楽器音と前記人声合成音とを加算した結果を所定の閾値でクリッピングし、前記クリッピング後の信号を楽音信号として出力する処理を実行する、請求項1乃至の何れかに記載の電子楽器。 Wherein the processing unit, after adding the said person voice synthesized speech and the musical instrument sound, the result of adding the said person voice synthesized speech and the musical instrument sound is clipped at a predetermined threshold value, comfortable sound signal after the clipping executing a process of outputting a signal, an electronic musical instrument according to any one of claims 1 to 4. 前記処理部は、前記呼気センサの出力信号を、吹奏により発生する呼気の状態を示す前記吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離し、前記人声信号に基づいて、前記人声合成音の振幅または音高を制御する、請求項1乃至5の何れかに記載の電子楽器。 The processing unit separates the output signal of the exhalation sensor into the blowing signal indicating the state of exhalation generated by blowing and the human voice signal indicating the state of exhalation generated by human voice, and based on the human voice signal. The electronic musical instrument according to any one of claims 1 to 5, wherein the electronic musical instrument controls the amplitude or pitch of the synthetic voice. 前記処理部は、前記呼気センサからのセンサ出力信号に含まれる周波数成分から前記人声の基本周波数以上の周波数成分をカットした信号を前記吹奏信号とし、前記人声の基本周波数より低い周波数成分をカットした信号を前記人声信号とする、請求項に記載の電子楽器。 The processing unit, the blowing signal is a signal obtained by cutting a frequency component having a fundamental frequency of the human voice or higher from a frequency component included in a sensor output signal from the breath sensor, and a frequency component lower than the fundamental frequency of the human voice. The electronic musical instrument according to claim 6 , wherein the cut signal is used as the human voice signal. 前記処理部は、前記人声信号から生成された人声エンベロープに基づいて、前記人声合成音の振幅または音高を制御する処理を実行する、請求項6又は7に記載の電子楽器。 The electronic musical instrument according to claim 6 or 7 , wherein the processing unit executes a process of controlling an amplitude or a pitch of the synthesized human voice based on a human voice envelope generated from the human voice signal. 前記処理部はさらに、前記人声合成音の信号である人声合成音信号を遅延させるとともに、前記遅延後の人声合成音信号と元の前記人声信号とを加算して出力する遅延処理を実行する、請求項乃至8の何れか記載の電子楽器。 The processing unit further delays the human voice synthetic sound signal which is the signal of the human voice synthetic voice, and adds the delayed human voice synthetic sound signal and the original human voice signal to output the delay processing. The electronic musical instrument according to any one of claims 6 to 8, which executes the following. 呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する前記呼気センサと、
発生すべき楽音の音高を指定する音高指定キーと、
発生すべき楽音の音色を指定する音色指定キーと、
を備え、
前記処理部は、
前記呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
前記音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、前記音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する、請求項1乃至の何れか記載の電子楽器。
An exhalation sensor that detects a state of exhalation and outputs a signal corresponding to the detected state of exhalation;
And Ruoto high-specified key to specify the pitch of a tone to be generated,
And Ruoto color specifying key to specify the tone of the tone to be generated,
Equipped with
The processing unit is
An output signal from the exhalation sensor, a separation unit that separates a blowing signal indicating a state of exhalation generated by a blow and a human voice signal indicating a state of exhalation generated by a human voice,
A tone color selection output process that outputs tone color selection information based on an operation state of the tone color designation key, a tone pitch output process that outputs tone pitch information based on an operation state of the tone pitch designation key, the wind signal and the Musical instrument sound output processing for outputting a musical instrument sound based on pitch information and the tone color selection information, pulse train generation processing for generating a pulse train signal having a pitch cycle corresponding to the pitch information, and the pulse train signal, The electronic musical instrument according to any one of claims 1 to 9 , wherein the electronic musical instrument is filtered by a voice synthesis filter corresponding to the tone color selection information and outputs a human voice synthesized voice.
電子楽器が、
呼気の状態を検知する呼気センサの出力信号から、吹奏により発生する呼気の状態を示す吹奏信号を抽出し、
前記吹奏信号と、指定される音高と、指定される音色とに基づいて楽器音を出力し、
前記指定される音高に対応するピッチ周期を有するパルス列信号を、前記指定される音色に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する、楽音発生方法。
Electronic musical instruments
From the output signal of the exhalation sensor that detects the state of exhalation, extract the blowing signal indicating the state of exhalation generated by the blowing,
The instrument signal is output based on the wind signal, the specified pitch, and the specified tone color,
A musical sound generating method in which a pulse train signal having a pitch period corresponding to the designated pitch is filtered by a voice synthesis filter corresponding to the designated tone color, and a human voice synthesis sound is output.
コンピュータに、
呼気の状態を検知する呼気センサの出力信号から、吹奏により発生する呼気の状態を示す吹奏信号を抽出し、
前記吹奏信号と、指定される音高と、指定される音色とに基づいて楽器音を出力する処理と、
前記指定される音高に対応するピッチ周期を有するパルス列信号を、前記指定される音色に対応する音声合成フィルタによりフィルタリングして人声合成音を出力する処理と、
を実行させるプログラム。
On the computer,
From the output signal of the exhalation sensor that detects the state of exhalation, extract the blowing signal indicating the state of exhalation generated by the blowing,
A process of outputting a musical instrument sound based on the wind signal, a specified pitch, and a specified tone color;
And processing you outputs human voice synthesized sound a pulse train signal, and filtered by the speech synthesis filter corresponding to the tone color of the specified having a pitch period corresponding to the pitch to be the designated,
A program to execute.
呼気の状態を検知して前記検知された呼気の状態に対応した信号を出力する呼気センサからの出力信号を、吹奏により発生する呼気の状態を示す吹奏信号と人声により発生する呼気の状態を示す人声信号とに分離する分離部と、
発生すべき楽音の音色を指定する音色指定キーの操作状態に基づいて音色選択情報を出力する音色選択出力処理と、発生すべき楽音の音高を指定する音高指定キーの操作状態に基づいて音高情報を出力する音高出力処理と、前記吹奏信号と前記音高情報と前記音色選択情報とに基づいて楽器音を出力する楽器音出力処理と、前記音高情報に対応するピッチ周期を有するパルス列信号を生成するパルス列生成処理と、前記パルス列信号を、前記音色選択情報に対応する音声合成フィルタによりフィルタリングして人声合成音を出力するフィルタ処理とを実行する処理部と、
を備える楽音発生装置。
An output signal from an exhalation sensor that detects a state of exhalation and outputs a signal corresponding to the detected state of exhalation, indicates a state of exhalation generated by a blow signal and a human voice that indicates the state of exhalation generated by blowing. A separation unit that separates the human voice signal shown,
Based on the tone color selection output process that outputs tone color selection information based on the operation state of the tone color specification key that specifies the tone color of the tone that should be generated, and the operation state of the tone pitch specification key that specifies the pitch of the tone that should be generated Pitch output processing for outputting pitch information, instrument sound output processing for outputting a musical instrument sound based on the wind signal, the pitch information, and the tone color selection information, and a pitch period corresponding to the pitch information. A pulse train generation process for generating a pulse train signal having, and a processing unit for executing a filter process for filtering the pulse train signal by a voice synthesis filter corresponding to the tone color selection information and outputting a human voice synthesized voice,
Tone generator equipped with.
JP2016060391A 2016-03-24 2016-03-24 Electronic musical instrument, musical tone generating device, musical tone generating method and program Active JP6728843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060391A JP6728843B2 (en) 2016-03-24 2016-03-24 Electronic musical instrument, musical tone generating device, musical tone generating method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060391A JP6728843B2 (en) 2016-03-24 2016-03-24 Electronic musical instrument, musical tone generating device, musical tone generating method and program

Publications (3)

Publication Number Publication Date
JP2017173606A JP2017173606A (en) 2017-09-28
JP2017173606A5 JP2017173606A5 (en) 2019-05-09
JP6728843B2 true JP6728843B2 (en) 2020-07-22

Family

ID=59972970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060391A Active JP6728843B2 (en) 2016-03-24 2016-03-24 Electronic musical instrument, musical tone generating device, musical tone generating method and program

Country Status (1)

Country Link
JP (1) JP6728843B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051100A (en) * 2019-09-20 2021-04-01 カシオ計算機株式会社 Electronic wind instrument, musical sound generation method and program
WO2023058173A1 (en) * 2021-10-06 2023-04-13 ヤマハ株式会社 Sound control device, control method for same, electronic instrument, program
WO2023058172A1 (en) * 2021-10-06 2023-04-13 ヤマハ株式会社 Sound control device and control method therefor, electronic musical instrument, and program
JP2023176329A (en) * 2022-05-31 2023-12-13 ヤマハ株式会社 Sound control device, control method for the same, program, and electronic musical instrument

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163494A (en) * 1986-12-26 1988-07-06 松下電器産業株式会社 Intensity detector
JP2605761B2 (en) * 1987-11-30 1997-04-30 カシオ計算機株式会社 Electronic wind instrument
JP2508333B2 (en) * 1989-12-26 1996-06-19 ヤマハ株式会社 Musical tone signal generator
JPH1031496A (en) * 1996-07-15 1998-02-03 Casio Comput Co Ltd Musical sound generating device
JP3732793B2 (en) * 2001-03-26 2006-01-11 株式会社東芝 Speech synthesis method, speech synthesis apparatus, and recording medium
JP2007171637A (en) * 2005-12-22 2007-07-05 Toshiba Tec Corp Voice processor
JP6326976B2 (en) * 2014-05-29 2018-05-23 カシオ計算機株式会社 Electronic musical instrument, pronunciation control method for electronic musical instrument, and program

Also Published As

Publication number Publication date
JP2017173606A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
Meyer Acoustics and the performance of music: Manual for acousticians, audio engineers, musicians, architects and musical instrument makers
Campbell et al. The musician's guide to acoustics
JP4207902B2 (en) Speech synthesis apparatus and program
JP5803720B2 (en) Electronic wind instrument, vibration control device and program
JP6435644B2 (en) Electronic musical instrument, pronunciation control method and program
JP6728843B2 (en) Electronic musical instrument, musical tone generating device, musical tone generating method and program
JP3918734B2 (en) Music generator
JP4645241B2 (en) Voice processing apparatus and program
Stowell et al. Characteristics of the beatboxing vocal style
JP2015225271A (en) Electronic musical instrument, method for controlling sound production of electronic musical instrument, and program
JP6648457B2 (en) Electronic musical instrument, sound waveform generation method, and program
JP6753250B2 (en) Musical tone generator, musical tone generator, electronic musical instrument, and program
JP6435645B2 (en) Electronic musical instrument, pronunciation control method for electronic musical instrument, and program
JP4349316B2 (en) Speech analysis and synthesis apparatus, method and program
Howard The vocal tract organ and the vox humana organ stop
JP6500533B2 (en) Electronic musical instrument, method of controlling pronunciation of electronic musical instrument, and program
JPH08328555A (en) Performance controller
JP2017173605A (en) Electronic musical instrument, musical sound generator, musical sound generation method and program
JP2019086801A (en) Audio processing method and audio processing apparatus
WO2022080395A1 (en) Audio synthesizing method and program
JP5569307B2 (en) Program and editing device
JP7346865B2 (en) Electronic wind instrument, musical sound generation method, and program
JP2011180194A (en) Phoneme code-converting device, phoneme code database, and voice synthesizer
JP2011197235A (en) Sound signal control device and karaoke device
JP2023020577A (en) masking device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6728843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150