JPH0777979A - Speech-operated acoustic modulating device - Google Patents

Speech-operated acoustic modulating device

Info

Publication number
JPH0777979A
JPH0777979A JP5160724A JP16072493A JPH0777979A JP H0777979 A JPH0777979 A JP H0777979A JP 5160724 A JP5160724 A JP 5160724A JP 16072493 A JP16072493 A JP 16072493A JP H0777979 A JPH0777979 A JP H0777979A
Authority
JP
Japan
Prior art keywords
calculated
frequency
signal
spectrum
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5160724A
Other languages
Japanese (ja)
Inventor
Tetsukazu Nakae
哲一 仲江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP5160724A priority Critical patent/JPH0777979A/en
Publication of JPH0777979A publication Critical patent/JPH0777979A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/055Filters for musical processing or musical effects; Filter responses, filter architecture, filter coefficients or control parameters therefor
    • G10H2250/101Filter coefficient update; Adaptive filters, i.e. with filter coefficient calculation in real time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/471General musical sound synthesis principles, i.e. sound category-independent synthesis methods
    • G10H2250/481Formant synthesis, i.e. simulating the human speech production mechanism by exciting formant resonators, e.g. mimicking vocal tract filtering as in LPC synthesis vocoders, wherein musical instruments may be used as excitation signal to the time-varying filter estimated from a singer's speech

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To adequately modulate a sound, generated by an acoustic generating device such as an electronic musical instrument, on the basis of a featured speech signal component. CONSTITUTION:A filter coefficient calculation part 302 extracts the frequencies and gains of plural peaks corresponding to a formant from the amplitude spectrum of a speech signal p(n) calculated by a spectrum calculation part 301 employing a linear predicting method and calculates plural filter coefficients. Those coefficients are held in a filter coefficient storage part 303. Then the filter coefficients held in the filter coefficient storage part 303 are used to constitute plural band-pass filters(BPF) 304, and a musical sound signal x(n) is inputted to those filters. Respective filter outputs Yj(n) (1<=j<=J) are accumulated by an accumulation part 305, whose accumulation output is outputted as a digital output musical sound signal z(n).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、電子楽器等の音響発生
装置から発生される音を音声で変調することにより、発
生される音が音声に対応して変化する効果を付加するこ
とのできる音響変調装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention can add the effect of changing the sound generated in response to the sound by modulating the sound generated from the sound generating device such as an electronic musical instrument with the sound. The present invention relates to an acoustic modulator.

【0002】[0002]

【従来の技術】電子楽器等の音響発生装置の普及に伴
い、使用者が自分の意志をより簡単かつ効果的に出力音
に反映させることのできる音響発生装置が求められてい
る。
2. Description of the Related Art With the widespread use of sound generators such as electronic musical instruments, there has been a demand for a sound generator which allows a user to more easily and effectively reflect his or her will in output sound.

【0003】そのような装置の一形態として、使用者の
発声などによって得られる音声信号により、発生する音
響信号に変調をかけることのできるいわゆるボコーダが
ある。
As one form of such an apparatus, there is a so-called vocoder capable of modulating a sound signal generated by a sound signal obtained by a user's utterance.

【0004】図14は、このようなボコーダ装置の従来
技術の説明図である。まず、人間が歌ったりしゃべった
りすることによりディジタル音声信号p(n)が生成さ
れ、一方、電子楽器などに対する演奏操作に基づいてデ
ィジタル楽音信号x(n) が生成される。
FIG. 14 is an explanatory view of the prior art of such a vocoder device. First, a person sings or speaks to generate a digital audio signal p (n), while a digital tone signal x (n) is generated based on a performance operation on an electronic musical instrument or the like.

【0005】そして、DSP(Digital Signal Processo
r)などのディジタル信号処理装置において、ディジタル
楽音信号x(n) 及びディジタル音声信号p(n) に対し
て、ディジタル信号処理である#1〜#Nの複数の帯域別変
換部1401の処理が実行される。
Then, a DSP (Digital Signal Processo)
In the digital signal processing device such as r), the digital tone signal x (n) and the digital voice signal p (n) are processed by the plurality of band-based conversion units 1401 of # 1 to #N, which are digital signal processing. To be executed.

【0006】即ち、まず、各帯域別変換部1401のバ
ンドパスフィルタ部(BPF部)1403によって、デ
ィジタル楽音信号x(n) が複数の異なる周波数帯域内に
帯域制限された複数の楽音信号成分Yi(n)に分割され
る。
That is, first, the band-pass filter section (BPF section) 1403 of each band-specific conversion section 1401 band-limits the digital musical sound signal x (n) into a plurality of different frequency bands. It is divided into (n).

【0007】これとともに、各帯域別変換部1401の
バンドパスフィルタ部(BPF部)1402によって、
ディジタル音声信号p(n) が複数の異なる周波数帯域内
に帯域制限された複数の音声信号成分Qj(n)に分割され
る。次に、各帯域別変換部1401のエンベロープ抽出
部1406によって、音声信号成分Qj(n)のエンベロー
プ信号Rj(n)が抽出される。
At the same time, the bandpass filter section (BPF section) 1402 of each band conversion section 1401
The digital voice signal p (n) is divided into a plurality of voice signal components Qj (n) band-limited within a plurality of different frequency bands. Next, the envelope extraction unit 1406 of each band conversion unit 1401 extracts the envelope signal Rj (n) of the audio signal component Qj (n).

【0008】更に、各帯域別変換部1401の乗算部1
404において、各周波数帯域の楽音信号成分Yi(n)に
各周波数帯域の音声信号成分のエンベロープ信号Rj(n)
が乗算されることにより、各周波数帯域毎に楽音信号成
分Yi(n)が音声信号成分のエンベロープ信号Rj(n)によ
って変調される。
Further, the multiplication unit 1 of each band conversion unit 1401
At 404, the envelope signal Rj (n) of the audio signal component of each frequency band is added to the tone signal component Yi (n) of each frequency band.
By multiplying by, the tone signal component Yi (n) is modulated by the envelope signal Rj (n) of the voice signal component for each frequency band.

【0009】そして、各帯域別変換部1401の乗算部
1404の出力が累算部1405で累算されることによ
り、その累算出力としてディジタル出力楽音信号z(n)
が出力される。
Then, the output of the multiplication unit 1404 of each band conversion unit 1401 is accumulated in the accumulation unit 1405, and the accumulated output power is the digital output musical tone signal z (n).
Is output.

【0010】[0010]

【発明が解決しようとする課題】しかし、上述の従来技
術では、各帯域別変換部1401におけるバンドパスフ
ィルタ部1402及び1403の周波数特性は固定され
ており、時々刻々変化するディジタル音声信号p(n) の
周波数特性を必ずしも適格にディジタル楽音信号x(n)
の周波数特性に反映させることができないという問題点
を有している。
However, in the above-mentioned prior art, the frequency characteristics of the bandpass filter sections 1402 and 1403 in each band conversion section 1401 are fixed, and the digital audio signal p (n ) Frequency characteristics of the digital tone signal x (n)
However, there is a problem in that it cannot be reflected in the frequency characteristics of.

【0011】本発明の課題は、特徴的な音声信号成分に
基づいて適格に音響信号を変調可能とすることにある。
An object of the present invention is to make it possible to properly modulate an acoustic signal based on a characteristic audio signal component.

【0012】[0012]

【課題を解決するための手段】本発明は、まず、音声信
号からその声道スペクトルに対応する周波数強度包絡成
分(振幅スペクトル又はパワースペクトル)を算出する
スペクトル算出手段を有する。このスペクトル算出手段
は、例えば、音声信号に対して線形予測分析を実行する
ことにより、線形予測係数を算出する線形予測分析手段
と、線形予測分析手段によって算出された線形予測係数
に基づいて決定される全極型の周波数強度成分を周波数
強度包絡成分として算出する全極型周波数強度成分算出
手段とから構成される。或いは、スペクトル算出手段
は、音声信号に対してフーリエ変換を実行することによ
り、周波数強度成分を算出するフーリエ変換手段と、フ
ーリエ変換手段によって算出される周波数強度成分を平
滑化することにより周波数強度包絡成分を算出する平滑
化手段とから構成される。
The present invention firstly has spectrum calculating means for calculating a frequency intensity envelope component (amplitude spectrum or power spectrum) corresponding to a vocal tract spectrum from a voice signal. This spectrum calculation means is determined based on, for example, a linear prediction analysis means for calculating a linear prediction coefficient by executing a linear prediction analysis on the audio signal, and a linear prediction coefficient calculated by the linear prediction analysis means. And an all-pole frequency intensity component calculating means for calculating an all-pole frequency intensity component as a frequency intensity envelope component. Alternatively, the spectrum calculation means performs a Fourier transform on the audio signal to calculate the frequency intensity component, and the frequency intensity envelope calculated by smoothing the frequency intensity component calculated by the Fourier transform means. And a smoothing means for calculating the component.

【0013】次に、スペクトル算出手段により算出され
た周波数強度包絡成分から複数の有効なピークの周波数
特性を算出するピーク算出手段を有する。この有効なピ
ークは、例えば音声の声道特性におけるホルマントに対
応する。ピークの周波数特性としては、例えばピークの
周波数と強度値が算出される。
Next, it has a peak calculating means for calculating frequency characteristics of a plurality of effective peaks from the frequency intensity envelope component calculated by the spectrum calculating means. This effective peak corresponds, for example, to a formant in the vocal tract characteristic of speech. As the frequency characteristic of the peak, for example, the frequency of the peak and the intensity value are calculated.

【0014】続いて、ピーク算出手段により算出された
有効なピークの周波数特性に対応する伝達特性を有する
フィルタ係数の組を、複数の有効なピークに対応して複
数組算出するフィルタ係数算出手段を有する。
Next, there is provided filter coefficient calculation means for calculating a plurality of sets of filter coefficients having transfer characteristics corresponding to the frequency characteristics of the effective peaks calculated by the peak calculation means, corresponding to a plurality of effective peaks. Have.

【0015】また、フィルタ係数算出手段によって算出
された複数組のフィルタ係数を使用して、音響信号に対
して、各フィルタ係数の組に対応する複数のフィルタリ
ング処理を独立して実行するフィルタリング処理手段を
有する。
Further, a plurality of sets of filter coefficients calculated by the filter coefficient calculating unit are used to independently perform a plurality of filtering processes corresponding to each set of filter coefficients on the acoustic signal. Have.

【0016】更に、フィルタリング処理手段によって実
行される複数のフィルタリング処理手段の出力を累算し
出力音響信号として出力する累算手段を有する。
Further, there is provided accumulating means for accumulating outputs of a plurality of filtering processing means executed by the filtering processing means and outputting as an output acoustic signal.

【0017】[0017]

【作用】スペクトル算出手段により算出された音声信号
の周波数強度包絡成分からピーク算出手段により音声の
ホルマントなどに対応する複数の有効なピークの周波数
特性が算出され、更に、フィルタ係数算出手段によっ
て、そのような有効なピークの周波数特性に対応する伝
達特性を有するフィルタ係数の組が算出される。
The frequency characteristics of a plurality of effective peaks corresponding to the voice formant and the like are calculated by the peak calculating means from the frequency intensity envelope component of the audio signal calculated by the spectrum calculating means, and further by the filter coefficient calculating means, A set of filter coefficients having a transfer characteristic corresponding to the frequency characteristic of such an effective peak is calculated.

【0018】フィルタリング処理手段は、上述のフィル
タ係数の組を使用して、上述の複数の有効なピークの周
波数特性を強調するような複数のフィルタ処理を音響信
号に対して独立して実行する。そして、複数のフィルタ
リング処理手段の出力が累算手段により累算され、出力
音響信号として出力される。
The filtering processing means independently performs, on the acoustic signal, a plurality of filtering processes that emphasize the frequency characteristics of the plurality of effective peaks, using the set of filter coefficients described above. Then, the outputs of the plurality of filtering processing means are accumulated by the accumulating means and output as an output acoustic signal.

【0019】この結果、音響信号は、時々刻々と変化す
る音声信号のホルマントなどの有効なピークに対応する
周波数帯域が適格に強調されることになる。
As a result, in the acoustic signal, the frequency band corresponding to the effective peak such as the formant of the audio signal which changes from moment to moment is properly emphasized.

【0020】[0020]

【実施例】以下、図面を参照しながら本発明の実施例に
つき詳細に説明する。 <第1の実施例>構成 図1は、本発明が鍵盤楽器に適用された場合の第1の実
施例の全体構成を示すブロック図である。
Embodiments of the present invention will now be described in detail with reference to the drawings. <First Embodiment> Configuration FIG. 1 is a block diagram showing the overall configuration of a first embodiment when the present invention is applied to a keyboard instrument.

【0021】演奏者がキーボード109で押鍵を行った
り、或いは機能スイッチ110によって音色設定や各種
の効果設定等のスイッチ操作を行うと、それらの演奏情
報がバス117を介してCPU101に送られる。
When the performer presses a key on the keyboard 109 or performs a switch operation such as tone color setting or various effect setting by the function switch 110, the performance information is sent to the CPU 101 via the bus 117.

【0022】CPU101は、ROM102に記憶され
たプログラムを実行し、RAM103をワークメモリと
して演奏情報の処理を行う。このようにして処理された
演奏情報、例えばノートオン/オフ、ベロシティ、音色
設定データなどは、バス117を介して楽音発生回路1
07に送られる。この回路は、演奏情報に従って楽音信
号を生成する。なお、楽音発生回路107における楽音
発生方式としては、例えばPCM方式、変調方式、倍音
加算方式などが用いられる。
The CPU 101 executes a program stored in the ROM 102 and processes performance information by using the RAM 103 as a work memory. The performance information processed in this way, such as note-on / off, velocity, tone color setting data, etc., is transmitted via the bus 117 to the tone generation circuit 1
It is sent to 07. This circuit generates a musical tone signal according to performance information. As the tone generation method in the tone generation circuit 107, for example, a PCM method, a modulation method, an overtone addition method, or the like is used.

【0023】次に、楽音発生回路107で生成されたデ
ィジタル楽音信号(以後、単に楽音信号と呼ぶ)x(n)
は、楽音信号専用のバス118を介してDSP104に
入力される。
Next, a digital tone signal generated by the tone generating circuit 107 (hereinafter simply referred to as tone signal) x (n)
Is input to the DSP 104 via the bus 118 dedicated to the tone signal.

【0024】一方、演奏者がマイク111に向かって歌
を歌ったりしゃべったりすると、マイクアンプ112を
介して得られるアナログ音声信号がローパスフィルタ1
13を介してA/D変換器114に入力され、ディジタ
ル音声信号(以後、単に音声信号と呼ぶ)p(n) に変換
されてDSP104に入力される。なお、アナログ音声
信号はマイクロフォンからでなく、ライン入力端子LINE
IN から入力されるようにしてもよい。
On the other hand, when the performer sings or speaks into the microphone 111, the analog audio signal obtained via the microphone amplifier 112 is converted into the low-pass filter 1.
It is input to the A / D converter 114 via 13 and converted into a digital audio signal (hereinafter simply referred to as an audio signal) p (n) and input to the DSP 104. Note that the analog audio signal is not from the microphone, but the line input terminal LINE
It may be input from IN.

【0025】DSP104は、A/D変換器114から
入力される音声信号p(n) に基づいてフィルタ係数の算
出処理を行い、このフィルタ係数に基づいて決定される
特性を有するバンドパスフィルタリング処理を、楽音発
生回路107から入力される楽音信号x(n) に対して実
行する。この結果、楽音信号x(n) が音声信号p(n)に
よって変調されることになる。
The DSP 104 performs a filter coefficient calculation process based on the audio signal p (n) input from the A / D converter 114, and a band pass filtering process having a characteristic determined based on the filter coefficient. , The tone signal x (n) input from the tone generation circuit 107. As a result, the tone signal x (n) is modulated by the audio signal p (n).

【0026】DSP104での変調処理により得られた
ディジタル出力楽音信号z(n) は、専用のバス119を
介してD/A変換器108へ送られ、ここでアナログ出
力楽音信号に変換され、アンプ115を介しスピーカ1
16から放音される。
The digital output musical tone signal z (n) obtained by the modulation processing in the DSP 104 is sent to the D / A converter 108 via the dedicated bus 119, where it is converted into an analog output musical tone signal and is amplified. Speaker 1 through 115
Sound is emitted from 16.

【0027】つぎに、DSPの構成および機能について
説明する。DSPの構成 図2は、DSP104の全体構成図である。
Next, the configuration and function of the DSP will be described. Configuration of DSP FIG. 2 is an overall configuration diagram of the DSP 104.

【0028】インタフェース201は、CPU101に
接続されるバス117、楽音発生回路107に接続され
るバス118、A/D変換114に接続されるバス、お
よびD/A変換器108に接続されるバス119を収容
し、各バスとDSP内部の回路とを接続する。
The interface 201 is a bus 117 connected to the CPU 101, a bus 118 connected to the tone generation circuit 107, a bus connected to the A / D converter 114, and a bus 119 connected to the D / A converter 108. And each bus is connected to a circuit inside the DSP.

【0029】オペレーションROM202は、DSP1
04全体の動作を規定するマイクロプログラムを格納し
たROMであり、アドレスカウンタ203からの指定ア
ドレスに基づいて対応するプログラム命令が読み出され
る。図1のCPU101は、アドレスカウンタ203に
データをセットすることにより、オペレーションROM
202からどのプログラムを読み出して後述の変調処理
を実行するかを、アドレスカウンタ203に指示する。
The operation ROM 202 includes the DSP 1
04 is a ROM that stores a microprogram that defines the overall operation, and the corresponding program instruction is read based on the specified address from the address counter 203. The CPU 101 of FIG. 1 sets the data in the address counter 203, and thereby the operation ROM
The address counter 203 is instructed which program is to be read from 202 and to execute the modulation processing described later.

【0030】オペレーションROM202の出力は、デ
コーダ204にも与えられ、DSP104内の各回路に
各種の制御信号を出力し、所望の動作を行わせる。一
方、DSP104の内部バスには、図1のフィルタ係数
RAM105およびワークRAM106が接続されてい
る。
The output of the operation ROM 202 is also given to the decoder 204, and outputs various control signals to each circuit in the DSP 104 to perform a desired operation. On the other hand, the filter coefficient RAM 105 and the work RAM 106 of FIG. 1 are connected to the internal bus of the DSP 104.

【0031】そして、この内部バスを介して、楽音信号
x(n) 、音声信号p(n) などがDSP104に対して供
給され、又はワークRAM106に対して入出力され
る。レジスタ群207は、演算中のデータを一時記憶す
る複数のレジスタで構成され、乗算器205又は加減算
器206の各入出力端子に、内部バスを介して接続され
ている。そして、加減算器206からの演算結果(比較
結果等)に基づいたジャッジ処理を実現するため、フラ
グレジスタ208を介してアドレスカウンタ203へ、
ジャッジ結果を示すフラグ信号が送出される。
Then, the tone signal x (n), the voice signal p (n), etc. are supplied to the DSP 104 or input / output to / from the work RAM 106 via this internal bus. The register group 207 is composed of a plurality of registers for temporarily storing data being calculated, and is connected to each input / output terminal of the multiplier 205 or the adder / subtractor 206 via an internal bus. Then, in order to realize the judgment processing based on the calculation result (comparison result etc.) from the adder / subtractor 206, the address counter 203 is transferred to the address counter 203 via the flag register 208.
A flag signal indicating the judgment result is transmitted.

【0032】このフラグレジスタ208の出力に応じて
アドレスカウンタ203のアドレスが変更され、そのア
ドレスに応じてオペレーションROM202からプログ
ラム命令が読み出される。このようにして、ジャッジ処
理が実現される。動作原理 次に、DSP104の機能として実現される第1の実施
例の動作原理について説明する。
The address of the address counter 203 is changed according to the output of the flag register 208, and the program instruction is read from the operation ROM 202 according to the address. In this way, the judgment processing is realized. Operating Principle Next, the operating principle of the first embodiment implemented as the function of the DSP 104 will be described.

【0033】図3は、第1の実施例におけるDSP10
4の機能ブロック図である。第1の実施例では、まず、
線形予測法によるスペクトル算出部301が、所定時間
間隔(10〜30msec間隔)で、音声信号p(n) に
対して、線形予測法と呼ばれる方法に基づく音声分析を
実行することにより、音声信号p(n) のスペクトルを算
出する。
FIG. 3 shows the DSP 10 in the first embodiment.
It is a functional block diagram of FIG. In the first embodiment, first,
The spectrum calculation unit 301 based on the linear prediction method executes a speech analysis based on a method called a linear prediction method on the speech signal p (n) at a predetermined time interval (10 to 30 msec interval), so that the speech signal p Calculate the spectrum of (n).

【0034】線形予測分析法は、音声波形の標本値間に
高い相関があることを利用して、現在の音声信号p(n)
を、過去のp個(10個程度)の標本の線形結合である
予測値と現在の誤差信号の和として表そうとするもので
あり、次式で表現される。
The linear predictive analysis method utilizes the fact that there is a high correlation between the sample values of the speech waveform, and the present speech signal p (n)
Is expressed as the sum of the predicted value, which is a linear combination of the past p (about 10) samples, and the current error signal, and is expressed by the following equation.

【0035】[0035]

【数1】 [Equation 1]

【0036】数1式において、a(i) は線形予測係数
(LPC係数)、e(n) は予測誤差信号と呼ばれ、この
予測誤差信号e(n) の一定区間の平均2乗誤差を最小に
するという条件で線形予測係数を求めることを線形予測
分析( Linear Prediction Coding:LPC)という。
In the equation (1), a (i) is called a linear prediction coefficient (LPC coefficient) and e (n) is called a prediction error signal. The mean square error of this prediction error signal e (n) in a certain section is Obtaining a linear prediction coefficient under the condition of minimizing it is called Linear Prediction Coding (LPC).

【0037】次に、線形予測分析の周波数域での意味に
ついて考えてみる。まず、予測誤差信号e(n) は、音声
信号の大部分を占める有声音区間では利得Gのインパル
ス列G・u(n) であると仮定できる。この仮定によれ
ば、数1式は次式で示される。
Next, let us consider the meaning of the linear prediction analysis in the frequency range. First, it can be assumed that the prediction error signal e (n) is an impulse train G · u (n) with a gain G in the voiced sound section that occupies most of the speech signal. According to this assumption, Equation 1 is expressed by the following equation.

【0038】[0038]

【数2】 [Equation 2]

【0039】そして、この数2式の両辺のz変換をとる
と、次式が得られる。
Then, if the z-transformation of both sides of the equation 2 is taken, the following equation is obtained.

【0040】[0040]

【数3】 [Equation 3]

【0041】従って、次式が得られる。Therefore, the following equation is obtained.

【0042】[0042]

【数4】 [Equation 4]

【0043】[0043]

【数5】 [Equation 5]

【0044】[0044]

【数6】 [Equation 6]

【0045】[0045]

【数7】 [Equation 7]

【0046】これらの4つの数式より、インパルスu
(n) を伝達関数S(z) に入力した後の出力がp(n) であ
り、更に、伝達関数S(z) が、線形予測係数a(i) で決
定されるP次方程式A(z) =0の根として与えられるp
個の極による全極モデルとなることを表している。即
ち、音声信号に対して線形予測分析を行うことは、音声
信号を全極モデルで近似することと等価である。
From these four equations, the impulse u
The output after inputting (n) into the transfer function S (z) is p (n), and the transfer function S (z) is a P-order equation A (A) determined by the linear prediction coefficient a (i). z) p given as the root of = 0
It shows that it becomes an all-pole model with individual poles. That is, performing the linear predictive analysis on the speech signal is equivalent to approximating the speech signal with the all-pole model.

【0047】音声信号が全極モデルによって近似される
場合、その極は音声スペクトルのホルマントに対応す
る。そして、線形予測係数a(i) に基づいて決定される
全極モデルに基づく任意の周波数fにおける振幅スペク
トル|S(z) |は、数6式においてz変換を複素周波数
に変換することにより得られる次の数8式を、数7式と
共に、数5式から変形される以下の数9式に代入するこ
とで、計算できる。
If the speech signal is approximated by an all-pole model, that pole corresponds to the formant of the speech spectrum. Then, the amplitude spectrum | S (z) | at an arbitrary frequency f based on the all-pole model determined based on the linear prediction coefficient a (i) is obtained by converting the z transform into a complex frequency in the formula (6). The following equation 8 can be calculated by substituting the following equation 8 with the equation 7 into the following equation 9 modified from the equation 5.

【0048】[0048]

【数8】 [Equation 8]

【0049】[0049]

【数9】 [Equation 9]

【0050】ここで、jは複素数単位、πは円周率、f
max はナイキスト周波数である。このようにして計算さ
れる振幅スペクトル|S(z) |では、音声信号p(n) の
有声音源のピッチに帰因する調波構造の影響が除去さ
れ、声道スペクトルのホルマントによるピークが正確に
近似されている。
Here, j is a complex number unit, π is a circular constant, and f
max is the Nyquist frequency. In the amplitude spectrum | S (z) | calculated in this way, the influence of the harmonic structure attributed to the pitch of the voiced sound source of the voice signal p (n) is removed, and the peak due to the formant of the vocal tract spectrum is accurate. Is approximated by.

【0051】以上のようにして算出される音声信号p
(n) の振幅スペクトル|S(z) |の例を、図4に示す。
この図から、線形予測係数a(i) の次数Pが10〜20
程度である場合に、音声信号p(n) の特徴であるホルマ
ントによるピーク(図中では、矢印で示されている)が
正確に表現されていることがわかる。
The audio signal p calculated as described above
An example of the amplitude spectrum | S (z) | of (n) is shown in FIG.
From this figure, the order P of the linear prediction coefficient a (i) is 10 to 20.
It can be seen that the peak due to the formant (indicated by an arrow in the figure), which is a characteristic of the audio signal p (n), is accurately represented in the case of the degree.

【0052】そこで、第1の実施例では、図3のフィル
タ係数算出部302が、線形予測法によるスペクトル算
出部301で前述した所定時間間隔毎に算出される音声
信号p(n) の振幅スペクトル|S(z) |から、やはり所
定時間間隔毎に図4の矢印などとして示されるJ組のピ
ークの周波数Fj とゲイン(振幅値)Gj (1≦j≦
J)を抽出し、上記所定時間間隔毎にそれぞれ図5に示
される特性を有する#1〜#JのJ組のバンドパスフィルタ
(BPF)のためのフィルタ係数を算出する。
Therefore, in the first embodiment, the filter coefficient calculation unit 302 of FIG. 3 uses the linear prediction method to calculate the amplitude spectrum of the audio signal p (n) at each predetermined time interval calculated by the spectrum calculation unit 301. From | S (z) |, the frequency Fj and the gain (amplitude value) Gj (1 ≦ j ≦) of J sets of peaks, which are also shown as arrows in FIG.
J) are extracted, and the filter coefficients for the J sets of band-pass filters (BPF) # 1 to #J each having the characteristics shown in FIG. 5 are calculated at the above-mentioned predetermined time intervals.

【0053】このようにして、算出された#1〜#JのJ組
のバンドパスフィルタのためのフィルタ係数は、フィル
タ係数記憶部303に保持される。そして、このフィル
タ係数記憶部303に保持されたフィルタ係数を用い
て、それぞれ図5に示される特性を有する#1〜#JのJ個
のバンドパスフィルタ(BPF)304が構成され、こ
れらのフィルタに楽音信号x(n) が入力される。
The thus calculated filter coefficients for the J sets of bandpass filters of # 1 to #J are held in the filter coefficient storage unit 303. Then, using the filter coefficients held in the filter coefficient storage unit 303, J band-pass filters (BPF) 304 of # 1 to #J each having the characteristics shown in FIG. 5 are configured. The musical tone signal x (n) is input to.

【0054】最後に、J個のバンドパスフィルタ304
の出力Yj(n)(1≦j≦J)が累算部305で累算さ
れ、その累算出力がディジタル出力楽音信号z(n) とし
て出力される。
Finally, J band pass filters 304
Output Yj (n) (1.ltoreq.j.ltoreq.J) is accumulated in the accumulator 305, and the accumulated calculation force is output as a digital output musical tone signal z (n).

【0055】以上の処理により、楽音信号x(n) は、時
々刻々と変化する音声信号p(n) のホルマントに対応す
る周波数帯域が適格に強調されることになる。具体的動作 まず、CPU101が実行する制御動作に基づいて楽音
発生回路107が楽音信号x(n) を生成する動作につい
ては、本発明には特には関連しないためその詳細は省略
する。
With the above processing, the tone signal x (n) is properly emphasized in the frequency band corresponding to the formant of the voice signal p (n) which changes from moment to moment. Specific Operation First, the operation of the musical sound generating circuit 107 to generate the musical sound signal x (n) based on the control operation executed by the CPU 101 is not particularly related to the present invention, and therefore its details are omitted.

【0056】図6は、DSP104(図1、図2)にお
いて、オペレーションROM202に記憶されたマイク
ロプログラムに従って実行されるボコーダ処理に関する
動作フローチャートであり、スペクトル算出処理、フィ
ルタ係数算出処理、及びバンドパスフィルタリング処理
を含む。
FIG. 6 is an operation flowchart relating to the vocoder process executed by the DSP 104 (FIGS. 1 and 2) in accordance with the microprogram stored in the operation ROM 202. The spectrum calculation process, the filter coefficient calculation process, and the bandpass filtering. Including processing.

【0057】この動作フローチャートに従った処理によ
り、楽音信号x(n) および音声信号p(n) に共通なサン
プリング周期毎に、図3の線形予測法によるスペクトル
算出部301、フィルタ係数算出部302、#1〜#JのJ
個のバンドパスフィルタ(BPF)304、及び累算部
305に相当する処理が、時分割処理で実行されること
によって、サンプリング周期毎にディジタル出力楽音信
号z(n) が得られ、図1のD/A変換器108に出力さ
れる。
By the processing according to this operation flow chart, the spectrum calculation unit 301 and the filter coefficient calculation unit 302 by the linear prediction method of FIG. 3 are sampled for each sampling period common to the tone signal x (n) and the voice signal p (n). , J of # 1 to #J
By executing the processing corresponding to the band pass filter (BPF) 304 and the accumulating unit 305 by the time division processing, the digital output musical tone signal z (n) is obtained for each sampling period, and the processing shown in FIG. It is output to the D / A converter 108.

【0058】まず、ステップS601で、図1のフィル
タ係数RAM105、ワークRAM106、及び図2の
DSP104内のレジスタ群207などの内容がイニシ
ャライズされる。
First, in step S601, the contents of the filter coefficient RAM 105, the work RAM 106 of FIG. 1 and the register group 207 in the DSP 104 of FIG. 2 are initialized.

【0059】次に、ステップS602で、図1のA/D
変換器114においてサンプリング周波数fs に対応す
る周期毎に実行されるA/D変換が完了したか否かが監
視される。
Next, in step S602, the A / D of FIG.
In the converter 114, it is monitored whether the A / D conversion executed in each cycle corresponding to the sampling frequency fs is completed.

【0060】A/D変換が完了しステップS602の判
定がYESとなると、ステップS603で、A/D変換
された音声信号p(n) がインタフェース201(図2)
から取り込まれて、ワークRAM106内の変数p(n)
へ順次格納される。これと共に、楽音発生回路107
(図1)から入力される楽音信号x(n) もインタフェー
ス201から取り込まれて、ワークRAM106内の変
数x(n) に順次格納される。なお、ワークRAM106
内の後述する3つの変数x(n) 、x(n−1)、及びx(n−
2)のそれぞれには、現在のサンプルと過去2サンプルの
連続する楽音信号が記憶されるものとする。
When the A / D conversion is completed and the determination in step S602 is YES, in step S603, the A / D converted audio signal p (n) is transferred to the interface 201 (FIG. 2).
Variable p (n) in the work RAM 106
Are sequentially stored in. Along with this, the tone generation circuit 107
The tone signal x (n) input from (FIG. 1) is also fetched from the interface 201 and sequentially stored in the variable x (n) in the work RAM 106. The work RAM 106
In the three variables x (n), x (n−1), and x (n−)
In each of 2), continuous tone signals of the present sample and the past two samples are stored.

【0061】次に、ステップS604で、スペクトル算
出処理が実行される。この処理の詳細な動作フローチャ
ートを図7に示す。この処理によって、前述した図3の
線形予測法によるスペクトル算出部301の機能が実現
される。
Next, in step S604, a spectrum calculation process is executed. A detailed operation flowchart of this processing is shown in FIG. By this processing, the function of the spectrum calculation unit 301 according to the linear prediction method of FIG. 3 described above is realized.

【0062】なお、このスペクトル算出処理は、図6の
動作フローチャート上では、音声信号p(n) のサンプル
が入力される毎に実行されるように示されているが、実
際には、特には図示しない時間制御処理に基づき、所定
時間(10〜30msec)に1回の割合で実行され
る。
Note that this spectrum calculation processing is shown to be executed each time a sample of the audio signal p (n) is input in the operation flowchart of FIG. 6, but in practice, in particular, Based on a time control process (not shown), it is executed once every predetermined time (10 to 30 msec).

【0063】図7のステップS701〜S703の処理
は、第1の実施例の動作原理において説明した線形予測
係数a(i) を算出するための処理である。そのために、
第1の実施例の動作原理の説明で前述したように、ま
ず、所定時間間隔(10〜30msec間隔)毎に、音
声信号p(n) の自己相関関数r(i)を計算する必要があ
る。
The processing of steps S701 to S703 in FIG. 7 is processing for calculating the linear prediction coefficient a (i) described in the operating principle of the first embodiment. for that reason,
As described above in the explanation of the operating principle of the first embodiment, first, it is necessary to calculate the autocorrelation function r (i) of the audio signal p (n) at every predetermined time interval (10 to 30 msec interval). .

【0064】そこで、ステップS701で、例えばワー
クRAM106に保持されている過去に入力された所定
時間長(10〜30msec)のNサンプル分の音声信
号p(n) が切り出され、それに対してハミングウインド
ウなどのウインドウ関数が乗算される。これは、始めと
終りの切出し部分の振幅が徐々に0に近づくように音声
信号p(n) の振幅を変更することにより、それらの部分
の信号成分がスペクトル分析に与える悪影響を除去する
ための処理である。
Therefore, in step S701, the audio signal p (n) for N samples of a predetermined time length (10 to 30 msec) input in the past, which is held in the work RAM 106, is cut out, and the Hamming window is applied thereto. Is multiplied by the window function. This is to change the amplitude of the audio signal p (n) so that the amplitudes of the cut-out parts at the beginning and the end gradually approach 0, thereby eliminating the adverse effects of the signal components of those parts on the spectrum analysis. Processing.

【0065】なお、サンプル数Nは、サンプリング周波
数fs と上記所定時間長に依存して定まるが、一般的に
N=256〜1024サンプル程度である。次に、ステ
ップS702で、ウインドウ関数が乗算されたNサンプ
ル分の音声信号p(n) に対し、次式で定義される自己相
関関数r(i) (0≦i≦P、Pは線形予測係数の次数)
が計算される。
The number of samples N is determined depending on the sampling frequency fs and the predetermined time length, but is generally about N = 256 to 1024 samples. Next, in step S702, an autocorrelation function r (i) (0 ≦ i ≦ P, P is a linear prediction is defined by the following equation for the N samples of the audio signal p (n) multiplied by the window function. Coefficient order)
Is calculated.

【0066】[0066]

【数10】 [Equation 10]

【0067】続いて、ステップS703で、上述の自己
相関関数r(i) を用いて、次式で示される正規方程式と
呼ばれるP元連立1次方程式を解くことによって、線形
予測係数a(i) (1≦i≦P)が算出される。
Then, in step S703, a linear prediction coefficient a (i) is obtained by solving a P-element simultaneous linear equation called a normal equation shown by the following equation using the above-mentioned autocorrelation function r (i). (1 ≦ i ≦ P) is calculated.

【0068】[0068]

【数11】 [Equation 11]

【0069】この正規方程式は、ガウス・ザイデル法な
どの一般的な連立方程式の数値計算法によって解くこと
ができるほか、Levinsonのアルゴリズムと呼ばれる方法
によっても解くことができる。これらの方法は周知の方
法であるため、その詳細な説明については省略する。な
お、線形予測係数を求めるアルゴリズムの一例は、文献
「<<電子科学シリーズ>>86 コンピュータ音声処
理」(安居院 猛・中嶋正之 著)(産報出版)の68
頁〜70頁などに開示されている。
This normal equation can be solved by a general numerical calculation method of simultaneous equations such as the Gauss-Seidel method and also by a method called Levinson's algorithm. Since these methods are known methods, detailed description thereof will be omitted. An example of an algorithm for obtaining a linear prediction coefficient is 68 in the document "<< Electronic Science Series >> 86 Computer Speech Processing" (Take Yasuiin / Masayuki Nakajima) (Industry Press).
Pp. 70-70 and the like.

【0070】次に、ステップS704とS705によっ
て、線形予測係数a(i) を使って、前述した数5式、数
7式、及び数8式に基づいて、振幅スペクトル|S(z)
|が計算される。
Next, in steps S704 and S705, the amplitude spectrum | S (z) is calculated using the linear prediction coefficient a (i) based on the equations (5), (7) and (8) described above.
| Is calculated.

【0071】まず、振幅スペクトル特性|S(z) |にお
いて、計算すべき周波数fの変化幅Δfを次式で定義す
る。
First, in the amplitude spectrum characteristic | S (z) |, the change width Δf of the frequency f to be calculated is defined by the following equation.

【0072】[0072]

【数12】 [Equation 12]

【0073】ここで、数8式におけるナイキスト周波数
fmax とサンプリング周波数fs は、次式で示される関
係を有する。
Here, the Nyquist frequency fmax and the sampling frequency fs in the equation (8) have the relationship shown by the following equation.

【0074】[0074]

【数13】 [Equation 13]

【0075】この数13式と数12式より、次式が成立
する。
From the equations (13) and (12), the following equation is established.

【0076】[0076]

【数14】 [Equation 14]

【0077】従って、任意の周波数fは、次式で表され
る。
Therefore, the arbitrary frequency f is expressed by the following equation.

【0078】[0078]

【数15】 [Equation 15]

【0079】数13式及び数14式より、前述した数8
式は、次式で表される。
From the equations 13 and 14, the above equation 8 is obtained.
The formula is represented by the following formula.

【0080】[0080]

【数16】 [Equation 16]

【0081】即ち、振幅スペクトル|S(z) |は、線形
予測係数a(i) を使って、前述した数7式、数9式、及
び上述した数16式に基づいて計算することができる。
ここで、各周波数m・Δf(0≦m≦N/2)における
数16式の値は、次式で表すことができる。
That is, the amplitude spectrum | S (z) | can be calculated by using the linear prediction coefficient a (i) based on the above-described equations (7), (9) and (16). .
Here, the value of Expression 16 at each frequency m · Δf (0 ≦ m ≦ N / 2) can be expressed by the following expression.

【0082】[0082]

【数17】 [Equation 17]

【0083】これらの値は、線形予測係数a(i) (1≦
i≦P)と値0とからなる次の数18式で示される実数
部データre(m) 、及び全ての値が0の虚数部データi
m(m)(1≦m≦N)に対して、高速フーリエ変換(F
FT)を演算し、その結果得られる前半部の実数部出力
データRE(m) と虚数部出力データIM(m) (1≦m≦
N/2)に対して、以下の数19式を演算することによ
り、計算することができる。なお、FFT演算は、周知
の演算技術であるためその詳細については省略する。
These values are the linear prediction coefficients a (i) (1 ≦
i ≦ P) and the value 0, the real part data re (m) represented by the following formula 18 and the imaginary part data i in which all values are 0
For m (m) (1 ≦ m ≦ N), the fast Fourier transform (F
FT) and the resulting real part output data RE (m) and imaginary part output data IM (m) (1 ≦ m ≦
N / 2) can be calculated by calculating the following equation (19). Since the FFT operation is a well-known operation technique, its details are omitted.

【0084】[0084]

【数18】 [Equation 18]

【0085】[0085]

【数19】 [Formula 19]

【0086】この結果、直流分からナイキスト周波数f
max までの変化幅Δf毎のN/2サンプルからなる振幅
スペクトルの値|S(z) |=S(m) (1≦m≦N/2)
は、前述の数7式、数9式、及び上述の数19式に基づ
いて計算することができる。
As a result, from the DC component to the Nyquist frequency f
Amplitude spectrum value consisting of N / 2 samples for each change width Δf up to max | S (z) | = S (m) (1 ≦ m ≦ N / 2)
Can be calculated based on the equations (7) and (9) and the equation (19).

【0087】上述した計算処理を図7の実際の処理と対
応付けると、次のようになる。まず、ステップS703
で計算された線形予測係数a(i) (1≦i≦P)と値0
とからなる次の数18式で示される実数部データre
(m) 、及び全ての値が0の虚数部データim(m) (1≦
m≦N)に対して、ステップS704で高速フーリエ変
換(FFT)の演算が実行される。
When the above-mentioned calculation processing is associated with the actual processing of FIG. 7, it becomes as follows. First, step S703
Linear prediction coefficient a (i) (1 ≦ i ≦ P) calculated by
Real part data re expressed by the following equation 18 consisting of
(m), and imaginary part data im (m) (1 ≦
For m ≦ N), a fast Fourier transform (FFT) operation is performed in step S704.

【0088】次に、ステップ705で、ステップS70
4において計算された実数部出力データRE(m) と虚数
部出力データIM(m) (1≦m≦N/2)に対して数1
9式が計算される。また、ステップS702で計算され
た自己相関関数r(i) (0≦i≦P)及びステップS7
03で計算された線形予測係数a(i) (1≦i≦P)と
に基づいて数7式の利得Gが計算される。そして、数1
9式と数7式の計算結果を使って、前述した数9式に基
づき、直流分からナイキスト周波数fmax までの変化幅
Δf毎のN/2サンプルからなる振幅スペクトル値|S
(z) |=S(m)(1≦m≦N/2)が計算される。
Next, in Step 705, Step S70
1 for the real part output data RE (m) and the imaginary part output data IM (m) (1 ≦ m ≦ N / 2) calculated in FIG.
Equation 9 is calculated. Further, the autocorrelation function r (i) (0 ≦ i ≦ P) calculated in step S702 and step S7
The gain G of Expression 7 is calculated based on the linear prediction coefficient a (i) (1 ≦ i ≦ P) calculated in 03. And the number 1
Using the calculation results of Equation 9 and Equation 7, the amplitude spectrum value S consisting of N / 2 samples for each change width Δf from the DC component to the Nyquist frequency fmax based on Equation 9 described above | S
(z) | = S (m) (1 ≦ m ≦ N / 2) is calculated.

【0089】以上のスペクトル算出処理の結果得られた
振幅スペクトル値S(m) (1≦m≦N/2)は、ワーク
RAM106に保持される。続いて、図6のステップS
605で、フィルタ係数算出処理が実行される。
The amplitude spectrum value S (m) (1 ≦ m ≦ N / 2) obtained as a result of the above spectrum calculation processing is held in the work RAM 106. Then, step S of FIG.
At 605, a filter coefficient calculation process is executed.

【0090】この処理の詳細な動作フローチャートを図
8に示す。この処理によって、前述した図3のフィルタ
係数算出部302の機能が実現される。なお、このフィ
ルタ係数算出処理は、図6の動作フローチャート上で
は、音声信号p(n) のサンプルが入力される毎に実行さ
れるように示されているが、実際は、スペクトル算出処
理に同期して、所定時間(10〜30msec)に1回
の割合で実行される。
A detailed operation flowchart of this processing is shown in FIG. By this processing, the function of the filter coefficient calculation unit 302 of FIG. 3 described above is realized. Note that this filter coefficient calculation processing is shown to be executed each time a sample of the audio signal p (n) is input in the operation flowchart of FIG. 6, but in reality it is synchronized with the spectrum calculation processing. Then, it is executed once every predetermined time (10 to 30 msec).

【0091】この処理では、DSP104内のレジスタ
群207(図2)内のレジスタmの値が、ステップS8
02で2に初期設定された後、ステップS810で+1
ずつインクリメントされながら、ステップS811でN
/2を越えたと判定されるまで、ステップS803のピ
ーク検索処理が実行される。
In this process, the value of the register m in the register group 207 (FIG. 2) in the DSP 104 is changed to the value in step S8.
After being initialized to 2 in 02, +1 in step S810
Incremented by N, step S811 returns N
The peak search process of step S803 is executed until it is determined that the value exceeds / 2.

【0092】即ち、ステップS803では、レジスタm
の値に対応する離散周波数位置mの振幅スペクトル値S
(m) が、その前後の離散周波数位置m−1及びm+1の
各振幅スペクトル値S(m-1) 及びS(m+1) より大きいか
否かが判定されることによって、図4の矢印などとして
示されるピーク周波数位置が検索される。そして、ステ
ップS803の判定がYESとなることによりピーク周
波数位置mが抽出されると、以下のステップS804〜
S809の処理が実行されることにより、j番目のピー
クに対応するバンドパスフィルタリング処理のためのフ
ィルタ係数が算出される。なお、番号jに対応するレジ
スタ群207(図2)内のレジスタjの値は、ステップ
S801で1に設定された後、ステップS804〜S8
09の処理が実行される毎に、ステップS809で+1
される。
That is, in step S803, the register m
Amplitude spectrum value S at discrete frequency position m corresponding to the value of
It is determined whether or not (m) is larger than the amplitude spectrum values S (m-1) and S (m + 1) of discrete frequency positions m-1 and m + 1 before and after that, respectively. The peak frequency position indicated as, etc. is searched. When the peak frequency position m is extracted because the determination in step S803 is YES, the following steps S804-
By executing the process of S809, the filter coefficient for the bandpass filtering process corresponding to the j-th peak is calculated. The value of the register j in the register group 207 (FIG. 2) corresponding to the number j is set to 1 in step S801, and then the steps S804 to S8.
Every time the processing of 09 is executed, +1 in step S809.
To be done.

【0093】まず、ステップS804で、ステップS8
03の判定がYESとなったときのピーク周波数位置m
に対応する実際のピーク周波数Fj 〔Hz〕が計算され
る。今、離散周波数位置mに対応する実際の周波数f=
Fj 〔Hz〕は、前述した数12式と数15式より、次
式で求めることができる。
First, in step S804, step S8
The peak frequency position m when the judgment of 03 is YES
The actual peak frequency Fj [Hz] corresponding to is calculated. Now, the actual frequency f = corresponding to the discrete frequency position m =
Fj [Hz] can be calculated by the following equation from the equations 12 and 15 described above.

【0094】[0094]

【数20】 [Equation 20]

【0095】次に、ステップS805で、ステップS8
03の判定がYESとなったときのピーク周波数位置m
に対応する振幅スペクトル値S(m) が、ピークゲインG
j として算出される。
Next, in step S805, step S8
The peak frequency position m when the judgment of 03 is YES
The amplitude spectrum value S (m) corresponding to is the peak gain G
Calculated as j.

【0096】ステップS806〜S808では、ステッ
プS804とS805で算出されたピーク周波数Fj と
ピークゲインGj に基づいて、図9に示される周波数特
性を有し、図10に示される機能構成を有するバンドパ
スフィルタリング処理のためのフィルタ係数が算出され
る。なお、帯域幅Qは、計算の簡単のため固定値とす
る。
In steps S806 to S808, the band pass having the frequency characteristic shown in FIG. 9 and the functional configuration shown in FIG. 10 is based on the peak frequency Fj and the peak gain Gj calculated in steps S804 and S805. The filter coefficient for the filtering process is calculated. The bandwidth Q is a fixed value for easy calculation.

【0097】まず、図10において、1001、100
2のZ-1として示される部分はサンプリング・クロック
1周期分の遅延を与える遅延部を表す。1003、10
04は加算部である。また、1005〜1009はそれ
ぞれ乗算部であり、それぞれフィルタ係数A0j 、A1
j 、A2j 、B1j 、及びB2j を乗算する。
First, in FIG. 10, 1001, 100
The portion indicated by Z -1 in 2 represents a delay unit that delays one sampling clock cycle. 1003, 10
Reference numeral 04 is an adder. In addition, reference numerals 1005 to 1009 denote multiplying units, which respectively filter coefficients A0j and A1.
Multiplies j, A2j, B1j, and B2j.

【0098】そして、図10の機能構成を有するバンド
パスフィルタリング処理が、図9に示されるように、中
心周波数がピーク周波数Fj に等しく、ゲインがピーク
ゲインGj に等しく、帯域幅が固定値Qである周波数特
性を有するとした場合、フィルタ係数A0j 、A1j 、
A2j 、B1j 、及びB2j は、次の数21式と数22
式で算出される係数Kj と係数TXj を用いて、以下の
数23式〜数27式に基づいて算出される。
As shown in FIG. 9, the bandpass filtering process having the functional configuration of FIG. 10 has a center frequency equal to the peak frequency Fj, a gain equal to the peak gain Gj, and a bandwidth with a fixed value Q. If it has a certain frequency characteristic, the filter coefficients A0j, A1j,
A2j, B1j, and B2j are expressed by the following formula 21 and formula 22.
Using the coefficient Kj and the coefficient TXj calculated by the formula, the calculation is performed based on the following formulas 23 to 27.

【0099】[0099]

【数21】 [Equation 21]

【0100】[0100]

【数22】 [Equation 22]

【0101】[0101]

【数23】 [Equation 23]

【0102】[0102]

【数24】 [Equation 24]

【0103】[0103]

【数25】 [Equation 25]

【0104】[0104]

【数26】 [Equation 26]

【0105】[0105]

【数27】 [Equation 27]

【0106】そして、ステップS804とS805で算
出されたピーク周波数Fj とピークゲインGj に基づい
て、上述の数21式と数22式の計算を行うのが、ステ
ップS806とS807であり、それらの結果を用いて
数23式〜数27式に基づいてフィルタ係数A0j 、A
1j 、A2j 、B1j 、及びB2j を算出するのが、ス
テップS808である。これらの算出されたフィルタ係
数は、フィルタ係数RAM105に保持される。
Then, based on the peak frequency Fj and the peak gain Gj calculated in steps S804 and S805, it is steps S806 and S807 that calculate the above-mentioned formulas 21 and 22, and the results thereof are shown. Based on the equations (23) to (27), the filter coefficients A0j, A
In step S808, 1j, A2j, B1j, and B2j are calculated. These calculated filter coefficients are held in the filter coefficient RAM 105.

【0107】上述の処理の後、ステップS809で、ピ
ークの番号を示すレジスタjの値が+1される。そし
て、ステップS810、S811を介して、ステップS
803で、次のピーク周波数位置が検索される。
After the above processing, the value of the register j indicating the peak number is incremented by 1 in step S809. Then, through steps S810 and S811, step S
At 803, the next peak frequency position is retrieved.

【0108】以上の処理の繰返しの結果、ステップS8
11で、レジスタmの値がN/2を越えたと判定され、
その判定がYESとなると、ステップS812で、総ピ
ーク数Jが、(現在のレジスタjの値−1)として算出
され、その結果がレジスタ群207(図2)内のレジス
タJに格納される。そして、図8の動作フローチャート
で示される図6のステップS605のフィルタ係数算出
処理を終了する。
As a result of repeating the above processing, step S8.
In 11, it is determined that the value of the register m exceeds N / 2,
When the determination is YES, the total peak number J is calculated as (current value of register j-1) in step S812, and the result is stored in the register J in the register group 207 (FIG. 2). Then, the filter coefficient calculation process of step S605 of FIG. 6 shown in the operation flowchart of FIG. 8 ends.

【0109】図6のステップS606〜S611では、
所定時間(10〜30msec)に1回の割合で算出さ
れフィルタ係数RAM105に保持されている上述のJ
組のフィルタ係数を用いて、楽音信号の各サンプルx
(n) に対し、図5に示される特性を有する#1〜#JのJ回
のバンドパスフィルタリング処理が順次実行される。
In steps S606 to S611 of FIG.
The above-mentioned J stored in the filter coefficient RAM 105 is calculated once every predetermined time (10 to 30 msec).
Each sample x of the tone signal using a set of filter coefficients
For (n), J times of band-pass filtering processes # 1 to #J having the characteristics shown in FIG. 5 are sequentially executed.

【0110】今、図10の機能構成を有するバンドパス
フィルタリング処理は、
Now, the bandpass filtering process having the functional configuration of FIG.

【0111】[0111]

【数28】 [Equation 28]

【0112】なる離散演算処理により実現することがで
きる。そこで、図6で、バンドパスフィルタリング処理
の番号jを指示するレジスタjの値が、ステップS60
6で1に初期設定された後、ステップS610で+1ず
つインクリメントされながら、ステップS609でレジ
スタJにより示される総数Jを越えたと判定されるま
で、ステップS607で、フィルタ係数RAM105に
保持されているj組目のフィルタ係数A0j 、A1j 、
A2j 、B1j 、及びB2j を用いて、前述した数28
式で示されるバンドパスフィルタリング処理が実行され
る。
It can be realized by the discrete calculation processing. Therefore, in FIG. 6, the value of the register j indicating the number j of the bandpass filtering process is the value in step S60.
After being initialized to 1 in 6 in step S610, j is held in the filter coefficient RAM 105 in step S607 until it is determined in step S609 that the total number J indicated by the register J is exceeded while incrementing by 1 in step S610. Filter coefficients A0j, A1j,
Using A2j, B1j, and B2j, the above equation 28
The bandpass filtering process represented by the formula is executed.

【0113】そして、ステップS608で、上述のj番
目のバンドパスフィルタリング処理の出力Yj(n)が、ワ
ークRAM106に保持されているディジタル出力楽音
信号z(n) に累算される。
Then, in step S608, the output Yj (n) of the j-th bandpass filtering process is accumulated in the digital output musical tone signal z (n) held in the work RAM 106.

【0114】以上の処理の結果、ステップS609の判
定がYESとなると、ステップS611で、J回のバン
ドパスフィルタリング処理の出力Yj(n)(1≦j≦J)
を累算して得られたディジタル出力楽音信号z(n) が、
サンプリングクロックに同期したタイミングで、ワーク
RAM106からインタフェース201(図2)、及び
バス119(図1)を介してD/A変換器108(図
1)に出力される。
As a result of the above processing, if the determination in step S609 is YES, the output Yj (n) (1.ltoreq.j.ltoreq.J) of J times of band pass filtering processing is performed in step S611.
The digital output musical tone signal z (n) obtained by accumulating
It is output from the work RAM 106 to the D / A converter 108 (FIG. 1) via the interface 201 (FIG. 2) and the bus 119 (FIG. 1) at a timing synchronized with the sampling clock.

【0115】その後は、再びステップS602の処理に
戻り、次の音声信号p(n) 及び楽音信号x(n) のサンプ
ルのための上述した一連の処理が繰り返される。以上説
明したようにして、楽音信号x(n) は、時々刻々と変化
する音声信号p(n) のホルマントに対応する周波数帯域
が適格に強調されることになる。 <第2の実施例>次に、本発明の第2の実施例につき説
明する。構成 第2の実施例の構成は、第1の実施例における図1及び
図2の構成と全く同様である。動作原理 上述した第1の実施例では、前述したように、線形予測
係数a(i) に基づいて算出される振幅スペクトルが音声
信号の特徴であるホルマントによるピークを正確に近似
できる(図4)ことを利用し、その振幅スペクトルから
複数個のピークの周波数とゲインが抽出され、図5に示
されるような特性を有する複数組のフィルタ係数が算出
され、それらのフィルタ係数を用いた複数組のバンドパ
スフィルタリング処理が実行された。
After that, the process returns to step S602 again, and the above-described series of processes for sampling the next voice signal p (n) and tone signal x (n) is repeated. As described above, in the tone signal x (n), the frequency band corresponding to the formant of the voice signal p (n), which changes moment by moment, is properly emphasized. <Second Embodiment> Next, a second embodiment of the present invention will be described. Configuration The configuration of the second embodiment is exactly the same as the configuration of FIGS. 1 and 2 in the first embodiment. Operating Principle In the above-described first embodiment, as described above, the amplitude spectrum calculated based on the linear prediction coefficient a (i) can accurately approximate the peak due to the formant, which is a feature of the voice signal (FIG. 4). Utilizing this, the frequencies and gains of a plurality of peaks are extracted from the amplitude spectrum, a plurality of sets of filter coefficients having characteristics as shown in FIG. 5 are calculated, and a plurality of sets of filter coefficients using those filter coefficients are calculated. Bandpass filtering processing has been executed.

【0116】これに対し、以下に説明する第2の実施例
では、図11のDSP104の機能ブロック図として示
されるように、まず、フーリエ変換によるスペクトル算
出部1101が、所定時間(10〜30msec)分の
音声信号p(n) に対して、FFT法などによるフーリエ
変換を実行することにより、音声信号p(n) の有声音源
のピッチに帰因する調波構造を含む振幅スペクトルを算
出する。そして、フーリエ変換によるスペクトル算出部
1101は、振幅スペクトルを平滑化することによって
調波構造の影響を除去する。このようにして算出される
振幅スペクトルは、例えば図12に示されるように、音
声信号p(n) の特徴であるホルマントによるピークをほ
ぼ表現することができる。
On the other hand, in the second embodiment described below, as shown in the functional block diagram of the DSP 104 of FIG. 11, first, the spectrum calculation unit 1101 by Fourier transform is operated for a predetermined time (10 to 30 msec). By performing Fourier transform by the FFT method or the like on the minute voice signal p (n), an amplitude spectrum including a harmonic structure attributable to the pitch of the voiced sound source of the voice signal p (n) is calculated. Then, the Fourier transform spectrum calculation unit 1101 removes the influence of the harmonic structure by smoothing the amplitude spectrum. The amplitude spectrum thus calculated can almost express the peak due to the formant, which is a feature of the audio signal p (n), as shown in FIG.

【0117】その後のフィルタ係数の算出及びそれを使
用したバンドパスフィルタの構成については、第1の実
施例の場合と全く同様である。以上の処理により、第1
の実施例の場合より少ない演算量で、フィルタ係数を算
出できる。具体的動作 上述の動作原理に基づく第2の実施例の具体的動作につ
き以下に説明する。
The subsequent calculation of the filter coefficient and the construction of the bandpass filter using the same are the same as in the case of the first embodiment. By the above processing, the first
The filter coefficient can be calculated with a smaller amount of calculation than in the case of the embodiment. Specific operation A specific operation of the second embodiment based on the above-described operation principle will be described below.

【0118】まず、DSP104で実行されるボコーダ
処理の全体的な機能は、第1の実施例において図6の動
作フローチャートで示したものと同様である。図6にお
いて、第2の実施例が第1の実施例と異なるのは、ステ
ップS604のスペクトル算出処理のみである。
First, the overall function of the vocoder processing executed by the DSP 104 is the same as that shown in the operation flowchart of FIG. 6 in the first embodiment. In FIG. 6, the second embodiment differs from the first embodiment only in the spectrum calculation processing in step S604.

【0119】この処理の詳細な動作フローチャートを図
13に示す。この処理によって、前述した図11のフー
リエ変換によるスペクトル算出部1101の機能が実現
される。
A detailed operation flowchart of this processing is shown in FIG. By this processing, the function of the spectrum calculation unit 1101 by the Fourier transform of FIG. 11 described above is realized.

【0120】なお、このスペクトル算出処理は、図6の
動作フローチャート上では、音声信号p(n) のサンプル
が入力される毎に実行されるように示されているが、実
際には、特には図示しない時間制御処理に基づき、所定
時間(10〜30msec)に1回の割合で実行され
る。
Note that this spectrum calculation processing is shown to be executed each time a sample of the audio signal p (n) is input in the operation flowchart of FIG. 6, but in practice, in particular, Based on a time control process (not shown), it is executed once every predetermined time (10 to 30 msec).

【0121】まず、ステップS1301では、前述した
第1の実施例における図7のステップS701の場合と
同様の目的で、例えばワークRAM106に保持されて
いる過去に入力された所定時間長(10〜30mse
c)のNサンプル分の音声信号p(n) が切り出され、そ
れに対してハミングウインドウなどのウインドウ関数が
乗算される。
First, in step S1301, for the same purpose as in step S701 of FIG. 7 in the above-described first embodiment, for example, a predetermined time length (10 to 30 mse) input in the past which is held in the work RAM 106.
The audio signal p (n) for N samples in c) is cut out and multiplied by a window function such as a Hamming window.

【0122】次に、ステップS1302で、ウインドウ
関数が乗算されたNサンプル分の音声信号p(n) が設定
される実数部データre(m) と、全ての値が0である虚
数部データim(m) (1≦m≦N)に対し、高速フーリ
エ変換(FFT)が演算される。
Next, in step S1302, the real part data re (m) in which the audio signal p (n) for N samples multiplied by the window function is set, and the imaginary part data im in which all values are 0. A fast Fourier transform (FFT) is calculated for (m) (1 ≦ m ≦ N).

【0123】続いて、ステップS1303で、ステップ
S1302のFFT演算により得られる前半部の実数部
出力データRE(m) と虚数部出力データIM(m) (1≦
m≦N/2)に対して、以下の数29式が演算されるこ
とにより、直流分からナイキスト周波数fmax までの変
化幅Δf毎のN/2サンプルからなる振幅スペクトル値
S(m) ′(1≦m≦N/2)が算出される。
Subsequently, in step S1303, the real part output data RE (m) and the imaginary part output data IM (m) of the first half obtained by the FFT operation of step S1302 (1≤
For m ≦ N / 2), the following formula 29 is calculated to calculate the amplitude spectrum value S (m) ′ (1) consisting of N / 2 samples for each change width Δf from the DC component to the Nyquist frequency fmax. ≦ m ≦ N / 2) is calculated.

【0124】[0124]

【数29】 [Equation 29]

【0125】そして、ステップS1304で、上述の振
幅スペクトル値S(m) ′(1≦m≦N/2)に対して、
平滑化の処理が実行される。この平滑化の処理は、例え
ば数10サンプル程度の周波数方向の移動平均を演算す
る処理である。この結果、有声音のピッチによる調波構
造の影響が低減された振幅スペクトル値S(m) (1≦m
≦N/2)が算出される。
Then, in step S1304, with respect to the amplitude spectrum value S (m) '(1≤m≤N / 2),
The smoothing process is executed. This smoothing process is, for example, a process of calculating a moving average in the frequency direction of about several tens of samples. As a result, the amplitude spectrum value S (m) (1 ≦ m where the influence of the harmonic structure due to the pitch of voiced sound is reduced
≦ N / 2) is calculated.

【0126】以上説明した処理として図6のステップS
604のスペクトル算出処理が次っくされる。それ以
降、図6のステップS605のフィルタ係数算出処理で
は、上述の振幅スペクトル値S(m) (1≦m≦N/2)
に対して、第1の実施例において説明した図8と同様の
処理が実行され、この結果、所定時間(10〜30ms
ec)に1回の割合で、フィルタ係数RAM105にJ
組のフィルタ係数が得られる。
As the processing described above, step S in FIG.
The spectrum calculation processing of 604 is subsequently performed. After that, in the filter coefficient calculation process of step S605 of FIG. 6, the above-described amplitude spectrum value S (m) (1 ≦ m ≦ N / 2)
On the other hand, the same processing as that of FIG. 8 described in the first embodiment is executed, and as a result, a predetermined time (10 to 30 ms) is reached.
ec) once in the filter coefficient RAM 105.
A set of filter coefficients is obtained.

【0127】そして、第1の実施例の場合と同様にし
て、図6のステップS606〜S611で、フィルタ係
数RAM105に得られる上述したJ組のフィルタ係数
を用いて、楽音信号の各サンプルx(n) に対し、図5に
示される特性を有する#1〜#JのJ回のバンドパスフィル
タリング処理が順次実行される。 <他の実施例>上述した第1又は第2の実施例では、音
声信号p(n) の振幅スペクトル値からフィルタ係数が算
出される場合、各ピークの帯域幅Qは固定値とされた
が、処理時間が許すなら、これらは振幅スペクトルから
個別に算出されてもよい。この場合には、振幅値が各ピ
ーク値の1/2に等しいピーク周波数の前後の2つの周
波数の間隔として、帯域幅Qが算出される。
Then, similarly to the case of the first embodiment, in steps S606 to S611 of FIG. 6, each sample x () of the tone signal is generated by using the above-described J sets of filter coefficients obtained in the filter coefficient RAM 105. For n), the bandpass filtering processes # 1 to #J having the characteristics shown in FIG. 5 are performed J times in sequence. <Other Embodiments> In the above-described first or second embodiment, when the filter coefficient is calculated from the amplitude spectrum value of the audio signal p (n), the bandwidth Q of each peak is set to a fixed value. If the processing time allows, these may be calculated individually from the amplitude spectrum. In this case, the bandwidth Q is calculated as the interval between two frequencies before and after the peak frequency whose amplitude value is equal to 1/2 of each peak value.

【0128】また、音声信号p(n) の振幅スペクトル値
は周波数が高くなるほど小さい値になるため、高い周波
数で楽音信号x(n) に対して十分な変調を行うために、
予め音声信号p(n) の高周波数成分を高域強調フィルタ
などによって強調した後に、線形予測法又はフーリエ変
換による振幅スペクトルの算出を行うようにしてもよ
い。
Since the amplitude spectrum value of the audio signal p (n) becomes smaller as the frequency becomes higher, in order to sufficiently modulate the tone signal x (n) at a high frequency,
The high-frequency component of the audio signal p (n) may be emphasized in advance by a high-frequency emphasis filter or the like, and then the amplitude spectrum may be calculated by the linear prediction method or the Fourier transform.

【0129】更に、振幅スペクトルは、線形予測法及び
フーリエ変換法以外の様々な方法によって算出すること
ができ、例えばケプストラム法によって有声音のピッチ
による調波構造の影響が除去された振幅包絡スペクトル
を算出することもできる。
Further, the amplitude spectrum can be calculated by various methods other than the linear prediction method and the Fourier transform method. For example, the amplitude envelope spectrum in which the influence of the harmonic structure due to the pitch of voiced sound is removed by the cepstrum method. It can also be calculated.

【0130】[0130]

【発明の効果】本発明によれば、音声信号の周波数強度
包絡成分から算出される音声のホルマントなどに対応す
る複数の有効なピークの周波数特性を強調するような複
数のフィルタ処理を音響信号に対して実行することがで
きる。このため、音響信号において、時々刻々と変化す
る音声信号のホルマントなどの有効なピークに対応する
周波数帯域を適格に強調することが可能となる。
According to the present invention, a plurality of filtering processes for emphasizing frequency characteristics of a plurality of effective peaks corresponding to a voice formant calculated from a frequency intensity envelope component of a voice signal are applied to an acoustic signal. Can be performed against. Therefore, in the acoustic signal, it is possible to properly emphasize the frequency band corresponding to the effective peak such as the formant of the audio signal, which changes from moment to moment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

【図2】DSPの全体構成図である。FIG. 2 is an overall configuration diagram of a DSP.

【図3】第1の実施例におけるDSPの機能ブロック図
である。
FIG. 3 is a functional block diagram of a DSP according to the first embodiment.

【図4】線形予測法に基づいて算出されたスペクトルの
例を示した図である。
FIG. 4 is a diagram showing an example of a spectrum calculated based on a linear prediction method.

【図5】バンドパスフィルタの特性図である。FIG. 5 is a characteristic diagram of a bandpass filter.

【図6】ボコーダ処理の動作フローチャートである。FIG. 6 is an operation flowchart of vocoder processing.

【図7】第1の実施例におけるスペクトル算出処理の動
作フローチャートである。
FIG. 7 is an operation flowchart of spectrum calculation processing in the first embodiment.

【図8】フィルタ係数算出処理の動作フローチャートで
ある。
FIG. 8 is an operation flowchart of a filter coefficient calculation process.

【図9】バンドパスフィルタリング処理の周波数特性図
である。
FIG. 9 is a frequency characteristic diagram of bandpass filtering processing.

【図10】バンドパスフィルタリング処理の機能構成図
である。
FIG. 10 is a functional configuration diagram of a bandpass filtering process.

【図11】第2の実施例におけるDSPの機能ブロック
図である。
FIG. 11 is a functional block diagram of a DSP according to the second embodiment.

【図12】フーリエ変換法に基づいて算出されたスペク
トルの例を示した図である。
FIG. 12 is a diagram showing an example of a spectrum calculated based on the Fourier transform method.

【図13】第2の実施例におけるスペクトル算出処理の
動作フローチャートである。
FIG. 13 is an operation flowchart of a spectrum calculation process in the second embodiment.

【図14】従来技術の説明図である。FIG. 14 is an explanatory diagram of a conventional technique.

【符号の説明】[Explanation of symbols] 【符号の説明】[Explanation of symbols]

101 CPU 102 ROM 103 RAM 104 DSP 105 フィルタ係数RAM 106 ワークRAM 107 楽音発生回路 108 D/A変換器 109 キーボード 110 機能スイッチ 111 マイク 112 マイクアンプ 113 ローパスフィルタ 114 A/D変換器 115 アンプ 116 スピーカ 117、118、119 バス 201 インタフェース 202 オペレーションROM 203 アドレスカウンタ 204 デコーダ 205 乗算器 206 加減器 207 レジスタ群 208 フラグレジスタ 301 線形予測法によるスペクトル算出部 302 フィルタ係数算出部 303 フィルタ係数記憶部 304 バンドパスフィルタ(BPF) 305 累算部 1101 フーリエ変換によるスペクトル算出部 101 CPU 102 ROM 103 RAM 104 DSP 105 Filter Coefficient RAM 106 Work RAM 107 Musical Sound Generation Circuit 108 D / A Converter 109 Keyboard 110 Function Switch 111 Microphone 112 Microphone Amplifier 113 Low Pass Filter 114 A / D Converter 115 Amplifier 116 Speaker 117, 118, 119 Bus 201 Interface 202 Operation ROM 203 Address counter 204 Decoder 205 Multiplier 206 Adder-subtractor 207 Register group 208 Flag register 301 Linear prediction method spectrum calculation unit 302 Filter coefficient calculation unit 303 Filter coefficient storage unit 304 Bandpass filter (BPF) ) 305 Accumulation unit 1101 Spectrum calculation unit by Fourier transform

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音声信号からその声道スペクトルに対応
する周波数強度包絡成分を算出するスペクトル算出手段
と、 該スペクトル算出手段により算出された前記周波数強度
包絡成分から複数の有効なピークの周波数特性を算出す
るピーク算出手段と、 該ピーク算出手段により算出された前記有効なピークの
周波数特性に対応する伝達特性を有するフィルタ係数の
組を、前記複数の有効なピークに対応して複数組算出す
るフィルタ係数算出手段と、 該フィルタ係数算出手段によって算出された前記複数組
のフィルタ係数を使用して、音響信号に対して、前記各
フィルタ係数の組に対応する複数のフィルタリング処理
を独立して実行するフィルタリング処理手段と、 該フィルタリング処理手段によって実行される前記複数
のフィルタリング処理手段の出力を累算し出力音響信号
として出力する累算手段と、 を有することを特徴とする音声制御音響変調装置。
1. A spectrum calculating means for calculating a frequency intensity envelope component corresponding to a vocal tract spectrum from a voice signal, and frequency characteristics of a plurality of effective peaks from the frequency intensity envelope component calculated by the spectrum calculating means. A filter for calculating a plurality of sets of peak calculating means for calculating and a set of filter coefficients having transfer characteristics corresponding to the frequency characteristics of the effective peaks calculated by the peak calculating means, corresponding to the plurality of effective peaks. Using the coefficient calculation means and the plurality of sets of filter coefficients calculated by the filter coefficient calculation means, a plurality of filtering processes corresponding to the respective sets of filter coefficients are independently executed on the acoustic signal. Filtering processing means, and the plurality of filtering processing executed by the filtering processing means Voice control acoustic modulation apparatus characterized by having a accumulating means for outputting as an output sound signal accumulating the output of the stage, the.
【請求項2】 前記スペクトル算出手段は、 前記音声信号に対して線形予測分析を実行することによ
り、線形予測係数を算出する線形予測分析手段と、 該線形予測分析手段によって算出された前記線形予測係
数に基づいて決定される全極型の周波数強度成分を前記
周波数強度包絡成分として算出する全極型周波数強度成
分算出手段と、 を含むことを特徴とする請求項1に記載の音声制御音響
変調装置。
2. The spectrum calculation means performs linear prediction analysis on the speech signal to calculate a linear prediction coefficient, and the linear prediction analysis means calculates the linear prediction coefficient. The voice control acoustic modulation according to claim 1, further comprising: an all-pole frequency intensity component calculating unit that calculates an all-pole frequency intensity component determined based on a coefficient as the frequency intensity envelope component. apparatus.
【請求項3】 前記スペクトル算出手段は、 前記音声信号に対してフーリエ変換を実行することによ
り、周波数強度成分を算出するフーリエ変換手段と、 該フーリエ変換手段によって算出される前記周波数強度
成分を平滑化することにより前記周波数強度包絡成分を
算出する平滑化手段と、 を含むことを特徴とする請求項1に記載の音声制御音響
変調装置。
3. The spectrum calculating means executes a Fourier transform on the audio signal to calculate a frequency intensity component, and a smoothing of the frequency intensity component calculated by the Fourier transforming means. The sound control acoustic modulator according to claim 1, further comprising: a smoothing unit that calculates the frequency intensity envelope component by converting the frequency intensity envelope component.
JP5160724A 1993-06-30 1993-06-30 Speech-operated acoustic modulating device Pending JPH0777979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5160724A JPH0777979A (en) 1993-06-30 1993-06-30 Speech-operated acoustic modulating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5160724A JPH0777979A (en) 1993-06-30 1993-06-30 Speech-operated acoustic modulating device

Publications (1)

Publication Number Publication Date
JPH0777979A true JPH0777979A (en) 1995-03-20

Family

ID=15721098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5160724A Pending JPH0777979A (en) 1993-06-30 1993-06-30 Speech-operated acoustic modulating device

Country Status (1)

Country Link
JP (1) JPH0777979A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010908A (en) * 2004-06-24 2006-01-12 Yamaha Corp Device and program for imparting sound effect
JP2006323166A (en) * 2005-05-19 2006-11-30 Casio Comput Co Ltd Musical sound generating device and program thereof
JP2006337450A (en) * 2005-05-31 2006-12-14 Casio Comput Co Ltd Device and program for generation of musical sound
WO2007088853A1 (en) * 2006-01-31 2007-08-09 Matsushita Electric Industrial Co., Ltd. Audio encoding device, audio decoding device, audio encoding system, audio encoding method, and audio decoding method
JP2008197873A (en) * 2007-02-13 2008-08-28 Nippon Telegr & Teleph Corp <Ntt> Spectral distribution and statistical distribution analysis method, spectral distribution and statistical distribution analysis device, and spectral distribution and statistical distribution analysis program
JP2009512895A (en) * 2005-10-21 2009-03-26 クゥアルコム・インコーポレイテッド Signal coding and decoding based on spectral dynamics
US8392176B2 (en) 2006-04-10 2013-03-05 Qualcomm Incorporated Processing of excitation in audio coding and decoding
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
JP2015179143A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Musical piece performance device, method and program
CN114155869A (en) * 2020-09-08 2022-03-08 瑞昱半导体股份有限公司 Audio processing method and related device for audio transparent

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010908A (en) * 2004-06-24 2006-01-12 Yamaha Corp Device and program for imparting sound effect
JP4654616B2 (en) * 2004-06-24 2011-03-23 ヤマハ株式会社 Voice effect imparting device and voice effect imparting program
JP2006323166A (en) * 2005-05-19 2006-11-30 Casio Comput Co Ltd Musical sound generating device and program thereof
JP2006337450A (en) * 2005-05-31 2006-12-14 Casio Comput Co Ltd Device and program for generation of musical sound
US8027242B2 (en) 2005-10-21 2011-09-27 Qualcomm Incorporated Signal coding and decoding based on spectral dynamics
JP2009512895A (en) * 2005-10-21 2009-03-26 クゥアルコム・インコーポレイテッド Signal coding and decoding based on spectral dynamics
JPWO2007088853A1 (en) * 2006-01-31 2009-06-25 パナソニック株式会社 Speech coding apparatus, speech decoding apparatus, speech coding system, speech coding method, and speech decoding method
WO2007088853A1 (en) * 2006-01-31 2007-08-09 Matsushita Electric Industrial Co., Ltd. Audio encoding device, audio decoding device, audio encoding system, audio encoding method, and audio decoding method
US8392176B2 (en) 2006-04-10 2013-03-05 Qualcomm Incorporated Processing of excitation in audio coding and decoding
JP2008197873A (en) * 2007-02-13 2008-08-28 Nippon Telegr & Teleph Corp <Ntt> Spectral distribution and statistical distribution analysis method, spectral distribution and statistical distribution analysis device, and spectral distribution and statistical distribution analysis program
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
JP2015179143A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 Musical piece performance device, method and program
CN114155869A (en) * 2020-09-08 2022-03-08 瑞昱半导体股份有限公司 Audio processing method and related device for audio transparent

Similar Documents

Publication Publication Date Title
JP2763322B2 (en) Audio processing method
Bonada et al. Synthesis of the singing voice by performance sampling and spectral models
JP5275612B2 (en) Periodic signal processing method, periodic signal conversion method, periodic signal processing apparatus, and periodic signal analysis method
Alku et al. Closed phase covariance analysis based on constrained linear prediction for glottal inverse filtering
Mittal et al. Study of characteristics of aperiodicity in Noh voices
JPH0777979A (en) Speech-operated acoustic modulating device
Akanksh et al. Interconversion of emotions in speech using td-psola
JPH04358200A (en) Speech synthesizer
Scheirer Pulse tracking with a pitch tracker
JPH05307395A (en) Voice synthesizer
CN113113033A (en) Audio processing method and device and readable storage medium
Alku et al. Evaluation of an inverse filtering technique using physical modeling of voice production.
Murphy Digital signal processing techniques for application in the analysis of pathological voice and normophonic singing voice
JP3035939B2 (en) Voice analysis and synthesis device
JPH07261798A (en) Voice analyzing and synthesizing device
Stables et al. Fundamental frequency modulation in singing voice synthesis
Stables et al. Towards a Model for the Humanisation of Pitch Drift in Singing Voice Synthesis.
JP2689709B2 (en) Electronic musical instrument
WO2020171034A1 (en) Sound signal generation method, generative model training method, sound signal generation system, and program
KR20040061709A (en) Voice Color Converter using Transforming Vocal Tract Characteristic and Method
Ernawan et al. Fast dynamic speech recognition via discrete Tchebichef transform
JP3302075B2 (en) Synthetic parameter conversion method and apparatus
JPH05346787A (en) Speech operated control musical sound generating device
JPH1020886A (en) System for detecting harmonic waveform component existing in waveform data
Aczél et al. Sound separation of polyphonic music using instrument prints

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020924