JPH04230798A - Noise predicting device - Google Patents

Noise predicting device

Info

Publication number
JPH04230798A
JPH04230798A JP3120746A JP12074691A JPH04230798A JP H04230798 A JPH04230798 A JP H04230798A JP 3120746 A JP3120746 A JP 3120746A JP 12074691 A JP12074691 A JP 12074691A JP H04230798 A JPH04230798 A JP H04230798A
Authority
JP
Japan
Prior art keywords
noise
signal
value
prediction
vowel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3120746A
Other languages
Japanese (ja)
Inventor
Joji Kane
丈二 加根
Akira Nohara
明 野原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3120746A priority Critical patent/JPH04230798A/en
Publication of JPH04230798A publication Critical patent/JPH04230798A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve a noise suppression ratio and to improve the quality of output voices by predicting the noise of signal parts with good accuracy. CONSTITUTION:Signals are inputted to a band dividing means 1 and the presence or absence of voices is discriminated by a signal discriminating means 3. The noise is predicated by a noise predicting means 21. The noise predicted by this noise predicting device 21 is subtracted by a canceling means 4 by which the noise components are cut. The signals are outputted after band synthesis with a band synthesizing means 5. The threshold component of the noise components to be canceled at the time when the canceling means 4 cancels the noise is controlled by an attenuator 22 and an attenuation coefft. setting means 23, by which the excess noise suppression is eliminated and the distinctness of the voice signals is improved.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、雑音が混入した音声信
号などの雑音混合信号中の雑音を予測する雑音予測装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a noise prediction device for predicting noise in a noise mixed signal such as a voice signal mixed with noise.

【0002】0002

【従来の技術】従来、音声信号中の雑音を予測し、雑音
を取り除き、優れた品質の音声信号を得る技術が開発さ
れている。このような技術において、重要な点は、信号
部分に含まれる雑音の予測方法である。例えば、雑音混
じりの音声信号をフーリエ変換し、過去の雑音情報に基
づいてその信号部分の雑音を予測する方法が知られてい
る。この方法においては、信号部分に含まれる雑音を予
測するには、信号が存在する部分の前の、雑音のみ存在
する部分の雑音データをそのまま保持し、その保持した
データに基づき、信号部分に含まれる雑音を予測してい
る。
2. Description of the Related Art Conventionally, techniques have been developed for predicting noise in audio signals, removing the noise, and obtaining audio signals of excellent quality. In such a technique, an important point is a method of predicting noise contained in a signal portion. For example, a method is known in which a noise-containing audio signal is Fourier transformed and noise in that signal portion is predicted based on past noise information. In this method, in order to predict the noise contained in a signal part, the noise data of the part where only noise exists before the part where the signal exists is retained as is, and based on the retained data, the noise data contained in the signal part is predicted. It predicts the noise that will occur.

【0003】0003

【発明が解決しようとする課題】しかし、この予測の方
法では、かなり前の雑音データを変化することなく利用
する事になるので、信号部分の雑音の予測が粗く不正確
なものになりがちである。
[Problem to be solved by the invention] However, with this prediction method, noise data from a long time ago is used without change, so the prediction of noise in the signal part tends to be rough and inaccurate. be.

【0004】本発明は、このような従来の雑音予測装置
の課題を解決することを目的とするものである。
[0004] It is an object of the present invention to solve the problems of such conventional noise prediction devices.

【0005】[0005]

【課題を解決するための手段】本発明に係る雑音予測装
置は、混合信号を入力し雑音を所定の予測方法に従い予
測するにあたり、所定期間過去の雑音データを収集し、
過去の雑音データの変化量を加味して、算出雑音予測値
を求める雑音予測手段を備えたことを特徴とする。
[Means for Solving the Problems] A noise prediction device according to the present invention collects past noise data for a predetermined period of time when inputting a mixed signal and predicting noise according to a predetermined prediction method.
The present invention is characterized by comprising a noise prediction means for calculating a calculated noise prediction value by taking into account the amount of change in past noise data.

【0006】更に本発明に係る雑音予測装置は、信号が
存在する部分と、雑音のみが存在する部分とを判別する
信号判別手段を有し、その判別により求められた信号部
分の出力雑音予測値を減衰する雑音予測手段とを備えた
ことを特徴とする。
Furthermore, the noise prediction device according to the present invention has a signal discrimination means for discriminating between a portion where a signal exists and a portion where only noise exists, and an output noise prediction value of the signal portion obtained by the discrimination. and a noise prediction means for attenuating the noise.

【0007】[0007]

【作用】本発明は、過去の雑音データの変化量を加味し
ているので、実際の雑音により近い算出雑音予測値を求
めることができる。又、信号判別手段によって、雑音を
含む混合信号を入力し、その混合信号中の信号の存在を
検出し、前記信号判別手段の判別により求められた信号
部分の出力雑音予測値を前記所定の予測方法で求められ
る算出雑音予測値より少ないものとする。
[Operation] Since the present invention takes into account the amount of change in past noise data, it is possible to obtain a calculated noise prediction value that is closer to the actual noise. Further, the signal discriminating means inputs a mixed signal including noise, detects the presence of a signal in the mixed signal, and calculates the predicted output noise value of the signal portion determined by the signal discriminating means into the predetermined prediction. The calculated noise prediction value obtained by the method is assumed to be smaller than the predicted value of the calculated noise.

【0008】[0008]

【実施例】以下に本発明の実施例を図面を参照して説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Examples of the present invention will be described below with reference to the drawings.

【0009】図1は、本発明の雑音予測装置の一実施例
を利用した、品質のよい信号を得る信号処理装置のブロ
ック図である。以下、その構成とともに動作も説明する
FIG. 1 is a block diagram of a signal processing device that uses an embodiment of the noise prediction device of the present invention to obtain a signal of good quality. The configuration and operation will be explained below.

【0010】同図において、帯域分割手段1は、信号の
一例としての音声と雑音が混合した信号を入力し、A/
D変換した後、フーリエ変換する手段である。
In the figure, band dividing means 1 inputs a signal, which is a mixture of voice and noise, as an example of a signal, and
This is a means of performing Fourier transformation after D transformation.

【0011】信号判別手段3は、その帯域分割手段1か
ら混合信号、例えば音声信号と雑音の混合信号、を受け
、その混合信号中の信号部分、この例では音声信号部分
、の有無を検出する手段である。かかる信号部分の有無
は、例えば後述するケプストラム(CEPSTRUM)
分析を用いて行なう。
The signal determining means 3 receives a mixed signal, for example, a mixed signal of a voice signal and noise, from the band dividing means 1, and detects the presence or absence of a signal portion, in this example a voice signal portion, in the mixed signal. It is a means. The presence or absence of such a signal portion can be determined by, for example, the cepstrum (CEPSTRUM) described later.
This is done using analysis.

【0012】雑音予測手段2は、前記帯域分割手段1か
らの混合信号を受け、所定期間過去の雑音データを収集
し、過去の雑音データの変化量を加味して雑音予測値を
算出するものである。更に、好ましい実施例においては
、この雑音予測手段2は、信号部分が有と判別された期
間中は、雑音予測値を減衰させる減衰手段を有する。 以下、減衰手段が具わった雑音予測手段2について説明
する。
The noise prediction means 2 receives the mixed signal from the band division means 1, collects past noise data for a predetermined period, and calculates a noise prediction value by taking into account the amount of change in the past noise data. be. Furthermore, in a preferred embodiment, the noise prediction means 2 includes attenuation means for attenuating the noise prediction value during the period in which the signal portion is determined to be present. The noise prediction means 2 equipped with attenuation means will be explained below.

【0013】図2に示すように、この雑音予測手段2は
、前記帯域分割手段1からの混合信号を入力し、信号部
分の雑音を所定の予測方法に従い予測する雑音予測器2
1と、前記信号判別手段3の出力を入力し、それに基づ
き、減衰係数を設定する減衰係数設定手段23と、該信
号判別手段3により信号部分が有と判別された期間中は
、その減衰係数設定手段23によって設定された減衰係
数に従い、前記雑音予測器21で予測された算出雑音予
測値を減衰させる減衰器22とを有するものである。
As shown in FIG. 2, this noise prediction means 2 is a noise predictor 2 which receives the mixed signal from the band division means 1 and predicts the noise in the signal portion according to a predetermined prediction method.
1, an attenuation coefficient setting means 23 which inputs the output of the signal discriminating means 3 and sets an attenuation coefficient based on the output; The attenuator 22 attenuates the calculated noise prediction value predicted by the noise predictor 21 according to the attenuation coefficient set by the setting means 23.

【0014】この雑音予測器21は、フーリエ変換され
た雑音混じりの信号を入力し、所定期間過去の雑音デー
タを収集し、例えばその平均値をもって信号部分の雑音
を予測するものである。データ収集の様子を図7に示す
。 x軸に周波数、y軸に雑音レベル、z軸に時間をとる。 周波数f1のところの所定期間過去の雑音データp1,
p2,・・・,piをとり、その先のpjを予測する。 予測のし方の一例としては、雑音部分p1〜piの平均
をとりpjとする。図6(a)は、そのような雑音予測
方法によって予測され算出された算出雑音予測値である
。t1〜t2間は音声信号と雑音が共存する部分であり
、それ以外は雑音のみが存在する部分である。音声信号
が存在する部分の算出雑音予測値は、t1より以前の雑
音のみの存在する部分の雑音予測値データや実際の雑音
データに基づき、概略的に予測された値である。
The noise predictor 21 inputs a Fourier-transformed signal mixed with noise, collects past noise data for a predetermined period, and predicts the noise in the signal portion based on, for example, the average value of the noise data. Figure 7 shows how the data was collected. The x-axis shows frequency, the y-axis shows noise level, and the z-axis shows time. Past noise data p1 for a predetermined period at frequency f1,
Take p2, . . . , pi and predict the next pj. As an example of a prediction method, the average of the noise parts p1 to pi is taken as pj. FIG. 6(a) shows a calculated noise prediction value predicted and calculated by such a noise prediction method. The period between t1 and t2 is a portion where a voice signal and noise coexist, and the rest is a portion where only noise exists. The calculated noise prediction value of the portion where the audio signal exists is a value roughly predicted based on the noise prediction value data and actual noise data of the portion where only noise exists before t1.

【0015】減衰係数設定手段23は、前記信号判別手
段3で信号部が有と判別された期間(t1〜t2)にお
ける減衰係数を設定する手段である。この減衰係数は、
図8(a)に示すように、信号部が有と判別された期間
(t1〜t2)に対応して、時が経過するほど徐々に係
数値が大きくなる指数曲線(exponential 
curve)に従って変化するのが望ましい。しかし、
これに限らず双曲線(b)、下向き円弧(c)、ステッ
プ状線(d)等のように変化するものでもよい。
The attenuation coefficient setting means 23 is means for setting an attenuation coefficient during the period (t1 to t2) in which the signal discriminating means 3 determines that the signal portion is present. This damping coefficient is
As shown in FIG. 8(a), the coefficient value gradually increases as time passes, corresponding to the period (t1 to t2) in which the signal portion is determined to be present.
It is desirable to change according to the curve. but,
The shape is not limited to this, and may change like a hyperbola (b), a downward arc (c), a stepped line (d), or the like.

【0016】減衰器22は、この減衰係数設定手段23
によって設定された減衰係数を用いて、前記雑音予測器
21で予測された信号部分が有と判別された期間(t1
〜t2)の算出予測雑音を減衰させる手段である。すな
わち、時刻t1における算出予測雑音値に、時刻t1に
おける減衰係数を乗ずる。t1以後に付いても同様に対
応する減衰係数を乗ずる。従って、指数曲線状の減衰係
数を用いた場合は、図6(b)に示すように出力雑音予
測値は、算出雑音予測値とほぼ同じであり、その後徐々
に出力雑音予測値が算出雑音予測値より小さくなってい
く、図6(a)は、減衰器22の入力を表わす一方、図
6(b)の実線は減衰器22の出力を表わす。
The attenuator 22 has this attenuation coefficient setting means 23
Using the attenuation coefficient set by the noise predictor 21, the period (t1
~t2) is a means for attenuating calculation prediction noise. That is, the calculated predicted noise value at time t1 is multiplied by the attenuation coefficient at time t1. Even after t1, the corresponding damping coefficient is multiplied in the same way. Therefore, when an exponential curve-shaped attenuation coefficient is used, the output noise prediction value is almost the same as the calculated noise prediction value, as shown in FIG. 6(b), and then the output noise prediction value gradually increases 6(a) represents the input of the attenuator 22, while the solid line in FIG. 6(b) represents the output of the attenuator 22.

【0017】これによって、信号部分の予測される雑音
値は、十分小さなものとなる。従って、仮に算出雑音予
測値が粗いものであっても、後述するように減衰された
算出雑音予測値を用いて雑音をキャンセルしても、音声
信号に与える影響は少ないので、音声信号の明瞭度を失
う心配がなくなる。しかも、その算出雑音予測値は、信
号部分の前の雑音のみの場合の雑音データを利用してる
ので、時の経過とともに、不正確さが増すので、時の経
過とともに、減衰量を大きくすることが望ましいが、指
数曲線の減衰係数の場合は、それを適切に実現すること
が出来る。なお、信号部分の終了時刻t2においては、
かなり算出雑音予測値は減衰しているが、その後は、t
1以前の如く、前記雑音予測方法によって、実際の雑音
と、t2における出力雑音予測値とに基づいて、t2+
α時刻における雑音が予測されていくので、徐々に、減
衰させない場合の算出雑音予測値に近づいていく。なお
、図のように、算出雑音予測値が増加していく場合の他
、減少していく場合にも、同様にして、予測値を減衰さ
せる。また、図8の他の減衰係数を用いた場合も同様に
して、算出雑音予測値は、所定量減衰させられる。
[0017] As a result, the predicted noise value of the signal portion becomes sufficiently small. Therefore, even if the calculated noise prediction value is rough, even if the noise is canceled using the attenuated calculated noise prediction value as described later, it will have little effect on the speech signal, so the intelligibility of the speech signal will be improved. No need to worry about losing. Moreover, since the calculated noise prediction value uses noise data of only the noise before the signal part, the inaccuracy increases as time passes, so it is necessary to increase the amount of attenuation as time passes. is desirable, but it can be appropriately realized in the case of an exponential damping coefficient. Note that at the end time t2 of the signal portion,
Although the calculated noise prediction value is considerably attenuated, after that, t
1, as before, the noise prediction method calculates t2+ based on the actual noise and the predicted output noise value at t2.
As the noise at time α is predicted, it gradually approaches the calculated noise prediction value in the case of no attenuation. Note that, as shown in the figure, the predicted value is attenuated in the same manner not only when the calculated noise predicted value increases but also when it decreases. Similarly, when other attenuation coefficients shown in FIG. 8 are used, the calculated noise prediction value is attenuated by a predetermined amount.

【0018】キャンセル手段4は、前記フーリエ変換さ
れた雑音混じりの信号から、雑音予測手段2で予測され
た雑音予測値を差し引く手段である。例えば、減算器で
構成する。
The canceling means 4 is a means for subtracting the predicted noise value predicted by the noise predicting means 2 from the Fourier-transformed signal mixed with noise. For example, it is configured with a subtracter.

【0019】帯域合成手段5は、そのようにしてキャン
セル手段4で予測雑音がキャンセルされた信号を合成し
て出力する手段である。例えば、逆フーリエ変換し、更
にD/A信号変換する。
The band synthesizing means 5 is a means for synthesizing and outputting the signal whose prediction noise has been canceled by the canceling means 4 in this way. For example, inverse Fourier transform is performed and then D/A signal conversion is performed.

【0020】図1において、(イ)は、雑音混じりの入
力信号の波形であり(図9(イ)参照)、(ロ)は、そ
の信号がフーリエ変換された波形であり(図9(ロ)参
照)、(ハ)は、予測された雑音信号の波形であり、(
ニ)は、雑音をキャンセルした信号の波形であり(図9
(ニ)参照)、(ホ)は、このキャンセル済み信号を逆
フーリエ変換した波形である(図9(ホ)参照)。本発
明では、信号部分が有と判別された期間は、この雑音予
測の値が減衰され適切な値となるので、信号部分で雑音
が不正確にキャンセルされず、質のよい信号が得られる
In FIG. 1, (a) is the waveform of the input signal mixed with noise (see FIG. 9 (a)), and (b) is the waveform obtained by Fourier transforming that signal (see FIG. 9 (ro)). ), (c) is the predicted noise signal waveform, and (
D) is the waveform of the signal with noise canceled (Figure 9)
(d)) and (e) are waveforms obtained by inverse Fourier transform of this canceled signal (see FIG. 9(e)). In the present invention, the noise prediction value is attenuated to an appropriate value during the period in which the signal portion is determined to be present, so that noise is not inaccurately canceled in the signal portion, and a high-quality signal can be obtained.

【0021】なお、帯域分割することなく、アナログ信
号のまま信号を判別し、また、雑音を予測して減衰させ
、その減衰した出力雑音予測値を利用して雑音をキャン
セルすることもできる。
[0021] Note that it is also possible to discriminate the signal as it is as an analog signal without performing band division, to predict and attenuate noise, and to cancel the noise using the attenuated output noise prediction value.

【0022】本実施例において、図1に示すように、雑
音混じりの信号は、帯域分割手段1で帯域分割され、そ
の信号に付いて信号判別手段3で信号部分の有無が判別
される。そして、帯域分割された雑音混じりの信号に付
いて、雑音予測手段2は、信号判別手段3で信号部分が
有と判別された期間では、算出された雑音予測値が減衰
されて、出力雑音予測値として用いられる。キャンセル
手段4は、雑音混じりの信号から、この雑音予測値で予
測された出力雑音予測値を差し引くことによって、雑音
が除去された信号を得る。なお、信号部分以外の雑音の
みの期間は、減衰をなくし、単に算出雑音を反転して、
加算するだけでもよい。このキャンセル手段4において
雑音が除去された信号は、帯域合成手段5において、合
成され、目標とする信号として出力される。
In this embodiment, as shown in FIG. 1, a noise-containing signal is band-divided by a band division means 1, and a signal discrimination means 3 discriminates whether or not a signal portion exists in the signal. Then, regarding the band-divided noise-containing signal, the noise prediction means 2 attenuates the calculated noise prediction value during the period in which the signal discrimination means 3 determines that the signal portion is present, and outputs noise prediction. Used as a value. The canceling means 4 obtains a signal from which noise has been removed by subtracting the output noise prediction value predicted by this noise prediction value from the noise-containing signal. In addition, during the period where there is only noise other than the signal part, the attenuation is eliminated and the calculated noise is simply inverted.
You can just add it. The signals from which noise has been removed by the canceling means 4 are combined by the band combining means 5 and output as a target signal.

【0023】図3は、本発明の他の実施例を示すブロッ
ク図である。この実施例では雑音混じりの信号を帯域分
割し、分割された複数の周波数帯(以下チャンネルと呼
ぶ)それぞれに減衰係数設定手段23及び減衰器22を
設けると共に、複数チャンネルの内、音声信号が強く表
われているチャンネルを検出する信号チャンネル判定手
段6を設ける。音声信号が強く表われているチャンネル
に対しては減衰係数設定手段23を駆動状態にする一方
、音声信号が強く表われていないチャンネルに対しては
減衰係数設定手段23を非駆動状態又はそれに近い状態
にする。 すなわち、音声チャンネル判定手段6は、複数チャンネ
ルそれぞについて音声信号のレベルを判定する手段であ
り、各チャンネルに対応して設けた減衰係数設定手段2
3はそのチャンネルの音声信号レベルに応じて減衰係数
を変更させる。
FIG. 3 is a block diagram showing another embodiment of the present invention. In this embodiment, a noise-containing signal is band-divided, and an attenuation coefficient setting means 23 and an attenuator 22 are provided for each of the divided frequency bands (hereinafter referred to as channels). Signal channel determination means 6 are provided for detecting the appearing channel. For channels where the audio signal appears strongly, the attenuation coefficient setting means 23 is set to the driven state, while for channels where the sound signal does not appear strongly, the attenuation coefficient setting means 23 is set to the non-driven state or close to it. state. That is, the audio channel determining means 6 is a means for determining the level of the audio signal for each of a plurality of channels, and the attenuation coefficient setting means 2 provided corresponding to each channel.
3 changes the attenuation coefficient according to the audio signal level of that channel.

【0024】前記実施例では、減衰係数は、時間的には
変化したが、その変化は、音声の周波数チャンネル毎の
レベルの変化に対して無関係のものであった。しかし、
この実施例では、その各音声周波数チャンネルのレベル
の変化に対しても減衰係数を最適になるよう変化させる
ものである。例えば、音声レベルが小さいチャンネルで
は、減衰係数を小さくし、出力雑音予測値を大きくして
、信号から十分雑音をキャンセルするようする一方、音
声レベルが大きいチャンネルでは、減衰係数を大きくし
、出力雑音予測値を小さくして、信号からあまり雑音を
キャンセルしない様にする。他の手段は、前の実施例と
同様である。
In the above embodiment, although the attenuation coefficient changed over time, the change was unrelated to the change in the level of each audio frequency channel. but,
In this embodiment, the attenuation coefficient is optimally changed also in response to changes in the level of each audio frequency channel. For example, for a channel with a low audio level, the attenuation coefficient is decreased and the output noise prediction value is increased to sufficiently cancel the noise from the signal, while for a channel with a high audio level, the attenuation coefficient is increased and the output noise Reduce the predicted value to avoid canceling too much noise from the signal. Other means are similar to the previous embodiment.

【0025】図4は、本発明の他の実施例を示すブロッ
ク図であって、図3の実施例とは、帯域分割する前の雑
音混じりの信号から直接音声チャンネルのレベルを判定
する点に差がある。その方法としては、自己相関法、L
PC分析法、PACOR分析法などである。音声チャン
ネル判定手段7は雑音混じりの信号を入力して、音声チ
ャンネル毎にレベルを判定する手段である。
FIG. 4 is a block diagram showing another embodiment of the present invention, which is different from the embodiment of FIG. 3 in that the level of the audio channel is determined directly from the noise-containing signal before band division. There is a difference. The methods include autocorrelation method, L
These include PC analysis method and PACOR analysis method. The audio channel determining means 7 is a means for inputting a signal mixed with noise and determining the level for each audio channel.

【0026】なお、PACOR分析等によれば、入力信
号のスペクトル包絡および音源の周期性を抽出すること
ができる。これは、Durbinの解法、格子形回路、
変形格子法、Le Roux法など公知の方法で求めら
れる。そして、このスペクトル包絡、音源の周期性情報
を用いて、システムの帯域分割数m個に応じて、音声の
周波数チャンネル毎のレベルを求めてやればよい。PA
COR分析、LPC分析、自己相関法も、時間軸上での
計算から、周波数情報を得ることができるのでチャンネ
ル分別はシステムに合わせて任意に行なえる。
[0026] According to PACOR analysis or the like, it is possible to extract the spectral envelope of the input signal and the periodicity of the sound source. This is based on Durbin's solution, a lattice circuit,
It is determined by a known method such as the deformed lattice method or the Le Roux method. Then, using this spectral envelope and periodicity information of the sound source, the level of each audio frequency channel may be determined according to the number m of band divisions of the system. P.A.
COR analysis, LPC analysis, and autocorrelation methods also allow frequency information to be obtained from calculations on the time axis, so channel classification can be performed arbitrarily according to the system.

【0027】更に、変形例として、図3の信号チャンネ
ル判定手段6の入力を、帯域分割手段1からではなく、
信号判別手段3から受けるようにしてもよい。
Furthermore, as a modification, the input to the signal channel determining means 6 of FIG. 3 is not from the band dividing means 1,
The signal may be received from the signal determining means 3.

【0028】次に信号判別手段3を詳細に説明する。図
5に示す実施例では、ケプストラム分析法を利用して、
音声信号部分の有無の判別、及び音声信号が強く表われ
ているチャンネルの判定を行う。図5において、ケプス
トラム分析手段8は、帯域分割手段1によって、フーリ
エ変換された信号に付いて、ケプストラム分析を行う手
段である。ケプストラムとは、波形の短時間振幅スペク
トルの対数の逆フーリエ変換であって、図10に示すよ
うなものである。図10(イ)は、短時間スペクトルで
あって、同図(ロ)は、そのケプストラムである。
Next, the signal discrimination means 3 will be explained in detail. In the example shown in FIG. 5, using the cepstral analysis method,
The presence or absence of an audio signal portion is determined, and the channel in which the audio signal appears strongly is determined. In FIG. 5, the cepstrum analysis means 8 is a means for performing cepstrum analysis on the signal that has been Fourier transformed by the band division means 1. The cepstrum is the inverse Fourier transform of the logarithm of the short-time amplitude spectrum of a waveform, as shown in FIG. FIG. 10(a) is a short-time spectrum, and FIG. 10(b) is its cepstrum.

【0029】ピーク検出手段9は、そのケプストラム分
析手段8において求められたケプストラムのピーク(P
)を検出して信号と雑音を判別する手段である。そのピ
ークが存在するところが音声信号部分が有と判別する。 そのピークの検出は、例えば、所定の大きさの閾値を予
め決めておき、それとの比較を行なうことによって、検
出できる。更に、ピッチ周波数検出手段10は、そのピ
ーク検出手段9によって、検出されたピークのあるケフ
レンシー値(図10(ロ)から求める)その逆数を算出
してピッチ周波数を得る手段である。例えばこのケフレ
ンシー値をフーリエ変換しても得ることができ、得られ
たピッチ周波数が、音声信号が強く表われているチャン
ネルと、そうでないチャンネルを示す。音声チャンネル
算定手段11は、各チャンネルについて信号レベルを検
知し、音声信号が強く表われているチャンネルとそうで
ないチャンネルを判定する。このケプストラム分析手段
8、ピーク検出手段9、ピッチ周波数検出手段10、音
声チャンネル算定手段11とで、前記音声チャンネル判
定手段6が構成される。また、ケプストラム分析手段8
と、ピーク検出手段9とで、音声判別手段3が構成され
る。
The peak detection means 9 detects the cepstrum peak (P) determined by the cepstrum analysis means 8.
) to distinguish between signals and noise. Where the peak exists, it is determined that an audio signal portion exists. The peak can be detected, for example, by determining a threshold value of a predetermined size in advance and comparing it with the threshold value. Further, the pitch frequency detecting means 10 is a means for obtaining a pitch frequency by calculating the reciprocal of the quefrency value (obtained from FIG. 10(b)) of the peak detected by the peak detecting means 9. For example, this quefrency value can be obtained by Fourier transformation, and the obtained pitch frequency indicates which channels have a strong audio signal and which channels do not. The audio channel calculation means 11 detects the signal level of each channel and determines which channels have strong audio signals and which channels do not. The cepstrum analysis means 8, the peak detection means 9, the pitch frequency detection means 10, and the audio channel calculation means 11 constitute the audio channel determination means 6. In addition, cepstrum analysis means 8
and the peak detection means 9 constitute the voice discrimination means 3.

【0030】図11は、信号判別手段3をより詳細に示
した信号処理装置のブロック図で、減衰手段は含まれて
いない実施例を示す。図11において、信号判別手段3
は、ケプストラム分析を行うケプストラム分析手段10
2、ケプストラム分布のピークを検出するピーク検出手
段103、ケプストラム分布の平均値算出手段104、
母音と子音を判定する母音/子音判定手段105、信号
判別手段106及び雑音区間設定手段108を有する。 即ち、帯域分割手段1内のFFT手段により音声信号入
力を高速フーリエ変換し、ケプストラム分析手段102
へ供給する。ケプストラム分析手段102は、そのスペ
クトラム信号についてのケプストラムを求め、ピーク検
出手段103及び平均値算出手段104へ供給する。図
12(a)、(b)にそれを示す。
FIG. 11 is a block diagram of a signal processing apparatus showing the signal discriminating means 3 in more detail, and shows an embodiment in which no attenuating means is included. In FIG. 11, the signal discrimination means 3
is a cepstrum analysis means 10 for performing cepstrum analysis.
2. Peak detection means 103 for detecting the peak of the cepstrum distribution, means 104 for calculating the average value of the cepstral distribution,
It has vowel/consonant determining means 105 for determining vowels and consonants, signal determining means 106, and noise section setting means 108. That is, the FFT means in the band division means 1 fast Fourier transforms the audio signal input, and the cepstrum analysis means 102
supply to Cepstrum analysis means 102 obtains the cepstrum of the spectrum signal and supplies it to peak detection means 103 and average value calculation means 104. This is shown in FIGS. 12(a) and 12(b).

【0031】ピーク検出手段103は、ケプストラム分
析手段102で得られたケプストラムについて、そのピ
ークを求め、母音/子音判定手段105に供給する。
The peak detection means 103 determines the peak of the cepstrum obtained by the cepstrum analysis means 102 and supplies it to the vowel/consonant determination means 105 .

【0032】他方、平均値算出手段104は、ケプスト
ラム分析手段102で得られるケプストラムの平均値を
算出し、母音/子音判定手段105に供給する。母音/
子音判定手段105は、ピーク検出手段103から供給
されるケプストラムのピークと平均値算出手段104か
ら供給されるケプストラムの平均値を用いて音声信号入
力の母音及び子音を判定し、判定結果を判定出力とする
ものである。
On the other hand, the average value calculation means 104 calculates the average value of the cepstrum obtained by the cepstrum analysis means 102, and supplies it to the vowel/consonant determination means 105. vowel/
The consonant determining means 105 determines vowels and consonants of the audio signal input using the peak of the cepstrum supplied from the peak detecting means 103 and the average value of the cepstrum supplied from the average value calculating means 104, and outputs the determination result. That is.

【0033】音声信号判別手段106は、この母音/子
音判定手段105の結果に基づき、母音部分と子音部分
は音声区間であると判別する手段である。
The speech signal discriminating means 106 is a means for discriminating, based on the result of the vowel/consonant discriminating means 105, that the vowel part and the consonant part are speech intervals.

【0034】雑音区間設定手段108は、この音声判別
手段106の出力に基づき、反転するなどして雑音のみ
の部分の区間を見つけて設定する手段である。
The noise section setting means 108 is a means for inverting the output of the speech discriminating means 106 to find and set a section containing only noise.

【0035】以上述べた図11の実施例の動作を次に説
明する。雑音混じりの音声信号入力は、FFT手段1で
高速フーリエ変換され、次にケプストラム分析手段10
2でそのケプストラムが求められ、ピーク検出手段10
3でケプストラムのピークが求められる。また、平均値
算出手段104でケプストラムの平均値が求められる。 そして母音/子音判定手段105では、ピーク検出手段
103からピークが検出されたことを示す信号が入力さ
れた場合には、その音声信号入力は母音区間であると判
断する。また、子音の判定については、例えば平均値算
出手段4より入力されるケプストラム平均値が予め決め
られた規定値より大きな場合、或はケプストラム平均値
の増加量(微分係数)が予め決められた規定値より大き
な場合は、音声信号入力は子音区間であると判定する。 そして結果としては、母音/子音を示す信号、或は母音
と子音を含んだ音声区間を示す信号を出力する。音声判
別手段106はその子音、母音音声区間信号によって、
音声区間を判別する。雑音区間設定手段108はその音
声区間以外を雑音区間として設定する。雑音予測手段2
は、帯域分割された雑音混じり信号について、雑音区間
設定手段108によって設定された雑音区間における雑
音を予測する。そして、キャンセル手段4において、雑
音がキャンセルされる。
The operation of the embodiment shown in FIG. 11 described above will now be described. The input audio signal mixed with noise is fast Fourier transformed by FFT means 1, and then subjected to cepstrum analysis means 10.
2, the cepstrum is obtained, and the peak detection means 10
3, the cepstrum peak is determined. Further, the average value of the cepstrum is calculated by the average value calculating means 104. When the vowel/consonant determining means 105 receives a signal indicating that a peak has been detected from the peak detecting means 103, it determines that the audio signal input is in a vowel section. Regarding the determination of consonants, for example, if the cepstrum average value inputted from the average value calculation means 4 is larger than a predetermined value, or if the amount of increase (differential coefficient) of the cepstrum average value is larger than a predetermined value, If it is larger than the value, it is determined that the audio signal input is in a consonant section. As a result, a signal indicating a vowel/consonant or a signal indicating a speech section including a vowel and a consonant is output. The speech discrimination means 106 uses the consonant and vowel speech section signals to
Determine the voice section. The noise section setting means 108 sets a section other than the voice section as a noise section. Noise prediction means 2
predicts the noise in the noise interval set by the noise interval setting means 108 for the band-divided noise-mixed signal. Then, in the canceling means 4, the noise is canceled.

【0036】一般に、キャンセルの方法の一例として、
時間軸でのキャンセレーションは、図13に示すように
、雑音混入音声信号(イ)から予測された雑音波形(ロ
)を引算するものである。それによって信号のみが取り
出される(ハ)。また、本実施例では、図14に示すよ
うに、周波数を基準にしたキャンセレーションで、雑音
混入音声信号(イ)をフーリエ変換し(ロ)、それから
予測雑音のスペクトル(ハ)を引き(ニ)、それを逆フ
ーリエ変換して、雑音の無い音声信号を得る(ホ)もの
である。帯域合成手段5は、上述した如くキャンセル手
段4より供給されるmチャンネルの信号を逆フーリエ変
換して品質のよい音声出力を得る手段である。このよう
に、雑音区間と、音声区間とが明確に判別されて、雑音
予測がなされ、正確性の高い予測雑音が信号から除去さ
れるので、品質のよい音声が得られる。
[0036] Generally, as an example of a cancellation method,
Cancellation on the time axis, as shown in FIG. 13, subtracts the predicted noise waveform (b) from the noise-containing audio signal (a). As a result, only the signal is extracted (c). In addition, in this embodiment, as shown in FIG. 14, the noise-containing speech signal (A) is Fourier transformed (B) using frequency-based cancellation, and then the predicted noise spectrum (C) is subtracted (N). ), it is inversely Fourier transformed to obtain a noise-free audio signal (e). The band synthesizing means 5 is a means for obtaining a high quality audio output by performing inverse Fourier transform on the m-channel signals supplied from the canceling means 4 as described above. In this way, the noise section and the speech section are clearly distinguished, noise prediction is performed, and highly accurate prediction noise is removed from the signal, so that high-quality speech can be obtained.

【0037】図11に示す実施例における母音/子音判
定手段105は、151〜154の手段から成る構成を
有する。第1比較器152は、前記ピーク検出手段10
3で得られたピーク情報と、第1シュレスホールド設定
手段151で設定された所定の閾値とを比較し、その結
果を出力する回路である。また、その第1シュレスホー
ルド設定手段151は、前記平均値算出手段104で得
られた平均値に応じて、閾値を設定する手段である。
The vowel/consonant determining means 105 in the embodiment shown in FIG. 11 has a configuration consisting of means 151 to 154. The first comparator 152 includes the peak detection means 10
This circuit compares the peak information obtained in step 3 with a predetermined threshold set by the first threshold setting means 151 and outputs the result. Further, the first threshold setting means 151 is means for setting a threshold value according to the average value obtained by the average value calculation means 104.

【0038】また、第2比較器153は、第2シュレス
ホールド設定手段154で設定された所定の閾値と、前
記平均値算出手段104で得られた平均値とを比較し、
その結果を出力する回路である。
Further, the second comparator 153 compares a predetermined threshold value set by the second threshold setting means 154 and the average value obtained by the average value calculation means 104,
This is a circuit that outputs the results.

【0039】また、母音/子音判定回路155は、第1
比較器152で得られた比較結果と、第2比較器153
で得られた比較結果とに基づき、入力された音声信号が
母音であるか子音であるかを判定する回路である。
Further, the vowel/consonant determination circuit 155
The comparison result obtained by the comparator 152 and the second comparator 153
This circuit determines whether the input audio signal is a vowel or a consonant based on the comparison results obtained in the above.

【0040】次に、この母音/子音判定手段105の動
作を説明する。第1シュレスホールド設定手段151は
、ピーク検出手段103で得られたピークが、母音と判
断するに足るピークであるかどうかを決める基準となる
閾値を設定する。その際、平均値算出手段104で得ら
れた平均値を参照してその閾値を決定する。例えば、平
均値が大きい場合は、閾を高く設定して確実に母音を示
すピークを選択できるようにするためである。
Next, the operation of this vowel/consonant determining means 105 will be explained. The first threshold setting means 151 sets a threshold value as a reference for determining whether the peak obtained by the peak detection means 103 is a peak sufficient to be determined to be a vowel. At that time, the threshold value is determined by referring to the average value obtained by the average value calculation means 104. For example, if the average value is large, the threshold is set high to ensure that a peak indicating a vowel can be selected.

【0041】第1比較器152は、そのシュレスホール
ド設定手段151によって、設定された閾値と、前記ピ
ーク検出手段103で検出されたピークとを比較し、そ
の比較結果を出力する。
The first comparator 152 compares the threshold set by its threshold setting means 151 with the peak detected by the peak detecting means 103, and outputs the comparison result.

【0042】他方、第2シュレスホールド設定手段15
4は、所定の閾値を設定する。平均値自体の閾値、ある
いは平均値の増加傾向を示す微分係数の閾値などである
。 そして、第2比較器153は、平均値算出手段104で
得られた平均値と、第2シュレスホールド設定手段15
4で設定された閾値とを比較して出力する。すなわち、
算出平均値と閾値平均値とを比較し、あるいは、算出平
均値の増加値と、閾値微分係数値とを比較する。
On the other hand, the second threshold setting means 15
4 sets a predetermined threshold value. This may be a threshold value for the average value itself, or a threshold value for a differential coefficient that indicates an increasing tendency of the average value. Then, the second comparator 153 calculates the average value obtained by the average value calculation means 104 and the second threshold setting means 15.
It compares it with the threshold value set in step 4 and outputs it. That is,
The calculated average value and the threshold average value are compared, or the increased value of the calculated average value and the threshold differential coefficient value are compared.

【0043】母音/子音判定回路155は、第1比較器
152の比較結果と第2比較器153の比較結果とに基
づき、母音、子音を判定する。第1比較器152の比較
結果において、ピークが確実に検出されているなら、そ
の区域は母音と判定する。また、第2比較器153の比
較結果において、平均値が閾値の平均値を上回ればその
区域は子音と判定する。あるいは、平均値の増加と、閾
値の微分係数を比較し、閾値を上回ればそこを子音と判
定する。
The vowel/consonant determination circuit 155 determines vowels and consonants based on the comparison results of the first comparator 152 and the second comparator 153. If a peak is definitely detected in the comparison result of the first comparator 152, that area is determined to be a vowel. Further, in the comparison result of the second comparator 153, if the average value exceeds the average value of the threshold value, that area is determined to be a consonant. Alternatively, the increase in the average value is compared with the differential coefficient of the threshold value, and if it exceeds the threshold value, it is determined that it is a consonant.

【0044】尚、母音/子音判定手段105の判定方法
として、音声の母音と子音の区間の性質、例えば音声は
子音+母音で構成される性質を考慮し、子音区間と母音
区間が揃った場合にはじめて最初の子音区間にさかのぼ
って子音としての判定シュレスホールドを出すようにし
てもよい。即ち、雑音と子音との区別をより確実に行う
ため、平均値によって子音と判断する場合でも、その後
に区間が続かない場合は雑音と判定するものである。
[0044] The vowel/consonant determining means 105 takes into account the nature of the vowel and consonant sections of speech, for example, the property that speech is composed of consonants + vowels, and determines when the consonant section and vowel section are aligned. The determination threshold as a consonant may be issued starting from the first consonant interval. That is, in order to more reliably distinguish between noise and consonants, even if a consonant is determined based on the average value, it is determined to be noise if there is no subsequent interval.

【0045】図15は、本発明の応用例であって、図1
1に示す本発明の実施例によって得られた品質の高い音
声を利用して音声認識を行う実施例で示す。すなわち、
前記帯域合成手段5の後に単語毎、又は「ア」、「イ」
、「ウ」等の音節毎、さらには音素毎に切り出しを行う
音声切り出し手段111が接続され、その後に、その切
り出された音節などの特徴を抽出する特徴抽出手段11
2が接続され、その後に、その抽出された特徴と、記憶
手段113に予め記憶されている標準となる音節などの
標準特徴とを比較して、その音節の種類を認識する特徴
比較手段114が接続されている。このように、この音
声認識の実施例は、雑音が正確に予測されて除去された
音声を対象に音声認識を行うので、特に音声認識率が高
くなる。
FIG. 15 shows an application example of the present invention, in which FIG.
An example will be described in which speech recognition is performed using high quality speech obtained by the embodiment of the present invention shown in 1. That is,
After the band synthesis means 5, each word or "A", "I"
, "U", etc., is connected to a voice extraction means 111 that extracts each syllable, and furthermore, each phoneme, and then a feature extraction means 11 that extracts features of the extracted syllable, etc.
2 are connected, and then the feature comparison means 114 compares the extracted features with standard features such as standard syllables stored in advance in the storage means 113 and recognizes the type of the syllable. It is connected. In this way, in this embodiment of speech recognition, speech recognition is performed on speech from which noise has been accurately predicted and removed, so that the speech recognition rate is particularly high.

【0046】以上説明した実施例において、信号判別手
段、雑音予測手段、キャンセル手段等多くの手段は、コ
ンピュータを用いてソフトウエア的に実現できるが、そ
れぞれの機能を有する専用のハード回路を利用すること
も可能である。
In the embodiments described above, many of the means such as the signal discrimination means, the noise prediction means, and the cancellation means can be realized in software using a computer, but it is also possible to use dedicated hardware circuits having the respective functions. It is also possible.

【0047】なお、本発明において、雑音とは、着目す
る信号以外の信号を意味するので、音声でも雑音として
扱われることが有り得る。
[0047] In the present invention, noise means a signal other than the signal of interest, so even speech may be treated as noise.

【0048】[0048]

【発明の効果】以上説明したところから明らかなように
、本発明にかかる信号処理装置は、雑音の混入した音声
信号に付いて、その母音/子音区域を検出し、それに基
づいて、雑音区間を設定し、それに基づいて雑音予測を
しているので、その予測された雑音は精度の良いものと
なる。
[Effects of the Invention] As is clear from the above explanation, the signal processing device according to the present invention detects the vowel/consonant area of a speech signal mixed with noise, and based on that detects the noise area. Since the noise is predicted based on the settings, the predicted noise is highly accurate.

【0049】また、その精度のよい予測された雑音を用
いて、雑音を除去するので、品質のよい信号が得られる
Furthermore, since the noise is removed using the highly accurate predicted noise, a signal of good quality can be obtained.

【0050】また、その品質のよい信号を利用して音声
認識を行うので、音声認識率が高まる。
[0050] Furthermore, since speech recognition is performed using the high quality signal, the speech recognition rate is increased.

【0051】又、本発明によれば、信号部分に付いては
、所定の雑音予測方法で算出された雑音予測値より小さ
な雑音予測値を雑音値とするので、その後の処理、例え
ば、音声部分においては、雑音が大きくキャンセルされ
るような心配がなく、雑音除去のためその明瞭度が大き
く低下するような心配が無い。
Furthermore, according to the present invention, for the signal part, a noise value smaller than the noise prediction value calculated by a predetermined noise prediction method is set as the noise value, so that subsequent processing, for example, the voice part In this case, there is no concern that noise will be largely canceled, and there is no concern that the clarity will decrease significantly due to noise removal.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】  本発明にかかる雑音予測装置の一実施例を
示すブロック図
FIG. 1 A block diagram showing an embodiment of a noise prediction device according to the present invention.

【図2】  実施例の更に具体的な内容を示すブロック
[Figure 2] Block diagram showing more specific details of the embodiment

【図3】  本発明の他の実施例を示すブロック図[Figure 3] Block diagram showing another embodiment of the present invention


図4】  本発明の他の実施例を示すブロック図
[
FIG. 4 Block diagram showing another embodiment of the present invention

【図5
】  本発明の他の実施例を示すブロック図
[Figure 5
] Block diagram showing another embodiment of the present invention

【図6】 
 本発明の一実施例における所定方法による算出雑音予
測値及び出力雑音予測値を示すグラフ
[Figure 6]
Graph showing calculated noise prediction values and output noise prediction values according to a predetermined method in an embodiment of the present invention

【図7】  一般
の雑音予測方法を説明するためのグラフ
[Figure 7] Graph for explaining general noise prediction method

【図8】  本
発明の一実施例における減衰係数を示すグラフ
[Fig. 8] Graph showing the damping coefficient in one embodiment of the present invention

【図9】  本発明の一実施例における動作を説明する
ためのグラフ
[Fig. 9] Graph for explaining the operation in one embodiment of the present invention

【図10】  一般のケプストラム分析を説明するため
のグラフ
[Figure 10] Graph for explaining general cepstral analysis

【図11】  信号判別手段3の詳細を示したブロック
[Fig. 11] Block diagram showing details of signal discrimination means 3

【図12】  本発明におけるケプストラムピークを
示すグラフ
[Figure 12] Graph showing cepstrum peaks in the present invention

【図13】  本発明のキャンセレーション法を説明す
るための波形図
[Figure 13] Waveform diagram for explaining the cancellation method of the present invention

【図14】  本発明のキャンセレーション法を説明す
るための波形図
[Figure 14] Waveform diagram for explaining the cancellation method of the present invention

【図15】  本発明の応用例を示すブロック図[Figure 15] Block diagram showing an example of application of the present invention

【符号の説明】[Explanation of symbols]

1  帯域分割手段 2  雑音予測手段 3  信号判別手段 4  キャンセル手段 5  帯域合成手段 6  信号チャンネル判定手段 7  信号チャンネル判定手段 8  ケプストラム分析手段 21  雑音予測器 22  減衰器 23  減衰係数設定手段 103  ピーク検出手段 104  平均値算出手段 105  母音/子音判定手段 106  信号判別手段 108  平均値算出手段 113  記憶手段 114  特徴比較手段 151  第1スレシホールド設定手段152  第1
比較器 153  第2比較器 154  第2スレシホールド設定手段155  母音
/子音判定回路
1 Band division means 2 Noise prediction means 3 Signal discrimination means 4 Cancellation means 5 Band synthesis means 6 Signal channel judgment means 7 Signal channel judgment means 8 Cepstrum analysis means 21 Noise predictor 22 Attenuator 23 Attenuation coefficient setting means 103 Peak detection means 104 Average value calculation means 105 Vowel/consonant determination means 106 Signal discrimination means 108 Average value calculation means 113 Storage means 114 Feature comparison means 151 First threshold setting means 152 First
Comparator 153 Second comparator 154 Second threshold setting means 155 Vowel/consonant determination circuit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】雑音を含む混合信号を入力し、その混合信
号中の信号の存在を検出する信号判別手段と、前記混合
信号を入力し雑音を所定の予測方法に従い予測するにあ
たり、その所定の予測方法で求められる算出雑音予測値
より、前記信号判別手段の判別により求められた信号部
分の出力雑音予測値を少なくする雑音予測手段とを備え
たことを特徴とする雑音予測装置。
1. Signal discrimination means for inputting a mixed signal containing noise and detecting the presence of a signal in the mixed signal; 1. A noise prediction device comprising: noise prediction means for reducing an output noise prediction value of a signal portion determined by the discrimination by the signal discrimination means, compared to a calculated noise prediction value obtained by the prediction method.
【請求項2】出力雑音予測値は、前記算出雑音予測値に
対して、信号部分の初期値よりも、信号部分の終了時に
近づくほど、減少することを特徴とする請求項1記載の
雑音予測装置。
2. The noise prediction according to claim 1, wherein the output noise prediction value decreases with respect to the calculated noise prediction value as it approaches the end of the signal portion, rather than the initial value of the signal portion. Device.
【請求項3】算出雑音予測値に対する出力雑音予測値の
減少の程度は、周波数チャンネル毎に、その周波数チャ
ンネル毎の雑音混じりの信号のレベルの大きさに対応し
て決められることを特徴とする請求項1記載の雑音予測
装置。
3. The degree of reduction of the output noise predicted value with respect to the calculated noise predicted value is determined for each frequency channel in accordance with the level of the noise-mixed signal for each frequency channel. The noise prediction device according to claim 1.
【請求項4】周波数チャンネル毎の前記レベルは、雑音
混じりの信号を帯域分割した信号に基づいて判定される
ことを特徴とする請求項3記載の雑音予測装置。
4. The noise prediction device according to claim 3, wherein the level for each frequency channel is determined based on a signal obtained by dividing a noise-containing signal into bands.
【請求項5】周波数チャンネル毎の前記レベルは、雑音
混じり信号から直接判定されることを特徴とする請求項
3記載の雑音予測装置。
5. The noise prediction device according to claim 3, wherein the level for each frequency channel is determined directly from the noise-mixed signal.
【請求項6】雑音混じりの音声入力信号を帯域分割する
帯域分割手段と、その帯域分割手段の出力をケプストラ
ム分析するケプストラム分析手段と、そのケプストラム
分析手段のケプストラム分析出力におけるケプストラム
ピークを検出するピーク検出手段と、前記ケプストラム
分析手段のケプストラム分析出力における平均値レベル
を算出する平均値算出手段と、前記ピーク検出手段のピ
ーク検出情報と前記平均値算出手段の平均値情報に基づ
いて、前記ピークに基づき母音を判定し、前記平均値情
報のレベルに基づき子音を判定して、母音、子音を判定
する母音/子音判定手段と、その母音/子音判定手段で
の判定結果を利用して音声部分を判別する音声判別手段
と、その音声判別手段の結果を利用して雑音区間を設定
する雑音区間設定手段と、前記帯域分割手段で帯域分割
された信号に付いて、前記雑音区間設定手段により設定
された雑音区間の雑音データを利用して、音声区間の雑
音を予測する雑音予測手段とを備えたことを特徴とする
信号処理装置。
6. Band division means for dividing a noise-containing audio input signal into bands; cepstrum analysis means for performing cepstrum analysis on the output of the band division means; and a peak for detecting a cepstrum peak in the cepstrum analysis output of the cepstrum analysis means. a detection means; an average value calculation means for calculating an average level in the cepstrum analysis output of the cepstrum analysis means; a vowel/consonant determining means for determining vowels and consonants by determining vowels based on the level of the average value information, and a vowel/consonant determining means for determining vowels and consonants based on the level of the average value information; a noise section setting section for setting a noise section using the result of the speech discriminating section; and a noise section setting section for setting a noise section using the result of the speech discriminating section; 1. A signal processing device comprising: noise prediction means for predicting noise in a voice section using noise data in the noise section obtained by
【請求項7】帯域分割手段によって、帯域分割された信
号から、前記雑音予測手段によって予測された雑音を差
し引くキャンセル手段と、そのキャンセル手段の出力を
帯域合成する帯域合成手段とを備えたことを特徴とする
請求項6記載の信号処理装置。
7. A method comprising a canceling means for subtracting the noise predicted by the noise predicting means from the band-divided signal by the band dividing means, and a band synthesizing means for band-synthesizing the output of the canceling means. 7. The signal processing device according to claim 6.
【請求項8】帯域合成手段によって帯域合成された信号
から、音声を切り出し、特徴を抽出し、基準となる特徴
と比較することによって、音声認識を行うことを特徴と
する請求項7記載の信号処理装置。
8. The signal according to claim 7, wherein speech recognition is performed by cutting out speech from the signal band-synthesized by the band synthesis means, extracting features, and comparing with reference features. Processing equipment.
【請求項9】母音/子音判定手段は、少なくとも前記ピ
ーク検出手段での検出ピーク及びシュレスホールド設定
手段が設定したシュレスホールド値とを比較する第1比
較器と、前記平均値算出手段による算出平均値及び前記
シュレスホールド設定手段で設定された所定のシュレス
ホールド値を比較する第2比較器と、それら第1、第2
比較器の比較結果に基づき、母音、子音を判定し結果を
出力する母音/子音判定回路とを備えたことを特徴とす
る請求項6記載の信号処理装置。
9. The vowel/consonant determining means includes at least a first comparator that compares the peak detected by the peak detecting means and a threshold value set by the threshold setting means; a second comparator for comparing the calculated average value and a predetermined threshold value set by the threshold setting means;
7. The signal processing device according to claim 6, further comprising a vowel/consonant determination circuit that determines vowels and consonants based on the comparison results of the comparator and outputs the results.
【請求項10】母音/子音判定手段は、少なくとも前記
ピーク検出手段での検出ピーク及び前記シュレスホール
ド設定手段が設定したシュレスホールド値とを比較する
第1比較器と、前記平均値算出手段による算出平均値及
び前記シュレスホールド設定手段で設定された所定のシ
ュレスホールド値を比較する第2比較器と、それら第1
、第2比較器の比較結果に基づき、母音、子音を判定し
結果を出力する母音/子音判定回路とを備えたことを特
徴とする請求項7記載の信号処理装置。
10. The vowel/consonant determining means includes at least a first comparator for comparing the peak detected by the peak detecting means and the threshold value set by the threshold setting means, and the average value calculating means. a second comparator for comparing the average value calculated by the threshold value and a predetermined threshold value set by the threshold setting means;
8. The signal processing device according to claim 7, further comprising a vowel/consonant determination circuit that determines whether a vowel or a consonant is determined based on the comparison result of the second comparator and outputs the result.
JP3120746A 1990-05-28 1991-05-27 Noise predicting device Pending JPH04230798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3120746A JPH04230798A (en) 1990-05-28 1991-05-27 Noise predicting device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2-138052 1990-05-28
JP13805290 1990-05-28
JP2-138051 1990-05-28
JP13805190 1990-05-28
JP3120746A JPH04230798A (en) 1990-05-28 1991-05-27 Noise predicting device

Publications (1)

Publication Number Publication Date
JPH04230798A true JPH04230798A (en) 1992-08-19

Family

ID=27314111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3120746A Pending JPH04230798A (en) 1990-05-28 1991-05-27 Noise predicting device

Country Status (1)

Country Link
JP (1) JPH04230798A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440891B1 (en) 1997-03-06 2008-10-21 Asahi Kasei Kabushiki Kaisha Speech processing method and apparatus for improving speech quality and speech recognition performance
JP2010539538A (en) * 2007-09-12 2010-12-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Speech enhancement with adjustment of noise level estimate
JP2011141890A (en) * 2001-10-09 2011-07-21 Immersion Corp Haptic feedback sensation based on audio output from computer device
JP2012113164A (en) * 2010-11-25 2012-06-14 Sharp Corp Voice processing device and image processing apparatus equipped therewith

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440891B1 (en) 1997-03-06 2008-10-21 Asahi Kasei Kabushiki Kaisha Speech processing method and apparatus for improving speech quality and speech recognition performance
JP2011141890A (en) * 2001-10-09 2011-07-21 Immersion Corp Haptic feedback sensation based on audio output from computer device
JP2010539538A (en) * 2007-09-12 2010-12-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Speech enhancement with adjustment of noise level estimate
JP2012113164A (en) * 2010-11-25 2012-06-14 Sharp Corp Voice processing device and image processing apparatus equipped therewith

Similar Documents

Publication Publication Date Title
KR950013551B1 (en) Noise signal predictting dvice
EP0763812B1 (en) Speech signal processing apparatus for detecting a speech signal from a noisy speech signal
Graf et al. Features for voice activity detection: a comparative analysis
US5228088A (en) Voice signal processor
US10783899B2 (en) Babble noise suppression
KR960007842B1 (en) Voice and noise separating device
KR960005740B1 (en) Voice signal processing device
KR950013553B1 (en) Voice signal processing device
JPH08221092A (en) Nose eliminating system using spectral subtraction
JP3106543B2 (en) Audio signal processing device
US20030046069A1 (en) Noise reduction system and method
JPH04230798A (en) Noise predicting device
JP2007093635A (en) Known noise removing device
JPH04230796A (en) Voice signal processor
JPH04227338A (en) Voice signal processing unit
RU2174714C2 (en) Method for separating the basic tone
KR950013555B1 (en) Voice signal processing device
JP2959792B2 (en) Audio signal processing device
JPH1097288A (en) Background noise removing device and speech recognition system
Waardenburg et al. The automatic recognition of stop consonants using hidden Markov models
KR950001067B1 (en) Speech recognition device
Graf et al. Kurtosis-Controlled Babble Noise Suppression
Zenteno et al. Robust voice activity detection algorithm using spectrum estimation and dynamic thresholding
Deng et al. Using predictive differential power spectrum and subband mel-spectrum centroid for robust speaker recognition in stationary noises
KR20010046522A (en) An apparatus and method for real - time speech detection using pitch information