JP2013178570A - Method and apparatus for removing noise from electronic signal - Google Patents

Method and apparatus for removing noise from electronic signal Download PDF

Info

Publication number
JP2013178570A
JP2013178570A JP2013107341A JP2013107341A JP2013178570A JP 2013178570 A JP2013178570 A JP 2013178570A JP 2013107341 A JP2013107341 A JP 2013107341A JP 2013107341 A JP2013107341 A JP 2013107341A JP 2013178570 A JP2013178570 A JP 2013178570A
Authority
JP
Japan
Prior art keywords
signal
noise
transfer function
acoustic
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013107341A
Other languages
Japanese (ja)
Inventor
Gregory C Burnett
バーネット,グレゴリー・シー
Eric F Breitfeller
ブレイトフェラー,エリック・エフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AliphCom LLC
Original Assignee
AliphCom LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AliphCom LLC filed Critical AliphCom LLC
Publication of JP2013178570A publication Critical patent/JP2013178570A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02168Noise filtering characterised by the method used for estimating noise the estimation exclusively taking place during speech pauses
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and system for removing acoustic noise from human speech, in which noise is removed irrespective of the type, magnitude or orientation of noise to restore a signal after the removal.SOLUTION: A system includes a microphone and a sensor connected to a processor. The microphone receives acoustic signals and a VAD supplies a signal of a binary 1 when speech (both voiced and unvoiced) is occurring and of a binary 0 in the absence of speech. The processor includes a denoising algorithm, and it generates transfer functions. The transfer functions include a transfer function generated in response to a determination that voicing information is not present in the acoustic signal received during a specified time period. Also, the transfer functions include a transfer function generated in response to a determination that voicing information is present in the acoustic signal during a specified time period. At least one denoised acoustic data stream is generated using the transfer functions.

Description

本発明は、音響的な伝送または録音から望ましくない音響ノイズを除去あるいは抑制するための数学的方法並びに電子的システムに関するものである。   The present invention relates to mathematical methods and electronic systems for removing or suppressing undesirable acoustic noise from acoustic transmissions or recordings.

代表的な音響用途においては、人間のユーザからのスピーチは、録音されるかあるいは格納されそして様々な場所にいる受け手に送信される。   In typical acoustic applications, speech from a human user is recorded or stored and transmitted to recipients at various locations.

そのユーザの環境においては、問題とする信号(ユーザのスピーチ)を、望まない音響ノイズで汚染する1つまたはこれより多いノイズ・ソースが存在することがある。これは、受け手が人であろうと機械であろうと、その受け手がユーザのスピーチを理解するのを困難にしたりあるいは不可能にしたりする。このことは、特に、セルラ電話およびパーソナル・デジタル・アシスタントのようなポータブル通信デバイスの普及と共に、現在特に問題となっている。これらノイズ付加物を抑制する既存の方法があるが、これらは、いずれも、長過ぎる計算時間あるいは嵩張るハードウェアを必要としたり、問題の信号を歪ませ過ぎたり、あるいは有用な性能に欠けたりするものである。これら方法の多くは、ヴァセギ(Vaseghi)による“先進のデジタル信号処理およびノイズ低減(Advanced Digital Signal Processing and Noise Reduction)”(ISBN 0-471-62692-9)の教本に記載されている。結果として、代表的なシステムの上記欠点に対処しそして歪みなしで問題の音響信号をクリーンにする新たな技術を提供するノイズ除去および低減法に対するニーズがあることになる。   In that user's environment, there may be one or more noise sources that contaminate the signal of interest (user's speech) with unwanted acoustic noise. This makes it difficult or impossible for the recipient to understand the user's speech, whether the recipient is a person or a machine. This is currently a particular problem, particularly with the proliferation of portable communication devices such as cellular telephones and personal digital assistants. There are existing ways to suppress these noise adjuncts, all of which require too long computation time or bulky hardware, distort the signal in question too much, or lack useful performance Is. Many of these methods are described in the textbook "Advanced Digital Signal Processing and Noise Reduction" (ISBN 0-471-62692-9) by Vaseghi. As a result, there is a need for a denoising and reduction method that addresses the above shortcomings of typical systems and provides a new technique for cleaning the acoustic signal in question without distortion.

人間のスピーチからの音響ノイズの除去のための方法およびシステムを提供し、これにおいては、ノイズ・タイプ、大きさあるいは方位に無関係にノイズを除去してその信号を復元する。本システムは、プロセッサに結合したマイクロホンおよびセンサを備える。マイクロホンは、ノイズと人間の信号ソースからのスピーチ信号の両方を含む音響信号を受ける。センサは、二進の発声活動検出(VAD)を発生し、これは、スピーチ(有声および無声の両方)が生起しているとき二進“1”であり、そしてスピーチが生起していないとき二進“0”の信号を供給する。このVAD信号は、種々の方法、例えば音響利得、加速度計、および無線周波(RF)センサを使用して得ることができる。   A method and system is provided for the removal of acoustic noise from human speech, in which noise is removed and its signal restored regardless of noise type, magnitude or orientation. The system includes a microphone and a sensor coupled to the processor. The microphone receives an acoustic signal that includes both noise and a speech signal from a human signal source. The sensor generates binary vocal activity detection (VAD), which is binary “1” when speech (both voiced and unvoiced) is occurring and two when speech is not occurring. Supply a signal with a decimal "0". This VAD signal can be obtained using various methods, such as acoustic gain, accelerometers, and radio frequency (RF) sensors.

このプロセッサ・システムおよび方法は、デノイズ処理アルゴリズム(denoizing algorithm)を備え、これは、ノイズ・ソースとマイクロホンとの間の伝達関数、並びに人間のユーザとマイクロホンとの間の伝達関数を計算する。これら伝達関数を使用することにより、受けた音響信号からノイズを除去して、少なくとも1つのデノイズ処理した音響データ・ストリームを発生する。   The processor system and method includes a denoizing algorithm that calculates a transfer function between a noise source and a microphone, as well as a transfer function between a human user and a microphone. By using these transfer functions, noise is removed from the received acoustic signal to generate at least one denoised acoustic data stream.

図1は、1実施形態のデノイズ・システムのブロック図。FIG. 1 is a block diagram of a denoising system according to one embodiment. 図2は、単一のノイズ・ソースとマイクロホンへの直接経路を想定したときの、1実施形態のノイズ除去アルゴリズムのブロック図。FIG. 2 is a block diagram of an embodiment denoising algorithm assuming a single noise source and a direct path to the microphone. 図3は、n個の区別できるノイズ・ソース(これらノイズ・ソースは、互いに他のものの反射またはエコーであることもある)に一般化した、1実施形態のノイズ除去アルゴリズムのフロントエンドのブロック図。FIG. 3 is a block diagram of a front end of an embodiment denoising algorithm generalized to n distinct noise sources (these noise sources may be reflections or echoes of each other). . 図4は、n個の区別できるノイズ・ソースと信号反射とがある最も一般的なケースにおける、1実施形態のノイズ除去アルゴリズムのフロントエンドのブロック図。FIG. 4 is a block diagram of the front end of one embodiment of the denoising algorithm in the most general case where there are n distinct noise sources and signal reflections. 図5は、1実施形態のデノイズ方法のフロー図。FIG. 5 is a flowchart of a denoising method according to one embodiment. 図6は、空港ターミナルのノイズ(他の多くの話しをする人および公共のアナウンスを含む)の存在下でのアメリカの英語を話す女性に対しての、1実施形態のノイズ抑制アルゴリズムの結果を示す。FIG. 6 shows the results of one embodiment of the noise suppression algorithm for an American English-speaking woman in the presence of airport terminal noise (including many other speakers and public announcements). Show.

図1は、1実施形態のデノイズ処理システム(denoising system)のブロック図であって、このシステムは、発声活動に関する生理学的情報から得た、いつスピーチが生起しているかについての知識を使用する。本システムは、複数のマイクロホン10と複数のセンサ20とを備え、そしてこれらは、少なくとも1つのプロセッサ30へ信号を供給する。プロセッサは、デノイズ処理を行うサブシステムまたはアルゴリズムを備えている。   FIG. 1 is a block diagram of one embodiment of a denoising system that uses knowledge about when speech is occurring, derived from physiological information about vocal activity. The system includes a plurality of microphones 10 and a plurality of sensors 20 that supply signals to at least one processor 30. The processor includes a subsystem or algorithm that performs denoising processing.

図2は、単一のノイズ・ソースとマイクロホンへの直接経路を仮定したときの、1実施形態のノイズ除去システム/アルゴリズムのブロック図である。このノイズ除去システム図は、1実施形態のこのプロセスの図式記述を含み、単一の信号ソース(100)と、単一のノイズ・ソース(101)とがある。このアルゴリズムは、2つのマイクロホン、すなわち“信号”マイクロホン(MIC1,102)と、“ノイズ”マイクロホン(MIC2,103)とを使用する(但し、これに限定されるものではない)。MIC1は、大部分の信号といくらかのノイズを捕獲する一方で、MIC2は、大部分のノイズといくらかの信号とを捕獲すると仮定する。これは、従来の先進の音響システムと共通の構成である。MIC1への信号からのデータはs(n)で示し、MIC2への信号からのデータはs(n)で示し、MIC2へのノイズからのデータはn(n)で示し、MIC1へのノイズからのデータはn(n)で示している。同様に、MIC1からのデータはm(n)で、そしてMIC2からのデータはm(n)で示し、ここで、s(n)はソースからのアナログ信号の離散的なサンプルを示している。 FIG. 2 is a block diagram of one embodiment of a denoising system / algorithm assuming a single noise source and direct path to the microphone. This denoising system diagram includes a schematic description of this process of one embodiment, with a single signal source (100) and a single noise source (101). The algorithm uses (but is not limited to) two microphones: a “signal” microphone (MIC1, 102) and a “noise” microphone (MIC2, 103). Assume that MIC1 captures most of the signal and some noise, while MIC2 captures most of the noise and some signal. This is a configuration common to conventional advanced acoustic systems. Data from the signal to MIC1 is denoted by s (n), data from the signal to MIC2 is denoted by s 2 (n), data from noise to MIC2 is denoted by n (n), and noise to MIC1 The data from are indicated by n 2 (n). Similarly, data from MIC1 is denoted m 1 (n) and data from MIC2 is denoted m 2 (n), where s (n) represents a discrete sample of the analog signal from the source. Yes.

信号からMIC1への伝達関数およびノイズからMIC2への伝達関数は、1であると仮定するが、信号からMIC2への伝達関数はH(z)、ノイズからMIC1への伝達関数はH(z)で示す。1の伝達関数のこの仮定は、このアルゴリズムの一般性を妨げるものでなく、その理由は、信号とノイズとマイクロホンとの実際の関係が単に比率であり、そしてこの比率は、簡単のためこのようにして再定義されるからである。 It is assumed that the transfer function from the signal to MIC1 and the transfer function from noise to MIC2 is 1, but the transfer function from signal to MIC2 is H 2 (z), and the transfer function from noise to MIC1 is H 1 ( z). This assumption of unity transfer function does not preclude the generality of the algorithm because the actual relationship between signal, noise and microphone is simply a ratio, and this ratio is It is because it is redefined.

従来のノイズ除去システムにおいては、MIC2からの情報は、MIC1からのノイズを除去しようとする試みにおいて使用されている。しかし、語られていない仮定は、発声活動検出(VAD(Voice Activity Detection))が決して完全ではないことであり、したがってそのデノイズ処理は、ノイズと一緒に信号をもかなり除去してしまうことのないよう、注意深く実行しなければならない。しかし、このVADが完全であり、そしてこれが、スピーチが全くユーザによって発されていないときにゼロに等しく、そしてスピーチが発生されているときに1に等しいと仮定すると、このノイズ除去においてかなりの改善を行うことができる。   In conventional denoising systems, information from MIC2 is used in an attempt to remove noise from MIC1. However, an unspoken assumption is that voice activity detection (VAD) is never perfect, so its denoising process does not significantly remove the signal along with the noise. Must be carried out carefully. However, assuming this VAD is perfect and it is equal to zero when no speech is being emitted by the user and equal to 1 when speech is being generated, there is a considerable improvement in this denoising. It can be performed.

マイクロホンへの単一のノイズ・ソースおよび直接経路の分析においては、図2において、MIC1へ入来する音響情報は、m(n)で示される。MIC2へ入来する情報は、同様にm(n)で示される。z(デジタル周波数)ドメインにおいては、これらは、M(z)およびM(z)として表される。このとき、 In the analysis of a single noise source and direct path to the microphone, in FIG. 2, the acoustic information coming into MIC1 is denoted m 1 (n). Information coming into MIC2 is similarly denoted m 2 (n). In the z (digital frequency) domain, these are represented as M 1 (z) and M 2 (z). At this time,

Figure 2013178570
Figure 2013178570

ここで、 here,

Figure 2013178570
Figure 2013178570

したがって、以下となる。 Therefore:

Figure 2013178570
Figure 2013178570

これは、2個のマイクロホン・システムの全てに対する一般的なケースである。実際のシステムでは、常に、MIC1へのノイズにいくらかの漏れと、MIC2への信号にいくらかの漏れとがある。式1には、未知数が4つで、既知の関係が2つしかないため、これを明快に解くことはできない。   This is the general case for all two microphone systems. In an actual system, there will always be some leakage in the noise to MIC1 and some leakage in the signal to MIC2. Since there are four unknowns and only two known relationships in Equation 1, this cannot be solved clearly.

しかし、式1中の未知数のいくつかに対し解を与える別の方法がある。この分析は、信号が発生されていないケース、すなわちVAD信号がゼロに等しくかつスピーチが発生されていない場合を調べることから始まる。このケースでは、s(n)=S(z)=0であり、したがって式1は、以下となる。   However, there are other ways to provide solutions for some of the unknowns in Equation 1. This analysis begins by examining the case where no signal is generated, ie, when the VAD signal is equal to zero and no speech is generated. In this case, s (n) = S (z) = 0, so Equation 1 becomes:

Figure 2013178570
Figure 2013178570

ここで、変数Mの下付文字nは、ノイズのみを受けていることを示す。これにより、以下となる。 Here, the subscript n of the variable M indicates that only noise is received. This results in the following:

Figure 2013178570
Figure 2013178570

(z)は、本システムがノイズのみを受信していることが確かであれば、利用可能なシステム識別アルゴリズムおよびマイクロホン出力の任意のものを使用して計算することができる。この計算は、適応的に行うことができ、これにより、本システムは、そのノイズにおける変化に反応することができる。 H 1 (z) can be calculated using any of the available system identification algorithms and microphone outputs if it is certain that the system is receiving only noise. This calculation can be done adaptively, which allows the system to react to changes in its noise.

式1中の未知数のうちの1つに対し、解がこれで入手可能である。別の未知数、すなわちH(z)は、VADが1に等しくしかもスピーチが発生されている場合を使用することにより、決定することができる。その場合が発生しているが、マイクロホンの最近(おそらく、1秒未満)の履歴が低レベルのノイズを示している場合、n(s)=N(z)〜0とみなすことができる。このとき、式1は、以下となる。 A solution is now available for one of the unknowns in Equation 1. Another unknown, H 2 (z), can be determined by using the case where VAD is equal to 1 and speech is being generated. If that happens, but the recent (probably less than 1 second) history of the microphone indicates a low level of noise, it can be considered n (s) = N (z) -0. At this time, Formula 1 is as follows.

Figure 2013178570
Figure 2013178570

これはさらに、以下となる。 This is further:

Figure 2013178570
Figure 2013178570

これは、H(z)の逆である。しかし、分かるように、異なった入力を使用している、すなわち、これでは、信号のみが発生しており、そしてこれに対し、以前では、ノイズのみが発生していた。H(z)の計算の間、H(z)に対し計算した値は、一定に保持し、そして逆の場合もそうである。したがって、H(z)およびH(z)は、その他方を計算している間は実質上変化しない、と仮定する。 This is the inverse of H 1 (z). However, as can be seen, different inputs are used, i.e., this only generated a signal, whereas previously, only noise was generated. During the calculation of H 2 (z), the value calculated for H 1 (z) remains constant and vice versa. Accordingly, it is assumed that H 1 (z) and H 2 (z) do not change substantially while the other is being calculated.

(z)およびH(z)を計算した後、これらは、信号からノイズを除去するのに使用する。もし、式1を以下にように書き直すと、 After calculating H 1 (z) and H 2 (z), they are used to remove noise from the signal. If Equation 1 is rewritten as

Figure 2013178570
Figure 2013178570

このとき、N(z)は、S(z)を解くために、示したように以下のように置換することができる。 At this time, N (z) can be substituted as shown below to solve S (z).

Figure 2013178570
Figure 2013178570

もし、伝達関数H(z)およびH(z)が十分な正確さで記述することができる場合、このときには、ノイズを完全に除去することができ、そして元の信号を復元することができる。このことは、ノイズの大きさまたはスペクトル特性に無関係に当てはまる。行った仮定は、完全なVAD、十分に正確なH(z)およびH(z)と、H(z)およびH(z)がその他方を計算しているときに実質上変化しない、ということのみである。実際、これら仮定は、妥当なものであると判明した。 If the transfer functions H 1 (z) and H 2 (z) can be described with sufficient accuracy, then the noise can be completely removed and the original signal can be restored. it can. This is true regardless of noise magnitude or spectral characteristics. The assumptions made are substantially VAD, sufficiently accurate H 1 (z) and H 2 (z) and substantially change when H 1 (z) and H 2 (z) are calculating the other It ’s just not. In fact, these assumptions proved to be valid.

記述したこのノイズ除去アルゴリズムは、任意の数のノイズ・ソースを含むように容易に一般化できる。図3は、n個の区別できるノイズ・ソースに対し一般化した、1実施形態のノイズ除去アルゴリズムのフロントエンドのブロック図である。これら区別できるノイズ・ソースは、互いの他の反射またはエコーであるとすることができる(但し、これに限定されるものではない)。図示したように、いくつかのノイズ・ソースがあり、その各々は、各マイクロホンに対し伝達関数または経路を有している。先に名称を付与した経路Hは、Hとしてラベルを付与しており、これにより、MIC1へのノイズ・ソース2の経路にラベルを付与することは、より都合よくなる。各マイクロホンの出力は、zドメインに変換したときには、以下となる。 The described denoising algorithm can be easily generalized to include any number of noise sources. FIG. 3 is a block diagram of a front end of an embodiment denoising algorithm generalized to n distinct noise sources. These distinguishable noise sources can be (but are not limited to) other reflections or echoes of each other. As shown, there are several noise sources, each having a transfer function or path for each microphone. The path H 2 previously assigned a name is labeled as H 0 , which makes it more convenient to label the path of noise source 2 to MIC 1. The output of each microphone is as follows when converted to the z domain.

Figure 2013178570
Figure 2013178570

信号が全くないとき(VAD=0)、このとき(簡単のためzを抑制する)、以下となる。 When there is no signal (VAD = 0), at this time (for the sake of simplicity, z is suppressed):

Figure 2013178570
Figure 2013178570

これにより、上記のH(z)と同じように、新たな伝達関数を定義することができる。 Thereby, a new transfer function can be defined in the same manner as H 1 (z).

Figure 2013178570
Figure 2013178570

したがって、H~ は、ノイズ・ソースとそれらの各々の伝達関数にのみ依存し、したがって伝送されている信号がないどのような時にも計算することができる。もう一度繰り返すと、マイクロホン入力の下付文字nは、ノイズが検出されていることのみを示し、その一方で、下付文字sは、信号のみをマイクロホンが受信していることを示している。 Thus, H ~ 1 depends only on the noise sources and their respective transfer functions and can therefore be calculated at any time when there is no signal being transmitted. Again, the subscript n of the microphone input indicates only that noise has been detected, while the subscript s indicates that the microphone is receiving only the signal.

ノイズが全く発生されていないと仮定している間において、式4を調べると、以下となる。   Examining Equation 4 while assuming that no noise is generated, the following is obtained.

Figure 2013178570
Figure 2013178570

したがって、Hは、任意の利用可能な伝達関数計算アルゴリズムを使って、前と同じように解くことができる。数学的には、以下となる。 Thus, H 0 can be solved as before using any available transfer function calculation algorithm. Mathematically:

Figure 2013178570
Figure 2013178570

式6で定義したH~ を使って、式4を書き直すと、以下となる。 Rewriting equation 4 using H ~ 1 defined in equation 6 yields:

Figure 2013178570
Figure 2013178570

Sに関し解くと、以下となる。 Solving for S gives:

Figure 2013178570
Figure 2013178570

これは、式3と同じとなり、ここで、HがHに取って代わり、H~ がHに取って代わっている。したがって、このノイズ除去アルゴリズムは、依然として、ノイズ・ソースの多数のエコーを含む任意の数のノイズ・ソースに対し、数学的に有効である。再び、HとH~ を十分に高い正確さで推定することができ、そして信号からマイクロホンに対しての経路が1つのみであるという仮定が保たれる場合、ノイズは、完全に除去することができる。 , Should be the same as Equation 3, where, H 0 is replaces the H 2, H ~ 1 are replaced the H 1. Thus, this denoising algorithm is still mathematically effective for any number of noise sources including multiple echoes of the noise source. Again, H 0 and H ~ 1 can be estimated with sufficiently high accuracy, and if the assumption that there is only one path from the signal to the microphone, the noise is completely removed. can do.

最も一般的なケースは、多数のノイズ・ソースと多数の信号ソースが関係する場合である。図4は、n個の区別できるノイズ・ソースおよび信号反射とがある最も一般的なケースにおける、1実施形態のノイズ除去アルゴリズムのフロントエンドのブロック図である。ここで、信号の反射は、両方のマイクロホンに入る。これは、最も一般的なケースであるが、それは、マイクロホンへのノイズ・ソースの反射が、単純な追加のノイズ・ソースとして正確にモデル化できるからである。簡単のため、信号からMIC2への直接経路は、H(z)からH00(z)に変えてあり、そしてマイクロホン1および2へのその反射経路は、それぞれ、H01(z)およびH02(z)として示している。 The most common case is when multiple noise sources and multiple signal sources are involved. FIG. 4 is a block diagram of the front end of one embodiment of the denoising algorithm in the most general case where there are n distinct noise sources and signal reflections. Here, the reflection of the signal enters both microphones. This is the most common case because the reflection of the noise source to the microphone can be accurately modeled as a simple additional noise source. For simplicity, the direct path from the signal to MIC2 has been changed from H 0 (z) to H 00 (z), and its reflection paths to microphones 1 and 2 are H 01 (z) and H respectively. 02 (z).

これにより、マイクロホンへの入力は、以下となる。   Thereby, the input to the microphone is as follows.

Figure 2013178570
Figure 2013178570

VAD=0のとき、それら入力は、以下となる(zを再び抑制する)。 When VAD = 0, the inputs are as follows (suppress z again):

Figure 2013178570
Figure 2013178570

これは、式5と同じである。したがって、式6におけるH~ の計算は、予期した通り、変化しない。ノイズがないこの状況を検討すると、式9は、以下となる。 This is the same as Equation 5. Therefore, the calculation of H ~ 1 in Equation 6 does not change as expected. Considering this situation without noise, Equation 9 becomes:

Figure 2013178570
Figure 2013178570

これは、H~ の定義となる。 This is the definition of H ~ 2 .

Figure 2013178570
Figure 2013178570

再び、(式7におけるのと同じように)H~ に対する定義を使用して式9を書き直すと、以下となる。 Again, rewriting Equation 9 using the definition for H ~ 1 (as in Equation 7) yields:

Figure 2013178570
Figure 2013178570

いくらかの代数的操作により、以下のようになる。 With some algebraic manipulation:

Figure 2013178570
Figure 2013178570

最後には、以下となる。 Finally,

Figure 2013178570
Figure 2013178570

式12は、式8と同じであるが、但し、HがH~ で置き換わっており、また、(1+H01)の要素が左辺に追加されている。この余分な要素は、Sがこの状況では直接解くことができないということを意味しているが、解は、信号にそのエコーの全ての追加に対し生成することができる。このことは、それほど悪い状況ではないが、それは、エコー抑制を取り扱う多くの従来の方法があるからであり、そしてこれらエコーが抑制されない場合でも、それらがスピーチの理解度に意味のある程度にまで影響を与えることは起きそうにない。H~ のより複雑な計算は、マイクロホン2における信号エコーを考慮する必要がある。 Equation 12 is the same as Equation 8, except, H 0 are replaced by H ~ 2, it has also been added to the left side elements of the (1 + H 01). This extra factor means that S cannot be solved directly in this situation, but a solution can be generated for every addition of that echo to the signal. This is not a bad situation, because there are many traditional ways of dealing with echo suppression, and even if these echoes are not suppressed, they have a significant impact on speech comprehension. Is unlikely to happen. More complex calculations of H ~ 2 need to take into account signal echoes in microphone 2.

図5は、1実施形態のデノイズ処理方法のフロー図である。動作を説明すると、音響信号を受ける(502)。さらに、人の発声活動に関連する生理学的情報を受ける(504)。音響信号からの発声情報が少なくとも1つの指定した時間の間存在しないと判定したときに、音響信号を表す第1の伝達関数を計算する(506)。音響信号を表す第2の伝達関数は、この音響信号において発声情報が少なくとも1つの指定した時間の間存在すると判定したときに、計算する(508)。この音響信号からのノイズの除去は、第1伝達関数と第2伝達関数の少なくとも1つの組み合わせを使用して行い、これによりデノイズ処理した音響データ・ストリームを発生する(510)。   FIG. 5 is a flowchart of a denoising method according to one embodiment. In operation, an acoustic signal is received (502). In addition, physiological information related to the person's vocal activity is received (504). When it is determined that utterance information from the acoustic signal does not exist for at least one specified time, a first transfer function representing the acoustic signal is calculated (506). A second transfer function representing the acoustic signal is calculated (508) when it is determined that utterance information exists in the acoustic signal for at least one specified time. The removal of noise from the acoustic signal is performed using at least one combination of the first transfer function and the second transfer function, thereby generating a denoised acoustic data stream (510).

ノイズ除去のためのアルゴリズム、すなわちデノイズ処理アルゴリズムは、直接経路をもつ単一のノイズ・ソースの最も単純なケースから、反射およびエコーをもつ多数のノイズ・ソースまでここに記述した。このアルゴリズムは、どのような環境条件下においても実行可能であることを示した。ノイズのタイプおよび量は、H~ およびH~ について良好な推定を行った場合で、しかもそれらが他方の計算中に実質上変化しない場合には、重要ではない。ユーザ環境が、エコーが存在するようなものである場合、それらは、ノイズ・ソースから来たものである場合には、補償を行うことができる。もし、信号エコーも存在する場合、それらは、クリーンにした信号に影響を与えるが、その影響は、ほとんどの環境においては、無視できる程度のものである。 An algorithm for denoising, or denoising algorithm, has been described here, from the simplest case of a single noise source with a direct path to multiple noise sources with reflections and echoes. This algorithm has been shown to be executable under any environmental conditions. The type and amount of noise is not important if good estimates are made for H ~ 1 and H ~ 2 , and if they do not change substantially during the other calculation. If the user environment is such that echoes are present, they can be compensated if they come from a noise source. If signal echoes are also present, they affect the cleaned signal, but the effect is negligible in most environments.

動作について説明すると、1実施形態のアルゴリズムは、様々なノイズのタイプ、大きさ、方位の取り扱いにおいて、優れた結果を示した。しかし、数学的概念からエンジニアリング用途へ移行するときには、常に近似および調節を行わなければならない。式3では、1つの仮定を行っており、これでは、H(z)は小さく、したがってH(z)H(z)≒0と仮定し、このため、式3は、以下のようになる。 In operation, the algorithm of one embodiment has shown excellent results in handling various noise types, magnitudes and orientations. However, approximations and adjustments must always be made when moving from mathematical concepts to engineering applications. Equation 3 makes one assumption, which assumes that H 2 (z) is small and therefore H 2 (z) H 1 (z) ≈0, so Equation 3 is become.

Figure 2013178570
Figure 2013178570

このことは、H(z)のみ計算しなければならないことを意味し、これにより、本プロセスをスピードアップし、そして必要な計算数をかなり減少させる。マイクロホンを適切に選択すれば、この近似は容易に実現することができる。 This means that only H 1 (z) must be calculated, thereby speeding up the process and significantly reducing the number of calculations required. This approximation can be easily realized if the microphone is selected appropriately.

もう1つの近似は、1実施形態において使用するフィルタに関係する。実際のH(z)は、疑いなく、極とゼロの両方を有することになるが、しかし、安定性および簡単さのためには、全ゼロの有限インパルス応答(FIR)フィルタを使用する。十分なタップ(およそ60)では、実際のH(z)に対する近似は、非常に良好となる。 Another approximation relates to the filter used in one embodiment. The actual H 1 (z) will undoubtedly have both poles and zeros, but for stability and simplicity, an all-zero finite impulse response (FIR) filter is used. With enough taps (approximately 60), the approximation to the actual H 1 (z) is very good.

サブバンド選択に関しては、伝達関数を計算しなければならない周波数範囲が広くなるにつれて、それを正確に計算することがより難しくなる。したがって、音響データは、16個のサブバンドに分割し、そして最も低い周波数を50Hz、最も高いものを3700とした。次に、本デノイズ処理アルゴリズムを各サブバンドに順番に適用し、そしてこの16個のデノイズ処理したデータ・ストリームを組み合わせることによって、デノイズ処理した音響データを発生した。これは、非常にうまく機能するが、サブバンドのどのような組み合わせ(すなわち、4,6,8,32個の等しく離間させ、知覚できる程離間させたもの)も使用でき、そしてこれは、同様に機能することが分かった。   With respect to subband selection, it becomes more difficult to calculate accurately as the frequency range over which the transfer function must be calculated becomes wider. Therefore, the acoustic data was divided into 16 subbands, and the lowest frequency was 50 Hz and the highest was 3700. Next, the denoising algorithm was applied to each subband in turn, and the 16 denoising data streams were combined to generate denoising acoustic data. This works very well, but any combination of subbands (ie 4, 6, 8, 32 equally spaced and perceptually spaced) can be used, and this is similar It turned out to work.

ノイズの大きさは、1実施形態においては抑制することにより、使用したマイクロホンが飽和(すなわち、線形応答領域外での動作)しないようにした。重要なことは、マイクロホンが線形に動作することによって、最良の性能を確保することである。この抑制を伴う場合でも、非常に高い信号対雑音比(SNR)のテストを行うことができた(約−10dBまで)。   The magnitude of the noise is suppressed in one embodiment so that the used microphone does not saturate (ie, operate outside the linear response region). The important thing is to ensure the best performance by the linear operation of the microphone. Even with this suppression, very high signal-to-noise ratio (SNR) tests could be performed (up to about -10 dB).

(z)の計算は、最小二乗平均法(LMS)、一般的な適応性伝達関数を使用して、10ミリ秒毎に実行した。この説明は、Prentice-Hall発行のWidrowおよびStearnsによる“適応性信号処理(Adaptive Signal Processing)”(1985),ISBN0-13-004029-0に見ることができる。 The calculation of H 1 (z) was performed every 10 milliseconds using the least mean square method (LMS), a general adaptive transfer function. This explanation can be found in “Adaptive Signal Processing” (1985), ISBN0-13-004029-0 by Widrow and Stearns, published by Prentice-Hall.

1実施形態に対するVADは、無線周波数センサおよび2つのマイクロホンから得て、これにより、有声のスピーチおよび無声のスピーチの両方に対し、非常に高い正確さ(>99%)を発生した。1実施形態に対するこのVADは、無線周波数(RF)干渉計を使用して、人のスピーチ発生に関係する組織運動を検出する(但しこれに限定されるものではない)。したがって、これは、完全に音響ノイズなしであり、このため、どのような音響ノイズ環境においても機能することができる。簡単なエネルギ測定を使用することにより、有声スピーチが生起しているかどうかを判定することができる。無声スピーチは、有声部分への近さにより、または上記の組み合わせによって、従来の周波数ベースの方法を使用して判定することができる。無声スピーチには、それほど多くのエネルギがないため、その活性化の正確さは、有声スピーチ程には重要でない。   The VAD for one embodiment was obtained from a radio frequency sensor and two microphones, which generated very high accuracy (> 99%) for both voiced and unvoiced speech. This VAD for one embodiment uses a radio frequency (RF) interferometer to detect (but is not limited to) tissue motion related to human speech generation. This is therefore completely acoustic noise free and can therefore function in any acoustic noise environment. By using simple energy measurements, it can be determined whether voiced speech is occurring. Unvoiced speech can be determined using conventional frequency-based methods by proximity to the voiced portion or by a combination of the above. Since unvoiced speech does not have that much energy, its activation accuracy is not as important as voiced speech.

有声スピーチおよび無声スピーチを信頼性良く検出することにより、1実施形態のアルゴリズムを実現することができる。ここで再び、ノイズ除去アルゴリズムは、VADを得る方法に依存しないこと、これは有声スピーチに対しては特に正確であることのみを繰り返すことは有益である。もしスピーチが検出されずしかもトレーニングがそのスピーチに対して起きる場合、その後続のデノイズ処理された音響データは、歪むことがある。   By detecting voiced speech and unvoiced speech with high reliability, the algorithm of one embodiment can be realized. Here again, it is beneficial to repeat only that the denoising algorithm does not depend on the method of obtaining the VAD, which is particularly accurate for voiced speech. If no speech is detected and training occurs for that speech, the subsequent denoising acoustic data may be distorted.

データは、4つのチャンネルで、すなわち、MIC1に対して1つ、MIC2に対して1つ、有声スピーチに関連する組織運動を検出する無線周波数センサに対して2つで、収集した。このデータは、40KHzで同時にサンプリングし、そして次に、デジタル的にフィルタしそして8KHzにデシメートした。この高いサンプリング・レートを使用することによって、このアナログ−デジタル・プロセスから生じることのあるどのようなエリアシングも低減するようにした。4チャンネルのナショナル・インスツルメンツのA/Dボード(National Instruments A/D board)を、Labviewと共に使用して、上記データをキャプチャし格納した。このデータは、次にCプログラムに読み込み、そして一時に10ミリ秒デノイズ処理した。   Data was collected on four channels, one for MIC1, one for MIC2, and two for radio frequency sensors that detect tissue motion associated with voiced speech. This data was sampled simultaneously at 40 KHz and then digitally filtered and decimated to 8 KHz. By using this high sampling rate, any aliasing that could result from this analog-to-digital process was reduced. A 4-channel National Instruments A / D board was used with Labview to capture and store the data. This data was then loaded into the C program and denoised for 10 milliseconds at a time.

図6は、空港ターミナルのノイズ(他の多くの話しをする人および公共のアナウンスを含む)の存在下でのアメリカの英語を話す女性に対しての、1実施形態のノイズ抑制アルゴリズムの結果を示している。この話し手は、中位の空港ターミナル・ノイズの真っ只中で、番号406−5562を発している。汚れた音響データは、一時に10ミリ秒デノイズ処理し、そしてデータの10ミリ秒のデノイズ処理の前に50〜3700Hzにプレフィルタ処理した。およそ17dBのノイズ低減が明かとなった。このサンプルには、ポストフィルタ処理は行わなかったため、実現したノイズ低減は全て、1実施形態のこのアルゴリズムに起因するものである。本アルゴリズムは、ノイズに瞬時に適応し、したがって他の人の話者の非常に困難なノイズを除去する能力がある。多くの異なったタイプのノイズ(ほんのいくつかを挙げると、ストリートのノイズ、ヘリコプター、音楽、正弦波)は、その全てをテストしたが、同様の結果となった。また、ノイズの方位は、ノイズ抑制性能を有意に変化させずとも、実質的に変化させることができる。最後に、クリーンにしたスピーチの歪みは、非常に低く、スピーチ認識エンジン並びに人間の受け手に対しても同様に、良好な性能を確保する。   FIG. 6 shows the results of one embodiment of the noise suppression algorithm for an American English-speaking woman in the presence of airport terminal noise (including many other speakers and public announcements). Show. The speaker is calling the number 406-5562 in the middle of the middle airport terminal noise. Dirty acoustic data was denoised 10 milliseconds at a time and prefiltered to 50-3700 Hz prior to 10 millisecond denoising of the data. A noise reduction of about 17 dB was revealed. Since this sample was not post-filtered, all realized noise reduction is due to this algorithm of one embodiment. The algorithm adapts instantly to noise and is therefore capable of removing the very difficult noise of other people's speakers. Many different types of noise (street noise, helicopters, music, sine waves to name just a few) tested all of them, with similar results. Further, the noise direction can be substantially changed without significantly changing the noise suppression performance. Finally, clean speech distortion is very low, ensuring good performance for speech recognition engines as well as human recipients as well.

1実施形態のノイズ除去アルゴリズムは、どのような環境条件の下でも実行可能であることを示した。ノイズのタイプおよび量は、H~ およびH~ について良好な推定が行われた場合には、取るに足りない。もしユーザ環境が、エコーが存在するようなものである場合、これらがノイズ・ソースから来たものである場合にはそれを補償することができる。もし信号エコーも存在する場合、これらは、クリーンにした信号に影響を与えるが、その影響は、ほとんどの環境においては無視できるものである。 It has been shown that the noise removal algorithm of one embodiment can be performed under any environmental conditions. The type and amount of noise is negligible if a good estimate is made for H ~ 1 and H ~ 2 . If the user environment is such that echoes are present, they can be compensated if they come from noise sources. If signal echoes are also present, these will affect the cleaned signal, but the effect is negligible in most environments.

各種の実施形態について、図面を参照して説明したが、詳細な説明および図面は、限定を意図するものではない。記述した要素の種々の組み合わせについて示さなかったが、これらは、冒頭の特許請求の範囲に記載の本発明の範囲内にあるものである。   While various embodiments have been described with reference to the drawings, the detailed description and drawings are not intended to be limiting. Although various combinations of the described elements have not been shown, they are within the scope of the invention as set forth in the appended claims.

Claims (28)

音響信号からノイズを除去するノイズ除去方法であって、
複数の音響信号を受けるステップと、
人間の発声活動に関連した生理学的情報を受けるステップと、
少なくとも1つの指定された時間の間前記複数の音響信号に発声情報が存在しないと判定したときに、前記複数の音響信号を表す少なくとも1つの第1の伝達関数を発生するステップと、
少なくとも1つの指定された時間の間前記複数の音響信号に発声情報が存在すると判定したときに、前記複数の音響信号を表す少なくとも1つの第2の伝達関数を発生するステップと、
前記少なくとも1つの第1の伝達関数と前記少なくとも1つの第2の伝達関数との少なくとも1つの組み合わせを使用することにより、前記複数の音響信号からノイズを除去して、少なくとも1つのデノイズ処理した音響データ・ストリームを発生するステップと、
から成るノイズ除去方法。
A noise removal method for removing noise from an acoustic signal,
Receiving a plurality of acoustic signals;
Receiving physiological information related to human vocal activity;
Generating at least one first transfer function representing the plurality of acoustic signals when it is determined that utterance information is not present in the plurality of acoustic signals for at least one specified time;
Generating at least one second transfer function representative of the plurality of acoustic signals when it is determined that speech information is present in the plurality of acoustic signals for at least one specified time;
Using at least one combination of the at least one first transfer function and the at least one second transfer function to remove noise from the plurality of acoustic signals and to perform at least one denoising acoustic Generating a data stream; and
A noise removal method comprising:
請求項1記載の方法において、前記複数の音響信号は、少なくとも1つの関連するノイズ・ソース信号の少なくとも1つの反射と、少なくとも1つの音響ソース信号の少なくとも1つの反射とを含むこと、を特徴とするノイズ除去方法。   The method of claim 1, wherein the plurality of acoustic signals includes at least one reflection of at least one associated noise source signal and at least one reflection of at least one acoustic source signal. To remove noise. 請求項1記載の方法において、生理学的情報を受けるステップは、無線周波デバイス、電気グロットグラフ、超音波デバイス、音響喉当てマイクロホン、空気流検出器から成るグループから選択した少なくとも1つの検出器を使用することによって、人間の発声に関連する生理学的データを受けること、を含むことを特徴とするノイズ除去方法。   2. The method of claim 1, wherein the step of receiving physiological information uses at least one detector selected from the group consisting of a radio frequency device, an electrical grottograph, an ultrasonic device, an acoustic throat microphone, and an airflow detector. Receiving a physiological data related to human speech by performing a denoising method. 請求項1記載の方法において、複数の音響信号を受けるステップは、複数の独立に位置付けたマイクロホンを使用して受けること、を含むことを特徴とするノイズ除去方法。   2. The method of claim 1, wherein the step of receiving a plurality of acoustic signals includes receiving using a plurality of independently positioned microphones. 請求項1記載の方法において、ノイズを除去するステップは、さらに、前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数とを使用して少なくとも1つの第3の伝達関数を発生すること、を含むことを特徴とするノイズ除去方法。   The method of claim 1, wherein removing noise further generates at least one third transfer function using the at least one first transfer function and the at least one second transfer function. The noise removal method characterized by including. 請求項1記載の方法において、前記少なくとも1つの第1伝達関数の発生は、少なくとも1つの予め指定したインターバルの間において、前記少なくとも1つの第1伝達関数を再計算すること、を含むことを特徴とするノイズ除去方法。   The method of claim 1, wherein generating the at least one first transfer function comprises recalculating the at least one first transfer function during at least one pre-specified interval. Noise elimination method. 請求項1記載の方法において、前記少なくとも1つの第2伝達関数の発生は、少なくとも1つの予め指定したインターバルの間において、前記少なくとも1つの第2伝達関数を再計算すること、を含むことを特徴とするノイズ除去方法。   The method of claim 1, wherein generating the at least one second transfer function comprises recalculating the at least one second transfer function during at least one pre-specified interval. Noise elimination method. 請求項1記載の方法において、前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数の発生は、適応形技術と再帰的技術とから成るグループから選択した少なくとも1つの技術の使用を含むこと、を特徴とするノイズ除去方法。   The method of claim 1, wherein the generating of the at least one first transfer function and the at least one second transfer function comprises using at least one technique selected from the group consisting of adaptive techniques and recursive techniques. A noise removal method characterized by comprising: 電子的信号からノイズを除去するノイズ除去方法であって、
少なくとも1つの時間の間において発声情報の不在を検出するステップと、
前記少なくとも1つの時間の間において、少なくとも1つのノイズ・ソース信号を受けるステップと、
前記少なくとも1つのノイズ・ソース信号を表す少なくとも1つの伝達関数を発生するステップと、
音響信号とノイズ信号とを含む少なくとも1つの複合信号を受けるステップと、
前記少なくとも1つの複合信号から、前記少なくとも1つの伝達関数を使用して前記ノイズ信号を除去することにより、少なくとも1つのデノイズ処理された音響データ・ストリームを発生するステップと、
から成るノイズ除去方法。
A noise removal method for removing noise from an electronic signal,
Detecting the absence of utterance information during at least one time;
Receiving at least one noise source signal during said at least one time;
Generating at least one transfer function representative of the at least one noise source signal;
Receiving at least one composite signal including an acoustic signal and a noise signal;
Generating at least one denoised acoustic data stream from the at least one composite signal by removing the noise signal using the at least one transfer function;
A noise removal method comprising:
請求項9記載の方法において、前記少なくとも1つのノイズ・ソース信号は、少なくとも1つの関連するノイズ・ソース信号の少なくとも1つの反射を含むこと、を特徴とするノイズ除去方法。   The method of claim 9, wherein the at least one noise source signal comprises at least one reflection of at least one associated noise source signal. 請求項9記載の方法において、前記少なくとも1つの複合信号は、少なくとも1つの関連する複合信号の少なくとも1つの反射を含むこと、を特徴とするノイズ除去方法。   The method of claim 9, wherein the at least one composite signal includes at least one reflection of at least one associated composite signal. 請求項9記載の方法において、検出することは、無線周波デバイス、電気グロットグラフ、超音波デバイス、音響喉当てマイクロホン、空気流検出器から成るグループから選択した少なくとも1つの検出器を使用することによって、人間の発声に関連する生理学的データを収集すること、を含むことを特徴とするノイズ除去方法。   10. The method of claim 9, wherein detecting is by using at least one detector selected from the group consisting of a radio frequency device, an electrical grottograph, an ultrasound device, an acoustic throat microphone, and an airflow detector. Collecting a physiological data related to human speech. 請求項9記載の方法において、受けることは、少なくとも1つのマイクロホンを使用して前記少なくとも1つのノイズ・ソース信号を受けること、を含むことを特徴とするノイズ除去方法。   The method of claim 9, wherein receiving includes receiving the at least one noise source signal using at least one microphone. 請求項13記載の方法において、前記少なくとも1つのマイクロホンは、複数の独立に位置付けたマイクロホンを含むこと、を特徴とするノイズ除去方法。   14. The method of claim 13, wherein the at least one microphone includes a plurality of independently positioned microphones. 請求項9記載の方法において、前記少なくとも1つの複合信号から前記少なくとも1つの伝達関数を使用して前記ノイズ信号を除去することは、前記少なくとも1つの伝達関数を使用して少なくとも1つの他の伝達関数を発生すること、を含むことを特徴とするノイズ除去方法。   The method of claim 9, wherein removing the noise signal from the at least one composite signal using the at least one transfer function comprises using at least one other transfer function. Generating a function. A noise removal method comprising: 請求項9記載の方法において、少なくとも1つの伝達関数を発生することは、少なくとも1つの予め指定したインターバルの間において前記少なくとも1つの伝達関数を再計算すること、を含むことを特徴とするノイズ除去方法。   The method of claim 9, wherein generating at least one transfer function comprises recalculating the at least one transfer function during at least one pre-specified interval. Method. 請求項9記載の方法において、少なくとも1つの伝達関数を発生することは、適応形技術と再帰的技術とから成るグループから選択した少なくとも1つの技術の使用して、前記少なくとも1つの伝達関数を計算すること、を含むことを特徴とするノイズ除去方法。   10. The method of claim 9, wherein generating at least one transfer function is to calculate the at least one transfer function using at least one technique selected from the group consisting of adaptive techniques and recursive techniques. And a noise removing method comprising: 電子的信号からノイズを除去するノイズ除去方法であって、
有声情報がその間において不在である少なくとも1つの無発声時間を判定するステップと、
前記少なくとも1つの無発声時間の間において少なくとも1つのノイズ信号入力を受け、そして前記少なくとも1つのノイズ信号を表す少なくとも1つの無発声伝達関数を発生するステップと、
有声情報がその間において存在する少なくとも1つの発声時間を判定するステップと、
前記少なくとも1つの発声時間に間において少なくとも1つの信号検知デバイスから少なくとも1つの音響信号入力を受け、そして前記少なくとも1つの音響信号を表す少なくとも1つの発声伝達関数を発生するステップと、
音響信号およびノイズ信号を含む少なくとも1つの複合信号を受けるステップと、
前記少なくとも1つの無発声伝達関数と前記少なくとも1つの発声伝達関数の少なくとも1つの組み合わせを使用して、前記少なくとも1つの複合信号から前記ノイズ信号を除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生するステップと、
から成るノイズ除去方法。
A noise removal method for removing noise from an electronic signal,
Determining at least one silent period during which voiced information is absent;
Receiving at least one noise signal input during the at least one silent period and generating at least one silent transfer function representing the at least one noise signal;
Determining at least one voicing time during which voiced information exists;
Receiving at least one acoustic signal input from at least one signal sensing device between said at least one speech time and generating at least one speech transfer function representative of said at least one acoustic signal;
Receiving at least one composite signal including an acoustic signal and a noise signal;
At least one denoised acoustic data by removing the noise signal from the at least one composite signal using at least one combination of the at least one unvoiced transfer function and the at least one utterance transfer function. A step of generating a stream;
A noise removal method comprising:
音響信号からノイズを除去するためのノイズ除去システムであって、
少なくとも1つの音響信号を受ける少なくとも1つの受信器と、
人間の発声活動に関連する生理学的情報を受ける少なくとも1つのセンサと、
前記少なくとも1つの受信器と、複数の伝達関数を発生する前記少なくとも1つのセンサとの間に結合した少なくとも1つのプロセッサであって、前記少なくとも1つの音響信号を表す少なくとも1つの第1伝達関数は、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に不在であるとの判定に応答して発生され、前記少なくとも1つの音響信号を表す少なくとも1つの第2伝達関数は、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に存在しているとの判定に応答して発生され、前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数との少なくとも1つの組み合わせを使用して、前記少なくとも1つの音響信号からノイズを除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生する、前記の少なくとも1つのプロセッサと、
から成るノイズ除去システム。
A noise removal system for removing noise from an acoustic signal,
At least one receiver for receiving at least one acoustic signal;
At least one sensor for receiving physiological information relating to human vocal activity;
At least one processor coupled between the at least one receiver and the at least one sensor generating a plurality of transfer functions, wherein the at least one first transfer function representing the at least one acoustic signal is , At least one second transfer function representative of the at least one acoustic signal generated in response to determining that utterance information is absent from the at least one acoustic signal for at least one specified time Is generated in response to determining that utterance information is present in the at least one acoustic signal for at least one specified time, and wherein the at least one first transfer function and the at least one Using at least one combination with a second transfer function to remove noise from the at least one acoustic signal; It generates one acoustic data stream denoising process even without, at least one processor of said,
A noise removal system consisting of
請求項19記載のシステムにおいて、前記少なくとも1つのセンサは、人間のスピーチ発生に関連した組織運動を検出する少なくとも1つの無線周波(RF)干渉計を含むこと、を特徴とするノイズ除去システム。   21. The denoising system of claim 19, wherein the at least one sensor includes at least one radio frequency (RF) interferometer that detects tissue motion associated with human speech generation. 請求項19記載のシステムにおいて、前記少なくとも1つのセンサは、無線周波デバイス、電気グロットグラフ、超音波デバイス、音響喉当てマイクロホン、空気流検出器から成るグループから選択した少なくとも1つのセンサを含むこと、を特徴とするノイズ除去システム。   20. The system of claim 19, wherein the at least one sensor comprises at least one sensor selected from the group consisting of a radio frequency device, an electrical grottograph, an ultrasound device, an acoustic throat microphone, and an airflow detector. A noise removal system characterized by 請求項19記載のシステムであって、さらに、
前記少なくとも1つの音響信号の音響データを複数のサブバンドに分割し、
前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数の前記少なくとも1つの組み合わせを使用して、前記複数のサブバンドの各々からノイズを除去し、複数のデノイズ処理した音響データ・ストリームが発生され、
前記複数のデノイズ処理した音響データ・ストリームを組み合わせることによって、前記少なくとも1つのデノイズ処理した音響データ・ストリームを発生すること、
を含むこと、を特徴とするノイズ除去システム。
The system of claim 19, further comprising:
Dividing the acoustic data of the at least one acoustic signal into a plurality of subbands;
Using the at least one combination of the at least one first transfer function and the at least one second transfer function to remove noise from each of the plurality of subbands and to provide a plurality of denoised acoustic data streams Is generated,
Generating the at least one denoising acoustic data stream by combining the plurality of denoising acoustic data streams;
Including a noise removal system.
請求項19記載のシステムにおいて、前記少なくとも1つの受信器は、複数の独立に位置付けたマイクロホンを含むこと、を特徴とするノイズ除去システム。   The system of claim 19, wherein the at least one receiver includes a plurality of independently positioned microphones. 音響信号からノイズを除去するためのノイズ除去システムであって、少なくとも1つのマイクロホンと少なくとも1つの発声センサとの間に結合した少なくとも1つのプロセッサとを備え、前記少なくとも1つの発声センサが、発声に関連した生理学的データを収集し、少なくとも1つの時間の間において前記少なくとも1つの発声センサを使用して有声情報の不在を検出し、前記少なくとも1つの時間において前記少なくとも1つのマイクロホンを使用して少なくとも1つのノイズ・ソース信号を受け、前記少なくとも1つのプロセッサが、前記少なくとも1つのノイズ・ソース信号を表す少なくとも1つの伝達関数を発生し、前記少なくとも1つのマイクロホンが、音響信号およびノイズ信号を含む少なくとも1つの複合信号を受け、前記少なくとも1つのプロセッサが、前記少なくとも1つの伝達関数を使用して前記少なくとも1つの複合信号から前記ノイズ信号を除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生すること、を特徴とするノイズ除去システム。   A noise removal system for removing noise from an acoustic signal, comprising: at least one processor coupled between at least one microphone and at least one utterance sensor, wherein the at least one utterance sensor Collect relevant physiological data, detect absence of voiced information using the at least one utterance sensor during at least one time, and at least using the at least one microphone at the at least one time Receiving at least one noise source signal, the at least one processor generates at least one transfer function representing the at least one noise source signal, and the at least one microphone includes at least an acoustic signal and a noise signal; Before receiving one composite signal At least one processor generates at least one denoised acoustic data stream by removing the noise signal from the at least one composite signal using the at least one transfer function; Noise removal system. 少なくとも1人のユーザと少なくとも1つの電子デバイスとの間に結合した信号処理システムであって、該信号処理システムが、音響信号からノイズを除去するための少なくとも1つのデノイズ処理サブシステムを含み、該デノイズ処理サブシステムが、少なくとも1つの受信器と少なくとも1つのセンサとの間に結合した少なくとも1つのプロセッサとを備え、前記少なくとも1つの受信器を、少なくとも1つの音響信号を受けるように結合し、前記少なくとも1つのセンサを、人間の発声活動に関連した生理学的情報を受けるように結合し、前記少なくとも1つのプロセッサが、複数の伝達関数を発生し、前記少なくとも1つの音響信号を表す少なくとも1つの第1伝達関数が、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に不在であるとの判定に応答して発生され、前記少なくとも1つの音響信号を表す少なくとも1つの第2伝達関数は、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に存在しているとの判定に応答して発生され、前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数との少なくとも1つの組み合わせを使用して、前記少なくとも1つの音響信号からノイズを除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生すること、を特徴とする信号処理システム。   A signal processing system coupled between at least one user and at least one electronic device, the signal processing system including at least one denoising subsystem for removing noise from the acoustic signal; A denoising subsystem comprising at least one processor coupled between at least one receiver and at least one sensor, the at least one receiver coupled to receive at least one acoustic signal; The at least one sensor is coupled to receive physiological information related to human vocal activity, wherein the at least one processor generates a plurality of transfer functions and represents at least one acoustic signal A first transfer function wherein the utterance information is the at least one specified time; The at least one second transfer function that is generated in response to the determination of being absent from at least one acoustic signal and the at least one second transfer function represents the utterance information for at least one specified time Using at least one combination of the at least one first transfer function and the at least one second transfer function, in response to determining that the at least one acoustic signal is present in the at least one acoustic signal, A signal processing system for generating at least one denoised acoustic data stream by removing noise from the at least one acoustic signal. 請求項25記載のシステムにおいて、前記少なくとも1つの電子デバイスは、セルラ電話、パーソナル・デジタル・アシスタント、ポータブル通信デバイス、コンピュータ、ビデオ・カメラ、デジタル・カメラ、テレマチック・システムから成るグループから選択した少なくとも1つのデバイスを含むこと、を特徴とする信号処理システム。   26. The system of claim 25, wherein the at least one electronic device is at least selected from the group consisting of a cellular phone, a personal digital assistant, a portable communication device, a computer, a video camera, a digital camera, a telematic system. A signal processing system comprising: one device. 実行可能な命令を含むコンピュータ読み取り可能媒体であって、前記実行可能な命令が、処理システムにおいて実行されたときに、
少なくとも1つの音響信号を受け、
人間の発声活動に関連する生理学的情報を受け、
前記少なくとも1つの音響信号を表す少なくとも1つの第1伝達関数を、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に不在であるとの判定に応答して発生し、
前記少なくとも1つの音響信号を表す少なくとも1つの第2伝達関数を、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に存在しているとの判定に応答して発生し、
前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数との少なくとも1つの組み合わせを使用して、前記少なくとも1つの音響信号からノイズを除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生すること、
により、受けた音響信号からノイズを除去すること、を特徴とするコンピュータ読み取り可能媒体。
A computer readable medium containing executable instructions when the executable instructions are executed in a processing system,
Receiving at least one acoustic signal,
Receiving physiological information related to human vocal activity,
Generating at least one first transfer function representative of the at least one acoustic signal in response to determining that utterance information is absent from the at least one acoustic signal for at least one specified time; ,
Generating at least one second transfer function representative of the at least one acoustic signal in response to determining that utterance information is present in the at least one acoustic signal for at least one specified time period; And
At least one denoising acoustic data by removing noise from the at least one acoustic signal using at least one combination of the at least one first transfer function and the at least one second transfer function. Generating a stream,
A computer readable medium characterized by removing noise from the received acoustic signal.
実行可能な命令を含む電磁的媒体であって、前記実行可能な命令が、処理システムにおいて実行されたときに、
少なくとも1つの音響信号を受け、
人間の発声活動に関連する生理学的情報を受け、
前記少なくとも1つの音響信号を表す少なくとも1つの第1伝達関数を、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に不在であるとの判定に応答して発生し、
前記少なくとも1つの音響信号を表す少なくとも1つの第2伝達関数を、発声情報が、少なくとも1つの指定された時間の間に前記少なくとも1つの音響信号に存在しているとの判定に応答して発生し、
前記少なくとも1つの第1伝達関数と前記少なくとも1つの第2伝達関数との少なくとも1つの組み合わせを使用して、前記少なくとも1つの音響信号からノイズを除去することにより、少なくとも1つのデノイズ処理した音響データ・ストリームを発生すること、
により、受けた音響信号からノイズを除去すること、を特徴とする実行可能な命令を含む電磁的媒体。
An electromagnetic medium comprising executable instructions when the executable instructions are executed in a processing system;
Receiving at least one acoustic signal,
Receiving physiological information related to human vocal activity,
Generating at least one first transfer function representative of the at least one acoustic signal in response to determining that utterance information is absent from the at least one acoustic signal for at least one specified time; ,
Generating at least one second transfer function representative of the at least one acoustic signal in response to determining that utterance information is present in the at least one acoustic signal for at least one specified time period; And
At least one denoising acoustic data by removing noise from the at least one acoustic signal using at least one combination of the at least one first transfer function and the at least one second transfer function. Generating a stream,
An electromagnetic medium comprising executable instructions, characterized by removing noise from a received acoustic signal.
JP2013107341A 2000-07-19 2013-05-21 Method and apparatus for removing noise from electronic signal Pending JP2013178570A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US21929700P 2000-07-19 2000-07-19
US60/219,297 2000-07-19
US09/905,361 US20020039425A1 (en) 2000-07-19 2001-07-12 Method and apparatus for removing noise from electronic signals
US09/905,361 2001-07-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011139645A Division JP2011203755A (en) 2000-07-19 2011-06-23 Method and apparatus for removing noise from electronic signal

Publications (1)

Publication Number Publication Date
JP2013178570A true JP2013178570A (en) 2013-09-09

Family

ID=26913758

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2002512971A Withdrawn JP2004509362A (en) 2000-07-19 2001-07-17 Method and apparatus for removing noise from electronic signals
JP2011139645A Pending JP2011203755A (en) 2000-07-19 2011-06-23 Method and apparatus for removing noise from electronic signal
JP2013107341A Pending JP2013178570A (en) 2000-07-19 2013-05-21 Method and apparatus for removing noise from electronic signal

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2002512971A Withdrawn JP2004509362A (en) 2000-07-19 2001-07-17 Method and apparatus for removing noise from electronic signals
JP2011139645A Pending JP2011203755A (en) 2000-07-19 2011-06-23 Method and apparatus for removing noise from electronic signal

Country Status (8)

Country Link
US (1) US20020039425A1 (en)
EP (1) EP1301923A2 (en)
JP (3) JP2004509362A (en)
KR (1) KR20030076560A (en)
CN (1) CN1443349A (en)
AU (1) AU2001276955A1 (en)
CA (1) CA2416926A1 (en)
WO (1) WO2002007151A2 (en)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8019091B2 (en) * 2000-07-19 2011-09-13 Aliphcom, Inc. Voice activity detector (VAD) -based multiple-microphone acoustic noise suppression
US20030179888A1 (en) * 2002-03-05 2003-09-25 Burnett Gregory C. Voice activity detection (VAD) devices and methods for use with noise suppression systems
US7246058B2 (en) 2001-05-30 2007-07-17 Aliph, Inc. Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors
US20070233479A1 (en) * 2002-05-30 2007-10-04 Burnett Gregory C Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors
US8280072B2 (en) 2003-03-27 2012-10-02 Aliphcom, Inc. Microphone array with rear venting
WO2003058607A2 (en) * 2002-01-09 2003-07-17 Koninklijke Philips Electronics N.V. Audio enhancement system having a spectral power ratio dependent processor
EP1483591A2 (en) * 2002-03-05 2004-12-08 Aliphcom Voice activity detection (vad) devices and methods for use with noise suppression systems
KR101434071B1 (en) * 2002-03-27 2014-08-26 앨리프컴 Microphone and voice activity detection (vad) configurations for use with communication systems
AU2003278018B2 (en) 2002-10-17 2008-09-04 2249020 Alberta Ltd. Method and apparatus for controlling a device or process with vibrations generated by tooth clicks
WO2004068464A2 (en) 2003-01-30 2004-08-12 Aliphcom, Inc. Acoustic vibration sensor
US9066186B2 (en) 2003-01-30 2015-06-23 Aliphcom Light-based detection for acoustic applications
US9099094B2 (en) 2003-03-27 2015-08-04 Aliphcom Microphone array with rear venting
KR100556365B1 (en) 2003-07-07 2006-03-03 엘지전자 주식회사 Apparatus and Method for Speech Recognition
US7516067B2 (en) * 2003-08-25 2009-04-07 Microsoft Corporation Method and apparatus using harmonic-model-based front end for robust speech recognition
US7424119B2 (en) * 2003-08-29 2008-09-09 Audio-Technica, U.S., Inc. Voice matching system for audio transducers
US8838184B2 (en) * 2003-09-18 2014-09-16 Aliphcom Wireless conference call telephone
US7447630B2 (en) * 2003-11-26 2008-11-04 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
JP4601970B2 (en) * 2004-01-28 2010-12-22 株式会社エヌ・ティ・ティ・ドコモ Sound / silence determination device and sound / silence determination method
JP4490090B2 (en) * 2003-12-25 2010-06-23 株式会社エヌ・ティ・ティ・ドコモ Sound / silence determination device and sound / silence determination method
US7574008B2 (en) * 2004-09-17 2009-08-11 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US7590529B2 (en) * 2005-02-04 2009-09-15 Microsoft Corporation Method and apparatus for reducing noise corruption from an alternative sensor signal during multi-sensory speech enhancement
US8180067B2 (en) * 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8036767B2 (en) * 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US8213635B2 (en) * 2008-12-05 2012-07-03 Microsoft Corporation Keystroke sound suppression
EP2306449B1 (en) * 2009-08-26 2012-12-19 Oticon A/S A method of correcting errors in binary masks representing speech
JP5400225B2 (en) * 2009-10-05 2014-01-29 ハーマン インターナショナル インダストリーズ インコーポレイテッド System for spatial extraction of audio signals
WO2012069020A1 (en) * 2010-11-25 2012-05-31 歌尔声学股份有限公司 Method and device for speech enhancement, and communication headphones with noise reduction
JP5561195B2 (en) * 2011-02-07 2014-07-30 株式会社Jvcケンウッド Noise removing apparatus and noise removing method
WO2014029849A1 (en) 2012-08-22 2014-02-27 Resmed Paris Sas Breathing assistance system with speech detection
JP2014085609A (en) * 2012-10-26 2014-05-12 Sony Corp Signal processor, signal processing method, and program
CN107165846B (en) * 2016-03-07 2019-01-18 深圳市轻生活科技有限公司 A kind of voice control intelligent fan
EP3500337B1 (en) 2016-08-17 2021-04-14 Envoy Medical Corporation Implantable modular cochlear implant system with communication system and network
JP6729186B2 (en) * 2016-08-30 2020-07-22 富士通株式会社 Audio processing program, audio processing method, and audio processing apparatus
CN106569774B (en) * 2016-11-11 2020-07-10 青岛海信移动通信技术股份有限公司 Method and terminal for removing noise
US11067604B2 (en) * 2017-08-30 2021-07-20 Analog Devices International Unlimited Company Managing the determination of a transfer function of a measurement sensor
US20210343307A1 (en) * 2018-10-15 2021-11-04 Sony Corporation Voice signal processing apparatus and noise suppression method
RU2680735C1 (en) * 2018-10-15 2019-02-26 Акционерное общество "Концерн "Созвездие" Method of separation of speech and pauses by analysis of the values of phases of frequency components of noise and signal
RU2700189C1 (en) * 2019-01-16 2019-09-13 Акционерное общество "Концерн "Созвездие" Method of separating speech and speech-like noise by analyzing values of energy and phases of frequency components of signal and noise
DE102019102414B4 (en) * 2019-01-31 2022-01-20 Harmann Becker Automotive Systems Gmbh Method and system for detecting fricatives in speech signals
EP4338791A3 (en) 2019-02-21 2024-05-22 Envoy Medical Corporation Implantable cochlear system with integrated components and lead characterization
US11564046B2 (en) 2020-08-28 2023-01-24 Envoy Medical Corporation Programming of cochlear implant accessories
TW202226225A (en) * 2020-10-27 2022-07-01 美商恩倍科微電子股份有限公司 Apparatus and method for improved voice activity detection using zero crossing detection
US11790931B2 (en) 2020-10-27 2023-10-17 Ambiq Micro, Inc. Voice activity detection using zero crossing detection
US11471689B2 (en) 2020-12-02 2022-10-18 Envoy Medical Corporation Cochlear implant stimulation calibration
US11806531B2 (en) 2020-12-02 2023-11-07 Envoy Medical Corporation Implantable cochlear system with inner ear sensor
US11697019B2 (en) 2020-12-02 2023-07-11 Envoy Medical Corporation Combination hearing aid and cochlear implant system
US11633591B2 (en) 2021-02-23 2023-04-25 Envoy Medical Corporation Combination implant system with removable earplug sensor and implanted battery
US11839765B2 (en) 2021-02-23 2023-12-12 Envoy Medical Corporation Cochlear implant system with integrated signal analysis functionality
US11865339B2 (en) 2021-04-05 2024-01-09 Envoy Medical Corporation Cochlear implant system with electrode impedance diagnostics

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05259928A (en) * 1992-03-09 1993-10-08 Oki Electric Ind Co Ltd Method and device for canceling adaptive control noise

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63278100A (en) * 1987-04-30 1988-11-15 株式会社東芝 Voice recognition equipment
JP3059753B2 (en) * 1990-11-07 2000-07-04 三洋電機株式会社 Noise removal device
JPH04184495A (en) * 1990-11-20 1992-07-01 Seiko Epson Corp Voice recognition device
JP2995959B2 (en) * 1991-10-25 1999-12-27 松下電器産業株式会社 Sound pickup device
JP3250577B2 (en) * 1992-12-15 2002-01-28 ソニー株式会社 Adaptive signal processor
JP3394998B2 (en) * 1992-12-15 2003-04-07 株式会社リコー Noise removal device for voice input system
JP3171756B2 (en) * 1994-08-18 2001-06-04 沖電気工業株式会社 Noise removal device
JP3431696B2 (en) * 1994-10-11 2003-07-28 シャープ株式会社 Signal separation method
JPH11164389A (en) * 1997-11-26 1999-06-18 Matsushita Electric Ind Co Ltd Adaptive noise canceler device
JP3688879B2 (en) * 1998-01-30 2005-08-31 株式会社東芝 Image recognition apparatus, image recognition method, and recording medium therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05259928A (en) * 1992-03-09 1993-10-08 Oki Electric Ind Co Ltd Method and device for canceling adaptive control noise

Also Published As

Publication number Publication date
WO2002007151A3 (en) 2002-05-30
JP2004509362A (en) 2004-03-25
JP2011203755A (en) 2011-10-13
EP1301923A2 (en) 2003-04-16
US20020039425A1 (en) 2002-04-04
AU2001276955A1 (en) 2002-01-30
KR20030076560A (en) 2003-09-26
WO2002007151A2 (en) 2002-01-24
CN1443349A (en) 2003-09-17
CA2416926A1 (en) 2002-01-24

Similar Documents

Publication Publication Date Title
JP2013178570A (en) Method and apparatus for removing noise from electronic signal
US8019091B2 (en) Voice activity detector (VAD) -based multiple-microphone acoustic noise suppression
KR100989266B1 (en) Double talk detection method based on spectral acoustic properties
US20030179888A1 (en) Voice activity detection (VAD) devices and methods for use with noise suppression systems
KR101153093B1 (en) Method and apparatus for multi-sensory speech enhamethod and apparatus for multi-sensory speech enhancement ncement
KR101224755B1 (en) Multi-sensory speech enhancement using a speech-state model
KR100821177B1 (en) Statistical model based a priori SAP estimation method
US20070088544A1 (en) Calibration based beamforming, non-linear adaptive filtering, and multi-sensor headset
JP2004502977A (en) Subband exponential smoothing noise cancellation system
CN101339769A (en) Echo suppressor and echo suppressing method
WO2003096031A9 (en) Voice activity detection (vad) devices and methods for use with noise suppression systems
KR20100010136A (en) Apparatus and method for removing noise
JP2011033717A (en) Noise suppression device
KR100936093B1 (en) Method and apparatus for removing noise from electronic signals
US20030128848A1 (en) Method and apparatus for removing noise from electronic signals
KR101537653B1 (en) Method and system for noise reduction based on spectral and temporal correlations
JPH03269498A (en) Noise removal system
JP2016158072A (en) Sound collector, voice processing method, and voice processing program
CA2465552A1 (en) Method and apparatus for removing noise from electronic signals
Moir Cancellation of noise from speech using Kepstrum analysis
Li et al. Noise reduction based on microphone array and post-filtering for robust speech recognition
Pan et al. Noise Reduction Analysis Using the Hilbert-Huang Transform and Wiener Filter
Zeng et al. Speech enhancement by multichannel crosstalk resistant ANC and improved spectrum subtraction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130826

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140618

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140623

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141128