JPH02160298A - 雑音除去方法、それに用いるニューラルネットワークの学習方法 - Google Patents

雑音除去方法、それに用いるニューラルネットワークの学習方法

Info

Publication number
JPH02160298A
JPH02160298A JP63313859A JP31385988A JPH02160298A JP H02160298 A JPH02160298 A JP H02160298A JP 63313859 A JP63313859 A JP 63313859A JP 31385988 A JP31385988 A JP 31385988A JP H02160298 A JPH02160298 A JP H02160298A
Authority
JP
Japan
Prior art keywords
neural network
section
noise
signal
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63313859A
Other languages
English (en)
Other versions
JP2776848B2 (ja
Inventor
Toshiyuki Aritsuka
俊之 在塚
Akio Amano
天野 明雄
Nobuo Hataoka
畑岡 信夫
Hiroshi Ichikawa
市川 熹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP63313859A priority Critical patent/JP2776848B2/ja
Priority to CA002005117A priority patent/CA2005117C/en
Priority to US07/448,949 priority patent/US5185848A/en
Publication of JPH02160298A publication Critical patent/JPH02160298A/ja
Application granted granted Critical
Publication of JP2776848B2 publication Critical patent/JP2776848B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【産業上の利用分野1 本発明は、音声の伝送、認識等における分析時の雑音除
去方式に関する。 (従来の技術1 従来の雑音除去方式には、接話マイク法、サブストラク
ション法、複数マイク法、フィルタリング法等が提案さ
れている。このうち接話マイク法は、マイクの指向性を
利用するものである。サブストラクション法は、予め雑
音のみを登録しておき、雑音重畳信号から差し引くこと
による。複数マイク法は、マイク位置による位相差等を
利用するものである。フィルタリング法は、信号と雑音
の帯域が異なる場合にフィルタリングによって信号のみ
を取り出すものである。 一方、田村震−,アレックス・ワイベル: 「ニューラ
ル ネットワークを使った波形入出力による雑音抑圧」
(信学技報Vo1.87 、 No、351 。 pp、33−37.1988年1月)記載のように、雑
音を含む音声波形を入力とし、雑音を除去した音声を出
力とするように、ニューラルネットワークを学習させる
ものも提案されている。 【発明が解決しようとする課題】 上記従来技術のうち、接話マイク法は、接話マイクを装
着する必要があり、使い勝手に問題があった。またサブ
ストラクション法、フィルタリング法は、雑音の性質が
既知であるときにのみ有効であるという問題があった。 さらに複数マイク法はマイクを複数個必要とするため、
設置方法に問題があった。 一方、ニューラルネットワークを用いて雑音を除去する
方法は、音韻性の劣化を伴うという問題があった。 本発明は、信号の伝送または認識を行う際に、−殻内な
捕音装置を用いて入力した信号から、雑音を、性質によ
らずかつ音韻性の劣化を伴うことなく除去し、信号のS
/Nを改善することを目的としており、また伝送または
認識の前処理を高速に行う手段を提供することを目的と
する。
【課題を解決するための手段1 上記目的を達成するために、 雑音を含む信号を自己相関係数などの特徴ベクトル(特
徴量の組)に変換する分析部と、これを入力とし、該当
するクラスタを代表する、雑音を含まない信号を変換し
た特徴ベクトルに対応する、代表ベクトルのインデクス
を出力とする。ニューラルネットワークを用いたもので
ある。 なお、上記ニューラルネットワークを学習させる目的で
、まず代表的な雑音と、雑音を含まない信号を予め用意
し、次に雑音を含まない信号を変換した特徴ベクトルに
対してクラスタリングを行い、そのクラスタを代表する
代表ベクトルを選択しコードブックを作成する。そして
、このコードブックから、上記特徴ベクトルの該当する
最適なクラスタを代表する代表ベクトルのインデクスを
得てこれを教師データとし、また雑音と、雑音を含まな
い信号を重畳し、これを変換した特徴ベクトルを学習デ
ータとして、ニューラルネットワークを学習させる方式
を用いたものである。 また、上記雑音除去方式を伝送に利用する場合には、受
信側の合成部において、合成に適した特徴ベクトルを代
表ベクトルに持つコードブックを、別途用いる。 【作用】 ニューラルネットワークの写像機能を利用して、雑音を
含む信号を変換した特徴ベクトルを、該当する最適なク
ラスタを代表する、雑音を含まない信号の特徴ベクトル
に対応する1代表ベクトルのインデクスに写像すること
によりS/Nを改善し、かつ高速にコード化を行う。 また、雑音重畳信号を特徴ベクトルに変換した後、その
中から雑音の影響の小さい特徴量を選んで、ニューラル
ネットワークの入力ベクトルとすることにより、写像の
性能を向上させ、S/Nを改善することができる。例え
ば、特徴ベクトルとして自己相関係数を選択した場合、
雑音の影響はパワーを表す零次の係数に集中する。そこ
でこの零次の係数を除いた残りの係数を正規化し、ニュ
ーラルネットワークの入力とすることでS/Nを改善す
る。またこのとき、残りの係数のうちの最大値をもって
擬似パワーとし、これを別途合成部等に送ることでパワ
ー情報を回復する。 さらに、上記雑音除去方式を伝送に用いる場合には、受
信側のコードブックとして、各クラスタの代表ベクトル
が1合成に適した特徴ベクトルに対応するように学習さ
せたものを用いることにより1合成処理の高速化を行う
ことができる。 【実施例1 以下1本発明の実施例を第1図〜第7図により説明する
。 第1図は、前処理部に本雑音除去方式を用いてS/N改
善を行う符号化方式の、一実施例の構成を表すブロック
図である。以下、各動作について説明する。まず、入力
された雑音を含む音声信号は、分析部101において公
知の分析手段によって自己相関係数v0〜v n102
に変換される。次に、雑音の影響の大きい零次の係数v
0を除いたV□〜Vnから、最大値検出部103によっ
て最大値VmaX104を擬似パワーとして検出し、正
規化部105によって正規化する。正規化された自己相
関係数V工′〜V n ’ 106は、第2図に示すよ
うに、入力層、中間層および出力層のユニット間を重み
つきで結合させた、階層構造を持つニューラルネットワ
ーク107に入力され、ニューラルネットワーク107
は、該当する最適なクラスタを代表する代表ベクトルの
インデクス108を出力する。ただし上記ニューラルネ
ットワークは後述する方法等によって予め学習させてお
くものとする。出力されたインデクス108は、最大値
検出部によって検出された上記自己相関係数の最大値V
、□104と共に、送信部109より伝送路110を通
り受信部111に伝送される。 受信されたインデクス112は、ベクトル選択部113
へ入力され、ベクトル選択部113は、上記インデクス
112に対応する代表ベクトルをコードブック114か
ら選択し、出力する。このときコードブック114は、
アイ・イー・イー・イー、トランザクションズ オン 
コミュニケーションズ、ボリューム シーオーエム−2
8、ナンバー1.1980年 (丁E[!E  TRA
NSACTIQNS  ON  COMMUNICAT
IONS。 VOL、C0M−28,No、1. JANUARY 
1980. pp、84−95)記載のコードブック生
成法等によって、各クラスタの代表ベクトルが偏自己相
関係数に0〜k n115に対応するように学習してい
るものとする0合成部116では、上記偏自己相関係数
に4〜k 、115と、伝送された擬似パワーVmax
l17によって音声信号を合成し出力する。 第3図(a)は、ニューラルネットワークを構成するニ
ューロンのモデルの例である。入力x2〜Xnは、それ
ぞれ重みW工〜Wnをかけた荷重和の形でニューロンに
入力される。二ニーロンは、入力に対しある関数f(・
)によって出力yを規定する。すなわち、 y=f(ΣW t X +十〇) となる。ただし、θはオフセットである。(b)、(c
)、(d)に関数f(・)の例を示す。 第4図は、第2図に示すように、入力層、中間層および
出力層のユニット間を重みつきで結合させた、階層構造
を持つニューラルネットワークを、上述した雑音除去の
目的を実現する性質を持つように学習させる。ニューラ
ルネットワーク学習方式の流れ図である。アルゴリズム
を以下に示す。 五還ヱ1: 適用範囲を代表する雑音を含まない信号を選び入力する
。 五上lλ: 適用環境を代表する雑音を選び入力する。 互遵上y: すべての信号データを、偏自己相関係数に変換する。 −j遵すA−: 偏自己相関係数に対し、上記コードブック生成法等によ
って、クラスタリングを行いコードブックを生成する。 5遵11: 信号データと雑音データを、すべての組み合わせについ
て重畳し、これを自己相関係数に変換する。 5y1乱: すべての偏自己相関係数に対し、コードブックより、該
当する最適なクラスタを代表する代表ベクトルに対応す
るインデクスを選択する。 盈遵1L: 同じ信号から得た自己相関係数とインデクスをそれぞれ
学習データ、教師データとする学習セットを、すべての
信号および雑音に対し作り、これらをニューラルネット
ワークに与え、ニューラルネットワークを学習させる。 5ぶ1炙: 学習結果が収束するまで5tep  7を繰り返す。 第5図は、第2図に示すように、入力層、中間層および
出力層のユニット間を重みつきで結合させた、階層構造
を持つニューラルネットワークを。 上述した雑音除去の目的を実現する性質を持つように学
習させる、ニューラルネットワーク学習方式の構成図で
ある。 まず、適用範囲を代表する雑音を含まない音声を入力し
、第1のスイッチ502によりA/D変換器502を通
した後、第2のスイッチ503により第1のメモリ50
4に格納する。 また、適用環境を代表する雑音を入力し、第1のスイッ
チ501によりA/D変換器502を通した後、第2の
スイッチ503により第2のメモリ505に格納する。 次に、信号重畳部506において、第1のメモリ504
より取り出した音声データと、第2のメモリ505から
取り出した雑音データを重畳し、雑音重畳音声を、第3
のスイッチ507により分析部508に入力し、分析部
508において自己相関係数v0〜v、509に変換す
る。自己相関係数のうち、雑音の影響の大きい零次の係
数V。を除いたv1〜Vnから、最大値検出部510に
よって最大値V +aax511を擬似パワーとして検
出し、また、正規化部512によって正規化する。正規
化された自己相関係数、/〜vn’513を、ニューラ
ルネットワーク学習部514において、第2図に示す階
層構造を持つニューラルネットワーク515の学習デー
タとする。 また、第1のメモリ504から第3のスイッチ507に
より取り出した音声データを、分析部508において自
己相関係数u0〜u 、516に変換する。偏自己相関
係数抽出部517は+ uQ〜u n5tsを合成に適
した偏自己相関係数に工〜k 、518に変換する。イ
fンデクス生成部519は、k工〜k n518の該当
する最適なクラスタを代表する代表ベクトルを、コード
ブック520から選択し、そのインデクス521を生成
する。ただしコードブック520は、上記コードブック
生成法等によって、各クラスタの代表ベクトルが偏自己
相関係数に1〜k n51gに対応するように予め学習
しているものとする。インデクス521は、レジスタ5
22を介してニューラルネットワーク学習部514に入
力され、ニューラルネットワーク515を学習させるた
めの教師データに用いられる。 ニューラルネットワーク学習部514は、上記学習デー
タと教師データを、同じ音声データによるもの同志がセ
ットとなるタイミングでニューラルネットワーク515
に与え、これを学習させる。 ところで上記実施例では、ニユーラルネツトワーりとし
て、階層型構造を持つものを用いているが、入力と出力
の関係を満たしているものであればよいため、例えば、
ホップフィールド型や、ボルツマンマシン型構造を持つ
ニューラルネットワークを用いても、同様の機能を実現
できることは明らかである。 また、ニューラルネット
ワークへの入力数が多い場合には、ニューラルネットワ
ークの規模を抑えるために、第6図に示すような多段型
ニューラルネットワークの構成を用いることができる6
第6図は、2段、4ニユーラルネツトワークからなる多
段型ニューラルネットワークの例である。入力ベクトル
は3つに分けられそれぞれニューラルネットワーク60
1.602.603に入力される。各ニューラルネット
ワークの出力は、次段のニューラルネットワーク604
の入力となる。 第7図は1本雑音除去方式を前処理に用いた、音声認識
のブロック図であり1本雑音除去方式による雑音除去部
701において、音声信号から雑音を除去し、コードに
変換した特徴量を、認識部702において認識する。 【発明の効果1 本発明によれば、雑音を含む信号の特徴ベクトルから、
該当する最適なクラスタを代表する、雑音を含まない代
表ベクトルのインデクスを得る目的で、ニューラルネッ
トワークを用いることにより、雑音の除去が行える。し
かも、特徴ベクトルの該当する最適なクラスタを代表す
る代表ベクトルを、最小歪の計算等により検索する必要
がなくなり、単純な積和演算のみでインデクスを得るこ
とができるため、処理を高速に行えるという効果を持つ
。 また、雑音の影響の小さい特徴量のみを用いることによ
って雑音の影響を軽減することができる。 例えば、特徴ベクトルとして自己相関係数を用いた場合
、雑音の影響の大きいパワーを表す零次の係数を除いた
、残りの係数のみを用いる。このとき、残りの係数の最
大値をもって擬似パワーとすることで、パワー情報を回
復する。 一方、ニューラルネットワークは、学習時の入力を正規
化することによって、収束を早めることができる場合が
ある。特徴ベクトルを正規化する正規化部を設けること
により、そのような学習を行ったニューラルネットワー
クを用いることができるようになる。 さらに、合成側のコードブックとして、各クラスタの代
表ベクトルが、合成に適した特徴ベクトルとなるように
学習させたものを用いることにより、特徴ベクトル間の
変換にかかる時間を節約でき、処理の高速化が望める。 例えば、自己相関係数を分析部の出力とすることで、雑
音の影響を零次の項に集中させ1合成部では、合成に適
した偏自己相関係数を用いる場合、上記ニューラルネッ
トワークを学習させる過程で、偏自己相関係数を各クラ
スタの代表ベクトルとするコードブックを用いれば、こ
れを合成側のコードブックとすることができ、あらたに
コードブック生成を行う必要がなくなる。また、上記ニ
ューラルネットワークを学習させる過程で、自己相関係
数を代表ベクトルとするコードブックを用いている場合
でも、これを偏自己相関係数に変換することは容易であ
り、従って、これにより簡単に合成側のコードブックを
作成することができる。
【図面の簡単な説明】
第1図は、前処理部に本雑音除去方式を用いてS/N改
善を行う符号化方式の、一実施例の構成を表すブロック
図、第2図は、階層構造を持つニューラルネットワーク
の例を示す図、第3図は、ニューラルネットワークを構
成するニューロンのモデルの例を示す図、第4図は、第
2図に示したような構造を持つニューラルネットワーク
を学習させる。ニューラルネットワーク学習方式の流れ
図、第5図は、第2図に示したような構造を持つニュー
ラルネットワークを学習させる、ニューラルネットワー
ク学習方式の構成図、第6図は、2段、4ニユーラルネ
ツトワークからなる多段型ニューラルネットワークの例
を示す図、第7図は、本雑音除去方式を前処理に用いた
、音声認識のブロック図である。 符号の説明 101・・・分析部、103・・・最大値検出部、10
5・・・正規化部、107・・・ニューラルネットワー
ク、113・・・ベクトル選択部、114・・・コード
ブック、116・・・合成部、502・・・A/D変換
器、504・・・第1のメモリ、505・・・第2のメ
モリ、506・・・信号重畳部、508・・・分析部、
510・・・最大値検出部、512・・・正規化部、5
14・・・ニューラルネットワーク学習部、515・・
・ニューラルネットワーク、517・・・偏自己相関係
数抽出部、519・・・インデクス生成部、520・・
・コードブック、601、602.603.604・・
・ニューラルネットワーク、701・・雑音除去部、7
02・・・認識部子2目 ↑  −一、−−シ  1 人力層   丁関屑   ムアk (b)       (C)       ばフ第4図

Claims (1)

  1. 【特許請求の範囲】 1、分析部とニューラルネットワークとよりなり、上記
    分析部は、信号を特徴ベクトル(特徴量の組)に変換し
    、 上記ニューラルネットワークは、上記特徴ベクトルの入
    力に対し、該当する最適なクラスタを代表する代表ベク
    トルのインデクスを出力することを特徴とする雑音除去
    方式。 2、分析部が信号を自己相関係数に変換することを特徴
    とする請求項1記載の雑音除去方式。 3、上記特徴ベクトルのうち雑音の影響の小さい特徴量
    のみを入力ベクトルとし、該当する最適なクラスタを代
    表する代表ベクトルのインデクスを出力することを特徴
    とするニューラルネットワークを有する請求項1および
    2記載の雑音除去方式。 4、請求項1〜3記載の雑音除去方式において、正規化
    部を有し、上記正規化部は、分析部によって変換された
    特徴ベクトルの要素の正規化を行うことを特徴とする雑
    音除去方式。 5、請求項1〜4記載の雑音除去方式において、最大値
    検出部を有し、上記最大値検出部は分析部によって変換
    された特徴ベクトルの要素の最大値を検出することを特
    徴とする雑音除去方式。 6、階層構造を持つニューラルネットワークを有する請
    求項1〜5記載の雑音除去方式。 7、ホップフィールド型構造を持つニューラルネットワ
    ークを有する請求項1〜5記載の雑音除去方式。 8、ボルツマンマシン型構造を持つニューラルネットワ
    ークを有する請求項1〜5記載の雑音除去方式。 9、複数個のニューラルネットワークを直列および並列
    に配置した、多段型構造を持つニューラルネットワーク
    を有する請求項1〜8記載の雑音除去方式。 10、請求項1〜9記載の分析部およびニューラルネッ
    トワークに、ベクトル選択部とコードブックと合成部と
    を付加することによる分析・合成装置。 11、分析部によって変換された特徴ベクトルと、異な
    る特徴ベクトルに対応する代表ベクトルを持つコードブ
    ックを有する請求項10記載の分析・合成装置。 12、信号重畳部と分析部とコードブックとインデクス
    生成部とニューラルネットワークとニューラルネットワ
    ーク学習部とよりなり、 上記信号重畳部は、雑音と雑音を含まない信号とを重畳
    し、 上記分析部は、雑音を含まない信号、または信号重畳部
    で重畳された雑音重畳信号を特徴ベクトルに変換し、 上記インデクス生成部は、分析部で変換された雑音を含
    まない信号の特徴ベクトルの、該当する最適なクラスタ
    を代表する代表ベクトルをコードブックから選択してそ
    のインデクスを生成し、 上記ニューラルネットワーク学習部は、分析部で変換さ
    れた雑音重畳信号の特徴ベクトルを学習データとし、上
    記インデクスを教師データとしてニューラルネットワー
    クを学習させることを特徴とするニューラルネットワー
    ク学習方式。 13、上記雑音重畳信号を変換した特徴ベクトルのうち
    、雑音の影響の小さい特徴量からなるベクトルのみを学
    習データとする、ニューラルネットワーク学習部を有す
    る請求項12記載のニューラルネットワーク学習方式。 14、請求項12および13記載のニューラルネットワ
    ーク学習方式において、分析部によって変換された雑音
    重畳信号の特徴ベクトルの要素を正規化する、正規化部
    を有するニューラルネットワーク学習方式。 15、階層構造を持つニューラルネットワークを学習さ
    せる、ニューラルネットワーク学習部を有する請求項1
    2〜14記載のニューラルネットワーク学習方式。
JP63313859A 1988-12-14 1988-12-14 雑音除去方法、それに用いるニューラルネットワークの学習方法 Expired - Lifetime JP2776848B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP63313859A JP2776848B2 (ja) 1988-12-14 1988-12-14 雑音除去方法、それに用いるニューラルネットワークの学習方法
CA002005117A CA2005117C (en) 1988-12-14 1989-12-11 Noise reduction system
US07/448,949 US5185848A (en) 1988-12-14 1989-12-12 Noise reduction system using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63313859A JP2776848B2 (ja) 1988-12-14 1988-12-14 雑音除去方法、それに用いるニューラルネットワークの学習方法

Publications (2)

Publication Number Publication Date
JPH02160298A true JPH02160298A (ja) 1990-06-20
JP2776848B2 JP2776848B2 (ja) 1998-07-16

Family

ID=18046365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63313859A Expired - Lifetime JP2776848B2 (ja) 1988-12-14 1988-12-14 雑音除去方法、それに用いるニューラルネットワークの学習方法

Country Status (3)

Country Link
US (1) US5185848A (ja)
JP (1) JP2776848B2 (ja)
CA (1) CA2005117C (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535897A (ja) * 1991-07-29 1993-02-12 Hamamatsu Photonics Kk 光ニユーラルネツトワーク装置
JP2009532925A (ja) * 2006-04-01 2009-09-10 ヴェーデクス・アクティーセルスカプ 補聴器および補聴器内における信号処理制御方法
JP2017520803A (ja) * 2014-10-21 2017-07-27 三菱電機株式会社 ノイズを有するオーディオ信号をエンハンスドオーディオ信号に変換する方法
JP2022528720A (ja) * 2019-04-11 2022-06-15 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. オーディオデコーダ、フィルタの特性を定義する値のセットを決定するための装置、復号されたオーディオ表現を提供するための方法、フィルタの特性を定義する値のセットを決定するための方法、およびコンピュータプログラム

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280562A (en) * 1991-10-03 1994-01-18 International Business Machines Corporation Speech coding apparatus with single-dimension acoustic prototypes for a speech recognizer
US5222146A (en) * 1991-10-23 1993-06-22 International Business Machines Corporation Speech recognition apparatus having a speech coder outputting acoustic prototype ranks
US5402520A (en) * 1992-03-06 1995-03-28 Schnitta; Bonnie S. Neural network method and apparatus for retrieving signals embedded in noise and analyzing the retrieved signals
US5809461A (en) * 1992-03-30 1998-09-15 Seiko Epson Corporation Speech recognition apparatus using neural network and learning method therefor
US5630019A (en) * 1992-05-23 1997-05-13 Kabushiki Kaisha Topcon Waveform evaluating apparatus using neural network
DE4309985A1 (de) * 1993-03-29 1994-10-06 Sel Alcatel Ag Geräuschreduktion zur Spracherkennung
US5528731A (en) * 1993-11-19 1996-06-18 At&T Corp. Method of accommodating for carbon/electret telephone set variability in automatic speaker verification
US5604839A (en) * 1994-07-29 1997-02-18 Microsoft Corporation Method and system for improving speech recognition through front-end normalization of feature vectors
US5737485A (en) * 1995-03-07 1998-04-07 Rutgers The State University Of New Jersey Method and apparatus including microphone arrays and neural networks for speech/speaker recognition systems
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
US5878389A (en) * 1995-06-28 1999-03-02 Oregon Graduate Institute Of Science & Technology Method and system for generating an estimated clean speech signal from a noisy speech signal
JP3697748B2 (ja) * 1995-08-21 2005-09-21 セイコーエプソン株式会社 端末、音声認識装置
GB2306010A (en) * 1995-10-04 1997-04-23 Univ Wales Medicine A method of classifying signals
US6446038B1 (en) * 1996-04-01 2002-09-03 Qwest Communications International, Inc. Method and system for objectively evaluating speech
US5963899A (en) * 1996-08-07 1999-10-05 U S West, Inc. Method and system for region based filtering of speech
FI971679A (fi) * 1997-04-18 1998-10-19 Nokia Telecommunications Oy Puheen havaitseminen tietoliikennejärjestelmässä
US6044343A (en) * 1997-06-27 2000-03-28 Advanced Micro Devices, Inc. Adaptive speech recognition with selective input data to a speech classifier
US6032116A (en) * 1997-06-27 2000-02-29 Advanced Micro Devices, Inc. Distance measure in a speech recognition system for speech recognition using frequency shifting factors to compensate for input signal frequency shifts
US6003003A (en) * 1997-06-27 1999-12-14 Advanced Micro Devices, Inc. Speech recognition system having a quantizer using a single robust codebook designed at multiple signal to noise ratios
US6067515A (en) * 1997-10-27 2000-05-23 Advanced Micro Devices, Inc. Split matrix quantization with split vector quantization error compensation and selective enhanced processing for robust speech recognition
US6070136A (en) * 1997-10-27 2000-05-30 Advanced Micro Devices, Inc. Matrix quantization with vector quantization error compensation for robust speech recognition
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6347297B1 (en) 1998-10-05 2002-02-12 Legerity, Inc. Matrix quantization with vector quantization error compensation and neural network postprocessing for robust speech recognition
US6219642B1 (en) 1998-10-05 2001-04-17 Legerity, Inc. Quantization using frequency and mean compensated frequency input data for robust speech recognition
US6304865B1 (en) 1998-10-27 2001-10-16 Dell U.S.A., L.P. Audio diagnostic system and method using frequency spectrum and neural network
EP1152399A1 (fr) * 2000-05-04 2001-11-07 Faculte Polytechniquede Mons Traitement en sous bandes de signal de parole par réseaux de neurones
US7496509B2 (en) * 2004-05-28 2009-02-24 International Business Machines Corporation Methods and apparatus for statistical biometric model migration
KR100908121B1 (ko) * 2006-12-15 2009-07-16 삼성전자주식회사 음성 특징 벡터 변환 방법 및 장치
US8239196B1 (en) * 2011-07-28 2012-08-07 Google Inc. System and method for multi-channel multi-feature speech/noise classification for noise suppression
US9026439B2 (en) * 2012-03-28 2015-05-05 Tyco Fire & Security Gmbh Verbal intelligibility analyzer for audio announcement systems
US10846611B2 (en) 2014-06-16 2020-11-24 Nokia Technologies Oy Data processing
US9520128B2 (en) * 2014-09-23 2016-12-13 Intel Corporation Frame skipping with extrapolation and outputs on demand neural network for automatic speech recognition
US10454877B2 (en) 2016-04-29 2019-10-22 Cisco Technology, Inc. Interoperability between data plane learning endpoints and control plane learning endpoints in overlay networks
GB2560174B (en) * 2017-03-01 2020-09-23 Toshiba Kk Training an automatic speech recognition system
US10963813B2 (en) 2017-04-28 2021-03-30 Cisco Technology, Inc. Data sovereignty compliant machine learning
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10608901B2 (en) 2017-07-12 2020-03-31 Cisco Technology, Inc. System and method for applying machine learning algorithms to compute health scores for workload scheduling
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
CN107481728B (zh) * 2017-09-29 2020-12-11 百度在线网络技术(北京)有限公司 背景声消除方法、装置及终端设备
US10867067B2 (en) 2018-06-07 2020-12-15 Cisco Technology, Inc. Hybrid cognitive system for AI/ML data privacy
US10446170B1 (en) 2018-06-19 2019-10-15 Cisco Technology, Inc. Noise mitigation using machine learning
CN109147798B (zh) * 2018-07-27 2023-06-09 北京三快在线科技有限公司 语音识别方法、装置、电子设备及可读存储介质
WO2020047298A1 (en) 2018-08-30 2020-03-05 Dolby International Ab Method and apparatus for controlling enhancement of low-bitrate coded audio
CN109215635B (zh) * 2018-10-25 2020-08-07 武汉大学 用于语音清晰度增强的宽带语音频谱倾斜度特征参数重建方法
EP3809410A1 (en) * 2019-10-17 2021-04-21 Tata Consultancy Services Limited System and method for reducing noise components in a live audio stream
US11334766B2 (en) * 2019-11-15 2022-05-17 Salesforce.Com, Inc. Noise-resistant object detection with noisy annotations

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2558682B2 (ja) * 1987-03-13 1996-11-27 株式会社東芝 知的ワ−クステ−シヨン
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0535897A (ja) * 1991-07-29 1993-02-12 Hamamatsu Photonics Kk 光ニユーラルネツトワーク装置
JP2009532925A (ja) * 2006-04-01 2009-09-10 ヴェーデクス・アクティーセルスカプ 補聴器および補聴器内における信号処理制御方法
JP2017520803A (ja) * 2014-10-21 2017-07-27 三菱電機株式会社 ノイズを有するオーディオ信号をエンハンスドオーディオ信号に変換する方法
JP2022528720A (ja) * 2019-04-11 2022-06-15 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. オーディオデコーダ、フィルタの特性を定義する値のセットを決定するための装置、復号されたオーディオ表現を提供するための方法、フィルタの特性を定義する値のセットを決定するための方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2776848B2 (ja) 1998-07-16
CA2005117A1 (en) 1990-06-14
US5185848A (en) 1993-02-09
CA2005117C (en) 1994-03-01

Similar Documents

Publication Publication Date Title
JPH02160298A (ja) 雑音除去方法、それに用いるニューラルネットワークの学習方法
CN111243620B (zh) 语音分离模型训练方法、装置、存储介质和计算机设备
US5596679A (en) Method and system for identifying spoken sounds in continuous speech by comparing classifier outputs
US5638486A (en) Method and system for continuous speech recognition using voting techniques
US5594834A (en) Method and system for recognizing a boundary between sounds in continuous speech
US5734793A (en) System for recognizing spoken sounds from continuous speech and method of using same
US5621848A (en) Method of partitioning a sequence of data frames
CN112349297A (zh) 一种基于麦克风阵列的抑郁症检测方法
CN112382301B (zh) 基于轻量级神经网络的含噪语音性别识别方法及系统
US11908487B2 (en) Signal processing apparatus and non-transitory computer readable medium
US20220076690A1 (en) Signal processing apparatus, learning apparatus, signal processing method, learning method and program
US5832181A (en) Speech-recognition system utilizing neural networks and method of using same
CN114360571A (zh) 基于参考的语音增强方法
CN116092512A (zh) 一种基于数据生成的小样本语音分离方法
JPH0462599A (ja) 雑音除去装置
CN115881157A (zh) 音频信号的处理方法及相关设备
CN108538282B (zh) 一种由唇部视频直接生成语音的方法
Nijhawan et al. A comparative study of two different neural models for speaker recognition systems
CN115798497B (zh) 一种时延估计系统及装置
JPH05204399A (ja) 不特定話者音素認識方法
Salmela et al. Isolated spoken number recognition with hybrid of self-organizing map and multilayer perceptron
Zhang et al. Speech Enhancement with Topology-Enhanced Generative Adversarial Networks (GANs).
CN115050379A (zh) 一种基于fhgan的高保真语音增强模型及其应用
CN117995177A (zh) 麦克风阵列的波束选择方法、电子设备及存储介质
CN115148190A (zh) 一种基于神经网络算法的语音识别方法