JP2002023776A - ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法 - Google Patents

ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法

Info

Publication number
JP2002023776A
JP2002023776A JP2000213366A JP2000213366A JP2002023776A JP 2002023776 A JP2002023776 A JP 2002023776A JP 2000213366 A JP2000213366 A JP 2000213366A JP 2000213366 A JP2000213366 A JP 2000213366A JP 2002023776 A JP2002023776 A JP 2002023776A
Authority
JP
Japan
Prior art keywords
voice
noise
signal
kurtosis
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000213366A
Other languages
English (en)
Inventor
Hiroshi Gotanda
博 五反田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WAVE COME KK
Kinki University
Original Assignee
WAVE COME KK
Kinki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WAVE COME KK, Kinki University filed Critical WAVE COME KK
Priority to JP2000213366A priority Critical patent/JP2002023776A/ja
Publication of JP2002023776A publication Critical patent/JP2002023776A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 2つのマイクロフォンから得られる雑音混じ
りの混合信号をブラインドセパレーション法に基づいて
音声と雑音を分離するとともに、確率分布の尖度評価に
基づいて音声信号のみを認識エンジンに直結したチャン
ネルに出力する方法を提供する。 【解決手段】 ブラインドセパレーション法により分離
された話者音声信号と非音声雑音信号について、確率分
布の尖度を比較し、尖度の大きい方を話者音声と特定
し、尖度の小さい方を非音声雑音と特定する、ブライン
ドセパレーションにおける話者音声と非音声雑音の識別
方法。また、ブラインドセパレーション法により分離さ
れた話者音声信号と非音声雑音信号について、確率分布
の尖度の大きい方を話者音声信号として音声チャンネル
に出力する、ブラインドセパレーションにおける話者音
声チャンネルの特定方法。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、雑音環境下で、話
者音声と非音声雑音とを識別する方法に関し、さらに、
音声認識エンジンに出力するための話者音声チャンネル
を特定する方法に関する。
【0002】
【従来の技術】雑音環境下の孤立音声単語認識における
雑音除去音声認識エンジンは雑音のない静かな環境では
高い認識能力を発揮するが、様々な生活音が雑音として
入る現実的な騒音環境下では認識能力が格段に落ちる。
したがって、実環境下で音声認識エンジンの本来の認識
能力を引き出すには、雑音混じりの音声から予め雑音を
除去して、話者の音声のみを抽出した信号を音声認識エ
ンジンに受け渡す必要がある。
【0003】エンジン音などのように平均や分散が時間
的にほぼ一定である定常雑音はスペクトルサブトラクシ
ョン法やウィナーフィルタリング法などの方法により除
去可能である。しかし、これらの方法では、雑音のみの
成分から成る雑音区間が必ず存在することが前提条件と
なっている。また、平均や分散が時間的に変動する非定
常雑音についてはウイドロー(Widrow)の適応フィルタ
により除去可能であり、この場合、雑音だけから成る雑
音区間は存在しなくても良い。しかし、音声認識エンジ
ン本来の認識能力を引き出すほどの実用的な雑音除去法
として確立するには至っていない。
【0004】一方、 ・A. J. Bell and T. J. Sejnowyki; "An information-
maximization approachto blind separation and blind
deconvolution", Neural Computation, Vol. 7, No.
6, pp.1004-1034(1995) ・T. W. Lee; "Independent Component, Analysis: The
ory and Applications",Kluwer Academic Publishers
(1998) の2つの文献で、n個の統計的に独立な信号がm(≧
n)個のマイクに混合して入力される状況下で、マイク
での混合信号からニューラルネットワークを介して元々
の信号を復元するブラインドセパレーション法が提案さ
れており、n個の信号は極めて精度良く分離されること
が報告されている。
【0005】ブラインドセパレーションの原理について
説明する。図1はブラインドセパレーション法の概念図
であり、話者からの音声信号s1と雑音s2を2つのマイ
クでピックアップし、観測(混合)信号x1とx2をブラ
ックボックス10で元の話者からの音声信号と雑音に対
応する信号s1 *とs2 *に分離するものである。これを信
号の混合と分離のプロセスで考えると、図2のように表
現できる。すなわち、信号s1とs2は、マイクに到達す
るまでの間に混合されて、マイクではx1とx2と収音さ
れることになる(混合ブロック11)。この過程は混合
過程と呼ばれ、一般に未知である。分離ブロック12で
元の話者からの音声信号と雑音に対応する信号y1とy2
に分離される。混合ブロック11と分離ブロック12の
中身は、さらに図3で表現できる。
【0006】この場合、混合過程が既知であれば、混合
過程の逆システムを求めれば容易に元の信号に復元がで
きる。しかし、一般的には、混合過程は未知であるた
め、従来の線形理論の範疇では、この逆システムを求め
ることは不可能である。
【0007】ここで、信号s1とs2について検討する。 1.信号s1とs2はもともと関係のない信号である。す
なわち、s1とs2は統計的に独立していると考えられる
ので、同時確率密度関数p(s1,s2)は、次式のように、
1の密度関数p(s1)とs2の密度関数p(s2)の積として
表される。 p(s1,s2)=p(s1)p(s2) 2.信号x1とx2はそれぞれs1とs2が混合された信号
であるから、x1とx2は統計的に独立でない。したがっ
て、確率密度関数の観点からは次のようになる。 p(x1,x2)≠p(x1)p(x2) 3.出力y1とy2が統計的に独立となるようにできれ
ば、すなわち、 p(y1,y2)=p(y1)p(y2) というように、y1とy2の同時確率密度関数p(y1,y2)
がy1の確率密度関数p(y 1)とy2の確率密度関数p(y2)
の積に分解できれば、混合信号x1とx2から原信号s1
とs2が分離できたことになる。
【0008】上で述べた出力y1,y2の統計的独立性p
(y1,y2)=p(y1)p(y2)については、情報理論の観点か
ら、出力y1,y2の間の相互情報量
【数1】 をゼロにすることと等価となる。この相互情報量I(y1,
y2)は非負であるから、出力y1,y2を統計的に独立と
するためには、相互情報量I(y1,y2)を最小化すればよ
いことになる。一方、出力y1,y2の同時エントロピー
H(y1,y2)
【数2】 は、
【数3】 のように展開される。一般に同時エントロピーH(y1,
y2)は相互情報量I(y1,y2)が小さくなるほど大きくな
り、次の条件下で、相互情報量I(y1,y2)の最小化は同
時エントロピーH(y1,y2)の最大化と等価になる。
【0009】1)原信号si(i=1,2)の確率密度
関数p(si)は尖度がゼロより大きいスーパーガウシアン
(Super-Gaussian)である。
【0010】2)ニューロンへの総入力
【数4】 は単一の独立成分からなる。
【0011】3)ニューロンの入出力関係を表す非線形
関数yj=f(uj) (j=1,2)の導関数f'(uj)は原信号の確
率密度関数p(si)に等しい。ここに
【数5】 である。
【0012】従って、荷重更新をΔW=η∂H/∂W=W
-T−f(u)xTのアルゴリズムに従って行えば、同
時エントロピーH(y1,y2)の最大化が実現できる。ここ
に、f(u)=[f(u1),f(u2)]Tで、Tは転置を表
し、η(>0)は学習係数、WとΔWはそれぞれ次のよ
うに定義される荷重行列とその更新分を表す行列であ
る。
【数6】
【0013】しかし、上述のアルゴリズムの場合、収束
が遅いので、これを改善するためAmariによって提案さ
れた自然勾配アルゴリズム
【数7】 により荷重を更新する。ここに、u=[u1,u2]Tである。
さらに、ここでは、自然勾配アルゴリズムに慣性項を設
ける。したがって、以上をまとめると、t+1回目に更
新される荷重W(t+1)は以下のように計算されることに
なる。
【数8】 ここに、αは慣性係数で0以上1未満の定数である。
【0014】
【発明が解決しようとする課題】従来のブラインドセパ
レーション法では、分離復元された信号がどのチャンネ
ルに出力されるか予め定まらないという問題(permutat
ion)がある。そのため、ブラインドセパレーション法
を雑音除去に適用した場合、話者音声と雑音は分離され
て、雑音の除去された話者音声は得られるものの、その
話者音声がどのチャンネルに出力されるか分からない。
それ故、ブラインドセパレーション法を雑音環境下での
音声認識における雑音除去法として活用するには、音声
と非音声(雑音)を区別し話者音声チャンネルを特定し
て、音声信号の方を音声認識部に伝送する必要がある。
【0015】そこで本発明が解決しようとする課題は、
2つのマイクロフォンから得られる雑音混じりの混合信
号をブラインドセパレーション法に基づいて音声と雑音
を分離するとともに、確率分布の尖度評価に基づいて音
声信号のみを認識エンジンに直結したチャンネルに出力
する方法を提供することにある。
【0016】
【課題を解決するための手段】前記課題を解決するた
め、本発明の話者音声と非音声雑音の識別方法は、ブラ
インドセパレーション法によって分離した話者音声信号
と非音声雑音信号の確率分布の尖度を比較し、尖度の大
きい方を話者音声とし、尖度の小さい方を非音声雑音す
ることを特徴とする。また、本発明の話者音声チャンネ
ルの特定方法は、ブラインドセパレーション法によって
分離した話者音声信号と非音声雑音信号の確率分布の尖
度を比較し、尖度の大きい方を話者音声信号として音声
チャンネルに出力することを特徴とする。
【0017】話者音声と非音声雑音について、確率分布
をとってみると図4に示すように、分布形状が顕著に異
なり、図4(a)に示す音声の分布は、(b)に示す非
音声雑音の分布に比べてより尖った形をしている。そこ
で、本発明においては、分布の尖り具合を尖度(Kurtos
is)で評価し、尖度の大きい方(a)を音声、小さい方
(b)を非音声雑音とする。
【0018】
【発明の実施の形態】以下、本発明の実施の形態につい
て説明する。混合信号として直接観測されるx1とx2は
それぞれ原信号をある方向の軸に射影して得られる値と
考えられるが、これらの軸は一般に直交していない。そ
こで、混合信号x1とx2に対して、自然勾配アルゴリズ
ムの収束能力と分離能力を向上させる観点から、スフィ
アリング(Sphering)処理を行って、これらの軸が直交
するようにする。このスフィアリング処理は次式で表現
される。
【0019】
【数9】 のように変換する。ここに、
【数10】 なる行列で、S=[v1,v2Tは直交行列、λjとv
j(j=1,2)はそれぞれx(t)=[x1(t),x2(t)]T
の共分散行列V=<x(t)x(t)T>の固有値と固有ベク
トルである。この場合、スフィアリングされた信号x'
(t)=[x'1(t),x'2(t)]Tの共分散<x'(t)x'(t)T
は単位行列となって、x'1(t)とx'2(t)の軸は直交し、
同時にx'1(t)とx'2(t)は無相関となる。以上のことか
ら、このようにスフィアリングされた信号x'1(t)とx'
2(t)に対して、前述の自然勾配アルゴリズムを適用す
る。
【0020】自然勾配アルゴリズムにより、同時エント
ロピーH(y1,y2)が最大になって、相互情報量I(y1,y2)
が最小となり、出力y1とy2が統計的独立になった場
合、出力yjは総入力ujのみの非線形関数yj=f(uj)
であることから、総入力u1とu2も統計的に独立となる
ことが導かれる。また、原信号sjを復元する観点から
は、非線形関数により振幅が制限される出力yjに比べ
て、振幅の制限を受けない総入力ujの方が復元信号波
形として望ましい。したがって、総入力を音声認識エン
ジンに受け渡すことにする。
【0021】総入力u1とu2のどちらを音声認識エンジ
ンに受け渡すかは、u1の分布p(u1)とu2の分布p(u2)
の尖度を以下のように計算して比較することにより決め
る。すなわち、、p(u1),p(u2)の尖度を
【数11】 のように定義して、尖度k4(uj)が大きい方の総入力uj
を話者音声として音声認識エンジンに送る。ここに、
【数12】 はそれぞれujに関する平均まわりの2次と4次のモー
メントで、
【数13】 は平均、uj(n)はujのn時刻における値、Nはデータ
数である。この尖度の計算過程を図5のフローチャート
に示す。
【0022】図6は本発明を実施するためのシステムの
構成を示すブロック図である。上述したように、音声分
離ブロック12で分離された信号u1とu2では、どちら
が話者音声信号か非音声雑音信号か特定できない。そこ
で、尖度比較ブロック13で二つの信号u1とu2の尖度
4(uj)(j=1,2)を比較する。 ・k4(u1)>k4(u2)のとき、 u1→ch1 u2→ch2 とする。 ・k4(u1)>k4(u2)のとき、 u1→ch2 u2→ch1 とする。
【0023】これにより、ch1には、話者音声信号が
必ず出力されることになる。そして、本発明の方法につ
いて6名の話者による220駅名の発話音声(3秒間)
と30種類の非音声雑音(3秒間)をもとに調べた結
果、発話音声分布の最小尖度は非音声雑音分布の最大尖
度を越えることが確認され、提案法の有効性が検証され
た。具体的には、話者音声の尖度の最小が10.61で
あるのに対し、雑音の尖度の最大は6.12であった。
さらに、発話音声と非音声雑音の混合信号に対して、ブ
ラインドセパレーション法を適用して、分離信号に提案
法を適用した結果、すべての事例で発話音声と非音声雑
音を誤ることなく識別でき、2つの分離出力チャンネル
のうち話者音声チャンネルを正しく特定できることを確
認した。
【0024】
【実施例】以下、本発明の実施例について説明する。図
7は本発明の実施例の構成を示すもので、本実施例の音
声単語認識システムは、音声入力部20、雑音除去部3
0、音声認識部40及び出力インターフェース部50か
らなる。そして、各部での機能や動作原理等は以下のよ
うになっている。
【0025】a)音声入力部20は、2本のマイクフォ
ン21,22と次段へのインターフェース23で構成さ
れる。2つのマイクロフォン1,2からは話者音声と雑
音の混合比の異なる2種類の混合信号が次段の雑音除去
部30へ出力される。
【0026】b)雑音除去部30はFNC(雑音除去フ
ロントエンドプロセッサ)31とインターフェース部3
2から成る。先ず、FNC31では2種類の混合信号か
らブラインドセパレーション法により音声信号と雑音に
分離する。ブラインドセパレーション法は、元々、音声
と雑音は統計的に独立な信号であることを利用して導か
れたもので、分離能力は極めて高い。しかし、分離され
た信号がどのチャンネルにどの程度の大きさで出力され
るかは未解決である。そこで、2つの分離された信号の
確率分布について分布の尖り具合を示す尖度(Kurtosi
s)を計算し、尖度の大きい分離信号が出力されるチャ
ンネルを音声チャンネルと定める。そして、インターフ
ェース部32では、この音声チャンネルからの信号レベ
ルが次段の音声認識部40と整合するようレベル調整を
行う。
【0027】c)音声認識部40は、市販の音声単語認
識エンジン41から成り、ここで雑音が除去された音声
が認識されることになる。
【0028】d)出力インターフェース部50では、認
識エンジン41から通常ひら仮名で出力される認識結果
を各種アプリケーション向けのコードに変換するため、
キーボードエミュレーションを行う。
【0029】
【発明の効果】上述したように、本発明によれば下記の
効果を奏する。 (1)従来の雑音除去法が当初から雑音を除去した信号
のみを出力することを目的とする直接的な手法であるの
に対して、本発明の方法は、先ず、ブラインドセパレー
ション法により独立な信号を分離出力した後、次段の音
声認識部に送るべき音声信号チャンネルを特定するとい
う2段構えの手法となっている。そして、ブラインドセ
パレーション法は単なる一過性の雑音だけでなく反響的
な雑音も分離できる可能性があり、優れた分離能力を発
揮する。 (2)したがって、本発明によれば、ブラインドセパレ
ーション後、分布の尖度の大きいチャンネルから出力さ
れる音声信号として、極めて雑音の少ないピュアな音声
を得ることができる。 (3)従来の雑音除去法は、話者の音声が発声されてい
ない区間(非発声区間)、すなわち、雑音だけしかない
区間(雑音区間)が存在することを前提としているが、
ブラインドセパレーション法に基づく本発明の場合、雑
音区間の前提は不要である。 (4)従来の雑音除去法では、雑音区間を検出して、検
出された区間の信号から雑音の特性を推定することが要
求されるが、ブラインドセパレーション法に基づく本発
明の場合、雑音区間の検出や雑音特性の推定に関する処
理が不要である。
【図面の簡単な説明】
【図1】 ブラインドセパレーション法の概念図であ
る。
【図2】 ブラインドセパレーション法を信号の混合と
分離のプロセスで考えた概念図である。
【図3】 ブラインドセパレーションの回路的表現の説
明図である。
【図4】 話者音声の尖度と雑音の尖度を示すグラフで
ある。
【図5】 本発明の方法である話者音声チャンネル選択
法のフローチャートである。
【図6】 本発明の方法を実施するシステムの構成を示
すブロック図である。
【図7】 本発明の実施例を示すブロック図である。
【符号の説明】
11 混合ブロック、12 分離ブロック、13 尖度
比較器、20 音声入力部、21,22 マイク、23
インターフェース、30 雑音除去部、31雑音除去
フロントエンドプロセッサ、32 インターフェース、
40 音声認識部、41 認識エンジン、50 出力イ
ンターフェース部

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 ブラインドセパレーション法により分離
    された話者音声信号と非音声雑音信号について、確率分
    布の尖度を比較し、尖度の大きい方を話者音声と特定
    し、尖度の小さい方を非音声雑音と特定することを特徴
    とするブラインドセパレーションにおける話者音声と非
    音声雑音の識別方法。
  2. 【請求項2】 ブラインドセパレーション法により分離
    された話者音声信号と非音声雑音信号について、確率分
    布の尖度の大きい方を話者音声信号として音声チャンネ
    ルに出力することを特徴とするブラインドセパレーショ
    ンにおける話者音声チャンネルの特定方法。
JP2000213366A 2000-07-13 2000-07-13 ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法 Pending JP2002023776A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000213366A JP2002023776A (ja) 2000-07-13 2000-07-13 ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000213366A JP2002023776A (ja) 2000-07-13 2000-07-13 ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法

Publications (1)

Publication Number Publication Date
JP2002023776A true JP2002023776A (ja) 2002-01-25

Family

ID=18709129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000213366A Pending JP2002023776A (ja) 2000-07-13 2000-07-13 ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法

Country Status (1)

Country Link
JP (1) JP2002023776A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005029467A1 (en) * 2003-09-17 2005-03-31 Kitakyushu Foundation For The Advancement Of Industry, Science And Technology A method for recovering target speech based on amplitude distributions of separated signals
JP2005260744A (ja) * 2004-03-12 2005-09-22 Advanced Telecommunication Research Institute International マイクロホンアレーにおけるマイクロホン受音信号の同相化方法および同相化装置
KR100653173B1 (ko) 2005-11-01 2006-12-05 한국전자통신연구원 다중경로 혼합신호 분리계수의 교환 모호성을 해소하는방법 및 그 장치
KR100751921B1 (ko) 2005-11-11 2007-08-24 고려대학교 산학협력단 멀티채널 음성신호의 잡음제거 방법 및 장치
JP2009540344A (ja) * 2006-06-05 2009-11-19 イーエックスオーディオ アクチボラゲット ブラインド信号抽出
JP2010054954A (ja) * 2008-08-29 2010-03-11 Toyota Motor Corp 音声強調装置及び音声強調方法
US7809560B2 (en) 2005-02-01 2010-10-05 Panasonic Corporation Method and system for identifying speech sound and non-speech sound in an environment
JP2011081293A (ja) * 2009-10-09 2011-04-21 Toyota Motor Corp 信号分離装置、信号分離方法
CN103839552A (zh) * 2014-03-21 2014-06-04 浙江农林大学 一种基于峭度的环境噪音识别方法
JP2018055371A (ja) * 2016-09-28 2018-04-05 アイシン精機株式会社 走行環境予測装置
CN110010142A (zh) * 2019-03-28 2019-07-12 武汉大学 一种大容量音频信息隐藏的方法
JP2019200259A (ja) * 2018-05-15 2019-11-21 角元 純一 音声と非音声の度合いの検出方法
US10665091B2 (en) 2017-06-29 2020-05-26 Yazaki Corporation Information setting device and electronic appliance

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7562013B2 (en) 2003-09-17 2009-07-14 Kitakyushu Foundation For The Advancement Of Industry, Science And Technology Method for recovering target speech based on amplitude distributions of separated signals
WO2005029467A1 (en) * 2003-09-17 2005-03-31 Kitakyushu Foundation For The Advancement Of Industry, Science And Technology A method for recovering target speech based on amplitude distributions of separated signals
JP2005260744A (ja) * 2004-03-12 2005-09-22 Advanced Telecommunication Research Institute International マイクロホンアレーにおけるマイクロホン受音信号の同相化方法および同相化装置
US7809560B2 (en) 2005-02-01 2010-10-05 Panasonic Corporation Method and system for identifying speech sound and non-speech sound in an environment
KR100653173B1 (ko) 2005-11-01 2006-12-05 한국전자통신연구원 다중경로 혼합신호 분리계수의 교환 모호성을 해소하는방법 및 그 장치
KR100751921B1 (ko) 2005-11-11 2007-08-24 고려대학교 산학협력단 멀티채널 음성신호의 잡음제거 방법 및 장치
JP2009540344A (ja) * 2006-06-05 2009-11-19 イーエックスオーディオ アクチボラゲット ブラインド信号抽出
JP2010054954A (ja) * 2008-08-29 2010-03-11 Toyota Motor Corp 音声強調装置及び音声強調方法
JP2011081293A (ja) * 2009-10-09 2011-04-21 Toyota Motor Corp 信号分離装置、信号分離方法
CN103839552A (zh) * 2014-03-21 2014-06-04 浙江农林大学 一种基于峭度的环境噪音识别方法
JP2018055371A (ja) * 2016-09-28 2018-04-05 アイシン精機株式会社 走行環境予測装置
US10665091B2 (en) 2017-06-29 2020-05-26 Yazaki Corporation Information setting device and electronic appliance
JP2019200259A (ja) * 2018-05-15 2019-11-21 角元 純一 音声と非音声の度合いの検出方法
CN110010142A (zh) * 2019-03-28 2019-07-12 武汉大学 一种大容量音频信息隐藏的方法
CN110010142B (zh) * 2019-03-28 2021-05-04 武汉大学 一种大容量音频信息隐藏的方法

Similar Documents

Publication Publication Date Title
KR100745976B1 (ko) 음향 모델을 이용한 음성과 비음성의 구분 방법 및 장치
US5185848A (en) Noise reduction system using neural network
JP2764277B2 (ja) 音声認識装置
US20200066260A1 (en) Signal generation device, signal generation system, signal generation method, and computer program product
US20150066500A1 (en) Speech processing device, speech processing method, and speech processing program
WO2005029467A1 (en) A method for recovering target speech based on amplitude distributions of separated signals
JP2002023776A (ja) ブラインドセパレーションにおける話者音声と非音声雑音の識別方法及び話者音声チャンネルの特定方法
KR101305373B1 (ko) 관심음원 제거방법 및 그에 따른 음성인식방법
JP7176627B2 (ja) 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム
JP4462617B2 (ja) 音源分離装置,音源分離プログラム及び音源分離方法
US20070055511A1 (en) Method for recovering target speech based on speech segment detection under a stationary noise
Poorjam et al. A parametric approach for classification of distortions in pathological voices
CN113870893A (zh) 一种多通道双说话人分离方法及系统
WO2005029463A9 (en) A method for recovering target speech based on speech segment detection under a stationary noise
WO2012105386A1 (ja) 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム
Hiruma et al. Separating stereo audio mixture having no phase difference by convex clustering and disjointness map
Singh et al. Speech enhancement for Punjabi language using deep neural network
JP6973254B2 (ja) 信号分析装置、信号分析方法および信号分析プログラム
Koutras et al. Improving simultaneous speech recognition in real room environments using overdetermined blind source separation.
Delfarah et al. Talker-independent speaker separation in reverberant conditions
Rabaoui et al. Using HMM-based classifier adapted to background noises with improved sounds features for audio surveillance application
JP2002062892A (ja) 音響分類装置
KR101568282B1 (ko) 클러스터 기반 손실 특징 복원 알고리즘을 위한 마스크 추정 방법 및 장치
JP2000259198A (ja) パターン認識装置および方法、並びに提供媒体
JPH04324499A (ja) 音声認識装置