JP3894875B2 - Hearing aid - Google Patents

Hearing aid Download PDF

Info

Publication number
JP3894875B2
JP3894875B2 JP2002321438A JP2002321438A JP3894875B2 JP 3894875 B2 JP3894875 B2 JP 3894875B2 JP 2002321438 A JP2002321438 A JP 2002321438A JP 2002321438 A JP2002321438 A JP 2002321438A JP 3894875 B2 JP3894875 B2 JP 3894875B2
Authority
JP
Japan
Prior art keywords
processing
algorithm
hearing aid
external sound
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002321438A
Other languages
Japanese (ja)
Other versions
JP2004158986A (en
Inventor
起見 深瀬
克彦 後藤
真一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rion Co Ltd
Original Assignee
Rion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rion Co Ltd filed Critical Rion Co Ltd
Priority to JP2002321438A priority Critical patent/JP3894875B2/en
Publication of JP2004158986A publication Critical patent/JP2004158986A/en
Application granted granted Critical
Publication of JP3894875B2 publication Critical patent/JP3894875B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、スペクトラムサブトラクション処理のアルゴリズムと指向性処理のアルゴリズムを用いた補聴装置に関する。
【0002】
【従来の技術】
一般的に聴覚障害者は健聴者よりもSN比の悪い環境下での聞き取りが悪いと言われている。また、聞こえを補償する補聴器を装用した場合でも、騒音と音声を区別せずにそのまま増幅してしまうため、騒音下ではさらに聞き取りが悪くなり快適に装用できないことが問題となっている。
そこで、補聴器の高音域の音響利得を上げることにより音声を増幅・強調すると共に、低音域の音響利得を下げることにより空調や自動車などの騒音をあまり増幅しないようにするなどして対応してきたが、補聴器装用者に十分な満足感を提供できていないのが実状である。
【0003】
それを解決する手段として、近年のDSP(digital signal processor)の発展に伴い、所望の音声と不要な騒音が混ざっている音から騒音成分を取り除くためのスペクトラムサブトラクション処理に代表されるノイズリダクションの手法や、正面以外からの音のレベルを低減させてSN比を向上させる指向性処理などが補聴器に用いられるようになってきた。
【0004】
例えば、スペクトラムサブトラクション処理は、音声と雑音が混入した信号から雑音のみのスペクトルを何らかの方法で算出し、その雑音スペクトルを入力信号から減算することによってSN比を改善し、補聴器装用者に快適性、明瞭性の面で寄与できる。また、この方法は雑音のスペクトルを減算することから、特に定常雑音の低減に効果的である(例えば、非特許文献1参照)。
【0005】
一方、指向性処理は、正面方向以外から到来した音のレベルを無条件に減衰させることによりSN比を改善させる方法で、指向性マイクロホン又は複数の無指向性マイクロホンを使用して行われている。
指向性マイクロホンを使用する方法は、マイクロホン自体に指向性を持たせたもので、正面方向のマイクロホン感度をそのままにして、正面方向以外の感度を低くくし、SN比を改善する手法である。複数のマイクロホンを使用する方法は、例えば2つのマイクロホンを用いた場合では、両マイクロホン間に入力された信号の時間のずれを補正して足し合わせることにより、正面方向に指向性を持たせ正面の音を強調する手法等が考えられている。
【0006】
これらの手法は正面以外の音のレベルを無条件に低減するため、スペクトラムサブトラクション処理で低減できないような突発音や変動の大きな騒音などのいわゆる非定常騒音でのSN比改善に効果が期待できる(例えば、非特許文献2参照)。
【0007】
【非特許文献1】
S.F. Bo : Suppression of acoustic noise in speech using spectral subtraction, IEEE Trans., ASSP, Vol.27, No.2, pp.113-120(1979)
【非特許文献2】
T. Richetts et al.: Making sense of Directional Microphone Hearing Aid, American Journal of Audiology, Vol.8, pp.117-127(1999)
【0008】
【発明が解決しようとする課題】
スペクトラムサブトラクション処理においては、定常雑音のスペクトルを検出するまでの時間(アタックタイム)が長い場合があり、突発音やレベル変動が大きい非定常騒音下での効果がなくなるという欠点がある。また、指向性処理においては、指向性処理を行うと死角ができるためにその方向からの音が極端に小さくなってしまい、例えばその方向から呼ばれたとしたら聞き取れない場合がある。
従来の補聴器においては、SN比を改善するためにスペクトラムサブトラクション処理と指向性処理が、その時々の周囲の音環境には無関係に、常時それぞれ独立または同時に行われているため、音環境によってはその効果が低減したり、かえって聞き難くなってしまう場合があった。
【0009】
本発明は、従来の技術が有するこのような問題点に鑑みてなされたものであり、その目的とするところは、使用環境(音環境)に応じてスペクトラムサブトラクション処理のアルゴリズムと指向性処理のアルゴリズムを切り替えるまたは同時に行うことが可能な補聴装置を提供しようとするものである。
【0010】
【課題を解決するための手段】
上記課題を解決すべく請求項1に係る発明は、複数のマイクロホンを備えて外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号から前記外部音が含む騒音に起因する出現頻度数分布の尖度を算出し、この尖度と予め設定した閾値を比較し、その大小関係に基づいて補聴処理のアルゴリズムとしてスペクトラムサブトラクション処理又は指向性処理を決定する環境騒音分析手段と、この環境騒音分析手段で決定された補聴処理のアルゴリズムに基づいて前記外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段を備え、前記尖度が前記閾値と比較して高い場合には、補聴処理のアルゴリズムとして前記スペクトラムサブトラクション処理を選択し、前記尖度が前記閾値と比較して低い場合には、補聴処理のアルゴリズムとして前記指向性処理を選択するものである。
【0011】
請求項2に係る発明は、複数のマイクロホンを備えて外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号から前記外部音が含む騒音に起因する出現頻度数分布の尖度を算出すると共に前記出現頻度数分布の最頻度を算出し、前記尖度と予め設定した第1の閾値を比較しその大小関係、及び前記最頻度と予め設定した第2の閾値を比較しその大小関係に基づいて、補聴処理のアルゴリズムとしてスペクトラムサブトラクション処理及び指向性処理を決定する環境騒音分析手段と、この環境騒音分析手段で決定された補聴処理のアルゴリズムに基づいて前記外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段を備え、前記尖度が第1の閾値と比較して高く、前記最頻度が第2の閾値と比較して高い場合には、補聴処理のアルゴリズムとして前記指向性処理を選択してSN比を多少改善させた後に前記スペクトラムサブトラクション処理を選択するものである
【0017】
【発明の実施の形態】
以下に本発明の実施の形態を添付図面に基づいて説明する。ここで、図1は本発明に係る補聴装置のブロック構成図、図2はフレーム分割処理に関する説明図、図3は本発明に係る補聴装置の動作を示すフローチャート、図4乃至図6は補聴装置の動作の説明に供する度数分布図、図7は補聴装置の他の実施の形態の説明に供する度数分布図である。
【0018】
本発明に係る補聴装置は、図1に示すように、外部音を取り込んで外部音に基づくデジタルデータを出力する外部音検出手段1と、外部音検出手段1が出力するデジタルデータから補聴処理のアルゴリズムを決定する環境騒音分析手段2と、環境騒音分析手段2で決定された補聴処理のアルゴリズム(スペクトラムサブトラクション処理及び/又は指向性処理)を選択して外部音検出手段1が出力するデジタルデータを処理する信号処理手段3と、信号処理手段3が出力するデジタルデータを所望なレベルのアナログ音響信号に変換する音響出力手段4からなる。
【0019】
外部音検出手段1は、外部音を検出して電気信号に変換する2つのマイクロホン1a,1bと、これらのマイクロホン1a,1bの出力電圧をデジタル信号に変換するA/D変換器1c,1dと、A/D変換器1c,1d出力するデジタルデータを順次記憶するフレームメモリ1e,1fからなる。ここで、一方のマイクロホン1aは無指向性マイクロホンであり、他方のマイクロホン1bは無指向性マイクロホン又は指向性マイクロホンである。
【0020】
フレームメモリ1e,1fは、図2に示すように、最初の時間フレームF0に属するデジタルデータ列の記憶が完了し終わると、最初の時間フレームF0のデジタルデータ列を、次の時間フレームF1に属するデジタルデータ列に順次書き換え、以後これを繰り返す。
【0021】
環境騒音分析手段2は、平均実効レベル算出部2aと、平均実効レベルメモリ2bと、出現頻度数分布図算出部2cと、ピーク位置検出部2dと、定常度算出部2eと、アルゴリズム決定部2fからなる。
【0022】
平均実効レベル算出部2aは、フレームメモリ1eが出力する単位時間フレームに属するデジタルデータ列の記憶が完了した時点で、単位時間フレームに属するデジタルデータ列からこの単位時間フレームの平均実効レベルを算出する。平均実効レベルメモリ2bは、平均実効レベル算出部2aが出力する単位時間フレームの平均実効レベルpをその都度記憶する。
【0023】
出現頻度数分布図算出部2cは、平均実効レベル算出部2aが順次算出する時間フレームの平均実効レベルpに対応する時間フレームの数(度数)を表す度数分布図を作成する。ピーク位置検出部2dは、出現頻度数分布図算出部2cが作成した度数分布図において、平均実効レベルの小さい領域に現れる分布の最頻値LL(ノイズの音圧レベルLL)を検出する。
【0024】
定常度算出部2eは、ピーク位置検出部2dで検出された最頻値を中心として所定範囲内の度数分布の尖度Kw(定常度)を算出する。ここで、尖度Kwとは分布のとがり具合を表す。アルゴリズム決定部2fは、ピーク位置検出部2dが出力する最頻値LLと、定常度算出部2eが出力する定常度、即ち尖度Kwから使用する補聴処理のアルゴリズムを決定する。
【0025】
信号処理手段3は、アルゴリズム選択部3aと、非線形信号処理部3bと、予め用意した入出力特性テーブル3cからなる。
アルゴリズム選択部3aは、環境騒音分析手段2によって決定された補聴処理のアルゴリズム(指向性処理及び/又はスペクトラムサブトラクション処理)を選択し、選択したアルゴリズムに基づいて外部音検出手段1で検出された外部音のデジタルデータを処理する。
【0026】
非線形信号処理部3bは、平均実効レベルメモリ2bから得られる単位時間フレームの平均実効レベルpから、入出力特性テーブル3cを参照して、単位時間フレームの利得f(p)を算出し、アルゴリズム選択部3aで指向性処理及び/又はスペクトラムサブトラクション処理を行った後のデジタルデータに利得f(p)を乗じて、音響出力手段4に出力する。
【0027】
音響出力手段4は、D/A変換器4aと、D/A変換器4aの出力信号を所定の利得で増幅する増幅器4bと、増幅器4bの出力信号を電気音響変換するイヤホン4cからなり、処理された外部音を音響信号として出力する。
【0028】
以上のように構成した本発明に係る補聴装置の動作について、図3に示すフローチャートを用いて説明する。
先ず、ステップSP1において、平均実効レベルメモリ2bとフレームメモリ1e,1fの初期設定を行う。
【0029】
次いで、ステップSP2において、出現頻度数分布図を作成するのに必要な予め定めた総時間フレーム数(総度数=Z)をカウンタ(Z)にセットし、平均実効レベルpを算出するのに必要な予め定めた単位時間フレーム内のサンプル数(総数Zf)をカウンタ(Zf)にセットする。
【0030】
ステップSP3では、出現頻度数分布図を作成する時間フレーム数を計数するためのカウンタ(a)をリセット(a=0)する。更に、ステップSP4では、単位時間フレーム内のサンプル数を計数するためのカウンタ(b)をリセット(b=0)する。
【0031】
次いで、ステップSP5において、マイクロホン1aからのマイクロホン信号をA/D変換器1cによって所定のサンプリング周波数にてA/D変換してデジタルデータX'bを得る。
【0032】
ステップSP6では、ステップSP5において得られたデジタルデータX’bをXb=X’bとしてフレームメモリ1eに格納する。そして、ステップSP7では、補聴処理のアルゴリズムフラグを参照し、アルゴリズムフラグが「1」以上(「1」または「2」)であるかどうかを判断する。なお、アルゴリズムフラグの初期値は「0」、「1」または「2」でも良い。また、初期値が決まるまでは出力を出さないようにしてもよい。
【0033】
アルゴリズムフラグが「1」以上(「1」または「2」)であるならば、ステップSP8にて、デジタルデータX’bに対して指向性処理のアルゴリズムを実行し、Xcを得る。一方、アルゴリズムフラグが「1」以上ではない(「0」)ならば、更にステップSP9にて、アルゴリズムフラグが「1」以下(「0」または「1」)であるかどうかを判断する。
【0034】
アルゴリズムフラグが「1」以下(「0」または「1」)であるならば、ステップSP10にて、デジタルデータX’bに対してスペクトラムサブトラクション処理のアルゴリズムを実行し、Xcを得る。一方、アルゴリズムフラグが「1」以下(「0」または「1」)でないならば、ステップSP11へ進む。
【0035】
従って、アルゴリズムフラグが「0」の場合には、スペクトラムサブトラクション処理のアルゴリズムのみを実行し、アルゴリズムフラグが「2」の場合には、指向性処理のアルゴリズムのみを実行し、アルゴリズムフラグが「1」の場合には、指向性処理のアルゴリズムとスペクトラムサブトラクション処理のアルゴリズムの両方を実行することになる。
【0036】
指向性処理のアルゴリズムを実行する場合には、マイクロホン1bが指向性マイクロホンであれば、マイクロホン1bの出力信号だけで信号処理を行うが、マイクロホン1bが無指向性マイクロホンであれば、マイクロホン1bの出力信号と無指向性マイクロホンであるマイクロホン1aの出力信号を用いて信号処理を行う。一方、スペクトラムサブトラクション処理のアルゴリズムを実行する場合には、無指向性マイクロホンであるマイクロホン1aの出力信号だけで信号処理を行う。
【0037】
次いで、ステップSP11において、平均実効レベルメモリ2bに格納されている平均実効レベルpを読み出し、ステップSP12において、入出力特性テーブル3cから利得f(p)を参照する。
【0038】
そして、ステップSP13において、非線形信号処理部3bは指向性処理及び/又はスペクトラムサブトラクション処理のアルゴリズムを実行したデジタルデータXcに利得f(p)を乗じて、出力値R=Xc×f(p)を生成する。
【0039】
ステップSP14では、非線形信号処理部3bは生成した出力値Rを音響出力手段4のD/A変換器4aに出力する。D/A変換器4aの出力は、増幅器4bで増幅された後にイヤホン4cによって電気音響変換され補聴器装用者の外耳道内に音響信号として出力される。
次いで、ステップSP15において、フレーム長内のサンプル数を計数するためのカウンタ(b)をインクリメント(+1)する。
【0040】
ステップSP16では、カウンタ(b)の値とカウンタ(Zf)の値を比較し、b≧Zfになったか否かの判定を行う。b<Zfの場合には、未だ、単位時間フレーム当たりのデジタルデータ列に達していないので、ステップSP5に戻り、デジタルデータを蓄積する。一方、b≧Zfの場合には、単位フレーム当たりのデジタルデータ列がすべて(x0,x1,x2,……,xZf-1)得られたので、ステップSP17に進む。
【0041】
ステップSP17では、平均実効レベル算出部2aが単位時間フレームに属するデジタルデータ列(x0,x1,x2,……,xZf-1)からこの単位時間フレームの平均実効レベルpを算出する。平均実効レベルpの算出は、次式で行われる。次式において、nは、単位フレームに属するデジタルデータ列の数である。
【0042】
p={(x0 2+x1 2+x2 2……xZf-1 2)/n}1/2
【0043】
次いで、ステップSP18に進み、ステップSP17で得られた単位時間フレームの平均実効レベルpを平均実効レベルメモリ2bに記憶する。
ステップSP19では、横軸に平均実効レベルp、縦軸に平均実効レベルpを有する時間フレームの頻度数とする度数分布図を作成するために、ステップSP17で算出された平均実効レベルpに対応するカウンタを設けて、平均実効レベルpが算出される毎に対応するカウンタをインクリメントし、平均実効レベルpを有する時間フレームの数を計数する。
【0044】
次いで、ステップSP20において、カウンタ(a)をインクリメント(+1)する。そして、ステップSP21において、カウンタ(a)の値と予め定めた総度数Zの値を比較し、a≧Zになったか否かを判定する。a≧Zの場合には、予め定めた総度数分(Z個)の度数分布図が得られたので、ステップSP22に進む。一方、a<Zの場合には、完全な度数分布図が得られていないので、ステップSP4に戻り、カウンタ(b)をb=0とした後、所定のループを繰り返す。
【0045】
a≧Zの条件下で得られる度数分布図は、例えば図4と図5に示すものである。ここで、図4は定常度が低い騒音の中に会話音声が含まれる場合の度数分布図の例であり、図5は定常度が高い騒音の中に会話音声が含まれる場合の度数分布の例である。図4と図5はいずれも、平均実効レベルの低い領域に環境騒音に起因する分布Aが現れ、平均実効レベルの高い領域に音声に起因する分布Bが現れている。
【0046】
一般に、騒音中において、会話者は、会話音が騒音でマスキングされるのを回避するために、騒音レベルより高いレベルで会話するから、平均実効レベルの低い領域に環境騒音に起因する分布Aが現れ、平均実効レベルの高い領域に音声に起因する分布Bが現れる。
【0047】
図6は騒音の分布と会話音声の分布が接近し、騒音の分布と会話音声の分布との境界が不鮮明な場合の度数分布を示している。騒音の分布の右側(平均実効レベルの高い領域の部分)に会話音声の分布の一部が含まれるため、正しい定常度の算出が困難になる。これを回避するために、図6に示す度数分布図において、騒音の分布の最頻値から見て、平均実効レベルの低い領域の部分の分布図形状を高い領域に向けて折り返し、図7に示す左右対称となる分布図形を作成し直してから、ステップSP19を実行してもよい。
【0048】
また、図5における騒音に起因する分布Aの方が、図4における騒音に起因する分布Aに比べて、分布が鋭い。これは、発明が解決する課題の欄で説明したように、図4における騒音の方が、図5における騒音に比べて、種々雑多な音響成分を含んでいることによる。
【0049】
次いで、ステップSP22において、ピーク位置検出部2dが出現頻度数分布図算出部2cによって得られた度数分布から平均実効レベルの最も低い領域に現れる度数分布、すなわち、騒音に起因する度数分布の最頻値(図4、図5におけるLL)を検出する。最頻値LLは、値が大きいほどノイズレベルが高く、値が小さいほどノイズレベルが低い。
【0050】
ステップSP23では、定常度算出部2eがピーク位置検出部2dで検出された図4に示す分布Aの最頻値を中心とした所定の範囲内のデータに基づいて尖度Kwを算出する。尖度Kwは以下の式で定義される。但し、nは所定の範囲内での総度数、Zi(i=1,2,……,n)は各時間フレームの平均実効レベル、ZaveはZiの平均値、Vは分散である。
【0051】
Kw=Σ(Zi−Zave)4/(nV2)−3
【0052】
この式から求められる尖度Kwの値を定常度を表わす尺度とする。また、尖度Kwの値が大きいほど定常度が高く、尖度Kwの値が小さいほど定常度が低い。
【0053】
次いで、ステップSP24において、アルゴリズム決定部2fがピーク位置検出部2dで検出された最頻値LLと、定常度算出部2eから出力された環境騒音の定常度とある閾値と比較し、ノイズレベルが低く定常度が高い場合はスペクトラムサブトラクション処理のアルゴリズム、ノイズレベルと定常度が低い場合は指向性処理のアルゴリズム、定常度に関係なくノイズレベルが高い場合は両方のアルゴリズムとする決定を行う。
【0054】
ステップSP25では、アルゴリズムが指向性処理ならばアルゴリズムフラグを「2」とし、アルゴリズムがスペクトラムサブトラクション処理ならばアルゴリズムフラグを「0」とし、アルゴリズムが指向性処理とスペクトラムサブトラクション処理の両方であればアルゴリズムフラグを「1」にする。
【0055】
次いで、ステップSP26において、度数分布図をクリアしてステップSP3に戻る。ステップSP3において、前述と同様にカウンタ(a)はa=0にセットされる。更に、ステップSP4から、前述と同様の処理を実行する。
【0056】
以上説明したように、本発明に係る補聴装置においては、定常度とノイズレベルに応じて補聴処理のアルゴリズムを切り替えるものである。周囲環境に応じて、スペクトラムサブトラクション処理又は指向性処理に切り替えることにより、さまざまな騒音中での語音を明瞭に聴き取ることができる。
【0057】
なお、本発明は上述の実施の形態に限定されるものではなく、種々の変形の実施形態が考えられる。
上述の実施の形態においては、スペクトラムサブトラクション処理だけの場合、指向性処理だけの場合、またはスペクトラムサブトラクション処理と指向性処理の場合の3つを切り替えることした。しかし、騒音中で明瞭に語音を聴き取ることができればよいのであるから、その他のアルゴリズムに置き換えてもよい。
【0058】
本発明の実施の形態においては、尖度Kwの値を、定常度を表わす尺度としたが、定常度が算出できればよいのであるから、分布の標準偏差を算出し、この値を定常度としてもよい。この場合は、標準偏差の値が大きいほど定常度が低く、標準偏差の値が小さいほど定常度が高いということになる。
また、出現頻度数分布図の最頻度数を定常度としてもよい。この場合は、最頻度数が大きいほど定常度が高く、最頻度数が小さいほど定常度は低くなる。
【0059】
【発明の効果】
以上説明したように本発明によれば、使用環境に応じてスペクトラムサブトラクション処理のアルゴリズム及び/又は指向性処理のアルゴリズムを選択することができるので、環境騒音の質のいかんに拘わらず聴き取り対象となる音声を明瞭に聴き取ることができる。
【図面の簡単な説明】
【図1】本発明に係る補聴装置のブロック構成図
【図2】フレーム分割処理に関する説明図
【図3】本発明に係る補聴装置の動作を示すフローチャート
【図4】補聴装置の動作の説明に供する度数分布図で変動性の騒音を含む出現頻度数分布図
【図5】補聴装置の動作の説明に供する度数分布図で定常性の騒音を含む出現頻度数分布図
【図6】補聴装置の動作の説明に供する度数分布図でSN比が悪い場合の出現頻度数分布図
【図7】他の実施の形態の説明に供する度数分布図で騒音のピークを中心として左右対称な分布図形
【符号の説明】
1…外部音検出手段、1a,1b…マイクロホン、1c,1d…A/D変換器、1e,1f…フレームメモリ、2…環境騒音分析手段、2a…平均実効レベル算出部、2b…平均実効レベルメモリ、2c…出現頻度数分布図算出部、2d…ピーク位置検出部、2e…定常度算出部、2f…アルゴリズム決定部、3…信号処理手段、3a…アルゴリズム選択部、3b…非線形信号処理部、3c…入出力特性テーブル、4…音響出力手段、4a…D/A変換器、4b…増幅器、4c…イヤホン。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a hearing aid apparatus using an algorithm for spectrum subtraction processing and an algorithm for directivity processing.
[0002]
[Prior art]
In general, hearing-impaired people are said to have poorer hearing in an environment with a poorer signal-to-noise ratio than normal hearing. Further, even when a hearing aid that compensates for hearing is worn, noise and voice are amplified without being distinguished from each other, and therefore, there is a problem that hearing is further worsened under noise and cannot be comfortably worn.
Therefore, we have responded by amplifying and emphasizing the sound by increasing the acoustic gain in the high frequency range of the hearing aid, and by reducing the acoustic gain in the low frequency range so as not to amplify the noise of air conditioners and cars. However, the reality is that sufficient satisfaction cannot be provided to the hearing aid wearer.
[0003]
As a means to solve this, with the recent development of DSP (digital signal processor), a noise reduction technique typified by spectrum subtraction processing to remove noise components from the sound in which desired sound and unwanted noise are mixed In addition, directional processing that improves the S / N ratio by reducing the level of sound from other than the front has been used for hearing aids.
[0004]
For example, in the spectrum subtraction process, a noise-only spectrum is calculated from a signal in which voice and noise are mixed, and the SN ratio is improved by subtracting the noise spectrum from the input signal. Can contribute in terms of clarity. In addition, this method subtracts the noise spectrum, and is particularly effective in reducing stationary noise (see, for example, Non-Patent Document 1).
[0005]
On the other hand, the directivity processing is a method of improving the S / N ratio by unconditionally attenuating the level of sound coming from other than the front direction, and is performed using a directional microphone or a plurality of omnidirectional microphones. .
The method of using a directional microphone is a method in which the microphone itself has directivity, and the microphone sensitivity in the front direction is left as it is, the sensitivity in the direction other than the front direction is lowered, and the SN ratio is improved. For example, in the case of using two microphones, the method of using a plurality of microphones is to add a directivity in the front direction by correcting the time lag of the signals input between the two microphones and adding them together. A method for enhancing the sound is considered.
[0006]
Since these methods unconditionally reduce the level of sound other than the front, an effect can be expected to improve the S / N ratio in so-called non-stationary noise such as sudden sound and large fluctuation noise that cannot be reduced by spectrum subtraction processing ( For example, refer nonpatent literature 2).
[0007]
[Non-Patent Document 1]
SF Bo: Suppression of acoustic noise in speech using spectral subtraction, IEEE Trans., ASSP, Vol.27, No.2, pp.113-120 (1979)
[Non-Patent Document 2]
T. Richetts et al .: Making sense of Directional Microphone Hearing Aid, American Journal of Audiology, Vol.8, pp.117-127 (1999)
[0008]
[Problems to be solved by the invention]
In the spectrum subtraction process, there is a case in which the time until the stationary noise spectrum is detected (attack time) may be long, and there is a disadvantage that the effect under sudden noise and unsteady noise with a large level fluctuation is lost. In directivity processing, if the directivity processing is performed, a blind spot is formed, so that the sound from that direction becomes extremely small. For example, if it is called from that direction, it may not be heard.
In conventional hearing aids, spectrum subtraction processing and directivity processing are always performed independently or simultaneously regardless of the surrounding sound environment in order to improve the signal-to-noise ratio. In some cases, the effect may be reduced or it may be difficult to hear.
[0009]
The present invention has been made in view of such problems of the prior art, and an object of the present invention is to use an algorithm for spectrum subtraction processing and an algorithm for directivity processing according to the use environment (sound environment). It is an object of the present invention to provide a hearing aid device that can be switched or simultaneously performed.
[0010]
[Means for Solving the Problems]
According to claim 1 to solve the above problems the invention includes an external sound detection means for outputting an electrical signal corresponding to the external sound includes a plurality of microphones, the external sound from an output signal of the external sound detection means Environmental noise that calculates the kurtosis of the appearance frequency distribution due to noise, compares this kurtosis with a preset threshold value, and determines spectrum subtraction processing or directivity processing as an algorithm for hearing aid processing based on the magnitude relationship Analysis means, signal processing means for processing the output signal of the external sound detection means based on an algorithm for hearing aid processing determined by the environmental noise analysis means, and sound for converting the output signal of the signal processing means into an acoustic signal an output unit, wherein when the kurtosis is high compared with the threshold value, selecting the spectral subtraction process as an algorithm of the hearing aid processing And, wherein when kurtosis is low compared to the threshold value, a shall select the directional processing as an algorithm of the hearing aid processing.
[0011]
The invention according to claim 2 is an external sound detection unit that includes a plurality of microphones and outputs an electrical signal corresponding to an external sound, and an appearance frequency caused by noise included in the external sound from an output signal of the external sound detection unit. Calculating the kurtosis of the number distribution and calculating the maximum frequency of the appearance frequency number distribution, comparing the kurtosis with a preset first threshold value, a magnitude relationship thereof, and a preset second value with the maximum frequency An environmental noise analyzing means for determining spectrum subtraction processing and directivity processing as an algorithm for hearing aid processing based on a comparison of threshold values and a magnitude relationship thereof, and the external sound processing based on the hearing aid processing algorithm determined by the environmental noise analyzing means Signal processing means for processing the output signal of the sound detection means, and acoustic output means for converting the output signal of the signal processing means into an acoustic signal, wherein the kurtosis is a first threshold value If the frequency is higher than the second threshold value, the directivity processing is selected as the hearing aid processing algorithm and the SN ratio is slightly improved, and then the spectrum subtraction processing is selected. Is .
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the accompanying drawings. Here, FIG. 1 is a block diagram of a hearing aid device according to the present invention, FIG. 2 is an explanatory diagram regarding frame division processing, FIG. 3 is a flowchart showing the operation of the hearing aid device according to the present invention, and FIGS. FIG. 7 is a frequency distribution diagram used for explaining another embodiment of the hearing aid device.
[0018]
As shown in FIG. 1, the hearing aid according to the present invention includes an external sound detection means 1 that captures an external sound and outputs digital data based on the external sound, and a hearing aid process from the digital data output by the external sound detection means 1. The environmental noise analyzing means 2 for determining the algorithm and the digital data output from the external sound detecting means 1 by selecting the hearing aid processing algorithm (spectrum subtraction processing and / or directivity processing) determined by the environmental noise analyzing means 2 The signal processing means 3 for processing and the sound output means 4 for converting the digital data output from the signal processing means 3 into an analog sound signal of a desired level.
[0019]
The external sound detection means 1 includes two microphones 1a and 1b that detect external sound and convert them into electrical signals, and A / D converters 1c and 1d that convert output voltages of these microphones 1a and 1b into digital signals. , A / D converters 1c and 1d are composed of frame memories 1e and 1f for sequentially storing digital data output. Here, one microphone 1a is an omnidirectional microphone, and the other microphone 1b is an omnidirectional microphone or a directional microphone.
[0020]
As shown in FIG. 2, the frame memories 1e and 1f, when the storage of the digital data sequence belonging to the first time frame F0 is completed, the digital data sequence of the first time frame F0 belongs to the next time frame F1. Sequentially rewrite the digital data string, and repeat this.
[0021]
The environmental noise analysis means 2 includes an average effective level calculation unit 2a, an average effective level memory 2b, an appearance frequency number distribution map calculation unit 2c, a peak position detection unit 2d, a stationarity calculation unit 2e, and an algorithm determination unit 2f. Consists of.
[0022]
The average effective level calculation unit 2a calculates the average effective level of the unit time frame from the digital data sequence belonging to the unit time frame when the storage of the digital data sequence belonging to the unit time frame output from the frame memory 1e is completed. . The average effective level memory 2b stores the average effective level p of the unit time frame output by the average effective level calculation unit 2a each time.
[0023]
The appearance frequency number distribution diagram calculation unit 2c creates a frequency distribution diagram indicating the number of time frames (frequency) corresponding to the average effective level p of the time frames sequentially calculated by the average effective level calculation unit 2a. The peak position detection unit 2d detects a mode value LL (noise sound pressure level LL) of a distribution that appears in a region having a small average effective level in the frequency distribution diagram created by the appearance frequency number distribution diagram calculation unit 2c.
[0024]
The stationarity calculation unit 2e calculates the kurtosis Kw (stationarity) of the frequency distribution within a predetermined range around the mode value detected by the peak position detection unit 2d. Here, the kurtosis Kw represents the sharpness of the distribution. The algorithm determination unit 2f determines the hearing aid processing algorithm to be used from the mode LL output by the peak position detection unit 2d and the stationarity output from the stationarity calculation unit 2e, that is, the kurtosis Kw.
[0025]
The signal processing means 3 includes an algorithm selection unit 3a, a nonlinear signal processing unit 3b, and an input / output characteristic table 3c prepared in advance.
The algorithm selection unit 3a selects the hearing aid processing algorithm (directivity processing and / or spectrum subtraction processing) determined by the environmental noise analysis means 2, and the external sound detected by the external sound detection means 1 based on the selected algorithm. Processes digital sound data.
[0026]
The nonlinear signal processing unit 3b refers to the input / output characteristic table 3c from the average effective level p of the unit time frame obtained from the average effective level memory 2b, calculates the gain f (p) of the unit time frame, and selects the algorithm. The digital data after the directivity processing and / or spectrum subtraction processing is performed by the unit 3a is multiplied by the gain f (p), and is output to the sound output means 4.
[0027]
The acoustic output means 4 comprises a D / A converter 4a, an amplifier 4b for amplifying the output signal of the D / A converter 4a with a predetermined gain, and an earphone 4c for electroacoustic converting the output signal of the amplifier 4b. The external sound is output as an acoustic signal.
[0028]
The operation of the hearing aid device according to the present invention configured as described above will be described with reference to the flowchart shown in FIG.
First, in step SP1, the average effective level memory 2b and the frame memories 1e and 1f are initialized.
[0029]
Next, in step SP2, a predetermined total number of time frames (total frequency = Z) necessary for creating the appearance frequency number distribution map is set in the counter (Z), and is necessary for calculating the average effective level p. The number of samples (total number Zf) in a predetermined unit time frame is set in the counter (Zf).
[0030]
In step SP3, the counter (a) for counting the number of time frames for creating the appearance frequency number distribution chart is reset (a = 0). In step SP4, the counter (b) for counting the number of samples in the unit time frame is reset (b = 0).
[0031]
Next, in step SP5, the microphone signal from the microphone 1a is A / D converted at a predetermined sampling frequency by the A / D converter 1c to obtain digital data X′b.
[0032]
In step SP6, the digital data X′b obtained in step SP5 is stored in the frame memory 1e as Xb = X′b. In step SP7, the algorithm flag of the hearing aid process is referred to and it is determined whether the algorithm flag is “1” or more (“1” or “2”). The initial value of the algorithm flag may be “0”, “1”, or “2”. Further, the output may not be output until the initial value is determined.
[0033]
If the algorithm flag is “1” or more (“1” or “2”), the directivity processing algorithm is executed on the digital data X′b in step SP8 to obtain Xc. On the other hand, if the algorithm flag is not “1” or more (“0”), it is further determined in step SP9 whether the algorithm flag is “1” or less (“0” or “1”).
[0034]
If the algorithm flag is equal to or less than “1” (“0” or “1”), in step SP10, the spectrum subtraction algorithm is executed on the digital data X′b to obtain Xc. On the other hand, if the algorithm flag is not “1” or less (“0” or “1”), the process proceeds to step SP11.
[0035]
Accordingly, when the algorithm flag is “0”, only the spectrum subtraction algorithm is executed, and when the algorithm flag is “2”, only the directivity algorithm is executed and the algorithm flag is “1”. In this case, both the directivity processing algorithm and the spectrum subtraction processing algorithm are executed.
[0036]
When the directional processing algorithm is executed, if the microphone 1b is a directional microphone, signal processing is performed using only the output signal of the microphone 1b. If the microphone 1b is an omnidirectional microphone, the output of the microphone 1b is used. Signal processing is performed using the signal and the output signal of the microphone 1a which is an omnidirectional microphone. On the other hand, when the spectrum subtraction algorithm is executed, signal processing is performed using only the output signal of the microphone 1a, which is an omnidirectional microphone.
[0037]
Next, in step SP11, the average effective level p stored in the average effective level memory 2b is read, and in step SP12, the gain f (p) is referenced from the input / output characteristic table 3c.
[0038]
In step SP13, the nonlinear signal processing unit 3b multiplies the digital data Xc obtained by executing the directivity processing and / or spectrum subtraction processing algorithm by the gain f (p) to obtain an output value R = Xc × f (p). Generate.
[0039]
In step SP14, the nonlinear signal processing unit 3b outputs the generated output value R to the D / A converter 4a of the sound output unit 4. The output of the D / A converter 4a is amplified by the amplifier 4b and is then electroacoustic converted by the earphone 4c and output as an acoustic signal in the ear canal of the hearing aid wearer.
Next, in step SP15, the counter (b) for counting the number of samples within the frame length is incremented (+1).
[0040]
In step SP16, the value of the counter (b) is compared with the value of the counter (Zf) to determine whether or not b ≧ Zf. In the case of b <Zf, since the digital data string per unit time frame has not yet been reached, the process returns to step SP5 to accumulate digital data. On the other hand, if b ≧ Zf, all digital data strings per unit frame (x 0 , x 1 , x 2 ,..., X Zf−1 ) are obtained, and the process proceeds to step SP17.
[0041]
In step SP17, the average effective level calculation unit 2a calculates the average effective level p of this unit time frame from the digital data string (x 0 , x 1 , x 2 ,..., X Zf-1 ) belonging to the unit time frame. . The average effective level p is calculated by the following equation. In the following equation, n is the number of digital data strings belonging to the unit frame.
[0042]
p = {(x 0 2 + x 1 2 + x 2 2 ... x Zf-1 2 ) / n} 1/2
[0043]
Next, the process proceeds to step SP18, and the average effective level p of the unit time frame obtained in step SP17 is stored in the average effective level memory 2b.
In step SP19, in order to create a frequency distribution chart with the frequency of the time frame having the average effective level p on the horizontal axis and the average effective level p on the vertical axis, it corresponds to the average effective level p calculated in step SP17. A counter is provided, and each time the average effective level p is calculated, the corresponding counter is incremented to count the number of time frames having the average effective level p.
[0044]
Next, in step SP20, the counter (a) is incremented (+1). Then, in step SP21, the value of the counter (a) is compared with a predetermined total frequency Z value, and it is determined whether or not a ≧ Z. In the case of a ≧ Z, since a frequency distribution diagram corresponding to a predetermined total frequency (Z) is obtained, the process proceeds to step SP22. On the other hand, if a <Z, a complete frequency distribution diagram has not been obtained, so the process returns to step SP4, and after setting the counter (b) to b = 0, a predetermined loop is repeated.
[0045]
The frequency distribution chart obtained under the condition of a ≧ Z is shown in FIGS. 4 and 5, for example. Here, FIG. 4 is an example of a frequency distribution diagram when conversational speech is included in noise with a low degree of stationary, and FIG. 5 is a frequency distribution diagram when conversational speech is included in noise with a high degree of stationary. It is an example. In both FIG. 4 and FIG. 5, a distribution A due to environmental noise appears in a region with a low average effective level, and a distribution B due to speech appears in a region with a high average effective level.
[0046]
In general, in a noise, a conversation person talks at a level higher than the noise level in order to avoid the conversation sound being masked by the noise. Therefore, the distribution A caused by the environmental noise is present in a region where the average effective level is low. Appears and a distribution B due to speech appears in a region with a high average effective level.
[0047]
FIG. 6 shows the frequency distribution when the noise distribution and the conversation voice distribution are close to each other and the boundary between the noise distribution and the conversation voice distribution is unclear. Since a part of the distribution of the conversational voice is included on the right side of the noise distribution (the portion of the region where the average effective level is high), it is difficult to calculate the correct steady state. In order to avoid this, in the frequency distribution diagram shown in FIG. 6, when viewed from the mode of the noise distribution, the distribution diagram shape of the region of the region where the average effective level is low is folded back toward the high region, and FIG. Step SP19 may be executed after re-creating the symmetrical distribution figure shown.
[0048]
Further, the distribution A due to noise in FIG. 5 is sharper than the distribution A due to noise in FIG. This is because the noise in FIG. 4 includes various acoustic components as compared with the noise in FIG. 5 as described in the section of the problem to be solved by the invention.
[0049]
Next, in step SP22, the frequency distribution that appears in the region where the average effective level is the lowest from the frequency distribution obtained by the appearance frequency distribution map calculation unit 2c by the peak position detection unit 2d, that is, the most frequent frequency distribution due to noise. The value (LL in FIGS. 4 and 5) is detected. The mode value LL has a higher noise level as the value is larger, and a lower noise level as the value is smaller.
[0050]
In step SP23, the continuity calculator 2e calculates the kurtosis Kw based on data within a predetermined range centered on the mode value of the distribution A shown in FIG. 4 detected by the peak position detector 2d. The kurtosis Kw is defined by the following equation. Where n is the total frequency within a predetermined range, Zi (i = 1, 2,..., N) is the average effective level of each time frame, Zave is the average value of Zi, and V is the variance.
[0051]
Kw = Σ (Zi−Zave) 4 / (nV 2 ) −3
[0052]
The value of the kurtosis Kw obtained from this equation is used as a scale representing the stationary degree. Further, the greater the value of the kurtosis Kw, the higher the stationarity, and the smaller the value of the kurtosis Kw, the lower the stationarity.
[0053]
Next, in step SP24, the algorithm determination unit 2f compares the mode value LL detected by the peak position detection unit 2d with the environmental noise continuity level output from the continuity level calculation unit 2e, and a noise level is determined. The decision is made as an algorithm for spectrum subtraction processing when the degree of stationary is low and high, the algorithm for directivity processing when the noise level and the degree of stationary are low, and both algorithms when the noise level is high regardless of the degree of stationary.
[0054]
In step SP25, the algorithm flag is set to “2” if the algorithm is directional processing, the algorithm flag is set to “0” if the algorithm is spectrum subtraction processing, and the algorithm flag is set if the algorithm is both directional processing and spectrum subtraction processing. Is set to “1”.
[0055]
Next, in step SP26, the frequency distribution chart is cleared and the process returns to step SP3. In step SP3, the counter (a) is set to a = 0 as described above. Further, the same processing as described above is executed from step SP4.
[0056]
As described above, in the hearing aid apparatus according to the present invention, the algorithm of hearing aid processing is switched according to the stationary degree and the noise level. By switching to spectrum subtraction processing or directivity processing according to the surrounding environment, it is possible to clearly hear word sounds in various noises.
[0057]
In addition, this invention is not limited to the above-mentioned embodiment, Various modified embodiment can be considered.
In the above-described embodiment, switching is performed between the case of only spectrum subtraction processing, the case of directivity processing, or the case of spectrum subtraction processing and directivity processing. However, since it is only necessary to be able to hear the speech clearly in the noise, it may be replaced with another algorithm.
[0058]
In the embodiment of the present invention, the value of the kurtosis Kw is used as a scale representing the stationary degree. However, since it is sufficient that the stationary degree can be calculated, the standard deviation of the distribution is calculated, and this value can be used as the stationary degree. Good. In this case, the greater the standard deviation value, the lower the stationary degree, and the smaller the standard deviation value, the higher the stationary degree.
Further, the most frequent number in the appearance frequency number distribution chart may be set as the stationary degree. In this case, the higher the most frequent number, the higher the stationary degree, and the smaller the most frequent number, the lower the stationary degree.
[0059]
【The invention's effect】
As described above, according to the present invention, the spectrum subtraction processing algorithm and / or the directivity processing algorithm can be selected in accordance with the use environment, so that the target of listening can be selected regardless of the quality of the environmental noise. Can be heard clearly.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hearing aid device according to the present invention. FIG. 2 is an explanatory diagram related to frame division processing. FIG. 3 is a flowchart showing the operation of the hearing aid device according to the present invention. Appearance frequency distribution diagram including variable noise in the frequency distribution diagram provided. [Fig. 5] Appearance frequency distribution diagram including stationary noise in the frequency distribution diagram used to explain the operation of the hearing aid device. Appearance frequency distribution diagram when the SN ratio is bad in the frequency distribution diagram used for explaining the operation. FIG. 7 is a frequency distribution diagram used for explaining other embodiments. Explanation of]
DESCRIPTION OF SYMBOLS 1 ... External sound detection means, 1a, 1b ... Microphone, 1c, 1d ... A / D converter, 1e, 1f ... Frame memory, 2 ... Environmental noise analysis means, 2a ... Average effective level calculation part, 2b ... Average effective level Memory, 2c: Appearance frequency number distribution diagram calculation unit, 2d: Peak position detection unit, 2e ... Stationary degree calculation unit, 2f ... Algorithm determination unit, 3 ... Signal processing means, 3a ... Algorithm selection unit, 3b ... Nonlinear signal processing unit 3c ... Input / output characteristic table, 4 ... Sound output means, 4a ... D / A converter, 4b ... Amplifier, 4c ... Earphone.

Claims (2)

複数のマイクロホンを備えて外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号から前記外部音が含む騒音に起因する出現頻度数分布の尖度を算出し、この尖度と予め設定した閾値を比較し、その大小関係に基づいて補聴処理のアルゴリズムとしてスペクトラムサブトラクション処理又は指向性処理を決定する環境騒音分析手段と、この環境騒音分析手段で決定された補聴処理のアルゴリズムに基づいて前記外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段を備え、前記尖度が前記閾値と比較して高い場合には、補聴処理のアルゴリズムとして前記スペクトラムサブトラクション処理を選択し、前記尖度が前記閾値と比較して低い場合には、補聴処理のアルゴリズムとして前記指向性処理を選択することを特徴とする補聴装置。An external sound detection unit that includes a plurality of microphones and outputs an electrical signal according to an external sound, and calculates a kurtosis of an appearance frequency distribution caused by noise included in the external sound from an output signal of the external sound detection unit Comparing the kurtosis with a preset threshold and determining the spectrum subtraction processing or directivity processing as the hearing aid processing algorithm based on the magnitude relationship, and the hearing aid determined by the environmental noise analysis means Signal processing means for processing the output signal of the external sound detection means based on a processing algorithm, and acoustic output means for converting the output signal of the signal processing means into an acoustic signal, and the kurtosis is compared with the threshold value. If the spectrum subtraction process is selected as the hearing aid algorithm, the kurtosis is lower than the threshold value. The hearing aid device according to claim you to select the directional processing as an algorithm of the hearing aid processing. 複数のマイクロホンを備えて外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号から前記外部音が含む騒音に起因する出現頻度数分布の尖度を算出すると共に前記出現頻度数分布の最頻度を算出し、前記尖度と予め設定した第1の閾値を比較しその大小関係、及び前記最頻度と予め設定した第2の閾値を比較しその大小関係に基づいて、補聴処理のアルゴリズムとしてスペクトラムサブトラクション処理及び指向性処理を決定する環境騒音分析手段と、この環境騒音分析手段で決定された補聴処理のアルゴリズムに基づいて前記外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段を備え、前記尖度が第1の閾値と比較して高く、前記最頻度が第2の閾値と比較して高い場合には、補聴処理のアルゴリズムとして前記指向性処理を選択してSN比を多少改善させた後に前記スペクトラムサブトラクション処理を選択することを特徴とする補聴装置。 An external sound detection unit that includes a plurality of microphones and outputs an electrical signal corresponding to an external sound, and calculates a kurtosis of an appearance frequency distribution caused by noise included in the external sound from an output signal of the external sound detection unit And calculating the maximum frequency of the appearance frequency number distribution, comparing the kurtosis with a preset first threshold, comparing the magnitude, and comparing the maximum frequency with a preset second threshold, Based on the environmental noise analysis means for determining spectrum subtraction processing and directivity processing as the hearing aid processing algorithm, and processing the output signal of the external sound detection means based on the hearing aid processing algorithm determined by the environmental noise analysis means Signal processing means for converting the output signal of the signal processing means into an acoustic signal, the kurtosis being higher than a first threshold value, There is higher than the second threshold value, the hearing instrument, wherein the selecting a spectrum subtraction process after slightly improved the SN ratio by selecting the directional processing as an algorithm of the hearing aid processing.
JP2002321438A 2002-11-05 2002-11-05 Hearing aid Expired - Fee Related JP3894875B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002321438A JP3894875B2 (en) 2002-11-05 2002-11-05 Hearing aid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002321438A JP3894875B2 (en) 2002-11-05 2002-11-05 Hearing aid

Publications (2)

Publication Number Publication Date
JP2004158986A JP2004158986A (en) 2004-06-03
JP3894875B2 true JP3894875B2 (en) 2007-03-22

Family

ID=32801990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002321438A Expired - Fee Related JP3894875B2 (en) 2002-11-05 2002-11-05 Hearing aid

Country Status (1)

Country Link
JP (1) JP3894875B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089976A1 (en) 2009-02-09 2010-08-12 パナソニック株式会社 Hearing aid
WO2010140358A1 (en) 2009-06-02 2010-12-09 パナソニック株式会社 Hearing aid, hearing assistance system, walking detection method, and hearing assistance method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089976A1 (en) 2009-02-09 2010-08-12 パナソニック株式会社 Hearing aid
US8126176B2 (en) 2009-02-09 2012-02-28 Panasonic Corporation Hearing aid
WO2010140358A1 (en) 2009-06-02 2010-12-09 パナソニック株式会社 Hearing aid, hearing assistance system, walking detection method, and hearing assistance method
US8391524B2 (en) 2009-06-02 2013-03-05 Panasonic Corporation Hearing aid, hearing aid system, walking detection method, and hearing aid method

Also Published As

Publication number Publication date
JP2004158986A (en) 2004-06-03

Similar Documents

Publication Publication Date Title
US11109163B2 (en) Hearing aid comprising a beam former filtering unit comprising a smoothing unit
CN107484080B (en) Audio processing apparatus and method for estimating signal-to-noise ratio of sound signal
US11363390B2 (en) Perceptually guided speech enhancement using deep neural networks
Cornelis et al. Performance analysis of multichannel Wiener filter-based noise reduction in hearing aids under second order statistics estimation errors
EP2916321B1 (en) Processing of a noisy audio signal to estimate target and noise spectral variances
CN103871421B (en) A kind of self-adaptation noise reduction method and system based on subband noise analysis
US9591410B2 (en) Hearing assistance apparatus
Launer et al. Hearing aid signal processing
KR101837331B1 (en) Method of operating a hearing aid system and a hearing aid system
CN108235181B (en) Method for noise reduction in an audio processing apparatus
EP3300078A1 (en) A voice activitity detection unit and a hearing device comprising a voice activity detection unit
CN107046668B (en) Single-ear speech intelligibility prediction unit, hearing aid and double-ear hearing system
JP2003520469A (en) Noise reduction apparatus and method
WO2022174727A1 (en) Howling suppression method and apparatus, hearing aid, and storage medium
US20090257609A1 (en) Method for Noise Reduction and Associated Hearing Device
Marin-Hurtado et al. Perceptually inspired noise-reduction method for binaural hearing aids
CN113421583B (en) Noise reduction method, storage medium, chip and electronic device
Maj et al. SVD-based optimal filtering for noise reduction in dual microphone hearing aids: a real time implementation and perceptual evaluation
US11445307B2 (en) Personal communication device as a hearing aid with real-time interactive user interface
JP3894875B2 (en) Hearing aid
JP3794881B2 (en) Hearing aid
US20220240026A1 (en) Hearing device comprising a noise reduction system
Yong et al. Effective binaural multi-channel processing algorithm for improved environmental presence
Maillou et al. Measuring the Performance of the Hearing Aids Adaptive Directivity and Noise Reduction Algorithms through SNR Values
JPH0956000A (en) Hearing aid

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees