JP3794881B2 - Hearing aid - Google Patents

Hearing aid Download PDF

Info

Publication number
JP3794881B2
JP3794881B2 JP30190499A JP30190499A JP3794881B2 JP 3794881 B2 JP3794881 B2 JP 3794881B2 JP 30190499 A JP30190499 A JP 30190499A JP 30190499 A JP30190499 A JP 30190499A JP 3794881 B2 JP3794881 B2 JP 3794881B2
Authority
JP
Japan
Prior art keywords
input
output
hearing aid
level
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30190499A
Other languages
Japanese (ja)
Other versions
JP2001128296A (en
Inventor
克彦 後藤
真一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rion Co Ltd
Original Assignee
Rion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rion Co Ltd filed Critical Rion Co Ltd
Priority to JP30190499A priority Critical patent/JP3794881B2/en
Publication of JP2001128296A publication Critical patent/JP2001128296A/en
Application granted granted Critical
Publication of JP3794881B2 publication Critical patent/JP3794881B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/35Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using translation techniques
    • H04R25/356Amplitude, e.g. amplitude shift or compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Control Of Amplification And Gain Control (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、環境騒音の質を考慮して音声を明瞭に聴き取るようにした補聴装置に関する。
【0002】
【従来の技術】
使用環境に存在する騒音は、補聴器装用者にとって言葉の聴き取りや出力音の快適性に対して非常に大きな影響を与える。
この問題を解決するために、補聴器に自動利得制限回路(AGC回路)を設け、自動利得制限回路によって入力信号のレベルに応じて音響利得等を適切に調整する、所謂、非線形増幅補聴器(ノンリニア補聴器)が提案されている。
【0003】
非線形増幅補聴器は、小さい音に対しては利得が大きく、大きな音に対しては利得が小さい入出力特性を備えるので、難聴者の可聴領域外に存在する小さい入力レベルを可聴領域内に増幅するとともに、不快な強大音は増幅せずに抑えることを目的とし、騒音の多い環境での使用者の不快感を軽減できる場合が多いと言われている。
【0004】
【発明が解決しようとする課題】
しかし、前記非線形増幅補聴器は、一定レベル以上で定常度が高い環境騒音が存在するところでは聴きやすいが、騒音がほとんど存在しないような良好な聴取環境下では、音声のパワー変動に追随して補聴器の音響利得が短時間に変化してしまうため、言葉の聴き取りが劣化してしまったり、また音声がなくなった時に、全体のレベルとして騒音が小さいと、この騒音が強調されるという問題がある。
ここで、定常度とは、パワーの短時間的な変動を表わす尺度であり、空調機のようにパワー変動が少なく、定常的な騒音は定常度が高い。また、板金工場のようにパワーが激しく変動する騒音では定常度が低い。
【0005】
定常度の低い騒音下では非線形増幅補聴器が良いが、定常度の高い騒音下では線形増幅補聴器の方がよいと考えられるが、このような「定常度」という尺度を計測する分析装置は存在せず、またこのような尺度に応じて特性を適応的に変化させる補聴器も存在しなかった。
【0006】
本発明は、従来の技術が有するこのような問題点に鑑みてなされたものであり、その目的とするところは、環境騒音の質のいかんに拘わらず聴き取り対象となる音声を明瞭に聴き取れる補聴装置を提供しようとするものである。
【0007】
【課題を解決するための手段】
上記課題を解決すべく請求項1に係る発明は、外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段からなる補聴装置において、前記信号処理手段は、前記外部音検出手段が出力する信号から外部音が含む騒音の定常度を所定の時間間隔で検出する定常度検出手段と、前記外部音検出手段の出力信号を圧縮増幅する入出力特性処理手段と、補聴器装用者に適合した圧縮増幅特性パラメータを記憶した圧縮増幅特性パラメータテーブルを備え、前記定常度検出手段が出力する定常度に対応する前記圧縮増幅特性パラメータに基づいて前記入出力特性処理手段の入出力特性を決定するものである。
【0008】
請求項2に係る発明は、請求項1記載の補聴装置において、前記圧縮増幅特性パラメータが、圧縮比である。
【0009】
請求項3に係る発明は、請求項1記載の補聴装置において、前記圧縮増幅特性パラメータが、ニーポイントである。
【0010】
請求項4に係る発明は、請求項1記載の補聴装置において、前記圧縮増幅特性パラメータが、直線域の利得である。
【0011】
【発明の実施の形態】
以下に本発明の実施の形態を添付図面に基づいて説明する。ここで、図1は本発明に係る補聴装置のブロック構成図、図2はフレーム分割処理に関する説明図、図3は入力音圧レベルと出力音圧レベルの関係を示す入出力特性図、図4は入出力特性テーブル、図5は本発明に係る補聴装置の動作を示すフローチャート、図6乃至図8は補聴装置の動作の説明に供する度数分布図、図9は補聴装置の他の実施の形態の説明に供する度数分布図である。
【0012】
本発明に係る補聴装置は、図1に示すように、外部音検出部1、信号処理部2及び出力部3からなる。
外部音検出部1は、外部音を検出して電気信号に変換するマイクロホン1aと、マイクロホン1aの出力電圧をデジタル信号に変換するA/D変換器1bからなり、外部音を取り込んで外部音に基づくデジタルデータを出力する。
【0013】
信号処理部2は、入出力特性処理部2a、フレームメモリ2b、平均実効レベル算出部2c、平均実効レベルメモリ2d、出現頻度数分布図算出部2e、ピーク位置検出部2f、定常度算出部2g、入出力特性参照部2h、入出力特性テーブル2i、入出力特性関数発生部2j及び入出力特性関数メモリ2kからなり、A/D変換器1bが出力するデジタルデータを信号処理して出力部3に出力する。
【0014】
フレームメモリ2bは、外部音検出部1が出力するデジタルデータを順次記憶する。即ち、図2に示すように、最初の時間フレームF0に属するデジタルデータ列の記憶が完了し終わると、最初の時間フレームF0のデジタルデータ列を、次の時間フレームF1に属するデジタルデータ列に順次書き換え、以後これを繰り返す。
【0015】
平均実効レベル算出部2cは、フレームメモリ2bが出力する単位時間フレームに属するデジタルデータ列の記憶が完了した時点で、単位時間フレームに属するデジタルデータ列からこの単位時間フレームの平均実効レベルを算出する。
【0016】
平均実効レベルメモリ2dは、平均実効レベル算出部2cが出力する単位時間フレームの平均実効レベルpをその都度記憶する。
【0017】
出現頻度数分布図算出部2eは、平均実効レベル算出部2cが順次算出する時間フレームの平均実効レベルpに対応する時間フレームの数(度数)を表す度数分布図を作成する。
【0018】
ピーク位置検出部2fは、出現頻度数分布図算出部2eが作成した度数分布図において、平均実効レベルの小さい領域に現れる分布の最頻値を検出する。
【0019】
定常度算出部2gは、ピーク位置検出部2fで検出された最頻値を中心として所定の範囲内の度数分布の尖度Kw(定常度)を算出する。ここで、尖度Kwとは、分布のとがり具合を表す。
【0020】
入出力特性参照部2hは、定常度算出部2gが出力する定常度、即ち尖度Kwと、予め得ておいた補聴器フィッティングデータが格納されている入出力特性テーブル2iから圧縮増幅特性パラメータを得る。
【0021】
この実施の形態の場合、圧縮増幅特性パラメータは、線形部の利得g(i)と、入力レベルk1(i)と、入力レベルk2(i)である。ここでは、算出される尖度Kwを5段階の定常度に分けた場合について説明する。入出力特性テーブル2iにも5段階の定常度に応じたパラメータが格納されている。
【0022】
そして、入力音圧レベルと出力音圧レベルの関係を示す入出力特性は、図3に示すように、低い入力レベルに対しては利得を大きくし、入力レベルk1までは一定の利得になるように線形増幅を行っている。入力レベルk1以上の入力に対しては利得を徐々に低い値にし、入力レベルk2以上の入力に対しては増幅を行なわないように利得を変化させている。ここで、入力レベルk1はニーポイントと呼ばれ、入力レベルk1から入力レベルk2の部分の特性の傾きは圧縮比と呼ばれる。
【0023】
入出力特性テーブル2iに格納する補聴器フィッティングデータは、例えば次に説明するようにして得る。但し、この実施の形態においては、環境騒音の定常度を5段階に分けた場合を考える。ここで、定常度(1)では定常度が低く(パワーが短時間で変動する騒音、板金工場内騒音など)、定常度(5)では定常度が高い(パワーの変動の少ない騒音、空調機騒音など)ものである。
【0024】
これらの各定常度の騒音に語音(例えば、語音明瞭度検査用語音や任意の文章等を読み上げた音声)を重畳した検査音を補聴器装用者に提示して、補聴器装用者が最も明瞭に聴くことができる(補聴器装用者が最も聴きやすいと感じる)線形部の利得g(i)と、ニーポイントに相当する入力レベルk1(i)と、入力レベルk2(i)を求めて入出力特性テーブル2iに格納する。
【0025】
検査音は、次に示す〔1〕〜〔5〕の5種類である。
〔1〕定常度(1)の騒音+語音
〔2〕定常度(2)の騒音+語音
〔3〕定常度(3)の騒音+語音
〔4〕定常度(4)の騒音+語音
〔5〕定常度(5)の騒音+語音
【0026】
上記の方法により、各定常度における入出力特性が決定されて、入出力特性テーブル2iに記憶される圧縮増幅特性パラメータは、図4に示すようになる。図4において、最左列は、上から騒音の定常度が低い順に並べられている。2番目の列は、線形部の利得g(i)、3番目の列はニーポイントに相当する入力レベルk1(i)、4番目の列は入力レベルk2(i)が記憶されている。
【0027】
入出力特性関数発生部2jは、入出力特性参照部2hが出力する、ある定常度(i)における、線形部の利得g(i)、ニーポイントに相当する入力レベルk1(i)及び入力レベルk2(i)に基づいて入出力特性関数f(k)を発生させ、この入出力特性関数f(k)を入出力特性関数メモリ2kに記憶させる。
ここで発生される入出力特性関数f(k)は、補聴器への音声や騒音の入力レベルkに応じて3つの形になる。
【0028】
即ち、入力レベルkがニーポイントに相当する入力レベルk1(i)より低い場合、f(k)=g(i)〔dB〕となる。
【0029】
入力レベルkがニーポイントに相当する入力レベルk1(i)より高く、入力レベルk2(i)より低い場合、次式となる。
【0030】
f(k)=g(i)×(k2(i)−k)/(k2(i)−k1(i))〔dB〕
【0031】
入力レベルkが入力レベルk2(i)より高い場合、f(k)=0〔dB〕となる。
【0032】
入出力特性処理部2aは、平均実効レベルメモリ2dから得られる単位時間フレームの平均実効レベルpを、入出力特性関数メモリ2kに記憶されている入出力特性関数f(k)に代入することにより、単位時間フレームの利得f(p)を算出し、フレームメモリ2b内のデジタルデータXbに乗じて、出力部3に出力する。
【0033】
出力部3は、D/A変換器3aと、D/A変換器3aの出力信号を所定の利得で増幅する増幅器3bと、増幅器3bの出力信号を電気音響変換するイヤホン3cからなり、入出力特性処理部2aが出力するデジタルデータ信号を所望なレベルのアナログ音響信号に変換する。
【0034】
以上のように構成した本発明に係る補聴装置の動作について、図5に示すフローチャートを用いて説明する。
【0035】
補聴装置は、先ずステップSP1において、平均実効レベルメモリ2dと入出力特性関数メモリ2kとフレームメモリ2bの初期設定を行なう。例えば、入出力特性関数メモリ2kには定常度(3)の時の入出力特性関数f(k)をセットし、平均実効レベルメモリ2dには定常度(3)の時に、利得が0dBとなるようなk2(3)をセットする。フレームメモリ2bには、全て0をセットする。
【0036】
次いで、ステップSP2において、出現頻度数分布図を作成するのに必要な予め定めた総時間フレーム数(総度数=Z)をカウンタ(Z)にセットし、平均実効レベルpを算出するのに必要な予め定めた単位時間フレーム内のサンプル数(総数Zf)をカウンタ(Zf)にセットする。
【0037】
次いで、ステップSP3において、出現頻度数分布図を作成する時間フレーム数を計数するためのカウンタ(a)をリセット(a=0)する。
【0038】
次いで、ステップSP4において、単位時間フレーム内のサンプル数を計数するためのカウンタ(b)をリセット(b=0)する。
【0039】
次いで、ステップSP5において、マイクロホン1aからのマイクロホン信号をA/D変換器1bによって所定のサンプリング周波数にてA/D変換してデジタルデータX'bを得る。
【0040】
ステップSP6において、平均実効レベルメモリ2dに格納されている平均実効レベルpを読み出す。
【0041】
次いで、ステップSP7において、入出力特性関数メモリ2kから入出力特性関数f(k)を読み出す。
【0042】
次いで、ステップSP8において、実効レベルメモリ2dから読み出した平均実効レベルpを、入出力特性関数メモリ2kから読み出した入出力特性関数f(k)に代入することにより利得f(p)を得る。
【0043】
即ち、平均実効レベルpが、ニーポイントに相当する入力レベルk1(3)より小さい場合、f(p)=g(3)〔dB〕となる。
【0044】
平均実効レベルpが、ニーポイントに相当する入力レベルk1(3)より大きく、入力レベルk2(3)より小さい場合、次式となる。
【0045】
f(p)=g(3)×(k2(3)−p)/(k2(3)−k1(3))〔dB〕
【0046】
平均実効レベルpが、入力レベルk2(3)より大きい場合、f(p)=0〔dB〕となる。
【0047】
次いで、ステップSP9において、入出力特性処理部2aは、フレームメモリ2b内のデジタルデータXbに利得f(p)を乗じて、出力値R=Xb×f(p)を生成する。
【0048】
次いで、ステップSP10において、入出力特性処理2aは生成した出力値Rを出力部3のD/A変換器3aに出力する。D/A変換器3aの出力は増幅器3bで増幅され、増幅器3bの出力はイヤホン3cによって電気音響変換されて補聴器装用者の外耳道内に音響信号として出力される。
【0049】
ステップSP11においては、ステップSP5において得られたデジタルデータX'bをXb=X'bとしてフレームメモリ2bに格納する。
【0050】
次いで、ステップSP12において、フレーム長内のサンプル数を計数するためのカウンタ(b)をインクリメント(+1)する。
【0051】
次に、ステップSP13において、カウンタ(b)の値とカウンタ(Zf)の値を比較し、b≧Zfになったか否かの判定を行う。b<Zfの場合には、未だ、単位時間フレーム当たりのデジタルデータ列に達していないので、ステップSP5に戻り、デジタルデータを蓄積する。一方、b≧Zfの場合には、単位フレーム当たりのデジタルデータ列がすべて(x0,x1,x2,……,xZf-1)得られたので、ステップSP14に進む。
【0052】
ステップSP14において、平均実効レベル算出部2cは、単位時間フレームに属するデジタルデータ列(x0,x1,x2,……,xZf-1)からこの単位時間フレームの平均実効レベルpを算出する。平均実効レベルpの算出は、次式で行われる。次式において、nは、単位フレームに属するデジタルデータ列の数である。
【0053】
p={(x0 2+x1 2+x2 2……xZf-1 2)/n}1/2
【0054】
次に、ステップSP15に進み、ステップSP14において得られた単位時間フレームの平均実効レベルpを平均実効レベルメモリ2dに記憶する。
【0055】
ステップSP16においては、横軸に平均実効レベルp、縦軸に平均実効レベルpを有する時間フレームの頻度数とする度数分布図を作成するために、ステップSP14で算出された平均実効レベルpに対応するカウンタを設けて、平均実効レベルpが算出される毎に対応するカウンタをインクリメントし、平均実効レベルpを有する時間フレームの数を計数する。
【0056】
次に、ステップSP17において、カウンタ(a)をインクリメント(+1)する。
【0057】
次に、ステップSP18において、カウンタ(a)の値と予め定めた総度数Zの値を比較し、a≧Zになったか否かを判定する。a≧Zの場合には、予め定めた総度数分(Z個)の度数分布図が得られたので、ステップSP19に進む。一方、a<Zの場合には、完全な度数分布図が得られていないので、ステップSP4に戻り、カウンタ(b)をb=0とした後、所定のループを繰り返す。
【0058】
a≧Zの条件下で得られる度数分布図は、例えば、図6と図7に示すものである。ここで、図6は定常度が低い騒音の中に会話音声が含まれる場合の度数分布図の例であり、図7は定常度が高い騒音の中に会話音声が含まれる場合の度数分布の例である。図6と図7はいずれも、平均実効レベルの低い領域に環境騒音に起因する分布Aが現れ、平均実効レベルの高い領域に音声に起因する分布Bが現れている。
【0059】
一般に、騒音中において、会話者は、会話音が騒音でマスキングされるのを回避するために、騒音レベルより高いレベルで会話するから、平均実効レベルの低い領域に環境騒音に起因する分布Aが現れ、平均実効レベルの高い領域に音声に起因する分布Bが現れる。
【0060】
図8は騒音の分布と会話音声の分布が接近し、騒音の分布と会話音声の分布との境界が不鮮明な場合の度数分布を示している。騒音の分布の右側(平均実効レベルの高い領域の部分)に会話音声の分布の一部が含まれるため、正しい定常度の算出が困難になる。これを回避するために、図8に示す度数分布図において、騒音の分布の最頻値から見て、平均実効レベルの低い領域の部分の分布図形状を高い領域に向けて折り返し、図9に示す左右対称となる分布図形を作成し直してから、ステップSP19を実行してもよい。
【0061】
また、図7における騒音に起因する分布Aの方が、図6における騒音に起因する分布Aに比べて、分布が鋭い。これは、発明が解決する課題の欄で説明したように、図6における騒音の方が、図7における騒音に比べて、種々雑多な音響成分を含んでいることによる。
【0062】
次いで、ステップSP19において、ピーク位置検出部2fは、出現頻度数分布図算出部2eによって得られた度数分布から平均実効レベルの最も低い領域に現れる度数分布、すなわち、騒音に起因する度数分布の最頻値(図6、図7におけるLL)を検出する。
【0063】
ステップSP20において、定常度算出部2gは、ピーク位置検出部2fで検出された図6の範囲Aにおける分布の最頻値を中心とした所定の範囲内のデータに基づいて尖度Kwを算出する。尖度Kwは以下の式で定義される。但し、nは所定の範囲内での総度数、Zi(i=1,2,……,n)は各時間フレームの平均実効レベル、ZaveはZiの平均値、は分散である。
【0064】
Kw=Σ(Zi−Zave)4/(nV2)−3
【0065】
この式から求められる尖度Kwの値を定常度を表わす尺度とする。また、尖度Kwの値が大きいほど定常度が高く、尖度Kwの値が小さいほど定常度が低い。この尖度Kwの値を5段階に分けて、定常度1から定常度5までの5段階の定常度とする。
【0066】
次いで、ステップSP21において、入出力特性参照部2hは、定常度算出部2gから出力された環境騒音の定常度を得て、入出力特性テーブル2iを参照し、ここで得られた環境騒音の定常度に該当する圧縮増幅特性パラメータ(線形部の利得g(i)、ニーポイントに相当する入力レベルk1(i)、入力レベルk2(i))を入出力特性テーブル2iから得る。例えば、環境騒音の定常度が(5)である場合、利得g(5)と、ニーポイントに相当する入力レベルk1(5)と、入力レベルk2(5)を得る。
【0067】
次いで、ステップSP22において、入出力特性関数発生部2jは、入出力特性参照部2hが現在保有する圧縮増幅特性パラメータ(線形部の利得g(5)、ニーポイントに相当する入力レベルk1(5)、入力レベルk2(5))に基づいて、入出力特性関数f(k)を発生する。
【0068】
次いで、ステップSP23において、入出力特性関数発生部2jが発生させた入出力特性関数f(k)を入出力特性関数メモリ2kに書き込む。
【0069】
次いで、ステップSP24において、度数分布図をクリアしてステップSP3に戻る。ステップSP3において、前述と同様にカウンタ(a)はa=0にセットされる。
【0070】
更に、ステップSP4から、前述と同様の処理を実行する。
【0071】
以上説明したように、本発明に係る補聴装置においては、定常度の異なるさまざまな騒音に語音を混合した検査音を聴かせ、これらの検査音に含まれる語音が最も聴きとりやすい圧縮増幅特性パラメータを書き込んだ入出力特性テーブル2iを用意しておき、実際の環境中の騒音の定常度に応じてこの入出力特性テーブル2iから圧縮増幅特性パラメータを呼び出して、この補聴パラメータと、そのときの平均実効レベルpに基づいて、入出力特性処理部2aの圧縮増幅特性を設定するようにしたので、定常度の異なるさまざまな騒音中での語音を明瞭に聴き取ることができる。
【0072】
なお、本発明は上述の実施の形態に限定されるものではなく、種々の変形の実施の形態が考えられる。
上述の実施の形態においては、圧縮増幅特性パラメータとして、線形部の利得g(i)と、ニーポイントに相当する入力レベルk1(i)と、入力レベルk2(i)に基づいて入出力特性関数f(k)を発生させるように構成した場合について説明した。
【0073】
しかし、騒音中で明瞭に語音を聴き取ることができればよいのであるから、上記3つのパラメータのうちの1つをパラメータとして選択してもよいし、その他のパラメータ、例えば、アタックタイム、リリースタイムを選択してもよい。勿論、これら複数のパラメータを組み合わせたものを選択してもよい。この場合、入出力特性テーブル2iに格納されるパラメータはこの選択されたパラメータとなる。
【0074】
本発明の実施の形態においては、尖度Kwの値を定常度を表わす尺度としたが、定常度が算出できればよいのであるから、分布の標準偏差を算出し、この値を定常度としてもよい。この場合、標準偏差の値が大きいほど定常度が低く、標準偏差の値が小さいほど定常度が高いということになる。
また、出現頻度数分布図の最頻度数を定常度としてもよい。この場合は、最頻度数が大きいほど定常度が高く、最頻度数が小さいほど定常度は低くなる。
【0075】
【発明の効果】
以上説明したように本発明によれば、環境騒音の質のいかんに拘わらず聴き取り対象となる音声を明瞭に聴き取ることができる。
【図面の簡単な説明】
【図1】本発明に係る補聴装置のブロック構成図
【図2】フレーム分割処理に関する説明図
【図3】入力音圧レベルと出力音圧レベルの関係を示す入出力特性図
【図4】入出力特性テーブル
【図5】本発明に係る補聴装置の動作を示すフローチャート
【図6】補聴装置の動作の説明に供する度数分布図
【図7】補聴装置の動作の説明に供する度数分布図
【図8】補聴装置の動作の説明に供する度数分布図
【図9】他の実施の形態の説明に供する度数分布図
【符号の説明】
1…外部音検出部、1a…マイクロホン、1b…A/D変換器、2…信号処理部、2a…入出力特性処理部、2b…フレームメモリ、2c…平均実効レベル算出部、2d…平均実効レベルメモリ、2e…出現頻度数分布図算出部、2f…ピーク位置検出部、2g…定常度算出部、2h…入出力特性参照部、2i…入出力特性テーブル、2j…入出力特性関数発生部、2k…入出力特性関数メモリ、3…出力部、3a…D/A変換器、3b…増幅器、3c…イヤホン。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a hearing aid apparatus that can listen to sound clearly in consideration of the quality of environmental noise.
[0002]
[Prior art]
The noise present in the environment of use has a great influence on the hearing ability of the hearing aid wearer and the comfort of the output sound.
In order to solve this problem, a so-called non-linear amplification hearing aid (nonlinear hearing aid) in which an automatic gain limiting circuit (AGC circuit) is provided in the hearing aid and the acoustic gain or the like is appropriately adjusted according to the level of the input signal by the automatic gain limiting circuit. ) Has been proposed.
[0003]
The non-linear amplification hearing aid has an input / output characteristic that has a large gain for small sounds and a small gain for loud sounds, so a small input level that exists outside the audible area of the hearing impaired person is amplified in the audible area. At the same time, it is said that an unpleasant loud sound is suppressed without being amplified, and it is often said that the user's discomfort can be reduced in a noisy environment.
[0004]
[Problems to be solved by the invention]
However, the non-linear amplification hearing aid is easy to hear in the presence of environmental noise that is above a certain level and has a high degree of stationaryness, but in a good listening environment where there is almost no noise, the hearing aid follows the power fluctuation of the sound. The sound gain of the sound will change in a short time, so when listening to words deteriorates or when there is no voice, there is a problem that this noise is emphasized if the overall noise level is low .
Here, the stationarity is a scale representing a short-time fluctuation in power, and there is little power fluctuation like an air conditioner, and stationary noise has a high stationarity. In addition, the stationary degree is low in the noise in which the power fluctuates violently like a sheet metal factory.
[0005]
Nonlinear amplification hearing aids are better under low stationary noise levels, but linear amplification hearing aids are considered better under high stationary noise levels, but there are no analyzers that can measure this “steadiness level”. Moreover, there was no hearing aid that adaptively changes the characteristics according to such a scale.
[0006]
The present invention has been made in view of such problems of the prior art, and the object of the present invention is to clearly hear the sound to be listened to regardless of the quality of the environmental noise. It is intended to provide a hearing aid device.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 includes an external sound detecting means for outputting an electric signal corresponding to an external sound, a signal processing means for processing an output signal of the external sound detecting means, and the signal processing means. In the hearing aid device comprising sound output means for converting the output signal of the sound into the sound signal, the signal processing means detects the stationary degree of noise included in the external sound from the signal output from the external sound detection means at a predetermined time interval. Stationary degree detection means, input / output characteristic processing means for compressing and amplifying the output signal of the external sound detection means, and compression amplification characteristic parameter table storing compression amplification characteristic parameters suitable for a hearing aid wearer, the stationarity detection The input / output characteristic of the input / output characteristic processing means is determined based on the compression amplification characteristic parameter corresponding to the stationary degree output from the means.
[0008]
The invention according to claim 2 is the hearing aid according to claim 1, wherein the compression amplification characteristic parameter is a compression ratio.
[0009]
The invention according to claim 3 is the hearing aid according to claim 1, wherein the compression amplification characteristic parameter is a knee point.
[0010]
According to a fourth aspect of the present invention, in the hearing aid device according to the first aspect, the compression amplification characteristic parameter is a linear gain.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the accompanying drawings. Here, FIG. 1 is a block diagram of the hearing aid according to the present invention, FIG. 2 is an explanatory diagram regarding frame division processing, FIG. 3 is an input / output characteristic diagram showing the relationship between the input sound pressure level and the output sound pressure level, and FIG. Is an input / output characteristic table, FIG. 5 is a flowchart showing the operation of the hearing aid according to the present invention, FIGS. 6 to 8 are frequency distribution diagrams used to explain the operation of the hearing aid, and FIG. 9 is another embodiment of the hearing aid. It is a frequency distribution figure with which it uses for description.
[0012]
As shown in FIG. 1, the hearing aid according to the present invention includes an external sound detection unit 1, a signal processing unit 2, and an output unit 3.
The external sound detection unit 1 includes a microphone 1a that detects an external sound and converts it into an electrical signal, and an A / D converter 1b that converts the output voltage of the microphone 1a into a digital signal. Output digital data based.
[0013]
The signal processing unit 2 includes an input / output characteristic processing unit 2a, a frame memory 2b, an average effective level calculation unit 2c, an average effective level memory 2d, an appearance frequency number distribution diagram calculation unit 2e, a peak position detection unit 2f, and a stationary degree calculation unit 2g. , An input / output characteristic reference unit 2h, an input / output characteristic table 2i, an input / output characteristic function generation unit 2j, and an input / output characteristic function memory 2k. The digital data output from the A / D converter 1b is signal-processed to output the output unit 3. Output to.
[0014]
The frame memory 2b sequentially stores digital data output from the external sound detection unit 1. That is, as shown in FIG. 2, when the storage of the digital data sequence belonging to the first time frame F0 is completed, the digital data sequence of the first time frame F0 is sequentially changed to the digital data sequence belonging to the next time frame F1. Rewrite and repeat this.
[0015]
The average effective level calculation unit 2c calculates the average effective level of the unit time frame from the digital data sequence belonging to the unit time frame when the storage of the digital data sequence belonging to the unit time frame output from the frame memory 2b is completed. .
[0016]
The average effective level memory 2d stores the average effective level p of the unit time frame output by the average effective level calculation unit 2c each time.
[0017]
The appearance frequency number distribution diagram calculation unit 2e creates a frequency distribution diagram indicating the number of time frames (frequency) corresponding to the average effective level p of the time frames sequentially calculated by the average effective level calculation unit 2c.
[0018]
The peak position detection unit 2f detects the mode value of the distribution appearing in the region having a small average effective level in the frequency distribution diagram created by the appearance frequency number distribution diagram calculation unit 2e.
[0019]
The stationarity calculation unit 2g calculates the kurtosis Kw (stationarity) of the frequency distribution within a predetermined range around the mode value detected by the peak position detection unit 2f. Here, the kurtosis Kw represents the sharpness of the distribution.
[0020]
The input / output characteristic reference unit 2h obtains the compression amplification characteristic parameter from the input / output characteristic table 2i in which the stationarity output from the stationarity calculation unit 2g, that is, the kurtosis Kw and the hearing aid fitting data obtained in advance are stored. .
[0021]
In the case of this embodiment, the compression amplification characteristic parameters are the gain g (i) of the linear part, the input level k1 (i), and the input level k2 (i). Here, a case will be described in which the calculated kurtosis Kw is divided into five levels of steadyness. The input / output characteristic table 2i also stores parameters corresponding to the five levels of steadyness.
[0022]
As shown in FIG. 3, the input / output characteristic indicating the relationship between the input sound pressure level and the output sound pressure level is such that the gain is increased for a low input level and is constant up to the input level k1. Linear amplification is performed. The gain is gradually decreased for an input level k1 or higher, and the gain is changed so as not to be amplified for an input level k2 or higher. Here, the input level k1 is called a knee point, and the slope of the characteristic in the portion from the input level k1 to the input level k2 is called a compression ratio.
[0023]
The hearing aid fitting data stored in the input / output characteristic table 2i is obtained as described below, for example. However, in this embodiment, the case where the stationary degree of environmental noise is divided into five stages is considered. Here, the stationarity (1) has a low stationarity (noise whose power fluctuates in a short time, noise in a sheet metal factory, etc.), and the stationarity (5) has a higher stationarity (noise with little fluctuation in power, an air conditioner) Noise).
[0024]
Hearing aid wearer listens most clearly by presenting to each hearing aid wearer a test sound that superimposes the sound of each of these steady-state noises (for example, a speech that reads out a speech sound clarity test term sound or arbitrary text). Input / output characteristic table by obtaining the gain g (i) of the linear part, the input level k1 (i) corresponding to the knee point, and the input level k2 (i) (which the hearing aid wearer feels most comfortable) 2i.
[0025]
There are five types of inspection sounds [1] to [5] shown below.
[1] Noise of normality (1) + speech [2] Noise of normality (2) + speech [3] Noise of normality (3) + speech [4] Noise of normality (4) + speech [5 ] Steadyness level (5) noise + speech sound
The input / output characteristics at each stationary degree are determined by the above method, and the compression amplification characteristic parameters stored in the input / output characteristics table 2i are as shown in FIG. In FIG. 4, the leftmost column is arranged from the top in ascending order of noise continuity. The second column stores the gain g (i) of the linear portion, the third column stores the input level k1 (i) corresponding to the knee point, and the fourth column stores the input level k2 (i).
[0027]
The input / output characteristic function generator 2j outputs the gain g (i) of the linear part, the input level k1 (i) corresponding to the knee point, and the input level at a certain degree of continuity (i) output from the input / output characteristic reference unit 2h. An input / output characteristic function f (k) is generated based on k2 (i), and the input / output characteristic function f (k) is stored in the input / output characteristic function memory 2k.
The input / output characteristic function f (k) generated here takes three forms according to the input level k of sound or noise to the hearing aid .
[0028]
That is, when the input level k is lower than the input level k1 (i) corresponding to the knee point, f (k) = g (i) [dB].
[0029]
When the input level k is higher than the input level k1 (i) corresponding to the knee point and lower than the input level k2 (i), the following equation is obtained.
[0030]
f (k) = g (i) × (k2 (i) −k) / (k2 (i) −k1 (i)) [dB]
[0031]
When the input level k is higher than the input level k2 (i), f (k) = 0 [dB].
[0032]
The input / output characteristic processing unit 2a substitutes the average effective level p of the unit time frame obtained from the average effective level memory 2d for the input / output characteristic function f (k) stored in the input / output characteristic function memory 2k. The gain f (p) of the unit time frame is calculated, multiplied by the digital data Xb in the frame memory 2b, and output to the output unit 3.
[0033]
The output unit 3 includes a D / A converter 3a, an amplifier 3b that amplifies the output signal of the D / A converter 3a with a predetermined gain, and an earphone 3c that performs electroacoustic conversion of the output signal of the amplifier 3b. The digital data signal output from the characteristic processing unit 2a is converted into an analog acoustic signal of a desired level.
[0034]
The operation of the hearing aid device according to the present invention configured as described above will be described with reference to the flowchart shown in FIG.
[0035]
First, in step SP1, the hearing aid device initially sets the average effective level memory 2d, the input / output characteristic function memory 2k, and the frame memory 2b. For example, the input / output characteristic function memory 2k is set with the input / output characteristic function f (k) at the stationary degree (3), and the average effective level memory 2d has a gain of 0 dB at the stationary degree (3). Set k2 (3). All 0 is set in the frame memory 2b.
[0036]
Next, in step SP2, a predetermined total number of time frames (total frequency = Z) necessary for creating the appearance frequency number distribution map is set in the counter (Z), and is necessary for calculating the average effective level p. The number of samples (total number Zf) in a predetermined unit time frame is set in the counter (Zf).
[0037]
Next, in step SP3, the counter (a) for counting the number of time frames for creating the appearance frequency number distribution chart is reset (a = 0).
[0038]
Next, in step SP4, the counter (b) for counting the number of samples in the unit time frame is reset (b = 0).
[0039]
Next, in step SP5, the microphone signal from the microphone 1a is A / D converted at a predetermined sampling frequency by the A / D converter 1b to obtain digital data X′b.
[0040]
In step SP6, the average effective level p stored in the average effective level memory 2d is read.
[0041]
Next, in step SP7, the input / output characteristic function f (k) is read from the input / output characteristic function memory 2k.
[0042]
Next, in step SP8, the gain f (p) is obtained by substituting the average effective level p read from the effective level memory 2d for the input / output characteristic function f (k) read from the input / output characteristic function memory 2k.
[0043]
That is, when the average effective level p is smaller than the input level k1 (3) corresponding to the knee point, f (p) = g (3) [dB].
[0044]
When the average effective level p is larger than the input level k1 (3) corresponding to the knee point and smaller than the input level k2 (3), the following equation is obtained.
[0045]
f (p) = g (3) × (k2 (3) −p) / (k2 (3) −k1 (3)) [dB]
[0046]
When the average effective level p is larger than the input level k2 (3), f (p) = 0 [dB].
[0047]
Next, in step SP9, the input / output characteristic processing unit 2a multiplies the digital data Xb in the frame memory 2b by the gain f (p) to generate an output value R = Xb × f (p).
[0048]
Next, in step SP10, the input / output characteristic processing 2a outputs the generated output value R to the D / A converter 3a of the output unit 3. The output of the D / A converter 3a is amplified by the amplifier 3b, and the output of the amplifier 3b is electroacoustic converted by the earphone 3c and output as an acoustic signal in the ear canal of the hearing aid wearer.
[0049]
In step SP11, the digital data X′b obtained in step SP5 is stored in the frame memory 2b as Xb = X′b.
[0050]
Next, in step SP12, the counter (b) for counting the number of samples within the frame length is incremented (+1).
[0051]
Next, in step SP13, the value of the counter (b) is compared with the value of the counter (Zf) to determine whether or not b ≧ Zf. In the case of b <Zf, since the digital data string per unit time frame has not yet been reached, the process returns to step SP5 to accumulate digital data. On the other hand, when b ≧ Zf, all the digital data strings per unit frame (x 0 , x 1 , x 2 ,..., X Zf−1 ) are obtained, and the process proceeds to step SP14.
[0052]
In step SP14, the average effective level calculation unit 2c calculates the average effective level p of the unit time frame from the digital data sequence (x 0 , x 1 , x 2 ,..., X Zf-1 ) belonging to the unit time frame. To do. The average effective level p is calculated by the following equation. In the following equation, n is the number of digital data strings belonging to the unit frame.
[0053]
p = {(x 0 2 + x 1 2 + x 2 2 ... x Zf-1 2 ) / n} 1/2
[0054]
Next, proceeding to step SP15, the average effective level p of the unit time frame obtained at step SP14 is stored in the average effective level memory 2d.
[0055]
In step SP16, in order to create a frequency distribution chart in which the horizontal axis has the average effective level p and the vertical axis has the average effective level p, the frequency distribution corresponds to the average effective level p calculated in step SP14. The counter is incremented every time the average effective level p is calculated, and the number of time frames having the average effective level p is counted.
[0056]
Next, in step SP17, the counter (a) is incremented (+1).
[0057]
Next, in step SP18, the value of the counter (a) is compared with a predetermined total frequency Z value to determine whether or not a ≧ Z. In the case of a ≧ Z, since a frequency distribution diagram corresponding to a predetermined total frequency (Z) is obtained, the process proceeds to step SP19. On the other hand, if a <Z, a complete frequency distribution diagram has not been obtained, so the process returns to step SP4, and after setting the counter (b) to b = 0, a predetermined loop is repeated.
[0058]
Frequency distribution diagrams obtained under the condition of a ≧ Z are, for example, as shown in FIGS. Here, FIG. 6 is an example of a frequency distribution diagram when conversational speech is included in noise with a low degree of stationary, and FIG. 7 is a frequency distribution diagram when conversational speech is included in noise with a high degree of stationary. It is an example. In both FIG. 6 and FIG. 7, a distribution A due to environmental noise appears in a region with a low average effective level, and a distribution B due to speech appears in a region with a high average effective level.
[0059]
In general, in a noise, a conversation person talks at a level higher than the noise level in order to avoid the conversation sound being masked by the noise. Therefore, the distribution A caused by the environmental noise is present in a region where the average effective level is low. Appears and a distribution B due to speech appears in a region with a high average effective level.
[0060]
FIG. 8 shows the frequency distribution when the noise distribution and the conversation voice distribution are close to each other and the boundary between the noise distribution and the conversation voice distribution is unclear. Since a part of the distribution of the conversational voice is included on the right side of the noise distribution (the portion of the region where the average effective level is high), it is difficult to calculate the correct steady state. In order to avoid this, in the frequency distribution diagram shown in FIG. 8, the distribution diagram shape of the region of the region where the average effective level is low as viewed from the mode of the noise distribution is folded back toward the high region, and FIG. Step SP19 may be executed after re-creating the symmetrical distribution figure shown.
[0061]
In addition, the distribution A due to noise in FIG. 7 is sharper than the distribution A due to noise in FIG. This is because the noise in FIG. 6 includes various miscellaneous acoustic components as compared with the noise in FIG. 7 as described in the problem to be solved by the invention.
[0062]
Next, in step SP19, the peak position detection unit 2f determines the frequency distribution that appears in the region with the lowest average effective level from the frequency distribution obtained by the appearance frequency distribution map calculation unit 2e, that is, the highest frequency distribution due to noise. The frequent value (LL in FIGS. 6 and 7) is detected.
[0063]
In step SP20, the stationarity calculation unit 2g calculates the kurtosis Kw based on data within a predetermined range centered on the mode of distribution in the range A of FIG. 6 detected by the peak position detection unit 2f. . The kurtosis Kw is defined by the following equation. Where n is the total frequency within a predetermined range, Zi (i = 1, 2,..., N) is the average effective level of each time frame, Zave is the average value of Zi, and V is the variance.
[0064]
Kw = Σ (Zi−Zave) 4 / (nV 2 ) −3
[0065]
The value of the kurtosis Kw obtained from this equation is used as a scale representing the stationary degree. Further, the greater the value of the kurtosis Kw, the higher the stationarity, and the smaller the value of the kurtosis Kw, the lower the stationarity. The value of the kurtosis Kw is divided into five stages, and the five degrees of stationary degrees from the stationary degree 1 to the stationary degree 5 are obtained.
[0066]
Next, in step SP21, the input / output characteristic reference unit 2h obtains the degree of continuity of the environmental noise output from the stationary degree calculation unit 2g, refers to the input / output characteristic table 2i, and obtains the steady state of the environmental noise obtained here. The compression amplification characteristic parameters corresponding to the degree (the gain g (i) of the linear portion, the input level k1 (i) corresponding to the knee point, and the input level k2 (i)) are obtained from the input / output characteristic table 2i. For example, when the stationary degree of the environmental noise is (5), the gain g (5), the input level k1 (5) corresponding to the knee point, and the input level k2 (5) are obtained.
[0067]
Next, in step SP22, the input / output characteristic function generator 2j sets the compression amplification characteristic parameter (the gain g (5) of the linear part, the input level k1 (5) corresponding to the knee point) currently held by the input / output characteristic reference unit 2h. , The input / output characteristic function f (k) is generated based on the input level k2 (5)).
[0068]
Next, in step SP23, the input / output characteristic function f (k) generated by the input / output characteristic function generator 2j is written into the input / output characteristic function memory 2k.
[0069]
Next, in step SP24, the frequency distribution chart is cleared and the process returns to step SP3. In step SP3, the counter (a) is set to a = 0 as described above.
[0070]
Further, the same processing as described above is executed from step SP4.
[0071]
As described above, in the hearing aid according to the present invention, the test sound obtained by mixing the sound with various noises having different degrees of normality is heard, and the compression amplification characteristic parameter in which the sound included in these test sounds is most easily heard The input / output characteristic table 2i is prepared, and the compression amplification characteristic parameter is called from the input / output characteristic table 2i in accordance with the steady state of the noise in the actual environment. Since the compression amplification characteristic of the input / output characteristic processing unit 2a is set based on the effective level p, it is possible to clearly hear the word sound in various noises having different degrees of normality.
[0072]
In addition, this invention is not limited to the above-mentioned embodiment, Various modified embodiment can be considered.
In the above-described embodiment, the input / output characteristic function is based on the gain g (i) of the linear portion, the input level k1 (i) corresponding to the knee point, and the input level k2 (i) as the compression amplification characteristic parameters. The case where it is configured to generate f (k) has been described.
[0073]
However, since it is only necessary to be able to hear the speech clearly in noise, one of the above three parameters may be selected as a parameter, and other parameters such as attack time and release time may be selected. You may choose. Of course, a combination of these parameters may be selected. In this case, the parameter stored in the input / output characteristic table 2i is the selected parameter.
[0074]
In the embodiment of the present invention, the value of the kurtosis Kw is used as a scale representing the degree of stationarity. However, since the degree of stationarity can be calculated, the standard deviation of the distribution is calculated, and this value may be used as the stationarity. . In this case, as the value of the standard deviation is greater constancy is low, it comes to the higher constancy value of the standard deviation is small.
Further, the most frequent number in the appearance frequency number distribution chart may be set as the stationary degree. In this case, the higher the most frequent number, the higher the stationary degree, and the smaller the most frequent number, the lower the stationary degree.
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to clearly hear the sound to be listened to regardless of the quality of the environmental noise.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hearing aid according to the present invention. FIG. 2 is an explanatory diagram related to frame division processing. FIG. 3 is an input / output characteristic diagram showing a relationship between an input sound pressure level and an output sound pressure level. FIG. 5 is a flowchart showing the operation of the hearing aid according to the present invention. FIG. 6 is a frequency distribution diagram for explaining the operation of the hearing aid. FIG. 7 is a frequency distribution diagram for explaining the operation of the hearing aid. 8: Frequency distribution diagram for explaining the operation of the hearing aid device [FIG. 9] Frequency distribution diagram for explaining other embodiments [Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... External sound detection part, 1a ... Microphone, 1b ... A / D converter, 2 ... Signal processing part, 2a ... Input / output characteristic processing part, 2b ... Frame memory, 2c ... Average effective level calculation part, 2d ... Average effective Level memory, 2e... Appearance frequency distribution diagram calculation unit, 2f... Peak position detection unit, 2g... Steady degree calculation unit, 2h... Input / output characteristic reference unit, 2i. 2k: input / output characteristic function memory, 3: output unit, 3a: D / A converter, 3b: amplifier, 3c: earphone.

Claims (4)

外部音に応じた電気信号を出力する外部音検出手段と、この外部音検出手段の出力信号を処理する信号処理手段と、この信号処理手段の出力信号を音響信号に変換する音響出力手段からなる補聴装置において、前記信号処理手段は、前記外部音検出手段が出力する信号から外部音が含む騒音の定常度を所定の時間間隔で検出する定常度検出手段と、前記外部音検出手段の出力信号を圧縮増幅する入出力特性処理手段と、補聴器装用者に適合した圧縮増幅特性パラメータを記憶した圧縮増幅特性パラメータテーブルを備え、前記定常度検出手段が出力する定常度に対応する前記圧縮増幅特性パラメータに基づいて前記入出力特性処理手段の入出力特性を決定することを特徴とする補聴装置。An external sound detecting means for outputting an electric signal corresponding to an external sound, a signal processing means for processing an output signal of the external sound detecting means, and an acoustic output means for converting the output signal of the signal processing means into an acoustic signal In the hearing aid apparatus, the signal processing means detects a steadyness degree of noise included in the external sound from a signal output from the external sound detection means at a predetermined time interval, and an output signal of the external sound detection means Input / output characteristic processing means for compressing and amplifying, and a compression amplification characteristic parameter table storing compression amplification characteristic parameters suitable for a hearing aid wearer, the compression amplification characteristic parameter corresponding to the stationarity output by the stationarity detecting means A hearing aid device that determines input / output characteristics of the input / output characteristics processing means based on 前記圧縮増幅特性パラメータが、圧縮比である請求項1記載の補聴装置。The hearing aid according to claim 1, wherein the compression amplification characteristic parameter is a compression ratio. 前記圧縮増幅特性パラメータが、ニーポイントである請求項1記載の補聴装置。The hearing aid according to claim 1, wherein the compression amplification characteristic parameter is a knee point. 前記圧縮増幅特性パラメータが、直線域の利得である請求項1記載の補聴装置。The hearing aid according to claim 1, wherein the compression amplification characteristic parameter is a linear gain.
JP30190499A 1999-10-25 1999-10-25 Hearing aid Expired - Fee Related JP3794881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30190499A JP3794881B2 (en) 1999-10-25 1999-10-25 Hearing aid

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30190499A JP3794881B2 (en) 1999-10-25 1999-10-25 Hearing aid

Publications (2)

Publication Number Publication Date
JP2001128296A JP2001128296A (en) 2001-05-11
JP3794881B2 true JP3794881B2 (en) 2006-07-12

Family

ID=17902527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30190499A Expired - Fee Related JP3794881B2 (en) 1999-10-25 1999-10-25 Hearing aid

Country Status (1)

Country Link
JP (1) JP3794881B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089976A1 (en) 2009-02-09 2010-08-12 パナソニック株式会社 Hearing aid

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007025569A1 (en) * 2005-09-01 2007-03-08 Widex A/S Method and apparatus for controlling band split compressors in a hearing aid
JP2007124302A (en) * 2005-10-28 2007-05-17 Nippon Telegr & Teleph Corp <Ntt> Automatic volume control method, automatic volume controller, program and recording medium
CN101406071B (en) * 2006-03-31 2013-07-24 唯听助听器公司 Method for the fitting of a hearing aid, a system for fitting a hearing aid and a hearing aid
KR100945842B1 (en) 2007-12-18 2010-03-10 주식회사 바이오사운드랩 Hearing aid for battery save and Control method thereof
JP5037435B2 (en) * 2008-06-16 2012-09-26 リオン株式会社 Hearing aid adjustment
CN102667142B (en) * 2009-12-09 2015-09-16 唯听助听器公司 The method of processing signals, the method for adapting hearing aid and hearing aids in hearing aids

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089976A1 (en) 2009-02-09 2010-08-12 パナソニック株式会社 Hearing aid
US8126176B2 (en) 2009-02-09 2012-02-28 Panasonic Corporation Hearing aid

Also Published As

Publication number Publication date
JP2001128296A (en) 2001-05-11

Similar Documents

Publication Publication Date Title
CN110473567B (en) Audio processing method and device based on deep neural network and storage medium
US9319814B2 (en) Method for fitting a hearing aid device with active occlusion control to a user
Stone et al. Tolerable hearing aid delays. II. Estimation of limits imposed during speech production
EP2283484B1 (en) System and method for dynamic sound delivery
JP2904272B2 (en) Digital hearing aid and hearing aid processing method thereof
JP4649546B2 (en) hearing aid
JP2011518358A (en) Hearing assistance device
WO2002018889A1 (en) Sound measuring method and device allowing for auditory sense characteristics
US7319770B2 (en) Method of processing an acoustic signal, and a hearing instrument
JP3794881B2 (en) Hearing aid
CN110677776A (en) Volume adjusting method and device, intelligent sound box and storage medium
CN1929298B (en) Audio frequency processing system and method
JP2990265B1 (en) Hearing aid and its frequency characteristic setting method
JP2006333396A (en) Audio signal loudspeaker
Patel et al. Compression Fitting of Hearing Aids and Implementation
JP2005286876A (en) Environmental sound presentation instrument and hearing-aid adjusting arrangement
JP3894875B2 (en) Hearing aid
JP2012213114A (en) Acoustic signal processing apparatus and acoustic signal processing method
JP5531988B2 (en) Volume control device, volume control method, and volume control program
Tiwari et al. A smartphone app-based digital hearing aid with sliding-band dynamic range compression
JP4856559B2 (en) Received audio playback device
JP5644278B2 (en) Maska sound generator and program
Patel Acoustic Feedback Cancellation and Dynamic Range Compression for Hearing Aids and Its Real-Time Implementation
JP4127680B2 (en) Hearing aid processing method and hearing aid using the same
CN117995214A (en) Digital-analog gain adjusting method and device based on active noise reduction and audio playing equipment

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110421

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees