JP2005531175A - Programmable hearing prosthesis that can automatically adapt to the acoustic environment - Google Patents
Programmable hearing prosthesis that can automatically adapt to the acoustic environment Download PDFInfo
- Publication number
- JP2005531175A JP2005531175A JP2004506316A JP2004506316A JP2005531175A JP 2005531175 A JP2005531175 A JP 2005531175A JP 2004506316 A JP2004506316 A JP 2004506316A JP 2004506316 A JP2004506316 A JP 2004506316A JP 2005531175 A JP2005531175 A JP 2005531175A
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- hearing prosthesis
- user
- data
- prosthesis according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/60—Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles
- H04R25/604—Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers
- H04R25/606—Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers acting directly on the eardrum, the ossicles or the skull, e.g. mastoid, tooth, maxillary or mandibular bone, or mechanically stimulating the cochlea, e.g. at the oval window
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36036—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
- A61N1/36038—Cochlear stimulation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N1/00—Electrotherapy; Circuits therefor
- A61N1/18—Applying electric currents by contact electrodes
- A61N1/32—Applying electric currents by contact electrodes alternating or intermittent currents
- A61N1/36—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
- A61N1/36036—Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
- A61N1/36038—Cochlear stimulation
- A61N1/36039—Cochlear stimulation fitting procedures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/43—Electronic input selection or mixing based on input signal analysis, e.g. mixing or selection between microphone and telecoil or between microphones with different directivity characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
- H04R25/505—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
- H04R25/507—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/41—Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/67—Implantable hearing aids or parts thereof not covered by H04R25/606
Landscapes
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Neurosurgery (AREA)
- Biomedical Technology (AREA)
- Acoustics & Sound (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Prostheses (AREA)
Abstract
聴覚人工器官(30)は、音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォン(27)と、ユーザが受信可能な形態で音響信号を提供する出力デバイスと、前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシングユニット(33)とを具え、
前記音響プロセッシングユニット(33)は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含む。The hearing prosthesis (30) receives sound, generates a microphone signal corresponding to the received sound, an output device that provides the sound signal in a form that can be received by the user, and the microphone signal. An acoustic processing unit (33) for receiving and processing and generating an output signal in a form suitable for the operation of the output device,
The acoustic processing unit (33) is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to the user's preference for current acoustic environmental characteristics. And including at least one variable processing factor that can be adjusted by the user.
Description
本発明は、補聴器又は人工耳などのプログラマブル聴覚人工器官に関する。特に、本発明は、特別な音響環境下において、ユーザが既に前記環境に適応した際の音響プロセッシング特性と類似あるいは同一の方法で前記環境に適応するように調整されたプログラマブル聴覚人工器官に関する。 The present invention relates to programmable hearing prostheses such as hearing aids or artificial ears. In particular, the present invention relates to a programmable hearing prosthesis that is tuned to adapt to the environment in a similar or identical manner to the acoustic processing characteristics when the user has already adapted to the environment in a special acoustic environment.
聴力損失は、多くの異なる原因によって引き起こされるものであるが、それらは聴覚伝導の異常に起因するものと、感覚神経の異常に起因するものとに分けることができる。これらの内、聴覚伝導の損失によるものは、蝸牛における毛細胞に到達する音響に対する通常の機械的経路が、例えば小骨へのダメージによって妨げられることに起因する。聴覚伝導の損失は、慣用の補聴器を用いることによって補うことができる。前記補聴器は、音響情報が蝸牛及び毛細胞に到達できるように、マイクロホン、増幅器、及びレシーバ(小型のスピーカー)を具えている。最小可聴音響圧力レベルは、音響試験刺激の周波数とともに変化するので、前記増幅器は、前記信号の異なる周波数成分が種々のレベルに増幅されるように、列状に配置されたフィルタ群の前方に配置されているか、前記フィルタ群を具えるように構成されている。 Hearing loss is caused by many different causes, which can be divided into those resulting from abnormal auditory conduction and those resulting from abnormal sensory nerves. Of these, the loss of auditory conduction is due to the fact that the normal mechanical pathways for sound reaching the hair cells in the cochlea are hindered, for example, by damage to the small bones. Auditory conduction loss can be compensated by using conventional hearing aids. The hearing aid includes a microphone, an amplifier, and a receiver (small speaker) so that acoustic information can reach the cochlea and hair cells. Since the minimum audible acoustic pressure level varies with the frequency of the acoustic test stimulus, the amplifier is placed in front of a group of filters arranged in rows so that different frequency components of the signal are amplified to different levels. Or configured to include the filter group.
感覚神経の異常は、蝸牛における毛細胞及び付随した聴覚神経網がダメージを受けていたり、破壊されていたりした場合に生じる。感覚神経に異常が生じると、最小可聴音響圧力レベルは増大するようになる。なお、前述したように、前記最小可聴音響圧力レベルは、音響試験刺激の周波数とともに変化する。しかしながら、聴覚伝導の異常とは対照的に、所定の試験周波数において不快であると感じる音響圧力レベルは、通常の聴覚能力を有する人々と同じである場合が多い。これは、機能しない耳の不快でない可聴範囲の音響圧力レベルのダイナミックレンジが減少しているためであり、前記ダイナミックレンジは、音響試験刺激の周波数とともに劇的に変化する。このような理由により、感覚神経の異常は、非線形増幅を利用した補聴器を使用することによって頻繁に対処され、一般的なダイナミックレンジを機能しない耳のダイナミックレンジに圧縮するようにしている。このようなシステムは、圧力増幅器の後方にフィルタバンクを有している。その結果、信号のダイナミックレンジは、各帯域において、機能しない耳のダイナミックレンジを適宜に考慮した所定のレンジにまで減少する。 Sensory nerve abnormalities occur when hair cells and associated auditory nerve networks in the cochlea are damaged or destroyed. As sensory nerves become abnormal, the minimum audible acoustic pressure level increases. As mentioned above, the minimum audible acoustic pressure level varies with the frequency of the acoustic test stimulus. However, in contrast to auditory conduction abnormalities, the sound pressure level that feels uncomfortable at a given test frequency is often the same as people with normal hearing ability. This is because the dynamic range of the acoustic pressure level of the non-disabling audible range of a non-functional ear is decreasing, said dynamic range changing dramatically with the frequency of the acoustic test stimulus. For these reasons, sensory nerve abnormalities are frequently dealt with by using hearing aids that utilize non-linear amplification to compress the general dynamic range to a non-functional ear dynamic range. Such a system has a filter bank behind the pressure amplifier. As a result, the dynamic range of the signal is reduced to a predetermined range that appropriately takes into account the dynamic range of the non-functional ear in each band.
耳が全く聞こえない人々の多くは、その聴覚不全は音響信号を神経インパルスに伝送する蝸牛における毛細胞の欠損あるいは破損に起因している。したがって、このような人々は、音響刺激が如何に増幅されようと、通常の方法で音響から生じる神経インパルスメカニズムの破損又は欠損があるために、補聴器を使用することによってもその症状が十分に改善されることがない。このような状況に鑑み、聴覚人工器官が開発されている。前記聴覚人工器官は、蝸牛における毛細胞をバイパスして、電気的刺激を直接聴覚神経網に伝送し、脳が聴覚神経に通常的に伝送される自然な聴覚に類似した聴覚を受容できるようにしている。USP4,532,930は、伝統的な聴覚人工器官を開示している。なお、前記米国特許の内容は、本明細書中に参照文献として含まれる。 In many people who are deaf at all, the hearing loss is due to hair cell loss or damage in the cochlea that transmits acoustic signals to nerve impulses. Thus, no matter how much the acoustic stimulus is amplified, these people have their symptoms improved sufficiently by using hearing aids because of the disruption or loss of the nerve impulse mechanism that normally results from sound. It will not be done. In view of this situation, hearing prostheses have been developed. The auditory prosthesis bypasses hair cells in the cochlea and transmits electrical stimuli directly to the auditory nerve network, allowing the brain to accept hearing similar to natural hearing normally transmitted to the auditory nerve. ing. USP 4,532,930 discloses a traditional hearing prosthesis. The contents of the US patent are included in the present specification as references.
聴覚人工器官は、代表的には2つの本質的要素を含んでいる。一つは、プロセッサユニットとしての外部コンポーネントであり、他の一つはスティミュレータ/レシーバとしてのインプラントコンポーネントである。伝統的に、これらの2つのコンポーネントは、協同して、ユーザに対して音響感覚を提供するものである。 A hearing prosthesis typically includes two essential elements. One is an external component as a processor unit and the other is an implant component as a stimulator / receiver. Traditionally, these two components cooperate to provide an acoustic sensation to the user.
前記外部コンポーネントは、伝統的に、演説及び環境音響などの音響受信のためのマイクロフォン、受信した音響、特に演説などをコード化された信号に変換するスピーチプロセッサ、電池などの電源、及び外部トランスミッタコイルから構成されている。 The external component has traditionally been a microphone for receiving sound, such as speech and environmental sound, a speech processor that converts received sound, particularly speech, etc. into a coded signal, a power source such as a battery, and an external transmitter coil It is composed of
前記スピーチプロセッサから出力されたコード化された信号は、ユーザの側頭骨の部分に位置するインプラントスティミュレータ/レシーバユニットに経皮的に伝送される。この伝送は、前記インプラントスティミュレータ/レシーバユニットに設けられたインプラント受信コイルと連結するようにして位置する外部トランスミッタコイルを介して行われる。このような伝達は、2つの本質的な目的のために行われる。一つは前記コード化された音響信号を経皮的に伝達するためであり、他の一つはインプラントスティミュレータ/レシーバユニットにパワーを提供するためである。従来、このようなリンクは、RFリンクの形式で行われており、その他のリンクも提案され、成功の度合いは異なるものの実行されている。 The coded signal output from the speech processor is transmitted percutaneously to an implant stimulator / receiver unit located in a portion of the user's temporal bone. This transmission takes place via an external transmitter coil, which is located so as to be connected to an implant receiving coil provided in the implant stimulator / receiver unit. Such a transmission takes place for two essential purposes. One is for transcutaneously transmitting the coded acoustic signal and the other is for providing power to the implant stimulator / receiver unit. Traditionally, such links have been made in the form of RF links, and other links have been proposed and implemented with varying degrees of success.
インプラントスティミュレータ/レシーバユニットは、伝統的にはコード化された信号を受信し、外部プロセッサーユニットからのパワーを受信するための受信コイルと、前記コード化された信号を加工し、オリジナルな受信音響に相当する聴覚を生成する聴覚神経に直接電気的刺激を提供する内部聴覚電極アセンブリに、刺激信号を出力するスティミュレーターとを具えている。 The implant stimulator / receiver unit traditionally receives the coded signal, receives the power from the external processor unit, and processes the coded signal to produce the original received sound. And an internal auditory electrode assembly that provides electrical stimulation directly to the auditory nerve that produces the auditory equivalent of a stimulator that outputs a stimulation signal.
ユーザは、聴覚人工器官に対して、個々の要求レベルに応じた異なる刺激信号の出力を要求する。このような状況は、個々のユーザが同一の聴覚異常を有し、同一の人工器官を用いる場合においても生じ、本質的に同一の音響環境に置かれた場合においても生じる。このような問題に鑑み、補聴器及び人工聴覚器官に対する音響加工スキームにおいては、個々のユーザの要求に対応するように設定されるパラメータを数多く具えている。例えば、入力音響に対する感度及び周波数レスポンスに対する変分などである。代表的に、これらのパラメータは日々の状況におけるユーザ、あるいは前記人工器官を取り付ける臨床医によって選択される。前者の場合、例えば感度(ボリューム)、周波数レスポンスなどが選択されるパラメータであって、後者の場合、例えばベースライン周波数応答及び入力レベルの変化に基づいて変化する周波数レスポンス及び感度の変化速度である。 The user requests the auditory prosthesis to output different stimulation signals according to individual request levels. This situation occurs even when individual users have the same hearing abnormality and use the same prosthesis, and also when placed in essentially the same acoustic environment. In view of these problems, acoustic processing schemes for hearing aids and prosthetic organs have many parameters that are set to meet the needs of individual users. For example, sensitivity to input sound and variation to frequency response. Typically, these parameters are selected by the user in day-to-day situations or by the clinician attaching the prosthesis. In the former case, for example, sensitivity (volume), frequency response, and the like are parameters to be selected. In the latter case, for example, the frequency response and the speed of change in sensitivity that change based on changes in the baseline frequency response and input level. .
特に最近、聴覚人工器官において、求めるパフォーマンスに合致するように調整されるべき、あるいは調整することのできるパラメータ数が増大する傾向にある。しかしながら、このようにパラメータ数が増大しても、個々のユーザにとっての最適なパラメータ値を選択できるような信頼性のある規範的な方法が存在しないという問題を際だたせる結果となり、特に前記パラメータの内のいくつかが、全く同一の聴覚障害を有する個人間で変化する場合において顕著となっている。したがって、臨床医が実際の診療室以外で、前記ユーザの報告された経験に基づいて人工器官を調節できるようになることが必要であり、前記調節のために診療室に戻らなければならないという時間の無駄及び不便性を解消する必要もある。 Particularly recently, there is a tendency for auditory prostheses to increase the number of parameters that should be adjusted or can be adjusted to match the desired performance. However, even if the number of parameters increases in this way, this results in the problem that there is no reliable normative method for selecting the optimum parameter value for each user. Some of them are prominent when they vary between individuals with identical hearing impairments. Therefore, it is necessary for the clinician to be able to adjust the prosthesis based on the user's reported experience outside the actual clinic, and the time that he must return to the clinic for the adjustment It is also necessary to eliminate waste and inconvenience.
補聴器ユーザが聴覚を得ることのできる補聴器の例が、USP5,604,812において開示されている。前記補聴器は実際の駆動方法についても考慮されており、“アンシャープ入力(unsharp inputs)”、すなわち一般環境条件及び/又は補聴器の出力値、規定のアルゴリズム、聴覚不全データ、及び補聴器特性データについての補聴器携帯者の“感覚”を蓄積することができるメモリを有するものである。ファジー論理モジュールは前記データを用い、入力信号解析ユニットからの信号を制御し、補聴器に対する出力パラメータを計算する。前記ファジー論理回路モジュール及び/又は前記アルゴリズムは、神経回路網によって補助メモリに蓄積されたデータに基づいて計算を実行する。この間、前記神経回路網は前記補助メモリに接続されたパーソナルコンピュータにおいて駆動される。このような補聴器は、プロセッシングスキームが複雑になるという問題と、補助電源、代表的にはオンボードバッテリにおける望ましくない大規模な電流流出という問題とが生じるようになる。これに加え、前記補聴器は、正確に駆動させるために長時間を要し、ユーザが最適な状態を直接設定することが困難となり、このため、前記補聴器に対して、むしろ正確かつ直接に必要な入力を行うよりも“アンシャープ入力”を行う方が好ましくなる。 An example of a hearing aid from which a hearing aid user can obtain hearing is disclosed in USP 5,604,812. The hearing aid also takes into account the actual driving method, “unsharp inputs”, ie general environmental conditions and / or hearing aid output values, prescribed algorithms, hearing loss data, and hearing aid characteristics data. It has a memory that can store the “sense” of the hearing aid wearer. The fuzzy logic module uses the data to control the signal from the input signal analysis unit and calculate the output parameters for the hearing aid. The fuzzy logic circuit module and / or the algorithm performs calculations based on data stored in auxiliary memory by a neural network. During this time, the neural network is driven in a personal computer connected to the auxiliary memory. Such hearing aids have the problem of complicated processing schemes and the problem of undesirably large current drain in auxiliary power supplies, typically on-board batteries. In addition, the hearing aid takes a long time to drive accurately, making it difficult for the user to set the optimal state directly, which is rather necessary for the hearing aid more accurately and directly. It is preferable to perform “unsharp input” rather than input.
補聴器ユーザが聴覚を受信できる補聴器の他の例が、USP6,305,050において開示されている。この補聴器によれば、ユーザは、リモートユニットにおける音響状況の内から一つの音響状況を選択することによって現在の音響環境を同定することが要求される。この場合、前記ユーザは、前記選択した音響状況から現在の音響状況を瞬時に決定することができないので、前記補聴器の利点は大幅に減少してしまう。このような問題に加えて、リモートユニット、例えば作動中のリモートユニットは異なる音響環境を有することになり、その結果、音響状態を十分に画定することができない場合がある。したがって、神経回路網は、マイクロフォン信号の解析から音響状況などを十分に認識することができない場合がある。前記音響状況の認識は、メモリ限界及び音響状況の変化は早期に認識することが好ましいとの実用的な見地から数秒から数分の間に行うことが望ましい。したがって、所定の訓練を実施した後も、前記神経回路網は音響状況を誤って認識する可能性が生じてしまう。特に、音響的に十分に画定することができない状況ではなおさらである。その結果、増幅パラメータは、現在の音響状況に適さないものとなってしまう。このような装置においては、環境パラメータを測定したり、プロセッシングスキームにおいて直接にこれらのパラメータを使用する代わりに、特定の音響環境を類別する試みがなされている。これは、本願発明と共通する技術的事項である。また、前記装置では、以前の作業場所と音響的に異なる新たな作業場所のような、生活環境の変化によって、異なる増幅パラメータが必要になり、その結果、診療室に再度通わなければならなくなる。 Another example of a hearing aid that allows a hearing aid user to receive hearing is disclosed in USP 6,305,050. According to this hearing aid, the user is required to identify the current acoustic environment by selecting one of the acoustic conditions in the remote unit. In this case, since the user cannot instantaneously determine the current acoustic condition from the selected acoustic condition, the advantage of the hearing aid is greatly reduced. In addition to these problems, remote units, such as active remote units, will have different acoustic environments, and as a result, acoustic conditions may not be well defined. Therefore, the neural network may not be able to fully recognize the acoustic situation from the analysis of the microphone signal. The acoustic situation is preferably recognized within a few seconds to several minutes from the practical viewpoint that it is preferable to recognize the memory limit and the change in the acoustic situation at an early stage. Therefore, even after the predetermined training is performed, the neural network may possibly recognize the acoustic situation erroneously. This is especially true in situations where acoustics cannot be well defined. As a result, the amplification parameters are not suitable for the current acoustic situation. In such devices, attempts have been made to classify specific acoustic environments instead of measuring environmental parameters or using these parameters directly in the processing scheme. This is a technical matter common to the present invention. The device also requires different amplification parameters due to changes in the living environment, such as a new work place that is acoustically different from the previous work place, and as a result, has to go to the clinic again.
補聴器は、そのユーザの嗜好をも受容することができ、このような補聴器についてはUSP6,044,163に記載されている。この文献に記載された補聴器は、USP6,035,05に記載されたものと類似しているが、主な相違事項は、神経回路網が、メモリ中に蓄積された増幅パラメータを一括して選択せず、個々の増幅パラメータを直接的に設定するということである。前記補聴器のその他の不利益は、USP6,035,050に記載された補聴器におけるものと同じである。 Hearing aids can also accept the preferences of their users, and such hearing aids are described in USP 6,044,163. The hearing aids described in this document are similar to those described in USP 6,035,05, but the main difference is that the neural network selects the amplification parameters stored in memory collectively. Without setting individual amplification parameters directly. The other disadvantages of the hearing aid are the same as in the hearing aid described in USP 6,035,050.
本発明は、調節可能であって、ユーザは可変的な音響環境に置かれた際に、前記ユーザに対する出力状態を調節することができる聴覚人工器官を前記ユーザに提供することを目的とする。 It is an object of the present invention to provide the user with an auditory prosthesis that is adjustable and can adjust the output state for the user when placed in a variable acoustic environment.
また、本発明は、個々のユーザの訓練によって伝統的な診療環境から離隔して遭遇した音響状況においても、前記ユーザの嗜好に合うように出力状況を調節し、前記ユーザの音響を最適化するために要求される診療時間を短縮することができる聴覚人工器官を前記ユーザに提供することを目的とする。 In addition, the present invention optimizes the sound of the user by adjusting the output state so as to suit the user's preference even in the sound situation encountered by training of individual users away from the traditional medical environment. Therefore, an object of the present invention is to provide the user with a hearing prosthesis that can shorten the medical examination time required.
本明細書に含まれる、文献、動作、材料、装置、部品などは、本発明の目的を達成するために要求されるものである。これら要素の一部あるいは総ては、本願発明が関連する分野においては、従来技術あるいは公知技術を構成し、本願の特許請求の範囲に関する優先日以前に存在しているものではない。 Documents, operations, materials, devices, parts, etc. included in this specification are required to achieve the objectives of the present invention. Some or all of these elements constitute prior art or known art in the field related to the present invention and do not exist before the priority date related to the claims of the present application.
上記目的を達成すべく、本発明は、
音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
セッティング状態を記憶するデータメモリ手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官(第1の聴覚人工器官)に関する。
In order to achieve the above object, the present invention provides:
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data memory means for storing the setting state;
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The data memory means relates to an auditory prosthesis (first auditory prosthesis) that stores the setting state in the first mode.
本発明では、一ユーザに対して最適な出力信号として考慮されるものが、他のユーザに対しては最適な信号として考慮されないことを理解する必要がある。本発明は、ユーザが日常的あるいは時折接する音響環境と異なる音響環境に接した場合に、診療試験によって予め定められた方法ではなく、前記ユーザの要求に合致するような方法で、前記聴覚人工器官が駆動することを保証するものである。なお、前記音響環境は、前記ユーザが接触した場合に、前記ユーザが必ずしも主観的反応を繰り返して起こすとは限らない。 In the present invention, it should be understood that what is considered as an optimal output signal for one user is not considered as an optimal signal for other users. The present invention relates to the hearing prosthesis in a method that meets the user's requirements rather than a method predetermined by a medical examination when the user is in contact with an acoustic environment that is different from the acoustic environment that is routinely or occasionally in contact with the user. Is guaranteed to drive. Note that the acoustic environment does not necessarily cause the user to repeat subjective reactions when the user touches.
好ましくは、前記データメモリ手段は、少なくとも1つの音響環境特性を代表するデータセットを記憶することが好ましい。また、好ましくは、前記少なくとも1つの可変プロセッシングファクタは、このファクタに相当する音響環境に基づいて自動的に調整されることが好ましい。 Preferably, the data memory means stores a data set representative of at least one acoustic environmental characteristic. Preferably, the at least one variable processing factor is automatically adjusted based on an acoustic environment corresponding to the factor.
第1の態様において、前記第1のモードで動作する際に、前記音響プロセッシング手段は、前記ユーザによって選択された前記少なくとも1つの可変プロセッシングファクタの、2以上の最適なセッティング状態を提供する。この場合、前記ユーザは、特定の音響環境で駆動される際の、前記聴覚人工器官の駆動状態を、各セッティング状態での駆動状態と比較することができ、これらのセッティング状態から前記音響環境に最も良く合致するセッティング状態を選択することができる。前記ユーザによって選択された、前記可変プロセッシングファクタのセッティング状態は、必要に応じて前記音響環境特性を示すデータとともに、前記データメモリ手段内に記憶することができる。このプロセスは繰り返し実行され、これによって前記プロセッシング手段は、前記可変プロセッシングファクタのセッティング状態に対する前記ユーザの嗜好が、時間とともに又は使用経過に伴って変化するか否かをモニタリングすることができる。 In a first aspect, when operating in the first mode, the acoustic processing means provides two or more optimal setting states of the at least one variable processing factor selected by the user. In this case, the user can compare the driving state of the hearing prosthesis when driven in a specific acoustic environment with the driving state in each setting state, and from these setting states to the acoustic environment. The best matching setting state can be selected. The setting state of the variable processing factor selected by the user can be stored in the data memory means together with the data indicating the acoustic environment characteristics as necessary. This process is repeated so that the processing means can monitor whether the user's preference for the setting state of the variable processing factor changes over time or over time.
上述のようなプロセスを繰り返す際、前記ユーザによる、各セッティング状態に対する選択の回数がモニタリングされ、前記聴覚人工器官が前記可変プロセッシングファクタの最適なセッティング状態、あるいは必要に応じて、特定の音響環境に対する可変プロセッシング状態の最適なセッティング状態を選択することができるようになる。 When repeating the process as described above, the number of selections made by the user for each setting state is monitored, and the hearing prosthesis is optimized for the variable processing factor setting, or, if necessary, for a particular acoustic environment. It becomes possible to select the optimum setting state of the variable processing state.
本例において、前記ユーザはコントロール手段を駆動させることにより、前記提供されたセッティング状態に基づいてリスニング環境を変更することができ、インジケータ手段を操作することによって、前記可変プロセッシングファクタのセッティング状態を選択することができる。一例において、前記コントロール手段は、ユーザによって操作可能なスイッチあるいはボタン群を具えることができ、前記インジケータ手段は、前記ユーザによって操作可能なスイッチあるいはボタン群を具えることができる。 In this example, the user can change the listening environment based on the provided setting state by driving the control means, and select the setting state of the variable processing factor by operating the indicator means. can do. In one example, the control means may comprise a switch or button group operable by a user, and the indicator means may comprise a switch or button group operable by the user.
他の例において、前記音響プロセッシング手段が第1のモードで駆動される場合、前記音響プロセッシング手段は調整可能とすることができる。この場合、前記ユーザは、最適なセッティング状態を不連続的に選択する代わりに、コントロール手段を調整することによって、実質的に連続した範囲において、前記可変プロセッシングファクタを変更することができ、したがってプロセッシング操作を変更することができる。前記ユーザが、特定の音響環境に対して最適なセッティング状態であると考える、前記実質的に連続した範囲の、所定のセッティング状態に前記コントロール手段を調整すると、前記ユーザはスイッチやボタンなどのインジケータ手段を操作して、前記セッティング状態、及び必要に応じて前記特定の音響環境を示すデータを前記データメモリ手段内に記憶する。前記音響プロセッシング手段によって、前記インジケータ手段が駆動されると、前記インジケータ手段は、前記コントロール手段における特定のセッティング状態が、前記特定の音響環境に対して最適であることを指示する。 In another example, the acoustic processing means may be adjustable when the acoustic processing means is driven in a first mode. In this case, the user can change the variable processing factor in a substantially continuous range by adjusting the control means instead of discontinuously selecting the optimal setting state, and thus processing. The operation can be changed. When the user adjusts the control means to a predetermined setting state within the substantially continuous range, which the user thinks is an optimal setting state for a specific acoustic environment, the user may indicate an indicator such as a switch or button. By operating means, data indicating the setting state and, if necessary, the specific acoustic environment is stored in the data memory means. When the indicator means is driven by the acoustic processing means, the indicator means indicates that a particular setting state in the control means is optimal for the particular acoustic environment.
本例において、前記コントロール手段は、ロータリーホイールコントロールを具えることができる。前記ロータリーホイールコントロールは、前記聴覚人工器官のハウジング上に取り付けることができ、また離隔したユニット上に取り付けることもできる。前記コントロール手段はトグルスイッチ又はプレスボタンの形態とすることもできる。 In this example, the control means may comprise a rotary wheel control. The rotary wheel control can be mounted on the hearing prosthesis housing or on a remote unit. The control means may be in the form of a toggle switch or a press button.
上述した例において、前記インジケータ手段は、前記聴覚人工器官のハウジングに取り付けることができるし、離隔したユニット上に取り付けることもできる。
好ましい態様において、前記ユーザによって、複数の音響環境に対して最適であるとして選択されたセッティング状態は、必要に応じて、前記音響環境特性を示すデータとともに、前記データメモリ手段内に記憶することができる。前記音響プロセッシング手段は、前記第2のモードで駆動することができ、所定の時間、あるいは前記ユーザが前記コントロール手段を調整し、特定の音響環境に対して最適であると考える新たなセッティング状態を選択する度毎に、前記第1のモードで同時に駆動させることができる。他の例において、前記聴覚人工器官は、前記第1のモードで駆動する時間を確定することができる。この時間は、前記ユーザが望むように設定することができる。訓練時間が完了した後に、前記聴覚人工器官は前記ユーザに対して信号を発することができる。この場合、前記聴覚人工器官において、訓練時間の終了は、前記聴覚人工器官によって既に評価されたセッティング状態と異なるセッティング状態を選択することができなくなった時点で終了するようにすることができる。
In the example described above, the indicator means can be mounted on the housing of the hearing prosthesis or on a remote unit.
In a preferred embodiment, the setting state selected by the user as optimal for a plurality of acoustic environments may be stored in the data memory means together with data indicating the acoustic environment characteristics, if necessary. it can. The acoustic processing means can be driven in the second mode, and for a predetermined time or a new setting state that the user adjusts the control means to consider optimum for a specific acoustic environment. Each time it is selected, it can be driven simultaneously in the first mode. In another example, the hearing prosthesis can determine a time to drive in the first mode. This time can be set as desired by the user. After the training time is complete, the hearing prosthesis can signal the user. In this case, in the auditory prosthesis, the end of the training time can be ended when it becomes impossible to select a setting state different from the setting state already evaluated by the auditory prosthesis.
本発明の好ましい態様では、前記聴覚人工器官は、さらに音響解析手段を具えることができる。音響解析手段は、前記マイクロフォンから入力信号を受信し、ユーザの音響環境をモニタリングする。前記音響解析手段は、モニタリングされた音響環境を代表する出力を提供する。 In a preferred aspect of the present invention, the hearing prosthesis may further include acoustic analysis means. The acoustic analysis means receives an input signal from the microphone and monitors the acoustic environment of the user. The acoustic analysis means provides an output representative of the monitored acoustic environment.
さらに、前記データメモリ手段は、1以上のデータメモリロケーションを具えることができる。例えば、前記データメモリ手段は5つのデータメモリロケーションを具えることができる。本例において、第1のデータメモリロケーションは、ユーザの聴力データ及び/又は前記聴覚人工器官によって使用された1以上の音声に対する個々のデータを含む。第2のデータメモリロケーションは、前記聴覚人工器官の特性データを含む。第3のデータメモリロケーションは、個々のユーザが異なる音響環境における、音響プロセッサユニットの最適なプロセッシング操作を予想するために使用する1以上の式を具える。第4のデータメモリロケーションは、ユーザによって選択された最適な音響プロセッシングデータを記憶する。このデータは、連続的又は前記音響解析手段によって供給される音響環境データを指示するような異なる方法で順序づけることができる。最適な音響プロセッシングデータに相当する音響環境データは、適宜第5のデータメモリロケーションに記憶させることができる。なお、異なるメモリロケーションを有するデータメモリ手段を用いることもできる。 Furthermore, the data memory means may comprise one or more data memory locations. For example, the data memory means can comprise five data memory locations. In this example, the first data memory location includes user hearing data and / or individual data for one or more sounds used by the hearing prosthesis. The second data memory location contains characteristic data of the hearing prosthesis. The third data memory location comprises one or more formulas used by individual users to anticipate optimal processing operations of the acoustic processor unit in different acoustic environments. The fourth data memory location stores the optimal acoustic processing data selected by the user. This data can be ordered sequentially or in different ways to indicate the acoustic environment data supplied by the acoustic analysis means. The acoustic environment data corresponding to the optimal acoustic processing data can be stored in the fifth data memory location as appropriate. It is also possible to use data memory means having different memory locations.
また、前記第4のデータメモリロケーションは、最適な音響プロセッシングデータの、予め画定された最大のデータ数を記憶することができる。例えば、400個の最適音響プロセッシングデータを記憶することができる。しかしながら、前記最大値は、他の値とすることもできる。例えば、前記データプロセッシング手段は、蓄積された総てのデータばかりを使用するものではなく、予め定められた数の、最も近時に記録されたデータをも利用する。例えば、可変プロセッシングファクタの最適値を決定する際に、最近時の256個のデータのみを利用することができる。また、前記メモリロケーション内の、最も古いデータに代えて、最も新しいデータを記憶させることができる。この先入れ先出し記憶システムは、前記聴覚人工器官に対して、最近時に記録されたデータを任意に記憶できるようにしている。また、前記メモリロケーションが一杯になった際に、古いデータが上書きされないようにし、新たなデータが記憶されなくするようにすることができる。さらに、前記メモリロケーションにおける古いデータに対して選択的に上書きを実施することによって、所定の音響環境に相当する新たなデータを前記メモリロケーション中に記憶させるようにすることができる。 The fourth data memory location may store a pre-defined maximum number of optimal acoustic processing data. For example, 400 optimal acoustic processing data can be stored. However, the maximum value may be another value. For example, the data processing means does not use all the accumulated data, but also uses a predetermined number of recently recorded data. For example, when determining the optimum value of the variable processing factor, only the latest 256 data can be used. Also, the newest data can be stored in place of the oldest data in the memory location. This first-in first-out storage system can arbitrarily store data recorded recently in the hearing prosthesis. In addition, when the memory location is full, old data can be prevented from being overwritten, and new data can be prevented from being stored. Furthermore, new data corresponding to a predetermined acoustic environment can be stored in the memory location by selectively overwriting old data in the memory location.
前記聴覚人工器官は、さらにデータプロセッシング手段を具えることができる。前記データプロセッシング手段は、音響解析手段からの出力を受信する。この出力に基づいて、前記データプロセッシング手段は、前記マイクロフォンで受信した音の強さを計算することができる。また、前記データプロセッシングユニットは、通常の聴力を有する人が聞くことのできる音の強さ、あるいは何らかの聴力障害を有する人が聞くことのできる音の強さを計算することができる。なお、前記データプロセッシング手段は、前記マイクロフォンで受信した他の音響指標及び心理音響的指標を計算することもできる。前記データプロセッシング手段は、前記第3のデータメモリロケーションに記憶された1以上の式に対する入力データとして音響状態の指標を用いることができる。これによって、前記音響解析手段によって決定された音響環境において、前記ユーザが、前記音響プロセッシング手段の最適な音響プロセッシング動作を評価することができるようになる。 The hearing prosthesis may further comprise data processing means. The data processing means receives an output from the acoustic analysis means. Based on this output, the data processing means can calculate the intensity of the sound received by the microphone. In addition, the data processing unit can calculate the strength of sound that can be heard by a person having normal hearing ability, or the strength of sound that can be heard by a person having some kind of hearing impairment. The data processing means can also calculate other acoustic indicators and psychoacoustic indicators received by the microphone. The data processing means may use an acoustic state indicator as input data for one or more equations stored in the third data memory location. This allows the user to evaluate the optimum sound processing operation of the sound processing means in the sound environment determined by the sound analysis means.
前記データプロセッシングユニットは、さらに前記第2のデータメモリロケーションに記憶された聴覚人工器官特性データ、及び前記式から得られた最適な音響プロセッサデータを用い、自動的及び連続的に前記音響プロセッシング手段の適当なセッティング状態を決定することができ、ユーザに対して、現在経験している音響環境に対する最適な出力信号を提供することができる。 The data processing unit further uses the auditory prosthesis characteristic data stored in the second data memory location and the optimal acoustic processor data obtained from the equation to automatically and continuously use the acoustic processing means. Appropriate setting conditions can be determined and the user can be provided with an optimal output signal for the acoustic environment currently experienced.
好ましい例において、前記音響プロセッシング手段は、増幅手段及びゲインコントロール手段を含む。前記増幅手段は、前記第1のモードにおいて調整可能であり、前記ユーザが特定の音響環境において、前記増幅手段の各周波数又は総ての周波数におけるゲインを最適化できるようにすることができる。最適化の後、前記聴覚人工器官は、第2のモードにおいて駆動し、増幅手段の増幅特性を最適なレベルに調整する。すなわち、前記可変プロセッシングファクタは、各周波数又は総ての周波数における、増幅ゲインとすることができる。 In a preferred example, the acoustic processing means includes an amplification means and a gain control means. The amplification means can be adjusted in the first mode, allowing the user to optimize the gain at each or all frequencies of the amplification means in a particular acoustic environment. After optimization, the hearing prosthesis is driven in the second mode to adjust the amplification characteristics of the amplification means to an optimum level. That is, the variable processing factor can be an amplification gain at each frequency or at all frequencies.
前記増幅手段の、各周波数又は総ての周波数におけるゲインは、予め画定された形式の式を用いて計算することができる。前記式は、
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav) (1)
で表すことができる。
The gain at each frequency or all frequencies of the amplification means can be calculated using a formula of a predefined type. The formula is
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav) (1)
Can be expressed as
ここで、
i=周波数バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR
信号スペクトルの高次のモーメント及びこれらモーメントの変化などの音響的あるいは心理音響的パラメータ、又はその他の統計的パラメータあるいは音響信号、あるいは前記統計的パラメータと音響信号との組み合わせ、さらには任意の係数などを組み合わせたものから構成される式を用いても、ゲイン又はプロセッシングファクタを計算することができる。例えば、聴覚人工器官が反応し、音響環境において変化する際の速度などのファクタを計算することができる。使用する式の選択は、本発明の範疇を逸脱しない限りにおいて、その使用環境に依存して決定することができる。
here,
i = number of frequency bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR across all bands
Acoustic or psychoacoustic parameters such as higher-order moments in the signal spectrum and changes in these moments, or other statistical parameters or acoustic signals, or a combination of the statistical parameters and acoustic signals, and arbitrary coefficients The gain or processing factor can also be calculated using an expression composed of a combination of. For example, factors such as the speed at which the hearing prosthesis reacts and changes in the acoustic environment can be calculated. The selection of the formula to be used can be determined depending on the usage environment without departing from the scope of the present invention.
上記具体例において、訓練係数はa,b,c及びdを含み、結果として、可変プロセシングファクタである増幅ゲインGを導出することになる。
したがって、前記音響プロセッシング手段の、1以上のプロセッシングファクタは、ユーザが前記コントロール手段又は多重コントロール手段を使用することによって調整することができる。同様に、前記ユーザは、前記コントロール手段又は前記多重コントロール手段を用いることにより、前記音響プロセッシング手段の1以上のパラメータを調整することができる。
(i) 出力信号のボリューム
(ii) 他の周波数と関連した特定の周波数における出力信号のゲイン、例えばミッドレンジ周波数のゲインを、ハイ又はローレンジ周波数のゲインに比較して、増幅したり減衰したりすることができる
(iii) ミッドレンジ周波数のゲインが変化しない間において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール
前記音響プロセッシング手段の操作において、前記ユーザは、前記インジケータ手段を駆動させることによって、特定の音響環境に対する可変プロセッシングファクタに対して最適なセッティング状態を選択することができる。前記音響プロセッシング手段の多重操作において、前記ユーザは前記インジケータ手段を駆動させることにより、前記ユーザが経験する音響環境の、1以上の可変プロセッシングファクタに対する最適な状態を選択することができる。したがって、1以上の可変プロセッシングファクタ同様、前記音響プロセッシング手段の、1以上の操作についても、その選択と結合させて調整することができる。前記インジケータ手段が駆動される度毎に、各周波数帯におけるゲインは、前記マイクロフォンによって受信した音響環境を示すデータセットとともに記録することができる。
前記データセットは、前記データプロセッシング手段による先のデータセットとともに使用して、各バンドにおける記録された訓練データと最も良く合致するゲイン式係数を計算する。各周波数バンドにおける記録ゲインは、前記ゲイン式係数を計算するために用いることができる。
In the above specific example, the training coefficient includes a, b, c, and d, and as a result, an amplification gain G that is a variable processing factor is derived.
Thus, one or more processing factors of the acoustic processing means can be adjusted by a user using the control means or multiple control means. Similarly, the user can adjust one or more parameters of the acoustic processing means by using the control means or the multiple control means.
(i) Output signal volume
(ii) The gain of the output signal at a particular frequency relative to other frequencies, such as the midrange frequency gain, can be amplified or attenuated compared to the high or low range frequency gain.
(iii) Slope control that adjusts the low range and high range frequency gains in opposite directions while the mid range frequency gain does not change. It is possible to select an optimum setting state for a variable processing factor for the acoustic environment. In the multiplex operation of the acoustic processing means, the user can select an optimum state for one or more variable processing factors of the acoustic environment experienced by the user by driving the indicator means. Therefore, as well as one or more variable processing factors, one or more operations of the acoustic processing means can be adjusted in conjunction with the selection. Each time the indicator means is driven, the gain in each frequency band can be recorded along with a data set indicative of the acoustic environment received by the microphone.
The data set is used with the previous data set by the data processing means to calculate the gain equation coefficient that best matches the recorded training data in each band. The recording gain in each frequency band can be used to calculate the gain equation coefficient.
第1のモードで駆動する際、前記データプロセシング手段は、ユーザによって予め決められた数の選択が実行されるまで上述したゲインに関する式の、最適な係数を計算しない。例えば、少なくともユーザによって50回の選択が実施されるまでは、最適な係数を計算しないようにすることができる。選択の回数が予め決まっていないような場合、前記音響プロセッシング手段は、前記第2のモードにおいて、予め画定された係数及び/又は可変プロセッシングファクタに基づいて、現在の環境に適応した出力を自動的に計算する。予め確定された数の選択が行われると、前記音響プロセッシング手段は、前記第1のモードにおいて、前記ユーザの先の嗜好に基づいた最適なゲインに関する式の係数を計算し、前記第2のモードにおいて自動的かつ連続的に、前記式を用いて前記可変プロセッシングファクタを計算することができる。前記音響プロセッシング手段において、ユーザが予め設定された回数の選択を行わない内に、ゲインに関する式の最適な係数を計算するようにすることができる。しかしながら、前記式及び計算された前記係数を用い、ある程度の正確さで前記ユーザが好ましいと判断する可変プロセッシングファクタが予測されるまで、前記第2のモードにおいて、計算された前記係数を使用しないことが好ましい。 When driving in the first mode, the data processing means does not calculate an optimum coefficient of the above-described equation relating to gain until a predetermined number of selections are performed by the user. For example, the optimal coefficient may not be calculated until at least 50 selections are performed by the user. If the number of selections is not predetermined, the acoustic processing means automatically outputs an output adapted to the current environment based on a predefined factor and / or a variable processing factor in the second mode. To calculate. When a predetermined number of selections are made, the sound processing means calculates a coefficient of an expression related to an optimal gain based on the user's previous preference in the first mode, and the second mode The variable processing factor can be calculated automatically and continuously using the equation. In the acoustic processing means, the optimum coefficient of the formula relating to the gain can be calculated before the user selects a preset number of times. However, using the equation and the calculated coefficient, do not use the calculated coefficient in the second mode until a variable processing factor that the user deems preferable with some accuracy is predicted. Is preferred.
異なる環境に対する最適な可変プロセッシングファクタを決定するに際して、式を使用しないようにすることもできる。前記最適に調整された可変プロセッシングファクタは、前記第4のデータメモリの、前記音響解析手段によって提供される音響環境データによって決定される位置に記憶することもできる。第1のモードの実行に先立って、前記第4のデータメモリロケーションは、経験的観察あるいは慣用の手法を用いて得られた、相当する音響環境パラメータ値に対するプロセッシングファクタとともにロードされる。前記第1のモードの動作中、前記最適に調整されたプロセッシングファクタは、前記第4のデータメモリロケーションの、前記音響解析手段によって供給された音響環境データによって決定されたロケーションに記憶される。前記最適に調整されたプロセッシングデータは、予め存在する古いデータ上に上書きすることもできるし、数学的及び/又は統計的手法を用いることによって、同じロケーションの、予め存在する古いデータと結合させることもできる。前記第2のモードにおける動作中において、前記音響解析手段によって供給された音響環境パラメータ及び神経音響パラメータは、前記第4のデータメモリロケーションを指示するために使用することができ、指示ロケーションに記憶された値は、前記音響プロセッシング手段の、プロセッシングファクタ値を決定するために使用する。前記音響プロセシング手段に適用されたプロセッシングファクタは、徐々に目的とする前記値に収束させ、前記ファクタが急速に変化したり、瞬時に変化したりすることによって、好ましくない音響効果が生じるのを防止する。なお、前記第5のデータメモリロケーション及び前記第3のデータメモリに記憶された式は必要としない場合がある。したがって、プロセッシングファクタの、音響環境に対する変化は、前記式において予め画定された関係に限定されない。 Expressions can also be avoided in determining the optimal variable processing factor for different environments. The optimally adjusted variable processing factor may be stored at a location in the fourth data memory determined by acoustic environment data provided by the acoustic analysis means. Prior to execution of the first mode, the fourth data memory location is loaded with processing factors for corresponding acoustic environment parameter values obtained using empirical observation or conventional techniques. During operation of the first mode, the optimally adjusted processing factor is stored in a location of the fourth data memory location determined by acoustic environment data supplied by the acoustic analysis means. The optimally adjusted processing data can be overwritten on pre-existing old data or combined with pre-existing old data at the same location by using mathematical and / or statistical techniques You can also. During operation in the second mode, the acoustic environment parameters and neuroacoustic parameters supplied by the acoustic analysis means can be used to indicate the fourth data memory location and are stored in the indicating location. The value is used to determine the processing factor value of the acoustic processing means. The processing factor applied to the acoustic processing means is gradually converged to the target value to prevent an undesirable acoustic effect from being caused by the factor changing rapidly or instantaneously. To do. Note that the expressions stored in the fifth data memory location and the third data memory may not be required. Therefore, the change of the processing factor to the acoustic environment is not limited to the relationship predefined in the above equation.
前記最適に調整された可変プロセッシングファクタは、前記第4のデータメモリロケーションに記憶することができ、前記ファクタの最適値を計算するに際しては、数学的及び/又は統計的手法を用いることができる。本例では、前記第3のデータメモリロケーションに記憶された式は必要としない。また、音響環境データを前記第5のデータメモリロケーション内に直接記憶する必要もなく、又はセッティングデータを指示するための音響環境データを前記第4のデータメモリロケーション内に記憶する必要もない。本例においては、補聴器又は蝸牛インプラントの出力が大きくなって不快になる以前に、前記出力の最大許容レベルなどの音響環境に対して、プロセッシングファクタが変化しないので、前記プロセッシングファクタを簡易化することができる。 The optimally adjusted variable processing factor can be stored in the fourth data memory location, and mathematical and / or statistical techniques can be used in calculating the optimal value of the factor. In this example, the expression stored in the third data memory location is not required. Also, there is no need to store acoustic environment data directly in the fifth data memory location or to store acoustic environment data for indicating setting data in the fourth data memory location. In this example, before the hearing aid or cochlear implant output becomes unpleasant and uncomfortable, the processing factor does not change with respect to the acoustic environment such as the maximum allowable level of the output, so the processing factor is simplified. Can do.
ユーザは、前記人工聴覚器官を調整して、スピーチ明瞭度、リスニング快適性を最大限とすることなどのように、異なるリスニング基準に対して最適な可変プロセッシングファクタを提供するようにすることができる。また、前記調整過程において、(1)式と同様な、特定のリスニング基準と高度に関連した音響環境及び/又は神経音響パラメータを含む式を用いることができる。前記第2のモードで駆動する際、前記可変プロセッシングファクタは、前記式で用いられる係数、及び音響環境及び/又は神経音響パラメータ値によって決定された、リスニング基準の予測される加重結合に対して自動的に適合することができる。 The user can adjust the artificial auditory organ to provide an optimal variable processing factor for different listening criteria, such as maximizing speech intelligibility, listening comfort, etc. . Further, in the adjustment process, a formula similar to the formula (1) including an acoustic environment and / or a neuroacoustic parameter related to a specific listening criterion can be used. When driving in the second mode, the variable processing factor is automatically applied to the predicted weighted combination of listening criteria determined by the coefficients used in the equation and the acoustic environment and / or neuroacoustic parameter values. Can adapt.
また、前記第1のモードにおいて、前記ユーザは、前記インジケータ手段によって、前記可変プロセッシングファクタの好ましい調整を行うようにリスニング基準を指示する。また、前記聴覚人工器官は、異なるリスニング基準と関連した音響環境及び/又は神経音響パラメータの値、及び/又は受信したスピーチ及び音楽などの信号から、リスニング基準を自動的に予測するようにすることができる。 Also, in the first mode, the user instructs a listening criterion to make a preferred adjustment of the variable processing factor by the indicator means. Also, the hearing prosthesis automatically predicts the listening criteria from the acoustic environment and / or neuroacoustic parameter values associated with different listening criteria and / or signals such as received speech and music. Can do.
前記第4のデータメモリロケーション(請求項76では、第1のデータメモリロケーションとして言及している)は、異なるリスニング基準に対してセクション毎に分割され、前記最適に調整された可変プロセッシングファクタは、前記ユーザの調整の下に、前記リスニング基準によって決定されたメモリロケーション内に記憶するようにすることができる。 The fourth data memory location (referred to as the first data memory location in claim 76) is divided into sections for different listening criteria, and the optimally adjusted variable processing factor is: Under the user's adjustment, it can be stored in a memory location determined by the listening criteria.
前記第5のデータのデータメモリロケーション(請求項77では、追加のデータメモリロケーションとして言及している)は、前記第4のデータメモリロケーション中に記憶された値に相当する音響環境又は神経音響パラメータの記憶のための、異なるリスニング基準に応じ、セクション毎に分割することができる。このような構成において、前記第4及び前記第5のデータメモリロケーションの、各セクション内におけるデータは、各リスニング基準に対する、前記(1)式の類似の可変プロセッシングファクタ式の最適な係数を計算するために用いることが好ましい。第2のモードにおいて、前記ユーザはインジケータ手段を介して現在のリスニング基準を指示することができる。また、前記第2のモードにおける操作において、前記リスニング基準又は加重結合された基準は、異なるリスニング基準と関連した音響パラメータ及び/又は神経音響パラメータ、又はスピーチ、音楽などの信号の存在から予測することができる。さらに、前記リスニング基準又は前記加重結合された基準は、音響環境及び/又は神経音響パラメータを有する1以上の訓練リスニング基準式から予測することができる。この場合、各訓練リスニング基準式の最適な係数は、前記第4及び前記第5のデータメモリロケーションの相当するセクションに記憶されたデータから計算する。前記リスニング基準又は加重結合されたリスニング基準が、前記ユーザ又は前記聴覚人工器官から自動的に指示されると、最適な可変プロセッシングファクタは、各基準毎に、(1)と類似した形式の式を用いて計算することができ、前記リスニング基準に従って互いに結合させることもできる。 A data memory location of the fifth data (referred to as an additional data memory location in claim 77) is an acoustic environment or neuroacoustic parameter corresponding to a value stored in the fourth data memory location Can be divided into sections according to different listening criteria for storage. In such a configuration, the data in each section of the fourth and fifth data memory locations calculate the optimum coefficient of the similar variable processing factor equation of equation (1) for each listening criterion. It is preferable to use for this purpose. In the second mode, the user can indicate the current listening criteria via the indicator means. Also, in the operation in the second mode, the listening criterion or the weighted criterion is predicted from the presence of acoustic parameters and / or neuroacoustic parameters associated with different listening criteria, or signals such as speech and music. Can do. Further, the listening criteria or the weighted combined criteria can be predicted from one or more training listening criteria equations having acoustic environment and / or neuroacoustic parameters. In this case, the optimal coefficient for each training listening criterion is calculated from the data stored in the corresponding sections of the fourth and fifth data memory locations. When the listening criteria or weighted combined listening criteria are automatically instructed by the user or the auditory prosthesis, the optimal variable processing factor is an expression of a form similar to (1) for each criterion. And can be combined with each other according to the listening criteria.
また、前記第1のモードにおいて、前記インジケータ手段を介して前記ユーザによって指示されたリスニング基準、又は前記聴覚人工器官によって予測されたリスニング基準は、前記最適に調整された可変プロセッシングファクタが記憶された前記第4のデータメモリロケーションを指示する前記音響環境及び/又は神経音響パラメータとともに使用することができる。前記第2のモードにおいて、前記音響環境及び/又は神経音響パラメータ、並びに指示又は予測されたリスニング基準は、前記第4のデータメモリロケーションを指示し、現在の条件に対して最適な可変プロセッシングファクタを得るために使用することができる。なお、前記リスニング基準又は加重結合されたリスニング基準は、前記第4のデータメモリロケーションを指示するために、使用しないようにすることもできる。さらに、前記第1のモードにおいて、前記第4のデータメモリロケーションの各ロケーションに記憶されたプロセッシングファクタは、前記特定の音響環境に対するリスニング基準の加重結合に従って変更するようにすることができる。 In the first mode, the optimally adjusted variable processing factor is stored in a listening criterion instructed by the user via the indicator means or a listening criterion predicted by the auditory prosthesis. It can be used with the acoustic environment and / or neuroacoustic parameters indicating the fourth data memory location. In the second mode, the acoustic environment and / or neuroacoustic parameters, and the indicated or predicted listening criteria indicate the fourth data memory location, and the optimal variable processing factor for the current condition. Can be used to get. Note that the listening criteria or weighted combined listening criteria may not be used to indicate the fourth data memory location. Further, in the first mode, the processing factor stored in each location of the fourth data memory location may be changed according to a weighted combination of listening criteria for the particular acoustic environment.
上記例において、前記リスニング基準又は加重結合されたリスニング基準は、前記ユーザが、聴覚人工器官のハウジング上に設けられたスイッチ、トグルスイッチあるいは押しボタン群などのインジケータ手段を用いることによって、指示するようにすることができる。また、前記インジケータ手段は、隔離したユニット上に設けることもできる。 In the above example, the listening criteria or weighted combined listening criteria may be indicated by the user by using indicator means such as a switch, toggle switch or push button group provided on the housing of the hearing prosthesis. Can be. The indicator means can also be provided on an isolated unit.
また、本発明は、
音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力するデータ解析手段と、
複数のセッティング状態を記憶するデータメモリ手段と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力するように操作されるデータプロセッシング手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官(第2の聴覚人工器官)に関する。
The present invention also provides:
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data analysis means for receiving the microphone signal and outputting a data set representative of the acoustic environment;
Data memory means for storing a plurality of setting states;
Analyzing the stored setting state, and comprising data processing means operated to output a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The data memory means relates to an auditory prosthesis (second auditory prosthesis) that stores the setting state in the first mode.
第2の聴覚人工器官は、前記第1の聴覚人工器官と同様の構成要素を有しており、これらの構成要素については互いに同様の機能を奏し、作用効果を奏する。
前記第2の聴覚人工器官は、データメモリ手段を有し、異なる音響環境に対してユーザが決定した最適なセッティング状態を記憶するようにしている。この記録は、データプロセッシング手段を用いることにより、前記ユーザが異なる音響環境に晒された際の、スピーチプロセッサにおけるプロセッシング操作の最適な状態を予測するために使用する1以上の式の係数を計算するために用いられる。
The second auditory prosthesis has the same components as those of the first auditory prosthesis, and these components have the same functions and effects as each other.
The second hearing prosthesis has data memory means for storing the optimum setting state determined by the user for different acoustic environments. This recording uses data processing means to calculate the coefficients of one or more equations used to predict the optimal state of the processing operation in the speech processor when the user is exposed to different acoustic environments. Used for.
前記聴覚人工器官は、前記ユーザの一方の耳に対して音声信号を出力するように調整することができる。また、前記ユーザの両方の耳に対して音声信号を出力するように調整することができる。また、2つの聴覚人工器官への入力信号を、ワイヤを介してあるいはワイヤレスの状態で、音響解析手段に結合させることもできる。上述した例において、コントロール手段を各聴覚人工器官のハウジング上に位置するようにすることができる。また、前記コントロール手段は、聴覚人工器官毎に設けられた隔離ユニット上に設けることもできるし、前記聴覚人工器官に共通の各ユニット上に設けることもできる。 The hearing prosthesis can be adjusted to output an audio signal to one ear of the user. Moreover, it can adjust so that an audio | voice signal may be output with respect to both the said user's ears. Also, the input signals to the two hearing prostheses can be coupled to the acoustic analysis means via wires or wirelessly. In the example described above, the control means can be located on the housing of each hearing prosthesis. Further, the control means can be provided on an isolation unit provided for each auditory prosthesis, or can be provided on each unit common to the auditory prosthesis.
前記聴覚人工器官は、補聴器とすることができる。この場合、その出力装置はイヤホーンであって、音響プロセッシング手段からの出力信号を受信するとともに増幅して、前記ユーザの耳へ伝達する。
また、前記聴覚人工器官は、インプラント補聴器とすることができる。この場合、その出力デバイスは、中耳又は内耳に機械的に結合された振動メカニズムとすることができる。
The hearing prosthesis can be a hearing aid. In this case, the output device is an earphone that receives and amplifies the output signal from the acoustic processing means and transmits it to the user's ear.
The hearing prosthesis may be an implant hearing aid. In this case, the output device can be a vibration mechanism mechanically coupled to the middle ear or the inner ear.
さらに、前記聴覚人工器官は、蝸牛インプラントとすることができる。この場合、その出力デバイスは、前記音響プロセッシング手段からのエンコード化された刺激を受信し、電極アレイを介して前記蝸牛インプラントに伝達すべき刺激信号を出力するレシーバ/スティミュレータユニットを具えることができる。また、前記音響プロセッシング手段はスピーチプロセッサを具えることができ、このスピーチプロセッサはコーディングストラテジを利用して、前記可変プロセッシングファクタに相当するマイクロフォン信号のプロセッシングの前又は後において、前記マイクロフォンによって受信した音響からスピーチを抽出するようにすることができる。さらに、前記スピーチプロセッサは、前記音響信号及び出力チャンネル振幅レベルの音声スペクトル解析を実行するようにすることができる。 前記音響信号のスペクトルから電気的出力チャンネル振幅レベルへの変換は、先に選択した可変プロセッシングファクタに基づいた、可変プロセッシングファクタによって決定することができる。前記チャンネル振幅レベルは、前記ユーザによる先の調整及び選択に基づいたプロセッシングファクタである閾値レベル及び不快レベルを含むことができる。さらに、前記音響プロセッサは、前記出力をそれらの大きさで分類することができ、”Cochlear LTD”によって開発されたSPEAKストラテジーにおいて使用するような“スペクトルマキシマ(spectral maxima)に対して警告を発するようにすることができる。 Furthermore, the hearing prosthesis can be a cochlear implant. In this case, the output device may comprise a receiver / stimulator unit that receives the encoded stimulus from the acoustic processing means and outputs a stimulus signal to be transmitted to the cochlear implant via an electrode array. it can. The sound processing means may comprise a speech processor, which uses a coding strategy to receive the sound received by the microphone before or after processing the microphone signal corresponding to the variable processing factor. The speech can be extracted from. Furthermore, the speech processor may perform a speech spectrum analysis of the acoustic signal and output channel amplitude level. The conversion from the spectrum of the acoustic signal to the electrical output channel amplitude level can be determined by a variable processing factor based on the previously selected variable processing factor. The channel amplitude level may include a threshold level and a discomfort level that are processing factors based on previous adjustments and selections by the user. In addition, the acoustic processor can classify the output by their size and alerts the “spectral maxima” as used in the SPEAK strategy developed by “Cochlear LTD”. Can be.
前記レシーバ/スティミュレータユニットは、好ましくは前記ユーザに対してインプラント可能なハウジング内に配置する。前記レシーバ/スティミュレータユニットに対する前記ハウジングは、好ましくは乳様突起後方に位置する、耳の後ろの骨の、窪んだ箇所にインプラントする。 The receiver / stimulator unit is preferably placed in a housing that is implantable for the user. The housing for the receiver / stimulator unit is implanted in a recessed portion of the bone behind the ear, preferably located behind the mastoid process.
前記スピーチプロセッシング手段は、使用において、信号がユーザの皮膚を通じて伝達されるように、前記ユーザの身体に取り付けることが好ましい。信号は、前記プロセッシング手段から、受信手段へ伝播し、この受信手段から前記プロセッシング手段へ伝播する。前記レシーバ/スティミュレータユニットは、前記ユーザの外部に付着したトランスミッタコイルからRF信号を受信するように調整されたレシーバコイルを含むことができる。前記RF信号はFM信号を含むことができる。前記レシーバコイルは、好ましくは信号を、この信号を受信すべきトランスミッタコイルに伝送する。 The speech processing means is preferably attached to the user's body so that in use, signals are transmitted through the user's skin. The signal propagates from the processing means to the receiving means and from the receiving means to the processing means. The receiver / stimulator unit may include a receiver coil that is tuned to receive an RF signal from a transmitter coil attached to the exterior of the user. The RF signal may include an FM signal. The receiver coil preferably transmits a signal to a transmitter coil that is to receive the signal.
前記トランスミッタコイルは、その中心位置あるいは異なる位置に取り付けられた、相対的に引力を及ぼす磁石を経由して、前記レシーバコイルのインプラント位置の近傍に取り付けることが好ましい。 It is preferable that the transmitter coil is attached in the vicinity of the implant position of the receiver coil via a magnet that exerts a relatively attractive force attached at the center position or at a different position.
使用中において、前記マイクロフォンは、前記ユーザの耳翼に取り付けることが好ましいが、その他の適当な位置、例えば、前記ユーザの衣服に取り付けることもできる。前記スピーチプロセッサは、好ましくは前記マイクロフォンで受信した音響を連続した電気的刺激アルゴリズムにエンコード化する。前記エンコード化された電気的信号は、前記レシーバ/スティミュレータユニットの、トランスミッタコイル及びレシーバコイルを用い、前記レシーバ/スティミュレータユニットに伝送される。前記レシーバ/スティミュレータユニットは、前記FM信号を復調させることができ、電気的パルスを選択したスピーチコーディングストラテジーと一致したアルゴリズムによって、適当な電極部分に配分する。 In use, the microphone is preferably attached to the user's ear wing, but can also be attached to other suitable locations, such as the user's clothing. The speech processor preferably encodes the sound received by the microphone into a continuous electrical stimulation algorithm. The encoded electrical signal is transmitted to the receiver / stimulator unit using a transmitter coil and receiver coil of the receiver / stimulator unit. The receiver / stimulator unit can demodulate the FM signal and distribute the electrical pulses to the appropriate electrode portions by an algorithm consistent with the selected speech coding strategy.
前記プロセッシング手段をハウジングする外部要素は、電源をもハウジングすることが好ましい。前記電源は、1以上の再充電可能な電池を具えることができる。前記レシーバ/スティミュレータコイルは、所定のパワーを前記レシーバ/スティミュレータユニット及び電極アレイに対して経皮的な誘導に順じて供給する。
上述した例では、外部要素を含むが、前記マイクロフォン、前記スピーチプロセッサ、及び前記電源などは、インプラントすることができる。本例では、インプラントされた構成要素は、密閉されたハウジング内に含まれるか、スティミュレータユニットに対して使用されるハウジング内に含まれる。
The external element housing the processing means preferably also houses a power source. The power source can comprise one or more rechargeable batteries. The receiver / stimulator coil supplies a predetermined power to the receiver / stimulator unit and the electrode array in accordance with percutaneous guidance.
In the example described above, including external elements, the microphone, the speech processor, the power source, etc. can be implanted. In this example, the implanted component is contained within a sealed housing or contained within a housing used for the stimulator unit.
さらに、本発明は、
音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データメモリ手段内にセッティング状態を設定する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号が、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官の調整方法に関する。
Furthermore, the present invention provides
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Comprising setting a setting state in the data memory means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The data memory means relates to a method for adjusting a hearing prosthesis, characterized in that the setting state in the first mode is stored.
また、本発明は、
音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データ解析手段において前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力する工程と、
複数のセッティング状態をデータメモリ手段内に記憶する工程と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、人工聴覚器官の調整方法に関する。
The present invention also provides:
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Receiving the microphone signal in a data analysis means and outputting a data set representative of the acoustic environment;
Storing a plurality of setting states in the data memory means;
Analyzing the stored setting state, and outputting a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The data memory means relates to a method for adjusting an artificial hearing organ, characterized in that the setting state in the first mode is stored.
本発明によれば、ユーザは聴覚人工器官の通常の使用において、そのプロセッシング手段を簡易に調整することができる。また、本発明によれば、前記ユーザが前記聴覚人工器官を調整して、その動作を自動的に調整することができるようになる。このことは、以下に示すような多くの利点を有するようになる。
(1)ユーザが、補聴器及び蝸牛インプラントの双方のコントロールを最良の状態で行うことができるので、前記装置に対する前記ユーザの満足度が向上する。
(2)各ユーザが、それぞれの嗜好性及び必要性に応じて、プロセッシングパラメータを最適化することができるので、リスニング快適性、及び/又はスピーチ明瞭性、及び/又は実体的な音響品質を改善することができる。
(3)異なる、又は付加的なパラメータを有する装置が将来的に必要になった場合において、前記装置と効果的に協同する訓練アルゴリズムを生成することができる。
(4)前記聴覚人工器官に対する訓練(調整)が、ユーザの日常において実行することができるので、高価な診療費用を支払うことなく、前記聴覚人工器官の調整が可能となるとともに、前記調整を実生活の条件に合致した状態で実行することができる。その結果、前記調整を診療による理想的な状態に合致するように行うよりも、実際の使用に合致させて行うことができる。
(5)前記ユーザが何ら訓練を行うことなく、好ましいプロセッシングファクタと前記訓練に基づいて確立された音響特性との相関を自動的に用いることによって、環境中に効果的に機能する訓練アルゴリズムを生成することができる。
According to the present invention, the user can easily adjust the processing means in normal use of the hearing prosthesis. In addition, according to the present invention, the user can adjust the hearing prosthesis and automatically adjust its operation. This has many advantages as shown below.
(1) Since the user can control both the hearing aid and the cochlear implant in the best condition, the user's satisfaction with the device is improved.
(2) Each user can optimize processing parameters according to their preferences and needs, thus improving listening comfort and / or speech clarity and / or substantial sound quality can do.
(3) When a device with different or additional parameters is required in the future, a training algorithm that effectively cooperates with the device can be generated.
(4) Since the training (adjustment) for the hearing prosthesis can be performed in daily life of the user, the hearing prosthesis can be adjusted without paying expensive medical expenses, and It can be executed in a state that matches the conditions of life. As a result, the adjustment can be performed in conformity with the actual use rather than in conformity with the ideal state by medical treatment.
(5) Generate a training algorithm that works effectively in the environment by automatically using the correlation between the preferred processing factor and the acoustic characteristics established based on the training without any training by the user can do.
本発明は、人工耳に限定されるものではないが、図1に示すような公知のタイプの人工耳に使用することができる。 The present invention is not limited to an artificial ear, but can be used for a known type of artificial ear as shown in FIG.
人工耳は、2つの主要構成要素からなり、1つはスピーチプロセッサ29を含む外部要素であり、他の1つはインプラントレシーバ及びスティミュレータユニット22を含む内部要素である。前記外部要素はマイクロフォン27を含む。スピーチプロセッサ29は、この図においては、外耳11の後方に取り付けられている。なお、前記人工耳は、その他の構成とすることもできる。スピーチプロセッサ29には、トランスミッタコイル24が取り付けられ、所定の電気信号をインプラントユニット22にRFリンクを介して伝送するように構成されている。
The artificial ear is composed of two main components, one is an external element that includes a
前記インプラント要素は、トランスミッタコイル24からのパワー及びデータを受信するためのレシーバコイル23を含む。インプラントレシーバ及びスティミュレータユニット22から蝸牛12に延在したケーブル12が設けられており、このケーブル12は電極アレイ20で終端している。したがって、受信された前記信号は、アレイ20によって基底膜8及び蝸牛12内の神経細胞に供給され、その結果、聴覚神経9を刺激することができるようになる。このような装置の駆動原理は、例えばUSP4,532,930に記載されている。
The implant element includes a
図1に線図的に示すように、人工耳電極アレイ20は、伝統的に蝸牛の全ターン数の範囲内で鼓室階の最初の位置に挿入される。
本発明の聴覚人工器官の一例におけるブロックダイヤグラムを図2で30として示す。このブロックダイアグラムは、人工耳及び補聴器の双方の特性を示している。前記ダイヤグラムは、あくまでも一例であって、本発明は人工耳及び補聴器の双方の特徴を有する必要はない。
As shown diagrammatically in FIG. 1, the artificial
A block diagram of an example of a hearing prosthesis of the present invention is shown as 30 in FIG. This block diagram shows the characteristics of both an artificial ear and a hearing aid. The diagram is merely an example, and the present invention need not have the characteristics of both an artificial ear and a hearing aid.
聴覚人工器官30は、マイクロフォン27を具え、このマイクロフォン27は音を受信し、受信した音に相当するマイクロフォン信号を生成する。また、聴覚人工器官30は、機器のユーザによって受信可能な形態で音響信号を生成する出力装置を具えている。図から明らかなように、前記出力装置は、聴覚人工器官30が補聴器である場合、イヤホーン31を具えることができる。聴覚人工器官30が人工耳である場合、前記出力装置は、エンコーダー/トランスミッターユニット32を具え、これによってエンコードデータ信号を外部トランスミッタコイル24に出力する。
The
聴覚人工器官30は、さらに音響プロセッシングユニット33を有し、これによって、マイクロフォン27によって与えられたマイクロフォン信号を受信するように操作可能となり、イヤフォーン31又はエンコーダー/トランスミッターユニット32の操作に適したような形態で出力信号を生成することができる。
The
音響プロセッサ33の特性及び機能は、聴覚人工器官30が人工耳であるか、補聴器であるかに依存する。補聴器の場合、音響プロセッサ33は少なくとも増幅器を含み、人工耳の場合、音響プロセッサ33は増幅器及びマイクロフォン27で受信した音響から言語行動を抽出するためのコーディングストラテジーを使用するスピーチプロセッサを含む。図示した例では、前記人工耳のスピーチプロセッサは、音響信号の音響スペクトル解析を実行することができ、チャンネル振幅レベルを出力することができる。前記音響プロセッサは、前記出力をそれらの大きさで分類することができ、”Cochlear LTD”によって開発されたSPEAKストラテジーにおいて使用するような“スペクトルマキシマ(spectral maxima)に対して警告を発することができる。但し、他のコーディングストラテジーを採用することもできる。
The characteristics and function of the acoustic processor 33 depend on whether the
本発明において、音響プロセッサ33は、例えば増幅度などの少なくとも1つの可変プロセッシングファクタを具える。前記可変プロセッシングファクタは、第1の操作モードにおいて調整され、音響プロセッサ33の出力信号は、少なくとも1つの音響環境におけるユーザの嗜好に合致するように最適化される。例えば、増幅器の増幅特性は、聴覚人工器官のユーザによって制御することができ、特定の環境における周囲のバックグランドノイズに適合するようにすることができる。 In the present invention, the acoustic processor 33 comprises at least one variable processing factor such as an amplification factor. The variable processing factor is adjusted in the first mode of operation, and the output signal of the acoustic processor 33 is optimized to match user preferences in at least one acoustic environment. For example, the amplification characteristics of the amplifier can be controlled by the user of the hearing prosthesis and can be adapted to ambient background noise in a particular environment.
聴覚人工器官30は、さらにユーザによって選択されたセッティング状態を指示するデータを少なくとも記憶し、前記状態がセッティングされるとともにその状態が選択された時点において、音響環境の特性を示すデータセットを記憶するためのデータメモリ手段34を具える。
The
音響プロセッサ33は、第1のモードにおいて、ユーザによる調整の後に訓練係数(trainable coefficient)を再計算する。
音響プロセッサ33は、ユーザの選択に対して2以上の最適なセッティング状態を提供できるようにすることができる。これらセッティング状態の内の1つは、前記プロセッサによって自動的に計算されるものであり、他のセッティング状態は、前記セッティング状態と体系的に異なるものである。
The acoustic processor 33 recalculates a trainable coefficient after adjustment by the user in the first mode.
The acoustic processor 33 may be able to provide two or more optimal setting states for user selection. One of these setting states is automatically calculated by the processor, and the other setting states are systematically different from the setting states.
この場合、前記ユーザは、各セッティング状態において動作させた時の、特定の音響環境の、動作時における前記聴覚人工器官の動作状態を比較し、前記セッティング状態から前記特定の音響環境に対して最も適したセッティング状態を選択することが好ましい。前記ユーザによって選択されたセッティング状態は、適宜前記特定の音響環境を表すデータとともに、データメモリ手段34内に記憶される。このプロセスは繰り返し実行され、データプロセッシングユニット38がユーザの嗜好を収集し、特定のセッティング状態に対するユーザの嗜好が時間あるいは使用時において変化するか否かをモニタする。このように、ユーザは適宜最適なセッティング状態を選択あるいは決定することができる。 In this case, the user compares the operation state of the hearing prosthesis during operation in a specific acoustic environment when operated in each setting state, and the user is most likely to perform the operation from the setting state to the specific acoustic environment. It is preferable to select a suitable setting state. The setting state selected by the user is stored in the data memory means 34 together with data representing the specific acoustic environment as appropriate. This process is repeated and the data processing unit 38 collects user preferences and monitors whether the user preferences for a particular setting state change in time or use. Thus, the user can select or determine an optimal setting state as appropriate.
本例において、前記ユーザは、トグルスイッチあるいはボタン対からなるコントロール手段36を操作することによって、セッティング状態を変更することができ、図2においてスイッチ35で示されるインジケータ手段を操作することによってセッティング状態を選択することができる。スイッチ35及びコントロール手段36は、聴覚人工器官のハウジングに取り付けることができ、あるいは図示していないが、離隔して配置されたユニット上に設けることもできる。 In this example, the user can change the setting state by operating the control means 36 consisting of a toggle switch or a button pair, and the setting state by operating the indicator means indicated by the switch 35 in FIG. Can be selected. The switch 35 and the control means 36 can be attached to the housing of the hearing prosthesis, or although not shown, can be provided on a unit that is spaced apart.
音響プロセッサ33のプロセッシング操作は、ユーザによって異なる方法で操作するようにすることもできる。この場合、前記ユーザが最適なセッティング状態を選択できるようにするよりも、前記ユーザがコントロール手段36を調節して、音響プロセッサユニット33のプロセシング操作を変更するようにすることができる。ユーザがコントロール手段36を調節することによって、前記ユーザが考える、特定の音響環境に対する最適なセッティング状態を選択すると、前記ユーザは、スイッチ35を操作して、前記セッティング状態、及び適宜前記特定の音響環境を表すデータをデータメモリ手段34内に記憶させる。スイッチ35を駆動すると、それは音響プロセッサユニット33によって、所定の時刻において特定のセッティング状態が、前記特定の音響環境において前記ユーザが最適と判断したものとして取り扱われる。 The processing operation of the acoustic processor 33 can be performed in different ways depending on the user. In this case, rather than allowing the user to select an optimal setting state, the user can adjust the control means 36 to change the processing operation of the sound processor unit 33. When the user adjusts the control means 36 to select the optimum setting state for the specific acoustic environment that the user thinks, the user operates the switch 35 to select the setting state and the specific sound appropriately. Data representing the environment is stored in the data memory means 34. When the switch 35 is driven, it is handled by the acoustic processor unit 33 as if the particular setting state at the predetermined time was determined by the user to be optimal in the particular acoustic environment.
コントロール手段36は、聴覚人工器官30のハウジング上に取り付けられたロータリホイールコントロールを含む。また、スイッチ35も、聴覚人工器官30のハウジング上に取り付けることができる。なお、図示していないが、前記スイッチ及び前記コントローラは、離隔して配置されたユニット上に取り付けることもできる。
Control means 36 includes a rotary wheel control mounted on the housing of the
複数の音響環境に対してユーザが最適であるとして選択したセッティング状態は、適宜前記音響環境を代表するデータとともに、データメモリ手段34中に記憶される。音響プロセッサ33は、第2のモードにおいて連続的に操作され、第1のモードにおいて所定の時間だけ操作可能にしておくことができる。また、前記第1のモードにおいては、前記ユーザが、コントロール手段36を調節し、特定の音響環境に対して最適な状態と考えられるものを選択する度毎に、音響プロセッサ33を操作可能にしておくことができる。訓練時間はユーザが望む限り長く設定することができ、前記訓練が完了した際に、聴覚人工器官30は前記ユーザに対して合図を送るようにすることができる。この場合、聴覚人工器官30は、訓練時間が終了したことを示すようにすることができる。訓練時間の終了は、聴覚人工器官30によって既に評価されたセッティング状態と異なるセッティング状態を選択することができなくなった時点で終了する。
The setting state selected by the user as being optimal for a plurality of acoustic environments is appropriately stored in the data memory means 34 together with data representing the acoustic environment. The acoustic processor 33 is continuously operated in the second mode, and can be operated for a predetermined time in the first mode. In the first mode, the sound processor 33 can be operated each time the user adjusts the control means 36 and selects an item considered to be optimal for a specific acoustic environment. I can leave. The training time can be set as long as the user desires, and when the training is completed, the
聴覚人工器官30は、さらに音響解析モジュール37を具えることができる。音響解析モジュール37は、マイクロフォン27から入力信号を受信し、ユーザの音響環境をモニタリングする。前記音響解析モジュールは、モニタリングされた音響環境を代表する出力を提供する。
The
図示した例において、データメモリ手段34は、5つのデータメモリロケーションを具える。本例において、第1のデータメモリロケーション34aは、ユーザの聴力データ及び/又は聴覚人工器官30によって使用された1以上の音声に対する個々のデータを含む。第2のデータメモリロケーション34bは、聴覚人工器官30の特性データを含む。第3のデータメモリロケーション34cは、個々のユーザが異なる音響環境における、音響プロセッサユニット33の最適なプロセッシング操作を予想するために使用した1以上の式を具える。第4のデータメモリロケーション34dは、ユーザによって選択された最適な音響プロセッシングデータを記憶する。前記第4のデータメモリ手段に記憶された最適な音響プロセッシングデータに相当する音響環境は、適宜第5のデータメモリロケーション35eに記憶させることができる。
In the illustrated example, the data memory means 34 comprises five data memory locations. In this example, the first data memory location 34 a includes user hearing data and / or individual data for one or more sounds used by the
図示した例において、第4のデータメモリロケーション34dは、予め画定された最大のデータ数である、400個の最適音響プロセッシングデータを記憶する。しかしながら、前記最大値は、他の値とすることもできる。図示した例では、データプロセッシングユニット38を使用する。このユニット38については以下に詳述する。ユニット38は、蓄積された総てのデータばかりを使用するものではなく、予め定められた数の、最も近時に記録されたデータをも利用する。この場合、データプロセッシングユニット38は、最適な式係数を計算する際に、最近時の256個のデータのみを利用する。メモリロケーションが一杯になると、前記メモリロケーションにおける古いデータに対して上書きを実施することによって、新たなデータを前記メモリロケーション中に記憶させるようにする。したがって、常に最も新たなデータが聴覚人工器官に記憶されるようにすることができる。他の態様においては、古いデータが上書きされないようにし、その結果、メモリロケーションが一杯になった後に、新たなデータが記憶されなくするようにすることができる。また、その他の態様においては、古いデータの価値に基づいて、前記古いデータを上書きするような規則を設けるようにすることもできる。 In the illustrated example, the fourth data memory location 34d stores 400 optimal acoustic processing data, which is a predefined maximum number of data. However, the maximum value may be another value. In the illustrated example, a data processing unit 38 is used. The unit 38 will be described in detail below. The unit 38 does not use all the accumulated data, but also uses a predetermined number of the most recently recorded data. In this case, the data processing unit 38 uses only the latest 256 pieces of data when calculating the optimum formula coefficient. When the memory location is full, new data is stored in the memory location by overwriting the old data in the memory location. Therefore, the newest data can always be stored in the hearing prosthesis. In another aspect, old data can be prevented from being overwritten so that new data is not stored after the memory location is full. In another aspect, a rule for overwriting the old data can be provided based on the value of the old data.
上述したように、聴覚人工器官は、さらにデータプロセッシングユニット38を具えることができる。データプロセッシングユニット38は、音響解析モジュール37からの出力を受信する。この出力に基づいて、データプロセッシングユニット38は、マイクロフォン27で受信した音の強さを計算することができる。図示した例では、データプロセッシングユニット38は、通常の聴力を有する人が聞くことのできる音の強さ、あるいは何らかの聴力障害を有する人が聞くことのできる音の強さを計算することができる。データプロセッシングユニット38は、マイクロフォン27で受信した他の音響指標及び心理音響的指標を計算することもできる。データプロセッシングユニット38は、第3のデータメモリロケーション34cに記憶された1以上の式に対する入力データとして音響状態の指標を用いることができる。これによって、音響解析モジュール37によって決定された音響環境において、ユーザが、音響プロセッサ33の最適な音響プロセッシング動作を評価することができるようになる。
As described above, the hearing prosthesis can further comprise a data processing unit 38. The data processing unit 38 receives the output from the acoustic analysis module 37. Based on this output, the data processing unit 38 can calculate the intensity of the sound received by the
データプロセッシングユニット38は、さらに第2のデータメモリロケーション34bに記憶された聴覚人工器官特性データ、及び前記式から得られた最適な音響プロセッサデータを用い、自動的及び連続的に音響プロセッサ33の適当なセッティング状態を決定することができ、ユーザに対して、現在経験している音響環境に対する最適な出力信号を提供することができる。 The data processing unit 38 further uses the auditory prosthesis characteristic data stored in the second data memory location 34b and the optimal acoustic processor data obtained from the above equation to automatically and continuously The user can be provided with an optimal output signal for the acoustic environment currently experienced.
上述したように、音響プロセッサ33は、増幅手段及びゲインコントロール手段36を含む。データプロセッシングユニット38は、第2のモードにおいて駆動し、音響解析ユニット37の出力で代表されるように、任意の環境における最適な増幅特性を提供できるように、音響プロセッサ33の動作状態を計算する。 As described above, the acoustic processor 33 includes amplification means and gain control means 36. The data processing unit 38 is driven in the second mode and calculates the operating state of the acoustic processor 33 so that it can provide optimal amplification characteristics in any environment, as represented by the output of the acoustic analysis unit 37. .
聴覚人工器官は、第1のモードにおいて動作させることもできる。この場合、前記増幅器の動作状態は、ユーザによってコントロール手段36を調整し、現在の音響環境における増幅特性が最適となるようにすることができる。 The hearing prosthesis can also be operated in the first mode. In this case, the operating state of the amplifier can be adjusted by the user through the control means 36 so that the amplification characteristics in the current acoustic environment are optimized.
聴覚人工器官が、ユーザが以前に経験したことのない環境を含む、任意の環境下で使用される場合、前記増幅器のゲインは、予め画定した形式の式を用いることによって計算することができる。この例では、前記式は、
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav) (1)
で表すことができる。
ここで、
i=バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR
各バンドiに対しては、次に示すような訓練データが記憶されている;
音響圧力レベル、すなわちSPL, Li (dB SPL単位)、
バンドiにおける信号対ノイズ比−総てのバンドにおける平均信号対ノイズ比、
すなわち、SNRi−SNRav(dB単位)、
好ましいゲイン(dB単位)。
If the hearing prosthesis is used in any environment, including environments that the user has never experienced before, the gain of the amplifier can be calculated by using a predefined form of the equation. In this example, the equation is
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav) (1)
Can be expressed as
here,
i = number of bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR across all bands
For each band i, training data as shown below is stored;
Acoustic pressure level, ie SPL, Li (dB SPL),
Signal-to-noise ratio in band i-average signal-to-noise ratio in all bands,
That is, SNRi-SNRav (in dB),
Preferred gain (in dB).
上述した値は、実際の操作以前の所定の時間内において、マイクロフォン27で受信した信号に基づいて計算することができる。前記値は、前記操作以前の所定時間内、及び操作後の所定時間内において、マイクロフォン27で受信した信号に基づいて計算することができる。記憶されたLiは前記所定時間におけるSPLの平均値、RMSであり、記憶されたGiは、ボタンを押す以前及びユーザが前記ボタンを押した後、好ましいゲイン調整を行う以前の所定の時間内におけるゲインの平均値である。バンドiにおけるSNRは、現状、前記所定の時間内において、バンドiにおける時間の10%を越えた部分のSPLから90%を超えた部分のSPLを差し引くことによって計算している。信号の変調深さを評価することによってより正確に導出することができる。なお、より正確なSNR評価技術あるいはスピーチ/ノイズ比評価技術を用いることもできる。
The above-described values can be calculated based on signals received by the
記憶された訓練データは、例えば256個まで使用し、(1)式に関連した同様の式を多数形成することができる。得られた一連の式は、線形式とすることができるが、係数bi及びciは互いに乗じることができ、この場合、前記一連の式は線形とはならないので、前記一連の式は最初に線形化しておく。ciは予め所定の値に設定しておき、max(Li, ci)は、前記ci値及び記憶されたLi値に基づいて実行することができる。Li値が大きい場合、前記括弧内の計算結果はLiとなる。次いで、最適なai、bi及びciを直接的な数値法に基づいて計算する。この場合、前記係数は、記憶したGi及び相当するLi値及び記憶されたSNRi−SNRavに基づいて得たGiに対して最小2乗法を施して得たものとすることができる。この操作は、少なくともciの異なる4つの値、例えば35,45,55及び65dB SPLに対して行う。このように最小2乗法によって得た係数は、最適なものとして選択され、信号のプロセッシングに対して用いられる。但し、biの値は、-1.0から+1.0の範囲外でなく、又は、前記操作の回数が50回以下の場合に限られる。なお、その他の方法によって訓練係数を決定することもできる。 The stored training data can be used, for example, up to 256, and a number of similar equations related to equation (1) can be formed. The resulting series of equations can be in linear form, but the coefficients bi and ci can be multiplied together, in which case the series of equations is not linear, so the series of equations is initially linear. Keep it. ci is set to a predetermined value in advance, and max (Li, ci) can be executed based on the ci value and the stored Li value. When the Li value is large, the calculation result in the parentheses is Li. The optimal ai, bi and ci are then calculated based on direct numerical methods. In this case, the coefficient may be obtained by applying the least square method to Gi obtained based on the stored Gi and the corresponding Li value and the stored SNRi-SNRav. This operation is performed for at least four different values of ci, for example, 35, 45, 55 and 65 dB SPL. Thus, the coefficient obtained by the least square method is selected as an optimum one and is used for signal processing. However, the value of bi is not outside the range of −1.0 to +1.0, or is limited to the case where the number of operations is 50 or less. The training coefficient can also be determined by other methods.
前記直接的な数値法は、上下分解・後方置換(lower-upper (LU) decomposition and back substitution)である。前記数値法は、一連の式がメモリ中にAx=bなるマトリックス状に記憶された、種々のガウス消去法である。マトリックスAは記憶された音響環境データであり、xは計算されるべき係数(すなわちai,bi及びci)を含むベクトルである。前記LU分解法は、前記マトリックスに基づいて操作され、ベクトルxについて解く。なお、その他のガウス消去法又は直接的な数値法を用いることもできる。 The direct numerical method is lower-upper (LU) decomposition and back substitution. The numerical method is various Gaussian elimination methods in which a series of expressions are stored in a memory in a matrix form of Ax = b. Matrix A is the stored acoustic environment data and x is a vector containing the coefficients to be calculated (ie ai, bi and ci). The LU decomposition method is operated on the matrix and solves for the vector x. Other Gaussian elimination methods or direct numerical methods can also be used.
例えば、上述した操作を4回行うことにより、訓練係数に関する以下の式を得ることができる。
25=ai+(bi*35)+(di*0)
20=ai+(bi*45)+(di*0)
15=ai+(bi*55)+(di*0)
10=ai+(bi*65)+(di*0)
この場合、ai=42.5, bi=-0.5, ci=35及びdi=0.0となる。
このような係数を用いると、0dBなる値に対してはエラーを与えることになる。実際の状況において、人々の増幅度に対する嗜好性は多様である場合があり、訓練データがばらつく場合がある。したがって、上述した式の等号の左側に位置するGi値は一定ではなくなり、その結果、訓練係数値も異なるようになる可能性がある。
For example, the following formula regarding the training coefficient can be obtained by performing the above-described operation four times.
25 = ai + (bi * 35) + (di * 0)
20 = ai + (bi * 45) + (di * 0)
15 = ai + (bi * 55) + (di * 0)
10 = ai + (bi * 65) + (di * 0)
In this case, ai = 42.5, bi = -0.5, ci = 35 and di = 0.0.
If such a coefficient is used, an error is given to a value of 0 dB. In actual situations, people's preference for amplification may vary, and training data may vary. Therefore, the Gi value located on the left side of the equal sign in the above formula is not constant, and as a result, the training coefficient value may be different.
信号スペクトルの高次のモーメント及びこれらモーメントの変化などの音響的あるいは心理音響的パラメータ、又はその他の統計的パラメータあるいは音響信号、あるいは前記統計的パラメータと音響信号との組み合わせ、さらには任意の係数などを組み合わせたものから構成される式からも、ゲイン又はプロセッシングファクタを計算することができる。例えば、聴覚人工器官が反応し、音響環境において変化する際の速度などのファクタを計算することができる。使用する式の選択は、本発明の範疇を逸脱しない限りにおいて、その使用環境に依存して決定することができる。 Acoustic or psychoacoustic parameters such as higher-order moments in the signal spectrum and changes in these moments, or other statistical parameters or acoustic signals, or a combination of the statistical parameters and acoustic signals, and arbitrary coefficients The gain or processing factor can also be calculated from an expression composed of a combination of. For example, factors such as the speed at which the hearing prosthesis reacts and changes in the acoustic environment can be calculated. The selection of the formula to be used can be determined depending on the usage environment without departing from the scope of the present invention.
上記具体例において、訓練係数はa,b,c及びdを含み、結果として、可変プロセシングファクタである増幅ゲインGを導出することになる。
音響プロセッサ33の1以上のプロセッシングファクタは、式(1)と類似した式を用いて自動的に導出することができ、コントロール手段36又は多重コントロール手段をユーザが使用することによって調整することができる。本例においては、コントロール手段36により、ユーザは音響プロセッサ33の1以上のパラメータを制御することができる。
(i) 出力信号のボリューム
(ii) 他の周波数と関連した特定の周波数における出力信号のゲイン、例えばミッドレンジ周波数のゲインを、ハイ又はローレンジ周波数のゲインに比較して、増幅したり減衰したりすることができる
(iii) ミッドレンジ周波数のゲインが変化しない間において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール
ユーザは、コントロール手段36のいずれのセッティング状態が、特定の音響環境に対して最適なものであるかを決定する。スイッチ35を押すことによって、各周波数バンドにおけるゲインがマイクロフォン27で受信した音響環境を代表するデータとともに記録される。これらのデータは、先のデータとともにデータプロセッシングユニット38を用いて処理され、前記式から各バンドにおける記録された訓練データから、ユーザの嗜好を最も予測できるような係数を計算することができる。データプロセッシングユニット38は、好ましい増幅特性及びこれら特性に対して好ましい音響環境にアクセスし、増幅特性と音響環境との間の一般的な関係を計算する。したがって、自動的に計算された増幅特性は、音響環境の変化に伴い、複雑かつ画定された方法で変化することができる。例えば、本例では、各周波数におけるゲインは、全体の入力レベル及びその他の周波数におけるSNRに対する前記各周波数におけるSNRに応じて変化する。
In the above specific example, the training coefficient includes a, b, c, and d, and as a result, an amplification gain G that is a variable processing factor is derived.
One or more processing factors of the acoustic processor 33 can be automatically derived using an equation similar to equation (1) and can be adjusted by the user using the control means 36 or multiple control means. . In this example, the control means 36 allows the user to control one or more parameters of the acoustic processor 33.
(i) Output signal volume
(ii) The gain of the output signal at a particular frequency relative to other frequencies, such as the midrange frequency gain, can be amplified or attenuated compared to the high or low range frequency gain.
(iii) Slope control for adjusting the low range and high range frequency gains in opposite directions while the mid range frequency gain does not change. Decide what it is. By pressing the switch 35, the gain in each frequency band is recorded together with the data representative of the acoustic environment received by the
図示したデータプロセッシングユニット38は、ユーザによって予め決められた数の選択が実行されるまで上述したゲインに関する式の、最適な係数を計算しない。図示した例では、聴覚人工器官30は、少なくともユーザによって50回の選択が実施されるまでは、最適な係数を計算しない。選択の回数が予め決まっていないような場合、前記音響プロセッサ33は、好ましくは当初の予め決定された訓練係数に基づいて得た信号を出力する。各ユーザに対する前記当初に予め決定された訓練係数は、処方された聴覚人工器官における従来の方法を用いて計算することもできるし、経験的なトライアンドエラーの操作を行うことによって決定することができる。予め設定された回数の選択が行われると、データプロセッシングユニット38は、ユーザがスイッチ35を操作してコントロール手段36が最適な状態を掲示する度毎に、直ちに訓練係数を再計算する。他の例においては、データプロセッシングユニット38が、ユーザが予め設定した回数の選択を行わない内に、訓練係数を再計算するようにすることもできる。但し、このようにして得た訓練係数は、上述した式から、ユーザの嗜好を正確に予測することができるようになるまで、及び/又はユーザが音響環境の好ましい最小レンジの範囲内において選択を行うまで、実際には適用しない。
The illustrated data processing unit 38 does not calculate the optimum coefficients of the above-described equation for gain until a predetermined number of selections are performed by the user. In the illustrated example, the
その他の例として、データプロセッシングユニット38は、データメモリロケーション34c内に記憶された式を使用することなく、異なる環境に対する最適な可変プロセッシングファクタを決定することができる。最適に調整された可変プロセッシングファクタは、第4のデータメモリロケーション34dにおいて、音響解析手段37によって供給された、相当する音響環境データによって決定されたロケーションに記憶される。第1のモードの実行に先立って、第4のデータメモリロケーション34dは、経験的観察あるいは慣用の手法を用いて得られた、相当する音響環境パラメータ値に対するプロセッシングファクタとともにロードされる。前記第1のモードの動作中、前記最適に調整されたプロセッシングファクタは、第4のデータメモリロケーション34dにおいて、音響解析手段37によって供給された音響環境データによって決定されたロケーションに記憶される。例えば、第4のデータメモリロケーション34dは、多次元(すなわちN次元)の参照テーブルあるいはマトリックスを記憶する。各ディメンションは、異なる音響環境又は神経音響パラメータであって、これらのパラメータ値は、テーブル、マトリックスあるいは好ましいプロセッシングファクタが記憶されたメモリロケーション34dにおけるロケーションを決定する。したがって、前記マトリックスは、N個の音響環境パラメータ(又は音声などの神経音響パラメータ)で示されることになる。最適に調整されたプロセッシングデータは、第4のデータメモリ34dにおいて予め存在する古いデータ上に上書きすることもできるし、数学的及び/又は統計的手法を用いることによって、同じロケーションの、予め存在する古いデータと結合させることもできる。第2のモードにおける動作中において、音響解析手段37によって供給された音響環境パラメータ及び神経音響パラメータは、前記テーブル、前記マトリックス、又は第4のデータメモリロケーション34dのロケーションを指示するために使用する。指示ロケーションに記憶された値は、第2のプロセッシング手段33のためのプロセッシングファクタの値を決定するために使用する。音響プロセシング手段33に適用されたプロセッシングファクタは、徐々に目的とする前記値に収束させ、前記ファクタが急速に変化したり、瞬時に変化したりすることによって、好ましくない音響効果が生じるのを防止する。予め所定のプロセッシングファクタを含むメモリロケーションにおいて、プロセッシングファクタの、目的とする前記値を調整する操作は、メモリロケーション34dにおいて、現在の環境に近接した環境に対する、前記ユーザの調整嗜好を表すことができる。本例においては、第5のデータメモリロケーション34e及び第3のデータメモリ34cに記憶された式は必要とされない。また、プロセッシングファクタの、音響解析手段37によって供給された音響パラメータ、あるいはデータプロセッシングユニット38によって計算された神経音響パラメータに対する変化は、第3のデータメモリロケーション34cに記憶された式中において予め画定された関係によって制限されるものではない。 As another example, the data processing unit 38 can determine the optimal variable processing factor for different environments without using the equations stored in the data memory location 34c. The optimally adjusted variable processing factor is stored in a location determined by the corresponding acoustic environment data supplied by the acoustic analysis means 37 in the fourth data memory location 34d. Prior to the execution of the first mode, the fourth data memory location 34d is loaded with processing factors for the corresponding acoustic environment parameter values obtained using empirical observation or conventional techniques. During operation of the first mode, the optimally adjusted processing factor is stored in a location determined by the acoustic environment data supplied by the acoustic analysis means 37 in a fourth data memory location 34d. For example, the fourth data memory location 34d stores a multi-dimensional (ie, N-dimensional) lookup table or matrix. Each dimension is a different acoustic environment or neuroacoustic parameter, and these parameter values determine a location in memory location 34d where a table, matrix or preferred processing factor is stored. Therefore, the matrix is represented by N acoustic environment parameters (or neuroacoustic parameters such as speech). The optimally adjusted processing data can be overwritten on the pre-existing old data in the fourth data memory 34d, or pre-existing at the same location by using mathematical and / or statistical techniques. It can also be combined with old data. During operation in the second mode, the acoustic environment parameters and neuroacoustic parameters supplied by the acoustic analysis means 37 are used to indicate the location of the table, the matrix, or the fourth data memory location 34d. The value stored at the indicated location is used to determine the value of the processing factor for the second processing means 33. The processing factor applied to the acoustic processing means 33 is gradually converged to the target value to prevent an undesirable acoustic effect from being caused by the factor changing rapidly or instantaneously. To do. The operation of adjusting the desired value of the processing factor at a memory location that includes a pre-determined processing factor may represent the user's adjustment preference for an environment close to the current environment at the memory location 34d. . In this example, the expressions stored in the fifth data memory location 34e and the third data memory 34c are not required. Also, the change in processing factor to the acoustic parameters supplied by the acoustic analysis means 37 or to the neuroacoustic parameters calculated by the data processing unit 38 is predefined in the formula stored in the third data memory location 34c. It is not limited by the relationship.
聴覚人工器官は、ユーザの一方の耳に音響信号を出力するようにすることができ、両方の耳に前記音響信号を出力するようにすることができる。
また、聴覚人工器官は、頭部の一方の側に取り付けられたマイクロフォンからのマイクロフォン信号を受信し、一方あるいは両方の耳に信号を出力するようにすることもできる。
図3は、データプロセッシングユニット38の動作を行うための論理を示すフローチャートである。
The hearing prosthesis may be configured to output an acoustic signal to one ear of the user and may output the acoustic signal to both ears.
The hearing prosthesis can also receive a microphone signal from a microphone attached to one side of the head and output the signal to one or both ears.
FIG. 3 is a flowchart showing the logic for operating the data processing unit 38.
聴覚人工器官30がオンとなり、パワーが音響プロセッサ33及びデータプロセッシングユニット38を含む、器官30の構成要素に供給されることによって、ユニット38の動作が開始される。そして、ユーザが聴覚人工器官30のオフする、あるいは電源のバッテリが切れた時点でユニット38の動作は終了する。なお、特に図示していないが、他の終了態様を設定することもできる。例えば、ユーザの選択回数が所定の数に到達した場合、あるいはユーザが所定の時間の経過後、聴覚人工器官30に対する訓練を終了した場合、あるいはユーザがコントロール手段36を調整することによって、聴覚人工器官30に対する訓練が十分に実行された場合などに、ユニット38の動作終了を設定することができる。また、ユーザが異なる音響環境の範囲で聴覚人工器官30のパフォーマンスに満足した場合に、オーディオロジスト又は第3の機関が、聴覚人工器官30の取り扱いを終了させるようにすることができる。しかしながら、ユーザが任意に聴覚人工器官を扱うことができ、ユーザが新たな環境に遭遇した場合、あるいはユーザの可聴不全の度合いが時間とともに、あるいはユーザの聴覚人工器官への順応性が変化した場合、再度聴覚人工器官の取り扱いに対して訓練を行う必要がない。
The
図4は、本発明の聴覚人工器官のプロトタイプにおいて実施された初期実験の結果を示すグラフである。この実験の目的は、聴覚人工器官を取り扱うことによって、任意の入力音響に対する総ての周波数バンドにおける訓練に先立って、前記聴覚人工器官によって提供されるゲインよりも大きなゲインを生成することである。図4は、コントロール手段36(RMSコントロール調整(dB単位))を調整して、15回の選択回数を含む群の次の群において、前記聴覚人工器官に対する訓練能力の向上に伴い、望ましい出力減少が生じていることを示している。 FIG. 4 is a graph showing the results of initial experiments performed on the prototype of the hearing prosthesis of the present invention. The purpose of this experiment is to handle the hearing prosthesis to generate a gain greater than that provided by the hearing prosthesis prior to training in all frequency bands for any input sound. FIG. 4 shows a control output 36 (RMS control adjustment (dB unit)) adjusted to reduce the desired output as the training ability for the hearing prosthesis increases in the next group after the group including 15 selections. Indicates that this has occurred.
図5は、式(1)の音響パラエータを使用したマトリックスを図示したものである。
図5は、2次元メモリ空間にプロセッシングファクタを記憶した状態を示している。前記マトリックスは、2つの音響パラメータ、すなわちバンドiに対する音響圧力レベル及び総てのバンドに対するバンドiのSNRの値によって示されている。なお、本発明では、当然に2次元以上のマトリックスを用いることもできる。メモリロケーションにおける数値はゲイン値を示している。ゲイン値は可変プロセッシングファクタである。太字のイタリック体で示された文字以外は、予め記憶された値を示しており、前記イタリック体の文字は、ユーザの訓練に基づいて新たにセッティングされ、記憶された値である。
FIG. 5 illustrates a matrix using the acoustic parameters of equation (1).
FIG. 5 shows a state where the processing factor is stored in the two-dimensional memory space. The matrix is shown by two acoustic parameters: the acoustic pressure level for band i and the value of SNR for band i for all bands. In the present invention, it is naturally possible to use a two-dimensional or higher matrix. The numerical value at the memory location indicates the gain value. The gain value is a variable processing factor. Other than the characters shown in bold italics, the values stored in advance are shown, and the italic characters are newly set and stored based on user training.
以上、本発明を上述した具体例に基づいて説明したが、本発明の範疇を逸脱しない限りにおいて、あらゆる変更や変形が可能である。上述した具体例はあくまで例示であって、本発明を限定するものではない。 While the present invention has been described based on the specific examples described above, various changes and modifications can be made without departing from the scope of the present invention. The specific examples described above are merely examples, and do not limit the present invention.
Claims (114)
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
セッティング状態を記憶するデータメモリ手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官。 A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data memory means for storing the setting state;
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The hearing aid prosthesis, wherein the data memory means stores the setting state in the first mode.
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav)
ここで、
i=周波数バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR。 43. A hearing prosthesis according to claim 37, characterized in that the gain of the amplification means at each frequency is used in an environment as calculated by the following equation:
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav)
here,
i = number of frequency bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR in all bands.
(i) 前記出力信号のボリューム;
(ii) 特定周波数の、他の周波数に対する出力信号ゲイン;
(iii) ミッドレンジゲインが不変の状態において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール。 The auditory prosthesis according to claim 45, wherein the user operates one or more of the following operations of the acoustic processor means using the control means or the multiple control means.
(i) the volume of the output signal;
(ii) Output signal gain of a specific frequency relative to other frequencies;
(iii) Slope control that adjusts the gain of the low range and high range frequency in the opposite direction when the midrange gain remains unchanged.
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力するデータ解析手段と、
複数のセッティング状態を記憶するデータメモリ手段と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力するように操作されるデータプロセッシング手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官。 A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data analysis means for receiving the microphone signal and outputting a data set representative of the acoustic environment;
Data memory means for storing a plurality of setting states;
Analyzing the stored setting state, and comprising data processing means operated to output a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The hearing aid prosthesis, wherein the data memory means stores the setting state in the first mode.
アルゴリズムにエンコード化することを特徴とする、請求項105〜110のいずれか一に記載の聴覚人工器官。 111. A hearing prosthesis according to any one of claims 105 to 110, wherein the speech processor encodes the sound received by the microphone into a continuous electrical stimulation algorithm.
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データメモリ手段内にセッティング状態を設定する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号が、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官の調整方法。 A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Comprising setting a setting state in the data memory means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The method for adjusting an auditory prosthesis, wherein the data memory means stores the setting state in the first mode.
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データ解析手段において前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力する工程と、
複数のセッティング状態をデータメモリ手段内に記憶する工程と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、人工聴覚器官の調整方法。 A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Receiving the microphone signal in a data analysis means and outputting a data set representative of the acoustic environment;
Storing a plurality of setting states in the data memory means;
Analyzing the stored setting state, and outputting a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The method for adjusting an artificial auditory organ, wherein the data memory means stores the setting state in the first mode.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AUPS2470A AUPS247002A0 (en) | 2002-05-21 | 2002-05-21 | Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions |
PCT/AU2003/000613 WO2003098970A1 (en) | 2002-05-21 | 2003-05-21 | Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005531175A true JP2005531175A (en) | 2005-10-13 |
JP4658593B2 JP4658593B2 (en) | 2011-03-23 |
Family
ID=3836035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004506316A Expired - Fee Related JP4658593B2 (en) | 2002-05-21 | 2003-05-21 | Programmable hearing prosthesis that can automatically adapt to the acoustic environment |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1532841A4 (en) |
JP (1) | JP4658593B2 (en) |
AU (1) | AUPS247002A0 (en) |
CA (1) | CA2486893C (en) |
WO (1) | WO2003098970A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009001559A1 (en) * | 2007-06-28 | 2008-12-31 | Panasonic Corporation | Environment adaptive type hearing aid |
WO2013084211A1 (en) * | 2011-12-09 | 2013-06-13 | Cochlear Limited | Controlling a link for different load conditions |
WO2018087674A1 (en) * | 2016-11-08 | 2018-05-17 | Cochlear Limited | Utilization of vocal acoustic biomarkers for assistive listening device utilization |
WO2020089757A1 (en) * | 2018-11-02 | 2020-05-07 | Cochlear Limited | Multiple sound source encoding in hearing protheses |
WO2020089745A1 (en) * | 2018-10-31 | 2020-05-07 | Cochlear Limited | Combinatory directional processing of sound signals |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005008316B4 (en) | 2005-02-23 | 2008-11-13 | Siemens Audiologische Technik Gmbh | Hearing apparatus and method for monitoring the hearing of a minor hearing |
US7986790B2 (en) | 2006-03-14 | 2011-07-26 | Starkey Laboratories, Inc. | System for evaluating hearing assistance device settings using detected sound environment |
EP2070386A1 (en) * | 2006-09-27 | 2009-06-17 | Oticon A/S | Hearing aid with memory space for functional settings and learned settings, and programming method thereof |
US8265314B2 (en) * | 2007-04-25 | 2012-09-11 | Schumaier Daniel R | Preprogrammed hearing assistance device with program selection based on patient usage |
JP5329531B2 (en) * | 2007-04-25 | 2013-10-30 | ダニエル・アール・シュメイアー | User programmable hearing aid device |
DE102007038191B3 (en) | 2007-08-13 | 2008-12-04 | Siemens Medical Instruments Pte. Ltd. | Individually adjustable hearing aid and method for its operation |
EP2255548B1 (en) | 2008-03-27 | 2013-05-08 | Phonak AG | Method for operating a hearing device |
DE102008053457B3 (en) | 2008-10-28 | 2010-02-04 | Siemens Medical Instruments Pte. Ltd. | Method for adjusting a hearing device and corresponding hearing device |
US9729976B2 (en) | 2009-12-22 | 2017-08-08 | Starkey Laboratories, Inc. | Acoustic feedback event monitoring system for hearing assistance devices |
US8942398B2 (en) | 2010-04-13 | 2015-01-27 | Starkey Laboratories, Inc. | Methods and apparatus for early audio feedback cancellation for hearing assistance devices |
US9654885B2 (en) | 2010-04-13 | 2017-05-16 | Starkey Laboratories, Inc. | Methods and apparatus for allocating feedback cancellation resources for hearing assistance devices |
US8917891B2 (en) | 2010-04-13 | 2014-12-23 | Starkey Laboratories, Inc. | Methods and apparatus for allocating feedback cancellation resources for hearing assistance devices |
EP2521377A1 (en) | 2011-05-06 | 2012-11-07 | Jacoti BVBA | Personal communication device with hearing support and method for providing the same |
WO2024003688A1 (en) * | 2022-07-01 | 2024-01-04 | Cochlear Limited | Implantable sensor training |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE428167B (en) * | 1981-04-16 | 1983-06-06 | Mangold Stephan | PROGRAMMABLE SIGNAL TREATMENT DEVICE, MAINLY INTENDED FOR PERSONS WITH DISABILITY |
DE3900588A1 (en) * | 1989-01-11 | 1990-07-19 | Toepholm & Westermann | REMOTE CONTROLLED, PROGRAMMABLE HOUR DEVICE SYSTEM |
EP0674464A1 (en) * | 1994-03-23 | 1995-09-27 | Siemens Audiologische Technik GmbH | Programmable hearing aid with fuzzy logic controller |
DK0681411T3 (en) * | 1994-05-06 | 2003-05-19 | Siemens Audiologische Technik | Programmable hearing aid |
EP0712261A1 (en) * | 1994-11-10 | 1996-05-15 | Siemens Audiologische Technik GmbH | Programmable hearing aid |
DE59410236D1 (en) * | 1994-11-10 | 2003-03-06 | Siemens Audiologische Technik | Programmable hearing aid |
EP0814636A1 (en) | 1996-06-21 | 1997-12-29 | Siemens Audiologische Technik GmbH | Hearing aid |
DE59609754D1 (en) | 1996-06-21 | 2002-11-07 | Siemens Audiologische Technik | Programmable hearing aid system and method for determining optimal parameter sets in a hearing aid |
DE19625639C2 (en) * | 1996-06-26 | 2002-07-18 | Siemens Audiologische Technik | hearing Aid |
AUPO714197A0 (en) * | 1997-06-02 | 1997-06-26 | University Of Melbourne, The | Multi-strategy array processor |
US6201875B1 (en) * | 1998-03-17 | 2001-03-13 | Sonic Innovations, Inc. | Hearing aid fitting system |
EP1273205B1 (en) | 2000-04-04 | 2006-06-21 | GN ReSound as | A hearing prosthesis with automatic classification of the listening environment |
WO2001020965A2 (en) * | 2001-01-05 | 2001-03-29 | Phonak Ag | Method for determining a current acoustic environment, use of said method and a hearing-aid |
AU2001224979A1 (en) * | 2001-01-23 | 2001-05-08 | Phonak Ag | Communication method and a hearing aid system |
CA2433390A1 (en) * | 2001-11-09 | 2002-01-17 | Phonak Ag | Method for operating a hearing device and hearing device |
AU2002224722B2 (en) * | 2002-01-28 | 2008-04-03 | Phonak Ag | Method for determining an acoustic environment situation, application of the method and hearing aid |
-
2002
- 2002-05-21 AU AUPS2470A patent/AUPS247002A0/en not_active Abandoned
-
2003
- 2003-05-21 JP JP2004506316A patent/JP4658593B2/en not_active Expired - Fee Related
- 2003-05-21 CA CA2486893A patent/CA2486893C/en not_active Expired - Lifetime
- 2003-05-21 EP EP03720029A patent/EP1532841A4/en not_active Ceased
- 2003-05-21 WO PCT/AU2003/000613 patent/WO2003098970A1/en active Application Filing
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009001559A1 (en) * | 2007-06-28 | 2008-12-31 | Panasonic Corporation | Environment adaptive type hearing aid |
US8457335B2 (en) | 2007-06-28 | 2013-06-04 | Panasonic Corporation | Environment adaptive type hearing aid |
WO2013084211A1 (en) * | 2011-12-09 | 2013-06-13 | Cochlear Limited | Controlling a link for different load conditions |
US8831256B2 (en) | 2011-12-09 | 2014-09-09 | Cochlear Limited | Controlling a link for different load conditions |
WO2018087674A1 (en) * | 2016-11-08 | 2018-05-17 | Cochlear Limited | Utilization of vocal acoustic biomarkers for assistive listening device utilization |
US11253193B2 (en) | 2016-11-08 | 2022-02-22 | Cochlear Limited | Utilization of vocal acoustic biomarkers for assistive listening device utilization |
WO2020089745A1 (en) * | 2018-10-31 | 2020-05-07 | Cochlear Limited | Combinatory directional processing of sound signals |
US11758336B2 (en) | 2018-10-31 | 2023-09-12 | Cochlear Limited | Combinatory directional processing of sound signals |
WO2020089757A1 (en) * | 2018-11-02 | 2020-05-07 | Cochlear Limited | Multiple sound source encoding in hearing protheses |
US11510015B2 (en) | 2018-11-02 | 2022-11-22 | Cochlear Limited | Multiple sound source encoding in hearing prostheses |
US11979715B2 (en) | 2018-11-02 | 2024-05-07 | Cochlear Limited | Multiple sound source encoding in hearing prostheses |
Also Published As
Publication number | Publication date |
---|---|
EP1532841A1 (en) | 2005-05-25 |
AUPS247002A0 (en) | 2002-06-13 |
WO2003098970A1 (en) | 2003-11-27 |
CA2486893A1 (en) | 2003-11-27 |
CA2486893C (en) | 2013-12-24 |
JP4658593B2 (en) | 2011-03-23 |
EP1532841A4 (en) | 2008-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7889879B2 (en) | Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions | |
JP4658593B2 (en) | Programmable hearing prosthesis that can automatically adapt to the acoustic environment | |
US9426582B2 (en) | Automatic real-time hearing aid fitting based on auditory evoked potentials evoked by natural sound signals | |
US8265765B2 (en) | Multimodal auditory fitting | |
US10542355B2 (en) | Hearing aid system | |
DK2314079T3 (en) | Adaptation of bone anchored hearing devices | |
US9749753B2 (en) | Hearing device with low-energy warning | |
US11564048B2 (en) | Signal processing in a hearing device | |
US10003892B2 (en) | Systems and methods for altering the input dynamic range of an auditory device | |
CN105376684A (en) | Hearing assistance system with improved signal processing comprising an implanted part | |
CN104822119A (en) | Apparatus for determining cochlear dead region | |
EP2880874A2 (en) | Automatic sound optimizer | |
US10525265B2 (en) | Impulse noise management | |
WO2009110243A2 (en) | Method for adjusting voice converting processor | |
US11589170B2 (en) | Generalized method for providing one or more stimulation coding parameters in a hearing aid system for obtaining a perceivable hearing loudness | |
AU2004240216B2 (en) | Programmable Auditory Prosthesis with Trainable Automatic Adaptation to Acoustic Conditions | |
US20220174436A1 (en) | Method for calculating gain in a hearing aid | |
WO2010072245A1 (en) | A method of operating a hearing instrument based on an estimation of present cognitive load of a user and a hearing aid system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080722 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080729 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080821 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080828 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080922 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081022 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090303 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090512 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090731 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101224 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4658593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R154 | Certificate of patent or utility model (reissue) |
Free format text: JAPANESE INTERMEDIATE CODE: R154 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |