JP2005531175A - Programmable hearing prosthesis that can automatically adapt to the acoustic environment - Google Patents

Programmable hearing prosthesis that can automatically adapt to the acoustic environment Download PDF

Info

Publication number
JP2005531175A
JP2005531175A JP2004506316A JP2004506316A JP2005531175A JP 2005531175 A JP2005531175 A JP 2005531175A JP 2004506316 A JP2004506316 A JP 2004506316A JP 2004506316 A JP2004506316 A JP 2004506316A JP 2005531175 A JP2005531175 A JP 2005531175A
Authority
JP
Japan
Prior art keywords
acoustic
hearing prosthesis
user
data
prosthesis according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004506316A
Other languages
Japanese (ja)
Other versions
JP4658593B2 (en
Inventor
ディロン ハーヴィー
アンドリュー ザキス ジャスティン
ジョセフ マクダーモット ヒュー
ケイザー ジッテ
Original Assignee
ヒアーワークス ピーティーワイ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヒアーワークス ピーティーワイ リミテッド filed Critical ヒアーワークス ピーティーワイ リミテッド
Publication of JP2005531175A publication Critical patent/JP2005531175A/en
Application granted granted Critical
Publication of JP4658593B2 publication Critical patent/JP4658593B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/60Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles
    • H04R25/604Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers
    • H04R25/606Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers acting directly on the eardrum, the ossicles or the skull, e.g. mastoid, tooth, maxillary or mandibular bone, or mechanically stimulating the cochlea, e.g. at the oval window
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36036Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
    • A61N1/36038Cochlear stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36036Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
    • A61N1/36038Cochlear stimulation
    • A61N1/36039Cochlear stimulation fitting procedures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/43Electronic input selection or mixing based on input signal analysis, e.g. mixing or selection between microphone and telecoil or between microphones with different directivity characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • H04R25/507Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/67Implantable hearing aids or parts thereof not covered by H04R25/606

Landscapes

  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Prostheses (AREA)

Abstract

聴覚人工器官(30)は、音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォン(27)と、ユーザが受信可能な形態で音響信号を提供する出力デバイスと、前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシングユニット(33)とを具え、
前記音響プロセッシングユニット(33)は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含む。
The hearing prosthesis (30) receives sound, generates a microphone signal corresponding to the received sound, an output device that provides the sound signal in a form that can be received by the user, and the microphone signal. An acoustic processing unit (33) for receiving and processing and generating an output signal in a form suitable for the operation of the output device,
The acoustic processing unit (33) is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to the user's preference for current acoustic environmental characteristics. And including at least one variable processing factor that can be adjusted by the user.

Description

本発明は、補聴器又は人工耳などのプログラマブル聴覚人工器官に関する。特に、本発明は、特別な音響環境下において、ユーザが既に前記環境に適応した際の音響プロセッシング特性と類似あるいは同一の方法で前記環境に適応するように調整されたプログラマブル聴覚人工器官に関する。   The present invention relates to programmable hearing prostheses such as hearing aids or artificial ears. In particular, the present invention relates to a programmable hearing prosthesis that is tuned to adapt to the environment in a similar or identical manner to the acoustic processing characteristics when the user has already adapted to the environment in a special acoustic environment.

聴力損失は、多くの異なる原因によって引き起こされるものであるが、それらは聴覚伝導の異常に起因するものと、感覚神経の異常に起因するものとに分けることができる。これらの内、聴覚伝導の損失によるものは、蝸牛における毛細胞に到達する音響に対する通常の機械的経路が、例えば小骨へのダメージによって妨げられることに起因する。聴覚伝導の損失は、慣用の補聴器を用いることによって補うことができる。前記補聴器は、音響情報が蝸牛及び毛細胞に到達できるように、マイクロホン、増幅器、及びレシーバ(小型のスピーカー)を具えている。最小可聴音響圧力レベルは、音響試験刺激の周波数とともに変化するので、前記増幅器は、前記信号の異なる周波数成分が種々のレベルに増幅されるように、列状に配置されたフィルタ群の前方に配置されているか、前記フィルタ群を具えるように構成されている。   Hearing loss is caused by many different causes, which can be divided into those resulting from abnormal auditory conduction and those resulting from abnormal sensory nerves. Of these, the loss of auditory conduction is due to the fact that the normal mechanical pathways for sound reaching the hair cells in the cochlea are hindered, for example, by damage to the small bones. Auditory conduction loss can be compensated by using conventional hearing aids. The hearing aid includes a microphone, an amplifier, and a receiver (small speaker) so that acoustic information can reach the cochlea and hair cells. Since the minimum audible acoustic pressure level varies with the frequency of the acoustic test stimulus, the amplifier is placed in front of a group of filters arranged in rows so that different frequency components of the signal are amplified to different levels. Or configured to include the filter group.

感覚神経の異常は、蝸牛における毛細胞及び付随した聴覚神経網がダメージを受けていたり、破壊されていたりした場合に生じる。感覚神経に異常が生じると、最小可聴音響圧力レベルは増大するようになる。なお、前述したように、前記最小可聴音響圧力レベルは、音響試験刺激の周波数とともに変化する。しかしながら、聴覚伝導の異常とは対照的に、所定の試験周波数において不快であると感じる音響圧力レベルは、通常の聴覚能力を有する人々と同じである場合が多い。これは、機能しない耳の不快でない可聴範囲の音響圧力レベルのダイナミックレンジが減少しているためであり、前記ダイナミックレンジは、音響試験刺激の周波数とともに劇的に変化する。このような理由により、感覚神経の異常は、非線形増幅を利用した補聴器を使用することによって頻繁に対処され、一般的なダイナミックレンジを機能しない耳のダイナミックレンジに圧縮するようにしている。このようなシステムは、圧力増幅器の後方にフィルタバンクを有している。その結果、信号のダイナミックレンジは、各帯域において、機能しない耳のダイナミックレンジを適宜に考慮した所定のレンジにまで減少する。   Sensory nerve abnormalities occur when hair cells and associated auditory nerve networks in the cochlea are damaged or destroyed. As sensory nerves become abnormal, the minimum audible acoustic pressure level increases. As mentioned above, the minimum audible acoustic pressure level varies with the frequency of the acoustic test stimulus. However, in contrast to auditory conduction abnormalities, the sound pressure level that feels uncomfortable at a given test frequency is often the same as people with normal hearing ability. This is because the dynamic range of the acoustic pressure level of the non-disabling audible range of a non-functional ear is decreasing, said dynamic range changing dramatically with the frequency of the acoustic test stimulus. For these reasons, sensory nerve abnormalities are frequently dealt with by using hearing aids that utilize non-linear amplification to compress the general dynamic range to a non-functional ear dynamic range. Such a system has a filter bank behind the pressure amplifier. As a result, the dynamic range of the signal is reduced to a predetermined range that appropriately takes into account the dynamic range of the non-functional ear in each band.

耳が全く聞こえない人々の多くは、その聴覚不全は音響信号を神経インパルスに伝送する蝸牛における毛細胞の欠損あるいは破損に起因している。したがって、このような人々は、音響刺激が如何に増幅されようと、通常の方法で音響から生じる神経インパルスメカニズムの破損又は欠損があるために、補聴器を使用することによってもその症状が十分に改善されることがない。このような状況に鑑み、聴覚人工器官が開発されている。前記聴覚人工器官は、蝸牛における毛細胞をバイパスして、電気的刺激を直接聴覚神経網に伝送し、脳が聴覚神経に通常的に伝送される自然な聴覚に類似した聴覚を受容できるようにしている。USP4,532,930は、伝統的な聴覚人工器官を開示している。なお、前記米国特許の内容は、本明細書中に参照文献として含まれる。   In many people who are deaf at all, the hearing loss is due to hair cell loss or damage in the cochlea that transmits acoustic signals to nerve impulses. Thus, no matter how much the acoustic stimulus is amplified, these people have their symptoms improved sufficiently by using hearing aids because of the disruption or loss of the nerve impulse mechanism that normally results from sound. It will not be done. In view of this situation, hearing prostheses have been developed. The auditory prosthesis bypasses hair cells in the cochlea and transmits electrical stimuli directly to the auditory nerve network, allowing the brain to accept hearing similar to natural hearing normally transmitted to the auditory nerve. ing. USP 4,532,930 discloses a traditional hearing prosthesis. The contents of the US patent are included in the present specification as references.

聴覚人工器官は、代表的には2つの本質的要素を含んでいる。一つは、プロセッサユニットとしての外部コンポーネントであり、他の一つはスティミュレータ/レシーバとしてのインプラントコンポーネントである。伝統的に、これらの2つのコンポーネントは、協同して、ユーザに対して音響感覚を提供するものである。   A hearing prosthesis typically includes two essential elements. One is an external component as a processor unit and the other is an implant component as a stimulator / receiver. Traditionally, these two components cooperate to provide an acoustic sensation to the user.

前記外部コンポーネントは、伝統的に、演説及び環境音響などの音響受信のためのマイクロフォン、受信した音響、特に演説などをコード化された信号に変換するスピーチプロセッサ、電池などの電源、及び外部トランスミッタコイルから構成されている。   The external component has traditionally been a microphone for receiving sound, such as speech and environmental sound, a speech processor that converts received sound, particularly speech, etc. into a coded signal, a power source such as a battery, and an external transmitter coil It is composed of

前記スピーチプロセッサから出力されたコード化された信号は、ユーザの側頭骨の部分に位置するインプラントスティミュレータ/レシーバユニットに経皮的に伝送される。この伝送は、前記インプラントスティミュレータ/レシーバユニットに設けられたインプラント受信コイルと連結するようにして位置する外部トランスミッタコイルを介して行われる。このような伝達は、2つの本質的な目的のために行われる。一つは前記コード化された音響信号を経皮的に伝達するためであり、他の一つはインプラントスティミュレータ/レシーバユニットにパワーを提供するためである。従来、このようなリンクは、RFリンクの形式で行われており、その他のリンクも提案され、成功の度合いは異なるものの実行されている。   The coded signal output from the speech processor is transmitted percutaneously to an implant stimulator / receiver unit located in a portion of the user's temporal bone. This transmission takes place via an external transmitter coil, which is located so as to be connected to an implant receiving coil provided in the implant stimulator / receiver unit. Such a transmission takes place for two essential purposes. One is for transcutaneously transmitting the coded acoustic signal and the other is for providing power to the implant stimulator / receiver unit. Traditionally, such links have been made in the form of RF links, and other links have been proposed and implemented with varying degrees of success.

インプラントスティミュレータ/レシーバユニットは、伝統的にはコード化された信号を受信し、外部プロセッサーユニットからのパワーを受信するための受信コイルと、前記コード化された信号を加工し、オリジナルな受信音響に相当する聴覚を生成する聴覚神経に直接電気的刺激を提供する内部聴覚電極アセンブリに、刺激信号を出力するスティミュレーターとを具えている。   The implant stimulator / receiver unit traditionally receives the coded signal, receives the power from the external processor unit, and processes the coded signal to produce the original received sound. And an internal auditory electrode assembly that provides electrical stimulation directly to the auditory nerve that produces the auditory equivalent of a stimulator that outputs a stimulation signal.

ユーザは、聴覚人工器官に対して、個々の要求レベルに応じた異なる刺激信号の出力を要求する。このような状況は、個々のユーザが同一の聴覚異常を有し、同一の人工器官を用いる場合においても生じ、本質的に同一の音響環境に置かれた場合においても生じる。このような問題に鑑み、補聴器及び人工聴覚器官に対する音響加工スキームにおいては、個々のユーザの要求に対応するように設定されるパラメータを数多く具えている。例えば、入力音響に対する感度及び周波数レスポンスに対する変分などである。代表的に、これらのパラメータは日々の状況におけるユーザ、あるいは前記人工器官を取り付ける臨床医によって選択される。前者の場合、例えば感度(ボリューム)、周波数レスポンスなどが選択されるパラメータであって、後者の場合、例えばベースライン周波数応答及び入力レベルの変化に基づいて変化する周波数レスポンス及び感度の変化速度である。   The user requests the auditory prosthesis to output different stimulation signals according to individual request levels. This situation occurs even when individual users have the same hearing abnormality and use the same prosthesis, and also when placed in essentially the same acoustic environment. In view of these problems, acoustic processing schemes for hearing aids and prosthetic organs have many parameters that are set to meet the needs of individual users. For example, sensitivity to input sound and variation to frequency response. Typically, these parameters are selected by the user in day-to-day situations or by the clinician attaching the prosthesis. In the former case, for example, sensitivity (volume), frequency response, and the like are parameters to be selected. In the latter case, for example, the frequency response and the speed of change in sensitivity that change based on changes in the baseline frequency response and input level. .

特に最近、聴覚人工器官において、求めるパフォーマンスに合致するように調整されるべき、あるいは調整することのできるパラメータ数が増大する傾向にある。しかしながら、このようにパラメータ数が増大しても、個々のユーザにとっての最適なパラメータ値を選択できるような信頼性のある規範的な方法が存在しないという問題を際だたせる結果となり、特に前記パラメータの内のいくつかが、全く同一の聴覚障害を有する個人間で変化する場合において顕著となっている。したがって、臨床医が実際の診療室以外で、前記ユーザの報告された経験に基づいて人工器官を調節できるようになることが必要であり、前記調節のために診療室に戻らなければならないという時間の無駄及び不便性を解消する必要もある。   Particularly recently, there is a tendency for auditory prostheses to increase the number of parameters that should be adjusted or can be adjusted to match the desired performance. However, even if the number of parameters increases in this way, this results in the problem that there is no reliable normative method for selecting the optimum parameter value for each user. Some of them are prominent when they vary between individuals with identical hearing impairments. Therefore, it is necessary for the clinician to be able to adjust the prosthesis based on the user's reported experience outside the actual clinic, and the time that he must return to the clinic for the adjustment It is also necessary to eliminate waste and inconvenience.

補聴器ユーザが聴覚を得ることのできる補聴器の例が、USP5,604,812において開示されている。前記補聴器は実際の駆動方法についても考慮されており、“アンシャープ入力(unsharp inputs)”、すなわち一般環境条件及び/又は補聴器の出力値、規定のアルゴリズム、聴覚不全データ、及び補聴器特性データについての補聴器携帯者の“感覚”を蓄積することができるメモリを有するものである。ファジー論理モジュールは前記データを用い、入力信号解析ユニットからの信号を制御し、補聴器に対する出力パラメータを計算する。前記ファジー論理回路モジュール及び/又は前記アルゴリズムは、神経回路網によって補助メモリに蓄積されたデータに基づいて計算を実行する。この間、前記神経回路網は前記補助メモリに接続されたパーソナルコンピュータにおいて駆動される。このような補聴器は、プロセッシングスキームが複雑になるという問題と、補助電源、代表的にはオンボードバッテリにおける望ましくない大規模な電流流出という問題とが生じるようになる。これに加え、前記補聴器は、正確に駆動させるために長時間を要し、ユーザが最適な状態を直接設定することが困難となり、このため、前記補聴器に対して、むしろ正確かつ直接に必要な入力を行うよりも“アンシャープ入力”を行う方が好ましくなる。   An example of a hearing aid from which a hearing aid user can obtain hearing is disclosed in USP 5,604,812. The hearing aid also takes into account the actual driving method, “unsharp inputs”, ie general environmental conditions and / or hearing aid output values, prescribed algorithms, hearing loss data, and hearing aid characteristics data. It has a memory that can store the “sense” of the hearing aid wearer. The fuzzy logic module uses the data to control the signal from the input signal analysis unit and calculate the output parameters for the hearing aid. The fuzzy logic circuit module and / or the algorithm performs calculations based on data stored in auxiliary memory by a neural network. During this time, the neural network is driven in a personal computer connected to the auxiliary memory. Such hearing aids have the problem of complicated processing schemes and the problem of undesirably large current drain in auxiliary power supplies, typically on-board batteries. In addition, the hearing aid takes a long time to drive accurately, making it difficult for the user to set the optimal state directly, which is rather necessary for the hearing aid more accurately and directly. It is preferable to perform “unsharp input” rather than input.

補聴器ユーザが聴覚を受信できる補聴器の他の例が、USP6,305,050において開示されている。この補聴器によれば、ユーザは、リモートユニットにおける音響状況の内から一つの音響状況を選択することによって現在の音響環境を同定することが要求される。この場合、前記ユーザは、前記選択した音響状況から現在の音響状況を瞬時に決定することができないので、前記補聴器の利点は大幅に減少してしまう。このような問題に加えて、リモートユニット、例えば作動中のリモートユニットは異なる音響環境を有することになり、その結果、音響状態を十分に画定することができない場合がある。したがって、神経回路網は、マイクロフォン信号の解析から音響状況などを十分に認識することができない場合がある。前記音響状況の認識は、メモリ限界及び音響状況の変化は早期に認識することが好ましいとの実用的な見地から数秒から数分の間に行うことが望ましい。したがって、所定の訓練を実施した後も、前記神経回路網は音響状況を誤って認識する可能性が生じてしまう。特に、音響的に十分に画定することができない状況ではなおさらである。その結果、増幅パラメータは、現在の音響状況に適さないものとなってしまう。このような装置においては、環境パラメータを測定したり、プロセッシングスキームにおいて直接にこれらのパラメータを使用する代わりに、特定の音響環境を類別する試みがなされている。これは、本願発明と共通する技術的事項である。また、前記装置では、以前の作業場所と音響的に異なる新たな作業場所のような、生活環境の変化によって、異なる増幅パラメータが必要になり、その結果、診療室に再度通わなければならなくなる。   Another example of a hearing aid that allows a hearing aid user to receive hearing is disclosed in USP 6,305,050. According to this hearing aid, the user is required to identify the current acoustic environment by selecting one of the acoustic conditions in the remote unit. In this case, since the user cannot instantaneously determine the current acoustic condition from the selected acoustic condition, the advantage of the hearing aid is greatly reduced. In addition to these problems, remote units, such as active remote units, will have different acoustic environments, and as a result, acoustic conditions may not be well defined. Therefore, the neural network may not be able to fully recognize the acoustic situation from the analysis of the microphone signal. The acoustic situation is preferably recognized within a few seconds to several minutes from the practical viewpoint that it is preferable to recognize the memory limit and the change in the acoustic situation at an early stage. Therefore, even after the predetermined training is performed, the neural network may possibly recognize the acoustic situation erroneously. This is especially true in situations where acoustics cannot be well defined. As a result, the amplification parameters are not suitable for the current acoustic situation. In such devices, attempts have been made to classify specific acoustic environments instead of measuring environmental parameters or using these parameters directly in the processing scheme. This is a technical matter common to the present invention. The device also requires different amplification parameters due to changes in the living environment, such as a new work place that is acoustically different from the previous work place, and as a result, has to go to the clinic again.

補聴器は、そのユーザの嗜好をも受容することができ、このような補聴器についてはUSP6,044,163に記載されている。この文献に記載された補聴器は、USP6,035,05に記載されたものと類似しているが、主な相違事項は、神経回路網が、メモリ中に蓄積された増幅パラメータを一括して選択せず、個々の増幅パラメータを直接的に設定するということである。前記補聴器のその他の不利益は、USP6,035,050に記載された補聴器におけるものと同じである。   Hearing aids can also accept the preferences of their users, and such hearing aids are described in USP 6,044,163. The hearing aids described in this document are similar to those described in USP 6,035,05, but the main difference is that the neural network selects the amplification parameters stored in memory collectively. Without setting individual amplification parameters directly. The other disadvantages of the hearing aid are the same as in the hearing aid described in USP 6,035,050.

本発明は、調節可能であって、ユーザは可変的な音響環境に置かれた際に、前記ユーザに対する出力状態を調節することができる聴覚人工器官を前記ユーザに提供することを目的とする。   It is an object of the present invention to provide the user with an auditory prosthesis that is adjustable and can adjust the output state for the user when placed in a variable acoustic environment.

また、本発明は、個々のユーザの訓練によって伝統的な診療環境から離隔して遭遇した音響状況においても、前記ユーザの嗜好に合うように出力状況を調節し、前記ユーザの音響を最適化するために要求される診療時間を短縮することができる聴覚人工器官を前記ユーザに提供することを目的とする。   In addition, the present invention optimizes the sound of the user by adjusting the output state so as to suit the user's preference even in the sound situation encountered by training of individual users away from the traditional medical environment. Therefore, an object of the present invention is to provide the user with a hearing prosthesis that can shorten the medical examination time required.

本明細書に含まれる、文献、動作、材料、装置、部品などは、本発明の目的を達成するために要求されるものである。これら要素の一部あるいは総ては、本願発明が関連する分野においては、従来技術あるいは公知技術を構成し、本願の特許請求の範囲に関する優先日以前に存在しているものではない。   Documents, operations, materials, devices, parts, etc. included in this specification are required to achieve the objectives of the present invention. Some or all of these elements constitute prior art or known art in the field related to the present invention and do not exist before the priority date related to the claims of the present application.

発明を解決するための手段Means for Solving the Invention

上記目的を達成すべく、本発明は、
音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
セッティング状態を記憶するデータメモリ手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官(第1の聴覚人工器官)に関する。
In order to achieve the above object, the present invention provides:
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data memory means for storing the setting state;
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The data memory means relates to an auditory prosthesis (first auditory prosthesis) that stores the setting state in the first mode.

本発明では、一ユーザに対して最適な出力信号として考慮されるものが、他のユーザに対しては最適な信号として考慮されないことを理解する必要がある。本発明は、ユーザが日常的あるいは時折接する音響環境と異なる音響環境に接した場合に、診療試験によって予め定められた方法ではなく、前記ユーザの要求に合致するような方法で、前記聴覚人工器官が駆動することを保証するものである。なお、前記音響環境は、前記ユーザが接触した場合に、前記ユーザが必ずしも主観的反応を繰り返して起こすとは限らない。   In the present invention, it should be understood that what is considered as an optimal output signal for one user is not considered as an optimal signal for other users. The present invention relates to the hearing prosthesis in a method that meets the user's requirements rather than a method predetermined by a medical examination when the user is in contact with an acoustic environment that is different from the acoustic environment that is routinely or occasionally in contact with the user. Is guaranteed to drive. Note that the acoustic environment does not necessarily cause the user to repeat subjective reactions when the user touches.

好ましくは、前記データメモリ手段は、少なくとも1つの音響環境特性を代表するデータセットを記憶することが好ましい。また、好ましくは、前記少なくとも1つの可変プロセッシングファクタは、このファクタに相当する音響環境に基づいて自動的に調整されることが好ましい。   Preferably, the data memory means stores a data set representative of at least one acoustic environmental characteristic. Preferably, the at least one variable processing factor is automatically adjusted based on an acoustic environment corresponding to the factor.

第1の態様において、前記第1のモードで動作する際に、前記音響プロセッシング手段は、前記ユーザによって選択された前記少なくとも1つの可変プロセッシングファクタの、2以上の最適なセッティング状態を提供する。この場合、前記ユーザは、特定の音響環境で駆動される際の、前記聴覚人工器官の駆動状態を、各セッティング状態での駆動状態と比較することができ、これらのセッティング状態から前記音響環境に最も良く合致するセッティング状態を選択することができる。前記ユーザによって選択された、前記可変プロセッシングファクタのセッティング状態は、必要に応じて前記音響環境特性を示すデータとともに、前記データメモリ手段内に記憶することができる。このプロセスは繰り返し実行され、これによって前記プロセッシング手段は、前記可変プロセッシングファクタのセッティング状態に対する前記ユーザの嗜好が、時間とともに又は使用経過に伴って変化するか否かをモニタリングすることができる。   In a first aspect, when operating in the first mode, the acoustic processing means provides two or more optimal setting states of the at least one variable processing factor selected by the user. In this case, the user can compare the driving state of the hearing prosthesis when driven in a specific acoustic environment with the driving state in each setting state, and from these setting states to the acoustic environment. The best matching setting state can be selected. The setting state of the variable processing factor selected by the user can be stored in the data memory means together with the data indicating the acoustic environment characteristics as necessary. This process is repeated so that the processing means can monitor whether the user's preference for the setting state of the variable processing factor changes over time or over time.

上述のようなプロセスを繰り返す際、前記ユーザによる、各セッティング状態に対する選択の回数がモニタリングされ、前記聴覚人工器官が前記可変プロセッシングファクタの最適なセッティング状態、あるいは必要に応じて、特定の音響環境に対する可変プロセッシング状態の最適なセッティング状態を選択することができるようになる。   When repeating the process as described above, the number of selections made by the user for each setting state is monitored, and the hearing prosthesis is optimized for the variable processing factor setting, or, if necessary, for a particular acoustic environment. It becomes possible to select the optimum setting state of the variable processing state.

本例において、前記ユーザはコントロール手段を駆動させることにより、前記提供されたセッティング状態に基づいてリスニング環境を変更することができ、インジケータ手段を操作することによって、前記可変プロセッシングファクタのセッティング状態を選択することができる。一例において、前記コントロール手段は、ユーザによって操作可能なスイッチあるいはボタン群を具えることができ、前記インジケータ手段は、前記ユーザによって操作可能なスイッチあるいはボタン群を具えることができる。   In this example, the user can change the listening environment based on the provided setting state by driving the control means, and select the setting state of the variable processing factor by operating the indicator means. can do. In one example, the control means may comprise a switch or button group operable by a user, and the indicator means may comprise a switch or button group operable by the user.

他の例において、前記音響プロセッシング手段が第1のモードで駆動される場合、前記音響プロセッシング手段は調整可能とすることができる。この場合、前記ユーザは、最適なセッティング状態を不連続的に選択する代わりに、コントロール手段を調整することによって、実質的に連続した範囲において、前記可変プロセッシングファクタを変更することができ、したがってプロセッシング操作を変更することができる。前記ユーザが、特定の音響環境に対して最適なセッティング状態であると考える、前記実質的に連続した範囲の、所定のセッティング状態に前記コントロール手段を調整すると、前記ユーザはスイッチやボタンなどのインジケータ手段を操作して、前記セッティング状態、及び必要に応じて前記特定の音響環境を示すデータを前記データメモリ手段内に記憶する。前記音響プロセッシング手段によって、前記インジケータ手段が駆動されると、前記インジケータ手段は、前記コントロール手段における特定のセッティング状態が、前記特定の音響環境に対して最適であることを指示する。   In another example, the acoustic processing means may be adjustable when the acoustic processing means is driven in a first mode. In this case, the user can change the variable processing factor in a substantially continuous range by adjusting the control means instead of discontinuously selecting the optimal setting state, and thus processing. The operation can be changed. When the user adjusts the control means to a predetermined setting state within the substantially continuous range, which the user thinks is an optimal setting state for a specific acoustic environment, the user may indicate an indicator such as a switch or button. By operating means, data indicating the setting state and, if necessary, the specific acoustic environment is stored in the data memory means. When the indicator means is driven by the acoustic processing means, the indicator means indicates that a particular setting state in the control means is optimal for the particular acoustic environment.

本例において、前記コントロール手段は、ロータリーホイールコントロールを具えることができる。前記ロータリーホイールコントロールは、前記聴覚人工器官のハウジング上に取り付けることができ、また離隔したユニット上に取り付けることもできる。前記コントロール手段はトグルスイッチ又はプレスボタンの形態とすることもできる。   In this example, the control means may comprise a rotary wheel control. The rotary wheel control can be mounted on the hearing prosthesis housing or on a remote unit. The control means may be in the form of a toggle switch or a press button.

上述した例において、前記インジケータ手段は、前記聴覚人工器官のハウジングに取り付けることができるし、離隔したユニット上に取り付けることもできる。
好ましい態様において、前記ユーザによって、複数の音響環境に対して最適であるとして選択されたセッティング状態は、必要に応じて、前記音響環境特性を示すデータとともに、前記データメモリ手段内に記憶することができる。前記音響プロセッシング手段は、前記第2のモードで駆動することができ、所定の時間、あるいは前記ユーザが前記コントロール手段を調整し、特定の音響環境に対して最適であると考える新たなセッティング状態を選択する度毎に、前記第1のモードで同時に駆動させることができる。他の例において、前記聴覚人工器官は、前記第1のモードで駆動する時間を確定することができる。この時間は、前記ユーザが望むように設定することができる。訓練時間が完了した後に、前記聴覚人工器官は前記ユーザに対して信号を発することができる。この場合、前記聴覚人工器官において、訓練時間の終了は、前記聴覚人工器官によって既に評価されたセッティング状態と異なるセッティング状態を選択することができなくなった時点で終了するようにすることができる。
In the example described above, the indicator means can be mounted on the housing of the hearing prosthesis or on a remote unit.
In a preferred embodiment, the setting state selected by the user as optimal for a plurality of acoustic environments may be stored in the data memory means together with data indicating the acoustic environment characteristics, if necessary. it can. The acoustic processing means can be driven in the second mode, and for a predetermined time or a new setting state that the user adjusts the control means to consider optimum for a specific acoustic environment. Each time it is selected, it can be driven simultaneously in the first mode. In another example, the hearing prosthesis can determine a time to drive in the first mode. This time can be set as desired by the user. After the training time is complete, the hearing prosthesis can signal the user. In this case, in the auditory prosthesis, the end of the training time can be ended when it becomes impossible to select a setting state different from the setting state already evaluated by the auditory prosthesis.

本発明の好ましい態様では、前記聴覚人工器官は、さらに音響解析手段を具えることができる。音響解析手段は、前記マイクロフォンから入力信号を受信し、ユーザの音響環境をモニタリングする。前記音響解析手段は、モニタリングされた音響環境を代表する出力を提供する。   In a preferred aspect of the present invention, the hearing prosthesis may further include acoustic analysis means. The acoustic analysis means receives an input signal from the microphone and monitors the acoustic environment of the user. The acoustic analysis means provides an output representative of the monitored acoustic environment.

さらに、前記データメモリ手段は、1以上のデータメモリロケーションを具えることができる。例えば、前記データメモリ手段は5つのデータメモリロケーションを具えることができる。本例において、第1のデータメモリロケーションは、ユーザの聴力データ及び/又は前記聴覚人工器官によって使用された1以上の音声に対する個々のデータを含む。第2のデータメモリロケーションは、前記聴覚人工器官の特性データを含む。第3のデータメモリロケーションは、個々のユーザが異なる音響環境における、音響プロセッサユニットの最適なプロセッシング操作を予想するために使用する1以上の式を具える。第4のデータメモリロケーションは、ユーザによって選択された最適な音響プロセッシングデータを記憶する。このデータは、連続的又は前記音響解析手段によって供給される音響環境データを指示するような異なる方法で順序づけることができる。最適な音響プロセッシングデータに相当する音響環境データは、適宜第5のデータメモリロケーションに記憶させることができる。なお、異なるメモリロケーションを有するデータメモリ手段を用いることもできる。   Furthermore, the data memory means may comprise one or more data memory locations. For example, the data memory means can comprise five data memory locations. In this example, the first data memory location includes user hearing data and / or individual data for one or more sounds used by the hearing prosthesis. The second data memory location contains characteristic data of the hearing prosthesis. The third data memory location comprises one or more formulas used by individual users to anticipate optimal processing operations of the acoustic processor unit in different acoustic environments. The fourth data memory location stores the optimal acoustic processing data selected by the user. This data can be ordered sequentially or in different ways to indicate the acoustic environment data supplied by the acoustic analysis means. The acoustic environment data corresponding to the optimal acoustic processing data can be stored in the fifth data memory location as appropriate. It is also possible to use data memory means having different memory locations.

また、前記第4のデータメモリロケーションは、最適な音響プロセッシングデータの、予め画定された最大のデータ数を記憶することができる。例えば、400個の最適音響プロセッシングデータを記憶することができる。しかしながら、前記最大値は、他の値とすることもできる。例えば、前記データプロセッシング手段は、蓄積された総てのデータばかりを使用するものではなく、予め定められた数の、最も近時に記録されたデータをも利用する。例えば、可変プロセッシングファクタの最適値を決定する際に、最近時の256個のデータのみを利用することができる。また、前記メモリロケーション内の、最も古いデータに代えて、最も新しいデータを記憶させることができる。この先入れ先出し記憶システムは、前記聴覚人工器官に対して、最近時に記録されたデータを任意に記憶できるようにしている。また、前記メモリロケーションが一杯になった際に、古いデータが上書きされないようにし、新たなデータが記憶されなくするようにすることができる。さらに、前記メモリロケーションにおける古いデータに対して選択的に上書きを実施することによって、所定の音響環境に相当する新たなデータを前記メモリロケーション中に記憶させるようにすることができる。   The fourth data memory location may store a pre-defined maximum number of optimal acoustic processing data. For example, 400 optimal acoustic processing data can be stored. However, the maximum value may be another value. For example, the data processing means does not use all the accumulated data, but also uses a predetermined number of recently recorded data. For example, when determining the optimum value of the variable processing factor, only the latest 256 data can be used. Also, the newest data can be stored in place of the oldest data in the memory location. This first-in first-out storage system can arbitrarily store data recorded recently in the hearing prosthesis. In addition, when the memory location is full, old data can be prevented from being overwritten, and new data can be prevented from being stored. Furthermore, new data corresponding to a predetermined acoustic environment can be stored in the memory location by selectively overwriting old data in the memory location.

前記聴覚人工器官は、さらにデータプロセッシング手段を具えることができる。前記データプロセッシング手段は、音響解析手段からの出力を受信する。この出力に基づいて、前記データプロセッシング手段は、前記マイクロフォンで受信した音の強さを計算することができる。また、前記データプロセッシングユニットは、通常の聴力を有する人が聞くことのできる音の強さ、あるいは何らかの聴力障害を有する人が聞くことのできる音の強さを計算することができる。なお、前記データプロセッシング手段は、前記マイクロフォンで受信した他の音響指標及び心理音響的指標を計算することもできる。前記データプロセッシング手段は、前記第3のデータメモリロケーションに記憶された1以上の式に対する入力データとして音響状態の指標を用いることができる。これによって、前記音響解析手段によって決定された音響環境において、前記ユーザが、前記音響プロセッシング手段の最適な音響プロセッシング動作を評価することができるようになる。   The hearing prosthesis may further comprise data processing means. The data processing means receives an output from the acoustic analysis means. Based on this output, the data processing means can calculate the intensity of the sound received by the microphone. In addition, the data processing unit can calculate the strength of sound that can be heard by a person having normal hearing ability, or the strength of sound that can be heard by a person having some kind of hearing impairment. The data processing means can also calculate other acoustic indicators and psychoacoustic indicators received by the microphone. The data processing means may use an acoustic state indicator as input data for one or more equations stored in the third data memory location. This allows the user to evaluate the optimum sound processing operation of the sound processing means in the sound environment determined by the sound analysis means.

前記データプロセッシングユニットは、さらに前記第2のデータメモリロケーションに記憶された聴覚人工器官特性データ、及び前記式から得られた最適な音響プロセッサデータを用い、自動的及び連続的に前記音響プロセッシング手段の適当なセッティング状態を決定することができ、ユーザに対して、現在経験している音響環境に対する最適な出力信号を提供することができる。   The data processing unit further uses the auditory prosthesis characteristic data stored in the second data memory location and the optimal acoustic processor data obtained from the equation to automatically and continuously use the acoustic processing means. Appropriate setting conditions can be determined and the user can be provided with an optimal output signal for the acoustic environment currently experienced.

好ましい例において、前記音響プロセッシング手段は、増幅手段及びゲインコントロール手段を含む。前記増幅手段は、前記第1のモードにおいて調整可能であり、前記ユーザが特定の音響環境において、前記増幅手段の各周波数又は総ての周波数におけるゲインを最適化できるようにすることができる。最適化の後、前記聴覚人工器官は、第2のモードにおいて駆動し、増幅手段の増幅特性を最適なレベルに調整する。すなわち、前記可変プロセッシングファクタは、各周波数又は総ての周波数における、増幅ゲインとすることができる。   In a preferred example, the acoustic processing means includes an amplification means and a gain control means. The amplification means can be adjusted in the first mode, allowing the user to optimize the gain at each or all frequencies of the amplification means in a particular acoustic environment. After optimization, the hearing prosthesis is driven in the second mode to adjust the amplification characteristics of the amplification means to an optimum level. That is, the variable processing factor can be an amplification gain at each frequency or at all frequencies.

前記増幅手段の、各周波数又は総ての周波数におけるゲインは、予め画定された形式の式を用いて計算することができる。前記式は、
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav) (1)
で表すことができる。
The gain at each frequency or all frequencies of the amplification means can be calculated using a formula of a predefined type. The formula is
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav) (1)
Can be expressed as

ここで、
i=周波数バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR
信号スペクトルの高次のモーメント及びこれらモーメントの変化などの音響的あるいは心理音響的パラメータ、又はその他の統計的パラメータあるいは音響信号、あるいは前記統計的パラメータと音響信号との組み合わせ、さらには任意の係数などを組み合わせたものから構成される式を用いても、ゲイン又はプロセッシングファクタを計算することができる。例えば、聴覚人工器官が反応し、音響環境において変化する際の速度などのファクタを計算することができる。使用する式の選択は、本発明の範疇を逸脱しない限りにおいて、その使用環境に依存して決定することができる。
here,
i = number of frequency bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR across all bands
Acoustic or psychoacoustic parameters such as higher-order moments in the signal spectrum and changes in these moments, or other statistical parameters or acoustic signals, or a combination of the statistical parameters and acoustic signals, and arbitrary coefficients The gain or processing factor can also be calculated using an expression composed of a combination of. For example, factors such as the speed at which the hearing prosthesis reacts and changes in the acoustic environment can be calculated. The selection of the formula to be used can be determined depending on the usage environment without departing from the scope of the present invention.

上記具体例において、訓練係数はa,b,c及びdを含み、結果として、可変プロセシングファクタである増幅ゲインGを導出することになる。
したがって、前記音響プロセッシング手段の、1以上のプロセッシングファクタは、ユーザが前記コントロール手段又は多重コントロール手段を使用することによって調整することができる。同様に、前記ユーザは、前記コントロール手段又は前記多重コントロール手段を用いることにより、前記音響プロセッシング手段の1以上のパラメータを調整することができる。
(i) 出力信号のボリューム
(ii) 他の周波数と関連した特定の周波数における出力信号のゲイン、例えばミッドレンジ周波数のゲインを、ハイ又はローレンジ周波数のゲインに比較して、増幅したり減衰したりすることができる
(iii) ミッドレンジ周波数のゲインが変化しない間において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール
前記音響プロセッシング手段の操作において、前記ユーザは、前記インジケータ手段を駆動させることによって、特定の音響環境に対する可変プロセッシングファクタに対して最適なセッティング状態を選択することができる。前記音響プロセッシング手段の多重操作において、前記ユーザは前記インジケータ手段を駆動させることにより、前記ユーザが経験する音響環境の、1以上の可変プロセッシングファクタに対する最適な状態を選択することができる。したがって、1以上の可変プロセッシングファクタ同様、前記音響プロセッシング手段の、1以上の操作についても、その選択と結合させて調整することができる。前記インジケータ手段が駆動される度毎に、各周波数帯におけるゲインは、前記マイクロフォンによって受信した音響環境を示すデータセットとともに記録することができる。
前記データセットは、前記データプロセッシング手段による先のデータセットとともに使用して、各バンドにおける記録された訓練データと最も良く合致するゲイン式係数を計算する。各周波数バンドにおける記録ゲインは、前記ゲイン式係数を計算するために用いることができる。
In the above specific example, the training coefficient includes a, b, c, and d, and as a result, an amplification gain G that is a variable processing factor is derived.
Thus, one or more processing factors of the acoustic processing means can be adjusted by a user using the control means or multiple control means. Similarly, the user can adjust one or more parameters of the acoustic processing means by using the control means or the multiple control means.
(i) Output signal volume
(ii) The gain of the output signal at a particular frequency relative to other frequencies, such as the midrange frequency gain, can be amplified or attenuated compared to the high or low range frequency gain.
(iii) Slope control that adjusts the low range and high range frequency gains in opposite directions while the mid range frequency gain does not change. It is possible to select an optimum setting state for a variable processing factor for the acoustic environment. In the multiplex operation of the acoustic processing means, the user can select an optimum state for one or more variable processing factors of the acoustic environment experienced by the user by driving the indicator means. Therefore, as well as one or more variable processing factors, one or more operations of the acoustic processing means can be adjusted in conjunction with the selection. Each time the indicator means is driven, the gain in each frequency band can be recorded along with a data set indicative of the acoustic environment received by the microphone.
The data set is used with the previous data set by the data processing means to calculate the gain equation coefficient that best matches the recorded training data in each band. The recording gain in each frequency band can be used to calculate the gain equation coefficient.

第1のモードで駆動する際、前記データプロセシング手段は、ユーザによって予め決められた数の選択が実行されるまで上述したゲインに関する式の、最適な係数を計算しない。例えば、少なくともユーザによって50回の選択が実施されるまでは、最適な係数を計算しないようにすることができる。選択の回数が予め決まっていないような場合、前記音響プロセッシング手段は、前記第2のモードにおいて、予め画定された係数及び/又は可変プロセッシングファクタに基づいて、現在の環境に適応した出力を自動的に計算する。予め確定された数の選択が行われると、前記音響プロセッシング手段は、前記第1のモードにおいて、前記ユーザの先の嗜好に基づいた最適なゲインに関する式の係数を計算し、前記第2のモードにおいて自動的かつ連続的に、前記式を用いて前記可変プロセッシングファクタを計算することができる。前記音響プロセッシング手段において、ユーザが予め設定された回数の選択を行わない内に、ゲインに関する式の最適な係数を計算するようにすることができる。しかしながら、前記式及び計算された前記係数を用い、ある程度の正確さで前記ユーザが好ましいと判断する可変プロセッシングファクタが予測されるまで、前記第2のモードにおいて、計算された前記係数を使用しないことが好ましい。   When driving in the first mode, the data processing means does not calculate an optimum coefficient of the above-described equation relating to gain until a predetermined number of selections are performed by the user. For example, the optimal coefficient may not be calculated until at least 50 selections are performed by the user. If the number of selections is not predetermined, the acoustic processing means automatically outputs an output adapted to the current environment based on a predefined factor and / or a variable processing factor in the second mode. To calculate. When a predetermined number of selections are made, the sound processing means calculates a coefficient of an expression related to an optimal gain based on the user's previous preference in the first mode, and the second mode The variable processing factor can be calculated automatically and continuously using the equation. In the acoustic processing means, the optimum coefficient of the formula relating to the gain can be calculated before the user selects a preset number of times. However, using the equation and the calculated coefficient, do not use the calculated coefficient in the second mode until a variable processing factor that the user deems preferable with some accuracy is predicted. Is preferred.

異なる環境に対する最適な可変プロセッシングファクタを決定するに際して、式を使用しないようにすることもできる。前記最適に調整された可変プロセッシングファクタは、前記第4のデータメモリの、前記音響解析手段によって提供される音響環境データによって決定される位置に記憶することもできる。第1のモードの実行に先立って、前記第4のデータメモリロケーションは、経験的観察あるいは慣用の手法を用いて得られた、相当する音響環境パラメータ値に対するプロセッシングファクタとともにロードされる。前記第1のモードの動作中、前記最適に調整されたプロセッシングファクタは、前記第4のデータメモリロケーションの、前記音響解析手段によって供給された音響環境データによって決定されたロケーションに記憶される。前記最適に調整されたプロセッシングデータは、予め存在する古いデータ上に上書きすることもできるし、数学的及び/又は統計的手法を用いることによって、同じロケーションの、予め存在する古いデータと結合させることもできる。前記第2のモードにおける動作中において、前記音響解析手段によって供給された音響環境パラメータ及び神経音響パラメータは、前記第4のデータメモリロケーションを指示するために使用することができ、指示ロケーションに記憶された値は、前記音響プロセッシング手段の、プロセッシングファクタ値を決定するために使用する。前記音響プロセシング手段に適用されたプロセッシングファクタは、徐々に目的とする前記値に収束させ、前記ファクタが急速に変化したり、瞬時に変化したりすることによって、好ましくない音響効果が生じるのを防止する。なお、前記第5のデータメモリロケーション及び前記第3のデータメモリに記憶された式は必要としない場合がある。したがって、プロセッシングファクタの、音響環境に対する変化は、前記式において予め画定された関係に限定されない。   Expressions can also be avoided in determining the optimal variable processing factor for different environments. The optimally adjusted variable processing factor may be stored at a location in the fourth data memory determined by acoustic environment data provided by the acoustic analysis means. Prior to execution of the first mode, the fourth data memory location is loaded with processing factors for corresponding acoustic environment parameter values obtained using empirical observation or conventional techniques. During operation of the first mode, the optimally adjusted processing factor is stored in a location of the fourth data memory location determined by acoustic environment data supplied by the acoustic analysis means. The optimally adjusted processing data can be overwritten on pre-existing old data or combined with pre-existing old data at the same location by using mathematical and / or statistical techniques You can also. During operation in the second mode, the acoustic environment parameters and neuroacoustic parameters supplied by the acoustic analysis means can be used to indicate the fourth data memory location and are stored in the indicating location. The value is used to determine the processing factor value of the acoustic processing means. The processing factor applied to the acoustic processing means is gradually converged to the target value to prevent an undesirable acoustic effect from being caused by the factor changing rapidly or instantaneously. To do. Note that the expressions stored in the fifth data memory location and the third data memory may not be required. Therefore, the change of the processing factor to the acoustic environment is not limited to the relationship predefined in the above equation.

前記最適に調整された可変プロセッシングファクタは、前記第4のデータメモリロケーションに記憶することができ、前記ファクタの最適値を計算するに際しては、数学的及び/又は統計的手法を用いることができる。本例では、前記第3のデータメモリロケーションに記憶された式は必要としない。また、音響環境データを前記第5のデータメモリロケーション内に直接記憶する必要もなく、又はセッティングデータを指示するための音響環境データを前記第4のデータメモリロケーション内に記憶する必要もない。本例においては、補聴器又は蝸牛インプラントの出力が大きくなって不快になる以前に、前記出力の最大許容レベルなどの音響環境に対して、プロセッシングファクタが変化しないので、前記プロセッシングファクタを簡易化することができる。   The optimally adjusted variable processing factor can be stored in the fourth data memory location, and mathematical and / or statistical techniques can be used in calculating the optimal value of the factor. In this example, the expression stored in the third data memory location is not required. Also, there is no need to store acoustic environment data directly in the fifth data memory location or to store acoustic environment data for indicating setting data in the fourth data memory location. In this example, before the hearing aid or cochlear implant output becomes unpleasant and uncomfortable, the processing factor does not change with respect to the acoustic environment such as the maximum allowable level of the output, so the processing factor is simplified. Can do.

ユーザは、前記人工聴覚器官を調整して、スピーチ明瞭度、リスニング快適性を最大限とすることなどのように、異なるリスニング基準に対して最適な可変プロセッシングファクタを提供するようにすることができる。また、前記調整過程において、(1)式と同様な、特定のリスニング基準と高度に関連した音響環境及び/又は神経音響パラメータを含む式を用いることができる。前記第2のモードで駆動する際、前記可変プロセッシングファクタは、前記式で用いられる係数、及び音響環境及び/又は神経音響パラメータ値によって決定された、リスニング基準の予測される加重結合に対して自動的に適合することができる。   The user can adjust the artificial auditory organ to provide an optimal variable processing factor for different listening criteria, such as maximizing speech intelligibility, listening comfort, etc. . Further, in the adjustment process, a formula similar to the formula (1) including an acoustic environment and / or a neuroacoustic parameter related to a specific listening criterion can be used. When driving in the second mode, the variable processing factor is automatically applied to the predicted weighted combination of listening criteria determined by the coefficients used in the equation and the acoustic environment and / or neuroacoustic parameter values. Can adapt.

また、前記第1のモードにおいて、前記ユーザは、前記インジケータ手段によって、前記可変プロセッシングファクタの好ましい調整を行うようにリスニング基準を指示する。また、前記聴覚人工器官は、異なるリスニング基準と関連した音響環境及び/又は神経音響パラメータの値、及び/又は受信したスピーチ及び音楽などの信号から、リスニング基準を自動的に予測するようにすることができる。   Also, in the first mode, the user instructs a listening criterion to make a preferred adjustment of the variable processing factor by the indicator means. Also, the hearing prosthesis automatically predicts the listening criteria from the acoustic environment and / or neuroacoustic parameter values associated with different listening criteria and / or signals such as received speech and music. Can do.

前記第4のデータメモリロケーション(請求項76では、第1のデータメモリロケーションとして言及している)は、異なるリスニング基準に対してセクション毎に分割され、前記最適に調整された可変プロセッシングファクタは、前記ユーザの調整の下に、前記リスニング基準によって決定されたメモリロケーション内に記憶するようにすることができる。   The fourth data memory location (referred to as the first data memory location in claim 76) is divided into sections for different listening criteria, and the optimally adjusted variable processing factor is: Under the user's adjustment, it can be stored in a memory location determined by the listening criteria.

前記第5のデータのデータメモリロケーション(請求項77では、追加のデータメモリロケーションとして言及している)は、前記第4のデータメモリロケーション中に記憶された値に相当する音響環境又は神経音響パラメータの記憶のための、異なるリスニング基準に応じ、セクション毎に分割することができる。このような構成において、前記第4及び前記第5のデータメモリロケーションの、各セクション内におけるデータは、各リスニング基準に対する、前記(1)式の類似の可変プロセッシングファクタ式の最適な係数を計算するために用いることが好ましい。第2のモードにおいて、前記ユーザはインジケータ手段を介して現在のリスニング基準を指示することができる。また、前記第2のモードにおける操作において、前記リスニング基準又は加重結合された基準は、異なるリスニング基準と関連した音響パラメータ及び/又は神経音響パラメータ、又はスピーチ、音楽などの信号の存在から予測することができる。さらに、前記リスニング基準又は前記加重結合された基準は、音響環境及び/又は神経音響パラメータを有する1以上の訓練リスニング基準式から予測することができる。この場合、各訓練リスニング基準式の最適な係数は、前記第4及び前記第5のデータメモリロケーションの相当するセクションに記憶されたデータから計算する。前記リスニング基準又は加重結合されたリスニング基準が、前記ユーザ又は前記聴覚人工器官から自動的に指示されると、最適な可変プロセッシングファクタは、各基準毎に、(1)と類似した形式の式を用いて計算することができ、前記リスニング基準に従って互いに結合させることもできる。   A data memory location of the fifth data (referred to as an additional data memory location in claim 77) is an acoustic environment or neuroacoustic parameter corresponding to a value stored in the fourth data memory location Can be divided into sections according to different listening criteria for storage. In such a configuration, the data in each section of the fourth and fifth data memory locations calculate the optimum coefficient of the similar variable processing factor equation of equation (1) for each listening criterion. It is preferable to use for this purpose. In the second mode, the user can indicate the current listening criteria via the indicator means. Also, in the operation in the second mode, the listening criterion or the weighted criterion is predicted from the presence of acoustic parameters and / or neuroacoustic parameters associated with different listening criteria, or signals such as speech and music. Can do. Further, the listening criteria or the weighted combined criteria can be predicted from one or more training listening criteria equations having acoustic environment and / or neuroacoustic parameters. In this case, the optimal coefficient for each training listening criterion is calculated from the data stored in the corresponding sections of the fourth and fifth data memory locations. When the listening criteria or weighted combined listening criteria are automatically instructed by the user or the auditory prosthesis, the optimal variable processing factor is an expression of a form similar to (1) for each criterion. And can be combined with each other according to the listening criteria.

また、前記第1のモードにおいて、前記インジケータ手段を介して前記ユーザによって指示されたリスニング基準、又は前記聴覚人工器官によって予測されたリスニング基準は、前記最適に調整された可変プロセッシングファクタが記憶された前記第4のデータメモリロケーションを指示する前記音響環境及び/又は神経音響パラメータとともに使用することができる。前記第2のモードにおいて、前記音響環境及び/又は神経音響パラメータ、並びに指示又は予測されたリスニング基準は、前記第4のデータメモリロケーションを指示し、現在の条件に対して最適な可変プロセッシングファクタを得るために使用することができる。なお、前記リスニング基準又は加重結合されたリスニング基準は、前記第4のデータメモリロケーションを指示するために、使用しないようにすることもできる。さらに、前記第1のモードにおいて、前記第4のデータメモリロケーションの各ロケーションに記憶されたプロセッシングファクタは、前記特定の音響環境に対するリスニング基準の加重結合に従って変更するようにすることができる。   In the first mode, the optimally adjusted variable processing factor is stored in a listening criterion instructed by the user via the indicator means or a listening criterion predicted by the auditory prosthesis. It can be used with the acoustic environment and / or neuroacoustic parameters indicating the fourth data memory location. In the second mode, the acoustic environment and / or neuroacoustic parameters, and the indicated or predicted listening criteria indicate the fourth data memory location, and the optimal variable processing factor for the current condition. Can be used to get. Note that the listening criteria or weighted combined listening criteria may not be used to indicate the fourth data memory location. Further, in the first mode, the processing factor stored in each location of the fourth data memory location may be changed according to a weighted combination of listening criteria for the particular acoustic environment.

上記例において、前記リスニング基準又は加重結合されたリスニング基準は、前記ユーザが、聴覚人工器官のハウジング上に設けられたスイッチ、トグルスイッチあるいは押しボタン群などのインジケータ手段を用いることによって、指示するようにすることができる。また、前記インジケータ手段は、隔離したユニット上に設けることもできる。   In the above example, the listening criteria or weighted combined listening criteria may be indicated by the user by using indicator means such as a switch, toggle switch or push button group provided on the housing of the hearing prosthesis. Can be. The indicator means can also be provided on an isolated unit.

また、本発明は、
音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力するデータ解析手段と、
複数のセッティング状態を記憶するデータメモリ手段と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力するように操作されるデータプロセッシング手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官(第2の聴覚人工器官)に関する。
The present invention also provides:
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data analysis means for receiving the microphone signal and outputting a data set representative of the acoustic environment;
Data memory means for storing a plurality of setting states;
Analyzing the stored setting state, and comprising data processing means operated to output a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The data memory means relates to an auditory prosthesis (second auditory prosthesis) that stores the setting state in the first mode.

第2の聴覚人工器官は、前記第1の聴覚人工器官と同様の構成要素を有しており、これらの構成要素については互いに同様の機能を奏し、作用効果を奏する。
前記第2の聴覚人工器官は、データメモリ手段を有し、異なる音響環境に対してユーザが決定した最適なセッティング状態を記憶するようにしている。この記録は、データプロセッシング手段を用いることにより、前記ユーザが異なる音響環境に晒された際の、スピーチプロセッサにおけるプロセッシング操作の最適な状態を予測するために使用する1以上の式の係数を計算するために用いられる。
The second auditory prosthesis has the same components as those of the first auditory prosthesis, and these components have the same functions and effects as each other.
The second hearing prosthesis has data memory means for storing the optimum setting state determined by the user for different acoustic environments. This recording uses data processing means to calculate the coefficients of one or more equations used to predict the optimal state of the processing operation in the speech processor when the user is exposed to different acoustic environments. Used for.

前記聴覚人工器官は、前記ユーザの一方の耳に対して音声信号を出力するように調整することができる。また、前記ユーザの両方の耳に対して音声信号を出力するように調整することができる。また、2つの聴覚人工器官への入力信号を、ワイヤを介してあるいはワイヤレスの状態で、音響解析手段に結合させることもできる。上述した例において、コントロール手段を各聴覚人工器官のハウジング上に位置するようにすることができる。また、前記コントロール手段は、聴覚人工器官毎に設けられた隔離ユニット上に設けることもできるし、前記聴覚人工器官に共通の各ユニット上に設けることもできる。   The hearing prosthesis can be adjusted to output an audio signal to one ear of the user. Moreover, it can adjust so that an audio | voice signal may be output with respect to both the said user's ears. Also, the input signals to the two hearing prostheses can be coupled to the acoustic analysis means via wires or wirelessly. In the example described above, the control means can be located on the housing of each hearing prosthesis. Further, the control means can be provided on an isolation unit provided for each auditory prosthesis, or can be provided on each unit common to the auditory prosthesis.

前記聴覚人工器官は、補聴器とすることができる。この場合、その出力装置はイヤホーンであって、音響プロセッシング手段からの出力信号を受信するとともに増幅して、前記ユーザの耳へ伝達する。
また、前記聴覚人工器官は、インプラント補聴器とすることができる。この場合、その出力デバイスは、中耳又は内耳に機械的に結合された振動メカニズムとすることができる。
The hearing prosthesis can be a hearing aid. In this case, the output device is an earphone that receives and amplifies the output signal from the acoustic processing means and transmits it to the user's ear.
The hearing prosthesis may be an implant hearing aid. In this case, the output device can be a vibration mechanism mechanically coupled to the middle ear or the inner ear.

さらに、前記聴覚人工器官は、蝸牛インプラントとすることができる。この場合、その出力デバイスは、前記音響プロセッシング手段からのエンコード化された刺激を受信し、電極アレイを介して前記蝸牛インプラントに伝達すべき刺激信号を出力するレシーバ/スティミュレータユニットを具えることができる。また、前記音響プロセッシング手段はスピーチプロセッサを具えることができ、このスピーチプロセッサはコーディングストラテジを利用して、前記可変プロセッシングファクタに相当するマイクロフォン信号のプロセッシングの前又は後において、前記マイクロフォンによって受信した音響からスピーチを抽出するようにすることができる。さらに、前記スピーチプロセッサは、前記音響信号及び出力チャンネル振幅レベルの音声スペクトル解析を実行するようにすることができる。 前記音響信号のスペクトルから電気的出力チャンネル振幅レベルへの変換は、先に選択した可変プロセッシングファクタに基づいた、可変プロセッシングファクタによって決定することができる。前記チャンネル振幅レベルは、前記ユーザによる先の調整及び選択に基づいたプロセッシングファクタである閾値レベル及び不快レベルを含むことができる。さらに、前記音響プロセッサは、前記出力をそれらの大きさで分類することができ、”Cochlear LTD”によって開発されたSPEAKストラテジーにおいて使用するような“スペクトルマキシマ(spectral maxima)に対して警告を発するようにすることができる。   Furthermore, the hearing prosthesis can be a cochlear implant. In this case, the output device may comprise a receiver / stimulator unit that receives the encoded stimulus from the acoustic processing means and outputs a stimulus signal to be transmitted to the cochlear implant via an electrode array. it can. The sound processing means may comprise a speech processor, which uses a coding strategy to receive the sound received by the microphone before or after processing the microphone signal corresponding to the variable processing factor. The speech can be extracted from. Furthermore, the speech processor may perform a speech spectrum analysis of the acoustic signal and output channel amplitude level. The conversion from the spectrum of the acoustic signal to the electrical output channel amplitude level can be determined by a variable processing factor based on the previously selected variable processing factor. The channel amplitude level may include a threshold level and a discomfort level that are processing factors based on previous adjustments and selections by the user. In addition, the acoustic processor can classify the output by their size and alerts the “spectral maxima” as used in the SPEAK strategy developed by “Cochlear LTD”. Can be.

前記レシーバ/スティミュレータユニットは、好ましくは前記ユーザに対してインプラント可能なハウジング内に配置する。前記レシーバ/スティミュレータユニットに対する前記ハウジングは、好ましくは乳様突起後方に位置する、耳の後ろの骨の、窪んだ箇所にインプラントする。   The receiver / stimulator unit is preferably placed in a housing that is implantable for the user. The housing for the receiver / stimulator unit is implanted in a recessed portion of the bone behind the ear, preferably located behind the mastoid process.

前記スピーチプロセッシング手段は、使用において、信号がユーザの皮膚を通じて伝達されるように、前記ユーザの身体に取り付けることが好ましい。信号は、前記プロセッシング手段から、受信手段へ伝播し、この受信手段から前記プロセッシング手段へ伝播する。前記レシーバ/スティミュレータユニットは、前記ユーザの外部に付着したトランスミッタコイルからRF信号を受信するように調整されたレシーバコイルを含むことができる。前記RF信号はFM信号を含むことができる。前記レシーバコイルは、好ましくは信号を、この信号を受信すべきトランスミッタコイルに伝送する。   The speech processing means is preferably attached to the user's body so that in use, signals are transmitted through the user's skin. The signal propagates from the processing means to the receiving means and from the receiving means to the processing means. The receiver / stimulator unit may include a receiver coil that is tuned to receive an RF signal from a transmitter coil attached to the exterior of the user. The RF signal may include an FM signal. The receiver coil preferably transmits a signal to a transmitter coil that is to receive the signal.

前記トランスミッタコイルは、その中心位置あるいは異なる位置に取り付けられた、相対的に引力を及ぼす磁石を経由して、前記レシーバコイルのインプラント位置の近傍に取り付けることが好ましい。   It is preferable that the transmitter coil is attached in the vicinity of the implant position of the receiver coil via a magnet that exerts a relatively attractive force attached at the center position or at a different position.

使用中において、前記マイクロフォンは、前記ユーザの耳翼に取り付けることが好ましいが、その他の適当な位置、例えば、前記ユーザの衣服に取り付けることもできる。前記スピーチプロセッサは、好ましくは前記マイクロフォンで受信した音響を連続した電気的刺激アルゴリズムにエンコード化する。前記エンコード化された電気的信号は、前記レシーバ/スティミュレータユニットの、トランスミッタコイル及びレシーバコイルを用い、前記レシーバ/スティミュレータユニットに伝送される。前記レシーバ/スティミュレータユニットは、前記FM信号を復調させることができ、電気的パルスを選択したスピーチコーディングストラテジーと一致したアルゴリズムによって、適当な電極部分に配分する。   In use, the microphone is preferably attached to the user's ear wing, but can also be attached to other suitable locations, such as the user's clothing. The speech processor preferably encodes the sound received by the microphone into a continuous electrical stimulation algorithm. The encoded electrical signal is transmitted to the receiver / stimulator unit using a transmitter coil and receiver coil of the receiver / stimulator unit. The receiver / stimulator unit can demodulate the FM signal and distribute the electrical pulses to the appropriate electrode portions by an algorithm consistent with the selected speech coding strategy.

前記プロセッシング手段をハウジングする外部要素は、電源をもハウジングすることが好ましい。前記電源は、1以上の再充電可能な電池を具えることができる。前記レシーバ/スティミュレータコイルは、所定のパワーを前記レシーバ/スティミュレータユニット及び電極アレイに対して経皮的な誘導に順じて供給する。
上述した例では、外部要素を含むが、前記マイクロフォン、前記スピーチプロセッサ、及び前記電源などは、インプラントすることができる。本例では、インプラントされた構成要素は、密閉されたハウジング内に含まれるか、スティミュレータユニットに対して使用されるハウジング内に含まれる。
The external element housing the processing means preferably also houses a power source. The power source can comprise one or more rechargeable batteries. The receiver / stimulator coil supplies a predetermined power to the receiver / stimulator unit and the electrode array in accordance with percutaneous guidance.
In the example described above, including external elements, the microphone, the speech processor, the power source, etc. can be implanted. In this example, the implanted component is contained within a sealed housing or contained within a housing used for the stimulator unit.

さらに、本発明は、
音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データメモリ手段内にセッティング状態を設定する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号が、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官の調整方法に関する。
Furthermore, the present invention provides
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Comprising setting a setting state in the data memory means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The data memory means relates to a method for adjusting a hearing prosthesis, characterized in that the setting state in the first mode is stored.

また、本発明は、
音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データ解析手段において前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力する工程と、
複数のセッティング状態をデータメモリ手段内に記憶する工程と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、人工聴覚器官の調整方法に関する。
The present invention also provides:
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Receiving the microphone signal in a data analysis means and outputting a data set representative of the acoustic environment;
Storing a plurality of setting states in the data memory means;
Analyzing the stored setting state, and outputting a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The data memory means relates to a method for adjusting an artificial hearing organ, characterized in that the setting state in the first mode is stored.

本発明によれば、ユーザは聴覚人工器官の通常の使用において、そのプロセッシング手段を簡易に調整することができる。また、本発明によれば、前記ユーザが前記聴覚人工器官を調整して、その動作を自動的に調整することができるようになる。このことは、以下に示すような多くの利点を有するようになる。
(1)ユーザが、補聴器及び蝸牛インプラントの双方のコントロールを最良の状態で行うことができるので、前記装置に対する前記ユーザの満足度が向上する。
(2)各ユーザが、それぞれの嗜好性及び必要性に応じて、プロセッシングパラメータを最適化することができるので、リスニング快適性、及び/又はスピーチ明瞭性、及び/又は実体的な音響品質を改善することができる。
(3)異なる、又は付加的なパラメータを有する装置が将来的に必要になった場合において、前記装置と効果的に協同する訓練アルゴリズムを生成することができる。
(4)前記聴覚人工器官に対する訓練(調整)が、ユーザの日常において実行することができるので、高価な診療費用を支払うことなく、前記聴覚人工器官の調整が可能となるとともに、前記調整を実生活の条件に合致した状態で実行することができる。その結果、前記調整を診療による理想的な状態に合致するように行うよりも、実際の使用に合致させて行うことができる。
(5)前記ユーザが何ら訓練を行うことなく、好ましいプロセッシングファクタと前記訓練に基づいて確立された音響特性との相関を自動的に用いることによって、環境中に効果的に機能する訓練アルゴリズムを生成することができる。
According to the present invention, the user can easily adjust the processing means in normal use of the hearing prosthesis. In addition, according to the present invention, the user can adjust the hearing prosthesis and automatically adjust its operation. This has many advantages as shown below.
(1) Since the user can control both the hearing aid and the cochlear implant in the best condition, the user's satisfaction with the device is improved.
(2) Each user can optimize processing parameters according to their preferences and needs, thus improving listening comfort and / or speech clarity and / or substantial sound quality can do.
(3) When a device with different or additional parameters is required in the future, a training algorithm that effectively cooperates with the device can be generated.
(4) Since the training (adjustment) for the hearing prosthesis can be performed in daily life of the user, the hearing prosthesis can be adjusted without paying expensive medical expenses, and It can be executed in a state that matches the conditions of life. As a result, the adjustment can be performed in conformity with the actual use rather than in conformity with the ideal state by medical treatment.
(5) Generate a training algorithm that works effectively in the environment by automatically using the correlation between the preferred processing factor and the acoustic characteristics established based on the training without any training by the user can do.

本発明は、人工耳に限定されるものではないが、図1に示すような公知のタイプの人工耳に使用することができる。   The present invention is not limited to an artificial ear, but can be used for a known type of artificial ear as shown in FIG.

人工耳は、2つの主要構成要素からなり、1つはスピーチプロセッサ29を含む外部要素であり、他の1つはインプラントレシーバ及びスティミュレータユニット22を含む内部要素である。前記外部要素はマイクロフォン27を含む。スピーチプロセッサ29は、この図においては、外耳11の後方に取り付けられている。なお、前記人工耳は、その他の構成とすることもできる。スピーチプロセッサ29には、トランスミッタコイル24が取り付けられ、所定の電気信号をインプラントユニット22にRFリンクを介して伝送するように構成されている。   The artificial ear is composed of two main components, one is an external element that includes a speech processor 29 and the other is an internal element that includes an implant receiver and a stimulator unit 22. The external element includes a microphone 27. The speech processor 29 is attached behind the outer ear 11 in this figure. The artificial ear may have other configurations. A transmitter coil 24 is attached to the speech processor 29 and is configured to transmit a predetermined electrical signal to the implant unit 22 via an RF link.

前記インプラント要素は、トランスミッタコイル24からのパワー及びデータを受信するためのレシーバコイル23を含む。インプラントレシーバ及びスティミュレータユニット22から蝸牛12に延在したケーブル12が設けられており、このケーブル12は電極アレイ20で終端している。したがって、受信された前記信号は、アレイ20によって基底膜8及び蝸牛12内の神経細胞に供給され、その結果、聴覚神経9を刺激することができるようになる。このような装置の駆動原理は、例えばUSP4,532,930に記載されている。   The implant element includes a receiver coil 23 for receiving power and data from the transmitter coil 24. A cable 12 is provided that extends from the implant receiver and stimulator unit 22 to the cochlea 12 and terminates in an electrode array 20. Accordingly, the received signal is supplied by the array 20 to the nerve cells in the basement membrane 8 and the cochlea 12 so that the auditory nerve 9 can be stimulated. The driving principle of such a device is described, for example, in USP 4,532,930.

図1に線図的に示すように、人工耳電極アレイ20は、伝統的に蝸牛の全ターン数の範囲内で鼓室階の最初の位置に挿入される。
本発明の聴覚人工器官の一例におけるブロックダイヤグラムを図2で30として示す。このブロックダイアグラムは、人工耳及び補聴器の双方の特性を示している。前記ダイヤグラムは、あくまでも一例であって、本発明は人工耳及び補聴器の双方の特徴を有する必要はない。
As shown diagrammatically in FIG. 1, the artificial ear electrode array 20 is traditionally inserted at the first position of the tympanic floor within the total number of turns of the cochlea.
A block diagram of an example of a hearing prosthesis of the present invention is shown as 30 in FIG. This block diagram shows the characteristics of both an artificial ear and a hearing aid. The diagram is merely an example, and the present invention need not have the characteristics of both an artificial ear and a hearing aid.

聴覚人工器官30は、マイクロフォン27を具え、このマイクロフォン27は音を受信し、受信した音に相当するマイクロフォン信号を生成する。また、聴覚人工器官30は、機器のユーザによって受信可能な形態で音響信号を生成する出力装置を具えている。図から明らかなように、前記出力装置は、聴覚人工器官30が補聴器である場合、イヤホーン31を具えることができる。聴覚人工器官30が人工耳である場合、前記出力装置は、エンコーダー/トランスミッターユニット32を具え、これによってエンコードデータ信号を外部トランスミッタコイル24に出力する。   The hearing prosthesis 30 includes a microphone 27. The microphone 27 receives sound and generates a microphone signal corresponding to the received sound. The hearing prosthesis 30 also includes an output device that generates an acoustic signal in a form that can be received by a user of the device. As is apparent from the figure, the output device can include an earphone 31 when the hearing prosthesis 30 is a hearing aid. If the hearing prosthesis 30 is an artificial ear, the output device comprises an encoder / transmitter unit 32 which outputs the encoded data signal to the external transmitter coil 24.

聴覚人工器官30は、さらに音響プロセッシングユニット33を有し、これによって、マイクロフォン27によって与えられたマイクロフォン信号を受信するように操作可能となり、イヤフォーン31又はエンコーダー/トランスミッターユニット32の操作に適したような形態で出力信号を生成することができる。   The hearing prosthesis 30 further includes an acoustic processing unit 33 that is operable to receive a microphone signal provided by the microphone 27 and is suitable for operation of the earphone 31 or the encoder / transmitter unit 32. The output signal can be generated in various forms.

音響プロセッサ33の特性及び機能は、聴覚人工器官30が人工耳であるか、補聴器であるかに依存する。補聴器の場合、音響プロセッサ33は少なくとも増幅器を含み、人工耳の場合、音響プロセッサ33は増幅器及びマイクロフォン27で受信した音響から言語行動を抽出するためのコーディングストラテジーを使用するスピーチプロセッサを含む。図示した例では、前記人工耳のスピーチプロセッサは、音響信号の音響スペクトル解析を実行することができ、チャンネル振幅レベルを出力することができる。前記音響プロセッサは、前記出力をそれらの大きさで分類することができ、”Cochlear LTD”によって開発されたSPEAKストラテジーにおいて使用するような“スペクトルマキシマ(spectral maxima)に対して警告を発することができる。但し、他のコーディングストラテジーを採用することもできる。   The characteristics and function of the acoustic processor 33 depend on whether the hearing prosthesis 30 is an artificial ear or a hearing aid. In the case of a hearing aid, the acoustic processor 33 includes at least an amplifier, and in the case of an artificial ear, the acoustic processor 33 includes a speech processor that uses a coding strategy for extracting speech behavior from the amplifier and the sound received by the microphone 27. In the illustrated example, the artificial ear speech processor can perform an acoustic spectrum analysis of the acoustic signal and output a channel amplitude level. The acoustic processor can classify the outputs by their size and can alert against a “spectral maxima” as used in the SPEAK strategy developed by “Cochlear LTD”. However, other coding strategies can be employed.

本発明において、音響プロセッサ33は、例えば増幅度などの少なくとも1つの可変プロセッシングファクタを具える。前記可変プロセッシングファクタは、第1の操作モードにおいて調整され、音響プロセッサ33の出力信号は、少なくとも1つの音響環境におけるユーザの嗜好に合致するように最適化される。例えば、増幅器の増幅特性は、聴覚人工器官のユーザによって制御することができ、特定の環境における周囲のバックグランドノイズに適合するようにすることができる。   In the present invention, the acoustic processor 33 comprises at least one variable processing factor such as an amplification factor. The variable processing factor is adjusted in the first mode of operation, and the output signal of the acoustic processor 33 is optimized to match user preferences in at least one acoustic environment. For example, the amplification characteristics of the amplifier can be controlled by the user of the hearing prosthesis and can be adapted to ambient background noise in a particular environment.

聴覚人工器官30は、さらにユーザによって選択されたセッティング状態を指示するデータを少なくとも記憶し、前記状態がセッティングされるとともにその状態が選択された時点において、音響環境の特性を示すデータセットを記憶するためのデータメモリ手段34を具える。   The hearing prosthesis 30 further stores at least data indicating the setting state selected by the user, and stores a data set indicating the characteristics of the acoustic environment when the state is set and the state is selected. Data memory means 34 are provided.

音響プロセッサ33は、第1のモードにおいて、ユーザによる調整の後に訓練係数(trainable coefficient)を再計算する。
音響プロセッサ33は、ユーザの選択に対して2以上の最適なセッティング状態を提供できるようにすることができる。これらセッティング状態の内の1つは、前記プロセッサによって自動的に計算されるものであり、他のセッティング状態は、前記セッティング状態と体系的に異なるものである。
The acoustic processor 33 recalculates a trainable coefficient after adjustment by the user in the first mode.
The acoustic processor 33 may be able to provide two or more optimal setting states for user selection. One of these setting states is automatically calculated by the processor, and the other setting states are systematically different from the setting states.

この場合、前記ユーザは、各セッティング状態において動作させた時の、特定の音響環境の、動作時における前記聴覚人工器官の動作状態を比較し、前記セッティング状態から前記特定の音響環境に対して最も適したセッティング状態を選択することが好ましい。前記ユーザによって選択されたセッティング状態は、適宜前記特定の音響環境を表すデータとともに、データメモリ手段34内に記憶される。このプロセスは繰り返し実行され、データプロセッシングユニット38がユーザの嗜好を収集し、特定のセッティング状態に対するユーザの嗜好が時間あるいは使用時において変化するか否かをモニタする。このように、ユーザは適宜最適なセッティング状態を選択あるいは決定することができる。   In this case, the user compares the operation state of the hearing prosthesis during operation in a specific acoustic environment when operated in each setting state, and the user is most likely to perform the operation from the setting state to the specific acoustic environment. It is preferable to select a suitable setting state. The setting state selected by the user is stored in the data memory means 34 together with data representing the specific acoustic environment as appropriate. This process is repeated and the data processing unit 38 collects user preferences and monitors whether the user preferences for a particular setting state change in time or use. Thus, the user can select or determine an optimal setting state as appropriate.

本例において、前記ユーザは、トグルスイッチあるいはボタン対からなるコントロール手段36を操作することによって、セッティング状態を変更することができ、図2においてスイッチ35で示されるインジケータ手段を操作することによってセッティング状態を選択することができる。スイッチ35及びコントロール手段36は、聴覚人工器官のハウジングに取り付けることができ、あるいは図示していないが、離隔して配置されたユニット上に設けることもできる。   In this example, the user can change the setting state by operating the control means 36 consisting of a toggle switch or a button pair, and the setting state by operating the indicator means indicated by the switch 35 in FIG. Can be selected. The switch 35 and the control means 36 can be attached to the housing of the hearing prosthesis, or although not shown, can be provided on a unit that is spaced apart.

音響プロセッサ33のプロセッシング操作は、ユーザによって異なる方法で操作するようにすることもできる。この場合、前記ユーザが最適なセッティング状態を選択できるようにするよりも、前記ユーザがコントロール手段36を調節して、音響プロセッサユニット33のプロセシング操作を変更するようにすることができる。ユーザがコントロール手段36を調節することによって、前記ユーザが考える、特定の音響環境に対する最適なセッティング状態を選択すると、前記ユーザは、スイッチ35を操作して、前記セッティング状態、及び適宜前記特定の音響環境を表すデータをデータメモリ手段34内に記憶させる。スイッチ35を駆動すると、それは音響プロセッサユニット33によって、所定の時刻において特定のセッティング状態が、前記特定の音響環境において前記ユーザが最適と判断したものとして取り扱われる。   The processing operation of the acoustic processor 33 can be performed in different ways depending on the user. In this case, rather than allowing the user to select an optimal setting state, the user can adjust the control means 36 to change the processing operation of the sound processor unit 33. When the user adjusts the control means 36 to select the optimum setting state for the specific acoustic environment that the user thinks, the user operates the switch 35 to select the setting state and the specific sound appropriately. Data representing the environment is stored in the data memory means 34. When the switch 35 is driven, it is handled by the acoustic processor unit 33 as if the particular setting state at the predetermined time was determined by the user to be optimal in the particular acoustic environment.

コントロール手段36は、聴覚人工器官30のハウジング上に取り付けられたロータリホイールコントロールを含む。また、スイッチ35も、聴覚人工器官30のハウジング上に取り付けることができる。なお、図示していないが、前記スイッチ及び前記コントローラは、離隔して配置されたユニット上に取り付けることもできる。   Control means 36 includes a rotary wheel control mounted on the housing of the hearing prosthesis 30. A switch 35 can also be mounted on the housing of the hearing prosthesis 30. Although not shown, the switch and the controller can be mounted on a unit that is spaced apart.

複数の音響環境に対してユーザが最適であるとして選択したセッティング状態は、適宜前記音響環境を代表するデータとともに、データメモリ手段34中に記憶される。音響プロセッサ33は、第2のモードにおいて連続的に操作され、第1のモードにおいて所定の時間だけ操作可能にしておくことができる。また、前記第1のモードにおいては、前記ユーザが、コントロール手段36を調節し、特定の音響環境に対して最適な状態と考えられるものを選択する度毎に、音響プロセッサ33を操作可能にしておくことができる。訓練時間はユーザが望む限り長く設定することができ、前記訓練が完了した際に、聴覚人工器官30は前記ユーザに対して合図を送るようにすることができる。この場合、聴覚人工器官30は、訓練時間が終了したことを示すようにすることができる。訓練時間の終了は、聴覚人工器官30によって既に評価されたセッティング状態と異なるセッティング状態を選択することができなくなった時点で終了する。   The setting state selected by the user as being optimal for a plurality of acoustic environments is appropriately stored in the data memory means 34 together with data representing the acoustic environment. The acoustic processor 33 is continuously operated in the second mode, and can be operated for a predetermined time in the first mode. In the first mode, the sound processor 33 can be operated each time the user adjusts the control means 36 and selects an item considered to be optimal for a specific acoustic environment. I can leave. The training time can be set as long as the user desires, and when the training is completed, the hearing prosthesis 30 can send a signal to the user. In this case, the hearing prosthesis 30 can indicate that the training time has ended. The end of the training time ends when it becomes impossible to select a setting state different from the setting state already evaluated by the hearing prosthesis 30.

聴覚人工器官30は、さらに音響解析モジュール37を具えることができる。音響解析モジュール37は、マイクロフォン27から入力信号を受信し、ユーザの音響環境をモニタリングする。前記音響解析モジュールは、モニタリングされた音響環境を代表する出力を提供する。   The hearing prosthesis 30 can further include an acoustic analysis module 37. The acoustic analysis module 37 receives an input signal from the microphone 27 and monitors the acoustic environment of the user. The acoustic analysis module provides an output representative of the monitored acoustic environment.

図示した例において、データメモリ手段34は、5つのデータメモリロケーションを具える。本例において、第1のデータメモリロケーション34aは、ユーザの聴力データ及び/又は聴覚人工器官30によって使用された1以上の音声に対する個々のデータを含む。第2のデータメモリロケーション34bは、聴覚人工器官30の特性データを含む。第3のデータメモリロケーション34cは、個々のユーザが異なる音響環境における、音響プロセッサユニット33の最適なプロセッシング操作を予想するために使用した1以上の式を具える。第4のデータメモリロケーション34dは、ユーザによって選択された最適な音響プロセッシングデータを記憶する。前記第4のデータメモリ手段に記憶された最適な音響プロセッシングデータに相当する音響環境は、適宜第5のデータメモリロケーション35eに記憶させることができる。   In the illustrated example, the data memory means 34 comprises five data memory locations. In this example, the first data memory location 34 a includes user hearing data and / or individual data for one or more sounds used by the hearing prosthesis 30. The second data memory location 34 b contains the characteristic data of the hearing prosthesis 30. The third data memory location 34c comprises one or more formulas used by individual users to predict the optimal processing operation of the acoustic processor unit 33 in different acoustic environments. The fourth data memory location 34d stores the optimal acoustic processing data selected by the user. The acoustic environment corresponding to the optimal acoustic processing data stored in the fourth data memory means can be appropriately stored in the fifth data memory location 35e.

図示した例において、第4のデータメモリロケーション34dは、予め画定された最大のデータ数である、400個の最適音響プロセッシングデータを記憶する。しかしながら、前記最大値は、他の値とすることもできる。図示した例では、データプロセッシングユニット38を使用する。このユニット38については以下に詳述する。ユニット38は、蓄積された総てのデータばかりを使用するものではなく、予め定められた数の、最も近時に記録されたデータをも利用する。この場合、データプロセッシングユニット38は、最適な式係数を計算する際に、最近時の256個のデータのみを利用する。メモリロケーションが一杯になると、前記メモリロケーションにおける古いデータに対して上書きを実施することによって、新たなデータを前記メモリロケーション中に記憶させるようにする。したがって、常に最も新たなデータが聴覚人工器官に記憶されるようにすることができる。他の態様においては、古いデータが上書きされないようにし、その結果、メモリロケーションが一杯になった後に、新たなデータが記憶されなくするようにすることができる。また、その他の態様においては、古いデータの価値に基づいて、前記古いデータを上書きするような規則を設けるようにすることもできる。   In the illustrated example, the fourth data memory location 34d stores 400 optimal acoustic processing data, which is a predefined maximum number of data. However, the maximum value may be another value. In the illustrated example, a data processing unit 38 is used. The unit 38 will be described in detail below. The unit 38 does not use all the accumulated data, but also uses a predetermined number of the most recently recorded data. In this case, the data processing unit 38 uses only the latest 256 pieces of data when calculating the optimum formula coefficient. When the memory location is full, new data is stored in the memory location by overwriting the old data in the memory location. Therefore, the newest data can always be stored in the hearing prosthesis. In another aspect, old data can be prevented from being overwritten so that new data is not stored after the memory location is full. In another aspect, a rule for overwriting the old data can be provided based on the value of the old data.

上述したように、聴覚人工器官は、さらにデータプロセッシングユニット38を具えることができる。データプロセッシングユニット38は、音響解析モジュール37からの出力を受信する。この出力に基づいて、データプロセッシングユニット38は、マイクロフォン27で受信した音の強さを計算することができる。図示した例では、データプロセッシングユニット38は、通常の聴力を有する人が聞くことのできる音の強さ、あるいは何らかの聴力障害を有する人が聞くことのできる音の強さを計算することができる。データプロセッシングユニット38は、マイクロフォン27で受信した他の音響指標及び心理音響的指標を計算することもできる。データプロセッシングユニット38は、第3のデータメモリロケーション34cに記憶された1以上の式に対する入力データとして音響状態の指標を用いることができる。これによって、音響解析モジュール37によって決定された音響環境において、ユーザが、音響プロセッサ33の最適な音響プロセッシング動作を評価することができるようになる。   As described above, the hearing prosthesis can further comprise a data processing unit 38. The data processing unit 38 receives the output from the acoustic analysis module 37. Based on this output, the data processing unit 38 can calculate the intensity of the sound received by the microphone 27. In the illustrated example, the data processing unit 38 can calculate the intensity of sound that a person with normal hearing can hear, or the intensity of sound that a person with some hearing impairment can hear. The data processing unit 38 can also calculate other acoustic and psychoacoustic indicators received by the microphone 27. The data processing unit 38 can use the acoustic state indicator as input data for one or more equations stored in the third data memory location 34c. This allows the user to evaluate the optimal acoustic processing operation of the acoustic processor 33 in the acoustic environment determined by the acoustic analysis module 37.

データプロセッシングユニット38は、さらに第2のデータメモリロケーション34bに記憶された聴覚人工器官特性データ、及び前記式から得られた最適な音響プロセッサデータを用い、自動的及び連続的に音響プロセッサ33の適当なセッティング状態を決定することができ、ユーザに対して、現在経験している音響環境に対する最適な出力信号を提供することができる。   The data processing unit 38 further uses the auditory prosthesis characteristic data stored in the second data memory location 34b and the optimal acoustic processor data obtained from the above equation to automatically and continuously The user can be provided with an optimal output signal for the acoustic environment currently experienced.

上述したように、音響プロセッサ33は、増幅手段及びゲインコントロール手段36を含む。データプロセッシングユニット38は、第2のモードにおいて駆動し、音響解析ユニット37の出力で代表されるように、任意の環境における最適な増幅特性を提供できるように、音響プロセッサ33の動作状態を計算する。   As described above, the acoustic processor 33 includes amplification means and gain control means 36. The data processing unit 38 is driven in the second mode and calculates the operating state of the acoustic processor 33 so that it can provide optimal amplification characteristics in any environment, as represented by the output of the acoustic analysis unit 37. .

聴覚人工器官は、第1のモードにおいて動作させることもできる。この場合、前記増幅器の動作状態は、ユーザによってコントロール手段36を調整し、現在の音響環境における増幅特性が最適となるようにすることができる。   The hearing prosthesis can also be operated in the first mode. In this case, the operating state of the amplifier can be adjusted by the user through the control means 36 so that the amplification characteristics in the current acoustic environment are optimized.

聴覚人工器官が、ユーザが以前に経験したことのない環境を含む、任意の環境下で使用される場合、前記増幅器のゲインは、予め画定した形式の式を用いることによって計算することができる。この例では、前記式は、
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav) (1)
で表すことができる。
ここで、
i=バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR
各バンドiに対しては、次に示すような訓練データが記憶されている;
音響圧力レベル、すなわちSPL, Li (dB SPL単位)、
バンドiにおける信号対ノイズ比−総てのバンドにおける平均信号対ノイズ比、
すなわち、SNRi−SNRav(dB単位)、
好ましいゲイン(dB単位)。
If the hearing prosthesis is used in any environment, including environments that the user has never experienced before, the gain of the amplifier can be calculated by using a predefined form of the equation. In this example, the equation is
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav) (1)
Can be expressed as
here,
i = number of bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR across all bands
For each band i, training data as shown below is stored;
Acoustic pressure level, ie SPL, Li (dB SPL),
Signal-to-noise ratio in band i-average signal-to-noise ratio in all bands,
That is, SNRi-SNRav (in dB),
Preferred gain (in dB).

上述した値は、実際の操作以前の所定の時間内において、マイクロフォン27で受信した信号に基づいて計算することができる。前記値は、前記操作以前の所定時間内、及び操作後の所定時間内において、マイクロフォン27で受信した信号に基づいて計算することができる。記憶されたLiは前記所定時間におけるSPLの平均値、RMSであり、記憶されたGiは、ボタンを押す以前及びユーザが前記ボタンを押した後、好ましいゲイン調整を行う以前の所定の時間内におけるゲインの平均値である。バンドiにおけるSNRは、現状、前記所定の時間内において、バンドiにおける時間の10%を越えた部分のSPLから90%を超えた部分のSPLを差し引くことによって計算している。信号の変調深さを評価することによってより正確に導出することができる。なお、より正確なSNR評価技術あるいはスピーチ/ノイズ比評価技術を用いることもできる。   The above-described values can be calculated based on signals received by the microphone 27 within a predetermined time before actual operation. The value can be calculated based on signals received by the microphone 27 within a predetermined time before the operation and within a predetermined time after the operation. The stored Li is the average value of the SPL at the predetermined time, RMS, and the stored Gi is before the button is pressed, and after the user presses the button, the predetermined gain before the preferred gain adjustment is performed. Average value of gain. The SNR in the band i is currently calculated by subtracting the SPL of the portion exceeding 90% from the SPL of the portion exceeding 10% of the time in the band i within the predetermined time. It can be derived more accurately by evaluating the modulation depth of the signal. A more accurate SNR evaluation technique or speech / noise ratio evaluation technique can also be used.

記憶された訓練データは、例えば256個まで使用し、(1)式に関連した同様の式を多数形成することができる。得られた一連の式は、線形式とすることができるが、係数bi及びciは互いに乗じることができ、この場合、前記一連の式は線形とはならないので、前記一連の式は最初に線形化しておく。ciは予め所定の値に設定しておき、max(Li, ci)は、前記ci値及び記憶されたLi値に基づいて実行することができる。Li値が大きい場合、前記括弧内の計算結果はLiとなる。次いで、最適なai、bi及びciを直接的な数値法に基づいて計算する。この場合、前記係数は、記憶したGi及び相当するLi値及び記憶されたSNRi−SNRavに基づいて得たGiに対して最小2乗法を施して得たものとすることができる。この操作は、少なくともciの異なる4つの値、例えば35,45,55及び65dB SPLに対して行う。このように最小2乗法によって得た係数は、最適なものとして選択され、信号のプロセッシングに対して用いられる。但し、biの値は、-1.0から+1.0の範囲外でなく、又は、前記操作の回数が50回以下の場合に限られる。なお、その他の方法によって訓練係数を決定することもできる。   The stored training data can be used, for example, up to 256, and a number of similar equations related to equation (1) can be formed. The resulting series of equations can be in linear form, but the coefficients bi and ci can be multiplied together, in which case the series of equations is not linear, so the series of equations is initially linear. Keep it. ci is set to a predetermined value in advance, and max (Li, ci) can be executed based on the ci value and the stored Li value. When the Li value is large, the calculation result in the parentheses is Li. The optimal ai, bi and ci are then calculated based on direct numerical methods. In this case, the coefficient may be obtained by applying the least square method to Gi obtained based on the stored Gi and the corresponding Li value and the stored SNRi-SNRav. This operation is performed for at least four different values of ci, for example, 35, 45, 55 and 65 dB SPL. Thus, the coefficient obtained by the least square method is selected as an optimum one and is used for signal processing. However, the value of bi is not outside the range of −1.0 to +1.0, or is limited to the case where the number of operations is 50 or less. The training coefficient can also be determined by other methods.

前記直接的な数値法は、上下分解・後方置換(lower-upper (LU) decomposition and back substitution)である。前記数値法は、一連の式がメモリ中にAx=bなるマトリックス状に記憶された、種々のガウス消去法である。マトリックスAは記憶された音響環境データであり、xは計算されるべき係数(すなわちai,bi及びci)を含むベクトルである。前記LU分解法は、前記マトリックスに基づいて操作され、ベクトルxについて解く。なお、その他のガウス消去法又は直接的な数値法を用いることもできる。   The direct numerical method is lower-upper (LU) decomposition and back substitution. The numerical method is various Gaussian elimination methods in which a series of expressions are stored in a memory in a matrix form of Ax = b. Matrix A is the stored acoustic environment data and x is a vector containing the coefficients to be calculated (ie ai, bi and ci). The LU decomposition method is operated on the matrix and solves for the vector x. Other Gaussian elimination methods or direct numerical methods can also be used.

例えば、上述した操作を4回行うことにより、訓練係数に関する以下の式を得ることができる。
25=ai+(bi*35)+(di*0)
20=ai+(bi*45)+(di*0)
15=ai+(bi*55)+(di*0)
10=ai+(bi*65)+(di*0)
この場合、ai=42.5, bi=-0.5, ci=35及びdi=0.0となる。
このような係数を用いると、0dBなる値に対してはエラーを与えることになる。実際の状況において、人々の増幅度に対する嗜好性は多様である場合があり、訓練データがばらつく場合がある。したがって、上述した式の等号の左側に位置するGi値は一定ではなくなり、その結果、訓練係数値も異なるようになる可能性がある。
For example, the following formula regarding the training coefficient can be obtained by performing the above-described operation four times.
25 = ai + (bi * 35) + (di * 0)
20 = ai + (bi * 45) + (di * 0)
15 = ai + (bi * 55) + (di * 0)
10 = ai + (bi * 65) + (di * 0)
In this case, ai = 42.5, bi = -0.5, ci = 35 and di = 0.0.
If such a coefficient is used, an error is given to a value of 0 dB. In actual situations, people's preference for amplification may vary, and training data may vary. Therefore, the Gi value located on the left side of the equal sign in the above formula is not constant, and as a result, the training coefficient value may be different.

信号スペクトルの高次のモーメント及びこれらモーメントの変化などの音響的あるいは心理音響的パラメータ、又はその他の統計的パラメータあるいは音響信号、あるいは前記統計的パラメータと音響信号との組み合わせ、さらには任意の係数などを組み合わせたものから構成される式からも、ゲイン又はプロセッシングファクタを計算することができる。例えば、聴覚人工器官が反応し、音響環境において変化する際の速度などのファクタを計算することができる。使用する式の選択は、本発明の範疇を逸脱しない限りにおいて、その使用環境に依存して決定することができる。   Acoustic or psychoacoustic parameters such as higher-order moments in the signal spectrum and changes in these moments, or other statistical parameters or acoustic signals, or a combination of the statistical parameters and acoustic signals, and arbitrary coefficients The gain or processing factor can also be calculated from an expression composed of a combination of. For example, factors such as the speed at which the hearing prosthesis reacts and changes in the acoustic environment can be calculated. The selection of the formula to be used can be determined depending on the usage environment without departing from the scope of the present invention.

上記具体例において、訓練係数はa,b,c及びdを含み、結果として、可変プロセシングファクタである増幅ゲインGを導出することになる。
音響プロセッサ33の1以上のプロセッシングファクタは、式(1)と類似した式を用いて自動的に導出することができ、コントロール手段36又は多重コントロール手段をユーザが使用することによって調整することができる。本例においては、コントロール手段36により、ユーザは音響プロセッサ33の1以上のパラメータを制御することができる。
(i) 出力信号のボリューム
(ii) 他の周波数と関連した特定の周波数における出力信号のゲイン、例えばミッドレンジ周波数のゲインを、ハイ又はローレンジ周波数のゲインに比較して、増幅したり減衰したりすることができる
(iii) ミッドレンジ周波数のゲインが変化しない間において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール
ユーザは、コントロール手段36のいずれのセッティング状態が、特定の音響環境に対して最適なものであるかを決定する。スイッチ35を押すことによって、各周波数バンドにおけるゲインがマイクロフォン27で受信した音響環境を代表するデータとともに記録される。これらのデータは、先のデータとともにデータプロセッシングユニット38を用いて処理され、前記式から各バンドにおける記録された訓練データから、ユーザの嗜好を最も予測できるような係数を計算することができる。データプロセッシングユニット38は、好ましい増幅特性及びこれら特性に対して好ましい音響環境にアクセスし、増幅特性と音響環境との間の一般的な関係を計算する。したがって、自動的に計算された増幅特性は、音響環境の変化に伴い、複雑かつ画定された方法で変化することができる。例えば、本例では、各周波数におけるゲインは、全体の入力レベル及びその他の周波数におけるSNRに対する前記各周波数におけるSNRに応じて変化する。
In the above specific example, the training coefficient includes a, b, c, and d, and as a result, an amplification gain G that is a variable processing factor is derived.
One or more processing factors of the acoustic processor 33 can be automatically derived using an equation similar to equation (1) and can be adjusted by the user using the control means 36 or multiple control means. . In this example, the control means 36 allows the user to control one or more parameters of the acoustic processor 33.
(i) Output signal volume
(ii) The gain of the output signal at a particular frequency relative to other frequencies, such as the midrange frequency gain, can be amplified or attenuated compared to the high or low range frequency gain.
(iii) Slope control for adjusting the low range and high range frequency gains in opposite directions while the mid range frequency gain does not change. Decide what it is. By pressing the switch 35, the gain in each frequency band is recorded together with the data representative of the acoustic environment received by the microphone 27. These data are processed using the data processing unit 38 together with the previous data, and the coefficient that can most predict the user's preference can be calculated from the training data recorded in each band from the above formula. The data processing unit 38 accesses the preferred amplification characteristics and the preferred acoustic environment for these characteristics and calculates a general relationship between the amplification characteristics and the acoustic environment. Thus, the automatically calculated amplification characteristics can change in a complex and defined manner as the acoustic environment changes. For example, in this example, the gain at each frequency varies according to the SNR at each frequency relative to the overall input level and the SNR at other frequencies.

図示したデータプロセッシングユニット38は、ユーザによって予め決められた数の選択が実行されるまで上述したゲインに関する式の、最適な係数を計算しない。図示した例では、聴覚人工器官30は、少なくともユーザによって50回の選択が実施されるまでは、最適な係数を計算しない。選択の回数が予め決まっていないような場合、前記音響プロセッサ33は、好ましくは当初の予め決定された訓練係数に基づいて得た信号を出力する。各ユーザに対する前記当初に予め決定された訓練係数は、処方された聴覚人工器官における従来の方法を用いて計算することもできるし、経験的なトライアンドエラーの操作を行うことによって決定することができる。予め設定された回数の選択が行われると、データプロセッシングユニット38は、ユーザがスイッチ35を操作してコントロール手段36が最適な状態を掲示する度毎に、直ちに訓練係数を再計算する。他の例においては、データプロセッシングユニット38が、ユーザが予め設定した回数の選択を行わない内に、訓練係数を再計算するようにすることもできる。但し、このようにして得た訓練係数は、上述した式から、ユーザの嗜好を正確に予測することができるようになるまで、及び/又はユーザが音響環境の好ましい最小レンジの範囲内において選択を行うまで、実際には適用しない。   The illustrated data processing unit 38 does not calculate the optimum coefficients of the above-described equation for gain until a predetermined number of selections are performed by the user. In the illustrated example, the hearing prosthesis 30 does not calculate the optimal coefficient until at least 50 selections are performed by the user. If the number of selections is not predetermined, the acoustic processor 33 preferably outputs a signal obtained based on an initially predetermined training factor. The initially predetermined training factor for each user can be calculated using conventional methods in prescribed auditory prostheses or can be determined by performing empirical trial and error operations. it can. When the preset number of times is selected, the data processing unit 38 immediately recalculates the training coefficient every time the user operates the switch 35 and the control means 36 posts the optimum state. In another example, the data processing unit 38 may recalculate the training coefficient before making a user-preset number of selections. However, the training coefficient obtained in this way is selected from the above formula until the user's preference can be accurately predicted and / or within the preferable minimum range of the acoustic environment. It doesn't really apply until you do it.

その他の例として、データプロセッシングユニット38は、データメモリロケーション34c内に記憶された式を使用することなく、異なる環境に対する最適な可変プロセッシングファクタを決定することができる。最適に調整された可変プロセッシングファクタは、第4のデータメモリロケーション34dにおいて、音響解析手段37によって供給された、相当する音響環境データによって決定されたロケーションに記憶される。第1のモードの実行に先立って、第4のデータメモリロケーション34dは、経験的観察あるいは慣用の手法を用いて得られた、相当する音響環境パラメータ値に対するプロセッシングファクタとともにロードされる。前記第1のモードの動作中、前記最適に調整されたプロセッシングファクタは、第4のデータメモリロケーション34dにおいて、音響解析手段37によって供給された音響環境データによって決定されたロケーションに記憶される。例えば、第4のデータメモリロケーション34dは、多次元(すなわちN次元)の参照テーブルあるいはマトリックスを記憶する。各ディメンションは、異なる音響環境又は神経音響パラメータであって、これらのパラメータ値は、テーブル、マトリックスあるいは好ましいプロセッシングファクタが記憶されたメモリロケーション34dにおけるロケーションを決定する。したがって、前記マトリックスは、N個の音響環境パラメータ(又は音声などの神経音響パラメータ)で示されることになる。最適に調整されたプロセッシングデータは、第4のデータメモリ34dにおいて予め存在する古いデータ上に上書きすることもできるし、数学的及び/又は統計的手法を用いることによって、同じロケーションの、予め存在する古いデータと結合させることもできる。第2のモードにおける動作中において、音響解析手段37によって供給された音響環境パラメータ及び神経音響パラメータは、前記テーブル、前記マトリックス、又は第4のデータメモリロケーション34dのロケーションを指示するために使用する。指示ロケーションに記憶された値は、第2のプロセッシング手段33のためのプロセッシングファクタの値を決定するために使用する。音響プロセシング手段33に適用されたプロセッシングファクタは、徐々に目的とする前記値に収束させ、前記ファクタが急速に変化したり、瞬時に変化したりすることによって、好ましくない音響効果が生じるのを防止する。予め所定のプロセッシングファクタを含むメモリロケーションにおいて、プロセッシングファクタの、目的とする前記値を調整する操作は、メモリロケーション34dにおいて、現在の環境に近接した環境に対する、前記ユーザの調整嗜好を表すことができる。本例においては、第5のデータメモリロケーション34e及び第3のデータメモリ34cに記憶された式は必要とされない。また、プロセッシングファクタの、音響解析手段37によって供給された音響パラメータ、あるいはデータプロセッシングユニット38によって計算された神経音響パラメータに対する変化は、第3のデータメモリロケーション34cに記憶された式中において予め画定された関係によって制限されるものではない。   As another example, the data processing unit 38 can determine the optimal variable processing factor for different environments without using the equations stored in the data memory location 34c. The optimally adjusted variable processing factor is stored in a location determined by the corresponding acoustic environment data supplied by the acoustic analysis means 37 in the fourth data memory location 34d. Prior to the execution of the first mode, the fourth data memory location 34d is loaded with processing factors for the corresponding acoustic environment parameter values obtained using empirical observation or conventional techniques. During operation of the first mode, the optimally adjusted processing factor is stored in a location determined by the acoustic environment data supplied by the acoustic analysis means 37 in a fourth data memory location 34d. For example, the fourth data memory location 34d stores a multi-dimensional (ie, N-dimensional) lookup table or matrix. Each dimension is a different acoustic environment or neuroacoustic parameter, and these parameter values determine a location in memory location 34d where a table, matrix or preferred processing factor is stored. Therefore, the matrix is represented by N acoustic environment parameters (or neuroacoustic parameters such as speech). The optimally adjusted processing data can be overwritten on the pre-existing old data in the fourth data memory 34d, or pre-existing at the same location by using mathematical and / or statistical techniques. It can also be combined with old data. During operation in the second mode, the acoustic environment parameters and neuroacoustic parameters supplied by the acoustic analysis means 37 are used to indicate the location of the table, the matrix, or the fourth data memory location 34d. The value stored at the indicated location is used to determine the value of the processing factor for the second processing means 33. The processing factor applied to the acoustic processing means 33 is gradually converged to the target value to prevent an undesirable acoustic effect from being caused by the factor changing rapidly or instantaneously. To do. The operation of adjusting the desired value of the processing factor at a memory location that includes a pre-determined processing factor may represent the user's adjustment preference for an environment close to the current environment at the memory location 34d. . In this example, the expressions stored in the fifth data memory location 34e and the third data memory 34c are not required. Also, the change in processing factor to the acoustic parameters supplied by the acoustic analysis means 37 or to the neuroacoustic parameters calculated by the data processing unit 38 is predefined in the formula stored in the third data memory location 34c. It is not limited by the relationship.

聴覚人工器官は、ユーザの一方の耳に音響信号を出力するようにすることができ、両方の耳に前記音響信号を出力するようにすることができる。
また、聴覚人工器官は、頭部の一方の側に取り付けられたマイクロフォンからのマイクロフォン信号を受信し、一方あるいは両方の耳に信号を出力するようにすることもできる。
図3は、データプロセッシングユニット38の動作を行うための論理を示すフローチャートである。
The hearing prosthesis may be configured to output an acoustic signal to one ear of the user and may output the acoustic signal to both ears.
The hearing prosthesis can also receive a microphone signal from a microphone attached to one side of the head and output the signal to one or both ears.
FIG. 3 is a flowchart showing the logic for operating the data processing unit 38.

聴覚人工器官30がオンとなり、パワーが音響プロセッサ33及びデータプロセッシングユニット38を含む、器官30の構成要素に供給されることによって、ユニット38の動作が開始される。そして、ユーザが聴覚人工器官30のオフする、あるいは電源のバッテリが切れた時点でユニット38の動作は終了する。なお、特に図示していないが、他の終了態様を設定することもできる。例えば、ユーザの選択回数が所定の数に到達した場合、あるいはユーザが所定の時間の経過後、聴覚人工器官30に対する訓練を終了した場合、あるいはユーザがコントロール手段36を調整することによって、聴覚人工器官30に対する訓練が十分に実行された場合などに、ユニット38の動作終了を設定することができる。また、ユーザが異なる音響環境の範囲で聴覚人工器官30のパフォーマンスに満足した場合に、オーディオロジスト又は第3の機関が、聴覚人工器官30の取り扱いを終了させるようにすることができる。しかしながら、ユーザが任意に聴覚人工器官を扱うことができ、ユーザが新たな環境に遭遇した場合、あるいはユーザの可聴不全の度合いが時間とともに、あるいはユーザの聴覚人工器官への順応性が変化した場合、再度聴覚人工器官の取り扱いに対して訓練を行う必要がない。   The hearing prosthesis 30 is turned on and power is supplied to the components of the organ 30, including the acoustic processor 33 and the data processing unit 38, thereby starting the operation of the unit 38. Then, the operation of the unit 38 ends when the user turns off the hearing prosthesis 30 or the battery of the power source is exhausted. Although not particularly illustrated, other end modes can be set. For example, when the user's selection count reaches a predetermined number, or when the user finishes training the auditory prosthesis 30 after a predetermined period of time, or the user adjusts the control means 36, the auditory artificial The end of the operation of the unit 38 can be set when the training for the organ 30 is sufficiently performed. Further, when the user is satisfied with the performance of the hearing prosthesis 30 in a range of different acoustic environments, the audiologist or the third engine can end the handling of the hearing prosthesis 30. However, if the user can handle the auditory prosthesis arbitrarily and the user encounters a new environment, or the user's degree of audible insufficiency over time, or the user's adaptability to the auditory prosthesis changes There is no need to train again on the handling of hearing prostheses.

図4は、本発明の聴覚人工器官のプロトタイプにおいて実施された初期実験の結果を示すグラフである。この実験の目的は、聴覚人工器官を取り扱うことによって、任意の入力音響に対する総ての周波数バンドにおける訓練に先立って、前記聴覚人工器官によって提供されるゲインよりも大きなゲインを生成することである。図4は、コントロール手段36(RMSコントロール調整(dB単位))を調整して、15回の選択回数を含む群の次の群において、前記聴覚人工器官に対する訓練能力の向上に伴い、望ましい出力減少が生じていることを示している。   FIG. 4 is a graph showing the results of initial experiments performed on the prototype of the hearing prosthesis of the present invention. The purpose of this experiment is to handle the hearing prosthesis to generate a gain greater than that provided by the hearing prosthesis prior to training in all frequency bands for any input sound. FIG. 4 shows a control output 36 (RMS control adjustment (dB unit)) adjusted to reduce the desired output as the training ability for the hearing prosthesis increases in the next group after the group including 15 selections. Indicates that this has occurred.

図5は、式(1)の音響パラエータを使用したマトリックスを図示したものである。
図5は、2次元メモリ空間にプロセッシングファクタを記憶した状態を示している。前記マトリックスは、2つの音響パラメータ、すなわちバンドiに対する音響圧力レベル及び総てのバンドに対するバンドiのSNRの値によって示されている。なお、本発明では、当然に2次元以上のマトリックスを用いることもできる。メモリロケーションにおける数値はゲイン値を示している。ゲイン値は可変プロセッシングファクタである。太字のイタリック体で示された文字以外は、予め記憶された値を示しており、前記イタリック体の文字は、ユーザの訓練に基づいて新たにセッティングされ、記憶された値である。
FIG. 5 illustrates a matrix using the acoustic parameters of equation (1).
FIG. 5 shows a state where the processing factor is stored in the two-dimensional memory space. The matrix is shown by two acoustic parameters: the acoustic pressure level for band i and the value of SNR for band i for all bands. In the present invention, it is naturally possible to use a two-dimensional or higher matrix. The numerical value at the memory location indicates the gain value. The gain value is a variable processing factor. Other than the characters shown in bold italics, the values stored in advance are shown, and the italic characters are newly set and stored based on user training.

以上、本発明を上述した具体例に基づいて説明したが、本発明の範疇を逸脱しない限りにおいて、あらゆる変更や変形が可能である。上述した具体例はあくまで例示であって、本発明を限定するものではない。   While the present invention has been described based on the specific examples described above, various changes and modifications can be made without departing from the scope of the present invention. The specific examples described above are merely examples, and do not limit the present invention.

従来の蝸牛インプラントシステムを示す図である。It is a figure which shows the conventional cochlear implant system. 本発明の聴覚人工器官の一例におけるブロックダイアグラムである。2 is a block diagram of an example of a hearing prosthesis of the present invention. 図2に示す聴覚人工器官の、特定の操作モードのフローチャートである。3 is a flowchart of a specific operation mode of the hearing prosthesis shown in FIG. 本発明の聴覚人工器官のプロトタイプにおいて実行された実験結果を示すグラフである。6 is a graph showing results of experiments performed on a prototype of the hearing prosthesis of the present invention. 2次元メモリスペースにおける、プロセッシングファクタの記憶状態を示す図である。It is a figure which shows the memory | storage state of the processing factor in a two-dimensional memory space.

Claims (114)

音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
セッティング状態を記憶するデータメモリ手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官。
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data memory means for storing the setting state;
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The hearing aid prosthesis, wherein the data memory means stores the setting state in the first mode.
前記第1のモードで動作する際に、前記音響プロセッシング手段は、前記ユーザによって選択された前記少なくとも1つの可変プロセッシングファクタの、2以上の最適なセッティング状態を提供することを特徴とする、請求項1に記載の聴覚人工器官。   The sound processing means provides two or more optimal setting states of the at least one variable processing factor selected by the user when operating in the first mode. The hearing prosthesis according to 1. 前記ユーザによる前記選択動作は複数回実施され、前記音響プロセッシング手段が、前記少なくとも1つの可変プロセッシングファクタで規定される所定のセッティング状態に対する前記ユーザの嗜好が、時間又は使用経過に応じて変化するか否かをモニタリングすることを特徴とする、請求項2に記載の聴覚人工器官。   Whether the selection operation by the user is performed a plurality of times, and whether the user's preference for the predetermined setting state defined by the at least one variable processing factor is changed according to time or usage history. The hearing prosthesis according to claim 2, characterized in that it is monitored whether or not. 各セッティング状態に対する前記ユーザの選択回数が前記音響プロセッシング手段によってモニタリングされ、前記聴覚人工器官が、前記少なくとも1つの可変プロセッシングファクタで規定される最適なセッティング状態を選択できるようにしたことを特徴とする、請求項3に記載の聴覚人工器官。   The number of user selections for each setting state is monitored by the acoustic processing means so that the auditory prosthesis can select an optimal setting state defined by the at least one variable processing factor. The hearing prosthesis according to claim 3. 前記ユーザはコントロール手段を操作し、前記少なくとも1つの可変プロセッシングファクタを変更し、前記音響プロセッシング手段のプロセッシング操作を変更することを特徴とする、請求項4に記載の聴覚人工器官。   5. The hearing prosthesis according to claim 4, wherein the user operates a control means, changes the at least one variable processing factor, and changes a processing operation of the acoustic processing means. 前記コントロール手段を調整して、現在の音響環境に対して最適と考える状態をセッティングしたユーザが、インジケータ手段を操作して前記データメモリ手段内に前記セッティング状態を記憶するようにしたことを特徴とする、請求項5に記載の聴覚人工器官。   A user who adjusts the control means and sets a state considered to be optimal for the current acoustic environment operates the indicator means to store the setting state in the data memory means. The hearing prosthesis of claim 5. 前記インジケータ手段を操作することにより、前記音響プロセッシング手段に対して、前記ユーザが選択した前記コントロール手段のセッティング状態が、前記ユーザに対し、前記現在の音響環境に対する最適なセッティング状態となるように指示を出すようにしたことを特徴とする、請求項6に記載の聴覚人工器官。   By operating the indicator means, the sound processing means is instructed so that the setting state of the control means selected by the user is the optimum setting state for the current acoustic environment. The hearing prosthesis according to claim 6, characterized in that: 前記選択したセッティング状態は、前記インジケータ手段の動作に基づいて、前記メモリ手段に記憶するようにしたことを特徴とする、請求項7に記載の聴覚人工器官。   8. The hearing prosthesis according to claim 7, wherein the selected setting state is stored in the memory means based on an operation of the indicator means. 前記データメモリ手段は、少なくとも1つの音響環境特性を代表するデータセットを記憶することを特徴とする、請求項1〜8のいずれか一に記載の聴覚人工器官。   9. The hearing prosthesis according to claim 1, wherein the data memory means stores a data set representative of at least one acoustic environment characteristic. 前記少なくとも1つの音響環境特性を代表する前記データセットは、前記ユーザによって前記インジケータ手段を駆動させることにより、前記データメモリ手段内に記憶するようにしたことを特徴とする、請求項9に記載の聴覚人工器官。   10. The data set representative of claim 9, wherein the data set representative of the at least one acoustic environmental characteristic is stored in the data memory means by driving the indicator means by the user. Hearing prosthesis. 前記少なくとも1つの可変プロセッシングファクタは、このファクタが選択された音響環境に基づいて自動的に調整されることを特徴とする、請求項10に記載の聴覚人工器官。   11. The hearing prosthesis of claim 10, wherein the at least one variable processing factor is automatically adjusted based on the acoustic environment for which the factor was selected. 前記音響プロセッシング手段が前記第2のモードで操作される際、前記音響プロセッシング手段は、前記第1のモードで所定時間操作されることを特徴とする、請求項7〜11のいずれか一に記載の聴覚人工器官。   The sound processing means is operated in the first mode for a predetermined time when the sound processing means is operated in the second mode, according to any one of claims 7 to 11. Hearing prosthesis. 前記音響プロセッシング手段が前記第2のモードで操作される際、前記音響プロセッシング手段は、前記第1のモードにおいて、前記ユーザが前記コントロール手段を調整して、前記現在の音響環境に対して最適な状態と考えられるものを選択する度毎に、前記音響プロセッサを操作することを特徴とする、請求項7〜11のいずれか一に記載の聴覚人工器官。   When the acoustic processing means is operated in the second mode, the acoustic processing means adjusts the control means in the first mode so that the user adjusts the control means to be optimal for the current acoustic environment. The auditory prosthesis according to any one of claims 7 to 11, wherein the acoustic processor is operated each time an item considered to be a state is selected. 前記聴覚人工器官は、前記第1のモードで操作される際に、所定の時間訓練に供されることを特徴とする、請求項1〜13のいずれか一に記載の聴覚人工器官。   The auditory prosthesis according to claim 1, wherein the auditory prosthesis is subjected to training for a predetermined time when operated in the first mode. 前記聴覚人工器官は、前記訓練時間が完了した後に、前記ユーザに対して信号を発することを特徴とする、請求項14に記載の聴覚人工器官。   15. The hearing prosthesis of claim 14, wherein the hearing prosthesis emits a signal to the user after the training time is complete. 前記訓練時間は、前記ユーザが、前記聴覚人工器官によって既に得た最適なセッティング状態と実質的に異なるセッティング状態を選択しなくなった際に完了することを特徴とする、請求項15に記載の聴覚人工器官。   16. The hearing according to claim 15, wherein the training time is completed when the user stops selecting a setting state substantially different from an optimal setting state already obtained by the hearing prosthesis. Prosthesis. 前記マイクロフォンからの入力信号を受信し、前記現在の音響環境をモニタリングするための音響解析手段を具えることを特徴とする、請求項1〜16のいずれか一に記載の聴覚人工器官。   The hearing prosthesis according to any one of claims 1 to 16, further comprising acoustic analysis means for receiving an input signal from the microphone and monitoring the current acoustic environment. 前記音響環境手段は、モニタリングすべき前記音響環境を代表する出力を与えることを特徴とする、請求項17に記載の聴覚人工器官。   18. A hearing prosthesis according to claim 17, wherein the acoustic environment means provides an output representative of the acoustic environment to be monitored. 前記データメモリ手段は、1以上のデータメモリロケーションを具えることを特徴とする、請求項18に記載の聴覚人工器官。   19. A hearing prosthesis according to claim 18, wherein said data memory means comprises one or more data memory locations. 前記データメモリ手段は5つのデータメモリロケーションを有し、第1のデータメモリロケーションは、前記ユーザの聴力データ及び/又は前記聴覚人工器官によって使用された1以上の音響モデルに対する個々のデータを記憶することを特徴とする、請求項19に記載の聴覚人工器官。   The data memory means has five data memory locations, the first data memory location storing the user's hearing data and / or individual data for one or more acoustic models used by the hearing prosthesis. 20. A hearing prosthesis according to claim 19, characterized in that 第2のデータメモリロケーションは、前記聴覚人工器官の特性データを記憶することを特徴とする、請求項20に記載の聴覚人工器官。   21. A hearing prosthesis according to claim 20, wherein a second data memory location stores characteristic data of the hearing prosthesis. 第3のデータメモリロケーションは1以上の式を記憶し、異なる音響条件下において、前記ユーザに対し、前記音響プロセッシング手段の最適なプロセッシング操作を予測することを特徴とする、請求項20又は21に記載の聴覚人工器官。   The third data memory location stores one or more expressions and predicts an optimal processing operation of the acoustic processing means for the user under different acoustic conditions, according to claim 20 or 21. The hearing prosthesis described. 第4のデータメモリロケーションは、前記ユーザによって選択された最適な音響プロセッシングデータを記憶することを特徴とする、請求項20〜22のいずれか一に記載の聴覚人工器官。   23. A hearing prosthesis according to any one of claims 20-22, characterized in that a fourth data memory location stores optimal acoustic processing data selected by the user. 前記第4のデータメモリロケーションに記憶されたデータは、前記音響環境手段によって提供された音響環境データにしたがって指示されることを特徴とする、請求項23に記載の聴覚人工器官。   24. An auditory prosthesis according to claim 23, characterized in that the data stored in the fourth data memory location is indicated according to acoustic environment data provided by the acoustic environment means. 第5のデータメモリロケーションは、前記第4のデータメモリロケーションに記憶された前記最適な音響プロセッシングデータに相当する音響環境データを記憶することを特徴とする、請求項20〜24のいずれか一に記載の聴覚人工器官。   25. The fifth data memory location stores acoustic environment data corresponding to the optimal acoustic processing data stored in the fourth data memory location. The hearing prosthesis described. 前記第4のデータメモリロケーションは、前記ユーザによって選択された最適音響プロセッシングデータの予め画定された最大数を記憶することを特徴とする、請求項23に記載の聴覚人工器官。   24. The hearing prosthesis of claim 23, wherein the fourth data memory location stores a predefined maximum number of optimal acoustic processing data selected by the user. 前記音響解析手段の前記出力を受信するためのデータプロセッシング手段を具えることを特徴とする、請求項26に記載の聴覚人工器官。   27. A hearing prosthesis according to claim 26, comprising data processing means for receiving the output of the acoustic analysis means. 前記音響解析手段からの前記出力に基づき、前記データプロセッシング手段が前記マイクロフォンで収集した音響の大きさを計算するようにしたことを特徴とする、請求項27に記載の聴覚人工器官。   28. The hearing prosthesis according to claim 27, wherein the data processing means calculates the magnitude of the sound collected by the microphone based on the output from the acoustic analysis means. 前記音響解析手段からの出力に基づいて、前記データプロセッシング手段は、前記マクロフォンで受信した音響の大きさなどの音響及び/又は神経音響指標を計算することを特徴とする、請求項27又は28に記載の聴覚人工器官。   29. The data processing means calculates an acoustic and / or neuroacoustic index, such as the magnitude of the sound received by the macrophone, based on the output from the acoustic analysis means. The hearing prosthesis described in 1. 前記データプロセッシング手段は、前記音響を通常の聴力を有する人物及び/又は聴力が損なわれた人物が聞いた際の、大きさを計算することを特徴とする、請求項29に記載の聴覚人工器官。   30. The hearing prosthesis according to claim 29, wherein the data processing means calculates a size of the sound when the person having normal hearing and / or a person with impaired hearing hears the sound. . 前記データプロセッシング手段は、前記音響及び/又は前記神経音響指標を前記第3のデータメモリロケーション中に記憶された前記1以上の式中に入力し、前記音響解析手段によって代表される前記音響環境において、前記ユーザに対する前記音響プロセッシング手段の最適なプロセッシング操作を予測することを特徴とする、請求項30に記載の聴覚人工器官。   The data processing means inputs the acoustic and / or the neuroacoustic index into the one or more formulas stored in the third data memory location, and in the acoustic environment represented by the acoustic analysis means. 31. A hearing prosthesis according to claim 30, characterized by predicting an optimal processing operation of the acoustic processing means for the user. 前記データプロセッシング手段は、前記少なくとも1つの可変プロセッシングファクタの最適値を決定する際に、前記第4のデータメモリロケーション中に、最も近時に記憶されたデータセットの予め定められた数を使用することを特徴とする、請求項31に記載の聴覚人工器官。   The data processing means uses a predetermined number of the most recently stored data sets in the fourth data memory location in determining the optimal value of the at least one variable processing factor. 32. A hearing prosthesis according to claim 31, characterized in that 前記第4のデータメモリロケーション中に記憶された最も近時のデータセットは、前記第4のデータメモリロケーション中に記憶された最も古いデータデットと置換されることを特徴とする、請求項32に記載の聴覚人工器官。   33. The most recent data set stored in the fourth data memory location is replaced with the oldest data debt stored in the fourth data memory location. The hearing prosthesis described. 前記第4のデータメモリロケーションが完全に充填された際に、前記聴覚人工器官は追加のデータセットを記憶しないことを特徴とする、請求項33に記載の聴覚人工器官。   34. The hearing prosthesis of claim 33, wherein the hearing prosthesis does not store an additional data set when the fourth data memory location is completely filled. 古いデータセットは、相当する音響環境の最も新しいデータデットによって選択的に上書きされることを特徴とする、請求項33に記載の聴覚人工器官。   34. A hearing prosthesis according to claim 33, characterized in that the old data set is selectively overwritten by the newest data set of the corresponding acoustic environment. 前記データプロセッシング手段は、前記第2のデータメモリロケーション中に記憶された聴力人工器官特性データ及び前記第3のデータメモリロケーション中に記憶された1以上の式によって生成された最適な音響プロセッサデータを用い、前記音響プロセッシング手段の適切な状態を自動的及び連続的に決定し、前記ユーザが経験する前記現在の音響環境において、前記ユーザに対し最適な出力信号を提供することを特徴とする、請求項27〜35のいずれか一に記載の聴覚人工器官。   The data processing means includes hearing prosthesis characteristic data stored in the second data memory location and optimal acoustic processor data generated by one or more equations stored in the third data memory location. And automatically and continuously determining an appropriate state of the acoustic processing means to provide an optimal output signal for the user in the current acoustic environment experienced by the user. 36. The hearing prosthesis according to any one of Items 27 to 35. 前記音響プロセッシング手段は、増幅手段及びゲインコントロール手段を含むことを特徴とする、請求項1〜36のいずれか一に記載の聴覚人工器官。   The auditory prosthesis according to any one of claims 1 to 36, wherein the acoustic processing means includes an amplification means and a gain control means. 前記増幅手段は調整可能であって、前記第1のモードにおいて、前記ユーザが特定の環境における前記増幅手段の各周波数におけるゲインを最適化することを特徴とする、請求項37に記載の聴覚人工器官。   38. The auditory prosthesis according to claim 37, wherein the amplifying means is adjustable and, in the first mode, the user optimizes a gain at each frequency of the amplifying means in a specific environment. organ. 前記ゲインが最適化された際、前記聴覚人工器官は前記第2のモードで駆動し、前記増幅手段の増幅特性を自動的に調整して最適なレベルに設定することを特徴とする、請求項38に記載の聴覚人工器官。   The auditory prosthesis is driven in the second mode when the gain is optimized, and the amplification characteristic of the amplification means is automatically adjusted to an optimum level. 38. A hearing prosthesis according to 38. 前記データプロセッシングユニットは前記第2のモードで駆動させ、前記音響解析手段の出力によって表される任意の環境の最適な音響増幅特性を可能な限り提供できるように前記音響プロセッサ手段の動作を計算することを特徴とする、請求項39に記載の聴覚人工器官。   The data processing unit is driven in the second mode and calculates the operation of the acoustic processor means so as to provide as much as possible the optimum acoustic amplification characteristics of any environment represented by the output of the acoustic analysis means. 40. A hearing prosthesis as claimed in claim 39. 前記聴覚人工器官は、第1のモードにおいても同時に駆動させ、前記ユーザが前記コントロール手段を変化させることによって、前記増幅手段の動作を最適な状態にし、前記ユーザが現在の音響環境における増幅特性を最適化できるようにしたことを特徴とする、請求項40に記載の聴覚人工器官。   The hearing prosthesis is simultaneously driven in the first mode, and the user changes the control means to optimize the operation of the amplification means, and the user has the amplification characteristics in the current acoustic environment. 41. A hearing prosthesis according to claim 40, characterized in that it can be optimized. 前記少なくとも1つの可変プロセッシングファクタは、前記増幅ゲインを含むことを特徴とする、請求項37〜41のいずれか一に記載の聴覚人工器官。   44. A hearing prosthesis according to any one of claims 37 to 41, wherein the at least one variable processing factor includes the amplification gain. 各周波数における前記増幅手段の前記ゲインが、次式で計算されるような環境下で使用されることを特徴とする、請求項37〜42に記載の聴覚人工器官
Gi=ai+bi*max(Li, ci)+di*(SNRi-SNRav)
ここで、
i=周波数バンド数
G=バンドiに対するゲイン
ai=バンドiに対する訓練係数
bi=バンドiに対する訓練係数
ci=バンドiに対する訓練係数
di=バンドiに対する訓練係数
Li=バンドiでの、マイクロフォンにおける音響圧力レベル
SNRi=バンドiでの、信号対ノイズ比(SNR)
SNRav=総てのバンドにおける平均SNR。
43. A hearing prosthesis according to claim 37, characterized in that the gain of the amplification means at each frequency is used in an environment as calculated by the following equation:
Gi = ai + bi * max (Li, ci) + di * (SNRi-SNRav)
here,
i = number of frequency bands
G = Gain for band i
ai = training coefficient for band i
bi = Training coefficient for band i
ci = Training coefficient for band i
di = Training coefficient for band i
Li = Sound pressure level at microphone in band i
SNRi = Signal-to-noise ratio (SNR) in band i
SNRav = Average SNR in all bands.
前記第1のモードで駆動する際、前記音響プロセッシング手段は、前記訓練係数a、b、c及びdを、前記ユーザによる調整の後計算することを特徴とする、請求項43に記載の聴覚人工器官。   44. The auditory prosthesis according to claim 43, wherein when driving in the first mode, the acoustic processing means calculates the training coefficients a, b, c and d after adjustment by the user. organ. 前記ユーザは、多重コントロール手段を操作して、多重可変プロセッシングファクタを調整することを特徴とする、請求項44に記載の聴覚人工器官。   45. The hearing prosthesis according to claim 44, wherein the user operates multiple control means to adjust multiple variable processing factors. 前記ユーザは、前記コントロール手段又は前記多重コントロール手段を用い、前記音響プロセッサ手段の次に示す操作の1以上を操作することを特徴とする、請求項45に記載の聴覚人工器官
(i) 前記出力信号のボリューム;
(ii) 特定周波数の、他の周波数に対する出力信号ゲイン;
(iii) ミッドレンジゲインが不変の状態において、ローレンジ及びハイレンジ周波数のゲインを反対方向に調整するスロープコントロール。
The auditory prosthesis according to claim 45, wherein the user operates one or more of the following operations of the acoustic processor means using the control means or the multiple control means.
(i) the volume of the output signal;
(ii) Output signal gain of a specific frequency relative to other frequencies;
(iii) Slope control that adjusts the gain of the low range and high range frequency in the opposite direction when the midrange gain remains unchanged.
前記音響プロセッサ手段の操作において、前記ユーザは前記インジケータ手段を駆動させることによって経験する音響環境に対する各可変プロセッシングファクタに最適な状態を選択することを特徴とする、請求項46に記載の聴覚人工器官。   The hearing prosthesis according to claim 46, characterized in that, in operation of the acoustic processor means, the user selects an optimal state for each variable processing factor for the acoustic environment experienced by driving the indicator means. . 前記音響プロセッサ手段の多重操作において、前記ユーザは前記インジケータ手段を駆動させることによって経験する音響環境に対する各可変プロセッシングファクタに最適な状態を選択することを特徴とする、請求項46に記載の聴覚人工器官。   The auditory prosthesis according to claim 46, characterized in that, in multiple operations of the acoustic processor means, the user selects an optimal state for each variable processing factor for the acoustic environment experienced by driving the indicator means. organ. 前記インジケータ手段の動作において、各周波数バンドにおけるゲインを記録することを特徴とする、請求項47又は48に記載の聴覚人工器官。   49. A hearing prosthesis according to claim 47 or 48, characterized in that the gain in each frequency band is recorded in the operation of the indicator means. 各周波数バンドにおいて記録されたゲインは、請求項43に記載された式の係数を計算するために使用することを特徴とする、請求項49に記載の聴覚人工器官。   50. A hearing prosthesis according to claim 49, characterized in that the gain recorded in each frequency band is used to calculate the coefficients of the equation described in claim 43. 前記マイクロフォンで受信した前記音響環境を代表するデータセットを記録することを特徴とする、請求項50の記載の聴覚人工器官。   51. A hearing prosthesis according to claim 50, wherein a data set representative of the acoustic environment received by the microphone is recorded. 前記音響環境を代表する前記データセットは、前記データプロセッシング手段によって前のデータセットとともに使用され、各周波数バンドにおいて記憶された訓練データと最も良く合致した前記係数を計算し、前記記憶された訓練データは、記憶された好ましい可変プロセッシングファクタ及び相当する環境データを含むことを特徴とする、請求項51に記載の聴覚人工器官。   The data set representative of the acoustic environment is used with the previous data set by the data processing means to calculate the coefficients that best match the training data stored in each frequency band, and to store the stored training data 52. The hearing prosthesis according to claim 51, characterized in that it includes a stored preferred variable processing factor and corresponding environmental data. 前記第1のモードで駆動する際に、予め画定された所定数の選択が前記ユーザによって実行されるまで、前記データプロセッシング手段は前記式における最適な係数を計算しないことを特徴とする、請求項44〜52のいずれか一に記載の聴覚人工器官。   The data processing means does not calculate an optimal coefficient in the equation until a predetermined number of predefined selections are performed by the user when driving in the first mode. 54. The hearing prosthesis according to any one of 44 to 52. 前記予め画定された選択の数が50回であることを特徴とする、請求項53に記載の聴覚人工器官。   54. A hearing prosthesis according to claim 53, characterized in that the predefined number of selections is 50 times. 前記予め画定された所定数の選択が完了しない場合、前記データプロセッシング手段は、前記第2のモードにおいて、予め画定された係数及び/又は可変プロセッシングファクタに基づいて、前記現在の音響環境に適した出力を自動的に計算することを特徴とする、請求項53又は54に記載の聴覚人工器官。   If the predefined predetermined number of selections is not complete, the data processing means is suitable for the current acoustic environment based on predefined coefficients and / or variable processing factors in the second mode. 55. A hearing prosthesis according to claim 53 or 54, characterized in that the output is calculated automatically. 前記予め画定された所定数の選択が完了しない場合、前記データプロセッシング手段は、初期の、予め画定された訓練係数の値に基づいて計算された信号を出力することを特徴とする、請求項55に記載の聴覚人工器官。   56. If the predetermined number of predefined selections are not complete, the data processing means outputs a signal calculated based on an initial, predefined training factor value. The hearing prosthesis described in 1. 前記当初に予め決定された訓練係数は、処方された聴覚人工器官を従来の方法に基づいて駆動する、又は経験的なトライアンドエラーの操作を行うことによって、各ユーザに対して決定することを特徴とする、請求項56に記載の聴覚人工器官。   The initially predetermined training factor is determined for each user by driving a prescribed hearing prosthesis based on conventional methods or by performing empirical trial and error operations. 57. A hearing prosthesis according to claim 56, characterized. 前記予め画定された所定数の選択が完了した後、前記データプロセッシング手段は、前記第1のモードにおいて、ユーザの以前の嗜好に基づき、前記式における最適な係数を計算するとともに、これと連続して、前記第2のモードにおいて、前記式を用いて前記可変プロセッシングファクタを計算することを特徴とする、請求項53〜55のいずれか一に記載の聴覚人工器官。   After the pre-determined predetermined number of selections are completed, the data processing means calculates an optimal coefficient in the formula based on the user's previous preferences in the first mode, and continuously. The auditory prosthesis according to any one of claims 53 to 55, wherein, in the second mode, the variable processing factor is calculated using the equation. 前記データプロセシング手段は、前記式における前記係数が計算される以前の、予め定められた所定数の選択が完了する動作を待たず、前記第2のモードにおいて、前記ユーザに対して好ましい可変プロセッシングファクタが前記式及び前記計算された係数から予測されるまで、前記計算された係数を使用しないことを特徴とする、請求項58に記載の聴覚人工器官。   The data processing means does not wait for an operation to complete a predetermined number of selections before the coefficients in the formula are calculated, and in the second mode, a variable processing factor preferable for the user. 59. A hearing prosthesis according to claim 58, wherein the calculated coefficient is not used until is predicted from the equation and the calculated coefficient. 前記第1のモードで駆動する際に、任意の調整された可変プロセッシングファクタを、前記音響解析手段によって提供された相当する音響環境データによって決定された前記1以上のロケーションに記憶することを特徴とする、請求項19に記載の聴覚人工器官。   When driving in the first mode, any adjusted variable processing factor is stored in the one or more locations determined by corresponding acoustic environment data provided by the acoustic analysis means. The hearing prosthesis of claim 19. 前記調整された可変プロセッシングファクタは、前記1以上のロケーションにおいて、多次元の参照テーブル内に記憶され、前記参照テーブルにおいては、各ディメンションが異なる音響環境又は神経音響パラメータであることを特徴とする、請求項60に記載の聴覚人工器官。   The adjusted variable processing factor is stored in a multi-dimensional lookup table at the one or more locations, wherein each dimension is a different acoustic environment or neuroacoustic parameter, 61. A hearing prosthesis according to claim 60. 前記多次元参照テーブルは、音響環境又は神経音響パラメータから選択した少なくとも2つのパラメータによって指標されることを特徴とする、請求項61に記載の聴覚人工器官。   62. The hearing prosthesis according to claim 61, wherein the multidimensional lookup table is indexed by at least two parameters selected from acoustic environment or neuroacoustic parameters. 前記パラメータ値は、前記好ましいプロセッシングファクタが記憶された、前記参照テーブル内のロケーションを決定することを特徴とする、請求項62に記載の聴覚人工器官。   64. The hearing prosthesis according to claim 62, wherein the parameter value determines a location in the lookup table where the preferred processing factor is stored. 前記第1のモードにおいて、前記音響プロセッシング手段は、メモリロケーションの各々を、経験的観察あるいは慣用の手法を用いて得られた、相当する音響環境パラメータ値に対するプロセッシングファクタとともにロードすることによって、その動作が開始することを特徴とする、請求項63に記載の聴覚人工器官。   In the first mode, the acoustic processing means operates by loading each of the memory locations with a processing factor for the corresponding acoustic environmental parameter value obtained using empirical observation or conventional techniques. 64. A hearing prosthesis according to claim 63, characterized in that starts. 前記最適に調整された可変プロセッシングデータは、数学的及び/又は統計的手法を用い、先のデータに対して上書きされる、又は同じメモリロケーションにおける先のデータと結合されることを特徴とする、請求項64に記載の聴覚人工器官。   The optimally adjusted variable processing data is overwritten with previous data or combined with previous data in the same memory location using mathematical and / or statistical techniques. 65. A hearing prosthesis according to claim 64. 前記第2のモードにおいて、前記音響解析手段によって供給された音響環境及び神経環境パラメータは、前記メモリロケーション又は前記参照テーブルを指示するために用いられ、指標されたロケーションに記憶された値は、前記音響環境手段のための相当するプロセッシングファクタ値を設定するために用いることを特徴とする、請求項65に記載の聴覚人工器官。   In the second mode, the acoustic environment and neural environment parameters supplied by the acoustic analysis means are used to indicate the memory location or the look-up table, and the value stored at the indexed location is the 66. Auditory prosthesis according to claim 65, characterized in that it is used to set a corresponding processing factor value for the acoustic environment means. 前記音響プロセシング手段に適用されたプロセッシングファクタは、目的とする値に収束させ、前記ファクタが急速に変化したり、瞬時に変化したりすることによって、好ましくない音響効果が生じるのを防止することを特徴とする、請求項66に記載の聴覚人工器官。   The processing factor applied to the acoustic processing means converges to a target value, and prevents the undesirable acoustic effect from being generated by the factor changing rapidly or instantaneously. 68. A hearing prosthesis according to claim 66, characterized. 前記目的とする値は、前記1以上のロケーションにおいて、前記現在の環境に近接した環境に対する、前記ユーザの調整嗜好を表すように調整可能としたことを特徴とする、請求項67に記載の聴覚人工器官。   68. Auditory according to claim 67, wherein the target value is adjustable to represent the user's adjustment preferences for an environment close to the current environment at the one or more locations. Prosthesis. 最適に調整された可変プロセッシングファクタは、前記1以上のロケーションにおいて、加重平均などの数学的及び/又は統計的手法によって計算され、記憶されることを特徴とする、請求項19に記載の聴覚人工器官。   20. An auditory prosthesis according to claim 19, characterized in that an optimally adjusted variable processing factor is calculated and stored at the one or more locations by mathematical and / or statistical techniques such as a weighted average. organ. 前記人工聴覚器官は、スピーチ明瞭度、リスニング快適性を最大限とすることなどのように、異なるリスニング基準に対して最適な可変プロセッシングファクタを提供するように調整されることを特徴とする、請求項1〜19のいずれか一に記載の聴覚人工器官。   The artificial hearing organ is tuned to provide an optimal variable processing factor for different listening criteria, such as maximizing speech intelligibility, listening comfort, etc. Item 20. The hearing prosthesis according to any one of Items 1 to 19. 前記調整過程において、特定のリスニング基準と高度に関連した音響環境及び/又は神経音響パラメータを含む式を用いることを特徴とする、請求項70に記載の聴覚人工器官。   71. The auditory prosthesis of claim 70, wherein in the adjusting process, an expression including an acoustic environment and / or a neuroacoustic parameter highly related to a specific listening criterion is used. 前記第2のモードで駆動する際、前記可変プロセッシングファクタは、前記式で用いられる係数、及び音響環境及び/又は神経音響パラメータ値によって決定された、リスニング基準の予測される加重結合に対して自動的に適合することを特徴とする、請求項71に記載の聴覚人工器官。   When driving in the second mode, the variable processing factor is automatically applied to the predicted weighted combination of listening criteria determined by the coefficients used in the equation and the acoustic environment and / or neuroacoustic parameter values. 72. A hearing prosthesis according to claim 71, characterized in that 前記音響プロセッシング手段が前記第1のモードで操作される際、前記ユーザは、前記インジケータ手段によって、前記可変プロセッシングファクタの好ましい調整を行うようにリスニング基準を指示することを特徴とする、請求項1〜19のいずれか一に記載の聴覚人工器官。   2. The listening instruction according to claim 1, wherein when the sound processing means is operated in the first mode, the user instructs the listening means to make a preferable adjustment of the variable processing factor by the indicator means. The hearing prosthesis according to any one of -19. 前記音響プロセッシング手段が前記第1のモードで操作される際、前記聴覚人工器官が、前記可変プロセッシングファクタの好ましい調整を行うように、異なるリスニング基準と関連した音響環境及び/又は神経音響パラメータの値から、リスニング基準を自動的に予測することを特徴とする、請求項1〜19のいずれか一に記載の聴覚人工器官。   Values of acoustic environment and / or neuroacoustic parameters associated with different listening criteria so that the hearing prosthesis makes a favorable adjustment of the variable processing factor when the acoustic processing means is operated in the first mode. The hearing prosthesis according to claim 1, wherein a listening criterion is automatically predicted. 前記聴覚人工器官は、受信したスピーチ及び音楽などの信号の存在から、前記リスニング基準を自動的に予測することを特徴とする、請求項74に記載の聴覚人工器官。   75. The auditory prosthesis of claim 74, wherein the auditory prosthesis automatically predicts the listening criteria from the presence of signals such as received speech and music. 第1のデータメモリは異なるリスニング基準に対してセクション毎に分割され、前記最適に調整された可変プロセッシングファクタは、前記ユーザの調整の下に、前記リスニング基準によって決定されたメモリロケーション内に記憶されることを特徴とする、請求項75に記載の聴覚人工器官。   A first data memory is divided into sections for different listening criteria, and the optimally adjusted variable processing factor is stored in a memory location determined by the listening criteria under the adjustment of the user. 76. A hearing prosthesis according to claim 75, characterized in that 異なるリスニング基準に応じ、前記第1のデータメモリロケーション中に記憶された値に相当する音響環境又は神経音響パラメータを記憶するための、追加のデータメモリロケーションをセクション毎に分割したことを特徴とする、請求項76に記載の聴覚人工器官。   According to different listening criteria, an additional data memory location for storing an acoustic environment or a neuroacoustic parameter corresponding to a value stored in the first data memory location is divided into sections. 77. A hearing prosthesis according to claim 76. 前記第1及び前記追加のデータメモリロケーションの、各セクション内におけるデータは、各リスニング基準に対する、可変プロセッシングファクタの最適な値を計算するために用いることを特徴とする、請求項76又は77に記載の聴覚人工器官。   78. Data in each section of the first and the additional data memory locations is used to calculate an optimal value of a variable processing factor for each listening criterion. Hearing prosthesis. 第2のモードにおいて、前記ユーザは前記インジケータ手段を介して現在のリスニング基準を指示することを特徴とする、請求項76〜78のいずれか一に記載の聴覚人工器官。   79. A hearing prosthesis according to any one of claims 76 to 78, wherein, in a second mode, the user indicates a current listening criterion via the indicator means. 前記第2のモードにおける操作において、前記リスニング基準又は加重結合された基準は、異なるリスニング基準と関連した音響パラメータ及び/又は神経音響パラメータの値から予測することを特徴とする、請求項76〜78のいずれか一に記載の聴覚人工器官。   79. The operation in the second mode, wherein the listening criteria or weighted criteria are predicted from values of acoustic parameters and / or neuroacoustic parameters associated with different listening criteria. The hearing prosthesis according to any one of the above. 前記第2のモードにおける操作において、前記リスニング基準又は加重結合された基準は、スピーチ又は音楽などの信号の存在から予測することを特徴とする、請求項76〜78のいずれか一に記載の聴覚人工器官。   79. Auditory according to any one of claims 76 to 78, wherein in the operation in the second mode, the listening criteria or weighted combined criteria are predicted from the presence of a signal such as speech or music. Prosthesis. 前記第2のモードにおける操作において、前記リスニング基準又は前記加重結合された基準は、音響環境及び/又は神経音響パラメータを有する1以上の訓練リスニング基準式から予測し、各訓練リスニング基準式の最適な係数は、前記第1及び前記追加のデータメモリロケーションの相当するセクションの記憶されたデータから計算することを特徴とする、請求項76〜78のいずれか一に記載の聴覚人工器官。   In operation in the second mode, the listening criterion or the weighted combined criterion is predicted from one or more training listening criterion formulas having acoustic environment and / or neuroacoustic parameters, and an optimum for each training listening criterion formula is determined. 79. A hearing prosthesis according to any one of claims 76 to 78, characterized in that the coefficients are calculated from stored data of corresponding sections of the first and the additional data memory locations. 前記第1のモードにおいて、前記インジケータ手段を介して前記ユーザによって指示されたリスニング基準、又は前記聴覚人工器官によって予測されたリスニング基準は、前記最適に調整された可変プロセッシングファクタが記憶された前記第1のデータメモリロケーションを指示する前記音響環境及び/又は神経音響パラメータとともに使用されることを特徴とする、請求項76に記載の聴覚人工器官。   In the first mode, a listening criterion instructed by the user via the indicator means or a listening criterion predicted by the auditory prosthesis is stored in the first mode in which the optimally adjusted variable processing factor is stored. 77. A hearing prosthesis according to claim 76, used with the acoustic environment and / or neuroacoustic parameters indicating one data memory location. 前記第2のモードにおいて、前記音響環境及び/又は神経音響パラメータ、並びに指示又は予測されたリスニング基準は、前記第1のデータメモリロケーションを指示し、現在の条件に対して最適な可変プロセッシングファクタを得るために使用することを特徴とする、請求項76に記載の聴覚人工器官。   In the second mode, the acoustic environment and / or neuroacoustic parameters, as well as the indicated or predicted listening criteria, indicate the first data memory location to determine an optimal variable processing factor for the current conditions. 77. A hearing prosthesis according to claim 76, characterized in that it is used for obtaining. 前記第1のモードにおいて、前記第1のデータメモリロケーションに記憶されたプロセッシングファクタは、前記特定の音響環境に対するリスニング基準の加重結合に従って変更することを特徴とする、請求項76に記載の聴覚人工器官。   77. The auditory prosthesis of claim 76, wherein in the first mode, the processing factor stored in the first data memory location changes according to a weighted combination of listening criteria for the particular acoustic environment. organ. 音響を受信し、この受信した音響に相当するマイクロフォン信号を生成するマイクロフォンと、
ユーザが受信可能な形態で音響信号を提供する出力デバイスと、
前記マイクロフォン信号を受信するとともに加工し、前記出力デバイスの動作に適した形態で出力信号を生成する音響プロセシング手段と、
前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力するデータ解析手段と、
複数のセッティング状態を記憶するデータメモリ手段と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力するように操作されるデータプロセッシング手段とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官。
A microphone that receives sound and generates a microphone signal corresponding to the received sound;
An output device that provides an acoustic signal in a form receivable by a user;
Acoustic processing means for receiving and processing the microphone signal and generating an output signal in a form suitable for operation of the output device;
Data analysis means for receiving the microphone signal and outputting a data set representative of the acoustic environment;
Data memory means for storing a plurality of setting states;
Analyzing the stored setting state, and comprising data processing means operated to output a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The hearing aid prosthesis, wherein the data memory means stores the setting state in the first mode.
前記データメモリ手段は、前記音響解析手段によって出力された前記データセットを記憶することを特徴とする、請求項86に記載の聴覚人工器官。   87. A hearing prosthesis according to claim 86, wherein the data memory means stores the data set output by the acoustic analysis means. 前記少なくとも1つの可変プロセッシングファクタは、選択された可変プロセッシングファクタに相当する音響環境に基づいて自動的に調整されることを特徴とする、請求項86又は87に記載の聴覚人工器官。   88. The hearing prosthesis according to claim 86 or 87, wherein the at least one variable processing factor is automatically adjusted based on an acoustic environment corresponding to the selected variable processing factor. 前記データメモリ手段は、異なる音響環境に対して前記ユーザによって決定された最適なセッティング状態を記憶することを特徴とする、請求項86〜88のいずれか一に記載の聴覚人工器官。   89. A hearing prosthesis according to any one of claims 86 to 88, wherein the data memory means stores optimal setting states determined by the user for different acoustic environments. 異なる音響環境に晒された際に、前記データプロセッシング手段は、記憶された前記最適なセッティング状態を用い、前記音響プロセッシング手段の最適な操作条件を予測するために使用する、1以上の式における係数を計算することを特徴とする、請求項89に記載の聴覚人工器官。   The coefficient in one or more equations used when the data processing means is exposed to a different acoustic environment, and uses the stored optimal setting state to predict the optimum operating conditions of the acoustic processing means. 90. A hearing prosthesis according to claim 89, characterized in that is calculated. 前記ユーザの一方の耳に対して音声信号を出力することを特徴とする、請求項86〜90のいずれか一に記載の聴覚人工器官。   The auditory prosthesis according to any one of claims 86 to 90, wherein an audio signal is output to one ear of the user. 前記ユーザの両方の耳に対して音声信号を出力することを特徴とする、請求項86〜90のいずれか一に記載の聴覚人工器官。   The hearing prosthesis according to any one of claims 86 to 90, characterized in that audio signals are output to both ears of the user. 前記音響プロセッシング手段を前記第1のモードで駆動する際、前記音響プロセッシング手段は、前記ユーザの選択に対し、前記少なくとも1つの可変プロセッシングファクタの、可能な2以上のセッティング状態を提供することを特徴とする、請求項86〜92のいずれか一に記載の聴覚人工器官。   When driving the acoustic processing means in the first mode, the acoustic processing means provides two or more possible setting states of the at least one variable processing factor for the user's selection. A hearing prosthesis according to any one of claims 86 to 92. 前記ユーザの選択は繰り返し実行され、前記音響プロセッシング手段が、前記少なくとも1つの可変プロセッシングファクタに相当する特定のセッティング状態に対する、前記ユーザの嗜好が、時間とともに又は使用経過に伴って変化したか否かをモニタリングできるようにしたことを特徴とする、請求項93に記載の聴覚人工器官。   Whether the user's selection is repeated and whether the sound processing means has changed its user preference over time or over time for a particular setting state corresponding to the at least one variable processing factor 94. The hearing prosthesis according to claim 93, characterized in that it can be monitored. 各セッティング状態に対する前記ユーザの選択回数が、前記音響プロセッシング手段によってモニタリングされ、前記聴覚人工器官が、前記少なくとも1つのプロセッシングファクタの最適なセッティング状態を選択できるようにしたことを特徴とする、請求項94に記載の聴覚人工器官。   The number of selections of the user for each setting state is monitored by the acoustic processing means so that the hearing prosthesis can select an optimal setting state for the at least one processing factor. 94. A hearing prosthesis according to 94. 前記ユーザはコントロール手段を操作し、前記少なくとも1つの可変プロセッシングファクタを変更し、前記音響プロセッシング手段のプロセッシング動作を変更することを特徴とする、請求項95に記載の聴覚人工器官。   96. A hearing prosthesis according to claim 95, wherein the user manipulates a control means to change the at least one variable processing factor to change a processing operation of the acoustic processing means. 前記コントロール手段を調整して、現在の音響環境に対して最適と考える状態をセッティングしたユーザが、インジケータ手段を操作して前記データメモリ手段内に前記セッティング状態を記憶するようにしたことを特徴とする、請求項95に記載の聴覚人工器官。   A user who adjusts the control means and sets a state considered to be optimal for the current acoustic environment operates the indicator means to store the setting state in the data memory means. 96. The hearing prosthesis of claim 95. 前記インジケータ手段を操作することにより、前記音響プロセッシング手段に対して、前記ユーザが選択した前記コントロール手段のセッティング状態が、前記ユーザに対し、前記現在の音響環境に対する最適なセッティング状態となるように指示を出すようにしたことを特徴とする、請求項97に記載の聴覚人工器官。   By operating the indicator means, the sound processing means is instructed so that the setting state of the control means selected by the user is the optimum setting state for the current acoustic environment. 98. A hearing prosthesis according to claim 97, characterized in that 前記聴覚人工器官は、補聴器であることを特徴とする、請求項86〜98のいずれか一に記載の聴覚人工器官。   99. The hearing prosthesis according to any one of claims 86 to 98, wherein the hearing prosthesis is a hearing aid. 前記補聴器の出力デバイスが、前記音響プロセッシング手段の前記出力信号を受信するとともに増幅し、前記ユーザの耳に伝達することを特徴とする、請求項99に記載の聴覚人工器官。   100. The hearing prosthesis according to claim 99, wherein the output device of the hearing aid receives and amplifies and transmits the output signal of the acoustic processing means to the user's ear. 前記聴覚人工器官は、インプラント補聴器であることを特徴とする、請求項86〜98のいずれか一に記載の聴覚人工器官。   99. The hearing prosthesis according to any one of claims 86 to 98, wherein the hearing prosthesis is an implant hearing aid. 前記インプラント補聴器の出力デバイスが、中耳又は内耳に機械的に結合された振動メカニズムであることを特徴とする、請求項101に記載の聴覚人工器官。   102. The hearing prosthesis according to claim 101, characterized in that the output device of the implant hearing aid is a vibration mechanism mechanically coupled to the middle or inner ear. 前記聴覚人工器官は、蝸牛インプラントであることを特徴とする、請求項86〜98のいずれか一に記載の聴覚人工器官。   99. The hearing prosthesis according to any one of claims 86 to 98, wherein the hearing prosthesis is a cochlear implant. 前記蝸牛インプラントの出力デバイスは、前記音響プロセッシング手段からのエンコード化された刺激を受信し、電極アレイを介して前記蝸牛インプラントに伝達すべき刺激信号を出力するレシーバ/スティミュレータユニットを具えることを特徴とする、請求項103に記載の聴覚人工器官。   The cochlear implant output device comprises a receiver / stimulator unit that receives the encoded stimulus from the acoustic processing means and outputs a stimulus signal to be transmitted to the cochlear implant via an electrode array. 104. Auditory prosthesis according to claim 103, characterized. 前記音響プロセッシング手段はスピーチプロセッサを具え、このスピーチプロセッサはコーディングストラテジーを利用して、前記可変プロセッシングファクタに相当するマイクロフォン信号のプロセッシングの前又は後において、前記マイクロフォンによって受信した音響からスピーチを抽出することを特徴とする、請求項104に記載の聴覚人工器官。   The sound processing means comprises a speech processor, which uses a coding strategy to extract speech from the sound received by the microphone before or after processing of the microphone signal corresponding to the variable processing factor. 105. A hearing prosthesis according to claim 104, characterized by: 前記スピーチプロセッサは、前記音響信号及び出力チャンネル振幅レベルの音声スペクトル解析を実行することを特徴とする、請求項105に記載の聴覚人工器官。   106. A hearing prosthesis according to claim 105, wherein the speech processor performs a speech spectrum analysis of the acoustic signal and output channel amplitude level. 前記音響信号のスペクトルから前記出力チャンネル振幅レベルへの変換は、先に選択した可変プロセッシングファクタに基づいた、可変プロセッシングファクタによって決定されることを特徴とする、請求項106に記載の聴覚人工器官。   107. A hearing prosthesis according to claim 106, wherein the conversion from the spectrum of the acoustic signal to the output channel amplitude level is determined by a variable processing factor based on a previously selected variable processing factor. 前記チャンネル振幅レベルは、前記ユーザによる先の調整及び選択に基づいたプロセッシングファクタである閾値レベル及び不快レベルを含むことを特徴とする、請求項107に記載の聴覚人工器官。   108. The hearing prosthesis of claim 107, wherein the channel amplitude level includes a threshold level and a discomfort level that are processing factors based on prior adjustments and selections by the user. 前記レシーバ/スティミュレータユニットは、前記ユーザに対してインプラント可能なハウジング内に位置することを特徴とする、請求項104〜108に記載の聴覚人工器官。   109. A hearing prosthesis according to claims 104-108, wherein the receiver / stimulator unit is located in a housing that is implantable to the user. 前記レシーバ/スティミュレータユニットに対する前記ハウジングは、乳様突起後方に位置する、耳の後ろの骨の、窪んだ箇所にインプラントすることを特徴とする、請求項109に記載の聴覚人工器官。   110. The hearing prosthesis of claim 109, wherein the housing for the receiver / stimulator unit is implanted in a recessed portion of the bone behind the ear located behind the mastoid process. 前記スピーチプロセッサは、前記マイクロフォンで受信した音響を連続した電気的刺激
アルゴリズムにエンコード化することを特徴とする、請求項105〜110のいずれか一に記載の聴覚人工器官。
111. A hearing prosthesis according to any one of claims 105 to 110, wherein the speech processor encodes the sound received by the microphone into a continuous electrical stimulation algorithm.
前記エンコード化された電気的信号は、前記レシーバ/スティミュレータユニットの、トランスミッタコイル及びレシーバコイルを用い、前記レシーバ/スティミュレータユニットに伝送することを特徴とする、請求項111に記載の聴覚人工器官。   112. The auditory prosthesis of claim 111, wherein the encoded electrical signal is transmitted to the receiver / stimulator unit using a transmitter coil and receiver coil of the receiver / stimulator unit. . 音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データメモリ手段内にセッティング状態を設定する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号が、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、聴覚人工器官の調整方法。
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Comprising setting a setting state in the data memory means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
The acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically adjusted based on a variable processing factor previously adjusted by the user;
The method for adjusting an auditory prosthesis, wherein the data memory means stores the setting state in the first mode.
音響環境におけるユーザによる、聴覚人工器官の調整方法であって、
マイクロフォンからの音響を受信し、この音響に相当するマイクロフォン信号を生成する工程と、
出力デバイスを介し、前記ユーザが受信可能な形態で音響信号を提供する工程と、
音響プロセッシング手段を介し、前記マイクロフォン信号に基づくプロセッシング操作を実行し、前記出力デバイスの動作に適した形態で出力信号を生成する工程と、
データ解析手段において前記マイクロフォン信号を受信し、音響環境を代表するデータセットを出力する工程と、
複数のセッティング状態をデータメモリ手段内に記憶する工程と、
記憶された前記セッティング状態を解析し、前記音響プロセッシング手段にコントロール信号を出力する工程とを具え、
前記音響プロセッシング手段は第1のモードで動作可能であり、前記第1のモードにおいては、前記音響プロセッシング手段の前記出力信号を、現在の音響環境特性に対するユーザの嗜好に従って調節できるようにしたセッティング状態を、前記ユーザによって調整することができる少なくとも1つの可変プロセッシングファクタを含み、
前記コントロール信号の受信に基づいて、前記音響プロセッシング手段は第2のモードで動作可能であり、前記少なくとも1つの可変プロセッシングファクタは、前記ユーザによって先に調整された可変プロセッシングファクタに基づいて自動的に調整され、
前記データメモリ手段は、前記第1のモードにおける前記セッティング状態を記憶することを特徴とする、人工聴覚器官の調整方法。
A method for adjusting a hearing prosthesis by a user in an acoustic environment,
Receiving sound from a microphone and generating a microphone signal corresponding to the sound;
Providing an acoustic signal in a form receivable by the user via an output device;
Performing a processing operation based on the microphone signal via an acoustic processing means to generate an output signal in a form suitable for the operation of the output device;
Receiving the microphone signal in a data analysis means and outputting a data set representative of the acoustic environment;
Storing a plurality of setting states in the data memory means;
Analyzing the stored setting state, and outputting a control signal to the acoustic processing means,
The acoustic processing means is operable in a first mode, in which the output signal of the acoustic processing means can be adjusted according to a user preference for current acoustic environmental characteristics. Including at least one variable processing factor that can be adjusted by the user,
Based on receipt of the control signal, the acoustic processing means is operable in a second mode, and the at least one variable processing factor is automatically based on a variable processing factor previously adjusted by the user. Adjusted,
The method for adjusting an artificial auditory organ, wherein the data memory means stores the setting state in the first mode.
JP2004506316A 2002-05-21 2003-05-21 Programmable hearing prosthesis that can automatically adapt to the acoustic environment Expired - Fee Related JP4658593B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AUPS2470A AUPS247002A0 (en) 2002-05-21 2002-05-21 Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
PCT/AU2003/000613 WO2003098970A1 (en) 2002-05-21 2003-05-21 Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions

Publications (2)

Publication Number Publication Date
JP2005531175A true JP2005531175A (en) 2005-10-13
JP4658593B2 JP4658593B2 (en) 2011-03-23

Family

ID=3836035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004506316A Expired - Fee Related JP4658593B2 (en) 2002-05-21 2003-05-21 Programmable hearing prosthesis that can automatically adapt to the acoustic environment

Country Status (5)

Country Link
EP (1) EP1532841A4 (en)
JP (1) JP4658593B2 (en)
AU (1) AUPS247002A0 (en)
CA (1) CA2486893C (en)
WO (1) WO2003098970A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001559A1 (en) * 2007-06-28 2008-12-31 Panasonic Corporation Environment adaptive type hearing aid
WO2013084211A1 (en) * 2011-12-09 2013-06-13 Cochlear Limited Controlling a link for different load conditions
WO2018087674A1 (en) * 2016-11-08 2018-05-17 Cochlear Limited Utilization of vocal acoustic biomarkers for assistive listening device utilization
WO2020089757A1 (en) * 2018-11-02 2020-05-07 Cochlear Limited Multiple sound source encoding in hearing protheses
WO2020089745A1 (en) * 2018-10-31 2020-05-07 Cochlear Limited Combinatory directional processing of sound signals

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005008316B4 (en) 2005-02-23 2008-11-13 Siemens Audiologische Technik Gmbh Hearing apparatus and method for monitoring the hearing of a minor hearing
US7986790B2 (en) 2006-03-14 2011-07-26 Starkey Laboratories, Inc. System for evaluating hearing assistance device settings using detected sound environment
EP2070386A1 (en) * 2006-09-27 2009-06-17 Oticon A/S Hearing aid with memory space for functional settings and learned settings, and programming method thereof
US8265314B2 (en) * 2007-04-25 2012-09-11 Schumaier Daniel R Preprogrammed hearing assistance device with program selection based on patient usage
JP5329531B2 (en) * 2007-04-25 2013-10-30 ダニエル・アール・シュメイアー User programmable hearing aid device
DE102007038191B3 (en) 2007-08-13 2008-12-04 Siemens Medical Instruments Pte. Ltd. Individually adjustable hearing aid and method for its operation
EP2255548B1 (en) 2008-03-27 2013-05-08 Phonak AG Method for operating a hearing device
DE102008053457B3 (en) 2008-10-28 2010-02-04 Siemens Medical Instruments Pte. Ltd. Method for adjusting a hearing device and corresponding hearing device
US9729976B2 (en) 2009-12-22 2017-08-08 Starkey Laboratories, Inc. Acoustic feedback event monitoring system for hearing assistance devices
US8942398B2 (en) 2010-04-13 2015-01-27 Starkey Laboratories, Inc. Methods and apparatus for early audio feedback cancellation for hearing assistance devices
US9654885B2 (en) 2010-04-13 2017-05-16 Starkey Laboratories, Inc. Methods and apparatus for allocating feedback cancellation resources for hearing assistance devices
US8917891B2 (en) 2010-04-13 2014-12-23 Starkey Laboratories, Inc. Methods and apparatus for allocating feedback cancellation resources for hearing assistance devices
EP2521377A1 (en) 2011-05-06 2012-11-07 Jacoti BVBA Personal communication device with hearing support and method for providing the same
WO2024003688A1 (en) * 2022-07-01 2024-01-04 Cochlear Limited Implantable sensor training

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE428167B (en) * 1981-04-16 1983-06-06 Mangold Stephan PROGRAMMABLE SIGNAL TREATMENT DEVICE, MAINLY INTENDED FOR PERSONS WITH DISABILITY
DE3900588A1 (en) * 1989-01-11 1990-07-19 Toepholm & Westermann REMOTE CONTROLLED, PROGRAMMABLE HOUR DEVICE SYSTEM
EP0674464A1 (en) * 1994-03-23 1995-09-27 Siemens Audiologische Technik GmbH Programmable hearing aid with fuzzy logic controller
DK0681411T3 (en) * 1994-05-06 2003-05-19 Siemens Audiologische Technik Programmable hearing aid
EP0712261A1 (en) * 1994-11-10 1996-05-15 Siemens Audiologische Technik GmbH Programmable hearing aid
DE59410236D1 (en) * 1994-11-10 2003-03-06 Siemens Audiologische Technik Programmable hearing aid
EP0814636A1 (en) 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hearing aid
DE59609754D1 (en) 1996-06-21 2002-11-07 Siemens Audiologische Technik Programmable hearing aid system and method for determining optimal parameter sets in a hearing aid
DE19625639C2 (en) * 1996-06-26 2002-07-18 Siemens Audiologische Technik hearing Aid
AUPO714197A0 (en) * 1997-06-02 1997-06-26 University Of Melbourne, The Multi-strategy array processor
US6201875B1 (en) * 1998-03-17 2001-03-13 Sonic Innovations, Inc. Hearing aid fitting system
EP1273205B1 (en) 2000-04-04 2006-06-21 GN ReSound as A hearing prosthesis with automatic classification of the listening environment
WO2001020965A2 (en) * 2001-01-05 2001-03-29 Phonak Ag Method for determining a current acoustic environment, use of said method and a hearing-aid
AU2001224979A1 (en) * 2001-01-23 2001-05-08 Phonak Ag Communication method and a hearing aid system
CA2433390A1 (en) * 2001-11-09 2002-01-17 Phonak Ag Method for operating a hearing device and hearing device
AU2002224722B2 (en) * 2002-01-28 2008-04-03 Phonak Ag Method for determining an acoustic environment situation, application of the method and hearing aid

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001559A1 (en) * 2007-06-28 2008-12-31 Panasonic Corporation Environment adaptive type hearing aid
US8457335B2 (en) 2007-06-28 2013-06-04 Panasonic Corporation Environment adaptive type hearing aid
WO2013084211A1 (en) * 2011-12-09 2013-06-13 Cochlear Limited Controlling a link for different load conditions
US8831256B2 (en) 2011-12-09 2014-09-09 Cochlear Limited Controlling a link for different load conditions
WO2018087674A1 (en) * 2016-11-08 2018-05-17 Cochlear Limited Utilization of vocal acoustic biomarkers for assistive listening device utilization
US11253193B2 (en) 2016-11-08 2022-02-22 Cochlear Limited Utilization of vocal acoustic biomarkers for assistive listening device utilization
WO2020089745A1 (en) * 2018-10-31 2020-05-07 Cochlear Limited Combinatory directional processing of sound signals
US11758336B2 (en) 2018-10-31 2023-09-12 Cochlear Limited Combinatory directional processing of sound signals
WO2020089757A1 (en) * 2018-11-02 2020-05-07 Cochlear Limited Multiple sound source encoding in hearing protheses
US11510015B2 (en) 2018-11-02 2022-11-22 Cochlear Limited Multiple sound source encoding in hearing prostheses
US11979715B2 (en) 2018-11-02 2024-05-07 Cochlear Limited Multiple sound source encoding in hearing prostheses

Also Published As

Publication number Publication date
EP1532841A1 (en) 2005-05-25
AUPS247002A0 (en) 2002-06-13
WO2003098970A1 (en) 2003-11-27
CA2486893A1 (en) 2003-11-27
CA2486893C (en) 2013-12-24
JP4658593B2 (en) 2011-03-23
EP1532841A4 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
US7889879B2 (en) Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
JP4658593B2 (en) Programmable hearing prosthesis that can automatically adapt to the acoustic environment
US9426582B2 (en) Automatic real-time hearing aid fitting based on auditory evoked potentials evoked by natural sound signals
US8265765B2 (en) Multimodal auditory fitting
US10542355B2 (en) Hearing aid system
DK2314079T3 (en) Adaptation of bone anchored hearing devices
US9749753B2 (en) Hearing device with low-energy warning
US11564048B2 (en) Signal processing in a hearing device
US10003892B2 (en) Systems and methods for altering the input dynamic range of an auditory device
CN105376684A (en) Hearing assistance system with improved signal processing comprising an implanted part
CN104822119A (en) Apparatus for determining cochlear dead region
EP2880874A2 (en) Automatic sound optimizer
US10525265B2 (en) Impulse noise management
WO2009110243A2 (en) Method for adjusting voice converting processor
US11589170B2 (en) Generalized method for providing one or more stimulation coding parameters in a hearing aid system for obtaining a perceivable hearing loudness
AU2004240216B2 (en) Programmable Auditory Prosthesis with Trainable Automatic Adaptation to Acoustic Conditions
US20220174436A1 (en) Method for calculating gain in a hearing aid
WO2010072245A1 (en) A method of operating a hearing instrument based on an estimation of present cognitive load of a user and a hearing aid system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080722

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080821

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080828

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080922

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081022

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090303

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090512

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4658593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees