JP2002519973A - Audio processing method and apparatus - Google Patents

Audio processing method and apparatus

Info

Publication number
JP2002519973A
JP2002519973A JP2000557662A JP2000557662A JP2002519973A JP 2002519973 A JP2002519973 A JP 2002519973A JP 2000557662 A JP2000557662 A JP 2000557662A JP 2000557662 A JP2000557662 A JP 2000557662A JP 2002519973 A JP2002519973 A JP 2002519973A
Authority
JP
Japan
Prior art keywords
sound
detected
angular relationship
determined
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000557662A
Other languages
Japanese (ja)
Inventor
スミス,レスリー,サミュエル
Original Assignee
ユニバシティ オブ スターリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバシティ オブ スターリング filed Critical ユニバシティ オブ スターリング
Publication of JP2002519973A publication Critical patent/JP2002519973A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/502Customised settings for obtaining desired overall acoustical characteristics using analog signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

(57)【要約】 少なくとも2つの離れた検出位置で音声を検出する;各音源と当該検出位置との間の角度関係を同定するために、前記検出された音声を解析する;特定の音源と関連する角度関係の選択をさせる;前記特定の音源と関連する音声の流れを強調するために、前記選択に応じて、前記検出された音声を処理する;とからなる音声処理方法。この方法は、特定音源を双方向的に選択することによって使用者が音声を流すことにより、背景ノイズを最小化する補聴器に利用することができる。 (57) [Summary] Detect sound at at least two separated detection positions; analyze the detected sound to identify an angular relationship between each sound source and the detection position; Causing the selection of an associated angular relationship; and processing the detected audio in response to the selection to enhance the flow of audio associated with the particular sound source. This method can be used for a hearing aid that minimizes background noise by allowing a user to play a sound by bidirectionally selecting a specific sound source.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 [発明の技術分野] 本発明は、音声を処理する方法および装置に関し、補聴器、特に双方向性の補
聴器に関するが、これらに限られない。
TECHNICAL FIELD OF THE INVENTION [0001] The present invention relates to a method and apparatus for processing speech, and more particularly, but not exclusively, to a hearing aid, particularly a bidirectional hearing aid.

【0002】 [発明の背景] 最近の補聴器に関しては、(i)単一のマイクロホンを使用して音声を検出し
、(ii)入力音声を選択的に変換し、可能性として、より洗練されたデジタル信
号処理技術を利用するために最初に音声をデジタル形式に変換し、(iii)耳道
(ear canal)において音声を逆変換する(または、移植蝸牛刺激装置(cochlea
r implant)の場合には、コルチ器官のらせん神経節の神経を直接刺激する)こ
とにより、聴力損失の問題に取り組んでいる。単一マイクロホンの使用では、特
定の方向から到達した音声を選択的に増幅することは、感度に指向性のある形式
のマイクロホンを利用することによってのみ達成される。しかし、高い指向性を
有するマイクロホンを使用することは、一定範囲の他の方向から来る音声を検出
できないという別の問題をもたらす。本発明の実施例においては、2つのマイク
ロホンを使用し、そして入射音に存在する異なる音源(または流れ(stream))
からの音声を識別するために、動物の聴覚システムに使用されていると考えられ
ている方法を具体化する。
BACKGROUND OF THE INVENTION With respect to modern hearing aids, (i) using a single microphone to detect speech, and (ii) selectively transforming input speech, and potentially more sophisticated First convert the audio to digital form to take advantage of digital signal processing techniques, and (iii) convert the audio back in the ear canal (or cochlea stimulator).
In the case of r implants), the problem of hearing loss is addressed by directly stimulating the nerves of the spiral ganglia of the organ of Corti. With the use of a single microphone, selectively amplifying sound arriving from a particular direction is achieved only by utilizing a microphone that is directional in sensitivity. However, using microphones with high directivity introduces another problem in that sound coming from a certain range of other directions cannot be detected. In an embodiment of the present invention, two microphones are used and different sound sources (or streams) present in the incident sound.
Embodies a method that is believed to be used in animal hearing systems to identify sounds from the animal.

【0003】 2つ以上のマイクロホンを使用する場合でも、既存のシステムでは、使用者が
最適な音声処理を選択するシステムに双方向で関与することはほとんどできない
。これは、使用者が音声を判断できるか否かが、使用者の置かれた状況に強く左
右されるという問題の性質からくる欠点である。静かな環境で、音源が1つのみ
である場合から、騒々しい部屋で、音源が多数ある場合まで、状況は変化するの
である。音源の方向を決定するために、聴覚システムに使用される基本的な情報
は、耳間強度差(両耳間の音圧差:internal intensity differences;IIDs
)および耳間時間差(両耳間の位相差:internal time differeces;ITDs)
である。IIDまたはITDを判断するためには、補聴器は2以上のマイクロホ
ンを備える必要がある。
Even with the use of more than two microphones, existing systems have little ability for a user to interact bidirectionally with the system to select the optimal audio processing. This is a drawback due to the nature of the problem that whether or not the user can judge the voice strongly depends on the situation where the user is placed. The situation changes from a quiet environment with only one sound source to a noisy room with many sound sources. The basic information used by the auditory system to determine the direction of the sound source is the interaural intensity differences (internal intensity differences; IIDs)
) And interaural time differences (internal ear differences: ITDs)
It is. To determine IID or ITD, the hearing aid must have more than one microphone.

【0004】 米国特許第3,946,168号および米国特許第3,975,599号では、異なる方向に向け
られ、指向性のある入力信号の間で切り替えられ(switched between)、2つの
マイクロホンの異なる指向特性を本質的に利用する、単一の容器に収納された2
つのマイクロホンを使用する補聴器が開示されている。類似のものとして、米国
特許第5,524,056号における全方向性および指向性マイクロホンの両方を利用し
、いくつかの適合する等化手段を含むものがあげられる。より洗練されたものと
して、米国特許第4,751,738号におけるように、使用者の体に設置されて(重要
な周波数の)、半波長だけ離されて組となるマイクロホンを複数使用するものが
あげられる。これらのマイクロホンからの信号は、加算器、バンドパスフィルタ
ー、増幅器で処理される。これにより、使用者が向いている方向では、選ばれた
周波数帯域について指向性が与えられる。さらに、米国特許第5,737,430号では
、耳に載置される補聴器にマイクロホンからの信号を無線で接続するものに拡張
されている。
[0004] US Pat. Nos. 3,946,168 and 3,975,599 essentially use the different directional characteristics of two microphones, being switched between differently directed and directional input signals. Two in a single container
Hearing aids using two microphones are disclosed. Similar ones utilize both omni-directional and directional microphones in US Pat. No. 5,524,056 and include some suitable equalization means. More sophisticated is the use of multiple microphones that are placed on the user's body (at the frequency of interest) and separated by half a wavelength, as in US Pat. No. 4,751,738. Signals from these microphones are processed by an adder, a bandpass filter, and an amplifier. Thereby, directivity is given to the selected frequency band in the direction in which the user is facing. Further, U.S. Pat. No. 5,737,430 is extended to wirelessly connect a signal from a microphone to a hearing aid placed on the ear.

【0005】 携帯型デジタル信号処理(DSP)の登場により、より洗練された信号処理方
法が採用できることになった。DSP技術は、両耳システム(1つの耳につき、
2つのマイクロホンおよび2つの出力変換器を備える)に適用されることで(米
国特許第5,479,522号、米国特許第5,651,071号)、音声の信号特性を選択的に増
幅するシステムをもたらすとともに、使用者が音源の方向を検出することを可能
にするために、信号の正確なタイミングを維持する。この方法により、当該シス
テムはノイズの低減も実現する。指向性は、ビーム成形を実行するDSP技術を
使用することで加えられてきた(米国特許第5,511,128号)。これらの技術を無
線通信を利用して実施したものが米国特許第5,757,932号に記載されている。レ
スポンスに最大限の指向性を与えつつ、音源の方向を探知するための両耳のII
DとITDを保持するという矛盾した目的の解決を試みる技術が、デスローグほ
かによって比較されている(J.G.デスローグ、W.M.ラビノヴィッツおよびP.M.ヅ
レック、両耳出力のマイクロホン配列型(array)補聴器−パート1:固定処理
システム。会話・可聴処理に関する電気電子学会(IEEE)会報、5(6):529--542
頁、1997年刊行)。正面の音源に対して適するIIDおよびITDを使って、そ
れらの音声のみを増幅しようとするアルゴリズムについてコールマイヤーほかに
より述べられている(B.コールマイヤー、J.ペイシーグおよびV.ホフマン、周波
数領域におけるリアルタイム処理を行う両耳型ノイズ低減補聴器の構成。スカン
ジナビアンオーディオロジー:補遺、38:28--28、1993年)。
With the advent of portable digital signal processing (DSP), more sophisticated signal processing methods can be adopted. DSP technology is a binaural system (per ear,
(With two microphones and two output transducers) (U.S. Pat. No. 5,479,522, U.S. Pat. No. 5,651,071) to provide a system that selectively amplifies the signal characteristics of audio while allowing the user to Maintain the exact timing of the signal to be able to detect the direction of the sound source. In this way, the system also achieves noise reduction. Directivity has been added by using DSP technology to perform beamforming (US Pat. No. 5,511,128). U.S. Pat. No. 5,757,932 describes an implementation of these techniques using wireless communication. Binaural II for detecting the direction of the sound source while giving the maximum directivity to the response
Techniques that attempt to resolve the conflicting objectives of preserving D and ITD are compared by Deslogue et al. (JG Deslogue, WM Ravinowitz and PM Perek, binaural microphone array hearing aids-Part 1: Fixed Processing system, IEICE Bulletin on Conversation and Audible Processing, 5 (6): 529--542
Page, published in 1997). Algorithms that attempt to amplify only those sounds using IIDs and ITDs suitable for frontal sound sources are described by Colemeier et al. (B. Colemeier, J. Paissig and V. Hoffman, Frequency Domain). Configuration of a binaural noise reduction hearing aid that performs real-time processing, Scandinavian audiology: Supplement, 38: 28--28, 1993.

【0006】 その他の多重マイクロホンの技術では、スコットランドのペイスレイ大学が草
分けとなった、サブバンド適応処理を使用するものがあり、これにより(音声と
車の騒音のような)統計的に異なる信号を分離することが可能となり、信号−ノ
イズ比(SNR)が改良されている(P.W.シールズおよびD.キャンベル、補聴器
性能の改良のための多重マイクロホンサブバンド適応信号処理:通常の聴覚を有
するボランティアを使用した予備試験の結果;ProcICASSP97、頁I、415--418、
1997年;P.シールズ、M.ギロラミ、D.キャンベルおよびC.ファイフェ、ノイズお
よび反響で改悪された音声の強調のために、両耳のマスク剥離(binaural unmas
king)により刺激された(inspired)適応処理機構;L.S.スミスおよびA.ハミル
トン編、神経形態システム:神経生物学からのエンジニアリングシリコン、61--
74、ワールドサイエンティフィック、1998年刊行;A.フセインおよびD.キャンベ
ル、人間の蝸牛殻モデルおよび人工神経ネットワークを使用した両耳サブバンド
適応音声強調、L.S.スミスおよびA.ハミルトン編、神経形態システム:神経生物
学からの工学シリコン、75--86、ワールドサイエンティフィック、1998年)。さ
らに、盲人用信号(blind signal)ディコンボリューション(deconvolution)
(独自の組成分析)訓練からのアンチ・ヘビアン学習技術が使用でき、異なる音
の流れを回復できる。
[0006] Other multi-microphone technologies use sub-band adaptive processing, pioneered by the University of Paisley, Scotland, which allows for statistically different signals (such as voice and car noise) to be generated. Separation is possible and signal-to-noise ratio (SNR) is improved (PW Shields and D. Campbell, multi-microphone subband adaptive signal processing for improved hearing aid performance: using volunteers with normal hearing) Preliminary test results; ProcICASSP97, pages I, 415-418,
1997; P. Shields, M. Gilorami, D. Campbell, and C. Feife, binaural unmass stripping for emphasis on noise and reverberant speech
Adaptive processing mechanism inspired by king); LS Smith and A. Hamilton, eds., Neuromorphology: Engineering Silicon from Neurobiology, 61--
74, World Scientific, 1998; A. Hussein and D. Campbell, Binaural Subband Adaptive Speech Enhancement Using Human Cochlea Model and Artificial Neural Network, LS Smith and A. Hamilton, Ed., Neuromorphology System : Engineering Silicon from Neurobiology, 75--86, World Scientific, 1998). In addition, blind signal deconvolution
(Unique composition analysis) Anti-heavy learning techniques from training can be used and different sound streams can be recovered.

【0007】 通常および難聴の受聴者はいずれも、関心のある音源を選択することを補助す
るために、頭を動かすことができる。最初の補聴器は機械的であったので、使用
者は、定めた方向に変えるため、補聴器を動かさざるを得なかった。最初の電気
的補聴器では、ほとんどユーザー・インターフェイスが加えられることはなかっ
たので、スイッチをオン/オフしたり、おそらく、複数の設定、さらにボリュー
ム制御を行う必要があった。最新の補聴器は、設定可変(configurable)であり
、使用者ごとに特有な聴力損失を補償できるように調整されているが、通常はそ
の後に使用者が再調整することはできない。
[0007] Both normal and hearing impaired listeners can move their heads to assist in selecting a sound source of interest. Since the first hearing aid was mechanical, the user had to move the hearing aid to change the direction. With the first electrical hearing aids, little user interface was added, so it was necessary to switch them on and off, and possibly to do multiple settings and even volume control. Modern hearing aids are configurable and are tuned to compensate for hearing loss specific to each user, but typically cannot be readjusted thereafter by the user.

【0008】 最近のいくつかの補聴器は、設定変更の機能が追加されている。米国特許第5,
524,056号に記載されている発明に使用される特定のマイクロホンが変更可能で
ある。米国特許第5,636,285号には、同様に、音声制御再設定可能な技術が記述
されている。
[0008] Some recent hearing aids have added the ability to change settings. US Patent 5,
The particular microphone used in the invention described in 524,056 can vary. U.S. Pat. No. 5,636,285 similarly describes a technique for re-configurable voice control.

【0009】 ほとんどの補聴器は、耳道に音声を再送する。入力音声と送信音声間を適切に
選択変換する対策は、使用者が損失を受けたと考える聴力範囲を補充することを
基礎にしてなされる。しかし、部分的聴覚消失は、一部の周波数域において感度
が減少するだけではない。単にそのようなものであったならば、このアプローチ
で完全に成功したであろう。問題は、ほとんどの感度の減衰が聴細胞の変換シス
テムの、特に蝸牛の基底(高周波数)部における欠損に起因することにある。単
に高周波数の信号を増幅しても、聴細胞の内部に分布する聴覚神経を刺激するこ
とはならない。その代わりに、蝸牛殻内の他の場所から他の(損傷を受けていな
い)聴細胞が反応し、その場所独自の反応に、増幅された高周波数の音声に対す
る反応を混合する。このようにして、選択的な増幅は、広い周波数域に対する聴
細胞への反応を増加させるが、その位置固有の周波数分解能が犠牲にされる。
[0009] Most hearing aids retransmit sound into the ear canal. Measures to properly select and convert between incoming and outgoing speech are based on replenishing the hearing range that the user considers to have lost. However, partial hearing loss not only reduces sensitivity in some frequency ranges. If it were just such, this approach would have been entirely successful. The problem is that most of the attenuation in sensitivity is due to a defect in the conversion system of the auditory cells, especially in the basal (high frequency) part of the cochlea. Simply amplifying the high frequency signal does not stimulate the auditory nerves distributed inside the auditory cells. Instead, other (undamaged) auditory cells from elsewhere in the cochlea react and mix their own response with the response to the amplified high frequency sound. In this way, selective amplification increases the response of auditory cells to a broader frequency range, but at the expense of its position-specific frequency resolution.

【0010】 さらに、多くの欠陥を有する患者にとって、可聴音と痛みを伴う音との間の距離
は小さく、周波数感度のよい増幅器を調整する手段は困難である。
[0010] Furthermore, for patients with many defects, the distance between audible and painful sounds is small and means of adjusting a frequency sensitive amplifier are difficult.

【0011】 残聴がほとんどないか全くない患者には、聴覚的な信号を再送することに代え
て、移植蝸牛刺激装置(人工内耳)の技術がしばしば使用される。これらは、ら
せん神経節の神経細胞を直接に刺激する。残念ながら、この方法では、蝸牛殻の
形状がこれを阻害するために、聴覚神経の全てを刺激することは不可能である。
そのため、蝸牛殻の高周波数(基底)部だけが刺激されるため、使用者には非常
に衰弱した信号が与えられる。
For patients with little or no remnant hearing loss, the technique of cochlear implant (cochlear implant) is often used instead of retransmitting the auditory signal. They directly stimulate the nerve cells of the spiral ganglion. Unfortunately, it is not possible with this method to stimulate all of the auditory nerves because the shape of the cochlea inhibits it.
Thus, only the high frequency (basal) portion of the cochlea is stimulated, giving the user a very weak signal.

【0012】 残聴がほとんどないか全くない場合(特に、聴覚神経または脳幹に損傷のある
場合)に採りうる他の可能性として、視覚的な治療器具のような異なった治療器
具の使用があげられる。これは米国特許第5,029,216号に提案されており、難聴
の運転者に、救急車両の接近を警告することができる眼鏡に搭載されたシステム
が記載されている。
Another possibility with little or no remnant hearing (especially when the auditory nerve or brain stem is damaged) is the use of different treatment devices, such as visual treatment devices. Can be This is proposed in U.S. Pat. No. 5,029,216, which describes a system mounted on glasses that can alert a driver with hearing loss to the approach of an ambulance vehicle.

【0013】 音声を再送出する方式であれ、聴覚神経を直接に刺激する方式であれ、あるい
は視覚的な領域を使用するのであれ、関心のある音声とノイズの両方がもたらさ
れることがある。会話で最も生じやすい周波数域の部分に焦点を当てても、一度
にすべての話者の会話を増幅することになり、補聴器の使用者が一人の話者が話
すのを理解できても、複数の話者がいる場合に理解できないという、普通に見ら
れる問題に突き当たる。関心ある音声とノイズを分離することは、やがては状況
が変化したり、聴者が移動する可能性がある以上、困難である。その結果、使用
者が関心を持つ信号とノイズが両方とも増幅されがちである。上述したマルチ・
マイクロホン技術が解決しようとする課題が、こうした問題であった。しかしな
がら、その指向性は、しばしば使用者の正面方向に限定されている。
[0013] Whether retransmitting speech, directly stimulating the auditory nerve, or using a visual area, both speech and noise of interest can be introduced. Focusing on those parts of the spectrum that are most likely to occur in conversation, it will amplify the conversations of all speakers at once, and even if the hearing aid user can understand one speaker speaking, This leads to a common problem that cannot be understood when there are speakers. Separating the speech and noise of interest is difficult because the situation may change over time and the listener may move. As a result, both signals and noise of interest to the user tend to be amplified. The multi
The problem that the microphone technology is trying to solve was such a problem. However, its directivity is often limited to the direction in front of the user.

【0014】 初めの段階の聴覚系の生理機能は、よく知られていて、たとえば、J.O.ピック
ルス、聴覚の生理機能入門、アカデミックプレス、第2版、1988年によく記
述されている。この生理機能は、哺乳動物の広範囲にわたりとても類似するもの
であり、このことは、この段階に起こることはすべて(i)効果的であるととも
に、(ii)聴覚処理が特に人間に固有のものあることを前提とする必要がないこ
とを提示している。本発明者らは、追求すべきは、片耳でも両耳でも音声が流れ
ていることであると(A.S.ブレッグマン、聴覚情景解析、MITプレス、1990年)
が提案する。これは、(i)同じストリーミング(streaming)の問題が動物界
全体で見いだされているからであり、(ii)論理的にも、音声のストリーミング
がその解釈に先立つものだからである。
The physiology of the early stages of the auditory system is well known and is well described, for example, in JO Pickles, Introduction to Auditory Physiology, Academic Press, 2nd Edition, 1988. This physiology is very similar across a wide range of mammals, which means that everything that happens at this stage is (i) effective and (ii) that auditory processing is particularly human-specific It does not need to be assumed. What we should pursue is that sound is flowing in one ear or both ears (AS Bregman, Auditory Scene Analysis, MIT Press, 1990).
Suggests. This is because (i) the same streaming problem has been found throughout the animal kingdom, and (ii) logically, audio streaming precedes its interpretation.

【0015】 聴覚系は、ストリーミングを実行するにあたり複数の異なる合図(cue)を使
用するようである。両耳によるストリーミングでは、相対的な強度、周波数域の
部分における強度の急激な増加の相対的なタイミング(開始期(立上り))、バ
ンドパスされた音声のエンベロープの特徴の相対的タイミング(最も顕著な振幅
変調ピーク)、およびバンドパスされた信号のピークとトラフ(溝)の相対的タ
イミング(波形の同期的特徴)を含む。相対的強度は、一方の耳で他方よりもよ
り強い側からの音声に頭部の影(head shadow)が生ずる低周波数で最も使用さ
れる。音波が頭部の周囲で回折するために、高周波数ではあまり顕著とならない
。片耳によるストリーミングでは、開始期(立上り)の周波数域にわたり同時発
生と相対的タイミング、および周波数域の中間と高周波数領域の同周波数振幅変
調の同時発生が使用されるようである。このリストは徹底することを意図したも
のではないが、初期の聴覚系により同時に使用される技術の方向を指し示す例を
示している。
The auditory system appears to use a number of different cues in performing the streaming. In binaural streaming, relative intensity, relative timing of the sharp increase in intensity in the frequency domain (onset (rising)), relative timing of the band-passed audio envelope features (most prominent) Amplitude modulation peaks) and the relative timing of the peaks and troughs of the bandpassed signal (synchronous features of the waveform). Relative intensity is most used at low frequencies where head shadows are present in sound from the stronger side of one ear than the other. At high frequencies it is less pronounced because the sound waves diffract around the head. Streaming with one ear appears to use co-occurrence and relative timing over the onset (rising) frequency range, and co-occurrence of the same frequency amplitude modulation in the middle and high frequency regions of the frequency range. This list is not intended to be exhaustive, but provides examples that point in the direction of techniques used simultaneously by early auditory systems.

【0016】 相対的強度から離れて、上述した特徴のすべては、音声の微細な時間構造に根
拠を有する。これらの特徴は、3つのクラスに分けられ(S.ローゼン、音声の時
間的情報:音響、聴覚および言語の側面、Phil. Trans. R. Soc. ロンドンB、33
6:367-373、1992年;L.S.スミス、蝸牛殻がフィルターした音の短期構造から抽
出された特徴、J.A.バリナライア、D.W.グラスプール、H.ホウフトン編、第4神
経演算(computation)および心理学セミナー、ロンドン、1997年4月9〜11日
、113--125、スプリンガーヴァーラグ、1998年)、そして、3つのクラスのすべ
てに見られる特徴は、片耳でのグルーピングおよび方向の探知に使用されるであ
ろう情報を含む。
Apart from the relative strength, all of the features described above are based on the fine temporal structure of the speech. These features are divided into three classes (S. Rosen, Temporal Information in Speech: Acoustic, Auditory and Linguistic Aspects, Phil. Trans. R. Soc. London B, 33
6: 367-373, 1992; LS Smith, features extracted from short-term structure of cochlear filtered sound, JA Ballina Ria, DW Grasspool, H. Hofton, Ed., 4th Neurocomputation and Psychology Seminar London, April 9-11, 1997, 113--125, Springer Varag, 1998), and features found in all three classes are used for grouping and direction finding in one ear Including information that would be

【0017】 2つの聴覚システム間のこれらの特徴の違いの根源は、両耳間の時間差(IT
D)および両耳における音の強度の差(IID)である。それらがとる正確な形
状は、J.ブラウアート、空間的聴覚、MITプレス、改訂版、1996年、に記載さ
れている。この議論から、IIDが低周波数に効果的であり(頭の影効果による
)、中間および高周波数でITDが効果的であることが明らかである(信号間隔
は、2つの耳のそれぞれに信号進路時間の違いに比較して大きいためである)(
図1参照)。
The source of these characteristic differences between the two auditory systems is the time difference between the ears (IT
D) and the difference in sound intensity between both ears (IID). The exact shapes they take are described in J. Brauart, Spatial Hearing, MIT Press, Revised Edition, 1996. It is clear from this discussion that IID is effective at low frequencies (due to head shadow effects) and ITD is effective at mid and high frequencies (the signal spacing is the signal path to each of the two ears). Because it is bigger than the time difference) (
(See FIG. 1).

【0018】 コルチ器官の内側の聴細胞が、蝸牛殻の基底膜で圧力波を変換するため、入力
信号の位相の一部で、少なくとも約20Hz〜4kHzの間の周波数で、聴覚細
胞にスパイクを起こしやすい。この位相のロッキングは、後の聴覚信号の処理に
おいて両耳間の時間差の相違を検出するのに重要であると考えられる。ITDに
比較して信号の周期が長い限り、これは重要で明白な合図(cue)を提供する。
しかし、たとえば2.5kHzでは、周期は400μsecである。ITDが(
θ=25度に対応する)150μsecであれば、2つの耳に到達する信号が、
3π/4位相ずれであることを期待する。しかし、これは、θ=37度の250
μsecのITDに対応する2π−3π/4位相ずれの信号と識別されない。そ
のため、中間から高周波数では、方向が曖昧になってしまう。
The auditory cells inside the organ of Corti transform the pressure waves at the basilar membrane of the cochlea, thus spiking the auditory cells at a frequency of at least between about 20 Hz and 4 kHz, at a fraction of the phase of the input signal. Easy to wake up. This phase locking is considered to be important in detecting the difference in the time difference between both ears in the processing of the auditory signal later. As long as the period of the signal is long compared to the ITD, this provides an important and obvious cue.
However, for example, at 2.5 kHz, the period is 400 μsec. ITD (
If 150 μsec (corresponding to θ = 25 degrees), the signals reaching the two ears are:
Expect a 3π / 4 phase shift. However, this is equivalent to 250 at θ = 37 degrees.
It is not identified as a signal having a phase shift of 2π-3π / 4 corresponding to the ITD of μsec. Therefore, the direction becomes ambiguous from the middle to the high frequency.

【0019】 高周波数では(約4kHz以上)、位相のロッキングが崩れるため、波形同期
のITDは、一定の高周波数音を位置付けるのに使用されない。
At high frequencies (approximately 4 kHz and above), phase-locking is disrupted, so waveform-synchronized ITDs are not used to locate certain high-frequency sounds.

【0020】 音声強度の急激な上昇は、蝸牛殻の神経核の発火(刺激伝達の作用を生じた)
における立上り細胞(onset cells)をもたらす(J.O.ピックルス、聴覚生理学
入門、アカデミックプレス、第2版、1988年)。これらの立上り細胞は、リアク
ションタイム(刺激を与えてから反応が起こるまでの時間)が短く、強度に対し
ては相対的に反応を示さない(J.S.ロトマン、E.D.ヤングおよびP.D.マニス、腹
面の蝸牛殻神経核の密生した細胞の上の聴覚細胞繊維の収束現象、計算モデルに
よる推論、神経生理学ジャーナル、70(6):2562--2583、1993年;J.S.ロトマン
およびE.D.ヤング、腹面の蝸牛殻神経核密生細胞の計算モデルにおける神経同調
化の増大、聴覚神経科学、2:47--62、1996年)。強度が2つの検出器で異なると
考えられるため、このことは重要である。リアクションタイムは非常に短く、複
数の細胞の母集団符号化は、立上りタイミングを正確に計測できるようにすると
考えられている(D.C.フィッツパトリック、R.バトラ、T.R.スタンフォードおよ
びS.クウダ、音声の位置確認のための神経集団の符号化、ネイチャー、388:871-
874、1997年刊行;B.C.スコットン、音声の位置確認とニューロン、ネイチャー
、393:531、1998年)。その結果、立上りエンベロープのITDは、高周波数の
信号であっても、有用な方向情報を提供できる。
[0020] A sudden increase in voice intensity causes firing of the nuclei of the cochlea (causing the effect of stimulus transmission).
(JO Pickles, Introduction to Auditory Physiology, Academic Press, 2nd ed., 1988). These rising cells have a short reaction time (the time from the application of a stimulus to a response) and are relatively insensitive to intensity (JS Rotman, ED Young and PD Manis, ventral cochlea) Convergence of auditory cell fibers on dense cells of the nucleus, inference by computational models, Journal of Neurophysiology, 70 (6): 2562--2583, 1993; JS Rotman and ED Young, ventral cochlear nucleus Increased neuronal entrainment in a computational model of dense cells, Auditory Neuroscience, 2: 47-62, 1996). This is important because the intensities are considered different for the two detectors. Reaction times are very short, and population coding of multiple cells is thought to be able to accurately measure rise timing (DC Fitzpatrick, R. Buttra, TR Stanford and S. Kuuda, Coding of a neural group for confirmation, Nature, 388: 871-
874, 1997; BC Cotton, Voice Localization and Neurons, Nature, 393: 531, 1998). As a result, the rising envelope ITD can provide useful directional information even for high frequency signals.

【0021】 通常の環境において、ほとんどの音声は、反射面が存在するために、さまざま
な経路を経て、耳に達する。このことの1つの結果として、ITDは、これらの
複数の経路の組合せの結果であるといえ、このことが音源の方向の不正確な評価
の起因となるのである。しかし、直行する経路が常に最も速く、概してほとんど
減衰しないのである。このようにして、最初の立上りで計算される音声の方向は
、複数の経路の存在に影響されることはない。さらに、反射経路から信号が到着
することで生起される立上りは、直接の経路からの信号によりまさに発火した立
ち上がり細胞からレスポンスを生起しようと試みている。これらの反射した立上
りは、本来の立上りと同じ強さではなく、不応期にあると考えられる細胞を刺激
しようと試みる。
In a normal environment, most sounds reach the ear via various paths due to the presence of a reflective surface. One consequence of this is that ITD may be the result of a combination of these multiple paths, which results in an inaccurate estimation of the direction of the sound source. However, the straight path is always the fastest and generally has little attenuation. In this way, the direction of the speech calculated at the first rise is not affected by the existence of a plurality of paths. In addition, the rise caused by the arrival of the signal from the reflection path attempts to generate a response from the rising cell that has just fired by the signal from the direct path. These reflected rises are not as strong as the original rise and attempt to stimulate cells that are considered to be in a refractory period.

【0022】 多くの調子付けた音は、低周波数基本波の多重高調波からなる。これは、会話
で発生された音声を含めて、多くの動物が発する音の実態である。結果として、
これらの方向を探知可能とすることは、特に重要である。蝸牛殻で起きるバンド
パスフィルタリングの本質は、これらの音では、複数の隣接高調波は、蝸牛殻の
多くの高周波数位置に表れるということである。これは、基本波の周波数で振幅
について変調されることで、蝸牛殻の基底膜の運動エネルギーとなる。その結果
、聴覚神経出力は、同様に変調される。蝸牛殻の核にある放射状の(歯状の)細
胞は、振幅変調信号に特に鋭敏であり、この変調を増幅できる(A.R.パーマーお
よびI.M.ウインター、蝸牛殻神経および蝸牛殻中心の、会話で発生された音声の
基本波周波数および高調波複合音に対するレスポンス、生物化学の進歩、83:23
1-239〜239、1992年)。この振幅変調のピークおよびトラフのタイミングにおけ
る相違を使用することで、聴覚系は、たとえ、波形同期位相のロッキングがなく
ても、一定の高周波数音声の方向を探知できる。
Many toned sounds consist of multiple harmonics of the low frequency fundamental. This is the reality of the sounds emitted by many animals, including the sounds produced in conversation. as a result,
It is particularly important to be able to detect these directions. The essence of bandpass filtering that occurs in the cochlea is that in these sounds, multiple adjacent harmonics appear at many high frequency locations in the cochlea. This becomes the kinetic energy of the basilar membrane of the cochlea when modulated in amplitude at the frequency of the fundamental. As a result, the auditory nerve output is similarly modulated. Radial (toothed) cells in the nucleus of the cochlea are particularly sensitive to amplitude-modulated signals and can amplify this modulation (AR palmers and IM winters, cochlear nerves and the center of the cochlea, generated in conversations). Response to fundamental frequency and harmonic complex tones of simulated speech, advances in biochemistry, 83:23
1-239-239, 1992). By using the difference in peak and trough timing of this amplitude modulation, the auditory system can detect the direction of constant high frequency audio, even without locking of the waveform synchronization phase.

【0023】 最近の聴覚の精神物理学における研究は、立上り、振幅変調および波形同期処
理から検出されるITDsが、直接的に使用されるのではなく、まず片耳でグル
ープ分けされるモデルを提案している(S.カーライル、仮の聴覚空間での音声の
位置認識における物理、精神物理の基礎:世代および適応、S.カーライルおよび
R.G.ランズカンパニー編、1996年;J.F.クリングおよびQ.サマーフィールド、同
時発生する音声の知覚分離:共通両耳遅延による交差周波数のグループ化の欠如
、J. Acoustical Soc. of America、98、第2巻、785--796、1995年;C.J.ダー
ウインおよびV.チオッカ、ピッチ知覚のグループ化:立上りの非同期性の効果お
よび不正確な調整要素を付与された耳、J. Acoustical Soc. of America、91、
6、3381--3390、1992年;C.J.ダーウインおよびR.W.フキン、両耳時間差および
周波数近接による母音からの高調波の知覚分離、J. Accoustical Soc. of Ameri
ca、102(4)、2316--2324、1997年)。これは、ITDsが、複数のチャンネルか
ら同時に計算されるために、エラーの可能性が減じるので、最も効果的であるら
しい。
Recent studies in auditory psychophysics have proposed a model in which ITDs detected from rise, amplitude modulation and waveform synchronization are not directly used but grouped first in one ear. (S. Carlisle, Physics and Psychophysical Fundamentals in Speech Position Recognition in Temporary Auditory Space: Generation and Adaptation
RG Lands Company, 1996, JF Cling and Q. Summerfield, Simultaneous Perceptual Separation of Speech: Lack of Cross-Frequency Grouping by Common Binaural Delay, J. Acoustical Soc. Of America, 98, Vol. 785-796, 1995; CJ Darwin and V. Thiocca, Grouping of Pitch Perception: Ear Asynchrony Effects and Inaccurate Coordinating Ears, J. Acoustical Soc. Of America, 91,
6, 3381-3390, 1992; CJ Darwin and RW Fukin, Perceptual separation of harmonics from vowels by binaural time difference and frequency proximity, J. Accoustical Soc. Of Ameri
ca, 102 (4), 2316-2324, 1997). This seems to be most effective since ITDs are calculated from multiple channels simultaneously, reducing the likelihood of errors.

【0024】 現実の環境音は、たいてい、複雑で、多くの異なる周波数のエネルギーを含む
。いくつかは、調子付けされ、いくつかは調子付けされない。しかし、異なる種
類の音声の方向を決定することを特に困難なことであると、通常は感じない。聴
覚系は、上記のすべての技術にIID(および、おそらく未知である他の技術)
を加えて使用しているからだと考えられる。確かに、(i)IIDは、特に低周
波数の音声で有用であり、(ii)立上りは、音声が急激に発生した場合、(拍手
のような)調子付けされたりされなかったりする音声に有用であり、(iii)波
形同期技術は、中間周波数の音声に有用であり、(iv)振幅変調を基礎とする技
術は、バンドパスフィルタリングされたときの振幅変調をみせる高周波数の音声
に有用である。(純粋な定高周波数音声の正確な方向を探知することが困難であ
ることに気づくであろう。IIDは小さく、波形同期処理はできなくなる。) 聴力損失は、微細な時間構造のすべての側面で情報の欠損を引き起こす。内部
の聴細胞にまったく検出されない信号の周波数帯には明らかに、微細な時間情報
がまったくない。さらに、コルチ器官が機能しない範囲における信号の周波数帯
では、検出は、コルチ器官の隣接領域においてのみ生起するであろう。聴覚神経
信号の同期の欠損は、エンベロープ変調の特徴と、バンドパスされた信号自体の
ピークおよびトラフについて生じるであろう。この微細な時間情報の欠損は、音
性をストリーミングすることが困難な難聴者にとっての根本的な原因の1つであ
ると考える。
Real-world ambient sounds are often complex and contain energy at many different frequencies. Some are toned and some are not. However, determining the direction of the different types of sound is usually not felt particularly difficult. The auditory system uses IID (and possibly other unknowns) for all of the above technologies
It is thought that it is because it is used in addition. Indeed, (i) IID is particularly useful for low frequency speech, and (ii) rising is useful for speech that is toned or untoned (such as applause) if the speech occurs rapidly. (Iii) waveform synchronization techniques are useful for intermediate frequency speech, and (iv) amplitude modulation based techniques are useful for high frequency speech that exhibits amplitude modulation when bandpass filtered. is there. (You will find it difficult to find the exact direction of pure constant high frequency speech. The IID is small and waveform synchronization is not possible.) Hearing loss is a problem in all aspects of the fine temporal structure. Causes information loss. Obviously, there is no fine time information in the frequency band of the signal that is not detected at all by the internal auditory cells. Furthermore, in the frequency bands of the signal in the area where the organ of Corti does not function, the detection will only occur in the area adjacent to the organ of Corti. Loss of synchronization of the auditory nerve signal will occur for the characteristics of the envelope modulation and for the peaks and troughs of the bandpassed signal itself. This lack of minute time information is considered to be one of the root causes for a hearing-impaired person who has difficulty streaming sound.

【0025】 本発明の実施の目的は、音声の特徴の分類が総合的に検出され、入力音声の方
向を探知するために使用される、双方向システムを提供することにある。また、
この方向情報は、音声をストリーミングするために使用することができる。
It is an object of an embodiment of the present invention to provide an interactive system in which a classification of audio features is comprehensively detected and used to find the direction of the input audio. Also,
This direction information can be used to stream audio.

【0026】発明の要約 従って、本発明の好ましい実施例では、双方向システムを提供し、該システム
は、2つのマイクロホンにおいて入力音を帯域通過させることにより生成される
信号の精密なタイミングが、早期の聴覚システムに起こると思われることに基づ
く技術を使用して検出される。それぞれのチャンネルにおけるIIDに沿って、
音源の方向を決定するために使用される。表示されるいくつかの要素を双方向的
に選択することにより、どの音の要素が提示されるべきかを、使用者は選択する
。使用者の相互作用は、使用者が特定の方向に手を指し示すことからなるか、あ
るいは、ある形態の表示およびグラフィック表示板を使用することを行う。選択
された聴覚情報の最終的な表現は、聴覚の定型(選択的な増幅、減衰および可能
な再合成を使用する)か、視覚的な定型を使用する。
[0026] SUMMARY OF THE INVENTION Accordingly, in a preferred embodiment of the present invention to provide a two-way system, the system comprising precise timing of the signal produced by the bandpass input sound at the two microphones, early Are detected using techniques based on what is likely to occur in the auditory system of the subject. Along with the IID on each channel,
Used to determine the direction of the sound source. By interactively selecting several elements to be displayed, the user selects which sound element is to be presented. The user interaction may consist of the user pointing his hand in a particular direction, or may use some form of display and graphic display board. The final representation of the selected auditory information uses the auditory routine (using selective amplification, attenuation and possible resynthesis) or the visual routine.

【0027】 ここで記述されるシステムは、ロボットのための聴覚システムの一部として使
用されうる。特定の方向からの音源が、全ての音場が(多くの音源から同時に)
一度に解釈されなければならない場合よりも、後工程の入力音場の解釈処理を、
より簡単にするように、選択されうる。
The system described herein can be used as part of a hearing system for a robot. Sound source from a specific direction, all sound fields (from many sound sources simultaneously)
Rather than having to be interpreted at once, the post-processing of the input sound field
It can be chosen to make it easier.

【0028】 本発明の一つの特徴では、音声を処理する方法を提供する。該方法は、以下の
ステップからなる: 音を、少なくとも2つの隔離検出位置で検出するステップ; 検出された音を、個々の音源と前記検出位置との角度関係を同定するように解
析するステップ; 特定の音源に関連する角度関係の選択を受容するステップ; 前記特定の音源に関連する音の流れを強調するように、前記選択に応じて前記
検出された音を処理するステップ。
In one aspect of the invention, a method for processing audio is provided. The method comprises the steps of: detecting sound at at least two isolated detection positions; analyzing the detected sound to identify an angular relationship between an individual sound source and said detection position; Receiving a selection of an angular relationship associated with a particular sound source; processing the detected sound in response to the selection so as to enhance a sound flow associated with the particular sound source.

【0029】 好ましくは、それぞれの音源間の角度関係は、隔離検出位置で検出されるよう
に、それぞれの音源からの音の間の時間差に関して、少なくとも部分的に決定さ
れる。最も望ましくは、それぞれの音源の間の角度関係が、検出された音の少な
くとも一つの特徴に関して検出された時間差に関して決定される。前記特徴は、
次から選択される:音高位相(ピッチフェーズ);振幅変調位相;音の立上り。
理想的には、時間差は、検出された音の複数の特徴に関して検出される。
Preferably, the angular relationship between the respective sound sources is determined at least in part with respect to the time difference between the sounds from the respective sound sources, as detected at the isolated detection position. Most desirably, an angular relationship between the respective sound sources is determined with respect to a detected time difference with respect to at least one characteristic of the detected sound. The features are:
Selected from: pitch phase; amplitude modulation phase;
Ideally, the time difference is detected for a plurality of features of the detected sound.

【0030】 また好ましくは、それぞれの音源の間の角度関係は、少なくとも一部が、前記
隔離検出位置で検出されたそれぞれの音源からの音の間の強さの差に関して検出
される。
[0030] Preferably, the angular relationship between the respective sound sources is at least partially detected with respect to a difference in intensity between sounds from the respective sound sources detected at the isolated detection position.

【0031】 また好ましくは、音は、使用者の耳に相応する位置で検出され、それぞれの音
源間の角度関係は、両耳時間差(ITDs)および両耳強度差(IIDs)に関
して決定される。
Also preferably, the sound is detected at a position corresponding to the user's ear, and the angular relationship between the respective sound sources is determined with respect to binaural time differences (ITDs) and binaural intensity differences (IIDs).

【0032】 また好ましくは、前記方法は、さらに、前記隔離位置から検出された音を複数
のチャンネルへ選択的にフィルタリングすること、そして、一つ場所から得たそ
れぞれのチャンネルの音の特徴を、他の場所に関連した対応のチャンネルからの
音の特徴と比較することを含む。
Also preferably, the method further comprises selectively filtering the sound detected from the isolated location into a plurality of channels, and characterizing the sound of each channel obtained from one location, Includes comparing sound features from corresponding channels associated with other locations.

【0033】 本発明のもう一つの特徴によれば、複数の音源から発散された音を処理する方
法を提供する。該方法は、以下のステップからなる: 少なくとも2つの隔離検出位置で音を検出するステップ; 個々の音源と前記検出位置との角度関係を同定するために、隔離検出位置で検
出したそれぞれの音源からの音の間の強度差と、前記隔離検出位置で検出したよ
うにそれぞれの音源からの音の間の時間差との少なくとも一方を参照して、前記
検出された音を解析するステップ;そして、 前記決定された角度関係を基にして、少なくとも一つの音源に関連した音を流
すステップ。
According to another aspect of the present invention, there is provided a method for processing sound emitted from a plurality of sound sources. The method comprises the steps of: detecting sound at at least two isolated detection positions; from each of the sound sources detected at the isolated detection positions to identify an angular relationship between the individual sound sources and the detection positions. Analyzing the detected sound with reference to at least one of an intensity difference between the sounds of the sound sources and a time difference between the sounds from the respective sound sources as detected at the isolated detection position; and Playing a sound associated with at least one sound source based on the determined angular relationship.

【0034】 本発明のさらなる特徴として、音を処理する装置を提供する。該装置は、以下
からなる: 少なくとも2つの隔離検出位置で音を検出する手段; それぞれの音源と前記検出位置との間の角度関係を同定するために、検出音を
解析する手段; 特定の音源に関連した同定済み角度関係の選択を可能にする手段と、;そして
、 前記特定の音源に関連した音の流れを強調するために、前記選択に応答して、
検出音を処理するための手段。
As a further feature of the present invention, there is provided an apparatus for processing sound. The device comprises: means for detecting sound at at least two isolated detection positions; means for analyzing the detected sound to identify an angular relationship between each sound source and said detection position; a specific sound source Means for permitting the selection of an identified angular relationship associated with: and responsive to said selection to enhance the sound flow associated with said particular sound source;
Means for processing the detected sound.

【0035】 本発明のまたさらなる特徴に関して、複数の音源から発散される音を処理する
ための装置を提供する。該装置は、以下からなる。
In accordance with yet a further aspect of the present invention, there is provided an apparatus for processing sound emanating from a plurality of sound sources. The device comprises:

【0036】 少なくとも二つの隔離検出位置で音を検出するのための手段; 前記隔離検出位置で検出された各々の音源からの音の間の強度差と、前記隔離
検出位置で検出された各々の音源からの音の間の時間差とのうちの少なくとも一
つに関して、それぞれの音源と前記検出位置の間の角度関係を決定するために、
検出された音を解析する手段;そして、 前記決定された角度関係を基にして、少なくとも一つの音源に関連した音を流
す手段。
Means for detecting sound at at least two isolated detection locations; intensity differences between sounds from each of the sound sources detected at the isolated detection locations; and each detected at the isolated detection locations. With respect to at least one of a time difference between sounds from the sound sources, to determine an angular relationship between the respective sound source and the detection position,
Means for analyzing the detected sound; and means for emitting a sound associated with at least one sound source based on the determined angular relationship.

【0037】 本発明のこれらの特徴および他の特徴は、添付された図面と結合されることに
より、以下の記述により明確になる。: 図1は、音源からの角度の関数として両耳時間差(ITD)のグラフである。
; 図2は、本発明の好ましい実施例に関する音を処理するための装置のブロック
図形式の概略図である。; 図2aは、図2のバンドパスフィルターからの出力をさらに極詳細に表現した
図である。; 図3は、図2の装置での両耳強度差(IID)の決定を表現したブロック図で
ある。; 図4、5および6は、図2の装置に始まる両耳時間差(ITDs)の決定を表
現したブロック図である。; 図7から11は、図2の装置で振幅変調(AM)信号に基づいたITDsの決
定を表現したブロック図である。; 図12は、図2の装置で単純なITDsの決定を表現したブロック図である。
; 図13は、図2の装置でIIDおよびITDsの表示を表現したブロック図で
ある。;そして、 図14から16は、図13の表示で使用者の対話の処理を表現したブロック図
である。
[0037] These and other features of the invention will become more apparent from the following description when taken in conjunction with the accompanying drawings. FIG. 1 is a graph of the binaural time difference (ITD) as a function of angle from the sound source.
FIG. 2 is a schematic diagram in the form of a block diagram of an apparatus for processing sound according to a preferred embodiment of the present invention; FIG. 2a is a more detailed representation of the output from the bandpass filter of FIG. FIG. 3 is a block diagram illustrating the determination of binaural intensity difference (IID) in the apparatus of FIG. 4, 5 and 6 are block diagrams representing the determination of binaural time differences (ITDs) starting with the device of FIG. 7 to 11 are block diagrams illustrating the determination of ITDs based on amplitude modulated (AM) signals in the apparatus of FIG. FIG. 12 is a block diagram expressing a simple determination of ITDs in the apparatus of FIG.
FIG. 13 is a block diagram expressing the display of IID and ITDs in the device of FIG. 14 to 16 are block diagrams expressing the processing of the user's interaction in the display of FIG.

【0038】 図1を最初に参照すると、両耳時間差(ITD)は、150mmの内耳分離(
信号経路差)のために、音源と眼前の間の角度に対する関数としてグラフ化され
る。音源距離は、耳と耳の間の距離と比較して大きいと仮定する。詳述したよう
に、本発明の好ましい実施の形態の装置は、複数の異なる経路によってITDを
決定し、その情報は、使用者に向かって音が流れうるように、装置が使用される
Referring first to FIG. 1, a binaural time difference (ITD) is defined as the 150 mm inner ear separation (ITD).
Signal path difference) and is graphed as a function of the angle between the source and the eye. It is assumed that the sound source distance is large compared to the distance between the ears. As described in detail, the device of the preferred embodiment of the present invention determines the ITD by a plurality of different paths, and the information is used by the device so that sound can flow toward the user.

【0039】 図2は、本発明の好ましい実施の形態に従って、音を処理するための装置10
の外観図である。図は、二つの入力変換器12、14(マイクロホンLおよびマ
イクロホンR)と、二つの多重チャンネルバンドパスフィルタ16、18を示し
ている。マイクロホン12、14は、耳の中か、耳の後側か、他の適当な位置に
、適当な距離だけ離して配置されている。マイクロホン12,14は、無指向性
型であり、システムの指向性は、マイクロホンの感度の敏感性を以ては達成され
ない。さらに、決定的事項ではないが、マイクロホンは調和させられる。
FIG. 2 shows an apparatus 10 for processing sound according to a preferred embodiment of the present invention.
FIG. The figure shows two input transducers 12,14 (microphone L and microphone R) and two multi-channel bandpass filters 16,18. The microphones 12, 14 are located in the ear, behind the ear, or in any other suitable location, at a suitable distance. The microphones 12, 14 are of the omni-directional type, and the directivity of the system cannot be achieved with the sensitivity sensitivity of the microphones. Further, although not critical, the microphones are tuned.

【0040】 いずれのバンドパスフィルター16、18は、それぞれのマイクロホン12,
14から到達する電気的信号を複数のバンドへ、図2aに示したように分離する
。これらのバンドは、重なり合ってよく、広い同調範囲を有する。:すなわち、
それらは、実際の動物の蝸牛殻の敏感性解析で見つかるバンドと同様な特性を有
する。概算で、6dBで、中心周波数の約10%のバンド幅を有する。
Each of the band-pass filters 16 and 18 is connected to each of the microphones 12 and
The electrical signals arriving from 14 are separated into a plurality of bands as shown in FIG. 2a. These bands may overlap and have a wide tuning range. : That is,
They have properties similar to the bands found in sensitivity analysis of the cochlea of real animals. Approximately, at 6 dB, it has a bandwidth of about 10% of the center frequency.

【0041】 バンドパスフィルター16、18は、互いに調和させられる。加えて、フィル
ター16、18は、固定で既知の遅延特性を有し、該遅延特性は、二つのフィル
ター16、18で同じである(あるいは同一に極めて近い)。
The bandpass filters 16, 18 are matched to each other. In addition, the filters 16, 18 have a fixed and known delay characteristic, which is the same (or very similar) for the two filters 16, 18.

【0042】 バンドパスフィルター16、18の両方は、同じ数の出力を有する。正確な数
は重要ではないが、フィルターの数が増加するにつれて、システムの性能は改良
される。
Both bandpass filters 16, 18 have the same number of outputs. The exact number is not critical, but the performance of the system improves as the number of filters increases.

【0043】 バンドパスフィルター16、18から、個々のチャンネルの信号の特徴は、両
耳強度差(IIDs)および両耳時間差(ITDs)に関する情報を提供するよ
うに処理される。得られる情報は、使用者に到達する音の方向に基づいて、音源
を使用者が認識および選択できるような形式で提供される。選択された音に基本
的に関連されたチャンネルからの信号は、使用者の特別な要求に適合させて処理
され、選択された音源からの音を効果的に流し、他の音源からの音または「ノイ
ズ」の効果を最小化する。
From the bandpass filters 16, 18, the signal characteristics of the individual channels are processed to provide information about binaural intensity differences (IIDs) and binaural time differences (ITDs). The resulting information is provided in a form that allows the user to recognize and select the sound source based on the direction of the sound reaching the user. The signal from the channel essentially associated with the selected sound is processed to suit the special needs of the user, effectively playing the sound from the selected sound source, and the sound or sound from other sound sources. Minimize the effect of "noise".

【0044】 装置10の運転は、初めは図2を参照して記述され、音の個々の特徴が検出さ
れ、解析され、かつ処理される要領で、さらに詳細な記述が続けられる。
The operation of the device 10 will be initially described with reference to FIG. 2, followed by a more detailed description in the way that individual features of the sound are detected, analyzed and processed.

【0045】 図示された実施の形態では、フィルター16、18からの出力は、四つの異な
る解析で処理され、必要なハードウェアは、ブロック形式で図示される。いずれ
の解析形式も、以下に、端的に、順々に記述される。
In the illustrated embodiment, the outputs from the filters 16, 18 are processed in four different analyses, and the required hardware is illustrated in block form. Both forms of analysis are described shortly and in turn below.

【0046】 いずれのチャンネルの音の強度も、20、22で計算され、二つのマイクロホ
ン12、14からの決定された強度は、24でチャンネル毎の基礎で比較され、
いずれのチャンネルでも、両耳強度(IID)の計測値を出す。いずれのIID
も、マイクロホン12、14と音源との間の特定の角度を表示し、この情報は、
26で格納され、また、双方向表示装置28に中継される。これから記述される
ように、この表示装置は、解析の他の形式の結果からの同様な入力を受け取り、
使用者にとってのより完全な情報を与える。使用者は、特定の「角度」を選択す
るために、前記表示装置に作用可能であり、さらには、該角度に対応する音源か
らの音を得られるように選択できる。表示装置28からの出力は、それぞれの格
納部26に中継され、選択された角度に対するチャンネルの「寄与」あるいは表
示の詳細は、そこから再合成(resynthesis)サブステーション30に抽出中継
される。サブステーション3により格納部26から受け取ったチャンネル関連情
報は、フィルター16、18から直接に信号を選択および処理されるために使わ
れ、該信号は、適当なチャンネル入力を強調するように、かつ、適した形式で使
用者に信号を提供するようように、例えば、選択されたチャンネルを選択的に増
幅することにより、選択的に加工される。
The sound intensity of either channel is calculated at 20, 22 and the determined intensities from the two microphones 12, 14 are compared at 24 on a channel-by-channel basis,
In each channel, a binaural intensity (IID) measurement value is output. Which IID
Also indicate a particular angle between the microphones 12, 14 and the sound source, this information
26 and relayed to an interactive display device 28. As will be described, this display receives similar input from the results of other forms of analysis,
Gives more complete information for the user. The user can act on the display device to select a particular “angle”, and can further select to obtain sound from a sound source corresponding to the angle. The output from the display 28 is relayed to the respective store 26, from which the "contribution" or display details of the channel to the selected angle are extracted and relayed to the resynthesis substation 30. The channel-related information received from storage 26 by substation 3 is used to select and process signals directly from filters 16 and 18, which signals enhance the appropriate channel inputs, and It is selectively processed to provide a signal to the user in a suitable manner, for example, by selectively amplifying selected channels.

【0047】 IIDに加えて、装置の感度と正確さは、三つの異なる方法によりそれぞれの
チャンネル毎に、両耳時間差(ITDs)を検出および処理することで改良され
る該三つの異なる方法について、以下に端的に記述する。第1に、立上りは、マ
イクロホン32,33のそれぞれで検出され、計算されて、ITDは、34で、
それぞれのチャンネル毎に、計算およびゲート制御される。結果としての立上り
ITDsは、36に格納され、双方向表示装置28および再合成サブステーショ
ン30に、上述したIIDの手順と同様に、中継される。
In addition to IID, the sensitivity and accuracy of the device is improved by detecting and processing binaural time differences (ITDs) for each channel in three different ways, for the three different methods: This is briefly described below. First, a rise is detected and calculated at each of the microphones 32, 33, and the ITD is at 34,
Each channel is calculated and gated. The resulting rising ITDs are stored at 36 and relayed to the interactive display 28 and resynthesis substation 30 in a manner similar to the IID procedure described above.

【0048】 第2に、それぞれのチャンネルにおける振幅変調(AM)は、38、39で、
検出されてグループ化され、結果の情報は、40で、AMITDを計算しゲート
制御するために使われる。再び、結果のAMITDsが42で格納され、双方向
表示装置28および再合成サブステーション30に、上述したIIDおよび立上
りITDと同様の手順で、中継される。
Second, the amplitude modulation (AM) in each channel is 38, 39,
The detected information is grouped and the resulting information is used at 40 to calculate and gate AMITD. Again, the resulting AMITDs are stored at 42 and relayed to the interactive display 28 and resynthesis substation 30 in a manner similar to the IID and rising ITD described above.

【0049】 第3に、それぞれのチャンネルのための信号位相は、44および46で検出さ
れグループ化されて、結果の情報は、48で、信号位相ITDを計算することに
使われる。再び、結果の信号位相ITDsは、50に格納され、双方向表示装置
28および再合成サブステーション30に、上述したIID、立上りITDおよ
びAMITDと同様の手順で格納さる。
Third, the signal phase for each channel is detected and grouped at 44 and 46 and the resulting information is used at 48 to calculate the signal phase ITD. Again, the resulting signal phases ITDs are stored at 50 and stored in the interactive display 28 and recombining substation 30 in a manner similar to the IID, rising ITD and AMITD described above.

【0050】 これらの作業は、先ず図3を参照して、より詳細に記述される。同図では、角
度の推定の計算が示され、支配的な入力音が、左と右の入力の間の両耳強度差の
使用により発生し、一つの推定数は、一つのチャンネル毎に作られる。
These operations will be described in more detail first with reference to FIG. In the figure, the calculation of the estimation of the angles is shown, where the dominant input sound is generated by using the binaural intensity difference between the left and right inputs, one estimation number being made per channel. Can be

【0051】 IIDは、25で、それぞれのチャンネルで、繰り返し(例えば、25ms毎
に)計算される。計算されたIIDは、頭に関連した変換関数の推定数を使用し
て、24で、音の入射の角度の推定数に変換される。この関数は、それ自体が音
の周波数の複素関数である。それぞれのチャンネルで推定された角度は、27で
、一緒にグループ化され、音の入射角度の複数の推定値が作られる。そして、こ
れらは、表示サブシステム28に送られる。
The IID is calculated at 25 for each channel repeatedly (eg, every 25 ms). The calculated IID is converted at 24 to an estimated number of angles of incidence of the sound using the estimated number of head-related conversion functions. This function is itself a complex function of the frequency of the sound. The estimated angles for each channel are grouped together at 27 to produce multiple estimates of the angle of incidence of the sound. These are then sent to the display subsystem 28.

【0052】 図4は、立上り検出器32および立上り群検出器32aを示す。図2のバンド
パスフィルターにより生成するバンド毎に、一つの立上り検出器がある。左端か
らのものは、右端からのものとは、別々に処理される。
FIG. 4 shows the rising detector 32 and the rising group detector 32a. There is one rising detector for each band generated by the bandpass filter of FIG. Those from the left edge are processed separately from those from the right edge.

【0053】 それぞれの立上り検出器32、33は、単独のチャンネルで立上り(エネルギ
ーの急な増加)を検出する。立上り検出器の出力は、この実施例では、パルスで
ある。このパルスは、エネルギーの増加が始まった後に、極めて急速に生成され
、加えて、パルスが生成される前の遅れは、立上りの大きさに関与しない。表現
を変えると、パルスの潜在性は低い。立上り検出器の出力は、立上り(x,i)
と表記され、xはLまたはR(左側または右側)であり、iはバンドパスチャン
ネルを特定する。
Each of the rise detectors 32 and 33 detects a rise (a sudden increase in energy) in a single channel. The output of the rising detector is a pulse in this embodiment. This pulse is generated very quickly after the onset of energy build-up, and the delay before the pulse is generated does not contribute to the magnitude of the rise. In other words, the potential of the pulse is low. The output of the rising detector is the rising (x, i)
Where x is L or R (left or right) and i specifies a bandpass channel.

【0054】 一方の側の立上り検出器32の出力は、立上り群検出器32aに供される。そ
れぞれのマイクロホンに(すなわち、それぞれの側に)一つの立上り群検出器が
ある。立上り群検出器32aは、短時間に起こったこれらの立上りを(フィルタ
ーバンクを通しての遅れ時間の差を計算に入れて、)、一緒にグループ化する。
The output of the rising detector 32 on one side is supplied to a rising group detector 32a. There is one rising group detector for each microphone (ie, on each side). The riser group detector 32a groups together these risers that occurred in a short time (taking into account the difference in lag times through the filter bank).

【0055】 立上り群検出器32aの出力は、n−チャンネル信号である(nは、バンドパ
スバンドの数である)。それぞれの信号は、常に、1である(このチャンネルが
その時点では立上り群の一部であることを示す)か、または0(このチャンネル
がその時点では立上り群の一部でないことを示す)である。
The output of the rising group detector 32a is an n-channel signal (n is the number of bandpass bands). Each signal is always 1 (indicating that this channel is now part of a rising group) or 0 (indicating that this channel is not currently part of a rising group). is there.

【0056】 図5は、34aで、合成立上り群信号を形成するために構成される左と右の立
上り群信号を示す。この合成34aは、一連のnアンドゲートまたは一連のオア
ゲートの形式をとる。
FIG. 5 shows the left and right rising group signals configured to form a combined rising group signal at 34 a. This synthesis 34a takes the form of a series of n-and-gates or a series of or-gates.

【0057】 図6は、時間的に比較されたそれぞれのチャンネルからの左および右からの立
上り信号を示し、時間差の値を計算する。そのような値が計算されるnがある。
立上り信号が無いチャンネルでは、出力が生成されない。同様に、左と右の立上
り信号の間の時間差の最小値が大き過ぎるときの(すなわち、どの信号方向から
も生成されない)チャンネルでも出力が生成されない。
FIG. 6 shows the rising signals from the left and right from each channel compared in time, and calculates the value of the time difference. There are n for which such values are calculated.
No output is generated on channels without a rising signal. Similarly, no output is generated on a channel when the minimum value of the time difference between the left and right rising signals is too large (ie, not generated from any signal direction).

【0058】 生成された値は、34bで、合成立上り信号群信号により、ゲート制御される
。この信号は、立上りの群を選択する(一般に一度に一つ)。n出力が生成され
、それぞれは、時間差の値であるか、無価値である。
The generated value is 34 b, and is gated by the combined rising signal group signal. This signal selects the rising group (generally one at a time). n outputs are generated, each of which is a time difference value or worthless.

【0059】 一つの立上り群は、一度に生成され、立上り格納部36は、最新のグループ化
された立上りのチャンネルセットを格納し、これらは、グループ化されたITD
で、すなわちチャンネル毎に決定された音の方向に合致して索引される。
One rising group is generated at a time, and the rising storage unit 36 stores the latest grouped rising channel sets, and these are stored in the grouped ITD.
, That is, indexed in accordance with the direction of the sound determined for each channel.

【0060】 図7および図8は、振幅変調がいかに検出されるかを示す。バンドパスフィル
ター16、18からの出力は、60で、調整され、平滑化され、調整平滑化出力
は、AM地図化ネットワーク62に供給される。この手法は、スミスL.S.(
統合発火ニューロンのネットワークを使用して、実行された一方向の周波数地図
、ICANN98、第2巻、991〜995頁、スプリンガーヴァーラグ、19
98年刊行)に基づく。このネットワーク62は(図8に示されたように)、複
数の刺激性ニューロン(m)64および(隠された)抑制性ニューロン66を有
する。全ての刺激性ニューロンの入力は同じであり、抑制性ニューロンの入力は
、刺激性ニューロンの(遅れた)出力である。刺激性ニューロンは、狭い周波数
範囲で振幅変調に特に鋭敏であるように、配列される。ネットワークの効果は、
振幅変調入力のために、刺激性ニューロン(地図化ニューロン)の一つが、振幅
変調で位相的に発火する。加えて、抑制性ニューロンは、充分な量の振幅変調が
ある時にいつでもパルスを出す。
FIGS. 7 and 8 show how amplitude modulation is detected. The outputs from the bandpass filters 16, 18 are adjusted and smoothed at 60, and the adjusted smoothed output is provided to an AM mapping network 62. This technique is described in Smith L. et al. S. (
One-way frequency map implemented using a network of integrated firing neurons, ICANN 98, Vol. 2, pp. 991-995, Springer Varag, 19
1998). This network 62 (as shown in FIG. 8) has a plurality of stimulatory neurons (m) 64 and inhibitory neurons 66 (hidden). The input of all stimulatory neurons is the same, and the input of inhibitory neurons is the (lagged) output of stimulatory neurons. Stimulatory neurons are arranged to be particularly sensitive to amplitude modulation over a narrow frequency range. The effect of the network is
Due to the amplitude modulation input, one of the stimulating neurons (mapping neurons) fires in phase with amplitude modulation. In addition, inhibitory neurons pulse whenever there is a sufficient amount of amplitude modulation.

【0061】 AM選択ステージは、全ての刺激性ニューロンからの出力を得る。これは、抑
制性ニューロンからの出力によりゲート制御される(出力は、振幅変調入力の欠
如で生成されない)。それは、活性な刺激性ニューロン出力のみを選択すること
により、単一の振幅変調チャンネルへのパルス出力を減じる。加えて、この出力
を生成する刺激性ニューロンの同一性をコード化する。これは、振幅変調の周波
数について、情報を供給する。
The AM selection stage gets the output from all the stimulating neurons. It is gated by the output from the inhibitory neuron (the output is not generated due to the lack of an amplitude modulation input). It reduces the pulse output to a single amplitude modulation channel by selecting only the active stimulatory neuron output. In addition, it encodes the identity of the stimulating neurons that produce this output. This provides information about the frequency of the amplitude modulation.

【0062】 図9は、振幅変調信号をグループ化することに使われる表68の生成を示す。
振幅変調信号をグループ化するために(それらは、グループ化されたITDsを
計算するために使用することが可能であるから)、本発明者らは、バンドパスさ
れたチャンネルからのAM周波数出力のそれぞれのために、それぞれの出力に1
を、あるいはそれ以外で0を記入する表を生成する。同表で、各列は多くとも一
つの1の記入を有することがある。同じAM周波数は、二つ以上のチャンネルで
見つかり、従って、二以上の1の記入のカラムがある。図は、15のバンドパス
されたチャンネルおよび12のAM識別可能なAM周波数バンドの状況を示す。
示した表では、バンドパスされたバンド2、3および9は、AMをAMチャンネ
ル3で見つけ、バンドパスされたバンド6、7、8および11は、AMをAMチ
ャンネル7で見つけ、バンドパスされたバンド10、12および14は、AMを
AMチャンネル11で見つけた。
FIG. 9 shows the generation of a table 68 used to group amplitude modulated signals.
To group the amplitude modulated signals (since they can be used to calculate the grouped ITDs), we use the AM frequency output from the bandpassed channel. 1 for each output for each
Or a table that otherwise contains 0. In the table, each column may have at most one entry. The same AM frequency is found in more than one channel, and thus there are more than one column of one entry. The figure shows the situation for 15 bandpassed channels and 12 AM identifiable AM frequency bands.
In the table shown, bandpassed bands 2, 3 and 9 find AM on AM channel 3 and bandpassed bands 6, 7, 8 and 11 find AM on AM channel 7 and bandpassed. Bands 10, 12 and 14 found AM on AM channel 11.

【0063】 一つの表は、両側(左、右)で生成され、総合された表は、左と右の表の和を
とって生成される。
One table is generated on both sides (left and right), and an integrated table is generated by taking the sum of the left and right tables.

【0064】 図10は、比較のために、AM周波数および両耳時間差(ITDs)の生成が
同じものだけを選択して、40でAM信号をゲート制御するために、表のカラム
が、いかに使用されるかを示す。図では、本発明者らは、15バンドパスされた
チャンネルのシステムを示す。上の表のカラム7の出力は、これらの信号をゲー
ト制御するために使われる。そして、バンド6、7、8および11だけが、選択
された。
FIG. 10 shows how the columns in the table are used to gate the AM signal at 40, selecting only those with the same AM frequency and binaural time difference (ITDs) generation for comparison. Indicates what is done. In the figure, we show a system with 15 bandpassed channels. The output of column 7 of the above table is used to gate these signals. And only bands 6, 7, 8 and 11 were selected.

【0065】 これらのパルス信号は(同じ周波数、換言すると周波数バンド7であり、その
パルス時間は、振幅変調の位相を反映し、パルスは振幅変調と同位相にある。)
、対(左、右)で、これらの信号時間差を計算する回路70に送られる。選択さ
れた異なるバンドに跨る値は、72で加工され(例えば、平均化するか、あるい
は最頻数であるか、中間数か、選択して、)、AM時間差信号を、このAM周波
数バンドのために生成する。AM時間差信号は、図9で、それぞれの非0カラム
に、ずなわち左と右の両方のチャンネルで検出されたAM周波数バンドのそれぞ
れに生成される。
These pulse signals have the same frequency (in other words, frequency band 7), and their pulse times reflect the phase of the amplitude modulation, and the pulses are in phase with the amplitude modulation.
, Pairs (left, right) are sent to a circuit 70 which calculates these signal time differences. The selected values across the different bands are processed at 72 (eg, averaged or moded, intermediate, or selected) to convert the AM time difference signal to the AM frequency band of this AM frequency band. Generate for The AM time difference signal is generated in FIG. 9 for each non-zero column, ie, for each of the AM frequency bands detected on both the left and right channels.

【0066】 図11は、それぞれの非0カラムのために生成された最新の時間差信号が、い
かに格納されるかを示す。すなわち、それぞれの信号に関連した一連のチャンネ
ルが格納され、双方向表示装置28からの入力のように、(グループ化された)
ITDにより索引される。
FIG. 11 shows how the latest time difference signal generated for each non-zero column is stored. That is, a series of channels associated with each signal are stored and (grouped), such as input from the interactive display 28.
Indexed by ITD.

【0067】 図12は、単純な(グループ化されない)ITDsが、それぞれの対(左、右
)のバンドパスされたチャンネルの出力から、いかに計算されるかを示す。これ
は、位相固定されたパルス生成部74、75(例えば、それぞれの正に向かって
零交差パルスを生成可能)を使用し、これらのパルスの時間差を計算することに
より、達成される。低周波数では、これらの推定数は、信頼性が低い傾向にあり
、高周波数では、曖昧になり得る。しかし、良好な推定数が得られる中間周波数
範囲が存在する。
FIG. 12 shows how simple (ungrouped) ITDs are calculated from the output of each pair (left, right) bandpassed channel. This is achieved by using phase-locked pulse generators 74, 75 (eg, capable of generating zero-crossing pulses toward each positive) and calculating the time difference between these pulses. At low frequencies, these estimated numbers tend to be unreliable, and at high frequencies, they can be ambiguous. However, there are intermediate frequency ranges from which good estimates can be obtained.

【0068】 一つの時間差推定数は、それぞれ(中間周波数)チャンネルで生成される。こ
れらは、さらに進んだ使用に優先して、一緒にグループ化され得る。
One time difference estimation number is generated for each (intermediate frequency) channel. These can be grouped together in preference to further use.

【0069】 最新の時間差推定数は、50に格納され、すなわち、それぞれのグループ化さ
れた時間差推定に関連したチャンネルが格納され、時間差(ITD)自体により
索引される。
The most recent time difference estimate number is stored at 50, ie, the channels associated with each grouped time difference estimate are stored and indexed by the time difference (ITD) itself.

【0070】 図13では、三つの音源(立上り(図6)、振幅変調(図11)および波形同
期処理(図12))からの時間差信号が、方向表示形式の表示装置28に表示さ
れる。すなわち、左と右のチャンネルの間の時間差が、角度であると解釈される
。また、IIDs(図3)から計算される角度が表示される。
In FIG. 13, time difference signals from three sound sources (rise (FIG. 6), amplitude modulation (FIG. 11), and waveform synchronization processing (FIG. 12)) are displayed on the display device 28 in the direction display format. That is, the time difference between the left and right channels is interpreted as an angle. Further, the angle calculated from the IIDs (FIG. 3) is displayed.

【0071】 この実施の形態では、システムが前および後からの音の間を区別できないため
に、表示装置は、半円形状をとり、暗い領域が音源の推定方向に一致する。使用
者は、表示装置で伝達し合い、音を受け入れようとする特定の方向を選択(例え
ば、表示装置に触れることにより)する。表示装置は、選択された角度を返し、
そしてこれが処理される。(カラー携帯コンピュータに使用されるような)低電
力平坦タッチパネル表示装置が利用可能である。
In this embodiment, the display device has a semicircular shape, and the dark region matches the estimated direction of the sound source, because the system cannot distinguish between the sound before and after. The user communicates on the display and selects a particular direction in which to accept sound (eg, by touching the display). The display returns the selected angle,
This is then processed. Low power flat touch panel displays (such as those used in color portable computers) are available.

【0072】 図14は、使用者に供給される信号を制御する信号が、双方向表示装置28か
ら回収された情報から、いかに生成されるかを示し、立上り格納部36に格納さ
れた情報(図6)、AM差信号格納部42(図11)および格納された波形に基
づく時間差信号格納部50(図12)を示す。
FIG. 14 shows how a signal for controlling a signal supplied to the user is generated from information collected from the interactive display device 28, and the information stored in the rising storage unit 36 ( FIG. 6) shows the AM difference signal storage unit 42 (FIG. 11) and the time difference signal storage unit 50 (FIG. 12) based on the stored waveform.

【0073】 双方向表示装置28からの角度出力は、表示装置で使用者の相互作用から76
で計算される。これは、IIDの推定数に78および80で変換され、そこには
、その方向からの音が導かれる。低周波数、中間周波数および高周波数からのチ
ャンネルの寄与は、82、84で標準化され、混合信号として得られる。
The angle output from the interactive display 28 can be calculated from the user interaction at the display 76.
Is calculated by This translates into an estimated number of IIDs at 78 and 80, to which sound from that direction is directed. The channel contributions from the low, intermediate and high frequencies are normalized at 82, 84 and obtained as a mixed signal.

【0074】 図15は、表示で使用者の相互作用から計算された角度が、低周波数チャンネ
ルの寄与分の格納部26内への索引とするために、またどの低周波数(LF)チ
ャンネルが、その方向からの信号により生成されたであろうIIDsを生じるか
を推定するために、いかに使用されるかを示す。これは、周波数が異なれば異な
る頭に関連した変換関数を使用する。
FIG. 15 shows that the angle calculated from the user interaction in the display is an index into the storage 26 of the contribution of the low frequency channel, and which low frequency (LF) channel is It shows how it is used to estimate what would result in IIDs that would have been generated by a signal from that direction. This uses a transform function associated with a different head at different frequencies.

【0075】 図16は、使用者に表示するための最終信号が、いかに生成されるかを示す。
混合信号、制御LMixおよび制御RMixは、図14で記述されたように、生
成され、および、左および右チャンネル混合部86、88を制御する。この二つ
の耳のための信号の最終混合は、混合部90、92で、制御LMixおよび制御
RMixの信号で制御され、これらは使用者の聞き損じの本質に依存する。
FIG. 16 shows how the final signal for display to the user is generated.
The mixing signal, control LMix and control RMix, are generated and control the left and right channel mixing units 86, 88 as described in FIG. The final mixing of the signals for the two ears is controlled by the control LMix and control RMix signals in mixing sections 90, 92, which depend on the nature of the user's hearing loss.

【0076】 前述したように、本発明は、以下に論じるように、人(あるいは他の哺乳動物
)の聴覚システムでの音の処理をある程度模擬しようとするものである。システ
ムの入力は、距離を隔てて位置する2つのマイクロホン12、14(図では、L
は左、Rは右)から入ってくる。マイクロホンは、例えば、中耳の端に位置し、
あるいは耳翼の上に位置する。中耳の端にマイクロホンを配置することは、異な
る周波数の相対的強さを変化させるために、耳翼が特性を伝達することを可能と
する。もし、最終の表現が、両耳にあれば、この情報は、使用者に有益であり、
音をよりよく、空間的に配置することを可能とする(J.ブラウアート、空間的
聴取、MITプレス、改訂版、1996年刊行)。マイクロホン12、14は、
音響信号を電気信号に変換する。これらの電気信号は、増幅され(両方のチャン
ネルで、同じ周波数/位相応答を維持し)、個々のバンドパスフィルターバンク
16、18へ供給される。これらのフィルターバンク16、18は、蝸牛殻の仕
事と同じ仕事を実行する。これらのフィルターバンク16、18のそれぞれは、
チャンネル毎に一つずつ、多くの出力を生成する。これらのチャンネル出力は、
立上り検出器、神経生理学システムの波形同期検出器および振幅変調検出器を模
倣したモジュールへの入力として使用される。しかし、全てのチャンネルが三つ
のモジュール全てを使用するわけではない。
As noted above, the present invention seeks to simulate the processing of sound in a human (or other mammalian) auditory system to some extent, as discussed below. The inputs of the system are two microphones 12, 14 (in the figure, L
Is on the left and R is on the right). The microphone is located, for example, at the edge of the middle ear,
Or it is located on the ear wing. Placing the microphone at the edge of the middle ear allows the ear wings to transmit characteristics to change the relative strength of the different frequencies. If the final expression is in both ears, this information is useful to the user,
It allows for better spatial placement of sounds (J. Blauart, Spatial Listening, MIT Press, Revised Edition, 1996). The microphones 12, 14 are
Convert acoustic signals to electrical signals. These electrical signals are amplified (maintaining the same frequency / phase response on both channels) and fed to individual bandpass filter banks 16,18. These filter banks 16, 18 perform the same task as the cochlea. Each of these filter banks 16, 18
Generates many outputs, one for each channel. These channel outputs are
Used as input to a module that mimics a rise detector, a waveform synchronization detector and an amplitude modulation detector of a neurophysiology system. However, not all channels use all three modules.

【0077】 最も早い研究(L.S.スミス、立上りに基づく音の分割、D.S.トウレツ
キー、M.C.モーザーおよびM.E.ハセルモ編纂、神経情報処理システム8
、729〜735頁、MITプレス、1996年刊行)は、音の分割に関し、異
なるチャンネルでの音を使用した。しかし、そこで使用された統合発火ニューロ
ンモデルは、潜在期間(ニューロン発火に起きる急な増加からの時間)を有し、
実際の立上り細胞強度のそれらとは異なり、該潜在期間は音量および増加速度に
依存する(J.S.ロトマン、E.D.ヤングおよびP.D.マニス、前面の蝸
牛殻神経の密生した細胞の上の聴覚神経繊維の集合、コンピュータモデルの予測
される影響、神経生理学ジャーナル、70(6):2562〜2583頁、19
93年刊行;J.S.ロトマンおよびE.D.ヤング、全面の蝸牛殻神経密生細
胞のコンピュータモデルにおける神経同調の強調、聴覚神経科学、2:47〜6
2頁、1996年刊行)。総合立上り検出器は、極めて短いが、一定の潜在期間
を有しなくてはならない。この潜在期間は、強度および増加速度の両方の広い範
囲にわたり、一定である必要がある。立上りは、調子付けした音か調子付けしな
い音の両方の位置に使用されうるので、それぞれの立上り検出器は、バンドパス
されたチャンネルの範囲から入力を受けとり得る。生物学的システムと異なって
、本発明者らは、総数の符号化に頼るよりも、チャンネル毎に一つの正確な立上
り検出器を使用する。
The earliest studies (LS Smith, segmentation of sounds based on rising, DS Touretzky, MC Moser and ME Hasermo compilation, Neural Information Processing System 8
, Pp. 729-735, MIT Press, 1996) used sound from different channels for sound segmentation. However, the integrated firing neuron model used there has a latent period (time from a sudden increase in neuron firing),
Unlike those of actual rising cell strength, the latency depends on volume and rate of increase (JS Rotman, ED Young and PD Manis, dense cells of the anterior cochlear nerve) Of auditory nerve fibers on the table, predicted effects of computer models, Journal of Neurophysiology, 70 (6): 2562-2583, 19
Published in 1993; S. Rotman and E.L. D. Young, Enhancing Neural Entrainment in a Computer Model of Whole Cochlear Nerve Dense Cells, Auditory Neuroscience, 2: 47-6
2, p. 1996). An overall rise detector is very short, but must have a certain latency. This latency needs to be constant over a wide range of both intensity and rate of increase. Since rising can be used for both toned and untuned sound locations, each rising detector can receive input from a range of bandpassed channels. Unlike biological systems, we use one accurate rising detector per channel, rather than relying on total number coding.

【0078】 波形同期は、最初の方で論じたように、基本的に低から中間周波数に使用され
る。総合波形同期検出器は、信号の位相の特定位置で、出力を提供する(例えば
、それぞれの正に向かって零交差パルスを生成可能)。ITDの正確な計測値は
、できうる限り不安定であってはならない。
[0078] Waveform synchronization is basically used from low to intermediate frequencies, as discussed earlier. An integrated waveform synchronization detector provides an output at a particular location in the phase of the signal (eg, can generate a zero-crossing pulse towards each positive). Accurate ITD measurements should be as unstable as possible.

【0079】 振幅変調は、基本的に中間から高周波数で有用である。AMの効果的な使用は
、実際の蝸牛殻の応答のように、広いバンドの応答を有するバンドパスフィルタ
ーに予想されることを特筆する。また、検出器は、エンベロープでの特定の点で
、例えばピークで、出力を出し、不安定さは最小化される。
[0079] Amplitude modulation is basically useful at intermediate to high frequencies. It should be noted that the effective use of AM is expected for bandpass filters with a wide band response, such as the actual cochlear response. Also, the detector outputs at certain points in the envelope, for example, at peaks, and instability is minimized.

【0080】 表示装置は、IIDsおよび頭に関連する変換関数から、およびITDsから
計算されるように、異なる入力音の方位方向(音が使用者の前であるか背後であ
るかに係わらず、)を示す。これは、それ自身、聴覚環境の特徴に注意を喚起す
るために使われる。しかし、補聴器自体により表示される情報を選択することが
、難聴者の相互作用を可能とすることにより有用であると伝えられる。特定の適
用において、最もよく達成される方法は、使用者から使用者へ変化する要素に依
り、それらが、システムと相互作用するため、手を使おうとするかどうかにより
、あるいは、彼らの頭を回すことによってのみ相互作用することを好んでいるか
により異なる。
The display device may provide different azimuth directions of the different input sounds (whether the sounds are in front of or behind the user, as calculated from the IIDs and conversion functions associated with the head, and from the ITDs). ). This is itself used to draw attention to features of the auditory environment. However, selecting the information displayed by the hearing aid itself is said to be more useful by allowing the hearing impaired to interact. In a particular application, the best achieved method depends on factors that change from user to user, depending on whether they want to use their hands to interact with the system, or on their heads. It depends on whether you prefer to interact only by turning.

【0081】 音の選択の二つの主モードが利用されうる。ほとんどの使用者に好まれる実施
の形態では、使用者が、興味がある(分かっている)音源に顔を回す。選択され
た音は、低ITDおよびIIDの音である。その他の実施の形態では、前述した
ように、入力される音の地図が生成され表示され、使用者は表示されるべき音を
選択する。
Two main modes of sound selection can be used. In an embodiment preferred by most users, the user turns their face to a sound source of interest (known). The selected sounds are low ITD and IID sounds. In other embodiments, as described above, a map of the input sound is generated and displayed, and the user selects the sound to be displayed.

【0082】 使用者に表示された情報は、片耳または両耳に表現される。図11〜16に図
示された以下の論議では、両耳の表現について言及する。使用者の双方向表示に
対する相互作用の結果は、もし、使用者が眼前にこれらの音のみを求めるなら、
−π/2と+π/2または0との間の角度θである。この角度は、その方向から
の信号のために、予想されるIIDとITDを計算するために使用される。図示
された実施の形態では、ITD推定値は、立上り、振幅変調および波形同期サブ
システムのための格納されたITD/チャンネルリストへの索引とされるために
使用される。それぞれのチャンネルのために、これらの三つの値は、その方向か
らの音源により生成されるチャンネルの寄与の推定値を計算するために使用され
る。それぞれの耳のために、これらの推定値が、(長さ1に)標準化され、ベク
ター(左耳のための制御LMixおよび右耳のための制御RMix)は、混合部
(図16)を制御するために使われる。これは、二つの複合チャンネル出力、出
力データLおよび出力データRを生成する。これらは、中間および高周波数のた
めに使用される。低周波数には、同じアプローチがIIDを用いて行われる。結
果としての出力、出力データは、複合チャンネル信号であり、視覚表示に適して
いる。聴覚表示のためには、異なるチャンネルの信号は、使用者の聴覚欠陥を反
映する手法で一緒に加算される。
The information displayed to the user is expressed in one ear or both ears. The following discussion illustrated in FIGS. 11-16 refers to binaural representations. The result of the interaction on the user's interactive display is that if the user wants only these sounds before their eyes,
Is the angle θ between -π / 2 and + π / 2 or 0. This angle is used to calculate the expected IID and ITD for the signal from that direction. In the illustrated embodiment, the ITD estimate is used to index into a stored ITD / channel list for the rise, amplitude modulation and waveform synchronization subsystems. For each channel, these three values are used to calculate an estimate of the channel contribution generated by the sound source from that direction. For each ear, these estimates are normalized (to a length of 1), and the vector (control LMix for the left ear and control RMix for the right ear) controls the mixer (FIG. 16). Used to This produces two composite channel outputs, output data L and output data R. These are used for medium and high frequencies. For low frequencies, the same approach is taken with IID. The resulting output, output data, is a composite channel signal, suitable for visual display. For an auditory display, the signals of the different channels are added together in a manner that reflects the hearing impairment of the user.

【0083】 選択された音が、使用者に正確に表示されるかは、使用者の知覚能力に非常に
よく頼る。もし、十分な残余聴覚があるなら、選択的増幅が最も適している。も
し、残余聴覚が特定の周波数バンドに制限されるなら、再合成が最も適している
。これらの二つの技術を混合することも、可能である。代わりに、表示は視認感
覚を使用できる。
Whether the selected sound is correctly displayed to the user depends very much on the user's perceptual ability. If there is sufficient residual hearing, selective amplification is most appropriate. If the residual hearing is limited to a particular frequency band, resynthesis is most appropriate. It is also possible to mix these two techniques. Alternatively, the display can use a visual sensation.

【0084】 図14から16に外観を示したように生成され、選択された音は、聴覚欠陥を
補うように、選択的に増幅されるいくつかのチャンネルを有する。結果としての
音は、(a)もし、充分な残余聴覚が一方の耳であれば、片耳で表現され、ある
いは(b)もし充分な残余聴覚が両方の耳であれば、両耳で表現される。この場
合は、本発明者らは、出力データLを左耳に、出力データRを右耳に表現する。
The sounds generated and selected as shown in FIGS. 14 to 16 have a number of channels that are selectively amplified to compensate for hearing impairment. The resulting sound is represented by (a) one ear if sufficient residual hearing is in one ear, or (b) bilateral if sufficient residual hearing is in both ears. You. In this case, the present inventors express the output data L to the left ear and the output data R to the right ear.

【0085】 加えて、本発明者らは、二つの耳からの信号のゲインを変化させた制御LRM
ix信号を使用可能である。
In addition, the present inventors have developed a control LRM in which the gains of the signals from the two ears are changed.
ix signal can be used.

【0086】 残余聴覚が、聴覚スペクトルの小部分に制限される際は、あるいは、確かに、
インプラントを通して表現が行われる際は、聴覚が可能な利点を得るために、音
を再合成することはより適当である。また、本発明の出発点となる信号は、出力
データ信号である。
When the residual hearing is limited to a small part of the auditory spectrum, or indeed,
When the expression is made through an implant, it is more appropriate to resynthesize the sound in order to obtain the audible benefit. The signal serving as a starting point of the present invention is an output data signal.

【0087】 わずかか、全く残余聴覚がない場合、音からの情報は、一つの特定の方向で、
視覚的に表現され、情報を表現するために、音の力がスペクトルに分散される方
法で、色彩表示が利用される。
If there is little or no residual hearing, the information from the sound will, in one particular direction,
In order to be visually represented and to represent information, color representation is used in such a way that the power of sound is distributed over the spectrum.

【0088】 一つの可能性(双方向表示を使用しないで、しかし入力される音の全てを表示
する)は、ITDに合った色を選び、信号の強度に反映した強度を作ることであ
る。
One possibility (without using an interactive display, but displaying all incoming sounds) is to choose a color that matches the ITD and create an intensity that reflects the signal intensity.

【0089】 あるいは、表現されるべき音源の方向を選択するために双方向表示を使用でき
、振幅変調の存在およびピッチを示す表示の色を使用でき、スペクトルの非振幅
変調範囲の白を維持し、そしてまた、信号強度を示すための強度を使用できる。
これは、図8から10に表れる情報を使用し、しかし、聴覚表現に使用されない
Alternatively, a bidirectional display can be used to select the direction of the sound source to be represented, the color of the display can be used to indicate the presence and pitch of amplitude modulation, and maintain white in the non-amplitude modulation range of the spectrum. , And can also be used to indicate signal strength.
This uses the information that appears in FIGS. 8 to 10, but is not used for auditory representation.

【0090】 双方向システムは、厳密な実時間強制下で運転される。加えて、システムは理
想的に軽く、装着可能で、低消費電力で動く。最も現在の洗練された補聴器は、
ディジタル信号処理(DSP)技術を使用する。DSP回路は、一般に、高速平
行処理乗算および加算で機能する。これは、複雑な計算のために高度に適当であ
り、ディジタルフィルタリングには高度に効果的である。非線形運転は、またそ
のような回路で可能である。しかし、DSP技術は非常に高速で、本質的に平行
処理ではなく、複合チャンネルを同時に処理することが望まれる。加えて、速度
/電力の切り替えがある。
The two-way system operates under strict real-time forcing. In addition, the system is ideally light, wearable and runs with low power consumption. The most current sophisticated hearing aids are
Uses digital signal processing (DSP) technology. DSP circuits generally function with high-speed parallel processing multiplication and addition. This is highly suitable for complex calculations and highly effective for digital filtering. Non-linear operation is also possible with such a circuit. However, it is desired that DSP technology be very fast and operate on multiple channels simultaneously, rather than parallel processing in nature. In addition, there is a speed / power switch.

【0091】 代替技術は、補助閾値アナログVLSIである(C.ミード、アナログVLS
Iおよび神経システム、アディソン−ウェズリー、1989年刊行)。この技術
は、極めて低電力レベルで働き、利用される低電力で作動する高度平行処理回路
を可能とする。加えて、基本要素の一つの重要な特性、通信容量増幅は、デジタ
ルオン/オフスイッチまたは線形アナログ機器よりもよい生物学的システムの特
性を反映する。
An alternative technique is the auxiliary threshold analog VLSI (C. Mead, Analog VLS
I and Nervous System, Addison-Wesley, 1989). This technology works at very low power levels and enables highly parallel processing circuits that operate at the low power utilized. In addition, one important property of the building block, communication capacity amplification, reflects the properties of biological systems that are better than digital on / off switches or linear analog instruments.

【0092】 音の検出は、マイクロホンを通す。あるいは、加圧波のための直接シリコン変
換器が使用される。好ましい実施の形態では、二つのマイクロホンであり、使用
者の耳に装着される(いずれも耳の後であるか、内耳内に)。マイクロホンは、
多方向性であり、全方向からの信号を受ける必要があり、従って、音源の方向を
推定することができる。
The sound is detected through a microphone. Alternatively, a direct silicon transducer for the pressure wave is used. In a preferred embodiment, there are two microphones, which are worn in the user's ear (either behind the ear or in the inner ear). The microphone is
It is multidirectional and needs to receive signals from all directions, so that the direction of the sound source can be estimated.

【0093】 本発明者らは、前述したいくつかの処理のうち、一つの可能な神経的実施例を
以下に記述するが、この実施例は、例示としてのみ与えられ、本発明の概念を限
定しない。この処理は、複数のステージで実施する。各耳からの入力に関し、第
1のステージは(変換後)、蝸牛殻フィルタリングであり、(いずれかのバンド
パスされたチャンネルで)、(平行処理され)強度計算、ピッチ位相検出および
エンベロープ処理(これは、振幅変調位相検出器および立上り検出器である)が
続く。この処理の結果は(全てのチャンネルで、両方の耳で)、いずれかのチャ
ンネルにはいずれかの特性タイプで、ITD推定値を生成するために使用される
。この情報は、使用者へ表現されるべきものの決定に使用される。
We describe below one possible neural embodiment of the several processes described above, which is given by way of example only and limits the inventive concept. do not do. This processing is performed in a plurality of stages. For the input from each ear, the first stage (after transformation) is cochlear filtering, (on any bandpassed channel), intensity calculation (parallelized), pitch phase detection and envelope processing ( This is the amplitude modulation phase detector and the rising detector). The result of this process (all channels, both ears) is used to generate an ITD estimate for either channel, with any characteristic type. This information is used to determine what should be presented to the user.

【0094】 実時間蝸牛殻フィルタリングのための神経的技術は、リオン他により初めて提
案され(R.F.リオンおよびC.ミード、アナログ電気的蝸牛殻、IEEE音
響変換、会話および信号処理、36(7):1119〜1134頁、1988年
刊行)、ラザーロにより(J.ラザーロおよびC.ミード、ピッチのシリコンモ
デル、アメリカ合衆国の科学アカデミーの知覚処理、86(23):9597〜
9601頁、1989年刊行)、リウおよびアンドロウにより(W.リウ、A.
G.アンドロウおよびジュニアM.H.ゴールドシュタイン、複合分解会話解析
のためのアナログ蝸牛殻モデル、神経情報処理システムの進歩5、666〜67
3頁、1993年刊行、W.リウ、A.G.アンドロウおよびジュニアM.H.
ゴールドシュタイン、聴覚周辺のアナログシリコンモデルによる音声会話表現、
IEEE変換神経ネットワーク、3(3):477〜487頁、1993年刊行
)、ワットにより(L.ワット、蝸牛殻構造:解析およびアナログVLSI P
hD論、カリフォルニア工科大学、1993年刊行)、およびもっと最近では、
フラジールおよびヴァンシャイクにより(E.フラグニーア、A.ヴァンシャイ
クおよびE.A.ヴィトズ、活性蝸牛殻のアナログVLSIモデルの設計、アナ
ログ集積回路および信号処理、12:19〜35頁、1997年刊行)拡張され
た。神経的解析の利点は、DSP手法とは違って、本質的に実時間であり、低電
力である。現在では、人の蝸牛殻により達成されるほど、特性変数(Q)を高く
、あるいは多くのステージを達成することは不可能なままであるが、最も最近の
技術(A.ヴァンシャイク、電気的聴覚経路のためのアナログVLSI構築構造
、PhD論、ローザンヌの生態多重技術連合、1997年)では、第2次の低パ
スフィルタ直列処理を使った104ステージを得られた。
A neural technique for real-time cochlear filtering was first proposed by Rion et al. (RF Rion and C. Mead, Analog Electrical Cochlea, IEEE Acoustic Transformation, Speech and Signal Processing, 36 ( 7): 1119-1134, published 1988), by Lazaro (J. Lazaro and C. Mead, Silicon Model of Pitch, Perceptual Processing of the American Academy of Sciences, 86 (23): 9597-).
9601, 1989), by Liu and Androw (W. Liu, A. et al.
G. FIG. Androw and J. M. H. Goldstein, Analog Cochlear Model for Complex Decomposition Analysis, Advances in Neural Information Processing 5, 666-67
3, published in 1993; Liu, A. G. FIG. Androw and J. M. H.
Goldstein, voice conversation expression by analog silicon model around hearing,
IEEE Transformed Neural Network, 3 (3): 477-487, 1993), by Watt (L. Watt, Cochlea structure: analysis and analog VLSI P
hD, California Institute of Technology, 1993), and more recently,
Extended by Frazier and Vanshaik (EA Fragnier, A. Vanshaik and EA Vitos, Design of an Analog VLSI Model of the Active Cochlea, Analog Integrated Circuits and Signal Processing, 12: 19-35, 1997). Was done. The advantages of neural analysis are, unlike the DSP approach, essentially real-time and low power. At present, it is not possible to achieve high characteristic variables (Q) or many stages as achieved by the human cochlea, but it is still impossible to achieve the most recent technology (A. Vanshaik, Electrical Analog VLSI construction for auditory pathways, PhD theory, Lausanne's Association of Ecological Multi-Technologies, 1997) yielded 104 stages using second-order low-pass filter serialization.

【0095】 動物のピッチ位相検出は、頭蓋骨の骨膜の動きの特徴的位相でスパイクするよ
うな神経を刺激することにより、総数符号化に依存する。この神経的手法は、リ
ウ他により論じられ(W.リウ、A.G.アンドロウおよびジュニアM.H.ゴ
ールドシュタイン、聴覚周辺のアナログシリコンモデルによる音声会話表現、I
EEE変換神経ネットワーク、3(3):477〜487頁、1993年刊行)
)、技術では、ヴァンシャイク(A.ヴァンシャイク、電気的聴覚経路のための
アナログVLSI構築構造、PhD論、ローザンヌの生態多重技術連合、199
7年)、メディスの繊毛細胞モデルのヴァージョン(M.J.ヒューイットおよ
びR.メディス、哺乳動物の内部繊毛細胞機能の八つの計算モデルの評価、アメ
リカ音響協会ジャーナル、90(2):904〜917頁、1991年刊行)に
より補足される。これら両方の場合、約4kHz未満の入力信号に同期する傾向
と、速やかで短時間の適応が、モデル化される。
[0095] Animal pitch phase detection relies on population coding by stimulating nerves to spike at the characteristic phase of periosteal movement of the skull. This neural approach has been discussed by Liu et al. (W. Liu, AG Androw and Jr. MH Goldstein, Spoken Speech Representation with Analog Silicon Model of Auditory Perception, I.
EEE conversion neural network, 3 (3): 477-487, published in 1993)
), In technology, Vanshaik (A. Vanshaik, Analog VLSI construction for electrical auditory pathways, PhD theory, Lausanne's Ecological Multi-Technological Union, 199
7 years), versions of the cilia cell model of Medis (MJ Hewitt and R. Medis, evaluation of eight computational models of mammalian internal cilia cell function, Journal of the American Acoustical Society, 90 (2): 904-917. Page, 1991). In both of these cases, the tendency to synchronize to an input signal below about 4 kHz and a quick, short-term adaptation are modeled.

【0096】 しかし、もし目的が、単にそれぞれのバンドパスフィルターから出る信号の位
相を符号化することであれば、さらなる利用技術は、整流とその後のピーク検出
、あるいはその代わりの単純な正に向かって零交差することの検出であった。こ
れらのいずれもが、神経形態技術の使用で容易に達成可能である。ラザーロ他は
(J.ラザーロおよびC.ミード、聴覚位置検出のシリコンモデル、神経計算方
法、1(1):47〜57頁、1989年刊行)、ふくろうの聴覚位置検出シス
テムが検出精度を、半波長整合バンドパスフィルター出力からの派生の零交差に
使用する神経形態モデルを補足した。
However, if the goal is simply to encode the phase of the signal leaving each bandpass filter, a further application technique would be towards rectification and subsequent peak detection, or alternatively a simple positive. It was the detection of zero crossing. All of these are readily achievable with the use of neural morphology technology. (J. Lazaro and C. Mead, Silicon Model of Auditory Position Detection, Neural Computation Method, 1 (1): pp. 47-57, 1989). The neural morphological model used for zero crossings derived from the wavelength matched bandpass filter output was supplemented.

【0097】 神経形態システムが高周波数で波形同期運転を維持することが可能であっても
、音源検出は、これらの信号の時間の短さにより困難である。ピークの一致は、
音源の方向においてあいまいとなる。しかし、もし高周波数で信号をバンドパス
した結果が低周波数での振幅変調であれば、二つの検出器の間の変調の位相の違
いが使用できる。振幅変調の神経形態検出は(蝸牛殻神経の放射状細胞をモデル
化)、ヴァンシャイクによって、期間的抜粋の状況で論じられた(A.ヴァンシ
ャイク、電気的聴覚経路のためのアナログVLSI構築構造、PhD論、ローザ
ンヌの生態多重技術連合、1997年)。
[0097] Even though the neural morphology system can maintain waveform-synchronous operation at high frequencies, sound source detection is difficult due to the short time of these signals. The peak match is
Ambiguous in the direction of the sound source. However, if the result of bandpassing the signal at the high frequency is amplitude modulation at the low frequency, then the difference in modulation phase between the two detectors can be used. Amplitude-modulated neural morphology detection (modeling cochlear nerve radial cells) was discussed by Van Shaik in the context of a periodical excerpt (A. Van Shaik, Analog VLSI Building Structure for Electrical Auditory Pathways, PhD theory, Lausanne's Union of Ecological Multi-Technologies, 1997).

【0098】 同じ技術がITD推定で使用され得るが、波形同期位相検出器に低パスフィル
ターを掛け、それぞれのピークの(あるいは、それぞれの正に向かって零交差す
る)パルスを生成することが、おそらく容易である。
The same technique can be used in ITD estimation, but applying a low-pass filter to the waveform-locked phase detector to produce a pulse at each peak (or at each positive zero crossing): Probably easy.

【0099】 立上り検出の神経形態手法は、神経的にスパイクするニューロンを使用するこ
とで達成できる。
[0099] The neural morphology approach to rising detection can be achieved by using neuronal spiking neurons.

【0100】 それぞれのチャンネルで、ITD計算方法のための三つの独立した技術がある
ので(振幅変調は、約1kHz未満で使用されないし、波形同期は、約4kHz
より上では使用されない)、スペクトルの異なる部分で多くの推定値を有し、ス
ペクトルのそれぞれの部分でさえ、多くの推定値を有することを免れられない。
一度に多くの音源があると、それらの推定値の全てが正しいといえる。
For each channel, there are three independent techniques for the ITD calculation method (amplitude modulation is not used below about 1 kHz, and waveform synchronization is about 4 kHz.
(Not used above), having many estimates in different parts of the spectrum, and even each part of the spectrum is inevitable to have many estimates.
If there are many sources at once, all of those estimates are correct.

【0101】 サブ閾値アナログ、上閾値アナログおよびデジタル技術の混合が、制御信号生
成および混合機の神経形態手法の生成に適用される。
A mix of sub-threshold analog, upper threshold analog and digital techniques is applied to control signal generation and generation of the blender's neural morphology approach.

【0102】 表現されるべきものが、出力データ信号から生成される(あるいは、両耳表現
の場合、出力データL信号および出力データR信号)。聴覚表現技術は、例えば
、信号の遠隔生成、および耳内変換器への信号の送信は、ワイヤレス技術が利用
可能である。加えて、スペクトルエネルギー分布を調整すること、および残余聴
覚を良く利用することが必要である。
What is to be represented is generated from the output data signal (or, in the case of binaural representation, the output data L signal and the output data R signal). Hearing technology, for example, remote generation of signals and transmission of signals to an in-the-ear transducer, wireless technology is available. In addition, there is a need to adjust the spectral energy distribution and make better use of the residual hearing.

【0103】 現在の神経形態フィルタのバンドパス特性を特筆することが、(i)これらの
チャンネルを、選ばれたITDが最も強く表現するように選択的増幅することお
よび(ii)選ばれたITDが不十分な表現であるこれらのチャンネルの内容を取
り除くことにより、釣り合わせられるほど、鋭敏ではない。
Noting the bandpass characteristics of current neural morphological filters is that (i) selectively amplifying these channels so that the chosen ITD represents the strongest; and (ii) the chosen ITD By removing the contents of these channels, which are poorly represented, they are not as sharp as they can be balanced.

【0104】 前述された本発明の実施の形態は、例示のみに与えらたものであり、いかなる
意味においても、概念を制限するものではない。
The embodiments of the present invention described above are given only by way of example and do not limit the concept in any way.

【手続補正書】特許協力条約第34条補正の翻訳文提出書[Procedural Amendment] Submission of translation of Article 34 Amendment of the Patent Cooperation Treaty

【提出日】平成12年7月14日(2000.7.14)[Submission date] July 14, 2000 (2000.7.14)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Correction target item name] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【特許請求の範囲】[Claims]

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,US,UZ,VN,YU,Z A,ZW──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SL, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AL, AM, AT, AU, AZ, BA, BB, BG, BR , BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS , JP, KE, KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU, ZA, ZW

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 次の各工程からなる音声の処理方法; 離隔した少なくとも2箇所の検出位置において音声を検出する、 各音源と前記検出位置の間の角度関係を同定するために前記検出音声を分析する
、 特定の音源と関連する角度関係を選択させる、そして 前記特定の音源と関連する音の流れを強調するために前記選択に応じて前記検出
音声を処理する。
1. A sound processing method comprising the following steps: detecting a sound at at least two detection positions separated from each other; and converting the detected sound to identify an angular relationship between each sound source and the detection position. Analyzing, selecting an angular relationship associated with a particular sound source, and processing the detected speech in response to the selection to enhance a sound flow associated with the particular sound source.
【請求項2】 前記音源の間の角度関係が、前記離隔検出位置で検出された各音
源からの音声の間の時間差に関して少なくとも部分的に決定される請求項1記載
の方法。
2. The method of claim 1, wherein the angular relationship between the sound sources is determined at least in part with respect to a time difference between sounds from each of the sound sources detected at the separation detection location.
【請求項3】 前記音源の間の角度関係が、前記検出音声の少なくとも一つの特
徴に関して決定された時間差に関して決定され、前記特徴が波形位相、振幅変調
位相、及び立ち上がりからなる群より選ばれる請求項2記載の方法。
3. An angular relationship between the sound sources is determined with respect to a time difference determined with respect to at least one feature of the detected speech, wherein the feature is selected from the group consisting of a waveform phase, an amplitude modulation phase, and a rise. Item 3. The method according to Item 2.
【請求項4】 時間差が検出音声の複数の特徴に関して決定される請求項3記載
の方法。
4. The method of claim 3, wherein the time difference is determined for a plurality of features of the detected speech.
【請求項5】 前記音源間の角度関係が、前記離隔検出位置で検出された各音源
からの音声の間の強度差に関して少なくとも部分的に決定される請求項1から4
に記載の方法。
5. The angular relationship between the sound sources is determined at least in part with respect to intensity differences between sounds from each sound source detected at the separation detection position.
The method described in.
【請求項6】 音声が使用者の耳に対応する位置で検出される請求項1から5に
記載の方法。
6. The method according to claim 1, wherein the sound is detected at a position corresponding to the user's ear.
【請求項7】 前記音源の間の角度関係が、耳間時間差(ITD)に関して少な
くとも部分的に決定される請求項6に記載の方法。
7. The method of claim 6, wherein the angular relationship between the sound sources is determined, at least in part, with respect to interaural time difference (ITD).
【請求項8】 前記音源の間の角度関係が、耳間強度差(IID)に関して少な
くとも部分的に決定される請求項6または7に記載の方法。
8. The method according to claim 6, wherein the angular relationship between the sound sources is determined at least in part with respect to the interaural intensity difference (IID).
【請求項9】 更に次の工程を有する請求項1から8のいずれかに記載の方法;
前記離隔位置からの検出音声を複数のチャンネルに選択的にフィルタリングし、
そして1つの位置からの各チャンネルの音声の特徴を、他の位置の対応のチャン
ネルからの音声の特徴と比較する。
9. The method according to claim 1, further comprising the following steps:
Selectively filtering the detected sound from the separated position into a plurality of channels,
Then, the feature of the sound of each channel from one position is compared with the feature of the sound from the corresponding channel at another position.
【請求項10】 前記音源の間の角度関係が、前記検出音声の波形位相に関して
決定された時間差に関して決定され、前記時間差がその値を寄せ集めることで集
合化される請求項9記載の方法。
10. The method of claim 9, wherein an angular relationship between the sound sources is determined with respect to a time difference determined with respect to a waveform phase of the detected voice, and the time differences are aggregated by summing up their values.
【請求項11】 前記音源の間の角度関係が、前記検出音声の立ち上がりに関し
て決定された時間差に関して決定され、前記立ち上がりが時間差の決定の前に片
耳で集合化される請求項9記載の方法。
11. The method of claim 9, wherein an angular relationship between the sound sources is determined with respect to a time difference determined with respect to a rise of the detected voice, and the rises are aggregated in one ear prior to the determination of the time difference.
【請求項12】 前記音源の間の角度関係が、前記検出音声の振幅変調位相に関
して決定された時間差に関して決定され、前記振幅変調チャンネルが時間差の決
定前に振幅変調周波数で集合化される請求項9記載の方法。
12. The method of claim 1, wherein an angular relationship between the sound sources is determined with respect to a time difference determined with respect to an amplitude modulation phase of the detected sound, and the amplitude modulation channels are aggregated at an amplitude modulation frequency before the time difference is determined. 9. The method according to 9.
【請求項13】 次の工程からなる、複数の音源から出る音声を処理する方法;
離隔した少なくとも2箇所の検出位置において音声を検出する、 前記離隔検出位置で検出された各音源からの音声の間の強度差と、前記離隔検出
位置で検出された各音源からの音声の間のとの少なくとも一方に関し、各音源と
前記検出位置の間の角度関係を同定するために前記検出音声を分析する、そして
決定された角度関係に基づいて、前記音源の少なくとも1つに関連する音の流れ
を得る。
13. A method for processing sounds from a plurality of sound sources, comprising:
Detecting sounds at at least two separated detection positions; a difference between an intensity difference between sounds from the sound sources detected at the separation detection position and a sound from each sound source detected at the separation detection position; Analyzing the detected sound to identify an angular relationship between each sound source and the detection location, and based on the determined angular relationship, a sound associated with at least one of the sound sources. Get the flow.
【請求項14】 次の各要素からなる音声処理装置; 離隔した少なくとも2箇所の検出位置において音声を検出する手段、 各音源と前記検出位置の間の角度関係を同定するために前記検出音声を分析する
手段、 特定の音源と関連する同定済み角度関係を選択させる手段、及び 前記特定の音源と関連する音の流れを強調するために前記選択に応じて前記検出
音声を処理する手段。
14. A sound processing apparatus comprising: a means for detecting sound at at least two detection positions separated from each other; and detecting the sound in order to identify an angular relationship between each sound source and the detection position. Means for analyzing, means for selecting an identified angular relationship associated with a particular sound source, and means for processing the detected speech in response to the selection to enhance a sound flow associated with the particular sound source.
【請求項15】 分析手段が、前記離隔検出位置で検出された各音源からの音声
の間の時間差を決定することにより、各音源の間の角度関係を決定する手段を含
む請求項14記載の装置。
15. The method according to claim 14, wherein the analyzing means includes means for determining a time difference between sounds from the sound sources detected at the separation detection position to determine an angular relationship between the sound sources. apparatus.
【請求項16】 分析手段が、波形位相、振幅変調位相および立ち上がりの少な
くとも1つに関し、前記離隔検出位置で検出された各音源からの音声の間の時間
差を決定することにより、各音源の間の角度関係を決定する手段を含む請求項1
5記載の装置。
16. The method according to claim 16, wherein the analyzing unit determines a time difference between sounds from each of the sound sources detected at the separation detection position with respect to at least one of a waveform phase, an amplitude modulation phase, and a rise. And means for determining the angular relationship of
An apparatus according to claim 5.
【請求項17】 分析手段が、検出音声の複数の特徴に関し、前記離隔検出位置
で検出された各音源からの音声の間の時間差を決定することにより、各音源の間
の角度関係を決定する手段を含む請求項16記載の装置。
17. An angle relationship between sound sources is determined by determining a time difference between sounds from the sound sources detected at the separation detection position with respect to a plurality of features of the detected sound. 17. The device of claim 16, including means.
【請求項18】 分析手段が、前記離隔検出位置で検出された各音源からの音声
の間の強度差を決定することにより、各音源の間の角度関係を決定する手段を含
む請求項13から17のいずれかに記載の装置。
18. The apparatus according to claim 13, wherein the analyzing means includes means for determining an angular relationship between the sound sources by determining an intensity difference between sounds from the sound sources detected at the separation detection position. The device according to any one of claims 17 to 17.
【請求項19】 補聴器であり、音声検出手段が使用者の耳に対応する位置に配
置できる請求項13から18のいずれかに記載の装置。
19. The apparatus according to claim 13, which is a hearing aid, and wherein the voice detecting means can be arranged at a position corresponding to the user's ear.
【請求項20】 分析手段が、前記各音源からの音声の間の耳間時間差(ITD
)を決定することにより、各音源の間の角度関係を決定する手段を含む請求項1
9に記載の装置。
20. An analysis means, comprising: an interaural time difference (ITD) between sounds from the respective sound sources.
2.) means for determining the angular relationship between each sound source by determining
Device according to claim 9.
【請求項21】 分析手段が、前記各音源からの音声の間の耳間強度差(IID
)を決定することにより、各音源の間の角度関係を決定する手段を含む請求項1
9又は20に記載の装置。
21. An analysis means, comprising: an interaural intensity difference (IID) between sounds from the respective sound sources.
2.) means for determining the angular relationship between each sound source by determining
21. The device according to 9 or 20.
【請求項22】 更に次の手段を有する請求項14から21のいずれかに記載の
装置; 前記離隔位置からの検出音声を複数のチャンネルに選択的にフィルタリングし、
そして分析手段が、1つの位置からの各チャンネルの音声の特徴を、他の位置の
対応のチャンネルからの音声の特徴と比較する手段を有する。
22. The apparatus according to claim 14, further comprising: means for selectively filtering a detected sound from the separated position into a plurality of channels,
The analyzing means has means for comparing the characteristics of the sound of each channel from one position with the characteristics of the sound from the corresponding channel at another position.
【請求項23】 前記音源の間の角度関係が、前記検出音声の波形位相に関して
決定された時間差に関して決定され、前記時間差がその値を寄せ集めることで集
合化される請求項22記載の装置。
23. The apparatus of claim 22, wherein an angular relationship between the sound sources is determined with respect to a time difference determined with respect to a waveform phase of the detected sound, and the time differences are aggregated by summing up their values.
【請求項24】 前記音源の間の角度関係が、前記検出音声の立ち上がりに関し
て決定された時間差に関して決定され、前記立ち上がりが時間差の決定の前に片
耳で集合化される請求項22記載の装置。
24. The apparatus of claim 22, wherein an angular relationship between the sound sources is determined with respect to a time difference determined with respect to a rise of the detected sound, and the rises are aggregated with one ear prior to the determination of the time difference.
【請求項25】 前記音源の間の角度関係が、前記検出音声の振幅変調位相に関
して決定された時間差に関して決定され、前記振幅変調チャンネルが時間差の決
定前に振幅変調周波数で集合化される請求項22記載の方法。
25. The angular relationship between the sound sources is determined with respect to a time difference determined with respect to an amplitude modulation phase of the detected voice, and the amplitude modulation channels are aggregated at an amplitude modulation frequency before the time difference is determined. 23. The method of claim 22.
【請求項26】 次の各要素からなる音声処理装置; 離隔した少なくとも2箇所の検出位置において音声を検出する手段、 前記離隔検出位置で検出された各音源からの音声の間の強度差と、前記離隔検出
位置で検出された各音源からの音声の間のとの少なくとも一方に関し、各音源と
前記検出位置の間の角度関係を同定するために前記検出音声を分析する手段、そ
して 前記特定の音源の少なくとも1つと関連する音の流れを、前記決定済み角度関係
に基づいて得る手段。
26. A sound processing apparatus comprising: a means for detecting sound at at least two separated detection positions; an intensity difference between sounds from respective sound sources detected at the separated detection positions; Means for analyzing the detected sound to identify an angular relationship between each sound source and the detected position, with respect to at least one of sounds from each sound source detected at the separation detection position; and Means for obtaining a sound flow associated with at least one of the sound sources based on the determined angular relationship.
JP2000557662A 1998-06-30 1999-06-30 Audio processing method and apparatus Pending JP2002519973A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9813973.6 1998-06-30
GBGB9813973.6A GB9813973D0 (en) 1998-06-30 1998-06-30 Interactive directional hearing aid
PCT/GB1999/002063 WO2000001200A1 (en) 1998-06-30 1999-06-30 Method and apparatus for processing sound

Publications (1)

Publication Number Publication Date
JP2002519973A true JP2002519973A (en) 2002-07-02

Family

ID=10834550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000557662A Pending JP2002519973A (en) 1998-06-30 1999-06-30 Audio processing method and apparatus

Country Status (5)

Country Link
EP (1) EP1090531A1 (en)
JP (1) JP2002519973A (en)
AU (1) AU4525899A (en)
GB (1) GB9813973D0 (en)
WO (1) WO2000001200A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210828A (en) * 2008-03-04 2009-09-17 Japan Advanced Institute Of Science & Technology Hokuriku Electronic watermark embedding device and electronic watermark detecting device, and electronic watermark embedding method and electronic watermark detection method
JP2015167408A (en) * 2011-01-13 2015-09-24 クアルコム,インコーポレイテッド Variable beamforming with mobile platform
US9369803B2 (en) 2012-05-22 2016-06-14 Samsung Electronics Co., Ltd. Apparatus and method for removing noise

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1380028A2 (en) * 2001-04-11 2004-01-14 Phonak Ag Method for the elimination of noise signal components in an input signal for an auditory system, use of said method and a hearing aid
CA2354858A1 (en) 2001-08-08 2003-02-08 Dspfactory Ltd. Subband directional audio signal processing using an oversampled filterbank
EP1562673B1 (en) 2002-11-13 2010-01-13 Advanced Bionics, LLC System to convey the within-channel fine structure with a cochlear implant
DE602004020872D1 (en) 2003-02-25 2009-06-10 Oticon As T IN A COMMUNICATION DEVICE
US7149583B1 (en) 2003-04-09 2006-12-12 Advanced Bionics Corporation Method of using non-simultaneous stimulation to represent the within-channel fine structure
US7702396B2 (en) 2003-11-21 2010-04-20 Advanced Bionics, Llc Optimizing pitch allocation in a cochlear implant
DE102004052912A1 (en) * 2004-11-02 2006-05-11 Siemens Audiologische Technik Gmbh Method for reducing interference power in a directional microphone and corresponding acoustic system
US7277760B1 (en) 2004-11-05 2007-10-02 Advanced Bionics Corporation Encoding fine time structure in presence of substantial interaction across an electrode array
US8600515B2 (en) 2004-11-05 2013-12-03 Advanced Bionics Ag Encoding fine time structure in presence of substantial interaction across an electrode array
US8027733B1 (en) 2005-10-28 2011-09-27 Advanced Bionics, Llc Optimizing pitch allocation in a cochlear stimulation system
DE102006018634B4 (en) * 2006-04-21 2017-12-07 Sivantos Gmbh Hearing aid with source separation and corresponding method
US9393412B2 (en) 2009-06-17 2016-07-19 Med-El Elektromedizinische Geraete Gmbh Multi-channel object-oriented audio bitstream processor for cochlear implants
WO2010148169A1 (en) * 2009-06-17 2010-12-23 Med-El Elektromedizinische Geraete Gmbh Spatial audio object coding (saoc) decoder and postprocessor for hearing aids
US9147157B2 (en) 2012-11-06 2015-09-29 Qualcomm Incorporated Methods and apparatus for identifying spectral peaks in neuronal spiking representation of a signal
EP3114859B1 (en) 2014-03-06 2018-05-09 Dolby Laboratories Licensing Corporation Structural modeling of the head related impulse response
CN113556660B (en) * 2021-08-01 2022-07-19 武汉左点科技有限公司 Hearing-aid method and device based on virtual surround sound technology

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1566857C3 (en) * 1967-11-18 1975-10-30 Fried. Krupp Gmbh, 4300 Essen Device for binaural signal reception in sonar systems
AT383428B (en) * 1984-03-22 1987-07-10 Goerike Rudolf EYEGLASSES TO IMPROVE NATURAL HEARING
JPH0739000A (en) * 1992-12-05 1995-02-07 Kazumoto Suzuki Selective extract method for sound wave in optional direction
US5757932A (en) * 1993-09-17 1998-05-26 Audiologic, Inc. Digital hearing aid system
JPH08285674A (en) * 1995-04-11 1996-11-01 Takayoshi Hirata Directive wave receiving system using anharmonic frequency analyzing method
JP3520430B2 (en) * 1996-03-12 2004-04-19 松下電器産業株式会社 Left and right sound image direction extraction method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210828A (en) * 2008-03-04 2009-09-17 Japan Advanced Institute Of Science & Technology Hokuriku Electronic watermark embedding device and electronic watermark detecting device, and electronic watermark embedding method and electronic watermark detection method
JP2015167408A (en) * 2011-01-13 2015-09-24 クアルコム,インコーポレイテッド Variable beamforming with mobile platform
US9369803B2 (en) 2012-05-22 2016-06-14 Samsung Electronics Co., Ltd. Apparatus and method for removing noise

Also Published As

Publication number Publication date
GB9813973D0 (en) 1998-08-26
WO2000001200A1 (en) 2000-01-06
AU4525899A (en) 2000-01-17
EP1090531A1 (en) 2001-04-11

Similar Documents

Publication Publication Date Title
JP2002519973A (en) Audio processing method and apparatus
CN107864440B (en) Hearing aid system comprising an EEG recording and analysis system
US9432777B2 (en) Hearing device with brainwave dependent audio processing
CN109660928B (en) Hearing device comprising a speech intelligibility estimator for influencing a processing algorithm
EP3264799B1 (en) A method and a hearing device for improved separability of target sounds
Kokkinakis et al. Single and multiple microphone noise reduction strategies in cochlear implants
Liu et al. A two-microphone dual delay-line approach for extraction of a speech sound in the presence of multiple interferers
CN108122559B (en) Binaural sound source positioning method based on deep learning in digital hearing aid
Nogueira et al. Spectral contrast enhancement improves speech intelligibility in noise for cochlear implants
US9776001B2 (en) Interaural coherence based cochlear stimulation using adapted envelope processing
Williges et al. Coherent coding of enhanced interaural cues improves sound localization in noise with bilateral cochlear implants
Kokkinakis et al. Multi-microphone adaptive noise reduction strategies for coordinated stimulation in bilateral cochlear implant devices
Chung et al. Effects of directional microphone and adaptive multichannel noise reduction algorithm on cochlear implant performance
Luo et al. Contribution of low-frequency acoustic information to Chinese speech recognition in cochlear implant simulations
Başkent et al. Recognition of temporally interrupted and spectrally degraded sentences with additional unprocessed low-frequency speech
Wouters et al. Sound processing for better coding of monaural and binaural cues in auditory prostheses
Wittkop et al. Speech processing for hearing aids: Noise reduction motivated by models of binaural interaction
Saunders et al. Speech intelligibility enhancement using hearing-aid array processing
AU2010208258B2 (en) Channel specific gain control including lateral suppression
US10306376B2 (en) Binaural cochlear implant processing
Ozimek et al. Speech intelligibility for different spatial configurations of target speech and competing noise source in a horizontal and median plane
AU2017353987B2 (en) Bilateral synchronized channel selection for cochlear implants
CN109982744A (en) Using reorganization fine structure processing based on the cochlear stimulation being concerned between ears
Gong et al. Parameter selection methods of delay and beamforming for cochlear implant speech enhancement
Courtois Spatial hearing rendering in wireless microphone systems for binaural hearing aids