JP3987429B2 - Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device - Google Patents

Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device Download PDF

Info

Publication number
JP3987429B2
JP3987429B2 JP2002535462A JP2002535462A JP3987429B2 JP 3987429 B2 JP3987429 B2 JP 3987429B2 JP 2002535462 A JP2002535462 A JP 2002535462A JP 2002535462 A JP2002535462 A JP 2002535462A JP 3987429 B2 JP3987429 B2 JP 3987429B2
Authority
JP
Japan
Prior art keywords
kin
processing
stage
classification
class information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002535462A
Other languages
Japanese (ja)
Other versions
JP2005504325A (en
Inventor
シルヴィア・アレグロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sonova Holding AG
Original Assignee
Phonak AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Phonak AG filed Critical Phonak AG
Publication of JP2005504325A publication Critical patent/JP2005504325A/en
Application granted granted Critical
Publication of JP3987429B2 publication Critical patent/JP3987429B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、音響環境状況の決定方法、同方法の使用、音響環境状況の決定装置及び聴音装置に関する。   The present invention relates to a method for determining an acoustic environment situation, use of the method, an apparatus for determining an acoustic environment situation, and a hearing device.

近時の聴音装置は、種々の聴音プログラムを用いて、変化する音響環境状況に適合するように調整することができる。これにより聴音装置装着者に対してあらゆる状況において聴音装置の最適な使用を提供することができる。   Modern hearing devices can be adjusted to suit changing acoustic environmental conditions using various listening programs. This provides the hearing instrument wearer with the optimal use of the hearing apparatus in all situations.

聴音プログラムの選定は、遠隔操作によるか又は聴音装置自体におけるスイッチ操作により実施することができる。しかしながら、種々の聴音プログラム間の切替は、多くの装着者にとって煩わしく又は困難であり、時には不可能でさえある。どの時点でどのプログラムが最高の快適さと最高の音声明瞭性を与えるかの決定は、熟練した聴音装置装着者にとっても必ずしも容易ではない。従って、周辺の音響環境状況の自動的な認識とこれに応じた聴音装置における自動的な聴音プログラムの切替が期待される。   The selection of the listening program can be performed by remote control or by switch operation on the listening device itself. However, switching between the various listening programs is cumbersome or difficult for many wearers and sometimes even impossible. It is not always easy for a skilled hearing instrument wearer to determine which program gives the best comfort and the best speech clarity at what point. Therefore, automatic recognition of surrounding acoustic environment conditions and automatic switching of the listening program in the listening device corresponding to this are expected.

今のところ、音響環境状況の自動的な分類についていくつかの方法が知られている。これらの方法においてはいずれの場合にも、聴音装置における1つ又はそれ以上のマイクロホンにより得られる入力信号からいくつかの特徴が抽出される。これらの特徴に基づいて、特定のアルゴリズムを適用することにより、パターン認識装置が、分析された入力信号がどの音響環境状況に帰属するかの決定を行う。これらの既知の方法は、一方では音響環境状況の定義に適用される種々の特徴の分析(信号分析)において、また他方ではこれらの特徴を分類するために使用されるパターン認識手法(信号識別)において、それぞれ互いに相異している。   At present, several methods are known for automatic classification of acoustic environmental conditions. In any of these methods, some features are extracted from the input signal obtained by one or more microphones in the hearing device. Based on these features, by applying a specific algorithm, the pattern recognition device determines which acoustic environment situation the analyzed input signal belongs to. These known methods are on the one hand in the analysis of the various features applied to the definition of the acoustic environment situation (signal analysis) and on the other hand the pattern recognition technique (signal identification) used to classify these features. Are different from each other.

国際特許出願WO01/20965の公開公報には、音響環境状況の決定方法及び装置が開示されている。ここにおいて、音響入力信号の一段処理が特徴抽出装置において実施され、これにより抽出された特徴が、その後流に接続された分類装置において分類され、分類情報が生成される。この既知の教示により、特に聴覚ベースの特徴が適用された場合に、良好な結果が得られる。しかしながら、聴音装置の適用分野においては更なる改良が期待される。これは、このような聴音装置の分野においては音響環境状況の分類を特に正確に実施する必要があるからである。同時に、例えば音楽やノイズを含む広範囲にわたる多数の音の分類を行うことが更なる困難性を生じさせる。即ち、音はその多様な発生過程により非常に広範囲に及ぶため、これに対応して音の分類の性格に多様性が生じる。例えば音分類「ノイズ」は、例えば背景の会話、駅のノイズ、ヘアドライヤの音、等の種々のノイズを含み、また、音分類「音楽」は、例えばポップ音楽、クラシック音楽、独奏、歌唱、等を含む。   The publication of international patent application WO01 / 20965 discloses a method and apparatus for determining the acoustic environment status. Here, one-stage processing of the acoustic input signal is performed in the feature extraction device, and the features extracted thereby are classified in a classification device connected downstream, and classification information is generated. With this known teaching, good results are obtained, especially when auditory-based features are applied. However, further improvements are expected in the field of application of hearing devices. This is because it is necessary to classify the acoustic environment state particularly accurately in the field of such a hearing device. At the same time, the classification of a large number of sounds, including for example music and noise, creates a further difficulty. In other words, since the sound has a very wide range due to its various generation processes, the characteristics of the sound classification vary accordingly. For example, the sound classification “noise” includes various noises such as background conversation, station noise, hair dryer sound, and the sound classification “music” includes, for example, pop music, classical music, solo, singing, etc. including.

特にこれらの音分類の非常な多様性の故に、既知の処理方法を用いて特徴抽出装置及びこれに続く分類装置において良好な認識率を得ることは非常に困難である。即ち、認識システムの信頼性は、例えば国際特許出願WO01/20965において初めて開示された聴覚ベースの特徴の使用のような適切な特徴の選択によって改善することが可能である一方、一般的な音分類は非常に変化に富むため、これらの音分類を互いに明確に、かつ、疑いなく区別することは非常に困難である。   In particular, due to the great diversity of these sound classifications, it is very difficult to obtain a good recognition rate in a feature extraction device and subsequent classification devices using known processing methods. That is, the reliability of the recognition system can be improved by the selection of appropriate features, such as the use of auditory-based features first disclosed in international patent application WO 01/20965, while general sound classification Are so varied that it is very difficult to clearly and unambiguously distinguish these sound classifications from each other.

従って、本発明は、従来のものに比べてより信頼性があり、かつ、正確な音響環境状況の決定方法を提供することを課題とする。   Therefore, an object of the present invention is to provide a method for determining an acoustic environment state that is more reliable and accurate than the conventional one.

この課題は、特許請求の範囲における請求項1に記載の方法により解決される。本発明に関わる好ましい形態、方法の使用、装置及び聴音装置は、更なる請求項に記載される。   This problem is solved by the method according to claim 1 in the claims. Preferred forms, use of the method, apparatus and hearing device according to the invention are described in the further claims.

少くとも2つの処理段により分類処理を実施し、好ましくは各処理段が特徴の抽出フェーズと特徴を分類する識別フェーズを有する複数処理段による方法により、音響入力信号が処理され、その時々の音響環境状況の粗分類と細分類が得られる。本発明の方法により、例えば音分類「ポップ音楽」を音分類「ノイズ中の会話」に誤って分類するような事態は確実に回避することが可能である。また、本発明による方法は、一般的な音分類、例えば「ノイズ」を、例えば「交通のノイズ」又は「会話の背景ノイズ」等のサブクラスに細分することを可能とする。例えば車中で現れる「車内ノイズ」のような特別の状況をも認識することができる。一般的に室内の特徴を識別して、これを重要な信号部分の更なる処理に考慮することができる。更に本発明の方法により、音源のローカル化を実施し、これにより多くの音が混じる音源における特定の音源の存在を認識する可能性が得られることが判明した。   The classification process is performed by at least two processing stages, and the acoustic input signal is processed by a method of multiple processing stages, preferably each processing stage having a feature extraction phase and an identification phase for classifying the features. Coarse and fine classification of environmental conditions is obtained. By the method of the present invention, for example, a situation where the sound classification “pop music” is erroneously classified into the sound classification “conversation in noise” can be reliably avoided. The method according to the invention also makes it possible to subdivide the general sound classification, eg “noise”, into subclasses such as “traffic noise” or “conversational background noise”. For example, special situations such as “in-vehicle noise” appearing in the car can be recognized. In general, room features can be identified and taken into account for further processing of important signal parts. Furthermore, it has been found that the method of the present invention can localize the sound source and thereby recognize the possibility of recognizing the presence of a specific sound source in a sound source mixed with many sounds.

以下において、付随する図面を参照し、本発明を例示的により詳細に説明する。   In the following, the invention will be described in greater detail by way of example with reference to the accompanying drawings.

図1は、音響環境状況を決定する従来の一段処理装置を示す。この装置は、接続される順に特徴抽出装置F、分類装置C及び必要に応じて後処理装置Pを有する。   FIG. 1 shows a conventional one-stage processing apparatus for determining acoustic environment conditions. This apparatus includes a feature extraction apparatus F, a classification apparatus C, and a post-processing apparatus P as necessary in the order in which they are connected.

例えばマイクロホンで捕えられた音響入力信号INは、特徴抽出装置Fに入力され、ここにおいて特徴の抽出が行われる。   For example, an acoustic input signal IN captured by a microphone is input to a feature extraction device F, where feature extraction is performed.

音声信号における特徴抽出について、J.M.ケイツ(Kates)の論文「補聴器に適用する背景ノイズの分類」(1995年 米国音響学会誌97(1)、461〜469ページ)は、音の時間的レベル変動とスペクトルの分析を行うことを提案する。また、欧州特許EP−B1−0732036は、同じ目的のために、振巾ヒストグラムの分析を提案する。最新のものでは、この特徴抽出は、種々の変調周波数の分析を行うことによっても研究され、実施されている。この点に関して、オステンドルフ(Ostendorf)等の2つの論文が参考となる。即ち、「変調周波数分析による種々の音響信号及び会話音声の経験的分類」(1997年 DAGA97、608及び609ページ)及び「ディジタル式聴音装置に適用する変調スペクトル分析に基づく音響信号の分類」(1998年 DAGA98、402及び403ページ)である。これと類似したものが、エドワーズ(Edwards)等の論文「ソフトウェアベースによる新しいディジタル式聴音装置のための信号処理アルゴリズム」(1998年 The Hearing誌51、44〜52ページ)に発表されている。その他の音の特徴は、音量レベル自体又はゼロクロスオーバ率(Nulldurchgangsrate)であり、これは例えばH.L.ヒルシュ(Hirsch)の論文「統計的信号特徴化手法」(1992年 Artech House)に述べられている。以上のように、これまでの音声信号分析に用いられた特徴は純粋に技術ベースのものである。   Regarding feature extraction in speech signals, J. et al. M.M. Kates' paper “Classification of background noise applied to hearing aids” (1995 Acoustical Journal 97 (1), pages 461-469) proposes to perform temporal level variation and spectrum analysis of sound. To do. European patent EP-B1-0732036 also proposes an analysis of amplitude histograms for the same purpose. In the latest, this feature extraction has also been studied and implemented by analyzing various modulation frequencies. In this regard, two papers such as Ostendorf are helpful. That is, “empirical classification of various acoustic signals and speech by modulation frequency analysis” (1997 DAGA 97, pages 608 and 609) and “classification of acoustic signals based on modulation spectrum analysis applied to digital listening apparatus” (1998). Year DAGA 98, pages 402 and 403). An analogy to this is published in Edwards et al.'S "Signal Processing Algorithm for a New Digital Hearing Device Based on Software" (1998, The Hairing 51, pages 44-52). Another sound feature is the volume level itself or the zero crossover rate, which is described in, for example, H.D. L. It is described in the Hirsch paper "Statistical Signal Characterization Method" (1992 Artech House). As described above, the features used in the conventional speech signal analysis are purely technology-based.

更に、上述の国際特許出願WO01/20965の公開公報により、上記の技術的特徴に加えて、聴覚ベースの特徴の使用が有効であることが初めて開示された。   Furthermore, the publication of the aforementioned international patent application WO 01/20965 disclosed for the first time that the use of auditory-based features in addition to the technical features described above is effective.

図1において、特徴抽出装置Fにおいて抽出された特徴Mは、分類装置Cに導かれ、ここで基本的に既知のパターン認識方法の1つが音の分類に適用される。特に適したパターン認識システムとしては、いわゆる距離判定方法(Abstandsschaetzer)、ベイズ(Bayes)分類手法、ファジィ論理システム又はニューラルネットワークである。これらの方法のうち最初の2つについては、リチャード・O・デューダ(Richard O. Duda)及びピーター・E・ハート(Peter E. Hart)の著作「パターン分類と情景分析」(1973年 John Wiley & Sons)に説明されている。ニューラルネットワークについては、クリストファー・M・ビショップ(Christopher M. Bishop)の論文「パターン認識のためのニューラルネットワーク」(1995年 オックスフォード大学出版)が参照される。また、次の刊行物が参考となる。即ち、オステンドルフ(Ostendorf)等の「ディジタル式聴音装置に適用する変調スペクトル分析に基づく音響信号の分類」(1998年 Audiology誌、148〜150ページ);F.フェルトブッシュ(Feldbusch)の「ニューラルネットワークによる音声認識」(1998年 Audiology誌、30〜36ページ);欧州特許公開EP−A1−0814636;及び米国特許US−5604812。これらのパターン認識方法はいずれも、対象となる範囲の音に関してその静的特性のみをモデル化しているが、これらのパターン認識方法の他に、動的特性を考慮する上述の国際特許出願WO01/20965の公開公報に記載された方法がある。   In FIG. 1, the feature M extracted by the feature extraction device F is guided to the classification device C, where one of the known pattern recognition methods is basically applied to the sound classification. Particularly suitable pattern recognition systems are so-called distance determination methods (Abstandsschaetzer), Bayesian classification methods, fuzzy logic systems or neural networks. The first two of these methods are described in the book "Pattern Classification and Scene Analysis" by Richard O. Duda and Peter E. Hart (1973 John Wiley & Sons). Regarding neural networks, reference is made to Christopher M. Bishop's paper "Neural Networks for Pattern Recognition" (1995 Oxford University Press). The following publications are also helpful. That is, Ostendorf et al., “Classification of Acoustic Signals Based on Modulation Spectrum Analysis Applied to a Digital Hearing Device” (1998 Audiology, pp. 148-150); Feldbusch's “Neural Network Speech Recognition” (1998 Audiology, pages 30-36); European Patent Publication EP-A1-0814636; and US Pat. No. 5,604,812. Each of these pattern recognition methods models only the static characteristics of the sound in the target range. In addition to these pattern recognition methods, the above-mentioned international patent application WO01 / There is a method described in the publication of No. 20965.

図1の従来技術において、分類装置Cにおいて実施される処理手続によってクラス情報KIが得られる。このクラス情報KIは、場合により、後処理装置Pに送られ、ここであり得べき分類帰属の修正が行われる。結果として、修正されたクラス情報KI’が得られる。   In the prior art of FIG. 1, class information KI is obtained by a processing procedure performed in the classification device C. In some cases, this class information KI is sent to the post-processing device P, where possible classification attribution is corrected. As a result, corrected class information KI 'is obtained.


図2は、本発明の装置に関わる1つの基本となる構成を示す。この装置は2つの処理段S1及びS2を有し、この各段S1及びS2には、それぞれ特徴抽出装置F1及びF2並びにこれらに対応する分類装置C1及びC2が設けられる。最初の入力信号INが両処理段S1及びS2における特徴抽出装置F1及びF2に入力される。特徴抽出装置F1及びF2は、それぞれ対応する分類装置C1及びC2に接続される。ここで注目すべきことは、第一の処理段S1において分類装置C1による計算に基づいて音声のクラスに分類されたクラス情報KI1が、第二の処理段S2における分類装置C2に作用することである。即ち、この作用は、実際には例えば可能ないくつかのパターン認識方法の1つを選択し、これによるクラス情報KI1を第二の処理段S2における分類装置C2による音の分類に適用し、これを反映させるように実施される。

FIG. 2 shows one basic configuration for the apparatus of the present invention. This device has two processing stages S1 and S2, and each stage S1 and S2 is provided with a feature extraction device F1 and F2 and a corresponding classification device C1 and C2, respectively. The first input signal IN is input to the feature extraction devices F1 and F2 in both processing stages S1 and S2. The feature extraction devices F1 and F2 are connected to the corresponding classification devices C1 and C2, respectively. What should be noted here is that the class information KI1 classified into the speech class based on the calculation by the classification device C1 in the first processing stage S1 acts on the classification device C2 in the second processing stage S2. is there. That is, this action actually selects, for example, one of several possible pattern recognition methods and applies the class information KI1 thereby to the sound classification by the classification device C2 in the second processing stage S2. It is implemented to reflect.


図2に示す本発明の基本となる構成について、以下に具体例に基づいて更に説明する。

The basic configuration of the present invention shown in FIG. 2 will be further described below based on specific examples.

特徴抽出装置F1により、特徴として、音調(Tonalitaet)、スペクトル重心(CGAV)、スペクトル重心の変動(CGFS)及びスペクトル巾と整定時間が抽出され、次いで分類装置C1においてHMM(ヒドン・マルコフ・モデル)分類手法を用いて分類が行われる。これにより、入力信号INは、HMM分類手法により、次の分類、即ち「会話(人の声音)」、「ノイズ中の会話」、「ノイズ」又は「音楽」、の1つに分類される。この結果クラス情報KI1が得られ、これが第二の処理段S2の分類装置C2に入力される。一方、第二の処理段S2の特徴抽出装置F2においては第二の特徴のセットが抽出される。この特徴抽出装置F2においては、特徴としての音調、スペクトル重心及びスペクトル重心の変動の他に、更なる特徴として音の調和構造(pitch) の変形( 以下においてPitchvarという) が抽出される。これらの特徴に基づいて、第一の処理段S1の結果が、分類装置C2においてルールベースの分類手法に照らして確認され、必要に応じて修正される。このルールベースの分類手法は、上記の4つの特徴をベースとし、かつ、以下の点を考慮して方向づけられるいくつかの単純な新しい決定項目を含むものである。   The feature extraction device F1 extracts the tone (Tonalitaet), the spectrum centroid (CGAV), the variation of the spectrum centroid (CGFS), the spectrum width and the settling time, and then the HMM (Hidden Markov model) in the classification device C1. Classification is performed using a classification technique. Thereby, the input signal IN is classified into one of the following classifications, that is, “conversation (human voice)”, “conversation in noise”, “noise”, or “music” by the HMM classification method. As a result, class information KI1 is obtained and input to the classification device C2 of the second processing stage S2. On the other hand, in the feature extraction device F2 of the second processing stage S2, a second feature set is extracted. In the feature extraction device F2, in addition to the tone, spectral centroid, and fluctuation of the spectral centroid as a feature, a sound harmonic structure (pitchvar) deformation (hereinafter referred to as Pitchvar) is extracted as a further feature. Based on these characteristics, the result of the first processing stage S1 is checked against the rule-based classification technique in the classification device C2, and is corrected if necessary. This rule-based classification approach is based on the above four features and includes several simple new decisions that are oriented taking into account the following points:

特徴の数値が、第一の分類装置C1においてHMM分類手法により決定されたクラス情報KI1の許容数値範囲を完全に外れている時は、音声の各クラスにおいてその修正のために特徴「音調」が使用される。音調は、「音楽」では高く、「会話」では中間、「ノイズ中の会話」では更に若干低く、かつ、「ノイズ」では低いことが期待されている。例えば、入力信号INが分類装置C1によってクラス「会話」に分類された場合は、特徴抽出装置F1において決定された当該の特徴が分類装置C1に対して、入力信号INの該当信号部分が大きく変動している旨を指示したものと期待される。一方、この入力信号INに対する音調が非常に低い場合は、高い確率をもって「会話」でなく、「ノイズ中の会話」が正しい分類であろうと考えられる。他の3つの特徴、即ち調和構造の変形(Pitchvar)、スペクトル重心(CGAV)及びスペクトル重心の変動(CGFS)に対しても、同様の考慮を実施することが可能である。これにより、分類装置C2において適用することのできるルールベースの分類のためのルールは、次のように構成することができる:

Figure 0003987429
When the numerical value of the feature is completely outside the allowable numerical value range of the class information KI1 determined by the HMM classification method in the first classification device C1, the characteristic “tone” is corrected for the correction in each class of speech. used. The tone is expected to be high in “music”, medium in “conversation”, slightly lower in “conversation in noise”, and low in “noise”. For example, when the input signal IN is classified into the class “conversation” by the classification device C1, the corresponding signal portion of the input signal IN greatly fluctuates with respect to the classification device C1. It is expected that it has been instructed. On the other hand, when the tone for the input signal IN is very low, it is considered that “conversation in noise” is not a “classic conversation” with a high probability, but “conversation in noise” would be the correct classification. Similar considerations can be made for the other three features: harmonic structure deformation (Pitchvar), spectral centroid (CGAV) and spectral centroid variation (CGFS). Thereby, a rule for rule-based classification that can be applied in the classification device C2 can be configured as follows:
Figure 0003987429


の形態では、第一の処理段S1におけるのみならず第二の処理段S2においてもほぼ同じ特徴が使用されることが驚きをもって判明した。更に、分類装置C1において生じた誤りを修正するには、特徴「音調」の使用が最も適していることが示された。これにより、ルールベースの分類方式には音調の適用が最も重要であるものと決定することができる。

Above Symbol form status of, has also been found with a surprise that almost the same characteristics are used in the second treatment stage S2 not only in the first processing stage S1. Furthermore, it has been shown that the use of the feature “tone” is most suitable for correcting errors that occur in the classification device C1. Thereby, it can be determined that the application of tone is the most important for the rule-based classification method.


上述の形態によりテストを実施した結果、この簡単な二段処理方式は、一段処理方式に比べて少くとも3%のヒット率の改善を達成した。いくつかの場合においては、ヒット率において91%もの改善が可能であった。

Result of the test by the shape condition described above, the simple two-stage processing scheme has achieved at least improvement of 3% hit rate compared to one-step process method. In some cases, a 91% improvement in hit rate was possible.


図3は、図2と同じ図示形態により本発明の実施の形態を示す図である。ここにおいて処理方式は、n段のものが取扱われる。処理段S1〜Snは、上述の考慮の結果として、それぞれ特徴抽出装置F1〜Fnと、これらの後流に接続されて対応するそれぞれのクラス情報KI1〜KInを生成する分類装置C1〜Cnを有する。更に、修正されたクラス情報KI1’〜KIn’を生成する後処理装置P1〜Pnが、処理段S1〜Snの各段又は複数段に設けられる。

FIG. 3 is a diagram showing an embodiment of the present invention in the same manner as in FIG. Here, an n-stage processing method is handled. The processing stages S1 to Sn have, as a result of the above consideration, the feature extraction devices F1 to Fn and the classification devices C1 to Cn that are connected to the downstream and generate corresponding class information KI1 to KIn, respectively. . Furthermore , post-processing devices P1 to Pn that generate modified class information KI1 ′ to KIn ′ are provided in each of the processing stages S1 to Sn or a plurality of stages.

図2の実施の形態に対比した場合、図3に示す実施の形態は、特にいわゆる粗−細分類に適している。粗−細分類では、処理段iにおいて得られた結果は、次の処理段i+1において精細化される。即ち、上位に配された処理段において粗分類が実施され、次いでこの粗分類に基づく特定の特徴抽出及び分類方法により、細分類が下位に配された処理段において実施される。この方式はまた、上位に配された処理段において仮説を生成し、この仮説を下位に配された処理段において見直す、即ち確認し又は拒絶する、方式においても見ることができる。この点に関し、明らかではあるが、上位の処理段において生成される仮説(粗分類)は、他の情報源によって、特に例えば遠隔操作又はスイッチ切替等の手動手段によって、提供することが可能である。これは、図3の第一の処理段S1に代表的に示すように、制御量(Stellgroesse)STによって実施され、これによって、例えば分類装置C1において実施された計算を覆えすことができる。自明であるが、制御量STは別の処理段における分類装置C2〜Cnに対し、又は処理段S1〜Snにおける後処理装置P1〜Pnに対して与えることもできる。   In contrast to the embodiment of FIG. 2, the embodiment shown in FIG. 3 is particularly suitable for so-called coarse-fine classification. In the coarse-fine classification, the result obtained in the processing stage i is refined in the next processing stage i + 1. That is, the coarse classification is performed in the processing stage arranged at the upper level, and then the detailed classification is performed in the processing stage arranged at the lower level by the specific feature extraction and classification method based on the coarse classification. This scheme can also be seen in a scheme where a hypothesis is generated at a higher processing stage and this hypothesis is reviewed, i.e., confirmed or rejected, at a lower processing stage. In this regard, it is clear that the hypotheses (coarse classification) generated in the higher processing stages can be provided by other information sources, in particular by manual means such as remote control or switching. . This is performed by a control amount (Stellgroesse) ST, as representatively shown in the first processing stage S1 of FIG. 3, and thereby, for example, the calculation performed in the classification device C1 can be overturned. Obviously, the control amount ST can also be given to the classification devices C2 to Cn in different processing stages or to the post-processing devices P1 to Pn in the processing stages S1 to Sn.

複数の処理段S1〜Snを有する本発明による分類システムにおいて、必須ではないが処理段S1〜Snの各々に次のような目標を設定することができる;即ち、粗分類、細分類、音源のローカル化、特定の音源、例えば車内ノイズ、が存在するか否かのテスト、又は入力信号のある信号部分、例えば部屋の特徴に起因するエコー、の抽出。従って、処理段S1〜Snは、互いに異なる特徴が抽出され、かつ、互いに異なる分類方法が適用されるという意味合いにおいて、それぞれ別個である。   In a classification system according to the present invention having a plurality of processing stages S1 to Sn, the following targets can be set for each of the processing stages S1 to Sn, although not essential: a rough classification, a fine classification, a sound source Localization, testing for the presence of a particular sound source, such as car interior noise, or extracting certain signal parts of the input signal, such as echoes due to room features. Therefore, the processing stages S1 to Sn are different in the sense that different features are extracted and different classification methods are applied.

本発明の別の実施の形態においては、種々の信号部分の混合体における個々の信号のローカル化が第一の処理段S1において実施され、このローカル化された信号源の粗分類が第二の処理段S2において実施され、更にこの第二の処理段S2で得られた粗分類の細分類を第三の処理段S3において実施する。   In another embodiment of the invention, the localization of the individual signals in the mixture of the various signal parts is performed in the first processing stage S1, and the coarse classification of this localized signal source is the second The rough classification fine classification obtained in the second processing stage S2 is performed in the third processing stage S3.

第一の処理段S1で実施された音源のローカル化に続いて、例えば多重マイクロホン技術による方向フィルターリングを実施することが可能である。   Following the localization of the sound source implemented in the first processing stage S1, it is possible to implement directional filtering, for example by means of a multiple microphone technique.

自明であるが、特徴抽出装置F1〜Fnをいくつかの分類装置C1〜Cnに対して分割することができる。即ち、特徴抽出装置F1〜Fnの結果をいくつかの分類装置C1〜Cnにおいて使用することができる。更に、分類装置C1〜Cnをいくつかの処理段S1〜Snにおいて使用することも考えられる。結局のところ、互いに異なる処理段S1〜Snにおいて得られたクラス情報KI1〜KIn又は修正されたクラス情報KI1’〜KIn’は、最終的な分類を得るために種々の形態において重み付けを行うようにすることが可能である。   Obviously, the feature extraction devices F1 to Fn can be divided into several classification devices C1 to Cn. That is, the results of the feature extraction devices F1 to Fn can be used in some classification devices C1 to Cn. Furthermore, it is also conceivable to use the classification devices C1 to Cn in several processing stages S1 to Sn. After all, the class information KI1 to KIn obtained in the different processing stages S1 to Sn or the modified class information KI1 ′ to KIn ′ is weighted in various forms in order to obtain a final classification. Is possible.

図4は、複数の処理段S1〜Snを有する本発明による別の実施の形態を示す。図3に示す実施の形態とは異なり、クラス情報KI1〜KInはそれぞれの直後の処理段において使用されるのみならず、必要に応じてそれぞれに続く下位のすべての処理段においても使用することができる。同様に、上位の処理段S1〜Snの結果が後続の特徴抽出装置F1〜Fn又は抽出されるべき特徴に効果を及ぼすことができる。   FIG. 4 shows another embodiment according to the invention having a plurality of processing stages S1 to Sn. Unlike the embodiment shown in FIG. 3, the class information KI1 to KIn is not only used in the processing stage immediately after each of the class information KI1 to KIn, but also used in all the subsequent processing stages as necessary. it can. Similarly, the results of the higher processing stages S1 to Sn can have an effect on the subsequent feature extraction devices F1 to Fn or the features to be extracted.

図4の実施の形態においても、後処理装置P1〜Pnを設け、これにより分類の中間結果を入手し、また修正されたクラス情報KI1’〜KIn’を生成することができる。   In the embodiment of FIG. 4 as well, post-processing devices P1 to Pn are provided, whereby intermediate classification results can be obtained, and modified class information KI1 'to KIn' can be generated.

図5は、本発明の更なる実施の形態としての音響環境状況を決定する多段処理装置を示す。図3及び図4の実施の形態における複数の処理段S1〜Snと同様に、処理段に応じた特徴抽出装置F1〜Fn及び分類装置C1〜Cnが設けられる。処理段S1〜Snにおいて得られたクラス情報KI1〜KInは、決定装置FDに導かれ、ここにおいて最終的な分類がクラス情報KIを生成することによって得られる。決定装置FDでは、必要に応じて、特徴抽出装置F1〜Fnに及び/又は分類装置C1〜Cnに与えられるフィードバック信号の生成が実施され、これにより、例えばこれらの処理装置における1つ又はいくつかのパラメータを調整し又は全分類装置C1〜Cnを交換することができる。   FIG. 5 shows a multi-stage processing apparatus for determining an acoustic environment situation as a further embodiment of the present invention. Similar to the plurality of processing stages S1 to Sn in the embodiment of FIGS. 3 and 4, feature extraction apparatuses F1 to Fn and classification apparatuses C1 to Cn corresponding to the processing stages are provided. The class information KI1 to KIn obtained in the processing stages S1 to Sn is guided to the determination device FD, where the final classification is obtained by generating the class information KI. In the decision device FD, the generation of feedback signals to be applied to the feature extraction devices F1 to Fn and / or to the classification devices C1 to Cn is carried out as required, so that, for example, one or several of these processing devices Can be adjusted or all classification devices C1-Cn can be replaced.

なお、図3〜図5の実施の形態における処理装置のフィードバック作用及びその接続は、図示された形態に限定されることなく、これらのフィードバック作用及びその接続のいくつかは省略することができる。基本的にこれらの処理装置を任意に組合せて必要なそれぞれの構成を得ることができる。   It should be noted that the feedback action of the processing apparatus and its connection in the embodiment of FIGS. 3 to 5 are not limited to the illustrated form, and some of these feedback actions and their connections can be omitted. Basically, these processing apparatuses can be arbitrarily combined to obtain each required configuration.

また、本発明を聴音装置に適用した場合は、いくつかの処理段を2つの聴音装置、即ちそれぞれ左耳及び右耳に取付けられた聴音装置、の間で分配することも考えられる。この形態における両耳間の情報交換は、有線又は無線による通信結合を介して実施される。   Further, when the present invention is applied to a hearing device, it is also conceivable to distribute several processing stages between two hearing devices, i.e., a hearing device attached to the left and right ears, respectively. Information exchange between both ears in this form is performed through wired or wireless communication coupling.

図6は、図2のものを簡単化した本発明の更なる実施の形態により、上述の処理装置に関わる有り得べき構成及び組合せを説明する図である。特徴抽出装置F1は1つのみである一方、処理段はS1及びS2の2つが設けられている。第一の処理段S1は、特徴抽出装置F1及び分類装置C1を有する。第二の処理段S2には、第一の処理段S1において使用されたものと同じ特徴が使用される。従って、第二の処理段S2においては、特徴の新しい計算は不要であり、第一の処理段S1における特徴抽出装置F1の結果を使用することができる。これにより、第二の処理段S2においては、実際上第一の処理段S1におけるクラス情報KI1に従属して分類方法を変更するのみである。   FIG. 6 is a diagram for explaining possible configurations and combinations related to the above-described processing apparatus according to a further embodiment of the present invention in which the one in FIG. 2 is simplified. While there is only one feature extraction apparatus F1, two processing stages S1 and S2 are provided. The first processing stage S1 includes a feature extraction device F1 and a classification device C1. The second processing stage S2 uses the same features as those used in the first processing stage S1. Therefore, in the second processing stage S2, no new feature calculation is required, and the result of the feature extraction device F1 in the first processing stage S1 can be used. Thereby, in the second processing stage S2, the classification method is actually changed depending on the class information KI1 in the first processing stage S1.

図7は、本発明による装置を聴音装置に使用する実施の形態を示し、ここにおいて基本的に聴音装置としての信号伝達装置200が設けられる。符号100は、図2ないし図6のいずれかに示された実施の形態により実現される多段処理装置を示す。入力信号INは、多段処理装置100のみならず信号伝達装置200にも入力される。信号伝達装置200において、音響入力信号INは、多段処理装置100で得られたクラス情報KI1〜KIn又は修正されたクラス情報KI1’〜KIn’を用いて処理される。この場合、好ましくは、既述の国際特許出願WO01/20965に記載されたように、決定された音響環境状況に基づいて適切な聴音プログラムの選択が実施される。   FIG. 7 shows an embodiment in which the device according to the present invention is used for a listening device, in which a signal transmission device 200 is basically provided as a listening device. Reference numeral 100 denotes a multi-stage processing apparatus realized by the embodiment shown in any of FIGS. The input signal IN is input not only to the multistage processing device 100 but also to the signal transmission device 200. In the signal transmission device 200, the acoustic input signal IN is processed using the class information KI1 to KIn obtained by the multistage processing device 100 or the modified class information KI1 'to KIn'. In this case, preferably, as described in the aforementioned international patent application WO 01/20965, selection of an appropriate listening program is performed based on the determined acoustic environment situation.

即ち、図7において、符号300は手動による入力装置を示し、この入力装置300により、例えば図示のような無線通信により、場合により上述の多段処理装置100又は信号伝達装置200が制御される。聴音装置としての信号伝達装置200については、本発明の説明の一体部分を形成する国際特許出願WO01/20965における実施の形態が参照される。   That is, in FIG. 7, reference numeral 300 indicates a manual input device, and the input device 300 controls the multistage processing device 100 or the signal transmission device 200 according to circumstances, for example, by wireless communication as illustrated. For the signal transmission device 200 as a listening device, reference is made to the embodiment in the international patent application WO 01/20965 which forms an integral part of the description of the invention.

本発明による上述のすべての実施の形態について適用可能な分類方法として、次のいずれかを用いることができる:
−ヒドン・マルコフ・モデル分類手法;
−ファジィ論理;
−ベイズ分類手法;
−ルールベース分類手法;
−ニューラルネットワ−ク
−最小距離判定方法
As a classification method applicable to all the above embodiments according to the present invention, any of the following can be used:
-Hidden Markov model classification method;
-Fuzzy logic;
-Bayesian classification method;
-Rule-based classification methods;
-Neural network-Minimum distance judgment method

なお、特徴抽出装置F1〜Fn(図2〜図7)においては技術ベース及び/又は聴覚ベースの特徴を抽出することが可能である。技術ベース及び聴覚ベースの特徴については、再び国際特許出願WO01/20965における実施の形態に関して詳しい説明がなされている。   The feature extraction devices F1 to Fn (FIGS. 2 to 7) can extract technology-based and / or auditory-based features. The technical and auditory base features are again described in detail with respect to the embodiments in the international patent application WO 01/20965.

音響環境状況を決定する本発明の方法は、好ましくは、聴音装置における聴音プログラムの選択に用いられる。しかしながら、音声認識のための本発明の装置の使用又は本発明の方法の適用も考慮に値する。   The method of the invention for determining the acoustic environment situation is preferably used for selection of a listening program in a listening device. However, it is also worth considering the use of the device of the invention for speech recognition or the application of the method of the invention.

音響環境を決定する従来の一段処理装置を示す図。The figure which shows the conventional one-stage processing apparatus which determines an acoustic environment. 二段処理を実施する本発明による装置の基本となる構成を示す図。The figure which shows the fundamental structure of the apparatus by this invention which implements a two-stage process. 多段処理を実施する本発明による装置の実施の形態を示す図。The figure which shows embodiment of the apparatus by this invention which implements multistage processing. 多段処理を実施する本発明による装置の別の実施の形態を示す図。The figure which shows another embodiment of the apparatus by this invention which implements multistage processing. 多段処理を実施する本発明による装置の更に別の実施の形態を示す図。The figure which shows another embodiment of the apparatus by this invention which implements multistage processing. 図2の二段処理装置を簡単化した本発明の更なる実施の形態を示す図。The figure which shows further embodiment of this invention which simplified the two-stage processing apparatus of FIG. 図2〜図6に示す本発明の装置を聴音装置に使用する実施の形態を示す図。The figure which shows embodiment which uses the apparatus of this invention shown in FIGS. 2-6 for a listening apparatus.

Claims (18)

音響環境状況を決定する方法において、前記方法は、
響入力信号(IN)を少くとも2つの処理段(S1、・・・、Sn)において処理するようにしてなり、
前記処理段(S1、・・・、Sn)の少くとも1つに、前記入力信号(IN)から特徴を抽出する抽出フェーズを設け、
前記処理段(S1、・・・、Sn)の各々に、前記抽出された特徴を分類する識別フェーズを設けると共に、
前記処理段(S1、・・・、Sn)の少くとも1つにおいて、前記特徴の分類に基づいて音響環境状況を特徴づけ又は識別するクラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)を生成し、
ある処理段(S1、・・・、Sn)における処理態様が、他の処理段(S1、・・・、Sn)で得られたクラス情報に基づいて選択され、かつ、前記処理段(S1、・・・、Sn)の少くとも1つに、前記抽出フェーズに続く後処理フェーズを設け、同後処理フェーズにおいて前記クラス情報(KI1、・・・、KIn)の修正クラス情報(KI1’、・・・、KIn’)を生成するようにしてなることを特徴とする方法。
In a method for determining an acoustic environment situation, the method comprises:
Acoustic input signal (IN) to at least two processing stages become as processing (S1, ···, Sn) in,
Said processing stages (S1, ···, Sn) in one at least of, setting the extraction phase for extracting features from the input signal (IN),
Each of the processing stages (S1, ..., Sn) is provided with an identification phase for classifying the extracted features,
In at least one of the processing stages (S1,..., Sn), class information (KI1,..., KIn; KI1 ′,. .., KIn '),
A processing mode in a certain processing stage (S1,..., Sn) is selected based on class information obtained in another processing stage (S1,..., Sn), and the processing stage (S1,. .., Sn) is provided with a post-processing phase following the extraction phase, and the modified class information (KI1 ′,..., KIn) of the class information (KI1,..., KIn) is provided in the post-processing phase. ..., wherein the Rukoto such so as to generate the KIN ').
前記処理段(S1、・・・、Sn)のある段(i)の前記識別フェーズにおいて得られた前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)が、前記処理段(S1、・・・、Sn)の次位の段(i+1)における処理態様を決定してなることを特徴とする請求項1記載の方法。  The class information (KI1,..., KIn; KI1 ′,..., KIn ′) obtained in the identification phase of the stage (i) having the processing stage (S1,. 2. The method according to claim 1, wherein a processing mode in the next stage (i + 1) of the processing stage (S1,..., Sn) is determined. 前記処理段(S1、・・・、Sn)のある段(i)において得られた前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)に基づいて、前記処理段(S1、・・・、Sn)の次位の段(i+1)の前記抽出フェーズにおいて特定の特徴が選択され及び/又は前記処理段(S1、・・・、Sn)の次位の段(i+1)の前記識別フェーズにおいて特定の分類方法が選択されてなることを特徴とする請求項2記載の方法。  Based on the class information (KI1,..., KIn; KI1 ′,..., KIn ′) obtained in the stage (i) of the processing stage (S1,..., Sn). In the extraction phase of the next stage (i + 1) of the stage (S1,..., Sn), a particular feature is selected and / or the next stage of the processing stage (S1,..., Sn) ( The method according to claim 2, wherein a specific classification method is selected in the identification phase of i + 1). 前記識別フェーズにおいて、次の分類方法、即ち、
ヒドン・マルコフ・モデル分類手法;
ファジィ論理;
ベイズ分類手法;
ルールベース分類手法;
ニューラルネットワーク;
最小距離判定方法;
の1つを使用してなることを特徴とする請求項1ないしのいずれかに記載の方法。
In the identification phase, the following classification method:
Hidden Markov model classification method;
Fuzzy logic;
Bayesian classification method;
Rule-based classification method;
neural network;
Minimum distance determination method;
A method according to any one of claims 1 to 3 , characterized in that one of the following is used.
前記抽出フェーズにおいて、技術ベース及び/又は聴覚ベースの特徴を抽出してなることを特徴とする請求項1ないしのいずれかに記載の方法。In the extraction phase, technology-based and / or method according to any one of claims 1 to 4, characterized by comprising extracting the auditory-based features. 請求項1ないしのいずれかに記載の方法を使って少なくとも1つの聴音装置を、その時々の音響環境状況に適合させることを特徴とする方法。Method characterized by at least one hearing device using the method according to any one of claims 1 to 5, adapted to prevailing acoustic environment conditions. 請求項記載の方法を使って決定されたその時々の前記音響環境状況に基づいて少なくとも1つの聴音装置における聴音プログラム又は少なくとも1つのマイクロホンとスピーカの間の信号伝達機能を調整することを特徴とする方法。Adjusting a listening program in at least one hearing device or a signal transmission function between at least one microphone and a speaker based on the current acoustic environment situation determined using the method of claim 6. how to. 請求項1ないしのいずれかに記載の方法によって会話認識をすることを特徴とする方法。Method characterized in that the speech recognition by the method according to any one of claims 1 to 5. 入力信号における音響環境状況を決定する装置であって、
少くとも2つの処理段(S1、・・・、Sn)、
前記処理段(S1、・・・、Sn)の少くとも1つに特徴抽出装置(F1、・・・、Fn)、及び
前記処理段(S1、・・・、Sn)の各々に分類装置(C1、・・・、Cn)が設けられ、
前記入力信号(IN)は前記特徴抽出装置(F1、・・・、Fn)に入力されると共に、その出力が分類装置(C1、・・・、Cn)の少なくとも2つに導かれ、かつ、前記少なくとも2つの分類装置(C1、・・・、Cn)の少なくとも一方が前記少なくとも2つの分類装置(C1、・・・、Cn)の他方に接続され、これにより別の処理段(S1、・・・、Sn)におけるクラス情報(KI1、・・・、KIn)に従って処理を調節するようにしてなり、かつ、前記処理段(S1、・・・、Sn)の少くとも1つにおいて得られた前記クラス情報(KI1、・・・、KIn)が後処理装置(P1、・・・、Pn)に入力され、これにより前記クラス情報(KI1、・・・、KIn)の修正クラス情報(KI1’、・・・、KIn’)が生成されるようにしてなることを特徴とする装置。
An apparatus for determining an acoustic environment condition in an input signal,
At least two processing stages (S1,..., Sn),
At least one of the processing stages (S1,..., Sn) has a feature extraction device (F1,..., Fn), and a classification device ( C1, ···, Cn) is provided, et al. are,
The input signal (IN) is input to the feature extraction device (F1,..., Fn), and its output is guided to at least two of the classification devices (C1,..., Cn), and At least one of the at least two classification devices (C1,..., Cn) is connected to the other of the at least two classification devices (C1,..., Cn), so that another processing stage (S1,. ..., class information (KI1 in Sn), · · ·, Ri greens so as to adjust the process in accordance with KIN), and said processing stage (S1, · · ·, obtained in both one least of Sn) Further, the class information (KI1,..., KIn) is input to the post-processing device (P1,..., Pn), thereby correcting the class information (KI1) of the class information (KI1,..., KIn). ', ..., KIn') generated And wherein the Rukoto such as is.
前記処理段(S1、・・・、Sn)の各々に、前記特徴抽出装置(F1、・・・、Fn)が設けられてなることを特徴とする請求項記載の装置。10. The device according to claim 9 , wherein each of the processing stages (S1,..., Sn) is provided with the feature extraction device (F1,..., Fn). 前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)が、前記処理段(S1、・・・、Sn)の別の段に入力されてなることを特徴とする請求項又は10記載の装置。The class information (KI1,..., KIn; KI1 ′,..., KIn ′) is input to another stage of the processing stage (S1,..., Sn). The apparatus according to claim 9 or 10 . 前記処理段(S1、・・・、Sn)のある段(i)の前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)が、前記処理段(S1、・・・、Sn)の次位の段(i+1)に入力されてなることを特徴とする請求項ないし11のいずれかに記載の装置。The class information (KI1,..., KIn; KI1 ′,..., KIn ′) of the stage (i) with the processing stage (S1,..., Sn) is stored in the processing stage (S1,. The device according to any one of claims 9 to 11 , wherein the device is input to the next stage (i + 1) of Sn). 前記処理段(S1、・・・、Sn)のある段(i)の前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)が、前記処理段(S1、・・・、Sn)の次位の段(i+1)の前記特徴抽出装置(F1、・・・、Fn)に入力され及び/又は前記処理段(S1、・・・、Sn)の次位の段(i+1)の前記分類装置(C1、・・・、Cn)に入力されてなることを特徴とする請求項12記載の装置。The class information (KI1,..., KIn; KI1 ′,..., KIn ′) of the stage (i) with the processing stage (S1,..., Sn) is stored in the processing stage (S1,. .., Input to the feature extraction device (F1,..., Fn) of the next stage (i + 1) of Sn) and / or the next stage of the processing stage (S1,..., Sn) 13. The device according to claim 12 , wherein the device is inputted to the classification device (C1,..., Cn) of (i + 1). 前記処理段(S1、・・・、Sn)のすべての段の前記クラス情報(KI1、・・・、KIn)が決定装置(FD)に入力されてなることを特徴とする請求項又は10記載の装置。Said processing stages (S1, ···, Sn) the class information for all stages of the (KI1, ···, KIn) according to claim 9 or 10, characterized in that is formed by the input to the decision unit (FD) The device described. 前記決定装置(FD)は、前記特徴抽出装置(F1、・・・、Fn)の少くとも1つ及び/又は前記分類装置(C1、・・・、Cn)の少くとも1つに接続されてなることを特徴とする請求項14記載の装置。The determination device (FD) is connected to at least one of the feature extraction devices (F1,..., Fn) and / or at least one of the classification devices (C1,..., Cn). 15. The apparatus of claim 14, wherein: 少くとも1つのマイクロホンに、及びトランスデューサ装置、特にスピーカ、に接続された信号伝達装置(200)と、クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)を生成するために請求項ないし13のいずれかに記載の装置を備え、かつ、前記クラス情報(KI1、・・・、KIn;KI1’、・・・、KIn’)は、前記信号伝達装置(200)に入力されてなることを特徴とする聴音装置。Generates class information (KI1,..., KIn; KI1 ′,..., KIn ′) with a signal transmission device (200) connected to at least one microphone and to a transducer device, in particular a speaker. Therefore, the apparatus according to any one of claims 9 to 13 is provided, and the class information (KI1,..., KIn; KI1 ′,..., KIn ′) is included in the signal transmission device (200). Listening device characterized by being input to the sound. 入力装置(300)が設けられ、前記入力装置(300)は前記信号伝達装置(200)に及び/又は請求項ないし13のいずれかに記載の装置に接続されてなることを特徴とする請求項16記載の聴音装置。An input device (300) is provided, the input device (300) being connected to the signal transmission device (200) and / or to the device according to any of claims 9 to 13. Item 16. The hearing device according to Item 16 . 前記入力装置(300)と前記信号伝達装置(200)の間に、無線連絡を有することを特徴とする請求項17記載の聴音装置。18. A hearing device according to claim 17 , wherein there is wireless communication between the input device (300) and the signal transmission device (200).
JP2002535462A 2002-01-28 2002-01-28 Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device Expired - Fee Related JP3987429B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2002/000049 WO2002032208A2 (en) 2002-01-28 2002-01-28 Method for determining an acoustic environment situation, application of the method and hearing aid

Publications (2)

Publication Number Publication Date
JP2005504325A JP2005504325A (en) 2005-02-10
JP3987429B2 true JP3987429B2 (en) 2007-10-10

Family

ID=4358282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002535462A Expired - Fee Related JP3987429B2 (en) 2002-01-28 2002-01-28 Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device

Country Status (5)

Country Link
EP (1) EP1470735B1 (en)
JP (1) JP3987429B2 (en)
AU (2) AU2002224722B2 (en)
CA (1) CA2439427C (en)
WO (1) WO2002032208A2 (en)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPS247002A0 (en) * 2002-05-21 2002-06-13 Hearworks Pty Ltd Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
US7889879B2 (en) 2002-05-21 2011-02-15 Cochlear Limited Programmable auditory prosthesis with trainable automatic adaptation to acoustic conditions
DK1339256T3 (en) * 2003-03-03 2018-01-29 Sonova Ag Process for the manufacture of acoustic appliances and to reduce wind disturbance
DK1326478T3 (en) 2003-03-07 2014-12-08 Phonak Ag Method for producing control signals and binaural hearing device system
US20040175008A1 (en) 2003-03-07 2004-09-09 Hans-Ueli Roeck Method for producing control signals, method of controlling signal and a hearing device
US8027495B2 (en) 2003-03-07 2011-09-27 Phonak Ag Binaural hearing device and method for controlling a hearing device system
US7286672B2 (en) 2003-03-07 2007-10-23 Phonak Ag Binaural hearing device and method for controlling a hearing device system
CN103379418A (en) * 2003-06-24 2013-10-30 Gn瑞声达A/S A binaural hearing aid system with coordinated sound processing
US6912289B2 (en) 2003-10-09 2005-06-28 Unitron Hearing Ltd. Hearing aid and processes for adaptively processing signals therein
DE10356093B3 (en) * 2003-12-01 2005-06-02 Siemens Audiologische Technik Gmbh Hearing aid with adaptive signal processing of received sound waves dependent on identified signal source direction and signal classification
US20060182295A1 (en) 2005-02-11 2006-08-17 Phonak Ag Dynamic hearing assistance system and method therefore
ATE442745T1 (en) 2006-02-13 2009-09-15 Phonak Comm Ag METHOD AND SYSTEM FOR PROVIDING HEARING ASSISTANCE TO A USER
US8068627B2 (en) 2006-03-14 2011-11-29 Starkey Laboratories, Inc. System for automatic reception enhancement of hearing assistance devices
US7986790B2 (en) 2006-03-14 2011-07-26 Starkey Laboratories, Inc. System for evaluating hearing assistance device settings using detected sound environment
US8494193B2 (en) * 2006-03-14 2013-07-23 Starkey Laboratories, Inc. Environment detection and adaptation in hearing assistance devices
US8249284B2 (en) 2006-05-16 2012-08-21 Phonak Ag Hearing system and method for deriving information on an acoustic scene
DK1858292T4 (en) 2006-05-16 2022-04-11 Phonak Ag Hearing device and method of operating a hearing device
US7957548B2 (en) 2006-05-16 2011-06-07 Phonak Ag Hearing device with transfer function adjusted according to predetermined acoustic environments
WO2007131815A1 (en) * 2006-05-16 2007-11-22 Phonak Ag Hearing device and method for operating a hearing device
US7738666B2 (en) 2006-06-01 2010-06-15 Phonak Ag Method for adjusting a system for providing hearing assistance to a user
WO2008154706A1 (en) 2007-06-20 2008-12-24 Cochlear Limited A method and apparatus for optimising the control of operation of a hearing prosthesis
EP2192794B1 (en) 2008-11-26 2017-10-04 Oticon A/S Improvements in hearing aid algorithms
US8873780B2 (en) 2010-05-12 2014-10-28 Phonak Ag Hearing system and method for operating the same
EP2596647B1 (en) 2010-07-23 2016-01-06 Sonova AG Hearing system and method for operating a hearing system
CN103155409B (en) 2010-09-15 2016-01-06 索诺瓦公司 For the method and system providing hearing auxiliary to user
JP2012083746A (en) * 2010-09-17 2012-04-26 Kinki Univ Sound processing device
EP2850848A1 (en) * 2012-05-15 2015-03-25 Phonak AG Method for operating a hearing device as well as a hearing device
US8958586B2 (en) 2012-12-21 2015-02-17 Starkey Laboratories, Inc. Sound environment classification by coordinated sensing using hearing assistance devices
CN112954569B (en) * 2021-02-20 2022-10-25 深圳市智听科技有限公司 Multi-core hearing aid chip, hearing aid method and hearing aid

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1273205B1 (en) * 2000-04-04 2006-06-21 GN ReSound as A hearing prosthesis with automatic classification of the listening environment
AU2001221399A1 (en) * 2001-01-05 2001-04-24 Phonak Ag Method for determining a current acoustic environment, use of said method and a hearing-aid

Also Published As

Publication number Publication date
EP1470735A2 (en) 2004-10-27
EP1470735B1 (en) 2019-08-21
WO2002032208A3 (en) 2002-12-05
WO2002032208A2 (en) 2002-04-25
AU2472202A (en) 2002-04-29
CA2439427A1 (en) 2002-04-25
CA2439427C (en) 2011-03-29
AU2002224722B2 (en) 2008-04-03
JP2005504325A (en) 2005-02-10

Similar Documents

Publication Publication Date Title
JP3987429B2 (en) Method and apparatus for determining acoustic environmental conditions, use of the method, and listening device
US7158931B2 (en) Method for identifying a momentary acoustic scene, use of the method and hearing device
US6895098B2 (en) Method for operating a hearing device, and hearing device
JP4939935B2 (en) Binaural hearing aid system with matched acoustic processing
EP2603018B1 (en) Hearing aid with speaking activity recognition and method for operating a hearing aid
US20070269064A1 (en) Hearing system and method for deriving information on an acoustic scene
Nordqvist et al. An efficient robust sound classification algorithm for hearing aids
CA2400089A1 (en) Method for operating a hearing-aid and a hearing aid
EP1858292B1 (en) Hearing device and method of operating a hearing device
EP2163124B1 (en) Fully learning classification system and method for hearing aids
JP2008295011A (en) Object sound extraction apparatus, object sound extraction program, and object sound extraction method
JP2008292974A (en) Object sound extraction apparatus, object sound extraction program, and object sound extraction method
US20230292074A1 (en) Hearing device with multiple neural networks for sound enhancement
WO2007131815A1 (en) Hearing device and method for operating a hearing device
US20230276182A1 (en) Mobile device that provides sound enhancement for hearing device
EP3996390A1 (en) Method for selecting a hearing program of a hearing device based on own voice detection
US20220021993A1 (en) Restricting Hearing Device Adjustments Based on Modifier Effectiveness
Cuadra et al. Influence of acoustic feedback on the learning strategies of neural network-based sound classifiers in digital hearing aids
JP2008295010A (en) Object sound extraction apparatus, object sound extraction program, and object sound extraction method
JP2004500592A (en) Method for determining instantaneous acoustic environment condition, method for adjusting hearing aid and language recognition method using the same, and hearing aid to which the method is applied
Cuadra et al. Research Article Influence of Acoustic Feedback on the Learning Strategies of Neural Network-Based Sound Classifiers in Digital Hearing Aids
Lamarche Adaptive environmental classification system for hearing aids
US20130083950A1 (en) Amplification setting in a hearing aid device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070712

R150 Certificate of patent or registration of utility model

Ref document number: 3987429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees