DE102011087984A1 - Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung - Google Patents

Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung Download PDF

Info

Publication number
DE102011087984A1
DE102011087984A1 DE102011087984A DE102011087984A DE102011087984A1 DE 102011087984 A1 DE102011087984 A1 DE 102011087984A1 DE 102011087984 A DE102011087984 A DE 102011087984A DE 102011087984 A DE102011087984 A DE 102011087984A DE 102011087984 A1 DE102011087984 A1 DE 102011087984A1
Authority
DE
Germany
Prior art keywords
hearing
voice activity
analysis
activity data
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011087984A
Other languages
English (en)
Inventor
Marko Lugger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Siemens Medical Instruments Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Instruments Pte Ltd filed Critical Siemens Medical Instruments Pte Ltd
Priority to DE102011087984A priority Critical patent/DE102011087984A1/de
Priority to EP12191191.1A priority patent/EP2603018B1/de
Priority to DK12191191.1T priority patent/DK2603018T3/da
Priority to US13/709,224 priority patent/US8873779B2/en
Publication of DE102011087984A1 publication Critical patent/DE102011087984A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing

Abstract

Eine Aufgabe der vorliegenden Erfindung besteht darin, eine zuverlässige Eigenstimmerkennung des Trägers einer Hörvorrichtung bereitzustellen. Die erfindungsgemäße Hörvorrichtung (10) umfasst wenigstens zwei unabhängige Analyseeinrichtungen (32 bis 38), von denen jede dazu ausgelegt ist, auf der Grundlage eines von der Hörvorrichtung (10) empfangenen Audiosignals (12) Sprachaktivitätsdaten (40 bis 46) zu gewinnen, welche von der Sprecheraktivität eines Trägers der Hörvorrichtung (10) abhängig sind. Eine Fusionseinrichtung (48) ist dazu ausgelegt, die Sprachaktivitätsdaten (40 bis 46) von den Analyseeinrichtungen (32 bis 38) zu empfangen und auf der Grundlage dieser Sprachaktivitätsdaten (40 bis 46) dann zu erkennen, ob der Träger gerade spricht oder nicht.

Description

  • Die Erfindung betrifft eine Hörvorrichtung, welche dazu ausgelegt ist, selbsttätig zu erkennen, ob ein Träger der Hörvorrichtung gerade spricht oder nicht. Zu der Erfindung gehört auch ein Verfahren zum Betreiben einer Hörvorrichtung, mittels welchem ebenfalls automatisch erkannt werden kann, ob der Träger der Hörvorrichtung selbst spricht. Unter einer Hörvorrichtung wird hier jedes im oder am Ohr tragbare, schallausgebende Gerät verstanden, insbesondere ein Hörgerät, ein Headset, Kopfhörer.
  • Hörgeräte sind tragbare Hörvorrichtungen, die zur Versorgung von Schwerhörenden dienen. Um den zahlreichen individuellen Bedürfnissen entgegenzukommen, werden unterschiedliche Bauformen von Hörgeräten wie Hinter-dem-Ohr-Hörgeräte (HdO), Hörgerät mit externem Hörer (RIC: receiver in the canal) und In-dem-Ohr-Hörgeräte (IdO), z.B. auch Concha-Hörgeräte oder Kanal-Hörgeräte (ITE, CIC), bereitgestellt. Die beispielhaft aufgeführten Hörgeräte werden am Außenohr oder im Gehörgang getragen. Darüber hinaus stehen auf dem Markt aber auch Knochenleitungshörhilfen, implantierbare oder vibrotaktile Hörhilfen zur Verfügung. Dabei erfolgt die Stimulation des geschädigten Gehörs entweder mechanisch oder elektrisch.
  • Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in 1 am Beispiel eines Hinter-dem-Ohr-Hörgeräts dargestellt. In ein Hörgerätegehäuse 1 zum Tragen hinter dem Ohr sind ein oder mehrere Mikrofone 2 zur Aufnahme des Schalls aus der Umgebung eingebaut. Eine Signalverarbeitungseinheit 3, die ebenfalls in das Hörgerätegehäuse 1 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 3 wird an einen Lautsprecher bzw. Hörer 4 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Geräteträgers übertragen. Die Energieversorgung des Hörgeräts und insbesondere die der Signalverarbeitungseinheit 3 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 1 integrierte Batterie 5.
  • Bei vielen Hörvorrichtungen und insbesondere bei Hörgeräten ist man bemüht, die Höranstrengung so gering wie möglich zu halten, wenn Umgebungsschall über die Hörvorrichtung wahrgenommen wird. Hierzu kann vorgesehen sein, ein Sprachsignal in denjenigen spektralen Bändern, in welchen der Träger der Hörvorrichtung nur schlecht hört, zu verstärken. Eine andere Möglichkeit besteht darin, einen Beamformer bereitzustellen, welcher sein Richtverhalten in der Weise anpasst, dass eine Hauptkeule des Beamformers stets in diejenige Richtung weist, aus welcher beispielsweise die Stimme eines Gesprächspartners des Trägers der Hörvorrichtung kommt. Solche Algorithmen müssen ihr Verhalten prinzipiell nicht ändern, wenn der Träger der Hörvorrichtung Stimmen unterschiedlicher Sprecher aus verschiedenen Richtungen wahrnehmen möchte. Die Verstärkung der unterschiedlichen Frequenzbänder in Abhängigkeit von dem Hörvermögen des Trägers der Hörvorrichtung kann in der Regel stets dieselbe bleiben, also unabhängig von den wechselnden Sprechern. Ein Beamformer muss lediglich schnell genug zwischen den Richtungen wechseln können, aus welchen die Stimmen der Sprecher abwechselnd kommen.
  • Anders sieht es in dem Fall aus, wenn der Träger der Hörvorrichtung selbst spricht. Der Träger nimmt seine eigene Stimme beispielsweise aufgrund einer Knochenschallübertragung stets anders wahr als die Stimme von Personen in seiner Umgebung. Wird nun durch die Hörvorrichtung die eigene Stimme des Trägers von einem Mikrofon als Luftschall erfasst und in der gleichen Weise prozessiert wie die Stimmen anderer Sprecher, so nimmt der Träger der Hörvorrichtung seine eigene Stimme verfremdet wahr. Im Falle eines Beamforming ist bei einer Sprachaktivität des Trägers der Hörvorrichtung nicht klar, wohin die Hauptkeule des Beamformers eigentlich zeigen soll. Diese Beispiele verdeutlichen, dass es bei einer Hörvorrichtung für viele Algorithmen von Vorteil ist, wenn bei der Verarbeitung des Audiosignals bekannt ist, ob gerade der Träger der Hörvorrichtung selbst spricht oder ob ein erfasster Schall aus einer Umgebung des Trägers von einer externen Schallquelle auf die Hörvorrichtung getroffen ist.
  • Im Zusammenhang mit Hörgeräten ist als heutige Lösung für eine solche Eigenstimmerkennung (OVD – Own Voice Detection) bekannt, in einem Ohrstück eines Hörgeräts ein zusätzliches Mikrofon vorzusehen, dessen Schalleintrittsöffnung in das Innere des Ohrkanals weist. Durch Vergleichen des Signal des äußeren, regulären Mikrofon mit dem Signal des zusätzlichen Mikrofons kann erkannt werden, ob der Träger der Hörvorrichtung das Audiosignal selbst mit seiner Stimme erzeugt hat oder ob es sich um ein Audiosignal einer externen Schallquelle handelt. Nachteilig bei dieser Lösung ist, dass das Hörgerät sowohl mit einem zusätzlichen Mikrofon als auch mit der benötigten Schaltung zum Verarbeiten von dessen Mikrofonsignal ausgestattet sein muss, was die Herstellungskosten des Hörgeräts entsprechend erhöht. Zudem führt der Vergleich der beiden Mikrofonsignale nur dann zu verlässlichen Ergebnissen, wenn das Ohrstück des Hörgeräts fest im Gehörgang sitzt, so dass das innere Mikrofon ausreichend vom Umgebungsschall abgeschirmt ist.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, eine zuverlässige Eigenstimmerkennung für eine Hörvorrichtung bereitzustellen.
  • Die Aufgabe wird durch eine Hörvorrichtung gemäß Patentanspruch 1 sowie durch ein Verfahren gemäß Patentanspruch 4 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.
  • Die erfindungsgemäße Hörvorrichtung und das erfindungsgemäße Verfahren sind nicht auf einen Vergleich zweier unabhängig voneinander erfasster Audiosignale angewiesen. Stattdessen wird eine zuverlässige und robuste Eigensprechererkennung erzielt, indem von der Hörvorrichtung empfangene Audiosignale auf mehr als eine Analyseart darauf hin untersucht werden, ob sie auf eine Eigensprecheraktivität hindeuten. Die unterschiedlichen Analyseergebnisse werden dann in einem zweiten Schritt zusammengeführt, um aus den zusammengeführten Informationen eine zuverlässige Aussage darüber zu treffen, ob der Träger der Hörvorrichtung gerade spricht oder nicht. Das Risiko einer falschen Eigensprecherdetektion wird durch diese Fusion der unterschiedlichen Informationsquellen deutlich reduziert, da falsche Detektionsergebnisse, wie sie sich aufgrund lediglich einer einzelnen Analyse ergeben können, durch die Ergebnisse anderer Analysen kompensiert werden, die für eine spezielle Situation evtl. besser geeignet sind.
  • Um diese Erkenntnis der Erfindung umzusetzen, weist die erfindungsgemäße Hörvorrichtung wenigstens zwei unabhängige Analyseeinrichtungen auf, von denen jede dazu ausgelegt ist, auf der Grundlage eines von der Hörvorrichtung empfangenen Audiosignals Daten zu gewinnen, die hier als Sprachaktivitätsdaten bezeichnet werden und von denen ausgegangen wird, dass sie von einer Sprecheraktivität des Trägers der Hörvorrichtung abhängig sind. Im Zusammenhang mit der Erfindung ist unter einem Audiosignal hierbei ein elektrisches oder digitales Signal zu verstehen, welches Signalanteile im Audiofrequenzbereich aufweist. Jeder der Analyseeinrichtungen kann ein Audiosignal aus einer anderen Signalquelle zugeführt werden. Es kann aber auch ein und dasselbe Audiosignal mehreren Analyseeinrichtungen zugeführt werden. Beispiele für Quellen eines Audiosignals sind ein Mikrofon, ein Beamformer oder ein Körperschallsensor.
  • Durch die Analyseeinrichtung werden die Sprachaktivitätsdaten jeweils auf Grundlage eines anderen Analysekriteriums gewonnen, also beispielsweise in Abhängigkeit von einer Einfallsrichtung eines Umgebungsschalls, in Abhängigkeit von spektralen Werten eines Frequenzspektrums des Audiosignals, auf der Grundlage einer sprecherunabhängigen Sprachaktivitätserkennung oder in Abhängigkeit von einer binauralen Information, wie sie gewonnen werden kann, wenn an unterschiedlichen Seiten eines Kopfes des Trägers Audiodaten erfasst werden.
  • Um nun aus den Sprachaktivitätsdaten der einzelnen Analyseeinrichtung eine zuverlässige Aussage darüber treffen zu können, ob der Träger gerade spricht oder nicht, weist die erfindungsgemäße Hörvorrichtung eine Fusionseinrichtung auf, welche dazu ausgelegt ist, die Sprachaktivitätsdaten von den Analyseeinrichtungen zu empfangen und auf der Grundlage der Sprachaktivitätsdaten die Eigensprechererkennung durchzuführen. Es kann hierbei ausreichend sein, dass die Fusionseinrichtung dazu ausgelegt ist zu erkennen, ob die Stimme des Trägers aktiv ist oder nicht. Es muss nur in wenigen Fällen die Identität des Trägers erkannt werden, z. B. bei der Verwendung spektraler Merkmale.
  • Wie bereits beschrieben, können mehrere Audioquellen zum Bereitstellen von unterschiedlichen Audiosignalen verwendet werden. Besonders günstig lässt sich die erfindungsgemäße Hörvorrichtung jedoch herstellen, wenn nur diejenige Mikrofoneinrichtung benutzt wird, mittels welcher auch der auf den Träger treffende Umgebungsschall in das Nutzsignal umgewandelt wird, welches dem Träger der Hörvorrichtung in prozessierter Form dargeboten werden soll. Mit einer Mikrofoneinrichtung ist hierbei nicht unbedingt ein einzelnes Mikrofon gemeint. Es kann auch ein Mikrofonarray oder eine andere Anordnung aus mehreren Mikrofonen verwendet werden.
  • Um auf eine durch die Fusionseinrichtung erkannte Sprecheraktivität des Trägers angemessen reagieren zu können, weist eine besonders zweckmäßige Weiterbildung der erfindungsgemäßen Hörvorrichtung eine Anpassungseinrichtung auf, welche dazu ausgelegt ist, eine Betriebsweise der Hörvorrichtung zu verändern, falls der Träger spricht. Insbesondere kann hier vorgesehen sein, dass ein Übertragungsverhalten der Hörvorrichtung angepasst wird, um dem Träger der Hörvorrichtung einen neutralen Klangeindruck von seiner eigenen Stimme zu vermitteln. Hierbei hat es sich als besonders zweckmäßig erwiesen, einen niederfrequenten Anteil des Nutzsignals zu dämpfen, um die als Okklusionseffekt bekannte verzerrte Wahrnehmung der eigenen Stimme zu vermeiden. Im Zusammenhang mit einer ausrichtbaren Beamformingeinrichtung wird zweckmäßigerweise deren Richtverhalten angepasst. So ist es insbesondere günstig, das selbsttätige Ausrichten der Richtcharakteristik zu blockieren, während die Stimme des Trägers aktiv ist.
  • Durch die Erfindung wird auch ein Verfahren zum Betreiben einer Hörvorrichtung bereitgestellt. Gemäß dem Verfahren werden mittels wenigstens zweier Analyseeinrichtungen unabhängig voneinander jeweils Sprachaktivitätsdaten gewonnen, d.h. Daten, die von einer Sprecheraktivität eines Trägers der Hörvorrichtung abhängig sind. Die Sprachaktivitätsdaten der Analyseeinrichtung werden mittels einer Fusionseinrichtung kombiniert. Auf der Grundlage dieser kombinierten Sprachaktivitäten dann zusammenfassend überprüft, ob der Träger spricht oder nicht.
  • Die Analyse des Audiosignals durch die einzelnen Analyseeinrichtungen und die Sprachaktivitätserkennung durch die Fusionseinrichtung können dabei auf zahlreiche unterschiedliche Weisen geschehen. Das erfindungsgemäße Verfahren ermöglicht es dabei in vorteilhafter Weise, die unterschiedlichsten Analysemethoden frei zu kombinieren und sie für eine zuverlässige und robuste Gesamtaussage über die Sprachaktivität zu kombinieren.
  • So kann vorgesehen sein, dass durch wenigstens eine der Analyseeinrichtungen eine Merkmalsextraktion durchgeführt wird. Dies bedeutet, dass in Abhängigkeit von dem Audiosignal Merkmalswerte ermittelt werden, wie etwa eine Einfallsrichtung eines Schalls, welcher das Audiosignal hervorgerufen hat, oder eine Halligkeit des Audiosignals. Bei den Merkmalen kann es sich auch um eine bestimmte Repräsentation einzelner Segmente des Audiosignals handeln, wie etwa spektrale oder cepstrale Koeffizienten, Koeffizienten eine linearen Prädiktion (LPC – Linear Prediction Coefficients). Als abstraktere Merkmale sind beispielsweise das Geschlecht des Sprechers (männliche oder weibliche Stimme) oder das Ergebnis einer Phonemanalyse (Vokal, Frikativ, Plosiv) denkbar.
  • Genauso kann es zweckmäßig sein, durch die Analyseeinrichtung bereits eine vorläufige Aussage darüber zu treffen, ob der Träger der Hörvorrichtung gerade spricht. Dies kann in Form eines Wahrscheinlichkeitswertes geschehen (Werte zwischen null und eins) oder aber auch bereits als so genannte harte oder binäre Entscheidung (spricht oder spricht nicht). Letzteres kann durch eine Analyseeinrichtung ermöglicht sein, die als Klassifikator fungiert und hierzu auf der Grundlage eines Klassifikationskriteriums überprüft, ob der Träger spricht oder nicht. Solche Klassifikationskriterien sind aus dem Stand der Technik beispielsweise im Zusammenhang mit einer so genannten sprecherunabhängigen Voice-Activity-Detection (VAD) an sich bekannt und verfügbar.
  • Liegen nun Sprachaktivitätsdaten mehrerer Analyseeinrichtungen vor, so kann, je nach Art der Sprachaktivitätsdaten, zweckmäßigerweise durch die Fusionseinrichtung eine Gewichtung der einzelnen Sprachaktivitätsdaten durchgeführt werden. Diese Gewichtung ist dann dabei davon abhängig, von welcher Analyseeinrichtung die jeweiligen Sprachaktivitätsdaten stammen. Durch die Gewichtung wird hier in vorteilhafter Weise erreicht, dass je nach aktueller Situation eine Analyseeinrichtung, von der bekannt ist, dass sie in dieser Situation erwartungsgemäß nur unzuverlässige Daten liefert, weniger Einfluss auf das Entscheidungsergebnis erhält als eine bekanntermaßen in der Situation zuverlässig arbeitende Analyseeinrichtung. Dabei sind für diese Gewichtungen entweder trainierbare oder untrainierbare Ausführungsformen realisierbar. Die gewichteten Sprachaktivitätsdaten lassen sich schließlich miteinander verknüpfen, wodurch sich die bereits beschriebene Informationsfusion ergibt.
  • Besonders einfach lassen sich Sprachaktivitätsdaten unterschiedlicher Analyseeinrichtungen kombinieren, wenn durch die Sprachaktivitätsdaten bereits eine Vorentscheidung über die Sprecheraktivität vorliegt. Dann kann beispielsweise durch die Fusionseinrichtung eine Mehrheitsentscheidung getroffen werden, die etwas darüber aussagt, ob durch die Analyseeinrichtungen zusammen die Sprecheraktivität angezeigt wird.
  • Eine andere zweckmäßige Form der Datenfusion besteht darin, aus den so genannten Softentscheidungen von Sprachaktivitätsdetektoren einen Mittelwert zu berechnen. Solche Sprachaktivitätsdetektoren können dazu in wenigstens zwei Analyseeinrichtungen z.B. mit unterschiedlicher Parametrierung bereitgestellt sein.
  • Die vorangehend beschriebenen Weiterbildungen der Analyseeinrichtungen und der Fusionseinrichtung beziehen sich sowohl auf die erfindungsgemäße Hörvorrichtung als auch auf das erfindungsgemäße Verfahren.
  • Im Folgenden wird die Erfindung noch einmal genauer anhand von Ausführungsbeispielen beschrieben. Es zeigt:
  • 1 eine schematische Darstellung eines Hörgeräts gemäß dem Stand der Technik und
  • 2 eine schematische Darstellung einer Hörvorrichtung gemäß einer Ausführungsform der erfindungsgemäßen Hörvorrichtung.
  • Die Beispiele stellen bevorzugte Ausführungsformen der Erfindung dar.
  • In 2 ist eine Hörvorrichtung 10 gezeigt, welche einen Schall 12 aus einer Umgebung eines Trägers der Hörvorrichtung erfasst. Das Audiosignal des Schalls 12 wird durch die Hörvorrichtung 10 verarbeitet und als Ausgabeschallsignal 14 in einem Gehörgang 16 des Trägers der Vorrichtung wiedergegeben. Bei der Hörvorrichtung 10 kann es sich beispielsweise um ein Hörgerät, wie etwa ein Hinter-dem-Ohr-Hörgerät oder ein In-dem-Ohr-Hörgerät handeln. Die Hörvorrichtung 10 erfasst den Umgebungsschall 12 mittels einer Mikrofoneinrichtung 18, auf die der Umgebungsschall 12 aus der Umgebung trifft und die das Audiosignal des Schalls 12 in ein digitales Nutzsignal umwandelt. Das Nutzsignal wird durch eine Verarbeitungseinrichtung 20 der Hörvorrichtung 10 verarbeitet und anschließend in verarbeiteter Form durch einen Hörer 22 der Hörvorrichtung 10 in dem Gehörgang 16 als der Ausgangsschall 14 abgestrahlt.
  • Die Mikrofoneinrichtung 18 kann ein oder mehrere Mikrofone aufweisen. In 2 ist beispielhaft eine Mikrofoneinrichtung 18 mit drei Mikrofonen 24, 26, 28 dargestellt. Die Mikrofone 24 bis 28 können ein Mikrofonarray bilden; sie können aber auch unabhängig voneinander beispielsweise an gegenüberliegenden Seiten des Kopfes des Trägers der Hörvorrichtung angebracht sein. Bei der Verarbeitungseinrichtung 20 kann es sich beispielsweise um einen digitalen Signalprozessor handeln. Die Verarbeitungseinrichtung 20 kann aber auch durch separate oder integrierte Schaltkreise realisiert sein. Der Hörer 22 kann beispielsweise ein Kopfhörer sein oder ein RIC (Receiver in the Canal) oder auch ein externer Hörgerätehörer, dessen Schall über einen Schallschlauch in den Gehörgang 16 geleitet wird.
  • Bei der Hörvorrichtung 10 ist vorgesehen, dass für den Fall, dass der Schall 12 von einer externen Schallquelle, beispielsweise einem Gesprächspartner des Geräteträgers oder einer Musikquelle stammt, die das Nutzsignal durch eine Signalverarbeitung 30 in der Weise verarbeitet wird, dass der Geräteträger ein an sein Hörvermögen angepasstes Ausgangsschallsignal 14 wahrnimmt.
  • Für den Fall, dass der Träger der Hörvorrichtung 10 selbst spricht, singt oder andere Geräusche mit seiner Stimme erzeugt, die er nicht nur über die Hörvorrichtung 10, sondern auch z.B. durch Knochenschall mit seinem Gehör wahrnimmt, wird die Signalverarbeitung 30 in einen Modus umgeschaltet, durch welchen dem Träger ein neutraler Klangeindruck der eigenen Stimme vermittelt wird, wenn er diese zusätzlich auch über die Hörvorrichtung 10 wahrnimmt. Die hierzu durch die Signalverarbeitung 30 durchzuführenden Maßnahmen sind an sich aus dem Stand der Technik bekannt.
  • Um die Signalverarbeitung 30 zwischen den beiden Modi umzuschalten, wird durch die Verarbeitungseinrichtung 20 das im Folgenden näher erläuterte Verfahren durchgeführt. Das Verfahren ermöglicht es, zuverlässig auf der Grundlage des Umgebungsschalls 12 zu erkennen, ob es sich bei dem Umgebungsschall 12 um die eigene Stimme des Trägers der Hörvorrichtung 10 handelt oder nicht. Das Verfahren verlässt sich dabei nicht auf akustische Merkmale einer einzelnen Informationsquelle. Ein Signal einer solchen einzelnen Quelle wäre mit einer zu großen Varianz behaftet, so dass eine verlässliche Aussage über die Sprecheraktivität nur durch eine Glättung des Signals über einen langen Zeitraum hin erreicht werden könnte. Damit könnte die Verarbeitungseinrichtung 20 nicht auf schnelle Wechsel zwischen der Stimme des Trägers der Hörvorrichtung 10 einerseits und der Stimme einer anderen Person reagieren. In anderen akustischen Szenarien, in welchen der Umgebungsschall 12 mit wechselnden Anteilen sowohl die Stimme des Trägers als auch Umgebungsgeräusche enthält, könnte auf der Grundlage einer einzigen Quelle für akustische Merkmale überhaupt keine zuverlässige Entscheidung getroffen werden.
  • Aus diesem Grund sind bei der Verarbeitungseinrichtung 20 mehrere Analyseeinrichtungen 32, 34, 36, 38 bereitgestellt, die unabhängige Informationsquellen betreffend die Sprecheraktivität des Trägers der Hörvorrichtung darstellen. Die hier gezeigten vier Analyseeinrichtungen 32 bis 38 stellen nur eine beispielhafte Konfiguration einer Verarbeitungseinrichtung dar. Die Analyseeinrichtungen 32 bis 38 können beispielsweise durch ein oder mehrere Analyseprogramme für einen digitalen Signalprozessor bereitgestellt sein.
  • Die Analyseeinrichtungen 32 bis 38 erzeugen in Abhängigkeit von dem Nutzsignal der Mikrofoneinrichtung 18 Ausgangssignale, welche Daten bzgl. der Sprachaktivität des Hörgeräteträgers d. h. Sprachaktivitätsdaten 40, 42, 44, 46 enthalten. Die Sprachaktivitätsdaten 40 bis 46 werden von einer Fusionseinrichtung 48 fusioniert (FUS – Fusion), das heißt sie werden zu einem einzigen Signal kombiniert, welches anzeigt, ob die Stimme des Trägers aktiv ist (OVA – Own Voice Active), oder ob sie nicht aktiv ist (OVNA – Own Voice not Active). Das Ausgangssignal der Fusionseinrichtung 48 bildet ein Steuersignal der Signalverarbeitung 30, durch welches die Signalverarbeitung 30 zwischen den beiden beschriebenen Modi hart umgeschaltet oder weich umgeblendet wird.
  • Generell ist zu den Analysekriterien der Auswerteeinrichtung 32 bis 38 anzumerken, dass der Fachmann auf der Grundlage einfacher Versuche zu einem konkreten Modell einer Hörvorrichtung auf einfache Weise geeignete Analysekriterien finden kann, um zwischen einem Umgebungsschall 12, der von der Stimme des Trägers der Hörvorrichtung 10 selbst erzeugt wird, und einen Umgebungsschall 12, der von Schallquellen aus der Umgebung des Trägers stammt, unterscheiden zu können. Im Folgenden sind beispielhafte mögliche Ausgestaltungen der Analyseeinrichtungen 32 bis 38 beschrieben, die sich als besonders zweckmäßig erwiesen hat.
  • Durch die Analyseeinrichtung 32 kann beispielsweise eine Auswertung einer räumlichen Information durchgeführt werden, wie sie auf der Grundlage mehrerer Mikrofonkanäle (MC – Multi Channel) in an sich bekannter Weise gewonnen werden können. Hierdurch kann beispielsweise eine Einfallrichtung 50 ermittelt werden, aus welcher der Umgebungsschall 12 auf die Mikrofoneinrichtung 18 oder zumindest einige von deren Mikrofone 24 bis 28 trifft.
  • Durch die Auswerteeinrichtung 34 kann beispielsweise eine spektrale Auswertung auf der Grundlage eines einzelnen Mikrofonkanals (SC – Single Channel) erfolgen. Solche Analysen sind ebenfalls an sich aus dem Stand der Technik bekannt und beruhen beispielsweise auf der Auswertung einer Signalleistung in einzelen spektralen Bändern des Audiosignals. Eine mögliche spektrale Information besteht in einer Sprecherverifikation. Durch eine solche Sprecherverifikation wird eine „Eins aus N“ Sprechererkennung durchgeführt, d. h. es wird ein ganz bestimmter Sprecher aus mehreren möglichen Sprechern erkannt. Sie kann beispielsweise anhand einer spektralen Charakteristik des zu erkennenden Sprechers, also hier des Trägers der Hörvorrichtung 10, durchgeführt werden.
  • Durch die Analyseeinrichtung 36 kann beispielsweise eine sprecherunabhängige Sprachaktivitätsdetektion (VAD) auf der Grundlage eines einzelnen Mikrofonkanals durchgeführt werden. Durch die Analyseeinrichtung 38 kann aus mehreren Mikrofonkanälen eine binaurale Information gewonnen werden, wie sie im Unterschied zu einem Mikrofonarray auch mit weiter beabstandeten Mikrofonen gewonnen werden kann.
  • Die Ausgabesignale der einzelnen Analyseeinrichtungen 32 bis 38, d.h. die Sprachaktivitätsdaten 40 bis 46, können je nach Analyseart die extrahierte Information in unterschiedlicher Weise repräsentieren. Zweckmäßige Formen sind die Ausgabe von Merkmalen in Form von diskreten realen Zahlen, die Ausgabe von Wahrscheinlichkeiten (also etwa realen Zahlen zwischen null und eins) oder sogar die Ausgabe von konkreten Entscheidungen zur Sprecheraktivität (also evtl. binäre Ausgaben von null oder eins). Bei den Wahrscheinlichkeiten kann es sich beispielsweise um Likelihoodwerte handeln. In 2 ist jede dieser Ausgabeform durch entsprechende Hinweise auf Merkmale X, Wahrscheinlichkeiten P (Probability) oder Entscheidungen D (Decision) veranschaulicht.
  • Durch die Fusionseinrichtung 48 wird eine Auswertung der Sprachaktivitätsdaten 40 bis 46 durchgeführt, die letztlich für die Steuerung der Signalverarbeitung 30 entscheidend ist. Bei der Fusionseinrichtung 48 kann es sich beispielsweise um ein Programm oder einen Programmabschnitt eines digitalen Signalprozessors handeln.
  • Die Art der „Fusion“ der Aktivitätsdaten 40 bis 46 hängt dabei ebenfalls in hohem Maß von den verwendeten Analyseeinrichtungen 32 bis 38 sowie von der verwendeten Form der Sprachaktivitätsdaten 40 bis 46 (Merkmale, Wahrscheinlichkeiten oder Einzelentscheidungen) ab. Durch die Fusionseinrichtung 48 können die Sprachaktivitätsdaten beispielsweise parallel verarbeitet werden oder seriell oder auch in einem hybriden Ansatz.
  • Die Sprachaktivitätsdaten 40 bis 46 können dabei durch die Fusionseinrichtung 48 einer eingangsseitigen Gewichtung unterzogen werden. Geeignete Gewichte lassen sich beispielsweise mittels eines Trainingsprozesses auf der Grundlage von Trainingsdaten ermitteln, die zum Beispiel mittels eines Lautsprechers als Umgebungsschall 12 auf die Hörvorrichtung 10 abgestrahlt werden können. Mittels des Trainingsprozesses lassen sich die Gewichte dann beispielsweise in Form einer Kovarianzmatrix ermitteln, durch welche ein Zusammenhang zwischen den Sprachaktivitätsdaten 40 bis 46 einerseits und der zu treffenden, wahren Entscheidung (Träger spricht oder spricht nicht) beschrieben ist. Bei Verwendung einer Kovarianzmatix werden die Sprachaktivitätsdaten 40 bis 46 zweckmäßigerweise in Form eines Vektors an die Fusionseinrichtung 48 übertragen, in welchem die Zahlenwerte der Analyseergebnisse, beispielsweise die Wahrscheinlichkeiten, zusammengefasst sind. Über die Kovarianzmatrix können für den Fall, dass zwei oder mehr der Analyseeinrichtungen 32 bis 38 Merkmale X1, X2, X3, X4 als Sprachaktivitätsdaten 40 bis 46 erzeugen, daraus zusammengefasste Merkmale X gebildet werden, die dann in Bezug auf die Sprachaktivität des Trägers ausgewertet werden. Die Auswertung der Merkmale bzgl. der Sprecheraktivität kann beispielsweise auf der Grundlage einer an sich bekannten Methode aus dem Gebiet der Mustererkennung erfolgen.
  • Eine weitere mögliche Auswertemethode der Fusionseinrichtung 48 ist eine Mehrheitsentscheidung, die beispielsweise auf der Grundlage von Einzelentscheidungen D1, D2, D3, D4 Analyseeinrichtungen 32 bis 38 geführt werden kann. Das Ergebnis ist dann eine Gesamtentscheidung D.
  • Für den Fall, dass zwei oder mehr der Analyseeinrichtung 32 bis 38 Wahrscheinlichkeitswerte P1, P2, P3, P4 als Sprachaktivitätsdaten 40 bis 46 erzeugen, können diese Wahrscheinlichkeiten beispielsweise durch Berechnen eines Mittelwerts dieser Wahrscheinlichkeitswerte P1 bis P4 zu einer Gesamtwahrscheinlichkeit P zusammengefasst werden. Die Gesamtwahrscheinlichkeit P kann dann beispielsweise mit einem Schwellwert verglichen werden, um die abschließende Gesamtentscheidung D zu gewinnen.
  • In Abhängigkeit von dem Ausgabesignal der Fusionseinrichtung 48 (OVA/OVNA) kann durch die Signalverarbeitung 30 beispielsweise ein Frequenzgang des Signalpfads eingestellt werden, wie er durch die Mikrofoneinrichtung 18, die Verarbeitungseinrichtung 20, die Signalverarbeitungseinrichtung 30 und den Hörer 22 gebildet wird. Beispielsweise können zur Vermeidung eines Okklusionseffekts tiefe Frequenzen des Audiosignals gedämpft werden. Genauso kann vorgesehen sein, dass ein Richtmikrofon bei Einsetzen der Stimme des Trägers nicht adaptiert wird, da es keinen Sinn macht, die Hauptkeule eines Beamformers von einer externen Quelle weg zu schwenken, wenn der Träger der Hörvorrichtung 10 spricht.
  • Insgesamt ist durch Beispiele gezeigt, wie eine robuste und zuverlässige Eigensprechererkennung in einer Hörvorrichtung bereitgestellt werden kann, ohne dass hierzu ein zusätzliches Mikrofon in dem Gehörgang 16 des Trägers der Hörvorrichtung 10 benötigt wird.

Claims (15)

  1. Hörvorrichtung, umfassend – wenigstens zwei Analyseeinrichtungen (32 bis 38), von denen jede dazu ausgelegt ist, auf der Grundlage eines von der Hörvorrichtung (10) empfangenen Audiosignals (12) Sprachaktivitätsdaten (40 bis 46) zu gewinnen, welche von einer Sprecheraktivität eines Trägers der Hörvorrichtung (10) abhängig sind, und – eine Fusionseinrichtung (48), welche dazu ausgelegt ist, die Sprachaktivitätsdaten (40 bis 46) von den Analyseeinrichtungen (32 bis 38) zu empfangen und auf der Grundlage der Sprachaktivitätsdaten (40 bis 46) zu erkennen, ob der Träger gerade spricht oder nicht.
  2. Hörvorrichtung (10) nach Anspruch 1, gekennzeichnet durch eine Mikrofoneinrichtung (18), die wenigstens ein Mikrofon (24 bis 28) umfasst und die dazu ausgelegt ist, einen auf den Träger treffenden Umgebungsschall (12) in ein Nutzsignal umzuwandeln, wobei die Analyseeinrichtungen (32 bis 38) dazu ausgelegt sind, das Nutzsignal als das Audiosignal zu verarbeiten.
  3. Hörvorrichtung (10) nach Anspruch 1 oder 2, gekennzeichnet durch eine Anpassungseinrichtung (30), welche dazu ausgelegt ist, eine Betriebsweise der Hörvorrichtung (10), insbesondere ein Übertragungsverhalten der Hörvorrichtung (10) und/oder ein Richtverhalten einer adaptiven Beamformingeinrichtung der Hörvorrichtung (10), zu verändern, falls die Fusionseinrichtung (48) erkennt, dass der Träger spricht.
  4. Verfahren zum Betreiben einer Hörvorrichtung (10), indem mittels wenigstens zweier Analyseeinrichtungen (32 bis 38) unabhängig voneinander Sprachaktivitätsdaten (40 bis 46) aus einem Audiosignal gewonnen werden, welche von einer Sprecheraktivität eines Trägers der Hörvorrichtung (10) abhängig sind, und mittels einer Fusionseinrichtung (48) die Sprachaktivitätsdaten (40 bis 46) kombiniert werden und auf der Grundlage der kombinierten Sprachaktivitätsdaten (40 bis 46) überprüft wird, ob der Träger spricht oder nicht.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (32 bis 38) eine Merkmalsextraktion durchgeführt wird und hierzu in Abhängigkeit von dem Audiosignal Merkmalswerte (X1 bis X4) ermittelt werden, insbesondere eine Einfallsrichtung (50) eines Umgebungsschalls (12), ein Geschlecht eines Sprechers, eine Halligkeit des Audiosignals oder spektrale Charakteristika, wie spektrale oder cepstrale Koeffizienten.
  6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (32 bis 38) in Abhängigkeit von dem Audiosignal Werte (P1 bis P4) für eine Softentscheidung oder für eine Wahrscheinlichkeit dafür ermittelt werden, dass der Träger gerade spricht.
  7. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (32 bis 38) eine Klassifikation durchgeführt wird und hierzu in Abhängigkeit von dem Audiosignal bereits durch die Analyseeinrichtung (32 bis 38) auf der Grundlage eines Klassifikationskriteriums eine Einzelentscheidung (D1 bis D4) dazu erzeugt wird, ob der Träger spricht oder nicht.
  8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (32) die Sprachaktivitätsdaten (40) in Abhängigkeit von einer Einfallsrichtung (50) eines Umgebungsschalls (12) erzeugt werden.
  9. Verfahren nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (34) die Sprachaktivitätsdaten (42) in Abhängigkeit von spektralen Werten eines Frequenzspektrums des Audiosignals erzeugt werden.
  10. Verfahren nach einem der Ansprüche 4 bis 9, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (36) eine sprecherunabhängige Sprachaktivitätserkennung durchgeführt wird.
  11. Verfahren nach einem der Ansprüche 4 bis 10, dadurch gekennzeichnet, dass durch wenigstens eine Analyseeinrichtung (38) die Sprachaktivitätsdaten (46) in Abhängigkeit von einer binauralen Information erzeugt werden, welche aus an unterschiedlichen Seiten eines Kopfes des Trägers gewonnenen Audiodaten gebildet wird.
  12. Verfahren nach einem der Ansprüche 4 bis 11, dadurch gekennzeichnet, dass durch die Fusionseinrichtung (48) die Sprachaktivitätsdaten (40 bis 46) wenigstens zweier Analyseeinrichtungen (32 bis 38) in Abhängigkeit davon, von welcher Analyseeinrichtung (32 bis 38) sie stammen, durch trainierte oder untrainierte Gewichtsfaktoren gewichtet werden und die gewichteten Sprachaktivitätsdaten (40 bis 46) miteinander verknüpft werden.
  13. Verfahren nach einem der Ansprüche 4 bis 12, dadurch gekennzeichnet, dass durch die Fusionseinrichtung (48) auf der Grundlage von Einzelentscheidungen (40 bis 46) wenigstens zweier Analyseeinrichtungen eine Mehrheitsentscheidung dahingehend getroffen wird, ob durch diese Analyseeinrichtungen (32 bis 38) zusammen eine Sprecheraktivität angezeigt wird.
  14. Verfahren nach einem der Ansprüche 4 bis 13, dadurch gekennzeichnet, dass durch die Fusionseinrichtung (48) aus Softentscheidungen von Sprachaktivitätsdetektoren wenigstens zweier Analyseeinrichtungen (40 bis 46) ein Mittelwert berechnet wird.
  15. Verfahren nach einem der Ansprüche 4 bis 14, dadurch gekennzeichnet, dass durch eine Anpassungseinrichtung (30) bei durch die Fusionseinrichtung (48) erkannter Sprachaktivität des Trägers ein Frequenzgang der Hörvorrichtung (10) angepasst und hierzu insbesondere ein niederfrequenter Anteil eines Nutzsignals gedämpft wird und/oder die Adaption einer Richtcharakteristik einer Richtmikrofoneinrichtung der Hörvorrichtung (10) unterbrochen oder angehalten wird.
DE102011087984A 2011-12-08 2011-12-08 Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung Withdrawn DE102011087984A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102011087984A DE102011087984A1 (de) 2011-12-08 2011-12-08 Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
EP12191191.1A EP2603018B1 (de) 2011-12-08 2012-11-05 Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
DK12191191.1T DK2603018T3 (da) 2011-12-08 2012-11-05 Høreindretning med taleaktivitetserkendelse og fremgangsmåde til driften af en høreindretning
US13/709,224 US8873779B2 (en) 2011-12-08 2012-12-10 Hearing apparatus with own speaker activity detection and method for operating a hearing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011087984A DE102011087984A1 (de) 2011-12-08 2011-12-08 Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung

Publications (1)

Publication Number Publication Date
DE102011087984A1 true DE102011087984A1 (de) 2013-06-13

Family

ID=47221957

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011087984A Withdrawn DE102011087984A1 (de) 2011-12-08 2011-12-08 Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung

Country Status (4)

Country Link
US (1) US8873779B2 (de)
EP (1) EP2603018B1 (de)
DE (1) DE102011087984A1 (de)
DK (1) DK2603018T3 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991379A1 (de) 2014-08-28 2016-03-02 Sivantos Pte. Ltd. Verfahren und vorrichtung zur verbesserten wahrnehmung der eigenen stimme
EP3104627A1 (de) 2015-06-10 2016-12-14 Sivantos Pte. Ltd. Verfahren zur verbesserung eines aufnahmesignals in einem hörsystem
DE102016203987A1 (de) * 2016-03-10 2017-09-14 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
DE102018202155A1 (de) 2018-02-13 2019-03-07 Sivantos Pte. Ltd. Sprechhilfe-Vorrichtung und Verfahren zum Betrieb einer Sprechhilfe-Vorrichtung
US10403306B2 (en) 2014-11-19 2019-09-03 Sivantos Pte. Ltd. Method and apparatus for fast recognition of a hearing device user's own voice, and hearing aid

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2908549A1 (de) 2014-02-13 2015-08-19 Oticon A/s Hörgerätevorrichtung mit Sensorelement
EP3461148B1 (de) 2014-08-20 2023-03-22 Starkey Laboratories, Inc. Hörhilfesystem mit erkennung der eigenen stimme
CN105976829B (zh) * 2015-03-10 2021-08-20 松下知识产权经营株式会社 声音处理装置、声音处理方法
US9978397B2 (en) 2015-12-22 2018-05-22 Intel Corporation Wearer voice activity detection
EP3396978B1 (de) * 2017-04-26 2020-03-11 Sivantos Pte. Ltd. Verfahren zum betrieb einer hörvorrichtung und hörvorrichtung
US11477587B2 (en) 2018-01-16 2022-10-18 Cochlear Limited Individualized own voice detection in a hearing prosthesis
EP3641344B1 (de) 2018-10-16 2023-12-06 Sivantos Pte. Ltd. Verfahren zum betrieb eines hörinstruments und hörsystem mit einem hörinstrument
EP3641345B1 (de) 2018-10-16 2024-03-20 Sivantos Pte. Ltd. Verfahren zum betrieb eines hörinstruments und hörsystem mit einem hörinstrument
US11089402B2 (en) * 2018-10-19 2021-08-10 Bose Corporation Conversation assistance audio device control
US10795638B2 (en) 2018-10-19 2020-10-06 Bose Corporation Conversation assistance audio device personalization
EP3672281B1 (de) * 2018-12-20 2023-06-21 GN Hearing A/S Hörgerät mit eigenstimmendetektion und zugehöriges verfahren
DK3726856T3 (da) 2019-04-17 2023-01-09 Oticon As Høreanordning omfattende en nøgleordsdetektor og en egen stemme-detektor
DK3823306T3 (da) 2019-11-15 2022-11-21 Sivantos Pte Ltd Høresystem, omfattende et høreapparat og fremgangsmåde til drift af høreapparatet
DE102020201615B3 (de) 2020-02-10 2021-08-12 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102020202483A1 (de) 2020-02-26 2021-08-26 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
CN112863269B (zh) * 2021-01-20 2022-05-20 青岛黄海学院 一种英语口语与听力训练装置及训练方法
EP4138416A1 (de) 2021-08-16 2023-02-22 Sivantos Pte. Ltd. Hörhilfsystem mit einem hörgerät und verfahren zum betreiben des hörgeräts
EP4184948A1 (de) 2021-11-17 2023-05-24 Sivantos Pte. Ltd. Hörsystem mit einem hörgerät und verfahren zum betreiben des hörgeräts

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60204902T2 (de) * 2001-10-05 2006-05-11 Oticon A/S Verfahren zum programmieren einer kommunikationseinrichtung und programmierbare kommunikationseinrichtung
US20060262944A1 (en) * 2003-02-25 2006-11-23 Oticon A/S Method for detection of own voice activity in a communication device
DE102005032274A1 (de) * 2005-07-11 2007-01-18 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6700985B1 (en) * 1998-06-30 2004-03-02 Gn Resound North America Corporation Ear level noise rejection voice pickup method and apparatus
DE10137685C1 (de) * 2001-08-01 2002-12-19 Tuerk & Tuerk Electronic Gmbh Verfahren zum Erkennen des Vorliegens von Sprachsignalen
DK1509065T3 (da) * 2003-08-21 2006-08-07 Bernafon Ag Fremgangsmåde til behandling af audiosignaler
JP4446338B2 (ja) * 2004-03-22 2010-04-07 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 再送要求方法、無線通信システム、および受信機
US8611560B2 (en) * 2007-04-13 2013-12-17 Navisense Method and device for voice operated control
DK2369859T3 (en) * 2008-05-30 2017-03-13 Sonova Ag Method of adapting sound in a hearing aid by frequency change and such a device / Method of adapting sound in a hearing aid device by frequency modification and such a device
EP2306457B1 (de) * 2009-08-24 2016-10-12 Oticon A/S Automatische Tonerkennung basierend auf binären Zeit-Frequenz-Einheiten
JP2011065093A (ja) * 2009-09-18 2011-03-31 Toshiba Corp オーディオ信号補正装置及びオーディオ信号補正方法
EP2381700B1 (de) * 2010-04-20 2015-03-11 Oticon A/S Signalhallunterdrückung mittels Umgebungsinformationen
US8462969B2 (en) * 2010-04-22 2013-06-11 Siemens Audiologische Technik Gmbh Systems and methods for own voice recognition with adaptations for noise robustness

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60204902T2 (de) * 2001-10-05 2006-05-11 Oticon A/S Verfahren zum programmieren einer kommunikationseinrichtung und programmierbare kommunikationseinrichtung
US20060262944A1 (en) * 2003-02-25 2006-11-23 Oticon A/S Method for detection of own voice activity in a communication device
DE102005032274A1 (de) * 2005-07-11 2007-01-18 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991379A1 (de) 2014-08-28 2016-03-02 Sivantos Pte. Ltd. Verfahren und vorrichtung zur verbesserten wahrnehmung der eigenen stimme
US9788127B2 (en) 2014-08-28 2017-10-10 Sivantos Pte. Ltd. Method and device for the improved perception of one's own voice
US11122372B2 (en) 2014-08-28 2021-09-14 Sivantos Pte. Ltd. Method and device for the improved perception of one's own voice
US10403306B2 (en) 2014-11-19 2019-09-03 Sivantos Pte. Ltd. Method and apparatus for fast recognition of a hearing device user's own voice, and hearing aid
EP3104627A1 (de) 2015-06-10 2016-12-14 Sivantos Pte. Ltd. Verfahren zur verbesserung eines aufnahmesignals in einem hörsystem
DE102015210652A1 (de) * 2015-06-10 2016-12-15 Sivantos Pte. Ltd. Verfahren zur Verbesserung eines Aufnahmesignals in einem Hörsystem
US10063980B2 (en) 2015-06-10 2018-08-28 Sivantos Pte. Ltd. Method for improving a picked-up signal in a hearing system and binaural hearing system
US10231064B2 (en) 2015-06-10 2019-03-12 Sivantos Pte. Ltd. Method for improving a picked-up signal in a hearing system and binaural hearing system
DE102015210652B4 (de) 2015-06-10 2019-08-08 Sivantos Pte. Ltd. Verfahren zur Verbesserung eines Aufnahmesignals in einem Hörsystem
DE102016203987A1 (de) * 2016-03-10 2017-09-14 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
US10616694B2 (en) 2016-03-10 2020-04-07 Sivantos Pte. Ltd. Method for operating a hearing device and hearing device for detecting own voice based on an individual threshold value
DE102018202155A1 (de) 2018-02-13 2019-03-07 Sivantos Pte. Ltd. Sprechhilfe-Vorrichtung und Verfahren zum Betrieb einer Sprechhilfe-Vorrichtung

Also Published As

Publication number Publication date
US8873779B2 (en) 2014-10-28
EP2603018A1 (de) 2013-06-12
US20130148829A1 (en) 2013-06-13
DK2603018T3 (da) 2016-05-17
EP2603018B1 (de) 2016-02-03

Similar Documents

Publication Publication Date Title
EP2603018B1 (de) Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
DE10327890A1 (de) Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
EP2833651A1 (de) Verfahren zur Verfolgung einer Schallquelle
EP2620940A1 (de) Verfahren und Hörvorrichtung zum Schätzen eines Bestandteils der eigenen Stimme
EP2172062B1 (de) Verfahren zum anpassen eines hörgeräts mit hilfe eines perzeptiven modells
EP2405673A1 (de) Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem
EP2226795A1 (de) Hörvorrichtung und Verfahren zum Reduzieren eines Störgeräuschs für eine Hörvorrichtung
EP2182741B1 (de) Hörvorrichtung mit spezieller Situationserkennungseinheit und Verfahren zum Betreiben einer Hörvorrichtung
DE102008046040B4 (de) Verfahren zum Betrieb einer Hörvorrichtung mit Richtwirkung und zugehörige Hörvorrichtung
EP1471770B1 (de) Verfahren zur Erzeugung einer angenäherten Teilübertragungsfunktion
DE102007008739A1 (de) Hörvorrichtung mit Störsignaltrennung und entsprechendes Verfahren
EP2658289B1 (de) Verfahren zum Steuern einer Richtcharakteristik und Hörsystem
EP2434781A1 (de) Verfahren zum Rekonstruieren eines Sprachsignals und Hörvorrichtung
EP1926087A1 (de) Anpassung einer Hörvorrichtung an ein Sprachsignal
EP2219389B1 (de) Vorrichtung und Verfahren zur Störgeräuschschätzung bei einer binauralen Hörgeräteversorgung
EP2982136B1 (de) Verfahren zum schätzen eines nutzsignals und hörvorrichtung
EP2793488B1 (de) Binaurale Mikrofonanpassung mittels der eigenen Stimme
DE102021210098A1 (de) Verfahren zum Betrieb eines Hörgeräts
WO2014049455A1 (de) Hörsystem sowie übertragungsverfahren
DE102007035175A1 (de) Verfahren zum Gewinnen individueller Hörsituationsdaten und entsprechendes Aufzeichnungsgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

R081 Change of applicant/patentee

Owner name: SIVANTOS PTE. LTD., SG

Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SINGAPORE, SG

R082 Change of representative

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

R120 Application withdrawn or ip right abandoned