DE102022212035A1 - Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät - Google Patents

Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät Download PDF

Info

Publication number
DE102022212035A1
DE102022212035A1 DE102022212035.3A DE102022212035A DE102022212035A1 DE 102022212035 A1 DE102022212035 A1 DE 102022212035A1 DE 102022212035 A DE102022212035 A DE 102022212035A DE 102022212035 A1 DE102022212035 A1 DE 102022212035A1
Authority
DE
Germany
Prior art keywords
scene
user
voice
hearing aid
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022212035.3A
Other languages
English (en)
Inventor
Claudia Pischel
Maja Serman
Ulrich Giese
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Sivantos Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sivantos Pte Ltd filed Critical Sivantos Pte Ltd
Priority to DE102022212035.3A priority Critical patent/DE102022212035A1/de
Priority to PCT/EP2023/081579 priority patent/WO2024104945A1/de
Publication of DE102022212035A1 publication Critical patent/DE102022212035A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Es wird ein Verfahren zum Betrieb (B) eines Hörgeräts (2) eines Nutzers (N) angegeben, wobei das Hörgerät (2) einen Eingangswandler (4) aufweist, welcher ein Eingangssignal (6) erzeugt, wobei das Hörgerät (2) eine Analyseeinheit (8) aufweist, wobei die Analyseeinheit (8) anhand des Eingangssignals (6) eine aktuelle Szene (S) erkennt, wobei das Hörgerät (2) eine Signalverarbeitungseinheit (12) mit einer OV-Verarbeitungseinheit (14) aufweist, wobei mit der Signalverarbeitungseinheit (12) das Eingangssignal (6) zu einem Ausgangssignal (16) verarbeitet wird und dabei mit der OV-Verarbeitungseinheit (14) die eigene Stimme des Nutzers (N) gemäß einer Anzahl an OV-Parametern (P) verarbeitet wird, wobei die OV-Parameter (P) abhängig von der aktuellen Szene (S) eingestellt werden, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist, wobei das Hörgerät (2) einen Ausgangswandler (18) aufweist, mit welchem das Ausgangssignal (16) an den Nutzer (N) ausgegeben wird. Weiter wird ein entsprechendes Hörgerät (2) angegeben.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Hörgeräts, speziell ein Verfahren zum Einstellen einer OV-Verarbeitungseinheit eines Hörgeräts. Weiter betrifft die Erfindung ein entsprechendes Hörgerät.
  • Ein Hörgerät dient zur Versorgung eines hörgeschädigten Nutzers und somit zum Ausgleich eines entsprechenden Hörverlusts eines solchen Nutzers. Hierzu weist das Hörgerät üblicherweise ein Mikrofon, eine Signalverarbeitungseinheit und einen Hörer auf. Das Mikrofon erzeugt ein Eingangssignal, welches der Signalverarbeitungseinheit zugeführt wird. Die Signalverarbeitungseinheit modifiziert das Eingangssignal und erzeugt dadurch ein Ausgangssignal. Zum Ausgleich eines Hörverlusts wird das Eingangssignal beispielsweise gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Das Ausgangssignal wird schließlich mittels des Hörers an den Nutzer ausgegeben. Auf diese Weise werden Schallsignale der Umgebung modifiziert an den Nutzer ausgegeben. Das Eingangssignal und das Ausgangssignals sind jeweils elektrische Signale. Die Schallsignale der Umgebung und die vom Hörer ausgegebenen Schallsignale sind demgegenüber akustische Signale.
  • Sofern der Nutzer selbst spricht, findet sich dessen eigene Stimme im Eingangssignal wieder und wird entsprechend mit dem Ausgangsignal auch wieder an den Nutzer ausgegeben. Diese Wiedergabe der eigenen Stimme des Nutzers durch das Hörgerät ist von besonderer Bedeutung und bestimmt regelmäßig die Akzeptanz des Hörgeräts durch den Nutzer. Es hat sich gezeigt, dass viele Nutzer besonders sensibel bezüglich der Wahrnehmung ihrer eigenen Stimme sind. Entsprechend ist es wünschenswert, die eigene Stimme des Nutzers durch das Hörgerät möglichst gemäß den Vorstellungen und Vorlieben des Nutzers auszugeben.
  • Vor diesem Hintergrund ist es eine Aufgabe der Erfindung, den Betrieb eines Hörgeräts zu verbessern, speziell hinsichtlich der Wiedergabe der eigenen Stimme des Nutzers des Hörgeräts. Hierzu sollen ein entsprechendes Verfahren und ein entsprechendes Hörgerät angegeben werden.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch ein Hörgerät mit den Merkmalen gemäß Anspruch 12. Vorteilhafte Ausgestaltungen, Weiterbildungen und Varianten sind Gegenstand der Unteransprüche. Die Ausführungen im Zusammenhang mit dem Verfahren gelten sinngemäß auch für das Hörgerät. Sofern nachfolgend explizit oder implizit Schritte des Verfahrens beschrieben sind, ergeben sich bevorzugte Ausgestaltungen für das Hörgerät dadurch, dass dieses eine Steuereinheit aufweist, welche ausgebildet ist, einen oder mehrere dieser Schritte durchzuführen.
  • Das Verfahren dient zum Betrieb eines Hörgeräts eines Nutzers. Der Nutzer hat eine eigene Stimme. Der Betrieb erfolgt insbesondere während des bestimmungsgemäßen Gebrauchs des Hörgeräts durch den Nutzer im Alltag und währen dieser das Hörgerät im oder am Ohr trägt.
  • Das Hörgerät weist einen Eingangswandler auf, welcher ein Eingangssignal erzeugt. Der Eingangswandler ist vorzugsweise ein Mikrofon.
  • Weiter weist das Hörgerät eine Analyseeinheit auf, welche anhand des Eingangssignals eine aktuelle Szene erkennt, insbesondere eine Eigenstimmenszene. Eine Szene ist allgemein die akustische Umgebung des Nutzers (genauer des Hörgeräts) zu einer gegebenen Zeit und an einem gegebenen Ort und hauptsächlich charakterisiert durch eine oder mehrere Geräuschquellen (z.B. Sprecher, Maschinen, Umwelt usw.) und entsprechende Geräusch (z.B. Nutzgeräusch wie Sprache oder Musik, Störgeräusche, Umweltgeräusche usw.) in der Umgebung sowie durch die akustischen Eigenschaften der Umgebung (z.B. mit/ohne Hintergrundrauschen, drinnen/draußen, mit Hall/ohne Hall usw.). Als Ergebnis hiervon, d.h. als Ergebnis der Erkennung der aktuellen Szene, gibt die Analyseeinheit ein Szenensignal aus, welches die aktuelle Szene angibt. In einer geeigneten Ausgestaltung enthält die Analyseeinheit einen Klassifikator, welchem das Eingangssignal zugeführt wird und welcher das Eingangssignal dann analysiert, z.B. spektral, und als Ergebnis, d.h. als Szenensignal, eine Szenenklasse ausgibt, z.B. Sprache in ruhiger Umgebung, Sprache mit Störgeräusch, mehrere Sprecher, 1-zu-1-Konversation, Musik, ruhige Umgebung ohne Sprache, Störgeräusch ohne Sprache usw.
  • Das Hörgerät weist weiterhin eine Signalverarbeitungseinheit mit einer OV-Verarbeitungseinheit auf. Die Abkürzung OV bedeutet allgemein „own voice“, d.h. eigene Stimme oder Eigenstimmen-, womit die eigene Stimme des Nutzers des Hörgeräts gemeint ist. Die OV-Verarbeitungseinheit ist entsprechend eine Eigenstimmenverarbeitungseinheit. Mit der Signalverarbeitungseinheit wird das Eingangssignal zu einem Ausgangssignal verarbeitet. Dabei wird mit der OV-Verarbeitungseinheit die eigene Stimme des Nutzers gemäß einer Anzahl an OV-Parametern verarbeitet. Unter „eine Anzahl an“ wird allgemein „ein oder mehrere“ oder „zumindest ein“ verstanden. Beispielsweise wird die eigene Stimme hierzu zuvor aus dem Eingangssignal isoliert oder sogar herausgefiltert, dann verarbeitet und schließlich wieder mit dem Eingangssignal zusammengeführt, um das Ausgangssignal zu bilden. Möglich ist auch, dass das Eingangssignal insgesamt derart verarbeitet wird, dass genau diejenigen Anteile, welche zur eigenen Stimme gehören, verarbeitet werden. Die OV-Parameter werden nun abhängig von der aktuellen Szene (d.h. abhängig vom Szenensignal der Analyseeinheit) eingestellt, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist. Die OV-Parameter beeinflussen, wie die eigene Stimme insbesondere hinsichtlich Lautstärke, zeitlicher Dynamik und/oder Frequenzspektrum beeinflusst wird und geben entsprechend z.B. eine Dämpfung/Verstärkung, Frequenzverschiebung, Kompression, Verzögerung usw. an, welche dann mit der OV-Verarbeitungseinheit gezielt für die eigene Stimme (z.B. beschränkt auf den zugehörigen Frequenzbereich) umgesetzt wird.
  • Schließlich weist das Hörgerät einen Ausgangswandler auf, mit welchem das Ausgangssignal an den Nutzer ausgegeben wird und somit auch die verarbeitete, eigene Stimme wiedergegeben wird. Vorzugsweise ist der Ausgangswandler ein Hörer. Das Eingangssignal und das Ausgangssignals sind jeweils insbesondere elektrische Signale.
  • Ein Kerngedanke der vorliegenden Erfindung ist eine szenenabhängige Verarbeitung (auch: Modifikation) der eigenen Stimme des Nutzers. Hierzu wird entsprechend in einem ersten Schritt die aktuelle Szene zunächst erkannt und dann in einem zweiten Schritt eine entsprechende Einstellung für die OV-Parameter ausgewählt und eingestellt, sodass die OV-Verarbeitungseinheit die eigene Stimme in unterschiedlichen Szenen unterschiedlich verarbeitet, nämlich abhängig von den OV-Parametern, welche ja szenenabhängig eingestellt werden. Für jede von mehreren Szenen ist eine entsprechende Einstellung gespeichert, welche dann aktiviert wird, wenn die aktuelle Szene der entsprechenden Szene entspricht. Im Ergebnis wird die eigene Stimme des Nutzers an diesen in unterschiedlichen Szenen auch unterschiedlich ausgegeben, nämlich insbesondere jedes Mal möglichst optimal an die jeweilige Szene angepasst.
  • Der Erfindung liegt insbesondere die Beobachtung zugrunde, dass die Anforderungen an die Wiedergabe der eigenen Stimmen, z.B. hinsichtlich Intensität, Frequenzspektrum und/oder zeitlicher Dynamik, verschieden sind für verschiedene Szenen, d.h. in verschiedenen Umgebungen und verschiedenen Kommunikationssituationen. Viele Nutzer reagieren besonders sensibel auf die Wiedergabe der eigenen Stimme und eine nicht-optimale Wiedergabe führt oft zu einer Ablehnung des Hörgeräts. Grundsätzlich ist es vorteilhaft, eine Einstellung für die Wiedergabe der eigenen Stimme zumindest für eine einzelne, bestimmte Szene festzulegen und immer dann einzustellen, wenn die eigene Stimme unabhängig von der gesamten Szene erkannt wird. Diese einzelne, bestimmte Szene ist regelmäßig „eigene Stimme in ruhiger Umgebung“, d.h. der Nutzer spricht, während die gesamte Umgebung insgesamt ruhig ist (d.h. „in Ruhe“, z.B. isoliert in einem Raum ohne weitere Geräuschquellen oder alle Geräusche außer der eigenen Stimme weisen einen Pegel von maximal 40 dB auf) und während auch sonst keine andere Person spricht. In dieser Situation tritt die eigene Stimme für den Nutzer maximal hervor, weshalb eine Festlegung der OV-Parameter für diese Szene besonders zweckmäßig ist. Allerdings variieren die Lautstärke, das Frequenzspektrum und/oder die zeitliche Dynamik eines Nutzers sowohl physisch als auch psychologisch (abhängig von der Persönlichkeit des Nutzers, der Kommunikationsart, der Eigenwahrnehmung der eigenen Stimme usw.) abhängig davon, ob der Nutzer in einer ruhigen Umgebung spricht oder als eine von mehreren Personen in einer Gruppe. Dies hat verschiedene Gründe. Evolutionär betrachtet wollen Menschen regelmäßig vermeiden, dass die eigene Stimme ein anderes, potentiell interessantes, gefährliches und allgemein ein relevantes Geräusch verdeckt. Zusätzlich sind speziell Menschen sensibel dafür, wie die eigene Stimme von anderen Menschen wahrgenommen wird und ein Mensch ändert seine Stimme (Lautstärke, Frequenzspektrum, zeitliche Dynamik usw.) abhängig von der Sprechsituation, allgemein abhängig von der aktuellen Szene. Beispielsweise ist die eigene Stimme anders (z.B. lauter) in einer Szene, in welcher mit mehreren Personen zugleich kommuniziert wird, im Vergleich zu einer Szene, in welcher nur mit einer einzigen Person kommuniziert wird. Eine einzelne Einstellung, welche wie oben beschrieben in einer Szene mit ruhiger Umgebung ermittelt wurde, ist entsprechend nicht optimal für andere, mitunter stark unterschiedliche Szenen, speziell in solchen, welche eine Kommunikationssituation enthalten, in welcher auch andere, fremde Stimmen vorhanden sind. Dieses Problem wird vorliegend durch die szenenabhängige Einstellung der OV-Verarbeitungseinheit gelöst, denn damit werden eigene, jeweils optimale Einstellungen für mehrere verschiedene Szenen bereitgestellt, welche bei Vorliegen der jeweiligen Szene dann auch aktiviert, d.h. verwendet werden.
  • Geeigneterweise weist das Hörgerät einen Speicher auf, in welchem mehrere Einstellungen für die OV-Parameter gespeichert sind, nämlich je eine Einstellung für eine Szene, welche von der Analyseeinheit erkennbar ist. Die Einstellungen werden insbesondere vorab ermittelt und im Speicher gespeichert, zweckmäßigerweise im Rahmen einer Anpasssitzung („fitting session“), z.B. bei einem Hörgeräteakustiker oder sonstigem Fachpersonal. Grundsätzlich ist aber auch eine Ermittlung und Speicherung im Betrieb des Hörgeräts möglich oder auch eine nachträgliche Speicherung z.B. im Rahmen eines Updates des Hörgeräts.
  • Bevorzugterweise unterscheidet die Analyseeinheit zumindest zwei Szenen, in welchen die eigene Stimme vorliegt, voneinander und somit sind für die OV-Parameter zumindest zwei unterschiedliche Einstellungen vorhanden, insbesondere gespeichert, und einstellbar. Vorliegend geht es demnach nicht um ein bloßes Ein- und Ausschalten abhängig vom Vorliegen der eigenen Stimme, sondern um die Unterscheidung von Szenen jeweils mit eigener Stimme aber abseits davon unterschiedlichen Eigenschaften, d.h. um das unterschiedliche Verarbeiten der eigenen Stimme in unterschiedlichen Eigenstimmenszenen (oder auch Eigenstimmensituationen). Die Einstellungen sind allgemein lediglich für solche Szenen relevant, in welchen der Nutzer selbst spricht und somit die eigene Stimme vorliegt, d.h. in sogenannten OV-Szenen. Für andere Szenen, d.h. Szenen ohne eigene Stimme, d.h. Nicht-OV-Szenen, werden keine Einstellungen für die OV-Parameter benötigt, da in solchen Szenen die OV-Verarbeitungseinheit geeigneterweise deaktiviert ist und zumindest keine Verarbeitung der eigenen Stimme erfolgt. Entsprechend ist jede der grundsätzlich mehreren vorhandenen und einstellbaren Einstellungen, einer Szene zugeordnet, in welcher die eigene Stimme vorhanden ist.
  • Vorzugsweise ist eine erste der Szenen eine Basisszene, für welche eine Basiseinstellung für die OV-Parameter vorhanden und einstellbar ist, und eine zweite der Szenen ist eine abgeleitete Szene, für welche eine abgeleitete Einstellung für die OV-Parameter vorhanden und einstellbar ist. Dabei ist die abgeleitete Einstellung von der Basiseinstellung abgeleitet. Die Basiseinstellung bildet somit einen Prototyp und Ausgangspunkt für die Erstellung oder Definition weiterer Einstellungen, welche dann entsprechend von der Basiseinstellung abgeleitet sind. Zur Ableitung wird aus den Unterschieden zwischen der abgeleiteten Szene und der Basisszene eine Transformationsfunktion abgeleitet, mit welcher die Basiseinstellung modifiziert wird, um eine abgeleitete Einstellung zu erhalten.
  • In einer geeigneten Ausgestaltung ist die abgeleitete Einstellung von der Basiseinstellung mittels eines Interaktionsmodells abgeleitet, welches eine Interaktion eines hörgeschädigten Nutzers mit dessen Umgebung modelliert („hearing impaired speaker-environment interaction“). Der hörgeschädigte Nutzer ist nicht zwingend speziell der hier ansonsten beschriebene konkrete Nutzer des Hörgeräts, sondern insbesondere allgemein ein Prototyp für einen hörgeschädigten Nutzer. Das Interaktionsmodell modelliert insbesondere die Veränderung der eigenen Stimme beim Wechsel zwischen zwei unterschiedlichen Szenen und basiert auf entsprechenden Erkenntnissen, welche z.B. in Vorversuchen oder Studien ermittelt wurden. Beispielsweise wird in der Studie Toyomura et al., „Speech levels: Do we talk at the same level as we wish others to and assume they do?", Acoust. Sci. & Tech. 41, 6 (2020), gezeigt, dass Menschen die Lautstärke ihrer eigenen Stimme abhängig von der Konversationssituation anpassen. Aufgrund des Interaktionsmodels ist es nicht erforderlich, die verschiedenen Einstellungen durch tatsächliches Nachstellen der unterschiedlichen Szenen zu ermitteln, sondern es ist ausreichend, die Einstellung für eine einzelne Szene zu ermitteln (die Basiseinstellung für die Basisszene) und dann ausgehend hiervon mittels des Interaktionsmodells eine oder mehrere weitere Einstellungen zu errechnen. Dies erfolgt entweder außerhalb des hier beschriebenen Verfahrens oder als Teil davon.
  • Die weiteren Details des Interaktionsmodells sind zunächst von untergeordneter Bedeutung. In einer besonders einfachen, geeigneten Ausgestaltung ergibt sich die abgeleitete Einstellung aus der Basiseinstellung, indem diese mit einer variablen Effektstärke (strength of effect) angepasst wird. Die Effektstärke ist z.B. ein Faktor zwischen 0 und 1, mit welchem die Basiseinstellung multipliziert wird. Der Wert der Effektstärke wird mit dem Interaktionsmodell bestimmt, dieses gibt dann einen Wert für die Effektstärke abhängig von Szene aus, z.B. indem deren Lautstärkepegel als Eingangsparameter für das Interaktionsmodell verwendet wird. Beispielsweise ergibt das Interaktionsmodell für Sprache mit Störgeräusch eine Effektstärke von 0 aus und für ruhige Umgebung ohne Sprache eine Effektstärke von 1. Der Übergang ist entweder diskret oder kontinuierlich. Auch ein mehrdimensionales Interaktionsmodell ist vorteilhaft. In einer geeigneten Ausgestaltung wird ist die Effektstärke abhängig vom Störgeräuschpegel der Szene einerseits und der Anzahl an Sprechern der Szene andererseits. Als Basisszene wird eine ruhige Umgebung ohne Sprecher angenommen, hierzu gehört dann die Basiseinstellung. Mit zunehmender Anzahl an Sprechern wird die Effektstärke erhöht und zugleich mit zunehmendem Störgeräuschpegel reduziert. Durch Modifikation der Basiseinstellung mit der Effektstärke werden dann für entsprechend abweichende Szenen abgeleitete Einstellung erzeugt.
  • Die Basisszene ist zweckmäßigerweise dadurch charakterisiert, dass lediglich die eigene Stimme in einer ruhigen Umgebung (wie bereits oben beschrieben) vorhanden ist. Mit anderen Worten: der Nutzer spricht selbst, ansonsten sind aber keine anderen Geräusche vorhanden, speziell auch keine anderen Stimmen. Die Basisszene ist somit im Grunde eine Szene, in welcher möglichst ausschließlich die eigene Stimme vorhanden ist.
  • In einer geeigneten Ausgestaltung wurde die Basiseinstellung zuvor in einer Anpasssitzung („fitting session“, siehe auch weiter oben) individuell für den Nutzer ermittelt, d.h. abhängig von individuellen Eigenschaften des Nutzers wie z.B. Alter, Geschlecht, Persönlichkeit usw. Die Anpasssitzung erfolgt beispielsweise bei einem Hörgeräteakustiker oder einer sonstigen Fachperson oder zumindest unter Anleitung eines/einer solchen. Möglich ist auch eine Anpasssitzung durch den Nutzer selbst, z.B. mit Instruktion durch eine Fachperson per Telefon oder softwaregeführt mittels eines Smartphones oder dergleichen. Wesentlich ist, dass die Basiseinstellung individuell für den Nutzer ermittelt wird, sodass auch alle abgeleiteten Einstellungen zumindest ansatzweise individuell sind.
  • Die OV-Parameter werden in einer zweckmäßigen Ausgestaltung mit einer automatischen Einstelleinheit eingestellt, welche von der Analyseeinheit ein Szenensignal erhält, welches die aktuelle Szene angibt, und die OV-Parameter ausgibt. Entsprechend ist die Einstelleinheit einerseits mit der Analyseeinheit und andererseits mit der Signalverarbeitungseinheit verbunden. Die Einstelleinheit ist insbesondere ein Teil des Hörgeräts. Die Einstelleinheit greift insbesondere auch auf den Speicher zu und entnimmt diesem abhängig vom Szenensignal automatisch die jeweils zugehörige Einstellung und steuert dann ebenfalls automatisch die OV-Verarbeitungseinheit derart, dass die OV-Parameter gemäß dieser Einstellung eingestellt werden.
  • Wie bereits oben angedeutet wurde, ist das hier beschriebene Verfahren zunächst nur für OV-Szenen relevant, d.h. für solche Szenen, in welchen die eigene Stimme vorliegt, da der Nutzer selbst spricht. In allen übrigen Szenen wird die OV-Verarbeitungseinheit typischerweise nicht benötigt und daher zweckmäßigerweise deaktiviert. Entsprechend erkennt die Analyseeinheit geeigneterweise, ob die eigene Stimme vorliegt und die OV-Verarbeitungseinheit wird lediglich dann aktiviert, wenn die Analyseeinheit erkannt hat, dass die eigene Stimme vorliegt. In diesem Fall wird dann szenenabhängig die OV-Verarbeitungseinheit eingestellt, d.h. die Verarbeitung der eigenen Stimme gesteuert. Der Betrieb des Hörgeräts weist somit im Grunde zwei Ebenen auf: auf einer ersten Ebene wird erkannt, ob in der aktuellen Szene die eigene Stimme vorliegt oder nicht. Falls die eigene Stimme in der aktuellen Szene vorliegt, wird die OV-Verarbeitungseinheit aktiviert und die eigene Stimme verarbeitet und ansonsten deaktiviert. Auf einer zweiten Ebene wird dann eingestellt, auf welche Weise genau die eigene Stimme verarbeitet wird. Dies erfolgt dann szenenabhängig, sodass die eigene Stimme abhängig von der aktuellen Szene optimal verarbeitet und damit letztendlich auch optimal und insbesondere individuell angepasst wiedergegeben wird, d.h. an den Nutzer ausgegeben wird.
  • Wie die aktuelle Szene konkret erkannt wird ist an sich zunächst von untergeordneter Bedeutung. Wichtiger ist insbesondere, dass unterschiedliche OV-Szenen unterschieden werden. In einer geeigneten Ausgestaltung erkennt die Analyseeinheit die aktuelle Szene, indem die Analyseeinheit anhand des Eingangssignals einen oder mehrere der folgenden Parameter der aktuellen Szene bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung (des Nutzers). Die aktuelle Szene wird damit insbesondere klassifiziert, d.h. einer von mehreren Klassen zugeordnet. Geeignete Klassen für Szenen mit eigener Stimme sind insbesondere: eigene Stimme in ruhiger Umgebung, Konversation mit mehr als zwei (fremden) Sprechern, 1-zu-1 Konversation (Nutzer und ein einzelner, fremder Sprecher) usw.
  • Bevorzugterweise weist die Signalverarbeitungseinheit eine Szenenverarbeitungseinheit auf, mit welcher das Eingangssignal abseits der eigenen Stimme abhängig von der aktuellen Szene zu dem Ausgangssignal verarbeitet wird. In der Szenenverarbeitungseinheit wird das Eingangssignal demnach auch unmittelbar abhängig vom Szenensignal verarbeitet und nicht nur mittelbar durch die OV-Verarbeitungseinheit, welche zuvor vom Szenensignal die OV-Parameter abgeleitet. Zusätzlich zur Verarbeitung der eigenen Stimme werden demnach auch die übrigen Geräusche in der Umgebung verarbeitet. Hierdurch wird insbesondere die originäre Funktion eines Hörgeräts realisiert, nämlich eine Versorgung des insbesondere hörgeschädigten Nutzers und damit ein Ausgleich eines entsprechenden Hörverlusts des Nutzers. Zum Ausgleich eines Hörverlusts wird das Eingangssignal mittels der Szenenverarbeitungseinheit beispielsweise gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Auf diese Weise werden Schallsignale der Umgebung unter Berücksichtigung des Audiograms modifiziert an den Nutzer ausgegeben. Die Ausführungen in der Einleitung weiter oben gelten insbesondere auch für das hier beschriebene, erfindungsgemäße Hörgerät. Das Hörgerät ist insbesondere entweder ein monaurales oder ein binaurales Hörgerät.
  • Das erfindungsgemäße Hörgerät weist eine Steuereinheit auf, welche ausgebildet ist, das Verfahren wie vorstehend beschrieben durchzuführen. Eine oder mehrere der oben genannten Einheiten (Analyseeinheit, Signalverarbeitungseinheit, OV-Verarbeitungseinheit, Szenenverarbeitungseinheit, Einstelleinheit) oder der Speicher oder eine Kombination hiervon sind vorzugsweise ein Teil der Steuereinheit des Hörgeräts.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher erläutert. Darin zeigen jeweils schematisch:
    • 1 ein Hörgerät,
    • 2 eine Funktionsansicht des Hörgeräts,
    • 3 ein Verfahren zum Betrieb des Hörgeräts,
    • 4 ein Interaktionsmodell.
  • In 1 ist ein Ausführungsbeispiel für ein erfindungsgemäßes Hörgerät 2 für einen in 1 nicht explizit gezeigten Nutzer N gezeigt. Das Hörgerät 2 weist einen Eingangswandler 4 auf, welcher hier ein Mikrofon ist und aus Geräuschen in der Umgebung des Nutzers N ein Eingangssignal 6 erzeugt. Das Hörgerät 2 weist eine Analyseeinheit 8 auf, welche anhand des Eingangssignals 6 eine aktuelle Szene S erkennt. Eine Szene S ist allgemein die akustische Umgebung des Nutzers N zu einer gegebenen Zeit und an einem gegebenen Ort und hauptsächlich charakterisiert durch eine oder mehrere Geräuschquellen und entsprechende Geräusch in der Umgebung sowie durch die akustischen Eigenschaften der Umgebung. Als Ergebnis hiervon gibt die Analyseeinheit 8 ein Szenensignal 10 aus, welches die aktuelle Szene S angibt.
  • Das Hörgerät 2 weist weiterhin eine Signalverarbeitungseinheit 12 mit einer OV-Verarbeitungseinheit 14 auf. Die Abkürzung OV bedeutet allgemein „own voice“, d.h. eigene Stimme oder Eigenstimmen-, womit die eigene Stimme des Nutzers N des Hörgeräts 2 gemeint ist. Mit der Signalverarbeitungseinheit 12 wird das Eingangssignal 6 zu einem Ausgangssignal 16 verarbeitet. Dabei wird mit der OV-Verarbeitungseinheit 14 die eigene Stimme des Nutzers N gemäß einer Anzahl an OV-Parametern P verarbeitet. Unter „eine Anzahl an“ wird allgemein „ein oder mehrere“ oder „zumindest ein“ verstanden. Beispielsweise wird die eigene Stimme hierzu zuvor aus dem Eingangssignal 6 isoliert oder sogar herausgefiltert, dann verarbeitet und schließlich wieder mit dem Eingangssignal 6 zusammengeführt, um das Ausgangssignal 8 zu bilden. Im Ausführungsbeispiel der 1 wird das Eingangssignal 6 insgesamt derart verarbeitet wird, dass genau diejenigen Anteile, welche zur eigenen Stimme gehören, verarbeitet werden. Die OV-Parameter P werden nun abhängig von der aktuellen Szene S eingestellt, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist. Die OV-Parameter P beeinflussen, wie die eigene Stimme insbesondere hinsichtlich Lautstärke, zeitlicher Dynamik und/oder Frequenzspektrum beeinflusst wird und geben entsprechend z.B. eine Dämpfung/Verstärkung, Frequenzverschiebung, Kompression, Verzögerung usw. an.
  • Schließlich weist das Hörgerät 2 einen Ausgangswandler 18 auf, welcher hier ein Hörer ist und mit welchem das Ausgangssignal 16 an den Nutzer N ausgegeben wird und somit auch die verarbeitete, eigene Stimme wiedergegeben wird.
  • In 2 ist eine Funktionsansicht des Hörgeräts 2 gezeigt, wobei verschiedene Komponenten des Hörgeräts 2 gezeigt sind und deren funktionale Beziehungen untereinander durch Pfeile angedeutet sind. In 3 ist dann ein beispielhaftes Verfahren zum Betrieb B des Hörgeräts 2 gezeigt. Der Betrieb B erfolgt während des bestimmungsgemäßen Gebrauchs des Hörgeräts durch den Nutzer N im Alltag und während der Nutzer N das Hörgerät 2 im oder am Ohr trägt.
  • Vorliegend erfolgt eine szenenabhängige Verarbeitung der eigenen Stimme des Nutzers N. Hierzu wird nach der Erzeugung S0 des Eingangssignals 6 entsprechend in einem ersten Schritt S1 die aktuelle Szene S zunächst erkannt und dann in einem zweiten Schritt S2 eine entsprechende Einstellung E für die OV-Parameter P ausgewählt und eingestellt, sodass die OV-Verarbeitungseinheit 14 die eigene Stimme in unterschiedlichen Szenen S unterschiedlich verarbeitet, nämlich abhängig von den OV-Parametern P, welche ja szenenabhängig eingestellt werden. Für jede von mehreren Szenen S ist eine entsprechende Einstellung E gespeichert, welche dann aktiviert wird, wenn die aktuelle Szene S der entsprechenden Szene S entspricht. Schließlich erfolgt eine Ausgabe S3 des Ausgangssignals 16 mit der darin enthaltenen, modifizierten, eigenen Stimme. Im Ergebnis wird die eigene Stimme des Nutzers N an diesen in unterschiedlichen Szenen S auch unterschiedlich ausgegeben, nämlich insbesondere jedes Mal möglichst optimal an die jeweilige Szene S angepasst.
  • Das hier gezeigte Hörgerät 2 weist einen Speicher 20 auf, in welchem mehrere Einstellungen E für die OV-Parameter P gespeichert sind, nämlich je eine Einstellung E für eine Szene S, welche von der Analyseeinheit 8 erkennbar ist. Die Einstellungen E werden vorliegend vorab ermittelt und im Speicher 20 gespeichert, z.B. im Rahmen einer Anpasssitzung A („fitting session“), z.B. bei einem Hörgeräteakustiker oder sonstigem Fachpersonal.
  • Die OV-Parameter P werden in 1 mit einer automatischen Einstelleinheit 22 eingestellt, welche von der Analyseeinheit 8 das Szenensignal 10 erhält und die entsprechenden OV-Parameter ausgibt. Entsprechend ist die Einstelleinheit 22 einerseits mit der Analyseeinheit 8 und andererseits mit der Signalverarbeitungseinheit 12 verbunden. Die Einstelleinheit 22 greift auch auf den Speicher 20 zu und entnimmt diesem abhängig vom Szenensignal 10 automatisch die jeweils zugehörige Einstellung E und steuert dann ebenfalls automatisch die OV-Verarbeitungseinheit 14 derart, dass die OV-Parameter P gemäß dieser Einstellung E eingestellt werden.
  • Die Analyseeinheit 8 unterscheidet zumindest zwei Szenen S, in welchen die eigene Stimme vorliegt, voneinander und somit sind für die OV-Parameter P zumindest zwei unterschiedliche Einstellungen E vorhanden und einstellbar. Vorliegend geht es demnach nicht um ein bloßes Ein- und Ausschalten abhängig vom Vorliegen der eigenen Stimme, sondern um die Unterscheidung von Szenen S jeweils mit eigener Stimme aber abseits davon unterschiedlichen Eigenschaften, d.h. um das unterschiedliche Verarbeiten der eigenen Stimme in unterschiedlichen Eigenstimmenszenen. Die Einstellungen E sind allgemein lediglich für solche Szenen S relevant, in welchen der Nutzer N selbst spricht und somit die eigene Stimme vorliegt, d.h. in sogenannten OV-Szenen. Für andere Szenen S ohne eigene Stimme, d.h. Nicht-OV-Szenen, werden keine Einstellungen E für die OV-Parameter P benötigt, da in solchen Szenen S die OV-Verarbeitungseinheit 14 deaktiviert ist und keine Verarbeitung der eigenen Stimme erfolgt. Entsprechend ist jede der grundsätzlich mehreren vorhandenen und einstellbaren Einstellungen E, einer Szene S zugeordnet, in welcher die eigene Stimme vorhanden ist.
  • Eine erste der Szenen S ist eine Basisszene, für welche eine Basiseinstellung E1 für die OV-Parameter P vorhanden und einstellbar ist, und eine zweite der Szenen S ist eine abgeleitete Szene, für welche eine abgeleitete Einstellung E2 für die OV-Parameter P vorhanden und einstellbar ist. Dabei ist die abgeleitete Einstellung E2 von der Basiseinstellung E1 abgeleitet. Die Basiseinstellung R1 bildet somit einen Prototyp und Ausgangspunkt für die Erstellung oder Definition weiterer Einstellungen E2, welche dann entsprechend von der Basiseinstellung E1 abgeleitet sind. Zur Ableitung wird aus den Unterschieden zwischen der abgeleiteten Szene und der Basisszene eine Transformationsfunktion abgeleitet, mit welcher die Basiseinstellung E1 modifiziert wird, um eine abgeleitete Einstellung E2 zu erhalten. Die Basiseinstellung E1 und die davon abgeleiteten Einstellungen E2 bilden gemeinsam die Einstellungen E. Ein Beispiel hierfür ist in 3 illustriert. Die abgeleitete Einstellung E2 wird von der Basiseinstellung E1 mittels eines Interaktionsmodells 24 abgeleitet, welches eine Interaktion eines hörgeschädigten Nutzers N mit dessen Umgebung modelliert („hearing impaired speaker-environment interaction“). Das Interaktionsmodell 24 modelliert die Veränderung der eigenen Stimme beim Wechsel zwischen zwei unterschiedlichen Szenen S und basiert auf entsprechenden Erkenntnissen, welche z.B. in Vorversuchen oder Studien ermittelt wurden. Aufgrund des Interaktionsmodels 24 ist es nicht erforderlich, die verschiedenen Einstellungen E durch tatsächliches Nachstellen der unterschiedlichen Szenen S zu ermitteln, sondern es ist ausreichend, die Einstellung E für eine einzelne Szene S zu ermitteln (die Basiseinstellung E1 für die Basisszene) und dann ausgehend hiervon mittels des Interaktionsmodells 24 eine oder mehrere weitere Einstellungen E2 zu errechnen.
  • Ein Beispiel für ein Interaktionsmodell 24 ist in 4 gezeigt. Demnach ergibt sich die abgeleitete Einstellung E2 aus der Basiseinstellung E1, indem diese mit einer variablen Effektstärke soe (strength of effect) angepasst wird. Die Effektstärke soe ist z.B. ein Faktor zwischen 0 und 1, mit welchem die Basiseinstellung E1 multipliziert wird. Der Wert der Effektstärke soe wird mit dem Interaktionsmodell 24 bestimmt, dieses gibt dann einen Wert für die Effektstärke soe abhängig von Szene S aus, z.B. indem deren Lautstärkepegel als Eingangsparameter für das Interaktionsmodell 24 verwendet wird. Beispielsweise gibt das Interaktionsmodell 24 für Sprache mit Störgeräusch eine Effektstärke von 0 aus und für ruhige Umgebung ohne Sprache eine Effektstärke von 1. Der Übergang ist entweder diskret oder kontinuierlich. In 4 ist beispielhaft ein mehrdimensionales Interaktionsmodell 24 gezeigt, bei welchem die Effektstärke soe abhängig vom Störgeräuschpegel 34 der Szene S einerseits und der Anzahl an Sprechern 36 der Szene S andererseits ist. Als Basisszene wird eine ruhige Umgebung ohne Sprecher angenommen, hierzu gehört dann die Basiseinstellung E1. Mit zunehmender Anzahl an Sprechern 36 wird die Effektstärke soe erhöht und zugleich mit zunehmendem Störgeräuschpegel 34 reduziert. Durch Modifikation der Basiseinstellung E1 mit der Effektstärke soe werden dann für entsprechend abweichende Szenen S abgeleitete Einstellung E2 erzeugt.
  • Die Basisszene E1 ist vorliegend dadurch charakterisiert, dass lediglich die eigene Stimme in einer ruhigen Umgebung vorhanden ist. Mit anderen Worten: der Nutzer N spricht selbst, ansonsten sind aber keine anderen Geräusche vorhanden, speziell auch keine anderen Stimmen. Die Basisszene E1 ist somit im Grunde eine Szene S, in welcher möglichst ausschließlich die eigene Stimme vorhanden ist. Im Ausführungsbeispiel der 3 wurde die Basiseinstellung E1 zuvor in einer Anpasssitzung A („fitting session“, siehe auch weiter oben) individuell für den Nutzer N ermittelt. Die Anpasssitzung A erfolgt beispielsweise bei einem Hörgeräteakustiker oder einer sonstigen Fachperson oder zumindest unter Anleitung eines/einer solchen. Möglich ist auch eine Anpasssitzung A durch den Nutzer N selbst, z.B. mit Instruktion durch eine Fachperson per Telefon oder softwaregeführt mittels eines Smartphones oder dergleichen. Wesentlich ist, dass die Basiseinstellung E1 individuell für den Nutzer N ermittelt wird, sodass auch alle abgeleiteten Einstellungen E2 zumindest ansatzweise individuell sind, obwohl das Interaktionsmodell 24 nicht individuell ist.
  • Wie bereits angedeutet, ist das hier beschriebene Verfahren zunächst nur für OV-Szenen relevant, d.h. für solche Szenen S, in welchen die eigene Stimme vorliegt, da der Nutzer N selbst spricht. In allen übrigen Szenen S wird die OV-Verarbeitungseinheit 14 typischerweise nicht benötigt und daher deaktiviert. Entsprechend erkennt die Analyseeinheit 8 vorliegend, ob die eigene Stimme vorliegt, und die OV-Verarbeitungseinheit 14 wird lediglich dann aktiviert, wenn die Analyseeinheit 8 erkannt hat, dass die eigene Stimme vorliegt. In diesem Fall wird dann szenenabhängig die OV-Verarbeitungseinheit 14 eingestellt, d.h. die Verarbeitung der eigenen Stimme gesteuert. Der Betrieb B des Hörgeräts 2 weist somit im Grunde zwei Ebenen auf: auf einer ersten Ebene 26 wird erkannt, ob in der aktuellen Szene S die eigene Stimme vorliegt oder nicht. Falls die eigene Stimme in der aktuellen Szene S vorliegt, wird die OV-Verarbeitungseinheit 14 aktiviert und die eigene Stimme verarbeitet und ansonsten deaktiviert. Auf einer zweiten Ebene 28 wird dann eingestellt, auf welche Weise genau die eigene Stimme verarbeitet wird. Dies erfolgt dann szenenabhängig, sodass die eigene Stimme abhängig von der aktuellen Szene S optimal verarbeitet und damit letztendlich auch optimal und insbesondere individuell angepasst wiedergegeben wird, d.h. an den Nutzer N ausgegeben wird.
  • Wie die aktuelle Szene S konkret erkannt wird ist an sich zunächst von untergeordneter Bedeutung. Wichtiger ist insbesondere, dass unterschiedliche OV-Szenen unterschieden werden. Beispielsweise erkennt die Analyseeinheit 8 die aktuelle Szene S, indem die Analyseeinheit 8 anhand des Eingangssignals 6 einen oder mehrere der folgenden Parameter der aktuellen Szene S bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung (des Nutzers N). Die aktuelle Szene S wird damit insbesondere klassifiziert, d.h. einer von mehreren Klassen zugeordnet, z.B. eigene Stimme in ruhiger Umgebung, Konversation mit mehr als zwei (fremden) Sprechern, 1-zu-1 Konversation (Nutzer N und ein einzelner, fremder Sprecher) usw.
  • Zudem wiest die Signalverarbeitungseinheit 12 in dem hier gezeigten Ausführungsbeispiel eine Szenenverarbeitungseinheit 30 auf, mit welcher das Eingangssignal 6 abhängig von der aktuellen Szene S zu dem Ausgangssignal 18 verarbeitet wird. Zusätzlich zur Verarbeitung der eigenen Stimme werden demnach auch die übrigen Geräusche in der Umgebung verarbeitet. Hierdurch wird die originäre Funktion eines Hörgeräts 2 realisiert, nämlich eine Versorgung des hörgeschädigten Nutzers N und damit ein Ausgleich eines entsprechenden Hörverlusts des Nutzers N. Zum Ausgleich eines Hörverlusts wird das Eingangssignal 6 mittels der Szenenverarbeitungseinheit 30 beispielsweise gemäß einem Audiogramm des Nutzers N mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Auf diese Weise werden Schallsignale der Umgebung unter Berücksichtigung des Audiograms modifiziert an den Nutzer N ausgegeben.
  • Das hier gezeigte Hörgerät 2 weist außerdem eine Steuereinheit 32 auf, welche ausgebildet ist, das Verfahren wie vorstehend beschrieben durchzuführen. Die oben genannten Einheiten (Analyseeinheit 8, Signalverarbeitungseinheit 12, OV-Verarbeitungseinheit 14, Szenenverarbeitungseinheit 30, Einstelleinheit 22) und der Speicher 20 sind ein Teil dieser Steuereinheit 32.
  • Bezugszeichenliste
  • 2
    Hörgerät
    4
    Eingangswandler
    6
    Eingangssignal
    8
    Analyseeinheit
    10
    Szenensignal
    12
    Signalverarbeitungseinheit
    14
    OV-Verarbeitungseinheit
    16
    Ausgangssignal
    18
    Ausgangswandler
    20
    Speicher
    22
    Einstelleinheit
    24
    Interaktionsmodel
    26
    erste Ebene
    28
    zweite Ebene
    30
    Szenenverarbeitungseinheit
    32
    Steuereinheit
    34
    Störgeräuschpegel
    36
    Anzahl an Sprechern
    A
    Anpasssitzung
    B
    Betrieb
    E
    Einstellung
    E1
    Einstellung, Basiseinstellung
    E2
    Einstellung, abgeleitete Einstellung
    N
    Nutzer
    P
    OV-Parameter
    S
    Szene
    soe
    Effektstärke
    50
    Aufnahme eines Eingangssignals
    S1
    erster Schritt
    S2
    zweiter Schritt
    S3
    Ausgabe eines Ausgangssignals
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Toyomura et al., „Speech levels: Do we talk at the same level as we wish others to and assume they do?“, Acoust. Sci. & Tech. 41, 6 (2020) [0016]

Claims (12)

  1. Verfahren zum Betrieb (B) eines Hörgeräts (2) eines Nutzers (N), - wobei das Hörgerät (2) einen Eingangswandler (4) aufweist, welcher ein Eingangssignal (6) erzeugt, - wobei das Hörgerät (2) eine Analyseeinheit (8) aufweist, - wobei die Analyseeinheit (8) anhand des Eingangssignals (6) eine aktuelle Szene (S) erkennt, - wobei das Hörgerät (2) eine Signalverarbeitungseinheit (12) mit einer OV-Verarbeitungseinheit (14) aufweist, - wobei mit der Signalverarbeitungseinheit (12) das Eingangssignal (6) zu einem Ausgangssignal (16) verarbeitet wird und dabei mit der OV-Verarbeitungseinheit (14) die eigene Stimme des Nutzers (N) gemäß einer Anzahl an OV-Parametern (P) verarbeitet wird, - wobei die OV-Parameter (P) abhängig von der aktuellen Szene (S) eingestellt werden, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist, - wobei das Hörgerät (2) einen Ausgangswandler (18) aufweist, mit welchem das Ausgangssignal (16) an den Nutzer (N) ausgegeben wird.
  2. Verfahren nach Anspruch 1, wobei das Hörgerät (2) einen Speicher (20) aufweist, in welchem mehrere Einstellungen (E) gespeichert sind, nämlich je eine Einstellung (E) für eine Szene (S), welche von der Analyseeinheit (8) erkennbar ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Analyseeinheit (8) zumindest zwei Szenen (S), in welchen die eigene Stimme vorliegt, voneinander unterscheidet und somit für die OV-Parameter (P) zumindest zwei unterschiedliche Einstellungen (E) vorhanden und einstellbar sind.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei eine erste der Szenen (S) eine Basisszene ist, für welche eine Basiseinstellung (E1) für die OV-Parameter (P) vorhanden und einstellbar ist, wobei eine zweite der Szenen (S) eine abgeleitete Szene ist, für welche eine abgeleitete Einstellung (E2) für die OV-Parameter (P) vorhanden und einstellbar ist, wobei die abgeleitete Einstellung (E2) von der Basiseinstellung (E1) abgeleitet ist.
  5. Verfahren nach Anspruch 4, wobei die abgeleitete Einstellung (E2) von der Basiseinstellung (E1) mittels eines Interaktionsmodells (24) abgeleitet ist, welches eine Interaktion eines hörgeschädigten Nutzers (N) mit dessen Umgebung modelliert.
  6. Verfahren nach Anspruch 4 oder 5, wobei die Basisszene dadurch charakterisiert ist, dass lediglich die eigene Stimme in einer ruhigen Umgebung vorhanden ist.
  7. Verfahren nach einem der Ansprüche 4 bis 6, wobei die Basiseinstellung (E1) in einer Anpasssitzung (A) individuell für den Nutzer (N) ermittelt wurde.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die OV-Parameter (P) mit einer automatischen Einstelleinheit (22) eingestellt werden, welche von der Analyseeinheit (8) ein Szenensignal (10) erhält, welches die aktuelle Szene (S) angibt, und welche die OV-Parameter (P) ausgibt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Analyseeinheit (8) erkennt, ob die eigene Stimme vorliegt, wobei die OV-Verarbeitungseinheit (14) lediglich dann aktiviert wird, wenn die Analyseeinheit (8) erkannt hat, dass die eigene Stimme vorliegt.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei die Analyseeinheit (8) die aktuelle Szene (S) erkennt, indem die Analyseeinheit (8) anhand des Eingangssignals (6) einen oder mehrere der folgenden Parameter bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei die Signalverarbeitungseinheit (12) eine Szenenverarbeitungseinheit (30) aufweist, mit welcher das Eingangssignal (6) abseits der eigenen Stimme abhängig von der aktuellen Szene (S) zu dem Ausgangssignal (16) verarbeitet wird.
  12. Hörgerät (2), welches eine Steuereinheit (32) aufweist, welche ausgebildet ist, das Verfahren gemäß einem der Ansprüche 1 bis 11 durchzuführen.
DE102022212035.3A 2022-11-14 2022-11-14 Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät Pending DE102022212035A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022212035.3A DE102022212035A1 (de) 2022-11-14 2022-11-14 Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
PCT/EP2023/081579 WO2024104945A1 (de) 2022-11-14 2023-11-13 Verfahren zum betrieb eines hörgeräts sowie hörgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022212035.3A DE102022212035A1 (de) 2022-11-14 2022-11-14 Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät

Publications (1)

Publication Number Publication Date
DE102022212035A1 true DE102022212035A1 (de) 2024-05-16

Family

ID=88839431

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022212035.3A Pending DE102022212035A1 (de) 2022-11-14 2022-11-14 Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät

Country Status (2)

Country Link
DE (1) DE102022212035A1 (de)
WO (1) WO2024104945A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017205652B3 (de) 2017-04-03 2018-06-14 Sivantos Pte. Ltd. Verfahren zum Betrieb einer Hörvorrichtung und Hörvorrichtung
DE102018216667B3 (de) 2018-09-27 2020-01-16 Sivantos Pte. Ltd. Verfahren zur Verarbeitung von Mikrofonsignalen in einem Hörsystem sowie Hörsystem
DE102020202483A1 (de) 2020-02-26 2021-08-26 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102020216439A1 (de) 2020-12-21 2022-06-23 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörsystems mit einem Hörinstrument

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2986033T3 (da) * 2005-03-29 2020-11-23 Oticon As Høreapparat til registrering af data og læring der fra
DK2304972T3 (en) * 2008-05-30 2015-08-17 Sonova Ag Method for adapting sound in a hearing aid device by frequency modification
US11356783B2 (en) * 2020-10-02 2022-06-07 Oticon A/S Hearing device comprising an own voice processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017205652B3 (de) 2017-04-03 2018-06-14 Sivantos Pte. Ltd. Verfahren zum Betrieb einer Hörvorrichtung und Hörvorrichtung
DE102018216667B3 (de) 2018-09-27 2020-01-16 Sivantos Pte. Ltd. Verfahren zur Verarbeitung von Mikrofonsignalen in einem Hörsystem sowie Hörsystem
DE102020202483A1 (de) 2020-02-26 2021-08-26 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102020216439A1 (de) 2020-12-21 2022-06-23 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörsystems mit einem Hörinstrument

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Toyomura et al., „Speech levels: Do we talk at the same level as we wish others to and assume they do?", Acoust. Sci. & Tech. 41, 6 (2020)

Also Published As

Publication number Publication date
WO2024104945A1 (de) 2024-05-23

Similar Documents

Publication Publication Date Title
EP2306756B1 (de) Verfahren zur Feinanpassung eines Hörhilfegerätes sowie Hörhilfegerät
DE102019206743A1 (de) Hörgeräte-System und Verfahren zur Verarbeitung von Audiosignalen
EP3809724B1 (de) Verfahren zum betrieb eines hörgeräts sowie hörgerät
EP3288293A1 (de) Verfahren und einrichtung zur einstellung eines hörhilfegeräts
EP1750481A2 (de) Automatische Verstärkungseinstellung bei einem Hörhilfegerät
EP3836139B1 (de) Verfahren, bei welchem zwei hörgeräte miteinander gekoppelt werden, sowie hörgerät
EP3840418A1 (de) Verfahren zur anpassung eines hörinstruments und zugehöriges hörsystem
DE102009043775A1 (de) Verfahren zum Einstellen einer Hörvorrichtung anhand eines emotionalen Zustandes und entsprechende Hörvorrichtung
DE102020202483A1 (de) Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102010041740A1 (de) Verfahren zur Signalverarbeitung in einem Hörhilfegerät sowie Hörhilfegerät
DE102007035171A1 (de) Verfahren zum Anpassen eines Hörgeräts mit Hilfe eines perzeptiven Modells
DE102019203786A1 (de) Hörgerätesystem
EP3793218B1 (de) Verfahren zum betrieb eines hörgeräts sowie hörgerät
EP2200341A1 (de) Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einer Quellentrennungseinrichtung
DE102006015497B4 (de) Audiosystem und Verfahren sowie Computerprogramm und Datenträger der das Computerprogramm enthält zur Anpassung der Übertragungsfunktion eines Audiosystems mittels Sprachsteuerung
EP1432282B1 (de) Verfahren zum Anpassen eines Hörgerätes an eine momentane akustische Umgebungssituation und Hörgerätesystem
DE102008046040A1 (de) Verfahren zum Betrieb einer Hörvorrichtung mit Richtwirkung und zugehörige Hörvorrichtung
EP2584795B1 (de) Verfahren zum Ermitteln einer Kompressionskennlinie
DE102012203349B4 (de) Verfahren zum Anpassen einer Hörvorrichtung anhand des Sensory Memory und Anpassvorrichtung
WO2019215200A1 (de) Verfahren zum betrieb eines hörsystems sowie hörsystem
DE102016207936A1 (de) Verfahren zum Betrieb eines Hörgeräts
EP1351550B1 (de) Verfahren zur Anpassung einer Signalverstärkung in einem Hörgerät sowie ein Hörgerät
DE102022212035A1 (de) Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
EP3211920B1 (de) Verfahren und vorrichtung zur konfiguration eines nutzerspezifischen hörsystems
EP1416764B1 (de) Verfahren zur Einstellung eines Hörgerätes sowie Vorrichtung zur Durchführung des Verfahrens

Legal Events

Date Code Title Description
R012 Request for examination validly filed