EP2648423A2 - Einstellen einer Hörgerätevorrichtung - Google Patents

Einstellen einer Hörgerätevorrichtung Download PDF

Info

Publication number
EP2648423A2
EP2648423A2 EP20130160286 EP13160286A EP2648423A2 EP 2648423 A2 EP2648423 A2 EP 2648423A2 EP 20130160286 EP20130160286 EP 20130160286 EP 13160286 A EP13160286 A EP 13160286A EP 2648423 A2 EP2648423 A2 EP 2648423A2
Authority
EP
European Patent Office
Prior art keywords
user
hearing
body part
hearing aid
acoustic signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP20130160286
Other languages
English (en)
French (fr)
Other versions
EP2648423A3 (de
EP2648423B1 (de
Inventor
Uwe Rass
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Siemens Medical Instruments Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Instruments Pte Ltd filed Critical Siemens Medical Instruments Pte Ltd
Publication of EP2648423A2 publication Critical patent/EP2648423A2/de
Publication of EP2648423A3 publication Critical patent/EP2648423A3/de
Application granted granted Critical
Publication of EP2648423B1 publication Critical patent/EP2648423B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present invention relates to a method for operating a hearing device by a user. Moreover, the present invention relates to a hearing device device for a user with a first hearing device, a second hearing device and optionally at least one further device. Under a hearing aid device is here any portable in or on the ear, a hearing aid fulfilling device understood, in particular a binaural hearing.
  • Hearing aids are portable hearing aids that are used to care for the hearing impaired.
  • different types of hearing aids such as behind-the-ear hearing aids (BTE), hearing aid with external receiver (RIC: receiver in the canal) and in-the-ear hearing aids (ITE), e.g. Concha hearing aids or canal hearing aids (ITE, CIC).
  • BTE behind-the-ear hearing aids
  • RIC hearing aid with external receiver
  • ITE in-the-ear hearing aids
  • ITE in-the-ear hearing aids
  • ITE in-the-ear hearing aids
  • ITE concha hearing aids or canal hearing aids
  • the hearing aids listed by way of example are worn on the outer ear or in the ear canal.
  • bone conduction hearing aids, implantable or vibrotactile hearing aids are also available on the market. The stimulation of the damaged hearing takes place either mechanically or electrically.
  • Hearing aids have in principle as essential components an input transducer, an amplifier and an output transducer.
  • the input transducer is usually a sound receiver, z. As a microphone, and / or an electromagnetic receiver, for. B. an induction coil.
  • the output transducer is usually used as an electroacoustic transducer, z. As miniature speaker, or as an electromechanical transducer, z. B. bone conduction, realized.
  • the amplifier is usually integrated in a signal processing unit. This basic structure is in FIG. 1 shown using the example of a behind-the-ear hearing aid. In a hearing aid housing 1 for carrying behind the ear are one or more microphones 2 to Built-in sound recording from the environment.
  • a signal processing unit 3 which is also integrated in the hearing aid housing 1, processes the microphone signals and amplifies them.
  • the output signal of the signal processing unit 3 is transmitted to a loudspeaker or earpiece 4, which outputs an acoustic signal.
  • the sound is optionally transmitted via a sound tube, which is fixed with an earmold in the ear canal, to the eardrum of the device carrier.
  • the power supply of the hearing device and in particular the signal processing unit 3 is effected by a likewise integrated into the hearing aid housing 1 battery. 5
  • hearing aids do not have correspondingly designed surfaces in order to be able to detect such gestures or wiping movements. Nevertheless, it would be desirable if hearing aids could also be intuitively controlled via gestures.
  • smartphones offer the ability to enter text or phone numbers using voice recognition. Again, however, the user has to activate the device using the touch screen.
  • hearing aids with a so-called “toggle” or a push-button on the device, but also with a remote control.
  • z. B. a hearing aid program can be selected.
  • Some devices reproduce the selected program number or function by voice to the user.
  • a hearing aid or communication system with virtual signal sources is known.
  • the user of this system is to be provided with an easier assignment or differentiation in the system generated acoustic signals to inform the user about current settings or conditions of the system.
  • the signal is output by the hearing aid or communication system such that for the user the signals from different signal sources seem to come from the space surrounding the user.
  • the acoustic signals carry additional information that the user consciously or unconsciously perceives.
  • the object of the present invention is to make the operation of a hearing aid device more comfortable.
  • this object is achieved by a method for operating a hearing device by a user, by presenting a first acoustic signal by means of the hearing device as originating from a first virtual position, wherein the first acoustic signal represents a first setting option of the hearing aid device, and presenting a second acoustic
  • the second acoustic signal represents a second setting option of the hearing aid device, moving a body part of the user to the first or second virtual position, detecting a position or movement of the body part of the user, automatically assigning the detected position or movement of the body part to the first or second virtual position, whereby the setting option corresponding to the associated virtual position is selected.
  • the invention provides a hearing device device for a user with a first hearing device, a second hearing device and optionally at least one other Device, wherein the hearing aids are optionally formed together with the at least one further device for presenting a first acoustic signal as originating from a first virtual position, wherein the first acoustic signal represents a first setting option of the hearing aid device, presenting a second acoustic signal as from a second originating from the virtual position, wherein the second acoustic signal represents a second adjustment option of the hearing aid device, detecting a position or movement of a body part of the user, and automatically associating the detected position or movement of the body part with the first or second virtual position, thereby determining the associated virtual position corresponding setting option is selected.
  • a plurality of setting options are acoustically displayed to a user in that representatives for the respective settings are generated as sound stimuli from different spatial positions.
  • each setting option is assigned a location in the room. This location can then be intuitively pointed out by positioning, aligning or moving a body part. This information can be automatically detected and assigned to the respective setting option. This provides a very comfortable choice of setting options of the hearing aid device.
  • the first and second acoustic signals are generated using a head related transfer function.
  • a head-related transfer function ensures that the acoustic influences of the user's head are taken into account in the generation of the acoustic signals. This allows the acoustic signals to be presented more reliably from a certain direction.
  • each of the acoustic signals may be accomplished by operating an actuator, moving a body part, or detecting a keyword spoken by the user be triggered. This ensures that the acoustic signal is presented exactly when the user wishes this by a self-performed action.
  • the detection of the position or movement of the body part takes place on the basis of the geomagnetic field.
  • relative movements can be detected reliably, for example independently of the optical conditions.
  • other sensors can be used.
  • acceleration sensors can detect movements of a body part.
  • the automatic assignment of the detected position or movement of the body part to one of the virtual positions can be triggered by actuating an actuating element, moving a body part or detecting a keyword spoken by the user. Not only can the initiation of an audible signal be initiated by a user action, but also the end of the voting process, which ultimately initiates the automatic mapping process.
  • the body part of the user can be his head. This allows the user to select the available configuration options by turning or raising and lowering the head.
  • the body part of the user may also be one of his hands or fingers.
  • the user can select, for example, by interpreting in one direction or by wiping and the like a special setting option.
  • the choice of a setting option is made by the user turning his head in a certain direction representing his selected setting option and then confirming his choice by nodding the head, whereby the corresponding setting option is considered selected.
  • the user can also, for example, in situations where he is to select an adjustment option has no hand free, choose his desired setting option with simple head movements.
  • One of the setting options may relate to a hearing aid program, a volume, a pitch, a directional characteristic, a noise suppression, a hearing content or the like.
  • any parameter that can be set on a hearing device or a hearing system can be selected by the acoustic presentation of the invention.
  • Touchscreens typically display so-called icons or options that can be selected with the finger. However, if, as with hearing aids or hearing aid devices, there are no screens available or the user is unable to see them, the options will be as shown in FIG. 2 presented acoustically. In order to be able to distinguish between the selectable options, the acoustic signals or their sources 10, 11 and 12 are virtually positioned around the user 13. The presentation takes place here by two hearing aids 14, 15, with which the user 13 is supplied binaurally.
  • HRTF Head Related Transfer Function
  • the user 13 should have three setting options. Accordingly, when representing the three setting options or options, three acoustic signals 10, 11 and 12 are presented from different directions. This direction-dependent presentation is carried out by the two hearing aids 14, 15, with which the user 13 the impression can be awakened as if a first acoustic signal 10 from the front left, a second acoustic signal 11 from the center of the front and a third acoustic signal 12th from the front right.
  • the two hearing aids 14, 15 are preferably coupled together by a wireless data connection.
  • the presentation of the individual acoustic signals 10 to 12 takes place in succession and is triggered in each case by an active activity of the user.
  • the performance is thus triggered by user interactions.
  • the triggering can be done, for example, by pressing a button, by speaking a keyword to be recognized by a speech recognition algorithm, or by a gesture of the user to be detected.
  • the number of options for setting the hearing aid device with the two hearing aids 14 and 15 can also be two or more than three.
  • the half-space in front of the user 13 is directionally divided into a corresponding number of sectors in which the virtual sound waves are arranged.
  • the sectors are approximately the same size.
  • FIG. 3 shows on the left side of the actions that the user NU must perform, and on the right side of the process steps that occur in the hearing aid or hearing aid device HG.
  • the user NU wants to set his hearing aid device HG.
  • he initiates the setting process with a first action AKT1.
  • This action AKT1 can be the actuation of a button on one of the hearing aids 14, 15 or on a remote control, but also, for example, a keyword that the user NU or 13 pronounces and is detected by the hearing device by voice recognition.
  • the entire adjustment procedure and / or a presentation of a first option is initiated by the hearing aid device HG.
  • the reproduction of an acoustic signal 10 is triggered from a virtual left front position. Ie. the acoustic reproduction of the two hearing aids 14 and 15 is carried out so that the sound in question seems to come from the direction or position front left.
  • the hearing device HG executes the presentation of the first acoustic signal SIG1.
  • the user NU executes a second action AKT2 (eg pressing a button, pronouncing a keyword, etc.).
  • the hearing device HG then outputs a second acoustic signal SIG2.
  • the signal SIG2 is the acoustic signal 11 apparently arriving from the front with respect to the head of the user 13 (cf. FIG. 2 ). If appropriate, one or more such pairs of steps follow, which consist of an action of the user NU and a signal output of the hearing device HG.
  • the user Upon completion or the acoustic performance of all configuration options, the user performs another action, which here consists of a head movement BEW, which in FIG. 2 marked with the arrow 16.
  • BEW head movement
  • the user NU moves his head or another body part such as.
  • the hearing aid device must now be able to register this movement of the head. For this purpose, a corresponding detection step DET is necessary.
  • the detection is based for example on the basis of the version of the earth's magnetic field 17.
  • the hearing device device with the two hearing aids 14 and 15 and possibly one or more other devices initially registers the virtual positions or directions of the latter first acoustic signal 10, second acoustic signal 11, etc. with respect to the earth's magnetic field 17 (north pole N). If the user 13 now turns his head, this can be detected by means of the hearing aid device HG.
  • the user NU now wants to make a choice of one of the setting options he must not only move or rotate his body part in the relevant direction or to the relevant virtual position, but he must then also perform a corresponding confirmation BEST.
  • the user 13 turns according to FIG. 2
  • the hearing device HG triggered by this nodding, registers the direction or position of the head of the user 13 and assigns the detected position or direction to the corresponding setting option, which is represented by the selected virtual sound incidence direction. Based on this assignment then takes place in the hearing aid device HG an appropriate setting SET.
  • setting that corresponds to the selected setting option is carried out in the hearing aid device that setting that corresponds to the selected setting option.
  • a specific hearing aid program eg for a telephone situation, for speech at rest
  • the adjustment of the volume in several stages can be made.
  • other settings such as the stepwise setting of a noise suppression or different directional characteristics can also be made by the acoustic menu selection.
  • the selection of options can be done by different ways. For example, acceleration and / or position sensors can be used. Alternatively, the option can also be selected by manual operation.
  • an acceleration and / or position sensor it can be applied to the user's head (eg in one of the hearing aids) or to the user's hand (eg as a finger ring or wrist strap) or in the hand (eg as a pen that is held) be realized.
  • An acceleration sensor detects a movement, e.g. When the head is moved to the right.
  • Position sensors detect the orientation, for example, with respect to the earth's magnetic field, as shown above. For example, if the user has two wireless audio sources available in a room (eg, TV and stereo), the television audio signal is virtually presented on the left side of the user and the audio on the right side stereo system (preferably triggered sequentially) through a suitable trigger action). When the user now turns his head to the left, the sensors detect the movement, and the audio signal of the television is presented binaurally.
  • the audio signal of the stereo is binaurally presented.
  • the user turns his head to the appropriate page and nods his head, for example.
  • the acceleration sensors will detect this confirmation signal and select the respective audio source for further performance.
  • the same selection principle can be realized when the sensor or sensors are mounted on the user's hand.
  • gestures such as. B. wiping movements, to the left or right, the corresponding audio source is offered as a choice.
  • the wiping movement or gesture can be carried out in the air, without the need for a specific sensor surface.
  • a confirmation gesture (eg nodding) confirms the selection of the acoustic signal or the setting option.
  • the confirmation or confirmation movement can be detected by the same sensors, which also detect the movement of the body part of the user, with which the choice of the respective setting options should be indicated.
  • the choice of a setting option can according to another embodiment also with a so-called "touchpad”, as it is known from notebooks, or by a conventional touchscreen (as it is typically known from smartphones or tablet computers).
  • the hearing aid device comprises in this case just a touchpad or a touchscreen.
  • the acoustic presentation of the options takes place instead of an optical one Presentation of options on a screen. This is particularly beneficial for people who suffer from impaired sense of the sea or are even blind.
  • such a system may be advantageous in situations where the user is unable to view a screen (eg while driving).
  • the moving body part is a user's finger pointing toward the first or second virtual position or moving in a corresponding direction.
  • the position or movement of the finger is then detected using the touchpad or touchscreen and there is a corresponding assignment to the respective setting option. As confirmation you can doubleclick or click here.
  • the choice of options of a hearing aid device or a hearing aid based on body gestures and virtual acoustic presentation of the options is made possible.
  • the advantage in this is the improved accessibility and usability of modern hearing aids. These benefits are particularly relevant for those with visual impairment or limited motor skills.
  • the choice of options is made automatically by sensors that are in hearing aids or other body-worn devices.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Neurosurgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Das Betreiben von Hörgerätevorrichtungen soll komfortabler gestaltet werden. Dazu wird ein Verfahren zum Betreiben einer Hörgerätevorrichtung durch einen Nutzer durch Darbieten eines ersten akustischen Signals (10) mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position stammend und durch Darbieten eines zweiten akustischen Signals (11) mittels der Hörgerätevorrichtung als von einer zweiten virtuellen Position stammend vorgeschlagen. Dabei repräsentiert das erste akustische Signal (10) eine erste Einstelloption der Hörgerätevorrichtung und das zweite akustische Signal (11) eine zweite Einstelloption. Es erfolgt ein Bewegen des Körperteils des Nutzers (13) zu der ersten oder zweiten virtuellen Position und ein Detektieren einer Position oder Bewegung des Körperteils des Nutzers. Schließlich erfolgt ein automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben einer Hörgerätevorrichtung durch einen Nutzer. Darüber hinaus betrifft die vorliegende Erfindung eine Hörgerätevorrichtung für einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens einem weiteren Gerät. Unter einer Hörgerätevorrichtung wird hier jedes im oder am Ohr tragbare, eine Hörhilfefunktion erfüllende Gerät verstanden, insbesondere ein binaurales Hörsystem.
  • Hörgeräte sind tragbare Hörvorrichtungen, die zur Versorgung von Schwerhörenden dienen. Um den zahlreichen individuellen Bedürfnissen entgegenzukommen, werden unterschiedliche Bauformen von Hörgeräten wie Hinter-dem-Ohr-Hörgeräte (HdO), Hörgerät mit externem Hörer (RIC: receiver in the canal) und In-dem-Ohr-Hörgeräte (IdO), z.B. auch Concha-Hörgeräte oder Kanal-Hörgeräte (ITE, CIC), bereitgestellt. Die beispielhaft aufgeführten Hörgeräte werden am Außenohr oder im Gehörgang getragen. Darüber hinaus stehen auf dem Markt aber auch Knochenleitungshörhilfen, implantierbare oder vibrotaktile Hörhilfen zur Verfügung. Dabei erfolgt die Stimulation des geschädigten Gehörs entweder mechanisch oder elektrisch.
  • Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in FIG 1 am Beispiel eines Hinter-dem-Ohr-Hörgeräts dargestellt. In ein Hörgerätegehäuse 1 zum Tragen hinter dem Ohr sind ein oder mehrere Mikrofone 2 zur Aufnahme des Schalls aus der Umgebung eingebaut. Eine Signalverarbeitungseinheit 3, die ebenfalls in das Hörgerätegehäuse 1 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 3 wird an einen Lautsprecher bzw. Hörer 4 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Geräteträgers übertragen. Die Energieversorgung des Hörgeräts und insbesondere die der Signalverarbeitungseinheit 3 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 1 integrierte Batterie 5.
  • Zahlreiche elektronische Geräte verfügen über mehrere Einstellmöglichkeiten. Um die Einstellungsmöglichkeiten dem Nutzer darbieten zu können, werden sie häufig optisch in einer Menüstruktur dargeboten. Als Nutzerschnittstelle zum Bedienen des Menüs dient beispielsweise ein Touchscreen, der z. B. bei so genannten Smartphones zur Menüsteuerung verwendet wird. Dabei werden Optionen durch Gesten oder Wischbewegungen auf dem Bildschirm gewählt.
  • Hörgeräte besitzen jedoch nicht entsprechend gestaltete Oberflächen, um solche Gesten bzw. Wischbewegungen detektieren zu können. Dennoch wäre es wünschenswert, wenn auch Hörgeräte über Gesten intuitiv steuerbar wären.
  • Darüber hinaus bieten Smartphones die Möglichkeiten, Text oder Telefonnummern mittels Spracherkennung einzugeben. Auch hierzu hat der Nutzer jedoch das Gerät mithilfe des Touchscreen zu aktivieren.
  • Des Weiteren ist bekannt, Hörgeräte mit einem so genannten "Toggle" oder einen Druckknopf auf dem Gerät, aber auch mit einer Fernbedienung zu betätigen. Auf diese Weise kann z. B. ein Hörgeräteprogramm gewählt werden. Einige Geräte geben die gewählte Programmnummer oder Funktion mittels Sprache dem Benutzer wieder.
  • Aus der Druckschrift EP 1 619 928 A1 ist ein Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen bekannt. Dem Benutzer dieses Systems soll eine leichtere Zuordnung bzw. Unterscheidung in dem System erzeugter akustischer Signale zur Information des Benutzers über aktuelle Einstellungen bzw. Zustände des Systems ermöglicht werden. Hierzu erfolgt die Signalabgabe durch das Hörhilfe- oder Kommunikationssystem derart, dass für den Benutzer die Signale aus unterschiedlichen Signalquellen aus dem den Benutzer umgebenden Raum zu kommen scheinen. Die akustischen Signale tragen dadurch eine von dem Benutzer bewusst oder unbewusst wahrnehmbare zusätzliche Information.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, das Betreiben einer Hörgerätevorrichtung komfortabler zu gestalten.
  • Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Betreiben einer Hörgerätevorrichtung durch einen Nutzer, durch Darbieten eines ersten akustischen Signals mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, und Darbieten eines zweiten akustischen Signals mittels der Hörgerätevorrichtung als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert, Bewegen eines Körperteils des Nutzers zu der ersten oder zweiten virtuellen Position, Detektieren einer Position oder Bewegung des Körperteils des Nutzers, automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
  • Darüber hinaus wird erfindungsgemäß bereitgestellt eine Hörgerätevorrichtung für einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens einem weiteren Gerät, wobei die Hörgeräte optional zusammen mit dem mindestens einen weiteren Gerät ausgebildet sind zum Darbieten eines ersten akustischen Signals als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, Darbieten eines zweiten akustischen Signals als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert, Detektieren einer Position oder Bewegung eines Körperteils des Nutzers, und automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
  • In vorteilhafter Weise werden also mehrere Einstelloptionen akustisch einem Nutzer dadurch aufgezeigt, dass Repräsentanten für die jeweiligen Einstellungen als Schallreiz von unterschiedlichen räumlichen Positionen erzeugt werden. Dadurch wird jeder Einstelloption ein Ort im Raum zugeordnet. Auf diesen Ort kann dann einfach intuitiv durch Positionieren, Ausrichten oder Bewegen eines Körperteils hingewiesen werden. Dieses Hinweisen lässt sich automatisch detektieren und der jeweiligen Einstelloption zuordnen. Damit ist eine sehr komfortable Wahlmöglichkeit von Einstelloptionen der Hörgerätevorrichtung gegeben.
  • Vorzugsweise werden das erste und zweite akustische Signal mithilfe einer kopfbezogenen Übertragungsfunktion erzeugt. Eine derartige kopfbezogene Übertragungsfunktion gewährleistet, dass die akustischen Einflüsse des Kopfes des Nutzers bei der Erzeugung der akustischen Signale berücksichtigt werden. Damit können die akustischen Signale zuverlässiger aus einer bestimmten Richtung kommend dargeboten werden.
  • Das Darbieten jedes der akustischen Signale kann durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen werden. Hierdurch wird erreicht, dass das akustische Signal genau dann dargeboten wird, wenn der Nutzer dies durch eine selbst durchgeführte Aktion wünscht.
  • Besonders vorteilhaft ist, wenn das Detektieren der Position oder Bewegung des Körperteils anhand des Erdmagnetfelds erfolgt. Mithilfe des Erdmagnetfelds lassen sich relative Bewegungen beispielsweise unabhängig von optischen Gegebenheiten zuverlässig erfassen. Alternativ können aber auch andere Sensoren eingesetzt werden. So können beispielsweise Beschleunigungssensoren Bewegungen eines Körperteils erfassen.
  • Das automatische Zuordnen der detektierten Position oder Bewegung des Körperteils zu einer der virtuellen Positionen kann durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen werden. Es kann damit nicht nur das Darbieten eines akustischen Signals durch eine Benutzeraktion initiiert werden, sondern auch das Ende des Wahlvorgangs, wodurch schließlich der automatische Zuordnungsvorgang eingeleitet wird.
  • Das Körperteil des Nutzers kann sein Kopf sein. Damit kann der Nutzer durch Drehen oder Heben und Senken des Kopfes die zur Verfügung stehenden Einstelloptionen auswählen.
  • Alternativ kann das Körperteil des Nutzers auch eine seiner Hände oder Finger sein. Damit kann der Nutzer beispielsweise durch Deuten in eine Richtung oder durch Wischen und dergleichen eine spezielle Einstelloption wählen.
  • Besonders bevorzugt ist, wenn die Wahl einer Einstelloption dadurch erfolgt, dass der Nutzer seinen Kopf in eine bestimmte Richtung dreht, die seine gewählte Einstelloption repräsentiert, und er anschließend seine Wahl durch ein Nicken des Kopfes bestätigt, wodurch die korrespondierten Einstelloption als gewählt gilt. Somit kann der Nutzer auch beispielsweise in Situationen, in denen er zum Wählen einer Einstelloption keine Hand frei hat, mit einfachen Kopfbewegungen seine gewünschte Einstelloption wählen.
  • Eine der Einstelloptionen kann ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe, eine Richtcharakteristik, eine Rauschunterdrückung, einen Hörinhalt oder dergleichen betreffen. Im Grunde genommen kann jeder Parameter, der sich an einem Hörgerät oder einem Hörsystem einstellen lässt, durch die erfindungsgemäße akustische Darbietungsweise gewählt werden.
  • Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
  • FIG 1
    den prinzipiellen Aufbau eines Hörgeräts gemäß dem Stand der Technik;
    FIG 2
    eine schematische Ansicht zur akustischen, räumlichen Darbietung eines Auswahlmenüs und
    FIG 3
    einen beispielhaften Verfahrensablauf.
  • Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
  • Touchscreens zeigen typischerweise so genannte Icons oder Optionen, die mit dem Finger gewählt werden können. Wenn jedoch, wie bei Hörgeräten bzw. Hörgerätevorrichtungen keine Bildschirme zur Verfügung stehen, oder der Nutzer nicht in der Lage ist, sie zu sehen, werden die Optionen gemäß FIG 2 akustisch dargeboten. Um die wählbaren Optionen unterscheiden zu können, werden die akustischen Signale bzw. deren Quellen 10, 11 und 12 virtuell um den Nutzer 13 positioniert. Das Darbieten erfolgt hier durch zwei Hörgeräte 14, 15, mit denen der Nutzer 13 binaural versorgt wird.
  • Um die Quellen 10 bis 12 an den gewünschten Orten virtuell zu platzieren, ist es notwendig, die akustischen Gegebenheiten am Kopf des Nutzers nachzubilden. Nur so lassen sich akustische Signale erzeugen, die der Nutzer auch aus einer bestimmten Richtung kommend wahrnimmt. Hierfür genügt in der Regel eine so genannte kopfbezogene Übertragungsfunktion (HRTF: Head Related Transfer Function).
  • In einem konkreten Beispiel soll der Nutzer 13 drei Einstellmöglichkeiten besitzen. Dementsprechend werden beim Repräsentieren der drei Einstellmöglichkeiten bzw. -optionen drei akustische Signale 10, 11 und 12 aus unterschiedlichen Richtungen dargeboten. Dieses richtungsabhängige Darbieten erfolgt durch die beiden Hörgeräte 14, 15, mit denen beim Nutzer 13 der Eindruck erweckt werden kann, als käme ein erstes akustisches Signal 10 von vorne links, ein zweites akustisches Signal 11 aus der Mitte von vorn und ein drittes akustisches Signal 12 von vorne rechts. Um diese virtuelle Positionierung von Schallquellen zu erreichen, sind die beiden Hörgeräte 14, 15 vorzugsweise durch eine kabellose Datenverbindung miteinander gekoppelt.
  • Das Darbieten der einzelnen akustischen Signale 10 bis 12 erfolgt nacheinander und wird jeweils durch eine aktive Tätigkeit des Nutzers angestoßen. Die Darbietung wird also durch Benutzerinteraktionen getriggert. Das Triggern kann beispielsweise durch Drücken eines Knopfs, durch Sprechen eines von einem Spracherkennungsalogrithmus zu erkennenden Schlüsselworts oder durch eine zu detektierende Geste des Nutzers erfolgen.
  • In dem obigen Beispiel sind drei Optionen gewählt. Die Anzahl der Optionen für das Einstellen der Hörgerätevorrichtung mit den zwei Hörgeräten 14 und 15 kann aber auch zwei betragen oder größer als drei sein. Vorzugsweise ist dann der Halbraum vor dem Nutzer 13 richtungsmäßig in eine entsprechende Anzahl an Sektoren unterteilt, in denen die virtuellen Schallwellen angeordnet sind. Vorzugsweise sind die Sektoren in etwa gleich groß.
  • Im Zusammenhang mit FIG 3 wird ein Beispiel des erfindungsgemäßen Verfahrens erläutert. FIG 3 zeigt hierzu auf der linken Seite die Aktionen, die der Nutzer NU durchführen muss, und auf der rechten Seite die Verfahrensschritte, die im Hörgerät bzw. Hörgerätevorrichtung HG ablaufen. Der Nutzer NU will also seine Hörgerätevorrichtung HG einstellen. Dazu stößt er mit einer ersten Aktion AKT1 den Einstellvorgang an. Bei dieser Aktion AKT1 kann es sich um die Betätigung eines Knopfs an einem der Hörgeräte 14, 15 oder auf einer Fernbedienung, aber auch beispielsweise um ein Schlüsselwort handeln, das der Nutzer NU bzw. 13 ausspricht und von der Hörgerätevorrichtung durch Spracherkennung erfasst wird.
  • Durch die erste Aktion AKT1 wird die gesamte Einstellprozedur und/oder ein Darbieten einer ersten Option durch die Hörgerätevorrichtung HG initiiert. Konkret wird also beispielsweise durch ein Knopfdrücken die Wiedergabe eines akustischen Signals 10 von einer virtuellen Position links vorne ausgelöst. D. h. die akustische Wiedergabe über die beiden Hörgeräte 14 und 15 erfolgt so, dass der betreffende Schall von der Richtung bzw. Position vorne links zu kommen scheint. Die Hörgerätevorrichtung HG führt also getriggert durch die Aktion AKT1 des Nutzers NU die Darbietung des ersten akustischen Signals SIG1 aus.
  • Anschließend führt der Nutzer NU eine zweite Aktion AKT2 (z. B. Knopfdruck, Aussprechen eines Schlüsselworts etc.) aus. Daraufhin gibt die Hörgerätevorrichtung HG ein zweites akustisches Signal SIG2 aus. Dies scheint für den Nutzer NU bzw. 13 aus einer anderen Richtung oder von einer anderen virtuellen Position zu stammen. Beispielsweise handelt es sich bei dem Signal SIG2 um das, bezogen auf den Kopf des Nutzers 13 scheinbar von vorne eintreffenden akustischen Signals 11 (vgl. FIG 2). Gegebenenfalls schließen sich einer oder mehrere derartige Schrittpaare an, die aus einer Aktion des Nutzers NU und einer Signalausgabe der Hörgerätevorrichtung HG bestehen.
  • Nach Abschluss oder zu der akustischen Darbietung sämtlicher Einstelloptionen führt der Nutzer eine weitere Aktion aus, die hier aus einer Kopfbewegung BEW besteht, welche in FIG 2 mit dem Pfeil 16 gekennzeichnet ist. Bei dieser Bewegung BEW bewegt der Nutzer NU seinen Kopf bzw. ein anderes Körperteil wie z. B. einen Arm oder eine Hand, in diejenige Richtung bzw. zu der virtuellen Position, die er bei der Darbietung der einzelnen Optionen wahrgenommen hat oder bei der er die gewünschte Darbietung bekommt. Die Hörgerätevorrichtung muss nun diese Bewegung des Kopfes registrieren können. Hierzu ist ein entsprechender Detektionsschritt DET notwendig.
  • Die Detektion basiert beispielsweise auf der Basis der Fassung des Erdmagnetfelds 17. Die Hörgerätevorrichtung mit den beiden Hörgeräten 14 und 15 und gegebenenfalls einem oder mehreren weiteren Geräten (z. B. Fernbedienung, Induktionsband etc.) registriert hierfür zunächst die virtuellen Positionen bzw. Richtungen des ersten akustischen Signals 10, zweiten akustischen Signals 11 etc. in Bezug auf das Erdmagnetfeld 17 (Nordpol N). Dreht nun der Nutzer 13 seinen Kopf, so kann dies mithilfe der Hörgerätevorrichtung HG detektiert werden.
  • Will nun der Nutzer NU eine Wahl einer der Einstelloptionen treffen, so muss er dazu nicht nur sein Körperteil in die betreffende Richtung bzw. zu der betreffenden virtuellen Position bewegen oder drehen, sondern er muss dann auch eine entsprechende Bestätigung BEST durchführen. In einem einfachen Fall dreht der Nutzer 13 gemäß FIG 2 also beispielsweise seinen Kopf gemäß Pfeil 16 nach links zu der virtuellen Richtung bzw. Position aus der das erste akustische Signal 10 eintrifft, und anschließend nickt er gemäß dem Symbol 18 mit seinem Kopf. Die Hörgerätevorrichtung HG registriert durch dieses Nicken angestoßen die Richtung bzw. Position des Kopfs des Nutzers 13 und ordnet die detektierte Position bzw. Richtung der entsprechenden Einstelloption zu, die durch die gewählte virtuelle Schalleinfallsrichtung repräsentiert wird. Anhand dieser Zuordnung erfolgt dann in der Hörgerätevorrichtung HG eine entsprechende Einstellung EINST. Es wird also in der Hörgerätevorrichtung diejenige Einstellung durchgeführt, die der gewählten Einstelloption entspricht. Dabei kann ein bestimmtes Hörgeräteprogramm (z. B. für eine Telefonsituation, für Sprache in Ruhe) etc. oder einfach die Einstellung der Lautstärke in mehreren Stufen vorgenommen werden. Es können aber auch andere Einstellungen wie die stufenweise Einstellung einer Geräuscheunterdrückung oder verschiedene Richtcharakteristiken durch die akustische Menüwahl getroffen werden.
  • Die Auswahl der Optionen kann durch unterschiedliche Arten erfolgen. So können beispielsweise Beschleunigungs- und/oder Positionssensoren eingesetzt werden. Alternativ kann die Optionswahl auch durch manuelle Betätigung erfolgen.
  • Bei Einsatz eines Beschleunigungs- und/oder Positionssensor kann dieser am Kopf des Nutzers (z. B. in einem der Hörgeräte) oder an der Hand des Nutzers (z. B. als Fingerring oder Gelenkband) oder auch in der Hand (z. B. als Stift, der gehalten wird) realisiert sein.
  • Nachfolgend wird ein weiteres Ausführungsbeispiel erläutert, bei dem die Schritte des Bewegens eines Körperteils, des Detektierens der Position oder Bewegung des Körperteils und des automatischen Zuordnens zu einer Einstelloption vor dem Bearbeiten der akustischen Signale erfolgt.
    Ein Beschleunigungssensor detektiert eine Bewegung, z. B. wenn der Kopf nach rechts bewegt wird. Positionssensoren detektieren die Orientierung beispielsweise in Bezug auf das Erdmagnetfeld, wie oben dargestellt wurde. Wenn dem Nutzer beispielsweise in einem Raum zwei drahtlose Audioquellen zur Verfügung stehen (z. B. Fernseher und Stereoanlage), wird beispielsweise das Fernseh-Audiosignal virtuell auf der linken Seite des Nutzers dargeboten und das Audiosignal der Stereoanlage auf der rechten Seite (vorzugsweise nacheinander ausgelöst durch eine passende Triggeraktion). Wenn der Nutzer nun seinen Kopf nach links dreht, detektieren die Sensoren die Bewegung, und das Audiosignal des Fernsehers wird binaural dargeboten. Wenn andererseits der Kopf nach rechts bewegt wird, wird das Audiosignal der Stereoanlage binaural präsentiert. Um nun eine der beiden Quellen zu wählen, dreht der Nutzer seinen Kopf auf die entsprechende Seite und nickt beispielsweise mit dem Kopf. Die Beschleunigungssensoren werden dieses Bestätigungssignal detektieren und die jeweilige Audioquelle zur weiteren Darbietung auswählen.
  • Das gleiche Auswahlprinzip lässt sich realisieren, wenn der bzw. die Sensoren an der Hand des Nutzers montiert sind. Durch Gesten, wie z. B. Wischbewegungen, nach links oder rechts wird die entsprechende Audioquelle als Wahloption dargeboten. Dabei kann die Wischbewegung bzw. Geste in der Luft durchgeführt werden, ohne dass es einer bestimmten Sensoroberfläche bedarf. Eine Bestätigungsgeste (z. B. Nicken) bestätigt die getroffene Wahl des akustischen Signals bzw. der Einstelloption. Das Bestätigen bzw. die Bestätigungsbewegung kann durch die gleichen Sensoren detektiert werden, die auch das Bewegen des Körperteils des Nutzers detektieren, mit dem die Wahl der jeweiligen Einstelloptionen angedeutet werden soll.
  • Anstatt der Wahl der Audioquellen können auch andere Optionen auf diese Art und Weise gewählt werden. Beispiele hierfür sind, wie oben bereits erwähnt: Wahl eines Hörprogramms in den Hörgeräten, Lautstärke aufwärts/abwärts und Geräuschreduktionseinstellungen speziell für das Steuern eines Beamformers.
  • Die Wahl einer Einstelloption kann gemäß einer weiteren Ausführungsform auch mit einem so genannten "Touchpad", wie es von Notebooks bekannt ist, oder durch ein übliches Touchscreen (wie es typischerweise von Smartphones oder Tablett-Computern bekannt ist) erfolgen. Die Hörgerätevorrichtung umfasst in diesem Fall eben ein Touchpad oder einen Touchscreen. Wie in dem Beispiel zuvor erfolgt auch hier die akustische Präsentation der Optionen anstelle einer optischen Präsentation der Optionen auf einem Bildschirm. Dies ist insbesondere für Personen vorteilhaft, die unter Beeinträchtigung des Seesinns leiden oder die gar blind sind. Außerdem kann ein derartiges System in Situationen vorteilhaft sein, wo der Nutzer nicht in der Lage ist, auf einen Bildschirm zu sehen (z. B. während des Autofahrens).
  • In diesem Ausführungsbeispiel ist dann das bewegte Körperteil ein Finger des Nutzers, der hin zu der ersten oder zweiten virtuellen Position zeigt oder sich in eine entsprechende Richtung bewegt. Die Position oder Bewegung des Fingers wird dann mithilfe des Touchpad oder Touchscreen detektiert und es erfolgt eine entsprechende Zuordnung zur jeweiligen Einstelloption. Als Bestätigung kann hier ein Doppelklick oder ein einfacher Klick dienen.
  • Die Merkmale obiger Ausführungsformen können beliebig miteinander kombiniert werden.
  • Entsprechend der vorliegenden Erfindung wird somit die Wahl von Optionen einer Hörgerätevorrichtung bzw. eines Hörgeräts auf der Basis von Körpergesten und virtueller akustischer Präsentation der Optionen ermöglicht. Der Vorteil darin ist die verbesserte Zugänglichkeit und Verwendbarkeit moderner Hörgeräte. Diese Vorteile kommen insbesondere bei Personen mit Sehschäden oder begrenzten motorischen Fähigkeiten zum Tragen. Die Wahl der Optionen erfolgt hierbei automatisch durch Sensoren, die sich in Hörgeräten oder anderen am Körper getragenen Geräten befinden.

Claims (10)

  1. Verfahren zum Betreiben einer Hörgerätevorrichtung (HG) durch einen Nutzer (NU, 13)
    gekennzeichnet durch
    - Darbieten eines ersten akustischen Signals (10) mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, und
    - Darbieten eines zweiten akustischen Signals (11) mittels der Hörgerätevorrichtung als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,
    - Bewegen eines Körperteils des Nutzers (NU, 13) zu der ersten oder zweiten virtuellen Position,
    - Detektieren einer Position oder Bewegung des Körperteils des Nutzers,
    - automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
  2. Verfahren nach Anspruch 1, wobei das erste und zweite akustische Signal (10, 11) mithilfe einer kopfbezogenen Übertragungsfunktion erzeugt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Darbieten jedes der akustischen Signale (10, 11) durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer (NU, 13) gesprochenen Schlüsselworts angestoßen wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Detektieren der Position oder Bewegung des Körperteils anhand des Erdmagnetfelds (17) erfolgt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das automatische Zuordnen durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Körperteil des Nutzers ((NU, 13) sein Kopf ist.
  7. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Körperteil des Nutzers (NU, 13) eine seiner Hände ist.
  8. Verfahren nach Anspruch 5 und 6, wobei das Bewegen des Körperteils ein Nicken des Kopfes des Nutzers ist.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine der Einstelloptionen ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe, eine Richtcharakteristik, eine Rauschunterdrückung oder einen Hörinhalt betrifft.
  10. Hörgerätevorrichtung (HG) für einen Nutzer (NU, 13) mit einem ersten Hörgerät (14), einem zweiten Hörgerät (15) und optional mindestens einem weiteren Gerät,
    dadurch gekennzeichnet, dass
    die Hörgeräte (14, 15) optional zusammen mit dem mindestens einen weiteren Gerät ausgebildet sind zum
    - Darbieten eines ersten akustischen Signals (10) als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert,
    - Darbieten eines zweiten akustischen Signals (11) als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,
    - Detektieren einer Position oder Bewegung eines Körperteils des Nutzers (NU, 13), und
    - automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
EP13160286.4A 2012-04-05 2013-03-21 Einstellen einer Hörgerätevorrichtung Active EP2648423B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210205634 DE102012205634B4 (de) 2012-04-05 2012-04-05 Einstellen einer Hörgerätevorrichtung

Publications (3)

Publication Number Publication Date
EP2648423A2 true EP2648423A2 (de) 2013-10-09
EP2648423A3 EP2648423A3 (de) 2014-03-05
EP2648423B1 EP2648423B1 (de) 2015-07-08

Family

ID=47913171

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13160286.4A Active EP2648423B1 (de) 2012-04-05 2013-03-21 Einstellen einer Hörgerätevorrichtung

Country Status (3)

Country Link
EP (1) EP2648423B1 (de)
DE (1) DE102012205634B4 (de)
DK (1) DK2648423T3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887428A (zh) * 2021-09-30 2022-01-04 西安工业大学 一种基于上下文信息的深度学习成对模型人耳检测方法
WO2024067994A1 (de) * 2022-09-30 2024-04-04 Mic Audio Solutions Gmbh System und verfahren zum verarbeiten von mikrofonsignalen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1619928A1 (de) 2004-07-20 2006-01-25 Siemens Audiologische Technik GmbH Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE8816422U1 (de) * 1988-05-06 1989-08-10 Siemens AG, 1000 Berlin und 8000 München Hörhilfegerät mit drahtloser Fernsteuerung
DE10305830B3 (de) * 2003-02-12 2004-10-21 Siemens Audiologische Technik Gmbh Vorrichtung und Verfahren zum Fernbedienen eines Hörgeräts
DE10351509B4 (de) * 2003-11-05 2015-01-08 Siemens Audiologische Technik Gmbh Hörgerät und Verfahren zur Adaption eines Hörgeräts unter Berücksichtigung der Kopfposition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1619928A1 (de) 2004-07-20 2006-01-25 Siemens Audiologische Technik GmbH Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887428A (zh) * 2021-09-30 2022-01-04 西安工业大学 一种基于上下文信息的深度学习成对模型人耳检测方法
CN113887428B (zh) * 2021-09-30 2022-04-19 西安工业大学 一种基于上下文信息的深度学习成对模型人耳检测方法
WO2024067994A1 (de) * 2022-09-30 2024-04-04 Mic Audio Solutions Gmbh System und verfahren zum verarbeiten von mikrofonsignalen

Also Published As

Publication number Publication date
DK2648423T3 (da) 2015-10-12
EP2648423A3 (de) 2014-03-05
DE102012205634B4 (de) 2014-07-10
DE102012205634A1 (de) 2013-10-10
EP2648423B1 (de) 2015-07-08

Similar Documents

Publication Publication Date Title
US9420386B2 (en) Method for adjusting a hearing device apparatus and hearing device apparatus
EP2645743B1 (de) Hörvorrichtung für eine binaurale Versorgung und Verfahren zum Bereitstellen einer binauralen Versorgung
EP2519033B1 (de) Verfahren zum Betrieb eines Hörgerätes mit verringerter Kammfilterwahrnehmung und Hörgerät mit verringerter Kammfilterwahrnehmung
EP2373064B1 (de) Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten
DE102017112170A1 (de) Ohrschmuck mit integriertem Headset
EP2334102A2 (de) Hörgerät mit einer platzsparenden Anordnung von Mikrofonen und Schallöffnungen
EP2688315A1 (de) Verfahren und Vorrichtung für Eingabevorrichtung zur Hörgerätmodifizierung
US8996120B1 (en) Methods and systems of adjusting one or more perceived attributes of an audio signal
DE102013215131A1 (de) Verfahren zur Verfolgung einer Schallquelle
EP2023668A2 (de) Hörgerät mit visualisierter psychoakustischer Größe und entsprechendes Verfahren
EP2648423B1 (de) Einstellen einer Hörgerätevorrichtung
EP1906702A2 (de) Verfahren zur Bedienkontrolle einer Hörvorrichtung und entsprechende Hörvorrichtung
EP1926087A1 (de) Anpassung einer Hörvorrichtung an ein Sprachsignal
EP2658289B1 (de) Verfahren zum Steuern einer Richtcharakteristik und Hörsystem
EP3972291A1 (de) Verfahren zum betrieb einer hörvorrichtung und hörsystem
DE102013111295A1 (de) Vorrichtung zum Vergleichstest von Hörgeräten
DE102012205637A1 (de) Audiovorrichtung und Verfahren zum Einstellen
DE102021210098A1 (de) Verfahren zum Betrieb eines Hörgeräts
DE102010014315A1 (de) Hörinstrument mit Bedienvorrichtung
DE102023201872B3 (de) Verfahren zum Betreiben einer Hörvorrichtung
DE102023201871B3 (de) Verfahren zum Betreiben einer Hörvorrichtung
EP1976334A2 (de) Verfahren zur Anpassung eines Hörgeräts mit einer Normalisierung von Verarbeitungswerten
DE102023201075B3 (de) Verfahren zum Betrieb eines Hörinstruments und Hörsystem mit einem solchen Hörinstrument
EP2262282A2 (de) Verfahren zur Ermittlung einer Frequenzantwort einer Hörvorrichtung und zugehörige Hörvorrichtung
DE102010042572A1 (de) Hörinstrument und Hörinstrumenteneinheit für ein Hörinstrument

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIC1 Information provided on ipc code assigned before grant

Ipc: H04R 25/00 20060101AFI20140128BHEP

17P Request for examination filed

Effective date: 20140904

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20150206

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 736187

Country of ref document: AT

Kind code of ref document: T

Effective date: 20150715

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502013000833

Country of ref document: DE

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: E. BLUM AND CO. AG PATENT- UND MARKENANWAELTE , CH

Ref country code: CH

Ref legal event code: PFA

Owner name: SIVANTOS PTE. LTD., SG

Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SG

REG Reference to a national code

Ref country code: DK

Ref legal event code: T3

Effective date: 20151009

REG Reference to a national code

Ref country code: CH

Ref legal event code: PCOW

Free format text: NEW ADDRESS: 28 AYER RAJAH CRESCENT 06-08, SINGAPORE 139959 (SG)

RAP2 Party data changed (patent owner data changed or rights of a patent transferred)

Owner name: SIVANTOS PTE. LTD.

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20150708

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151009

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151008

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151109

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151108

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 4

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502013000833

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

26N No opposition filed

Effective date: 20160411

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: LU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20160321

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160321

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20130321

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502013000833

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502013000833

Country of ref document: DE

Owner name: SIVANTOS PTE. LTD., SG

Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SINGAPORE, SG

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20150708

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 736187

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180321

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180321

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240321

Year of fee payment: 12

Ref country code: GB

Payment date: 20240322

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20240320

Year of fee payment: 12

Ref country code: DK

Payment date: 20240321

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: CH

Payment date: 20240401

Year of fee payment: 12