EP2648423B1 - Einstellen einer Hörgerätevorrichtung - Google Patents
Einstellen einer Hörgerätevorrichtung Download PDFInfo
- Publication number
- EP2648423B1 EP2648423B1 EP13160286.4A EP13160286A EP2648423B1 EP 2648423 B1 EP2648423 B1 EP 2648423B1 EP 13160286 A EP13160286 A EP 13160286A EP 2648423 B1 EP2648423 B1 EP 2648423B1
- Authority
- EP
- European Patent Office
- Prior art keywords
- user
- body part
- hearing device
- hearing
- acoustic signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 5
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 24
- 230000009471 action Effects 0.000 description 11
- 230000001960 triggered effect Effects 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 101000779418 Homo sapiens RAC-alpha serine/threonine-protein kinase Proteins 0.000 description 4
- 102100033810 RAC-alpha serine/threonine-protein kinase Human genes 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 101100042610 Arabidopsis thaliana SIGB gene Proteins 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 101100421503 Arabidopsis thaliana SIGA gene Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 101000798015 Homo sapiens RAC-beta serine/threonine-protein kinase Proteins 0.000 description 1
- 102100032315 RAC-beta serine/threonine-protein kinase Human genes 0.000 description 1
- 101100294408 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MOT2 gene Proteins 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 210000000883 ear external Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005358 geomagnetic field Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 101150117326 sigA gene Proteins 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/30—Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/552—Binaural
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/558—Remote control, e.g. of amplification, frequency
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Definitions
- the present invention relates to a method for operating a hearing device by a user. Moreover, the present invention relates to a hearing device device for a user with a first hearing device, a second hearing device and optionally at least one further device. Under a hearing aid device is here any portable in or on the ear, a hearing aid fulfilling device understood, in particular a binaural hearing.
- Hearing aids are portable hearing aids that are used to care for the hearing impaired.
- different types of hearing aids such as behind-the-ear hearing aids (BTE), hearing aid with external receiver (RIC: receiver in the canal) and in-the-ear hearing aids (IDO), e.g. Concha hearing aids or canal hearing aids (ITE, CIC).
- BTE behind-the-ear hearing aids
- RIC hearing aid with external receiver
- IDO in-the-ear hearing aids
- ITE canal hearing aids
- the hearing aids listed by way of example are worn on the outer ear or in the ear canal.
- bone conduction hearing aids, implantable or vibrotactile hearing aids are also available on the market. The stimulation of the damaged hearing takes place either mechanically or electrically.
- Hearing aids have in principle as essential components an input transducer, an amplifier and an output transducer.
- the input transducer is usually a sound receiver, z. As a microphone, and / or an electromagnetic receiver, for. B. an induction coil.
- the output transducer is usually used as an electroacoustic transducer, z. As miniature speaker, or as an electromechanical transducer, z. B. bone conduction, realized.
- the amplifier is usually integrated in a signal processing unit. This basic structure is in FIG. 1 shown using the example of a behind-the-ear hearing aid. In a hearing aid housing 1 for carrying behind the ear are one or more microphones 2 to Built-in sound recording from the environment.
- a signal processing unit 3 which is also integrated in the hearing aid housing 1, processes the microphone signals and amplifies them.
- the output signal of the signal processing unit 3 is transmitted to a loudspeaker or earpiece 4, which outputs an acoustic signal.
- the sound is optionally transmitted via a sound tube, which is fixed with an earmold in the ear canal, to the eardrum of the device carrier.
- the power supply of the hearing device and in particular the signal processing unit 3 is effected by a likewise integrated into the hearing aid housing 1 battery. 5
- hearing aids do not have correspondingly designed surfaces in order to be able to detect such gestures or wiping movements. Nevertheless, it would be desirable if hearing aids could also be intuitively controlled via gestures.
- smartphones offer the ability to enter text or phone numbers using voice recognition. Again, however, the user has to activate the device using the touch screen.
- hearing aids with a so-called “toggle” or a push-button on the device, but also with a remote control.
- z. B. a hearing aid program can be selected.
- Some devices reproduce the selected program number or function by voice to the user.
- a hearing aid or communication system with virtual signal sources is known.
- the user of this system is to be provided with an easier assignment or differentiation in the system generated acoustic signals to inform the user about current settings or conditions of the system.
- the signal is output by the hearing aid or communication system such that for the user the signals from different signal sources seem to come from the space surrounding the user.
- the acoustic signals carry additional information that the user consciously or unconsciously perceives.
- the publication EP 0 340 594 A1 shows a hearing aid that is adjustable via a remote control.
- the remote control emits structure-borne noise, which is received and evaluated by the hearing aid.
- Structure-borne sound is transmitted via bone conduction to the hearing aid when the user applies the remote control to the head.
- the object of the present invention is to make the operation of a hearing aid device more comfortable.
- this object is achieved by a method for operating a hearing device by a user, by presenting a first acoustic signal by means of the hearing device as originating from a first virtual position, wherein the first acoustic signal represents a first setting option of the hearing aid device, and presenting a second acoustic
- the second acoustic signal represents a second setting option of the hearing aid device, moving a body part of the user to the first or second virtual position, detecting a position or movement of the body part of the user, automatically assigning the detected position or movement of the body part to the first or second virtual position, whereby the setting option corresponding to the associated virtual position is selected.
- the invention provides a hearing device device for a user with a first hearing aid, a second hearing aid and optionally at least one other Device, wherein the hearing aids are optionally formed together with the at least one further device for presenting a first acoustic signal as originating from a first virtual position, wherein the first acoustic signal represents a first setting option of the hearing aid device, presenting a second acoustic signal as from a second originating from the virtual position, wherein the second acoustic signal represents a second adjustment option of the hearing aid device, detecting a position or movement of a body part of the user, and automatically associating the detected position or movement of the body part with the first or second virtual position, thereby determining the associated virtual position corresponding setting option is selected.
- a plurality of setting options are acoustically displayed to a user in that representatives for the respective settings are generated as sound stimuli from different spatial positions.
- each setting option is assigned a location in the room. This location can then be intuitively pointed out by positioning, aligning or moving a body part. This information can be automatically detected and assigned to the respective setting option. This provides a very comfortable choice of setting options of the hearing aid device.
- the first and second acoustic signals are generated using a head related transfer function.
- a head-related transfer function ensures that the acoustic influences of the user's head are taken into account in the generation of the acoustic signals. This allows the acoustic signals to be presented more reliably from a certain direction.
- each of the acoustic signals may be accomplished by operating an actuator, moving a body part, or detecting a keyword spoken by the user be triggered. This ensures that the acoustic signal is presented exactly when the user wishes this by a self-performed action.
- the detection of the position or movement of the body part takes place on the basis of the geomagnetic field.
- relative movements can be detected reliably, for example independently of the optical conditions.
- other sensors can be used.
- acceleration sensors can detect movements of a body part.
- the automatic assignment of the detected position or movement of the body part to one of the virtual positions can be triggered by actuating an actuating element, moving a body part or detecting a keyword spoken by the user. Not only can the initiation of an audible signal be initiated by a user action, but also the end of the voting process, which ultimately initiates the automatic mapping process.
- the body part of the user can be his head. This allows the user to select the available configuration options by turning or raising and lowering the head.
- the body part of the user may also be one of his hands or fingers.
- the user can select, for example, by interpreting in one direction or by wiping and the like a special setting option.
- the choice of a setting option is made by the user turning his head in a certain direction representing his selected setting option and then confirming his choice by nodding the head, whereby the corresponding setting option is considered selected.
- the user can also, for example, in situations where he is to select an adjustment option has no hand free, choose his desired setting option with simple head movements.
- One of the setting options may relate to a hearing aid program, a volume, a pitch, a directional characteristic, a noise suppression, a hearing content or the like.
- any parameter that can be set on a hearing device or a hearing system can be selected by the acoustic presentation of the invention.
- Touchscreens typically display so-called icons or options that can be selected with the finger. However, if, as with hearing aids or hearing aid devices, there are no screens available or the user is unable to see them, the options will be as shown in FIG. 2 presented acoustically. In order to be able to distinguish between the selectable options, the acoustic signals or their sources 10, 11 and 12 are virtually positioned around the user 13. The presentation takes place here by two hearing aids 14, 15, with which the user 13 is supplied binaurally.
- HRTF Head Related Transfer Function
- the user 13 should have three setting options. Accordingly, when representing the three setting options or options, three acoustic signals 10, 11 and 12 are presented from different directions. This direction-dependent presentation is carried out by the two hearing aids 14, 15, with which the user 13 the impression can be awakened as if a first acoustic signal 10 from the front left, a second acoustic signal 11 from the center of the front and a third acoustic signal 12th from the front right.
- the two hearing aids 14, 15 are preferably coupled together by a wireless data connection.
- the presentation of the individual acoustic signals 10 to 12 takes place in succession and is triggered in each case by an active activity of the user.
- the performance is thus triggered by user interactions.
- the triggering can be done, for example, by pressing a button, by speaking a keyword to be recognized by a speech recognition algorithm, or by a gesture of the user to be detected.
- the number of options for setting the hearing aid device with the two hearing aids 14 and 15 can also be two or more than three.
- the half-space in front of the user 13 is directionally divided into a corresponding number of sectors in which the virtual sound waves are arranged.
- the sectors are approximately the same size.
- FIG. 3 shows on the left side of the actions that the user NU must perform, and on the right side of the process steps that occur in the hearing aid or hearing aid device HG.
- the user NU wants to set his hearing aid device HG.
- he initiates the setting process with a first action AKT1.
- This action AKT1 can be the actuation of a button on one of the hearing aids 14, 15 or on a remote control, but also, for example, a keyword that the user NU or 13 pronounces and is detected by the hearing device by voice recognition.
- the entire adjustment procedure and / or a presentation of a first option is initiated by the hearing aid device HG.
- the reproduction of an acoustic signal 10 is triggered from a virtual left front position. Ie. the acoustic reproduction of the two hearing aids 14 and 15 is carried out so that the sound in question seems to come from the direction or position front left.
- the hearing device HG executes the presentation of the first acoustic signal SIG1.
- the user NU executes a second action AKT2 (eg pressing a button, pronouncing a keyword, etc.).
- the hearing device HG then outputs a second acoustic signal SIG2.
- the signal SIG2 is the acoustic signal 11 apparently arriving from the front with respect to the head of the user 13 (cf. FIG. 2 ). If appropriate, one or more such pairs of steps follow, which consist of an action of the user NU and a signal output of the hearing device HG.
- the user Upon completion or the acoustic performance of all configuration options, the user performs another action, which here consists of a head movement BEW, which in FIG. 2 marked with the arrow 16.
- BEW head movement
- the user NU moves his head or another body part such as.
- the hearing aid device must now be able to register this movement of the head. For this purpose, a corresponding detection step DET is necessary.
- the detection is based for example on the basis of the version of the earth's magnetic field 17.
- the hearing device device with the two hearing aids 14 and 15 and possibly one or more other devices initially registers the virtual positions or directions of the latter first acoustic signal 10, second acoustic signal 11, etc. with respect to the earth's magnetic field 17 (north pole N). If the user 13 now turns his head, this can be detected by means of the hearing aid device HG.
- the user NU now wants to make a choice of one of the setting options he must not only move or rotate his body part in the relevant direction or to the relevant virtual position, but he must then also perform a corresponding confirmation BEST.
- the user 13 turns according to FIG. 2
- the hearing device HG triggered by this nodding, registers the direction or position of the head of the user 13 and assigns the detected position or direction to the corresponding setting option, which is represented by the selected virtual sound incidence direction. Based on this assignment then takes place in the hearing aid device HG an appropriate setting SET.
- setting that corresponds to the selected setting option is carried out in the hearing aid device that setting that corresponds to the selected setting option.
- a specific hearing aid program eg for a telephone situation, for speech at rest
- the adjustment of the volume in several stages can be made.
- other settings such as the stepwise setting of a noise suppression or different directional characteristics can also be made by the acoustic menu selection.
- the selection of options can be done by different ways. For example, acceleration and / or position sensors can be used. Alternatively, the option can also be selected by manual operation.
- an acceleration and / or position sensor it can be applied to the user's head (eg in one of the hearing aids) or to the user's hand (eg as a finger ring or wrist strap) or in the hand (eg as a pen that is held) be realized.
- An acceleration sensor detects a movement, e.g. When the head is moved to the right.
- Position sensors detect the orientation, for example, with respect to the earth's magnetic field, as shown above. For example, if the user has two wireless audio sources available in a room (eg, TV and stereo), the television audio signal is virtually presented on the left side of the user and the audio on the right side stereo system (preferably triggered sequentially) through a suitable trigger action).
- the sensors detect the movement, and the audio signal of the television is presented binaurally.
- the audio signal of the stereo is binaurally presented.
- the user turns his head to the appropriate page and nods his head, for example.
- the acceleration sensors will detect this confirmation signal and select the respective audio source for further performance.
- the same selection principle can be realized when the sensor or sensors are mounted on the user's hand.
- gestures such as. B. wiping movements, to the left or right, the corresponding audio source is offered as a choice.
- the wiping movement or gesture can be carried out in the air, without the need for a specific sensor surface.
- a confirmation gesture (eg nodding) confirms the selection of the acoustic signal or the setting option.
- the confirmation or confirmation movement can be detected by the same sensors, which also detect the movement of the body part of the user, with which the choice of the respective setting options should be indicated.
- the choice of a setting option can according to another embodiment also with a so-called "touchpad”, as it is known from notebooks, or by a conventional touchscreen (as it is typically known from smartphones or tablet computers).
- the hearing aid device comprises in this case just a touchpad or a touchscreen.
- the acoustic presentation of the options takes place instead of an optical one Presentation of options on a screen. This is particularly beneficial for people who suffer from impaired sense of the sea or are even blind.
- such a system may be advantageous in situations where the user is unable to view a screen (eg while driving).
- the moving body part is a user's finger pointing toward the first or second virtual position or moving in a corresponding direction.
- the position or movement of the finger is then detected using the touchpad or touchscreen and there is a corresponding assignment to the respective setting option. As confirmation you can doubleclick or click here.
- the choice of options of a hearing aid device or a hearing aid based on body gestures and virtual acoustic presentation of the options is made possible.
- the advantage in this is the improved accessibility and usability of modern hearing aids. These benefits are particularly relevant for those with visual impairment or limited motor skills.
- the choice of options is made automatically by sensors that are in hearing aids or other body-worn devices.
Landscapes
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Neurosurgery (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben einer Hörgerätevorrichtung durch einen Nutzer. Darüber hinaus betrifft die vorliegende Erfindung eine Hörgerätevorrichtung für einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens einem weiteren Gerät. Unter einer Hörgerätevorrichtung wird hier jedes im oder am Ohr tragbare, eine Hörhilfefunktion erfüllende Gerät verstanden, insbesondere ein binaurales Hörsystem.
- Hörgeräte sind tragbare Hörvorrichtungen, die zur Versorgung von Schwerhörenden dienen. Um den zahlreichen individuellen Bedürfnissen entgegenzukommen, werden unterschiedliche Bauformen von Hörgeräten wie Hinter-dem-Ohr-Hörgeräte (HdO), Hörgerät mit externem Hörer (RIC: receiver in the canal) und In-dem-Ohr-Hörgeräte (IdO), z.B. auch Concha-Hörgeräte oder Kanal-Hörgeräte (ITE, CIC), bereitgestellt. Die beispielhaft aufgeführten Hörgeräte werden am Außenohr oder im Gehörgang getragen. Darüber hinaus stehen auf dem Markt aber auch Knochenleitungshörhilfen, implantierbare oder vibrotaktile Hörhilfen zur Verfügung. Dabei erfolgt die Stimulation des geschädigten Gehörs entweder mechanisch oder elektrisch.
- Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in
FIG 1 am Beispiel eines Hinter-dem-Ohr-Hörgeräts dargestellt. In ein Hörgerätegehäuse 1 zum Tragen hinter dem Ohr sind ein oder mehrere Mikrofone 2 zur Aufnahme des Schalls aus der Umgebung eingebaut. Eine Signalverarbeitungseinheit 3, die ebenfalls in das Hörgerätegehäuse 1 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 3 wird an einen Lautsprecher bzw. Hörer 4 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Geräteträgers übertragen. Die Energieversorgung des Hörgeräts und insbesondere die der Signalverarbeitungseinheit 3 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 1 integrierte Batterie 5. - Zahlreiche elektronische Geräte verfügen über mehrere Einstellmöglichkeiten. Um die Einstellungsmöglichkeiten dem Nutzer darbieten zu können, werden sie häufig optisch in einer Menüstruktur dargeboten. Als Nutzerschnittstelle zum Bedienen des Menüs dient beispielsweise ein Touchscreen, der z. B. bei so genannten Smartphones zur Menüsteuerung verwendet wird. Dabei werden Optionen durch Gesten oder Wischbewegungen auf dem Bildschirm gewählt.
- Hörgeräte besitzen jedoch nicht entsprechend gestaltete Oberflächen, um solche Gesten bzw. Wischbewegungen detektieren zu können. Dennoch wäre es wünschenswert, wenn auch Hörgeräte über Gesten intuitiv steuerbar wären.
- Darüber hinaus bieten Smartphones die Möglichkeiten, Text oder Telefonnummern mittels Spracherkennung einzugeben. Auch hierzu hat der Nutzer jedoch das Gerät mithilfe des Touchscreen zu aktivieren.
- Des Weiteren ist bekannt, Hörgeräte mit einem so genannten "Toggle" oder einen Druckknopf auf dem Gerät, aber auch mit einer Fernbedienung zu betätigen. Auf diese Weise kann z. B. ein Hörgeräteprogramm gewählt werden. Einige Geräte geben die gewählte Programmnummer oder Funktion mittels Sprache dem Benutzer wieder.
- Aus der Druckschrift
EP 1 619 928 A1 ist ein Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen bekannt. Dem Benutzer dieses Systems soll eine leichtere Zuordnung bzw. Unterscheidung in dem System erzeugter akustischer Signale zur Information des Benutzers über aktuelle Einstellungen bzw. Zustände des Systems ermöglicht werden. Hierzu erfolgt die Signalabgabe durch das Hörhilfe- oder Kommunikationssystem derart, dass für den Benutzer die Signale aus unterschiedlichen Signalquellen aus dem den Benutzer umgebenden Raum zu kommen scheinen. Die akustischen Signale tragen dadurch eine von dem Benutzer bewusst oder unbewusst wahrnehmbare zusätzliche Information. - Die Druckschrift
EP 0 340 594 A1 zeigt ein Hörgerät, das über eine Fernsteuerung einstellbar ist. Die Fernsteuerung sendet Körperschall aus, der von dem Hörgerät empfangen und ausgewertet wird. Der Körperschall wird per Knochenleitung zum Hörgerät übertragen, wenn der Nutzer die Fernbedienung an den Kopf anlegt. - Die Aufgabe der vorliegenden Erfindung besteht darin, das Betreiben einer Hörgerätevorrichtung komfortabler zu gestalten.
- Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Betreiben einer Hörgerätevorrichtung durch einen Nutzer, durch Darbieten eines ersten akustischen Signals mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, und Darbieten eines zweiten akustischen Signals mittels der Hörgerätevorrichtung als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert, Bewegen eines Körperteils des Nutzers zu der ersten oder zweiten virtuellen Position, Detektieren einer Position oder Bewegung des Körperteils des Nutzers, automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
- Darüber hinaus wird erfindungsgemäß bereitgestellt eine Hörgerätevorrichtung für einen Nutzer mit einem ersten Hörgerät, einem zweiten Hörgerät und optional mindestens einem weiteren Gerät, wobei die Hörgeräte optional zusammen mit dem mindestens einen weiteren Gerät ausgebildet sind zum Darbieten eines ersten akustischen Signals als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, Darbieten eines zweiten akustischen Signals als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert, Detektieren einer Position oder Bewegung eines Körperteils des Nutzers, und automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
- In vorteilhafter Weise werden also mehrere Einstelloptionen akustisch einem Nutzer dadurch aufgezeigt, dass Repräsentanten für die jeweiligen Einstellungen als Schallreiz von unterschiedlichen räumlichen Positionen erzeugt werden. Dadurch wird jeder Einstelloption ein Ort im Raum zugeordnet. Auf diesen Ort kann dann einfach intuitiv durch Positionieren, Ausrichten oder Bewegen eines Körperteils hingewiesen werden. Dieses Hinweisen lässt sich automatisch detektieren und der jeweiligen Einstelloption zuordnen. Damit ist eine sehr komfortable Wahlmöglichkeit von Einstelloptionen der Hörgerätevorrichtung gegeben.
- Vorzugsweise werden das erste und zweite akustische Signal mithilfe einer kopfbezogenen Übertragungsfunktion erzeugt. Eine derartige kopfbezogene Übertragungsfunktion gewährleistet, dass die akustischen Einflüsse des Kopfes des Nutzers bei der Erzeugung der akustischen Signale berücksichtigt werden. Damit können die akustischen Signale zuverlässiger aus einer bestimmten Richtung kommend dargeboten werden.
- Das Darbieten jedes der akustischen Signale kann durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen werden. Hierdurch wird erreicht, dass das akustische Signal genau dann dargeboten wird, wenn der Nutzer dies durch eine selbst durchgeführte Aktion wünscht.
- Besonders vorteilhaft ist, wenn das Detektieren der Position oder Bewegung des Körperteils anhand des Erdmagnetfelds erfolgt. Mithilfe des Erdmagnetfelds lassen sich relative Bewegungen beispielsweise unabhängig von optischen Gegebenheiten zuverlässig erfassen. Alternativ können aber auch andere Sensoren eingesetzt werden. So können beispielsweise Beschleunigungssensoren Bewegungen eines Körperteils erfassen.
- Das automatische Zuordnen der detektierten Position oder Bewegung des Körperteils zu einer der virtuellen Positionen kann durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen werden. Es kann damit nicht nur das Darbieten eines akustischen Signals durch eine Benutzeraktion initiiert werden, sondern auch das Ende des Wahlvorgangs, wodurch schließlich der automatische Zuordnungsvorgang eingeleitet wird.
- Das Körperteil des Nutzers kann sein Kopf sein. Damit kann der Nutzer durch Drehen oder Heben und Senken des Kopfes die zur Verfügung stehenden Einstelloptionen auswählen.
- Alternativ kann das Körperteil des Nutzers auch eine seiner Hände oder Finger sein. Damit kann der Nutzer beispielsweise durch Deuten in eine Richtung oder durch Wischen und dergleichen eine spezielle Einstelloption wählen.
- Besonders bevorzugt ist, wenn die Wahl einer Einstelloption dadurch erfolgt, dass der Nutzer seinen Kopf in eine bestimmte Richtung dreht, die seine gewählte Einstelloption repräsentiert, und er anschließend seine Wahl durch ein Nicken des Kopfes bestätigt, wodurch die korrespondierten Einstelloption als gewählt gilt. Somit kann der Nutzer auch beispielsweise in Situationen, in denen er zum Wählen einer Einstelloption keine Hand frei hat, mit einfachen Kopfbewegungen seine gewünschte Einstelloption wählen.
- Eine der Einstelloptionen kann ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe, eine Richtcharakteristik, eine Rauschunterdrückung, einen Hörinhalt oder dergleichen betreffen. Im Grunde genommen kann jeder Parameter, der sich an einem Hörgerät oder einem Hörsystem einstellen lässt, durch die erfindungsgemäße akustische Darbietungsweise gewählt werden.
- Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
- FIG 1
- den prinzipiellen Aufbau eines Hörgeräts gemäß dem Stand der Technik;
- FIG 2
- eine schematische Ansicht zur akustischen, räumlichen Darbietung eines Auswahlmenüs und
- FIG 3
- einen beispielhaften Verfahrensablauf.
- Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
- Touchscreens zeigen typischerweise so genannte Icons oder Optionen, die mit dem Finger gewählt werden können. Wenn jedoch, wie bei Hörgeräten bzw. Hörgerätevorrichtungen keine Bildschirme zur Verfügung stehen, oder der Nutzer nicht in der Lage ist, sie zu sehen, werden die Optionen gemäß
FIG 2 akustisch dargeboten. Um die wählbaren Optionen unterscheiden zu können, werden die akustischen Signale bzw. deren Quellen 10, 11 und 12 virtuell um den Nutzer 13 positioniert. Das Darbieten erfolgt hier durch zwei Hörgeräte 14, 15, mit denen der Nutzer 13 binaural versorgt wird. - Um die Quellen 10 bis 12 an den gewünschten Orten virtuell zu platzieren, ist es notwendig, die akustischen Gegebenheiten am Kopf des Nutzers nachzubilden. Nur so lassen sich akustische Signale erzeugen, die der Nutzer auch aus einer bestimmten Richtung kommend wahrnimmt. Hierfür genügt in der Regel eine so genannte kopfbezogene Übertragungsfunktion (HRTF: Head Related Transfer Function).
- In einem konkreten Beispiel soll der Nutzer 13 drei Einstellmöglichkeiten besitzen. Dementsprechend werden beim Repräsentieren der drei Einstellmöglichkeiten bzw. -optionen drei akustische Signale 10, 11 und 12 aus unterschiedlichen Richtungen dargeboten. Dieses richtungsabhängige Darbieten erfolgt durch die beiden Hörgeräte 14, 15, mit denen beim Nutzer 13 der Eindruck erweckt werden kann, als käme ein erstes akustisches Signal 10 von vorne links, ein zweites akustisches Signal 11 aus der Mitte von vorn und ein drittes akustisches Signal 12 von vorne rechts. Um diese virtuelle Positionierung von Schallquellen zu erreichen, sind die beiden Hörgeräte 14, 15 vorzugsweise durch eine kabellose Datenverbindung miteinander gekoppelt.
- Das Darbieten der einzelnen akustischen Signale 10 bis 12 erfolgt nacheinander und wird jeweils durch eine aktive Tätigkeit des Nutzers angestoßen. Die Darbietung wird also durch Benutzerinteraktionen getriggert. Das Triggern kann beispielsweise durch Drücken eines Knopfs, durch Sprechen eines von einem Spracherkennungsalogrithmus zu erkennenden Schlüsselworts oder durch eine zu detektierende Geste des Nutzers erfolgen.
- In dem obigen Beispiel sind drei Optionen gewählt. Die Anzahl der Optionen für das Einstellen der Hörgerätevorrichtung mit den zwei Hörgeräten 14 und 15 kann aber auch zwei betragen oder größer als drei sein. Vorzugsweise ist dann der Halbraum vor dem Nutzer 13 richtungsmäßig in eine entsprechende Anzahl an Sektoren unterteilt, in denen die virtuellen Schallwellen angeordnet sind. Vorzugsweise sind die Sektoren in etwa gleich groß.
- Im Zusammenhang mit
FIG 3 wird ein Beispiel des erfindungsgemäßen Verfahrens erläutert.FIG 3 zeigt hierzu auf der linken Seite die Aktionen, die der Nutzer NU durchführen muss, und auf der rechten Seite die Verfahrensschritte, die im Hörgerät bzw. Hörgerätevorrichtung HG ablaufen. Der Nutzer NU will also seine Hörgerätevorrichtung HG einstellen. Dazu stößt er mit einer ersten Aktion AKT1 den Einstellvorgang an. Bei dieser Aktion AKT1 kann es sich um die Betätigung eines Knopfs an einem der Hörgeräte 14, 15 oder auf einer Fernbedienung, aber auch beispielsweise um ein Schlüsselwort handeln, das der Nutzer NU bzw. 13 ausspricht und von der Hörgerätevorrichtung durch Spracherkennung erfasst wird. - Durch die erste Aktion AKT1 wird die gesamte Einstellprozedur und/oder ein Darbieten einer ersten Option durch die Hörgerätevorrichtung HG initiiert. Konkret wird also beispielsweise durch ein Knopfdrücken die Wiedergabe eines akustischen Signals 10 von einer virtuellen Position links vorne ausgelöst. D. h. die akustische Wiedergabe über die beiden Hörgeräte 14 und 15 erfolgt so, dass der betreffende Schall von der Richtung bzw. Position vorne links zu kommen scheint. Die Hörgerätevorrichtung HG führt also getriggert durch die Aktion AKT1 des Nutzers NU die Darbietung des ersten akustischen Signals SIG1 aus.
- Anschließend führt der Nutzer NU eine zweite Aktion AKT2 (z. B. Knopfdruck, Aussprechen eines Schlüsselworts etc.) aus. Daraufhin gibt die Hörgerätevorrichtung HG ein zweites akustisches Signal SIG2 aus. Dies scheint für den Nutzer NU bzw. 13 aus einer anderen Richtung oder von einer anderen virtuellen Position zu stammen. Beispielsweise handelt es sich bei dem Signal SIG2 um das, bezogen auf den Kopf des Nutzers 13 scheinbar von vorne eintreffenden akustischen Signals 11 (vgl.
FIG 2 ). Gegebenenfalls schließen sich einer oder mehrere derartige Schrittpaare an, die aus einer Aktion des Nutzers NU und einer Signalausgabe der Hörgerätevorrichtung HG bestehen. - Nach Abschluss oder zu der akustischen Darbietung sämtlicher Einstelloptionen führt der Nutzer eine weitere Aktion aus, die hier aus einer Kopfbewegung BEW besteht, welche in
FIG 2 mit dem Pfeil 16 gekennzeichnet ist. Bei dieser Bewegung BEW bewegt der Nutzer NU seinen Kopf bzw. ein anderes Körperteil wie z. B. einen Arm oder eine Hand, in diejenige Richtung bzw. zu der virtuellen Position, die er bei der Darbietung der einzelnen Optionen wahrgenommen hat oder bei der er die gewünschte Darbietung bekommt. Die Hörgerätevorrichtung muss nun diese Bewegung des Kopfes registrieren können. Hierzu ist ein entsprechender Detektionsschritt DET notwendig. - Die Detektion basiert beispielsweise auf der Basis der Fassung des Erdmagnetfelds 17. Die Hörgerätevorrichtung mit den beiden Hörgeräten 14 und 15 und gegebenenfalls einem oder mehreren weiteren Geräten (z. B. Fernbedienung, Induktionsband etc.) registriert hierfür zunächst die virtuellen Positionen bzw. Richtungen des ersten akustischen Signals 10, zweiten akustischen Signals 11 etc. in Bezug auf das Erdmagnetfeld 17 (Nordpol N). Dreht nun der Nutzer 13 seinen Kopf, so kann dies mithilfe der Hörgerätevorrichtung HG detektiert werden.
- Will nun der Nutzer NU eine Wahl einer der Einstelloptionen treffen, so muss er dazu nicht nur sein Körperteil in die betreffende Richtung bzw. zu der betreffenden virtuellen Position bewegen oder drehen, sondern er muss dann auch eine entsprechende Bestätigung BEST durchführen. In einem einfachen Fall dreht der Nutzer 13 gemäß
FIG 2 also beispielsweise seinen Kopf gemäß Pfeil 16 nach links zu der virtuellen Richtung bzw. Position aus der das erste akustische Signal 10 eintrifft, und anschließend nickt er gemäß dem Symbol 18 mit seinem Kopf. Die Hörgerätevorrichtung HG registriert durch dieses Nicken angestoßen die Richtung bzw. Position des Kopfs des Nutzers 13 und ordnet die detektierte Position bzw. Richtung der entsprechenden Einstelloption zu, die durch die gewählte virtuelle Schalleinfallsrichtung repräsentiert wird. Anhand dieser Zuordnung erfolgt dann in der Hörgerätevorrichtung HG eine entsprechende Einstellung EINST. Es wird also in der Hörgerätevorrichtung diejenige Einstellung durchgeführt, die der gewählten Einstelloption entspricht. Dabei kann ein bestimmtes Hörgeräteprogramm (z. B. für eine Telefonsituation, für Sprache in Ruhe) etc. oder einfach die Einstellung der Lautstärke in mehreren Stufen vorgenommen werden. Es können aber auch andere Einstellungen wie die stufenweise Einstellung einer Geräuscheunterdrückung oder verschiedene Richtcharakteristiken durch die akustische Menüwahl getroffen werden. - Die Auswahl der Optionen kann durch unterschiedliche Arten erfolgen. So können beispielsweise Beschleunigungs- und/oder Positionssensoren eingesetzt werden. Alternativ kann die Optionswahl auch durch manuelle Betätigung erfolgen.
- Bei Einsatz eines Beschleunigungs- und/oder Positionssensor kann dieser am Kopf des Nutzers (z. B. in einem der Hörgeräte) oder an der Hand des Nutzers (z. B. als Fingerring oder Gelenkband) oder auch in der Hand (z. B. als Stift, der gehalten wird) realisiert sein.
- Nachfolgend wird ein weiteres Ausführungsbeispiel erläutert, bei dem die Schritte des Bewegens eines Körperteils, des Detektierens der Position oder Bewegung des Körperteils und des automatischen Zuordnens zu einer Einstelloption vor dem Bearbeiten der akustischen Signale erfolgt.
- Ein Beschleunigungssensor detektiert eine Bewegung, z. B. wenn der Kopf nach rechts bewegt wird. Positionssensoren detektieren die Orientierung beispielsweise in Bezug auf das Erdmagnetfeld, wie oben dargestellt wurde. Wenn dem Nutzer beispielsweise in einem Raum zwei drahtlose Audioquellen zur Verfügung stehen (z. B. Fernseher und Stereoanlage), wird beispielsweise das Fernseh-Audiosignal virtuell auf der linken Seite des Nutzers dargeboten und das Audiosignal der Stereoanlage auf der rechten Seite (vorzugsweise nacheinander ausgelöst durch eine passende Triggeraktion). Wenn der Nutzer nun seinen Kopf nach links dreht, detektieren die Sensoren die Bewegung, und das Audiosignal des Fernsehers wird binaural dargeboten. Wenn andererseits der Kopf nach rechts bewegt wird, wird das Audiosignal der Stereoanlage binaural präsentiert. Um nun eine der beiden Quellen zu wählen, dreht der Nutzer seinen Kopf auf die entsprechende Seite und nickt beispielsweise mit dem Kopf. Die Beschleunigungssensoren werden dieses Bestätigungssignal detektieren und die jeweilige Audioquelle zur weiteren Darbietung auswählen.
- Das gleiche Auswahlprinzip lässt sich realisieren, wenn der bzw. die Sensoren an der Hand des Nutzers montiert sind. Durch Gesten, wie z. B. Wischbewegungen, nach links oder rechts wird die entsprechende Audioquelle als Wahloption dargeboten. Dabei kann die Wischbewegung bzw. Geste in der Luft durchgeführt werden, ohne dass es einer bestimmten Sensoroberfläche bedarf. Eine Bestätigungsgeste (z. B. Nicken) bestätigt die getroffene Wahl des akustischen Signals bzw. der Einstelloption. Das Bestätigen bzw. die Bestätigungsbewegung kann durch die gleichen Sensoren detektiert werden, die auch das Bewegen des Körperteils des Nutzers detektieren, mit dem die Wahl der jeweiligen Einstelloptionen angedeutet werden soll.
- Anstatt der Wahl der Audioquellen können auch andere Optionen auf diese Art und Weise gewählt werden. Beispiele hierfür sind, wie oben bereits erwähnt: Wahl eines Hörprogramms in den Hörgeräten, Lautstärke aufwärts/abwärts und Geräuschreduktionseinstellungen speziell für das Steuern eines Beamformers.
- Die Wahl einer Einstelloption kann gemäß einer weiteren Ausführungsform auch mit einem so genannten "Touchpad", wie es von Notebooks bekannt ist, oder durch ein übliches Touchscreen (wie es typischerweise von Smartphones oder Tablett-Computern bekannt ist) erfolgen. Die Hörgerätevorrichtung umfasst in diesem Fall eben ein Touchpad oder einen Touchscreen. Wie in dem Beispiel zuvor erfolgt auch hier die akustische Präsentation der Optionen anstelle einer optischen Präsentation der Optionen auf einem Bildschirm. Dies ist insbesondere für Personen vorteilhaft, die unter Beeinträchtigung des Seesinns leiden oder die gar blind sind. Außerdem kann ein derartiges System in Situationen vorteilhaft sein, wo der Nutzer nicht in der Lage ist, auf einen Bildschirm zu sehen (z. B. während des Autofahrens).
- In diesem Ausführungsbeispiel ist dann das bewegte Körperteil ein Finger des Nutzers, der hin zu der ersten oder zweiten virtuellen Position zeigt oder sich in eine entsprechende Richtung bewegt. Die Position oder Bewegung des Fingers wird dann mithilfe des Touchpad oder Touchscreen detektiert und es erfolgt eine entsprechende Zuordnung zur jeweiligen Einstelloption. Als Bestätigung kann hier ein Doppelklick oder ein einfacher Klick dienen.
- Die Merkmale obiger Ausführungsformen können beliebig miteinander kombiniert werden.
- Entsprechend der vorliegenden Erfindung wird somit die Wahl von Optionen einer Hörgerätevorrichtung bzw. eines Hörgeräts auf der Basis von Körpergesten und virtueller akustischer Präsentation der Optionen ermöglicht. Der Vorteil darin ist die verbesserte Zugänglichkeit und Verwendbarkeit moderner Hörgeräte. Diese Vorteile kommen insbesondere bei Personen mit Sehschäden oder begrenzten motorischen Fähigkeiten zum Tragen. Die Wahl der Optionen erfolgt hierbei automatisch durch Sensoren, die sich in Hörgeräten oder anderen am Körper getragenen Geräten befinden.
Claims (10)
- Verfahren zum Betreiben einer Hörgerätevorrichtung (HG) durch einen Nutzer (NU, 13)
gekennzeichnet durch- Darbieten eines ersten akustischen Signals (10) mittels der Hörgerätevorrichtung als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert, und- Darbieten eines zweiten akustischen Signals (11) mittels der Hörgerätevorrichtung als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,- Detektieren einer Position oder Bewegung eines Körperteils des Nutzers,- automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist. - Verfahren nach Anspruch 1, wobei das erste und zweite akustische Signal (10, 11) mithilfe einer kopfbezogenen Übertragungsfunktion erzeugt werden.
- Verfahren nach Anspruch 1 oder 2, wobei das Darbieten jedes der akustischen Signale (10, 11) durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer (NU, 13) gesprochenen Schlüsselworts angestoßen wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei das Detektieren der Position oder Bewegung des Körperteils anhand des Erdmagnetfelds (17) erfolgt.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei das automatische Zuordnen durch Betätigen eines Betätigungselements, Bewegen eines Körperteils oder Erfassen eines vom Nutzer gesprochenen Schlüsselworts angestoßen wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei das Körperteil des Nutzers ((NU, 13) sein Kopf ist.
- Verfahren nach einem der Ansprüche 1 bis 5, wobei das Körperteil des Nutzers (NU, 13) eine seiner Hände ist.
- Verfahren nach Anspruch 5 und 6, wobei das Bewegen des Körperteils ein Nicken des Kopfes des Nutzers ist.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei eine der Einstelloptionen ein Hörgeräteprogramm, eine Lautstärke, eine Tonhöhe, eine Richtcharakteristik, eine Rauschunterdrückung oder einen Hörinhalt betrifft.
- Hörgerätevorrichtung (HG) für einen Nutzer (NU, 13) mit einem ersten Hörgerät (14), einem zweiten Hörgerät (15) und optional mindestens einem weiteren Gerät,
dadurch gekennzeichnet, dass
die Hörgeräte (14, 15) optional zusammen mit dem mindestens einen weiteren Gerät ausgebildet sind zum- Darbieten eines ersten akustischen Signals (10) als von einer ersten virtuellen Position stammend, wobei das erste akustische Signal eine erste Einstelloption der Hörgerätevorrichtung repräsentiert,- Darbieten eines zweiten akustischen Signals (11) als von einer zweiten virtuellen Position stammend, wobei das zweite akustische Signal eine zweite Einstelloption der Hörgerätevorrichtung repräsentiert,- Detektieren einer Position oder Bewegung eines Körperteils des Nutzers (NU, 13), und- automatisches Zuordnen der detektierten Position oder Bewegung des Körperteils zu der ersten oder zweiten virtuellen Position, wodurch die der zugeordneten virtuellen Position entsprechende Einstelloption gewählt ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201210205634 DE102012205634B4 (de) | 2012-04-05 | 2012-04-05 | Einstellen einer Hörgerätevorrichtung |
Publications (3)
Publication Number | Publication Date |
---|---|
EP2648423A2 EP2648423A2 (de) | 2013-10-09 |
EP2648423A3 EP2648423A3 (de) | 2014-03-05 |
EP2648423B1 true EP2648423B1 (de) | 2015-07-08 |
Family
ID=47913171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP13160286.4A Active EP2648423B1 (de) | 2012-04-05 | 2013-03-21 | Einstellen einer Hörgerätevorrichtung |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP2648423B1 (de) |
DE (1) | DE102012205634B4 (de) |
DK (1) | DK2648423T3 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887428B (zh) * | 2021-09-30 | 2022-04-19 | 西安工业大学 | 一种基于上下文信息的深度学习成对模型人耳检测方法 |
WO2024067994A1 (de) * | 2022-09-30 | 2024-04-04 | Mic Audio Solutions Gmbh | System und verfahren zum verarbeiten von mikrofonsignalen |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE8816422U1 (de) * | 1988-05-06 | 1989-08-10 | Siemens AG, 1000 Berlin und 8000 München | Hörhilfegerät mit drahtloser Fernsteuerung |
DE10305830B3 (de) * | 2003-02-12 | 2004-10-21 | Siemens Audiologische Technik Gmbh | Vorrichtung und Verfahren zum Fernbedienen eines Hörgeräts |
DE10351509B4 (de) * | 2003-11-05 | 2015-01-08 | Siemens Audiologische Technik Gmbh | Hörgerät und Verfahren zur Adaption eines Hörgeräts unter Berücksichtigung der Kopfposition |
DE102004035046A1 (de) * | 2004-07-20 | 2005-07-21 | Siemens Audiologische Technik Gmbh | Hörhilfe-oder Kommunikationssystem mit virtuellen Signalquellen |
-
2012
- 2012-04-05 DE DE201210205634 patent/DE102012205634B4/de not_active Expired - Fee Related
-
2013
- 2013-03-21 DK DK13160286.4T patent/DK2648423T3/da active
- 2013-03-21 EP EP13160286.4A patent/EP2648423B1/de active Active
Also Published As
Publication number | Publication date |
---|---|
DK2648423T3 (da) | 2015-10-12 |
EP2648423A3 (de) | 2014-03-05 |
EP2648423A2 (de) | 2013-10-09 |
DE102012205634B4 (de) | 2014-07-10 |
DE102012205634A1 (de) | 2013-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9420386B2 (en) | Method for adjusting a hearing device apparatus and hearing device apparatus | |
EP2346271A1 (de) | Steuerung der Betriebsparameter in einem binauralen Hörsystem | |
EP2645743B1 (de) | Hörvorrichtung für eine binaurale Versorgung und Verfahren zum Bereitstellen einer binauralen Versorgung | |
EP2519033B1 (de) | Verfahren zum Betrieb eines Hörgerätes mit verringerter Kammfilterwahrnehmung und Hörgerät mit verringerter Kammfilterwahrnehmung | |
EP2373064B1 (de) | Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten | |
DE102017112170A1 (de) | Ohrschmuck mit integriertem Headset | |
EP2023668B1 (de) | Hörgerät mit visualisierter psychoakustischer Größe und entsprechendes Verfahren | |
EP2334102A2 (de) | Hörgerät mit einer platzsparenden Anordnung von Mikrofonen und Schallöffnungen | |
US8996120B1 (en) | Methods and systems of adjusting one or more perceived attributes of an audio signal | |
DE102013215131A1 (de) | Verfahren zur Verfolgung einer Schallquelle | |
EP2688315A1 (de) | Verfahren und Vorrichtung für Eingabevorrichtung zur Hörgerätmodifizierung | |
EP2648423B1 (de) | Einstellen einer Hörgerätevorrichtung | |
EP1906702A2 (de) | Verfahren zur Bedienkontrolle einer Hörvorrichtung und entsprechende Hörvorrichtung | |
EP1926087A1 (de) | Anpassung einer Hörvorrichtung an ein Sprachsignal | |
EP3972291A1 (de) | Verfahren zum betrieb einer hörvorrichtung und hörsystem | |
DE102013111295A1 (de) | Vorrichtung zum Vergleichstest von Hörgeräten | |
DE102012205637A1 (de) | Audiovorrichtung und Verfahren zum Einstellen | |
DE102021210098A1 (de) | Verfahren zum Betrieb eines Hörgeräts | |
DE102010014315A1 (de) | Hörinstrument mit Bedienvorrichtung | |
DE102023201872B3 (de) | Verfahren zum Betreiben einer Hörvorrichtung | |
EP1976334A2 (de) | Verfahren zur Anpassung eines Hörgeräts mit einer Normalisierung von Verarbeitungswerten | |
DE102023201075B3 (de) | Verfahren zum Betrieb eines Hörinstruments und Hörsystem mit einem solchen Hörinstrument | |
DE102023201871B3 (de) | Verfahren zum Betreiben einer Hörvorrichtung | |
DE102010042572A1 (de) | Hörinstrument und Hörinstrumenteneinheit für ein Hörinstrument | |
WO2012019636A1 (de) | Verfahren zum betreiben eines hörgeräts und entsprechendes hörgerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
PUAL | Search report despatched |
Free format text: ORIGINAL CODE: 0009013 |
|
AK | Designated contracting states |
Kind code of ref document: A3 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
RIC1 | Information provided on ipc code assigned before grant |
Ipc: H04R 25/00 20060101AFI20140128BHEP |
|
17P | Request for examination filed |
Effective date: 20140904 |
|
RBV | Designated contracting states (corrected) |
Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
INTG | Intention to grant announced |
Effective date: 20150206 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: REF Ref document number: 736187 Country of ref document: AT Kind code of ref document: T Effective date: 20150715 Ref country code: CH Ref legal event code: EP |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R096 Ref document number: 502013000833 Country of ref document: DE |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: NV Representative=s name: E. BLUM AND CO. AG PATENT- UND MARKENANWAELTE , CH Ref country code: CH Ref legal event code: PFA Owner name: SIVANTOS PTE. LTD., SG Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SG |
|
REG | Reference to a national code |
Ref country code: DK Ref legal event code: T3 Effective date: 20151009 |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: PCOW Free format text: NEW ADDRESS: 28 AYER RAJAH CRESCENT 06-08, SINGAPORE 139959 (SG) |
|
RAP2 | Party data changed (patent owner data changed or rights of a patent transferred) |
Owner name: SIVANTOS PTE. LTD. |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: MP Effective date: 20150708 |
|
REG | Reference to a national code |
Ref country code: LT Ref legal event code: MG4D |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20151009 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: NO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20151008 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20151109 Ref country code: HR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: RS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20151108 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 4 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502013000833 Country of ref document: DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: IT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
26N | No opposition filed |
Effective date: 20160411 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20160331 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MC Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: LU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20160321 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: MM4A |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20160321 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 5 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 6 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: SM Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO Effective date: 20130321 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 Ref country code: MK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R082 Ref document number: 502013000833 Country of ref document: DE Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE Ref country code: DE Ref legal event code: R081 Ref document number: 502013000833 Country of ref document: DE Owner name: SIVANTOS PTE. LTD., SG Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SINGAPORE, SG |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20150708 |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: MM01 Ref document number: 736187 Country of ref document: AT Kind code of ref document: T Effective date: 20180321 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20180321 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: DE Payment date: 20240321 Year of fee payment: 12 Ref country code: GB Payment date: 20240322 Year of fee payment: 12 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20240320 Year of fee payment: 12 Ref country code: DK Payment date: 20240321 Year of fee payment: 12 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: CH Payment date: 20240401 Year of fee payment: 12 |