EP2373064A1 - Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten - Google Patents
Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten Download PDFInfo
- Publication number
- EP2373064A1 EP2373064A1 EP11154775A EP11154775A EP2373064A1 EP 2373064 A1 EP2373064 A1 EP 2373064A1 EP 11154775 A EP11154775 A EP 11154775A EP 11154775 A EP11154775 A EP 11154775A EP 2373064 A1 EP2373064 A1 EP 2373064A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- voice
- speech recognition
- hearing aid
- hearing
- information data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 208000032041 Hearing impaired Diseases 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 208000003028 Stuttering Diseases 0.000 description 1
- 208000009205 Tinnitus Diseases 0.000 description 1
- MOVRNJGDXREIBM-UHFFFAOYSA-N aid-1 Chemical compound O=C1NC(=O)C(C)=CN1C1OC(COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)CO)C(O)C1 MOVRNJGDXREIBM-UHFFFAOYSA-N 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 231100000886 tinnitus Toxicity 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/552—Binaural
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/61—Aspects relating to mechanical or electronic switches or control elements, e.g. functioning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/558—Remote control, e.g. of amplification, frequency
Definitions
- the invention relates to a binaural method and a binaural arrangement for voice control of hearing aids with voice commands with a first and a second hearing aid.
- hearing aids also include tinnitus markers and anti-stuttering aids.
- Hearing aids have in principle as essential components an input transducer, an amplifier and an output transducer.
- the input transducer is usually a sound receiver, z. As a microphone, and / or an electromagnetic receiver, for. B. an induction coil.
- the output transducer is usually used as an electroacoustic transducer, z. As miniature speaker, or as an electromechanical transducer, z. B. bone conduction, realized.
- the amplifier is usually integrated in a signal processing unit.
- FIG. 1 illustrated by the example of a behind-the-ear hearing aid 1.
- In a hearing aid housing 2 for carrying behind the ear usually two microphones 3 are incorporated for receiving the sound from the environment. Above the microphones 3 microphone openings 7 are formed in the hearing aid housing 2.
- a signal processing unit 4 which is also integrated in the hearing aid housing 2, processes the microphone signals and amplifies them.
- the output signal of the signal processing unit 4 is transmitted to a loudspeaker or receiver 5, which outputs an acoustic signal.
- the sound is optionally transmitted via a sound tube, not shown, which is fixed with an earmold in the ear canal, to the eardrum of the hearing aid wearer.
- the power supply of the hearing device 1 and in particular that of the signal processing unit 4 is effected by a battery 6 likewise integrated into the hearing device housing 2.
- the invention claims a method for voice control of hearing aids with voice commands with a first hearing aid and a second hearing aid in a binaural arrangement.
- a first voice recognition method of the first hearing device for recognizing the voice commands uses information data a second speech recognition method of the second hearing aid.
- the advantage of this is that the rate of misrecognized voice commands ("false alarms") is reduced while maintaining the hit rate.
- the information data may comprise a second voice command recognized by the second voice recognition method.
- Voice control becomes more error-free and robust.
- a voice command can only be used for voice control if the second voice command matches a first voice command recognized by the first voice recognition method.
- the information data may include acoustic parameters, voice activity detection results, and / or probabilities of recognized voice commands.
- the second speech recognition method may be the same as the first speech recognition method.
- the information data from the first hearing aid can be transmitted wirelessly to the second hearing aid.
- the invention also claims a binaural arrangement with a first and a second hearing device for voice control of hearing aids by voice commands.
- the arrangement comprises a first voice recognition module in the first hearing aid and a second voice recognition module in the second hearing aid, which uses information data of the first voice recognition module to recognize the voice commands.
- the information data may comprise a first voice command recognized by the first voice recognition module.
- a voice command can only be used for voice control if the first voice command matches a second voice command recognized by the second voice recognition module.
- the information data of the arrangement may include acoustic parameters, results of voice activity detection, and / or probabilities of recognized voice commands.
- the arrangement may comprise a first speech recognition algorithm in the first speech recognition module and a second speech recognition algorithm in the second speech recognition module.
- the first speech recognition algorithm can be equal to the second speech recognition algorithm.
- the arrangement may comprise a first radio module in the first hearing device and a second radio module in the second hearing device, wherein the first radio module transmits the information data to the second radio module.
- FIG. 2 shows a flowchart of a method for voice control of a hearing aid 10, 20 with voice commands.
- a first and a second hearing device 10, 20 are used in a binaural arrangement for this purpose.
- the first hearing aid 10 supplies the left ear and the second hearing aid 20 the right ear of a hearing aid wearer.
- a first speech recognition method is implemented in the first hearing device 10 and a second speech recognition method is implemented in the second hearing device 20.
- the speech recognition methods can be the same. They have common or hearing aid-specific speech recognition algorithms.
- the number of voice commands to be recognized is limited and usually includes five to a maximum of twenty commands.
- the hearing aids 10, 20 wait for the delivery of a voice command by the hearing aid wearer.
- the acoustic input signals are continuously analyzed.
- the first hearing device 10 recognizes a first voice command and sends it in the following step 102 to the second hearing aid by means of wireless communication.
- the second hearing aid 20 receives the first voice command.
- the second hearing device 20 has recognized a second voice command simultaneously to step 101 in step 104.
- step 105 the second hearing device 20 compares the self-determined second voice command with the first voice command received by the first hearing aid 10. If the two voice commands match, the first and second voice commands are executed in step 106. Subsequently, the process returns to step 100. If the two voice commands do not match, the procedure immediately proceeds to step 100.
- the method can, of course, also run simultaneously in the reverse direction, ie the second hearing device 20 transmits its recognized second voice command to the first hearing device 10.
- the first hearing device executes the voice command, if the self-determined first voice command matches the received second voice command.
- FIG. 3 shows a block diagram of a binaural arrangement according to the invention with a first hearing aid 10 and a second hearing aid 20, which can exchange data via a radio communication 30.
- the first hearing device 10 comprises a first signal processing unit 14, which processes and amplifies acoustic signals recorded by a first microphone 13 in the form of electrical signals and forwards them to a first receiver 15 for acoustic emission.
- the microphone signal of the first microphone 13 is analyzed for the presence of previously known voice commands.
- the speech recognition takes place with the aid of a first speech recognition algorithm 12 in the first speech recognition module 11.
- the first hearing aid 10 can wirelessly exchange data with the second hearing aid 20 using a first radio module 16.
- the second hearing device 20 comprises a second signal processing unit 24, which processes and amplifies acoustic signals recorded by a second microphone 23 in the form of electrical signals and forwards them to a second listener 25 for acoustic emission.
- a second voice recognition module 21 the microphone signal of the second microphone 23 is analyzed for the presence of previously known voice commands.
- the speech recognition is carried out by means of a second speech recognition algorithm 22 in the second speech recognition module 21.
- the second hearing aid 20 with the first hearing aid 10 wirelessly exchange data.
- the first hearing aid 10 sends the recognized first voice command to the second hearing aid 20 using the first radio module, which receives this first voice command by means of the second radio module 26.
- the second voice recognition module 21 in turn has itself recognized a second voice command.
- the second voice recognition module 21 now compares the first and second voice commands and controls the second signal processing unit 24 with the second voice command only when the first and second voice commands match.
- the binaural arrangement works analogously in the opposite direction.
- the first voice recognition module 11 compares the first and second voice commands and controls the first signal processing unit 14 with the first voice command only when the first and second voice commands match.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Toys (AREA)
Abstract
Description
- Die Erfindung betrifft ein binaurales Verfahren und eine binaurale Anordnung zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten und einem zweiten Hörgerät. Unter Hörgerät werden neben den Hörhilfen für Hörgeschädigte auch Tinnitus-Marker und Anti-Stotter-Hilfen verstanden.
- Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in
Figur 1 am Beispiel eines Hinter-dem-Ohr Hörgeräts 1 dargestellt. In ein Hörgerätegehäuse 2 zum Tragen hinter dem Ohr sind üblicherweise zwei Mikrofone 3 zur Aufnahme des Schalls aus der Umgebung eingebaut. Oberhalb der Mikrofone 3 sind Mikrofonöffnungen 7 in dem Hörgerätegehäuse 2 ausgebildet. Durch die Mikrofonöffnungen 7 kann der Schall zu den Mikrofonen 3 im Inneren des Hörgerätegehäuses 2 gelangen. Eine Signalverarbeitungseinheit 4, die ebenfalls in das Hörgerätegehäuse 2 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 4 wird an einen Lautsprecher bzw. Hörer 5 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen nicht dargestellten Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Hörgeräteträgers übertragen. Die Energieversorgung des Hörgeräts 1 und insbesondere die der Signalverarbeitungseinheit 4 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 2 integrierte Batterie 6. - Unter einer binauralen Versorgung eines Hörgeschädigten wird die Versorgung mit einem rechten und einem linken Hörgerät bezeichnet. Dadurch können die Hörverluste beider Ohren individuell ausgeglichen werden. Damit die Vorteile einer binauralen Versorgung optimal genutzt werden können, kommunizieren diese drahtlos miteinander und tauschen Daten aus. In der
US 2004/0037442 A1 wird eine derartige binaurale Hörgeräteanordnung beschrieben. - Untersuchungen der Anmelderin belegen, dass eine Sprachsteuerung von Hörgeräten den Tragekomfort deutlich verbessert. Die oft lästige Bedienung mittels einer Fernbedienung oder kleinen Einstellknöpfen am Hörgerät kann so oftmals vermieden werden. Die
DE 10 2007 056 221 A1 gibt eine Lösung an, wie die für eine Sprachsteuerung benötigte Spracherkennung auch mit der verfügbaren Rechenleistung eines Hörgeräts realisiert werden kann. Trotzdem lässt die Erkennungsrate im Alltag zu wünschen übrig. Zu viele "Fehlalarme" treten auf, d.h. dass das Hörgerät einen gültigen Befehl erkennt, obwohl kein Befehl vom Hörgeräteträger gesprochen wurde. Ursache ist, dass die bekannten Spracherkennungsalgorithmen an die Anwendung bei Hörgeräten noch nicht optimal angepasst sind bzw. mit vertretbarem Aufwand nicht anpassbar werden können. - Es ist Aufgabe der Erfindung "Fehlalarme" zu vermeiden und ein Verfahren sowie eine Anordnung anzugeben, die eine Sprachsteuerung von Hörgeräten verbessern.
- Gemäß der Erfindung wird die gestellte Aufgabe mit dem Verfahren und der Anordnung der unabhängigen Patentansprüche gelöst.
- Die Erfindung beansprucht ein Verfahren zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten Hörgerät und einem zweiten Hörgerät in binauraler Anordnung. Dabei verwendet ein erstes Spracherkennungsverfahren des ersten Hörgeräts zur Erkennung der Sprachbefehle Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen ("Fehlalarme") verringert wird bei einer gleichzeitigen Beibehaltung der Trefferquote.
- In einer Weiterbildung des Verfahrens können die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen. Eine Sprachsteuerung wird dadurch fehlerfreier und robuster.
- In einer weiteren Ausführungsform des Verfahrens kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
- Des Weiteren können die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
- In einer weiteren Ausführungsform kann das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren sein.
- Außerdem können die Informationsdaten vom ersten Hörgerät drahtlos an das zweite Hörgerät übertragen werden.
- Die Erfindung beansprucht auch eine binaurale Anordnung mit einem ersten und einem zweiten Hörgerät zur Sprachsteuerung von Hörgeräten durch Sprachbefehle. Die Anordnung umfasst ein erstes Spracherkennungsmodul in dem ersten Hörgerät und ein zweites Spracherkennungsmodul in dem zweiten Hörgerät, das Informationsdaten des ersten Spracherkennungsmoduls zur Erkennung der Sprachbefehle verwendet.
- In einer Weiterbildung der Anordnung können die Informationsdaten einen von dem ersten Spracherkennungsmodul erkannten ersten Sprachbefehl umfassen.
- In einer weiteren Ausführungsform der Anordnung kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul erkannten zweiten Sprachbefehl übereinstimmt.
- Des Weiteren können die Informationsdaten der Anordnung akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
- In einer weiteren Ausführungsform kann die Anordnung einen ersten Spracherkennungsalgorithmus in dem ersten Spracherkennungsmodul und einen zweiten Spracherkennungsalgorithmus in dem zweiten Spracherkennungsmodul umfassen.
- In einer Weiterbildung der Anordnung kann der erste Spracherkennungsalgorithmus gleich dem zweiten Spracherkennungsalgorithmus sein.
- Außerdem kann die Anordnung ein erstes Funkmodul in dem ersten Hörgerät und ein zweites Funkmodul in dem zweiten Hörgerät umfassen, wobei das erste Funkmodul die Informationsdaten an das zweite Funkmodul überträgt.
- Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen mehrerer Ausführungsbeispiele anhand von schematischen Zeichnungen ersichtlich.
- Es zeigen:
- Figur 1:
- ein Hinter-dem-Ohr Hörgerät gemäß Stand der Technik,
- Figur 2:
- ein Ablaufdiagramm einer binauralen Sprachsteuerung und
- Figur 3:
- eine Anordnung mit zwei Hörgeräten zur binauralen Spracherkennung.
-
Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens zur Sprachsteuerung eines Hörgeräts 10, 20 mit Sprachbefehlen. Erfindungsgemäß werden dazu ein erstes und ein zweites Hörgerät 10, 20 in einer binauralen Anordnung eingesetzt. Das erste Hörgerät 10 versorgt das linke Ohr und das zweite Hörgerät 20 das rechte Ohr eines Hörgeräteträgers. Im ersten Hörgerät 10 ist ein erstes Spracherkennungsverfahren und im zweiten Hörgerät 20 ein zweites Spracherkennungsverfahren implementiert. Die Spracherkennungsverfahren können gleich sein. Sie weisen gängige oder Hörgeräte-spezifische Spracherkennungsalgorithmen auf. Die Anzahl der zu erkennenden Sprachbefehle ist beschränkt und umfasst in der Regel fünf bis maximal zwanzig Befehle. - Im ersten Schritt 100 warten die Hörgeräte 10, 20 auf die Abgabe eines Sprachbefehls durch den Hörgeräteträger. Dazu werden laufend die akustischen Eingangssignale analysiert. Im folgenden Schritt 101 erkennt das erste Hörgerät 10 einen ersten Sprachbefehl und sendet diesen im folgenden Schritt 102 an das zweite Hörgerät mit Hilfe drahtloser Kommunikation. Im Schritt 103 empfängt das zweite Hörgerät 20 den ersten Sprachbefehl. Das zweite Hörgerät 20 hat gleichzeitig zu Schritt 101 im Schritt 104 einen zweiten Sprachbefehl erkannt.
- Im Schritt 105 vergleicht das zweite Hörgerät 20 den selbst ermittelten zweiten Sprachbefehl mit dem vom ersten Hörgerät 10 empfangenen ersten Sprachbefehl. Stimmen die beiden Sprachbefehle überein, wird im Schritt 106 der erste bzw. der zweite Sprachbefehl ausgeführt. Anschließend springt das Verfahren zu Schritt 100 zurück. Stimmen die beiden Sprachbefehle nicht überein, geht das Verfahren sofort mit Verfahrensschritt 100 weiter.
- Das Verfahren kann selbstverständlich auch gleichzeitig in umgekehrter Richtung ablaufen, d.h. das zweite Hörgerät 20 überträgt seinen erkannten zweiten Sprachbefehl an das erste Hörgerät 10. Das erste Hörgerät führt den Sprachbefehl aus, wenn der selbst ermittelte erste Sprachbefehl mit dem empfangenen zweiten Sprachbefehl übereinstimmt.
- Anstatt des Ergebnisses der Spracherkennung in Form von ersten oder zweiten Sprachbefehlen können in Ergänzung oder alternativ auch andere Informationsdaten des ersten bzw. zweiten Spracherkennungsverfahrens an das andere Hörgerät übertragen werden. Diese "Rohdaten" werden dann im anderen ersten bzw. zweiten Spracherkennungsverfahren bei einer Spracherkennung mitberücksichtigt.
-
Figur 3 zeigt ein Blockschaltbild einer erfindungsgemäßen binauralen Anordnung mit einem ersten Hörgerät 10 und einem zweiten Hörgerät 20, die über eine Funkkommunikation 30 Daten austauschen können. Das erste Hörgerät 10 umfasst eine erste Signalverarbeitungseinheit 14, die von einem ersten Mikrofon 13 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen ersten Hörer 15 weiterleitet. Mit Hilfe eines ersten Spracherkennungsmoduls 11 wird das Mikrofonsignal des ersten Mikrofons 13 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines ersten Spracherkennungsalgorithmus 12 im ersten Spracherkennungsmodul 11. Mit einem ersten Funkmodul 16 kann das erste Hörgerät 10 mit dem zweiten Hörgerät 20 drahtlos Daten austauschen. - Das zweite Hörgerät 20 umfasst eine zweite Signalverarbeitungseinheit 24, die von einem zweiten Mikrofon 23 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen zweiten Hörer 25 weiterleitet. Mit Hilfe eines zweiten Spracherkennungsmoduls 21 wird das Mikrofonsignal des zweiten Mikrofons 23 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines zweiten Spracherkennungsalgorithmus 22 im zweiten Spracherkennungsmodul 21. Mit einem zweiten Funkmodul 26 kann das zweite Hörgerät 20 mit dem ersten Hörgerät 10 drahtlos Daten austauschen.
- Wird ein erster Sprachbefehl durch das erste Spracherkennungsmodul 11 erkannt, sendet das erste Hörgerät 10 mithilfe des ersten Funkmoduls den erkannten ersten Sprachbefehl an das zweite Hörgerät 20, das diesen ersten Sprachbefehl mithilfe des zweiten Funkmoduls 26 empfängt. Das zweite Spracherkennungsmodul 21 hat wiederum selbst einen zweiten Sprachbefehl erkannt. Das zweite Spracherkennungsmodul 21 vergleicht nun den ersten und den zweiten Sprachbefehl und steuert die zweite Signalverarbeitungseinheit 24 mit dem zweiten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.
- Die binaurale Anordnung funktioniert analog in umgekehrter Richtung. Das erste Spracherkennungsmodul 11 vergleicht den ersten und den zweiten Sprachbefehl und steuert die erste Signalverarbeitungseinheit 14 mit dem ersten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.
- Anstelle von oder zusätzlich zu erkannten ersten und zweiten Sprachbefehlen können mit der Funkkommunikation 30 auch andere Informationsdaten, wie beispielweise akustische Parameter, Ergebnisse einer Voice Activity Detection oder Wahrscheinlichkeiten von erkannten Sprachbefehlen, ausgetauscht werden.
-
- 1
- Hinter-dem-Ohr Hörgerät
- 2
- Hörgerätegehäuse
- 3
- Mikrofon
- 4
- Signalverarbeitungseinheit
- 5
- Hörer
- 6
- Batterie
- 7
- Mikrofonöffnung im Hörgerätegehäuse 2
- 10
- erstes Hörgerät
- 11
- erstes Spracherkennungsmodul
- 12
- erster Spracherkennungsalgorithmus
- 13
- erstes Mikrofon
- 14
- erste Signalverarbeitungseinheit
- 15
- erster Hörer
- 16
- erstes Funkmodul
- 20
- zweites Hörgerät
- 21
- zweites Spracherkennungsmodul
- 22
- zweiter Spracherkennungsalgorithmus
- 23
- zweites Mikrofon
- 24
- zweite Signalverarbeitungseinheit
- 25
- zweiter Hörer
- 26
- zweites Funkmodul
- 30
- Funkkommunikation
- 100
- Warten auf Sprachbefehl
- 101
- Erster Sprachbefehl erkannt
- 102
- Senden des ersten Sprachbefehls
- 103
- Empfangen des ersten Sprachbefehls
- 104
- Zweiter Sprachbefehl erkannt
- 105
- Vergleich erster und zweiter Sprachbefehl
- 106
- Ausführen des Sprachbefehls
Claims (13)
- Verfahren zur Sprachsteuerung von Hörgeräten (10, 20) mit Sprachbefehlen mit einem ersten Hörgerät (10) und einem zweiten Hörgerät (20) in binauraler Anordnung,
dadurch gekennzeichnet,
dass ein erstes Spracherkennungsverfahren des ersten Hörgeräts (10) Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts (20) zur Erkennung der Sprachbefehle verwendet. - Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen. - Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt. - Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet,
dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren ist. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
dass die Informationsdaten vom ersten Hörgerät (10) drahtlos an das zweite Hörgerät (20) übertragen werden. - Binaurale Anordnung zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle mit einem ersten und einem zweiten Hörgerät (10, 20) ,
gekennzeichnet durch:- ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und- ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20), das Informationsdaten des ersten Spracherkennungsmoduls (11) zur Erkennung der Sprachbefehle verwendet. - Anordnung nach Anspruch 7,
dadurch gekennzeichnet,
dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten Sprachbefehl umfassen. - Anordnung nach Anspruch 8,
dadurch gekennzeichnet,
dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl übereinstimmt. - Anordnung nach einem der Ansprüche 7 bis 9,
dadurch gekennzeichnet,
dass die Informationensdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen. - Anordnung nach einem der Ansprüche 7 bis 10, gekennzeichnet durch:- einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul (11) und- einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul (21).
- Anordnung nach Anspruch 11,
dadurch gekennzeichnet,
dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus (22) ist. - Anordnung nach einem der Ansprüche 7 bis 12, gekennzeichnet durch:- ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und- ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul (16) die Informationsdaten an das zweite Funkmodul (26) überträgt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201010012622 DE102010012622B4 (de) | 2010-03-24 | 2010-03-24 | Binaurales Verfahren und binaurale Anordnung zur Sprachsteuerung von Hörgeräten |
Publications (2)
Publication Number | Publication Date |
---|---|
EP2373064A1 true EP2373064A1 (de) | 2011-10-05 |
EP2373064B1 EP2373064B1 (de) | 2013-12-04 |
Family
ID=43837311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP11154775.8A Active EP2373064B1 (de) | 2010-03-24 | 2011-02-17 | Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten |
Country Status (4)
Country | Link |
---|---|
US (1) | US20110238419A1 (de) |
EP (1) | EP2373064B1 (de) |
DE (1) | DE102010012622B4 (de) |
DK (1) | DK2373064T3 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9167368B2 (en) * | 2011-12-23 | 2015-10-20 | Blackberry Limited | Event notification on a mobile device using binaural sounds |
DK2988531T3 (en) | 2014-08-20 | 2019-01-14 | Starkey Labs Inc | HEARING SYSTEM WITH OWN VOICE DETECTION |
US11086593B2 (en) | 2016-08-26 | 2021-08-10 | Bragi GmbH | Voice assistant for wireless earpieces |
EP3799446A1 (de) * | 2016-08-29 | 2021-03-31 | Oticon A/s | Hörgerät mit sprachsteuerungsfunktion |
US11195518B2 (en) | 2019-03-27 | 2021-12-07 | Sonova Ag | Hearing device user communicating with a wireless communication device |
US11006200B2 (en) | 2019-03-28 | 2021-05-11 | Sonova Ag | Context dependent tapping for hearing devices |
EP4085654A1 (de) | 2019-12-31 | 2022-11-09 | Starkey Laboratories, Inc. | Verfahren und systeme zur bewertung der einsetzposition einer ohrinternen anordnung eines hörgeräts |
WO2022066307A2 (en) | 2020-09-28 | 2022-03-31 | Starkey Laboratories, Inc. | Temperature sensor based ear-worn electronic device fit assessment |
US12101606B2 (en) | 2021-05-28 | 2024-09-24 | Starkey Laboratories, Inc. | Methods and systems for assessing insertion position of hearing instrument |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4419901A1 (de) * | 1994-06-07 | 1996-02-15 | Siemens Audiologische Technik | Hörhilfegerät |
US20040037442A1 (en) | 2000-07-14 | 2004-02-26 | Gn Resound A/S | Synchronised binaural hearing system |
DE102007056221A1 (de) | 2007-11-27 | 2009-05-28 | Siemens Ag Österreich | Verfahren zur Spracherkennung |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5721783A (en) * | 1995-06-07 | 1998-02-24 | Anderson; James C. | Hearing aid with wireless remote processor |
US5754978A (en) * | 1995-10-27 | 1998-05-19 | Speech Systems Of Colorado, Inc. | Speech recognition system |
US6236969B1 (en) * | 1998-07-31 | 2001-05-22 | Jonathan P. Ruppert | Wearable telecommunications apparatus with voice/speech control features |
JP2002149187A (ja) * | 2000-11-07 | 2002-05-24 | Sony Corp | 音声認識装置および音声認識方法、並びに記録媒体 |
US7203651B2 (en) * | 2000-12-07 | 2007-04-10 | Art-Advanced Recognition Technologies, Ltd. | Voice control system with multiple voice recognition engines |
US6898567B2 (en) * | 2001-12-29 | 2005-05-24 | Motorola, Inc. | Method and apparatus for multi-level distributed speech recognition |
WO2003102920A1 (en) * | 2002-05-30 | 2003-12-11 | Custom Speech Usa, Inc. | A method for locating an audio segment within an audio file |
US20060190249A1 (en) * | 2002-06-26 | 2006-08-24 | Jonathan Kahn | Method for comparing a transcribed text file with a previously created file |
CA2516941A1 (en) * | 2003-02-19 | 2004-09-02 | Custom Speech Usa, Inc. | A method for form completion using speech recognition and text comparison |
US20050177371A1 (en) * | 2004-02-06 | 2005-08-11 | Sherif Yacoub | Automated speech recognition |
DE102004025123A1 (de) * | 2004-05-21 | 2005-07-21 | Siemens Audiologische Technik Gmbh | Hörhilfegerät oder Hörgerätesystem mit akustischer Batterieanzeige |
EP2019985B1 (de) * | 2006-05-12 | 2018-04-04 | Nuance Communications Austria GmbH | Verfahren zum wechseln von einer ersten adaptiven datenverarbeitungsversion zu einer zweiten adaptiven datenverarbeitungsversion |
EP1912472A1 (de) * | 2006-10-10 | 2008-04-16 | Siemens Audiologische Technik GmbH | Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe |
US20080120094A1 (en) * | 2006-11-17 | 2008-05-22 | Nokia Corporation | Seamless automatic speech recognition transfer |
US8532307B2 (en) * | 2007-01-30 | 2013-09-10 | Phonak Ag | Method and system for providing binaural hearing assistance |
DE602007004185D1 (de) * | 2007-02-02 | 2010-02-25 | Harman Becker Automotive Sys | System und Verfahren zur Sprachsteuerung |
DE102007008738A1 (de) * | 2007-02-22 | 2008-08-28 | Siemens Audiologische Technik Gmbh | Verfahren zur Verbesserung der räumlichen Wahrnehmung und entsprechende Hörvorrichtung |
FR2923928B1 (fr) * | 2007-11-19 | 2009-12-04 | Bonneton William | Systeme d'interpretation simultanee automatique. |
FR2932920A1 (fr) * | 2008-06-19 | 2009-12-25 | Archean Technologies | Procede et appareil de mesure de l'intelligibilite d'un dispositif de diffusion sonore |
-
2010
- 2010-03-24 DE DE201010012622 patent/DE102010012622B4/de active Active
-
2011
- 2011-02-17 EP EP11154775.8A patent/EP2373064B1/de active Active
- 2011-02-17 DK DK11154775.8T patent/DK2373064T3/en active
- 2011-03-24 US US13/070,646 patent/US20110238419A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4419901A1 (de) * | 1994-06-07 | 1996-02-15 | Siemens Audiologische Technik | Hörhilfegerät |
US20040037442A1 (en) | 2000-07-14 | 2004-02-26 | Gn Resound A/S | Synchronised binaural hearing system |
DE102007056221A1 (de) | 2007-11-27 | 2009-05-28 | Siemens Ag Österreich | Verfahren zur Spracherkennung |
Also Published As
Publication number | Publication date |
---|---|
US20110238419A1 (en) | 2011-09-29 |
EP2373064B1 (de) | 2013-12-04 |
DE102010012622A1 (de) | 2011-09-29 |
DE102010012622B4 (de) | 2015-04-30 |
DK2373064T3 (en) | 2014-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2373064B1 (de) | Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten | |
EP3451705B1 (de) | Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme | |
EP2603018B1 (de) | Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung | |
EP3445067B1 (de) | Verfahren zum betrieb eines hörgeräts und hörgerät | |
EP2164283B1 (de) | Hörgerät und Betrieb eines Hörgeräts mit Frequenztransposition | |
EP3873108A1 (de) | Hörsystem mit mindestens einem im oder am ohr des nutzers getragenen hörinstrument sowie verfahren zum betrieb eines solchen hörsystems | |
EP1906700B1 (de) | Verfahren zum zeitgesteuerten Einstellen einer Hörvorrichtung und entsprechende Hörvorrichtung | |
EP3836139B1 (de) | Verfahren, bei welchem zwei hörgeräte miteinander gekoppelt werden, sowie hörgerät | |
DE102013215131A1 (de) | Verfahren zur Verfolgung einer Schallquelle | |
EP3585071A1 (de) | Verfahren zur steuerung der datenübertragung zwischen zumindest einem hörgerät und einem peripheriegerät eines hörgerätesystems sowie hörgerät | |
EP2182741B1 (de) | Hörvorrichtung mit spezieller Situationserkennungseinheit und Verfahren zum Betreiben einer Hörvorrichtung | |
DE102018209824A1 (de) | Verfahren zur Steuerung der Datenübertragung zwischen zumindest einem Hörgerät und einem Peripheriegerät eines Hörgerätesystems sowie Hörgerät | |
EP3836567A1 (de) | Verfahren zum betrieb eines hörsystems und hörsystem | |
EP1926087A1 (de) | Anpassung einer Hörvorrichtung an ein Sprachsignal | |
EP1881738B1 (de) | Verfahren zum Betrieb eines Hörgerätes und Anordnung mit einem Hörgerät | |
EP2434781A1 (de) | Verfahren zum Rekonstruieren eines Sprachsignals und Hörvorrichtung | |
DE102010018877A1 (de) | Verfahren und Anordnung zur Sprachsteuerung von Hörgeräten | |
EP2658289B1 (de) | Verfahren zum Steuern einer Richtcharakteristik und Hörsystem | |
DE102007035173A1 (de) | Verfahren zum Einstellen eines Hörsystems mit einem perzeptiven Modell für binaurales Hören und entsprechendes Hörsystem | |
EP2793488B1 (de) | Binaurale Mikrofonanpassung mittels der eigenen Stimme | |
EP2034767A1 (de) | Verfahren und Anordnungen zum Erfassen des Typs einer Schallsignalquelle mit einem Hörgerät | |
DE102020201615B3 (de) | Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems | |
EP2604046A1 (de) | Verfahren zum betreiben eines hörgeräts und entsprechendes hörgerät | |
EP2028878A2 (de) | Verfahren zur Seitendefinition bei der Anpassung von Hörhilfen | |
EP1909535A2 (de) | Hörvorrichtung mit gesteuerten Eingangskanälen und entsprechendes Verfahren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
17P | Request for examination filed |
Effective date: 20110905 |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
INTG | Intention to grant announced |
Effective date: 20130626 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP Ref country code: CH Ref legal event code: NV Representative=s name: SIEMENS SCHWEIZ AG, CH |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN Ref country code: AT Ref legal event code: REF Ref document number: 643937 Country of ref document: AT Kind code of ref document: T Effective date: 20140115 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R096 Ref document number: 502011001736 Country of ref document: DE Effective date: 20140130 |
|
REG | Reference to a national code |
Ref country code: DK Ref legal event code: T3 Effective date: 20140303 |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: VDEP Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: HR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: NO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140304 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
REG | Reference to a national code |
Ref country code: LT Ref legal event code: MG4D |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: RS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140404 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140404 Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
BERE | Be: lapsed |
Owner name: SIEMENS MEDICAL INSTRUMENTS PTE. LTD. Effective date: 20140228 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502011001736 Country of ref document: DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140217 Ref country code: MC Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
26N | No opposition filed |
Effective date: 20140905 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: MM4A |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502011001736 Country of ref document: DE Effective date: 20140905 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20140217 Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20140228 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R082 Ref document number: 502011001736 Country of ref document: DE Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R082 Ref document number: 502011001736 Country of ref document: DE Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R082 Ref document number: 502011001736 Country of ref document: DE Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE Ref country code: DE Ref legal event code: R081 Ref document number: 502011001736 Country of ref document: DE Owner name: SIVANTOS PTE. LTD., SG Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SINGAPORE, SG |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 6 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SM Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20140305 Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO Effective date: 20110217 Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 7 |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: MM01 Ref document number: 643937 Country of ref document: AT Kind code of ref document: T Effective date: 20160217 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20160217 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 8 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20131204 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: DE Payment date: 20240216 Year of fee payment: 14 Ref country code: GB Payment date: 20240222 Year of fee payment: 14 Ref country code: CH Payment date: 20240301 Year of fee payment: 14 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20240221 Year of fee payment: 14 Ref country code: DK Payment date: 20240221 Year of fee payment: 14 |