DE202009018698U1 - Künstlicher Kehlkopf - Google Patents

Künstlicher Kehlkopf Download PDF

Info

Publication number
DE202009018698U1
DE202009018698U1 DE200920018698 DE202009018698U DE202009018698U1 DE 202009018698 U1 DE202009018698 U1 DE 202009018698U1 DE 200920018698 DE200920018698 DE 200920018698 DE 202009018698 U DE202009018698 U DE 202009018698U DE 202009018698 U1 DE202009018698 U1 DE 202009018698U1
Authority
DE
Germany
Prior art keywords
speech
loss compensating
compensating means
tongue
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE200920018698
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of the Witwatersrand, Johannesburg
Original Assignee
University of the Witwatersrand, Johannesburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of the Witwatersrand, Johannesburg filed Critical University of the Witwatersrand, Johannesburg
Publication of DE202009018698U1 publication Critical patent/DE202009018698U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/20Epiglottis; Larynxes; Tracheae combined with larynxes or for use therewith
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/20Epiglottis; Larynxes; Tracheae combined with larynxes or for use therewith
    • A61F2002/206Speech aids with external actuators, e.g. electrical larynxes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/057Time compression or expansion for improving intelligibility
    • G10L2021/0575Aids for the handicapped in speaking

Abstract

Mittel zur Kompensierung eines Sprachverlustes, umfassend eine Sensoreinheit mit einem Palatometer und einem Pseudopalatum, wobei die Sensoreinheit in der Lage ist, die Position der Zunge des Anwenders während des Versuchs der Artikulation von Worten und/oder Lauten zu erfassen, einen an die Sensoreinheit angeschlossenen Komparator zum Abgleich der Position der Zunge des Anwenders im Gebrauch mit einer Bibliothek gespeicherter Zungenpositionen und zugeordneter Worte und/oder Laute und einen Lautsprecher, der, sollte eine Übereinstimmung zwischen den erfassten Zungenpositionen und den gespeicherten Zungenpositionen gefunden werden, einen Laut projiziert, der den gespeicherten Zungenpositionen zugeordnet ist.

Description

  • GEBIET DER ERFINDUNG
  • Diese Erfindung betrifft ein Mittel zur Kompensierung des vollständigen oder eines partiellen Sprachverlustes nach einem chirurgischen Eingriff, zum Beispiel einer Laryngektomie, einem Unfall oder einer angeborenen Fehlbildung.
  • HINTERGRUND DER ERFINDUNG:
  • Die Fähigkeit stimmlich zu kommunizieren ist eine Fertigkeit, die viele Menschen als selbstverständlich betrachten. Manche Menschen verlieren jedoch durch einen chirurgischen Eingriff, wie eine Laryngektomie, ihre Fähigkeit zu sprechen. Eine Laryngektomie ist eine Operation, bei der der Larynx (oder ”Kehlkopf”) eines Patienten aufgrund von Kehlkopf-, Speiseröhren- oder Rachenkrebs entfernt wird [1]. Dem Patienten stehen eine Reihe von alternativen Kommunikationsmöglichkeiten zur Verfügung, jedoch erzeugt, wie nachstehend gezeigt, keines dieser Vorrichtungen natürlich klingende Sprache.
  • Anatomisch gesehen ist der Kehlkopf Teil der Durchlassröhre, die Rachen (Pharynx) und Luftröhre (Trachea) miteinander verbindet. Er hat zwei wesentliche Funktionen [2]:
    • 1. beim Schlucken das Eindringen von fester und flüssiger Nahrung in die Luftröhre und die Lungen zu verhindern; und
    • 2. die Lautbildung.
  • Er besteht aus einer Reihe von unterschiedlichen Knorpeln und Muskeln, die den Kehlkopf beim Atmen offen halten und die die Stimmritze (Glottis) beim Schlucken und Sprechen verschließen. Der Kehldeckel (Epiglottis) ist eine löffelförmige Struktur, die beim Schlucken hilft, die Stimmritze zu schließen. Die Stimmfalten im Kehlkopf werden von Muskeln gesteuert und zur Lautbildung eingesetzt [2].
  • Eine Laryngektomie ist ein Verfahren zur Entfernung des Kehlkopfes. Bei einer Laryngektomie wird der gesamte Kehlkopf einschließlich des Schild- und des Ringknorpels entfernt [3]. Sobald dies geschehen ist, wird der obere Teil der Luftröhre mit der Vorderseite des Halses verbunden, um eine permanente Öffnung (die Trachealöffnung) zu erzeugen [4]. Dies ist in 1 dargestellt. Die Trachealöffnung dient hauptsächlich der Atmung. Die Laryngektomie hat zur Folge, dass der Patient absolut unfähig ist zu phonieren, und dies liegt an der kompletten Entfernung der Stimmbänder.
  • Derzeitige Möglichkeiten zur Phonation
  • Wie oben erwähnt, besteht eine Reihe von Möglichkeiten, mit denen der Patient versuchen kann, seine Stimme wiederzuerlangen. Jedoch sind Ösophagusstimme und Tracheo-Ösophagusstimme (Prothesenstimme) die gebräuchlichsten, wobei die Tracheo-Ösophagusstimme zunehmend als Gold-Standard im Bereich der künstlichen Spracherzeugung gilt. Einige der gebräuchlichen Möglichkeiten sind:
    • 1. Elektrolarynxstimme: Diese beinhaltet den Einsatz eines Elektrolarynx, eines batteriebetriebenen Messwandlers, der ein Brummen in den Vokaltrakt des Patienten einleitet [1]. Der Laut kann mit einer tragbaren Vorrichtung über den Hals oder mit einer intraoralen Vorrichtung in die Mundhöhle eingeleitet werden. Patienten artikulieren den Laut dann mit dem Mund in Worte. Es stehen Vorrichtungen mit Tonhöhenregulierung und Lautstärkeregulierung zur Verfügung [4]. Diese Form der Rehabilitation bietet eine kurze Anlernzeit und die Vorrichtung kann unmittelbar nach der Operation eingesetzt werden. Außerdem steht sie jederzeit zur Verfügung und verursacht geringe Kosten. Diese Vorrichtung erzeugt jedoch einen mechanischen Laut und ist auf Batterien und die Pflege der intraoralen Röhren angewiesen [5].
    • 2. Pneumatische Sprechhilfe: Diese Vorrichtung wird mit der Trachealöffnung am Hals des Patienten verbunden. Wenn der Patient sprechen möchte, wird Luft aus den Lungen in die Vorrichtung befördert, wodurch ein Gummibändchen in Schwingungen versetzt wird und Laute erzeugt. Diese Laute werden dann zur Modulation über einen Plastiktubus in den Mund des Patienten eingeleitet [4]. Diese Vorrichtung bietet eine kurze Anlernzeit und verursacht geringe Kosten, aber sie erzeugt einen näselnden Laut und ist auffällig. Sie erfordert ebenfalls die Pflege der intraoralen Röhren. Diese Methode wird generell als veraltet betrachtet.
    • 3. Ösophagusstimme: Diese Art der Phonation erfordert keine externe Vorrichtung. Der obere Teil der Speiseröhre des Patienten dient als Luftspeicher. Wenn der Patient kommunizieren möchte, wird diese Luft aus der Speiseröhre ausgestoßen und versetzt das pharyngoösophageale Segment in Schwingungen, sodass Laute erzeugt werden, die der Patient mit seinem Mund modulieren kann [4]. Diese Form der Ersatzstimme ist weniger auffällig als der Elektrolarynx. Außerdem erfordert sie keine Batterien, hat keinen mechanischen Klang und benötigt keine Hand. Die Erfolgsrate dieser Methode weist große Schwankungen auf (berichtete Erfolgsraten von 14–76% [6]), wobei einige Anwender die Technik aufgrund von Sodbrennen oder Aufblähung durch die geschluckte Luft aufgeben [7].
    • 4. Tracheo-Ösophagusstimme: Dies ist die derzeit am weitesten verbreitete Option zur Stimmrehabilitation. Während (primäre ösophageale Punktion) oder nach (sekundäre ösophageale Punktion) der Laryngektomie wird ein Loch zwischen Luftröhre und Speiseröhre erzeugt. Dann wird ein Einwegventil in das Loch eingepasst, durch das die Luft von der Luftröhre in die Speiseröhre eintreten kann. Wenn der Patient Laute bilden möchte, wird die Trachealöffnung blockiert und Luft gelangt von der Luftröhre in die Speiseröhre. Diese erzeugt Schwingungen und eine Lautquelle, die der Patient modulieren kann [4]. Diese Methode hat eine gute Erfolgsrate (95% der Patienten erreichen eine effektive, Konversation ermöglichende Sprechfähigkeit, wobei 88% eine gute Stimmqualität erreichen [8]). Diese Methode erfordert während des Sprechens die Abdeckung des Stoma mit der Hand sowie regelmäßige Pflege und Ersatz der Prothese.
  • Trotz der verschiedenen oben genannten Optionen erlangt ein bedeutender Prozentsatz, 7–40% der Patienten, nie irgendeine Art der Sprache wieder [1].
  • Eine Reihe neuartiger künstlicher Kehlköpfe sind in der neueren Literatur vorgeschlagen worden. Es wird an einer neuen Schwingungsquelle für Elektrolarynxe von [9] mit PZT-Keramik geforscht. Durch die Untersuchung der Veränderungen des Magnetfelds während des Sprechens wurde ein System zur Erkennung von Worten einer Testperson entwickelt, die Magnete an Lippen, Zähnen und Zunge trug [10].
  • Die vorliegende Erfindung führt einen neuen Typ eines künstlichen Kehlkopfes ein, der viele der Nachteile der bekannten Vorrichtungen vermeidet. Diese neue Vorrichtung verwendet dynamische Messungen der Zungenposition, um Rückschlüsse auf die Sprechabsicht zu ziehen, und übermittelt diese Signale an eine elektronische Einheit zur nahezu Echtzeit-Sprachsynthese.
  • Obwohl eine Laryngektomie bei weitem die häufigste Art ist, auf die Menschen ihre Fähigkeit zu sprechen verlieren, kann ein Unfall, der die Kehle in Mitleidenschaft zieht, einen Kehlkopf so stark quetschen, dass ein Mensch nicht in der Lage ist, ordentlich zu kommunizieren.
  • AUFGABE DER ERFINDUNG
  • Es ist eine Aufgabe dieser Erfindung, ein Mittel zur Kompensierung des vollständigen oder eines partiellen Sprachverlustes nach einem chirurgischen Eingriff, zum Beispiel einer Laryngektomie, oder einem Unfall bereitzustellen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit dieser Erfindung ist ein Mittel zur Kompensierung eines Sprachverlustes vorgesehen, das eine Sensoreinheit zur Erfassung der Position der Zunge des Anwenders während des Versuchs der Artikulation von Worten und/oder Lauten, einen an die Sensoreinheit angeschlossenen Komparator zum Abgleich der Position der Zunge des Anwenders im Gebrauch mit einer Bibliothek gespeicherter Zungenpositionen und zugeordneter Worte und/oder Laute und einen Lautsprecher umfasst, der, sollte eine Übereinstimmung zwischen den erfassten Zungenpositionen und den gespeicherten Zungenpositionen gefunden werden, einen Laut projiziert, der den gespeicherten Zungenpositionen zugeordnet ist.
  • Außerdem ist vorgesehen, dass der Komparator einen Prozessor enthält, der im Gebrauch durch Auswahl und, falls nötig, durch Modifizierung zugeordneter Worte und/oder Laute, Worte und/oder Laute erzeugt, die vom Lautsprecher projiziert werden.
  • Außerdem ist vorgesehen, dass die Position der Zunge des Anwenders mit einem Palatometer und einem Pseudopalatum, vorzugsweise einem Logometrix-Pseudopalatum, erfasst und überwacht wird, wobei das Palatometer eine Vielzahl von, vorzugsweise mehr als einhundert und vorzugsweise einhundertundachtzehn, Drucksensoren aufweist, die die Position der Zunge des Anwenders in Bezug zum Gaumen während des Versuchs der Artikulation von Worten und/oder Lauten erkennen.
  • Ferner ist vorgesehen, dass die Position der Zunge des Anwenders in Bezug zum Gaumen während des Versuchs der Artikulation von Worten und/oder Lauten auf zweidimensionale Raum-Zeit-Kurven reduziert wird, die in ein neuronales Netz, vorzugsweise ein mehrlagiges Perzeptron, zum Analyse-Training und zur Wort- und/oder Lautsynthese eingespeist werden.
  • Ferner ist vorgesehen, dass eine Ausgabe eines trainierten neuronalen Netzes an einen Wortgenerator geschickt wird, um künstliche Sprachmuster oder künstliche Sprache zu erzeugen, die vorzugsweise die Original-Sprachmuster oder die Originalsprache eines Patienten simulieren.
  • Ferner ist vorgesehen, dass ein Hidden-Markov-Modell (HMM) verwendet wird, um Worte vorauszuahnen und eine Echtzeitausgabe von Worten zu ermöglichen.
  • Ferner ist vorgesehen, dass geeignete Algorithmen zur Erzielung eines künstlichen Sprachmusters verwendet werden, die dem Originalklangbild eines Anwenders so ähnlich wie möglich sind, dass die Algorithmen, zusätzlich zu einer Eingabe vom HMM, andere physiologische Signale, vorzugsweise in Bezug auf Kieferbewegung, Lippenbewegung und Einatmung sowie Ausatmung, zur Synthese der Stimme eines Patienten verwenden.
  • KURZE BESCHREIBUNG EINER AUSFÜHRUNGSFORM DER ERFINDUNG
  • Die oben genannten und zusätzliche Merkmale der Erfindung werden nachfolgend exemplarisch und mit Bezug auf die dazugehörigen Figuren beschrieben, wobei:
  • 1: die grundlegende Anatomie eines Patienten nach einer Laryngektomie entnommen aus [11] zeigt;
  • 2
    • a) ist ein Screenshot eines Logometrix-Systems, das die Anordung der Sensoren auf dem LogoMetrix-Pseudopalatum zeigt (entnommen aus [11]); und
    • b) stellt das Logometrix-System dar und zeigt ein Pseudopalatum und ein Palatometer entnommen aus [11];
  • 3 ist eine Raum-Zeit-Darstellung der Worte ”sentence” [Anmerkung des Übersetzers: deutsch „Satz”], ”picture” [Anmerkung des Übersetzers: deutsch „Bild”] und ”very” [Anmerkung des Übersetzers: deutsch „sehr”] entnommen aus [11]; und
  • 4 ein Wahl- und Vorhersageschema für Worte und/oder Laute
  • BESCHREIBUNG EINER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Eine Ausführungsform der Erfindung wird nun exemplarisch beschrieben. In dieser Ausführungsform verwendet ein Mittel zur Kompensierung eines Sprachverlusts, auch bezeichnet als künstlicher Kehlkopf, dynamische Messungen der Zungenposition, um Rückschlüsse auf eine Sprechabsicht zu ziehen, und diese Signale werden an eine elektronische Einheit zur nahezu Echtzeit-Sprachsynthese übermittelt. Die dynamische Messung der Zunge wird durch den Einsatz eines LogoMetrix-Elektropalatographie-Systems, bestehend aus Palatometer und Pseudopalatum (LogoMetrix, Arizona), erreicht. Durch die Verwendung einer Kombination aus Daten vom Palatometer und anderen biologischen Signalen ist es möglich, Rückschlüsse auf die Äußerungen des Patienten zu ziehen.
  • A. Das LogoMetrix-Elektropalatographie(EPG)-System
  • Das LogoMetrix-System verwendet ein Pseudopalatum, um während des Sprechens dynamische Echtzeit-Informationen über den Zunge-Gaumen-Kontakt zu liefern. Diese Daten werden von dem Pseudopalatum gesammelt, das 118 über den Gaumen verteilte Berührungssensoren aus Gold aufweist (siehe 2). Gaumendaten werden mit 100 Hz abgetastet. Ein Pseudopalatum wird individuell für den Mund jedes Anwenders hergestellt, um so eine korrekte Passform zu gewährleisten.
  • B. Darstellung der Daten
  • Daten von 50 gebräuchlichen Worten wurden mit dem Pseudopalatum-System aufgezeichnet. Die Kontaktmuster des Pseudopalatums wurden dann vom Audiosignal getrennt. Diese Signale wurden dann mit MATLAB in eine 2D-Raum-Zeit-Kurve umgewandelt (siehe 3). Auf diese Weise bleibt die dynamische Natur der Signale erhalten und Standard-Bildverarbeitungstechniken können angewandt werden.
  • C. Bilderkennung
  • Durch die Verwendung einer Vielfalt von Bilddeskriptoren werden einzigartige Informationen über die 2D-Raum-Zeit-Bilder in ein neuronales Netz (mehrlagiges Perzeptron (MLP)) eingespeist [12]. Dies wird trainiert, um verschiedene Bilddeskriptoren mit spezifischen Worten im Vokabular des Systems zu verbinden.
  • Ein Wahlsystem eines neuronalen Netzes (mehrlagiges Perzeptron) (mit einer gewissen Grammatikvorhersage) wird in 4 gezeigt, und dieses System identifiziert das Eingabewort zu 94,14% korrekt und hat eine Zurückweisungsrate von 17,74% der eingegebenen Worte (siehe 4). Die verwendeten Bilddeskriptoren sind: reine Korrelation, Bildeigenschaften (wobei Bildstatistiken verwendet werden wie Fläche, Euler-Zahl, Centroid-Position usw.) und Korrelationskoeffizienten. In dieser Anwendung wurden Vorlagen von jedem der Worte erzeugt, indem aus einer Reihe von Fällen für jedes Wort gemeinsam der Durchschnitt ermittelt wurde. Diese Vorlagen konnten dann in Beziehung zu einem unbekannten Wort gesetzt werden, und die Vorlage mit dem höchsten Korrelationskoeffizienten wird als die beste Übereinstimmung zum unbekannten Wort angenommen. Korrelationskoeffizienten bestehen aus den Koeffizienten, die durch Korrelation jeder Vorlage mit einem unbekannten Wort gefunden werden.
  • Ein Hidden-Markov-Modell (HMM) kann verwendet werden, um die Worte vorauszuahnen und eine Echtzeitausgabe der Worte zu ermöglichen. Andere Techniken der künstlichen Intelligenz und Mustererkennung können ebenfalls berücksichtigt werden.
  • D. Sprachsynthese
  • Die Ausgaben aus dem MLP und dem HMM werden an einen Wortgenerator geschickt. Algorithmen werden einbezogen, um ein künstliches Sprachmuster zu erreichen, das dem Originalklangbild des Patienten so ähnlich wie möglich ist. Dies erfolgt durch Übermittlung anderer physiologischer Signale (wie Kieferöffnung, Lippenbewegung usw.) an den Wortgenerator zur Modulation der Ausgabe. Laut Menezes et al. [13] entspricht die Größe der Kieferöffnung einer zunehmenden Silbengröße und -betonung. In Lim et al. [14] wurde gezeigt, dass die Grundfrequenz (Fo) bei der Vokalerzeugung mit zunehmender Kieferöffnung abnimmt. Einatmung und Ausatmung können ebenfalls zur zeitlichen Koordinierung genutzt werden. Diese Informationen sind alle nützlich, um den Ton und die Qualität der künstlichen Sprachausgabe so real und naturgetreu wie möglich zu machen.
  • Stimmen-Morphing ist der Prozess, bei dem die Stimme eines Quellsprechers modifiziert wird, so dass sie klingt wie die Stimme eines Zielsprechers. Die auf dem Gaußschen Verteilungsmodell basierende Methode der Morphologie der Stimme, wie in [15, 16, 17] dargelegt, ist implementiert worden. Mit einer Probe der Stimme des laryngektomierten Patienten vor der Laryngektomie können die aufgezeichneten Worte in die Stimme des Patienten verwandelt werden.
  • Es ist beabsichtigt, dass der oben beschriebene künstliche Kehlkopf zu einer praktikablen Option für laryngektomierte Patienten entwickelt wird. Die vorgeschlagene Vorrichtung ist eine Neuheit, weil die Sprachsynthese und die Erkennung der Sprechabsicht getrennt sind, so dass die Implantation des lautbildenden Teils des künstlichen Kehlkopfs überflüssig gemacht wird.
  • LITERATURVERZEICHNIS
    • 1. Takahashi H, Nakao M, Kikuchi Y und Kaga K, „Alaryngeal speech aid using an intra-oral electrolarynx and a miniature fingertip switch", Auris Nasus Larynx, Bd. 32, 2005, Seiten 157–162
    • 2. Van De Graaf, K. M, „Human Anatomy", 6. Auflage, New York: McGraw-Hill Higher Education, 2002
    • 3. Shoureshi R. A, Chaghajerdi A, Aasted C und Meyers A, „Neural-based Prosthesis for Enhanced Voice Intelligibility in Laryngectomees", Tagungsbericht IEEE EMBS Conference on Neural Engineering, März 2003, Seiten 173–176
    • 4. Ng M. L, Kwok C. I und Chow S. W, „Speech performance of adult Cantonese-speaking laryngectomees using different types of alaryngeal phonation", Journal of Voice, Bd. 11, Nr. 3, 1997, Seiten 338–344
    • 5. Liu H. und Ng M, L, „Electrolarynx in voice rehabilitation", Auris Nasus Larynx, 34, 2007, Seiten 327–332
    • 6. P Jassar, R J A England und N D Stafford „Restoration of voice after laryngectomy", J R Soc Med, 92, 1999, Seiten 299–302
    • 7. Putney FJ. „Rehabilitation of the postlaryngectomized patient." Ann Otol Rhinol Laryngol, 67, 1958 Seiten 544–549
    • 8. Op de Coul BMR, Hilgers FJM, Balm AJM, Tan B, van den Hoogen FJA, van Tinteren H. „A decade of postlaryngectomy vocal rehabilitation in 318 patients. A single institution's experience with consistent application of Provox indwelling voice prostheses." Arch Otolaryngol Head Neck Surg, 126, 2000, Seiten 1320–1328
    • 9. Ooe K, Fukuda T und Arai F, „A New Type of Artificial Larynx Using a PZT Ceramics Vibrator as a Sound Source", IEEE/ASME Transactions an Mechatronics, Bd. 5, Nr. 2, Juni 2000
    • 10. Fagan MJ, EII SR, Gilbert JM, Sarrazin E und Chapman PM, „Development of a (silent) speech recognition system for patients following laryngectomy", Med Eng Phys, 2007, in Druck befindlich
    • 11. M J Russell, D M Rubin, B Widorowitz und T Marwala, „The Artificial Larynx: A Review of Current Technology and a Proposal for Future Development", NBC 2008, Bericht Bd. 20, Seiten 160–163, Juni 2008
    • 12. M J Russell, D M Rubin, T Marwala und B Wigdorowitz, „Pattern Recognition and Feature Selection for the Development of a New Artificial Larynx", Tagungsbericht des World Congress Of Biomedical Engineering and Medical Physics, München, September 2009, in Druck befindlich
    • 13. Menezes C., Erickson D. und Fujimura O, „Contrastive Emphasis: Comparison of Pitch Accents with Syllable Magnitudes", Tagungsbericht Speech Prosody, Frankreich, April 2002
    • 14. Lim M, Lin E. und Bones P. „Vowel Effect an Glottal Parameters and the Magnitude of Jaw Opening", Journal of Voice, Bd. 20, Nr. 1, 2006, Seiten 46–54
    • 15. H. Duxans, D. Erro, J. Pérez, F. Diego, A. Bonafonte, A. Moreno „Voice Conversion of Non-Aligned Data using Unit Selection", TC-Star Workshop an Speech to Speech Translation. Barcelona, Spanien, Juni 2006
    • 16. D. Erro, A. Moreno „Weighted Frequency Warping for Voice Conversion" InterSpeech 2007 – EuroSpeech. Antwerpen, Belgien, August 2007
    • 17. D. Erro, A. Moreno „Frame Alignment Method for Cross-lingual Voice Conversion" InterSpeech 2007 – EuroSpeech. Antwerpen, Belgien, August 2007
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Menezes et al. [13] [0030]
    • Lim et al. [14] [0030]

Claims (14)

  1. Mittel zur Kompensierung eines Sprachverlustes, umfassend eine Sensoreinheit mit einem Palatometer und einem Pseudopalatum, wobei die Sensoreinheit in der Lage ist, die Position der Zunge des Anwenders während des Versuchs der Artikulation von Worten und/oder Lauten zu erfassen, einen an die Sensoreinheit angeschlossenen Komparator zum Abgleich der Position der Zunge des Anwenders im Gebrauch mit einer Bibliothek gespeicherter Zungenpositionen und zugeordneter Worte und/oder Laute und einen Lautsprecher, der, sollte eine Übereinstimmung zwischen den erfassten Zungenpositionen und den gespeicherten Zungenpositionen gefunden werden, einen Laut projiziert, der den gespeicherten Zungenpositionen zugeordnet ist.
  2. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 1, worin der Komparator einen Prozessor enthält, der im Gebrauch durch Auswahl und, falls nötig, durch Modifizierung zugeordneter Worte und/oder Laute, Worte und/oder Laute erzeugt, die vom Lautsprecher projiziert werden.
  3. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 1 oder 2, worin das Pseudopalatum ein Logometrix Pseudopalatum ist.
  4. Mittel zur Kompensierung eines Sprachverlustes nach einem der vorstehenden Ansprüche, worin das Palatometer eine Vielzahl von Drucksensoren aufweist, die während des Versuchs der Artikulation von Worten und/oder Lauten die Position der Zunge des Anwenders in Bezug zum Gaumen erkennen.
  5. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 4, worin das Palatometer mehr als einhundert Drucksensoren aufweist.
  6. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 5, worin das Palatometer einhundertundachtzehn Drucksensoren aufweist.
  7. Mittel zur Kompensierung eines Sprachverlustes nach einem der vorstehenden Ansprüche, worin die Position der Zunge des Anwenders in Bezug zum Gaumen während des Versuchs der Artikulation von Worten und/oder Lauten auf zweidimensionale Raum-Zeit-Kurven reduziert wird, die in ein neuronales Netz zum Analyse-Training und zur Wort- und/oder Lautsynthese eingespeist werden.
  8. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 7, worin das neuronale Netz ein mehrlagiges Perzeptron ist.
  9. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 7 oder Anspruch 8, worin eine Ausgabe eines trainierten neuronalen Netzes an einen Wortgenerator geschickt wird, um künstliche Sprachmuster oder künstliche Sprache zu erzeugen.
  10. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 9, worin die künstlichen Sprachmuster oder die künstliche Sprache die Original-Sprachmuster oder die Originalsprache eines Anwenders simulieren.
  11. Mittel zur Kompensierung eines Sprachverlustes nach einem der vorstehenden Ansprüche, worin ein Hidden-Markov-Modell (HMM) verwendet wird, um Worte vorauszuahnen und eine Echtzeitausgabe von Worten zu ermöglichen.
  12. Mittel zur Kompensierung eines Sprachverlustes nach einem der vorstehenden Ansprüche, worin geeignete Algorithmen zur Erzielung eines künstlichen Sprachmusters verwendet werden, die dem Originalton eines Anwenders so ähnlich wie möglich sind.
  13. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 12 in Kombination mit Anspruch 11, worin die Algorithmen, zusätzlich zu einer Eingabe vom HMM, andere physiologische Signale zur Synthese der Stimme eines Anwenders verwenden.
  14. Mittel zur Kompensierung eines Sprachverlustes nach Anspruch 13, worin die anderen physiologischen Signale sich auf Kieferbewegung, Lippenbewegung und Einatmung sowie Ausatmung beziehen.
DE200920018698 2008-07-11 2009-06-30 Künstlicher Kehlkopf Expired - Lifetime DE202009018698U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ZA200805078 2008-07-11
ZA2008/05078 2008-07-11

Publications (1)

Publication Number Publication Date
DE202009018698U1 true DE202009018698U1 (de) 2012-11-27

Family

ID=41100841

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200920018698 Expired - Lifetime DE202009018698U1 (de) 2008-07-11 2009-06-30 Künstlicher Kehlkopf

Country Status (5)

Country Link
US (1) US9129595B2 (de)
EP (1) EP2304717A1 (de)
DE (1) DE202009018698U1 (de)
WO (1) WO2010004397A1 (de)
ZA (1) ZA201008581B (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012003602A1 (zh) * 2010-07-09 2012-01-12 西安交通大学 一种电子喉语音重建方法及其系统
CN104188736B (zh) * 2014-07-22 2016-06-29 北京航空航天大学 基于瘘口气流气压信号调控的电子人工喉训练系统及操作方法
TWI576826B (zh) * 2014-07-28 2017-04-01 jing-feng Liu Discourse Recognition System and Unit
US20170069306A1 (en) * 2015-09-04 2017-03-09 Foundation of the Idiap Research Institute (IDIAP) Signal processing method and apparatus based on structured sparsity of phonological features
WO2018204252A1 (en) * 2017-05-01 2018-11-08 Trustees Of Tufts College Electrolarynx devices and uses thereof
US10529355B2 (en) 2017-12-19 2020-01-07 International Business Machines Corporation Production of speech based on whispered speech and silent speech
CN108922565B (zh) * 2018-07-30 2021-07-13 四川大学 基于ftsl谱线的腭裂语音咽擦音自动检测方法
CN112641535A (zh) * 2020-12-17 2021-04-13 北京城市系统工程研究中心 基频可变式发声方法及自适应可变基频式电子人工喉
US11908478B2 (en) * 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5326349A (en) * 1992-07-09 1994-07-05 Baraff David R Artificial larynx
US6006175A (en) * 1996-02-06 1999-12-21 The Regents Of The University Of California Methods and apparatus for non-acoustic speech characterization and recognition
JP3894691B2 (ja) * 1999-10-18 2007-03-22 株式会社国際電気通信基礎技術研究所 口蓋プレートを用いたデータ入力装置
GB2387709B (en) * 2000-11-15 2005-04-06 Logometrix Corp Method for utilizing oral movement and related events

Non-Patent Citations (19)

* Cited by examiner, † Cited by third party
Title
D. Erro, A. Moreno "Frame Alignment Method for Cross-lingual Voice Conversion" InterSpeech 2007 - EuroSpeech. Antwerpen, Belgien, August 2007
D. Erro, A. Moreno "Weighted Frequency Warping for Voice Conversion" InterSpeech 2007 - EuroSpeech. Antwerpen, Belgien, August 2007
Fagan MJ, EII SR, Gilbert JM, Sarrazin E und Chapman PM, "Development of a (silent) speech recognition system for patients following laryngectomy", Med Eng Phys, 2007
H. Duxans, D. Erro, J. Pérez, F. Diego, A. Bonafonte, A. Moreno "Voice Conversion of Non-Aligned Data using Unit Selection", TC-Star Workshop an Speech to Speech Translation. Barcelona, Spanien, Juni 2006
Lim et al. [14]
Lim M, Lin E. und Bones P. "Vowel Effect an Glottal Parameters and the Magnitude of Jaw Opening", Journal of Voice, Bd. 20, Nr. 1, 2006, Seiten 46-54
Liu H. und Ng M, L, "Electrolarynx in voice rehabilitation", Auris Nasus Larynx, 34, 2007, Seiten 327-332
M J Russell, D M Rubin, B Widorowitz und T Marwala, "The Artificial Larynx: A Review of Current Technology and a Proposal for Future Development", NBC 2008, Bericht Bd. 20, Seiten 160-163, Juni 2008
M J Russell, D M Rubin, T Marwala und B Wigdorowitz, "Pattern Recognition and Feature Selection for the Development of a New Artificial Larynx", Tagungsbericht des World Congress Of Biomedical Engineering and Medical Physics, München, September 2009
Menezes C., Erickson D. und Fujimura O, "Contrastive Emphasis: Comparison of Pitch Accents with Syllable Magnitudes", Tagungsbericht Speech Prosody, Frankreich, April 2002
Menezes et al. [13]
Ng M. L, Kwok C. I und Chow S. W, "Speech performance of adult Cantonese-speaking laryngectomees using different types of alaryngeal phonation", Journal of Voice, Bd. 11, Nr. 3, 1997, Seiten 338-344
Ooe K, Fukuda T und Arai F, "A New Type of Artificial Larynx Using a PZT Ceramics Vibrator as a Sound Source", IEEE/ASME Transactions an Mechatronics, Bd. 5, Nr. 2, Juni 2000
Op de Coul BMR, Hilgers FJM, Balm AJM, Tan B, van den Hoogen FJA, van Tinteren H. "A decade of postlaryngectomy vocal rehabilitation in 318 patients. A single institution's experience with consistent application of Provox indwelling voice prostheses." Arch Otolaryngol Head Neck Surg, 126, 2000, Seiten 1320-1328
P Jassar, R J A England und N D Stafford "Restoration of voice after laryngectomy", J R Soc Med, 92, 1999, Seiten 299-302
Putney FJ. "Rehabilitation of the postlaryngectomized patient." Ann Otol Rhinol Laryngol, 67, 1958 Seiten 544-549
Shoureshi R. A, Chaghajerdi A, Aasted C und Meyers A, "Neural-based Prosthesis for Enhanced Voice Intelligibility in Laryngectomees", Tagungsbericht IEEE EMBS Conference on Neural Engineering, März 2003, Seiten 173-176
Takahashi H, Nakao M, Kikuchi Y und Kaga K, "Alaryngeal speech aid using an intra-oral electrolarynx and a miniature fingertip switch", Auris Nasus Larynx, Bd. 32, 2005, Seiten 157-162
Van De Graaf, K. M, "Human Anatomy", 6. Auflage, New York: McGraw-Hill Higher Education, 2002

Also Published As

Publication number Publication date
WO2010004397A1 (en) 2010-01-14
US9129595B2 (en) 2015-09-08
US20110190881A1 (en) 2011-08-04
ZA201008581B (en) 2011-07-27
EP2304717A1 (de) 2011-04-06

Similar Documents

Publication Publication Date Title
DE202009018698U1 (de) Künstlicher Kehlkopf
Esling et al. Voice quality: The laryngeal articulator model
Stathopoulos et al. Developmental changes in laryngeal and respiratory function with variations in sound pressure level
Sapienza et al. Respiratory and laryngeal measures of children and women with bilateral vocal fold nodules
CN105982641A (zh) 一种言语语言听觉障碍多参数诊疗康复设备及云康复系统
Robb Intro: A guide to communication sciences and disorders
KR20190037175A (ko) 발화 개선을 위한 두경부 물리 특성 기반의 발화 개선 가이드 및 피드백 및 피드백 시스템
DE102020110901B4 (de) Verfahren zum Erzeugen einer künstlichen Stimme
Verkerke et al. Sound-producing voice prostheses: 150 years of research
Kuruvilla-Dugdale et al. An exploratory model of speech intelligibility for healthy aging based on phonatory and articulatory measures
Dehais-Underdown et al. In and out: production mechanisms in Human Beatboxing
Slifka Respiratory constraints on speech production at prosodic boundaries
Yanagisawa et al. Role of the soft palate in laryngeal functions and selected voice qualities
DE102009023924B4 (de) Verfahren und System zur Spracherkennung
US11076950B2 (en) Electrolarynx devices and uses thereof
Milstein Laryngeal function associated with changes in lung volume during voice and speech production in normal speaking women
Russell et al. The artificial larynx: A review of current technology and a proposal for future development
Werner The phonetics of speech breathing: pauses, physiology, acoustics, and perception
Ifukube et al. Assistive tool design for speech production disorders
Scripture Records of speech in disseminated sclerosis
Nair et al. A case study on the efficacy of ultrasound biofeedback in voice pedagogy.
Bristowe The physiological and pathological relations of the voice and speech
Ooe et al. Development of the compact control system using of neck emg signal for welfare applications
Badcock Speech therapy for certain vocal disorders
Lee A Study of Laryngeal Source Variables, Their Employment as Distinctive Cues for the Plosive Consonants of English, Hindi and Korean, and Their Inherent Distinguishability as Measured in a Non-linguistic Perception Test

Legal Events

Date Code Title Description
R150 Term of protection extended to 6 years
R207 Utility model specification

Effective date: 20130117

R151 Term of protection extended to 8 years
R158 Lapse of ip right after 8 years