AT518314A1 - Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung - Google Patents
Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung Download PDFInfo
- Publication number
- AT518314A1 AT518314A1 ATA50212/2016A AT502122016A AT518314A1 AT 518314 A1 AT518314 A1 AT 518314A1 AT 502122016 A AT502122016 A AT 502122016A AT 518314 A1 AT518314 A1 AT 518314A1
- Authority
- AT
- Austria
- Prior art keywords
- entry
- speech
- orientation
- control method
- linguistic value
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000014509 gene expression Effects 0.000 claims abstract description 34
- 239000003607 modifier Substances 0.000 claims description 21
- 230000003068 static effect Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 4
- 230000036651 mood Effects 0.000 description 28
- 230000016571 aggressive behavior Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000001914 calming effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 229920002472 Starch Polymers 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000019698 starch Nutrition 0.000 description 1
- 239000008107 starch Substances 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Toys (AREA)
Abstract
Ein Steuerungsverfahren zum Steuern eines Endgerätes auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe (LI) umfasst ein Umwandeln der Spracheingabe (LI) in maschinenlesbare Sprachdaten (LD), die eine Mehrzahl von Sprachelementen enthalten; ein Vergleichen der Sprachdaten (LD) mit wenigstens einer Orientierung (22), wobei die Orientierung (22) eine Mehrzahl von spezifischen Einträgen enthält, wobei jedem Eintrag ein im Voraus festgelegter Linguistikwert (LV) und Eintragstyp zugeordnet sind, um eine Aussagestärke für jedes Sprachelement, das einem Eintrag entspricht zu ermitteln; ein Ermitteln der Gesamtaussagestärke (TEV) auf Basis der jeweiligen Aussagestärken; und ein Erzeugen eines Steuersignals (CS) für das Endgerät auf Basis der Gesamtaussagestärke (TEV).
Description
Steuerungsverfahren zum Steuern eines Endgerätes sowie SteuerungsVorrichtung zu dessen Durchführung
Die Erfindung betrifft ein Steuerungsverfahren zum Steuern eines Endgerätes auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe. Ferner betrifft die Erfindung eine Steuerungsvorrichtung zur Durchführung des Verfahrens.
Die Steuerung eines Endgerätes auf Basis unterschiedlicher Spracheingaben ist ein zukunftsorientiertes Forschungsgebiet. In unserer zusehends technokratischen Gesellschaft zeigt sich ein erhöhter Bedarf an Automatisierung nicht nur in der Industrie sondern auch im privaten Bereich, beispielsweise in Smart-Home-Umgebungen. Heutige Steuerungsverfahren sind zwar in der Lage einfache vordefinierte Kommandos oder Sprachbefehle zu verstehen. Zwischenmenschliche Kommunikation ist jedoch vielschichtig und enthält fein differenzierte Wertungen, die zusätzliche Information übertragen, aber mittels bekannter Steuerungsverfahren oder Steuerungsvorrichtungen nicht berücksichtigt werden können.
Der Begriff „Orientierung" bezeichnet hierin eine wertbasierte Lexikonliste. Ein Beispiel für eine Orientierung ist eine „basisspezifische Orientierung", die Einträge enthält, denen domänenunabhängig ein Linguistikwert zugeordnet ist. Ein weiteres Beispiel für eine Orientierung ist eine „domänenspezifische
Orientierung", die Einträge enthält, denen domänenspezifisch ein Linguistikwert zugeordnet ist. US 7 987 188 B2 offenbart einen domänenspezifischen Klassifikator der zum Bewerten der Polarität (positiv oder negativ) und des Ausmaßes einer Stimmung verwendet werden kann, die durch ein domänenspezifisches Dokument ausgedrückt wird. Ein domänenunabhängiges Lexikon wird erstellt und ein Klassifikator verwendet das domänenunabhängige Lexikon um die Stimmung der domänenspezifischen Dokumente zu bewerten. Gruppen von Dokumenten, die viele Aussagen - positiv wie negativ -enthalten, werden identifiziert. Häufig vorkommende n-Gramme in den Dokumenten werden entfernt. Die gefilterten n-Gramme werden als domänenspezifisches Stimmungslexikon gespeichert und als Eigenschaften in einem Modell benutzt. Das Modell wird anhand einer Menge von Trainingsdokumenten, die manuell oder automatisch nach ihrer Gesamtstimmung eingeordnet werden, trainiert, um eine Stimmungswertung für die n-Gramme in dem domänenspezifischen Stimmungslexikon zu erzeugen. US 8 239 189 B2 offenbart ein Verfahren zum Einschätzen einer Stimmung, die durch den Inhalt einer Informationsquelle vermittelt wird. Die Stimmung wird anhand eines Abfragekontexts ermittelt, der beispielsweise durch spezifische Termini oder Ausdrücke, wie einen Produkt- oder Dienstnamen, definiert ist. Es wird ein Stimmungswörterbuch mit einer Mehrzahl von
Stimmungseinträgen geschaffen, wobei jedem Stimmungseintrag ein Stimmungswert zugeordnet ist. Wenigstens einem
Stimmungseintrag ist ein Gruppenkontext zugeordnet. Textdokumente werden nach dem Auftreten der Stimmungseinträge durchsucht, die mit dem durch den Abfragekontext festgelegten Gruppenkontext assoziiert sind. Das Berechnen der Stimmungsbewertung wird als Funktion in Abhängigkeit von der Häufigkeit von Stimmungseinträgen durchgeführt, die einen ähnlichen oder denselben Gruppenkontext wie der Abfragekontext haben. US 2014 / 0 188 457 Al offenbart einen lexikalischen Kommentator, der einen Block von Kommunikationsdaten identifiziert und eine zugeordnete Stimmung erzeugt. Der lexikalische Kommentator wird in Echtzeit dazu verwendet, die Stimmung des Blocks von Kommunikationsdaten zu identifizieren, während die Kommunikationsdaten eines Nutzers überwacht werden. US 2015 / 0 120 283 Al offenbart ein computerimplementiertes System und Verfahren zum Bestimmen der GesamtStimmung eines Dokuments. Ein Textsegment wird als für die Gesamtstimmung maßgeblich identifiziert und auf eine Stimmungsskala abgebildet. Ein Stimmungsgewicht wird erzeugt und die Gesamtstimmung in Abhängigkeit von dem Stimmungsgewicht ermittelt. US 2014 / 0 219 571 Al offenbart ein Verfahren, ein Computerprogrammprodukt und ein System zum Berichten einer zeitabhängigen Stimmung eines Produkts. Eine Textanalyse wird auf wenigstens eine Kommunikation angewendet und wenigstens ein Merkmal des Produktes wird basierend auf der
Textanalyse bestimmt. Ein Stimmungswert wird anhand des Merkmals erzeugt und ein Datum, das dem Stimmungswert zugeordnet ist, wird bestimmt. Der Stimmungswert für das Merkmal wird über die Zeit berichtet. KR 10 2012 003 731 3 A offenbart ein System und ein Verfahren zum Erzeugen eines Wörterbuchs von Gefühlswörtern sowie zum Berechnen einer Stimmungsstärke eines Dokuments mittels des Wörterbuchs. WO 2012 / 134 180 A2 offenbart ein
Gefühlsklassifizierungsverfahren zum Analysieren von einem Satz innewohnenden Gefühlen. Emotionale Charakteristika der Wörter, die den Satz bilden, werden extrahiert und die dem Satz innewohnenden Gefühle werden mittels eines Gefühlssortierers klassifiziert. Folglich können Meinungsumfragen automatisiert werden. EP 1 265 227 Bl offenbart eine automatische Steuerung von Haushaltsgeräten mittels Erkennen von natürlicher Sprache. Spracherkennung und natürlichsprachliche Syntaxanalyse werden benutzt um die Bedeutung des der Nutzer gesprochenen Eingabe zu extrahieren. Das System speichert eine semantische Repräsentation eines elektronischen Aktivitätsleitfadens, wobei die Inhalte des Leitfadens auf die bei der Syntaxanalyse verwendeten Grammatiken abgebildet werden können. Wenn der Nutzer nun durch die komplexe Menüstruktur des elektronischen Aktivitätsleitfadens navigieren möchte, so muss er lediglich in natürlichsprachlichen Sätzen sprechen. Das
System filtert automatisch die Inhalte des Leitfadens und stellt dem Nutzer auf dem Bildschirm oder mittels synthetisierter Sprache eine Antwort auf seine Anfrage zur Verfügung. Das System ermöglicht es dem Nutzer, auf natürliche Weise mit unterschiedlichen Geräten, die mit dem Hausnetzwerk oder dem Hauscomputer verbunden sind, zu kommunizieren.
Das phonetische Verständnis von Spracherkennungssystemen ist zwar auf hohem Niveau, die semantische Interpretation der Inhalte bereitet hingegen nach wie vor vielfältige Probleme. Besonders dann, wenn neben hoher Qualität auch hohe Verarbeitungsgeschwindigkeit auf leistungsschwachen Geräten sowie deterministische Bewertungen gefordert sind. Trotz dieser Anforderungen beruhen bekannte Verfahren zumeist auf Methoden des maschinellen Lernens oder der Verwendung einfacher Keywordlisten. Daraus können allerdings schlechtere Performance oder nicht deterministische Ergebnisse resultieren. Vor allem in ressourcenschwachen Umgebungen sind daher natürlichsprachliche Echtzeitanalysen in Verbindung mit automatisierter und situationsbezogener Endgerätesteuerung bislang nicht sinnvoll umsetzbar.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, das ein situationsbezogenes Steuern einsatzspezifischer Endgeräte ermöglicht.
Die Aufgabe wird durch ein Steuerungsverfahren gemäß Anspruch 1 gelöst. Bevorzugte Ausgestaltungen des
Steuerungsverfahrens sind Gegenstand der Ansprüche 2 bis 10. Eine bevorzugte Verwendung des Steuerungsverfahrens ist Gegenstand des Anspruchs 11. Eine Steuerungsvorrichtung zur Durchführung des Steuerungsverfahrens ist Gegenstand des Anspruchs 12. Bevorzugte Verwendungen der Steuerungsvorrichtung sind Gegenstand des Anspruchs 13.
Die Erfindung schafft ein Steuerungsverfahren zum Steuern eines Endgerätes auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe. Das Steuerungsverfahren umfasst ein Umwandeln der Spracheingabe in maschinenlesbare Sprachdaten, die eine Mehrzahl von Sprachelementen enthalten. Ferner umfasst das Steuerungsverfahren ein Vergleichen der Sprachdaten mit wenigstens einer Orientierung, wobei die Orientierung eine Mehrzahl von spezifischen Einträgen enthält, wobei jedem Eintrag ein im Voraus festgelegter Linguistikwert zugeordnet ist, um eine Aussagestärke für jedes Sprachelement, das einem Eintrag entspricht, zu ermitteln. Weiter umfasst das Steuerungsverfahren ein Ermitteln der Gesamtaussagestärke auf Basis der jeweiligen Aussagestärken. Zudem umfasst das Steuerungsverfahren ein Erzeugen eines Steuersignals für das Endgerät auf Basis der Gesamtaussagestärke.
Die natürlichsprachliche, zwischenmenschliche Kommunikation wird im Einsatzbereich der Erfindung überwacht. Durch Umwandeln der Sprachinformationen in maschinenlesbares Textmaterial wird die Basis für eine weiterführende Sprachinterpretation geliefert. Mittels eines computerimplementierten Analyseverfahrens können die domänenspezifischen Komponenten der Kommunikation erkannt werden. Basierend auf den Ergebnissen werden Signale zur Steuerung angeschlossener Endgeräte generiert. Durch die Ermittlung der Gesamtaussagestärke können die Endgeräte angemessen auf den aktuellen Level der bewerteten Sprachinhalte reagieren. Somit können auf linguistischer Basis domänenspezifisch einzelne Komponenten menschlicher Sprache erkannt und bewertet werden, um mittels vordefinierter Regeln die Endgeräte zu steuern.
Es ist bevorzugt, dass die Sprachdaten mit einer Mehrzahl von Orientierungen, wobei die Mehrzahl von Orientierungen eine Basisorientierung mit einer Mehrzahl von basisspezifischen Einträgen und wenigstens eine Domänenorientierung mit einer Mehrzahl von domänenspezifischen Einträgen aufweist, verglichen werden. Insbesondere wird dabei, wenn der domänenspezifische Eintrag demselben Sprachelement wie der basisspezifische Eintrag entspricht, der domänenspezifische Eintrag gegenüber dem basisspezifischen Eintrag vorrangig behandelt. Vorzugsweise wird innerhalb derselben Orientierung ein Eintrag, der einen anderen Eintrag dieser Orientierung vollständig enthält, gegenüber dem anderen Eintrag vorrangig behandelt. Unterschiedliche Orientierungen ermöglichen verschiedene Anwendungsbereiche des Steuerungsverfahrens. So kann die Domäne abhängig von Zeit, Ort oder anderen physischen Gegebenheiten abhängen. Eine Basisorientierung stellt daher gewissermaßen ein Grundvokabular zur Verfügung, das universell anwendbar ist. Hingegen erlaubt eine Domänenorientierung die Anpassung auf geänderte Umstände. Somit kann eine Fehlinterpretation der
Spracheingabe vermieden und eine falsche Erzeugung eines Steuersignals verhindert werden. Eine Priorisierung der Einträge sorgt für eine differenziertere Auswertung und damit ein besser angepasstes Steuersignal.
Es ist bevorzugt, dass wenigstens einem Eintrag ein Eintragstyp zugeordnet ist, wobei beim Ermitteln der Gesamtaussagestärke die jeweiligen Aussagestärken in Abhängigkeit von dem Eintragstyp verknüpft werden. Insbesondere ist jedem Eintrag ein Eintragstyp zugeordnet. Ein Eintrag kann auch nur einen einzelnen Eintragstyp zugeordnet haben. Der Eintragstyp ist insbesondere aus einer Gruppe ausgewählt, die als Eintragstypen „Static", „Modifier", „Multiplier" und „Negator" enthält.
Vorzugsweise entspricht beim Eintragstyp „Static" die Aussagestärke dem Linguistikwert des Eintrags. Beim Eintragstyp „Modifier" kann entweder die Aussagestärke dem Linguistikwert des Eintrags entsprechen oder die Aussagestärke kann durch Verknüpfen des Linguistikwertes des Eintrags mit dem Linguistikwert eines durch den Eintrag modifizierten Eintrags ermittelt werden. Beim Eintragstyp „Multiplier" entspricht bevorzugt entweder die Aussagestärke dem Linguistikwert 0 oder die Aussagestärke kann durch Verknüpfen des Linguistikwertes des Eintrags mit dem Linguistikwert eines durch den Eintrag modifizierten Eintrags ermittelt werden. Insbesondere wird beim Eintragstyp „Negator" die Aussagestärke durch Verknüpfen des Linguistikwertes des Eintrags mit dem Linguistikwert des durch den Eintrag negierten Eintrags ermittelt. Die Anwendung unterschiedlicher Eintragstypen erlaubt eine weitere Differenzierung der Spracheingabe und damit eine Verbesserung des Steuersignals.
Vorzugsweise weist der Eintrag und/oder weisen die Einträge vom Eintragstyp „Static" und/oder vom Eintragstyp „Modifier" und/oder vom Eintragstyp „Multiplier" einen Linguistikwert von einer negativen Untergrenze bis zu einer positiven Obergrenze auf. Insbesondere kann der Eintrag oder können die Einträge vom Eintragstyp „Negator" einen Linguistikwert von einer negativen Untergrenze bis ausgeschlossen 0 aufweisen. Es ist bevorzugt, dass die wenigstens eine Orientierung wenigstens einen Eintrag umfasst, der ein Wort oder eine Wortgruppe enthält. Die Wortgruppe kann einen Wortgruppentyp aufweisen. Ferner kann die Wortgruppe ein Anfangswort und ein Endwort, die durch wenigstens einen Platzhalter getrennt sind, umfassen. Insbesondere wird das durch den Platzhalter repräsentierte Sprachelement beim Ermitteln der Gesamtaussagestärke in Abhängigkeit von dem Wortgruppentyp berücksichtigt oder nicht berücksichtigt. Standardisierte Ober- und Untergrenzen der Linguistikwerte sorgen für eine einfache Erweiterbarkeit der jeweiligen Orientierung, so dass deren Pflege und Wartung vereinfacht wird. Die Erkennung und Bewertung von Wortgruppen ermöglicht wiederum eine differenziertere Auswertung der Spracheingabe und kann damit das Steuersignal weiter verbessern.
Vorzugsweise wird die Gesamtaussagestärke deterministisch ermittelt. Insbesondere wird wenigstens ein Verfahrensschritt, bevorzugt alle Verfahrensschritte durch ein Datenverarbeitungsgerät ausgeführt. Vielfach verwenden
Spracherkennungsverfahren ein sogenanntes künstliches neuronales Netz, das mittels Maschinenlernverfahren trainiert wird. Es kann bei diesen Verfahren nicht deterministisch vorhergesagt werden, wie eine beliebige Spracheingabe, die nicht Teil des Lernverfahrens ist, sich auf das Steuersignal auswirkt. Bei der hier vorgeschlagenen deterministischen Bestimmung ist stets nachvollziehbar, welche Spracheingabe zu welchem Steuersignal führt. Dies ist auch deshalb wichtig, damit ein Übersteuern oder falsches Steuern frühzeitig erkannt und vermieden werden kann.
Insbesondere wird ein bevorzugtes Steuerungsverfahren zum Steuern eines Fahrzeugs, beispielsweise eines Kraftfahrzeugs, oder eines Spielzeugs oder eines Roboters oder einer Medizintechnikvorrichtung oder eines Haustechnik-Computers verwendet.
Die Erfindung schafft ferner eine Steuerungsvorrichtung zum Steuern eines Endgerätes auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe gemäß einem bevorzugten Steuerungsverfahren. Die Steuerungsvorrichtung umfasst eine Spracherkennungseinrichtung, eine Sprachinterpretationseinrichtung und eine Steuerungseinheit. Die Spracherkennungseinrichtung ist ausgebildet, die Spracheingabe in maschinenlesbare Sprachdaten, die eine Mehrzahl von Sprachelementen enthalten, umzuwandeln. Die
Sprachinterpretationseinrichtung ist ausgebildet, eine Gesamtaussagestärke auf Basis der Sprachdaten zu ermitteln und die wenigstens eine Orientierung, die eine Mehrzahl von spezifischen Einträgen enthält, wobei jedem Eintrag ein im Voraus festgelegter Linguistikwert zugeordnet ist, umfasst. Die Steuerungseinheit ist ausgebildet, auf Basis der Gesamtaussagestärke ein Steuersignal für das Endgerät zu erzeugen und an das Endgerät auszugeben. Die Sprachinterpretationseinrichtung ist ausgebildet, die Sprachdaten mit der wenigstens einen Orientierung zu vergleichen, um eine Aussagestärke für jedes Sprachelement, das einem Eintrag entspricht zu ermitteln, und die ausgebildet ist, die Gesamtaussagestärke auf Basis der jeweiligen Aussagestärken zu ermitteln.
Die Erfindung schafft ferner ein Fahrzeug, insbesondere ein Kraftfahrzeug, oder ein Spielzeug oder einen Roboter oder eine Medizintechnikvorrichtung oder einen Haustechnik-Computer, mit einer bevorzugten Steuerungsvorrichtung.
Ausführungsbespiele der Erfindung werden anhand der beigefügten schematischen Zeichnungen erläutert. Darin zeigt:
Fig. 1 eine schematische Ansicht eines
Ausführungsbeispiels der Steuerungsvorrichtung;
Fig. 2 ein Flussdiagramm eines Ausführungsbeispiels des Steuerungsverfahrens;
Fig. 3 eine erste Anwendung des Steuerungsverfahrens;
Fig. 4 eine zweite Anwendung des Steuerungsverfahrens;
Fig. 5 eine dritte Anwendung des Steuerungsverfahrens;
Fig. 6 eine vierte Anwendung des Steuerungsverfahrens; und
Fig. 7 eine fünfte Anwendung des Steuerungsverfahrens.
Es wird nachfolgend auf Fig. 1 Bezug genommen, die eine Steuerungsvorrichtung zeigt. Die Steuerungsvorrichtung umfasst eine Spracherkennungseinrichtung 10. Die Spracherkennungseinrichtung 10 ist ausgebildet, eine Spracheingabe LI in maschinenlesbare Sprachdaten LD, die eine Mehrzahl von Sprachelementen, wie etwa Wörter, enthalten, umzuwandeln. Die Spracheingabe LI kann bereits in elektronischer, akustischer oder textueller Form, etwa als Brief oder Schreiben auf Papier vorliegen. Die Spracherkennungseinrichtung 10 kann eine Schnittstelle für elektronische Eingabe, ein Mikrofon für akustische Eingabe oder einen Scanner für textuelle Eingabe aufweisen. Die Positionierung und Reichweite dieser Komponenten definieren den Einsatzbereich. Die von der Spracherkennungseinrichtung erzeugten Sprachdaten LD dienen als Ausgangsbasis der nachfolgenden linguistischen Bewertung.
Die Spracherkennungseinrichtung 10 weist ein Spracherkennungsmodul 11 auf, das die Spracheingabe LI strukturiert und für ein Umwandeln in maschinenlesbare
Sprachdaten LD, wie etwa ASCII-Text, vorbereitet. Die Spracherkennungseinrichtung 10 weist ferner ein Sprachumwandlungsmodul 12 auf, das die strukturierte Spracheingabe LI in die maschinenlesbaren Sprachdaten LD umwandelt. Ferner umfasst die Spracherkennungseinrichtung 10 ein Ausgabemodul 13 zum Ausgeben der Sprachdaten LD.
Die Steuerungsvorrichtung umfasst zudem eine Sprachinterpretationseinrichtung 20. Die Sprachinterpretationseinrichtung 20 empfängt die Sprachdaten LD von dem Ausgabemodul 13. Die Sprachinterpretationseinrichtung 20 enthält wenigstens ein Orientierungsvokabular 21. Ein Orientierungsvokabular 21 enthält seinerseits eine Mehrzahl von Orientierungen 22.
Die Orientierungen 22 enthalten linguistische Ressourcen 30 mit spezifischen Einträgen, wie beispielsweise Wörter und/oder Wortgruppen, wobei jedem spezifischen Eintrag ein Eintragstyp und ein Linguistikwert LV zugeordnet sind. Die Mehrzahl der Orientierungen 22 enthält eine einzelne Basisorientierung 23 und wenigstens eine Domänenorientierung 24.
Die Basisorientierung 23 enthält Einträge, deren Linguistikwert LV und Eintragstyp unabhängig von einer spezifischen Orientierung, wie etwa „Aggression", „Angst", „Wut", „Fröhlichkeit", „Subjektivität", „Ironie", „Plausibilität" und dergleichen, ist. Man spricht dann auch von basisspezifischen Einträgen. So könnte beispielsweise der basisspezifische Eintrag „böse" stets negativ bewertet sein.
Anders hingegen, enthält die Domänenorientierung 24 spezifische Einträge deren Linguistikwert LV und Eintragstyp abhängig von einer bestimmten Domäne ist. So könnte der Eintrag „bewundern" in der Orientierung „Subjektivität" einen positiven Linguistikwert LV aufweisen, wohingegen er in der Orientierung „Ironie" einen negativen Linguistikwert LV aufweist.
Innerhalb einer Orientierung 22 sind die spezifischen Einträge nach den Eintragstypen „Static" 31 (STA), „Modifier" 32 (MOD), „Multiplier" 33 (MUL) und „Negator" 34 (NEG) klassifiziert. Der Eintragstyp kann auch domänenabhängig sein, also unterschiedlich in verschiedenen Domänenorientierungen 24.
Den spezifischen Einträgen werden abhängig von ihrer Klassifikation diskrete Werte zugewiesen, die beispielsweise aus folgenden Mengen stammen: - Als Static 31 bezeichneten spezifischen Einträgen wird ein Linguistikwert LV aus der Menge {-1, -0.75, -0.5, -0.25, 0, 0.25, 0.5, 0.75, 1} zugewiesen. - Als Modifier 32 bezeichneten spezifischen Einträgen wird ein Linguistikwert LV aus der Menge {-1, -0,75, -0.5, -0.25, 0, 0.25, 0.5, 0.75, 1} zugewiesen. - Als Multiplier 33 bezeichneten spezifischen Einträgen wird ein Linguistikwert LV aus der Menge {-1, -0.75 -0.5, -0.25, 0, 0.25, 0.5, 0.75, 1} zugewiesen. - Als Negator 34 bezeichneten spezifischen Einträgen wird ein Linguisitikwert LV aus der Menge {-1, -0.75 -0.5, -0.25, 0} zugewiesen.
Die spezifischen Einträge weisen gewöhnlich einen Wortgruppentyp „Normal" auf.
Jedoch ist der Simplexterm „brechen" von der Wortgruppe „brechen ein" zu unterschieden. Der Wortgruppe kann daher auch ein Wortgruppentyp, nämlich „Typ 1" oder „Typ 2", zugwiesen sein. In der nachfolgenden Tabelle sind beispielhaft spezifische Einträge der Orientierung 22 mit unterschiedlichen Eintragstypen und Wortgruppentypen aufgelistet. Der Linguistikwert LV ist der Übersichtlichkeit halber weg gelassen.
Die Wortgruppe weist ein Anfangswort, ein Endwort und einen dazwischen vorgesehenen Platzhalter # für weitere Sprachelemente auf. Bei Wortgruppen vom „Typ 1" werden Sprachelemente die durch den Platzhalter # repräsentiert werden nicht berücksichtigt. Bei Wortgruppen vom „Typ 2" ist dies hingegen der Fall.
Die Sprachinterpretationseinrichtung 20 ist ausgebildet, die maschinenlesbaren Sprachdaten LD mit den spezifischen
Einträgen der Orientierungsvokabulare 21 zu vergleichen, um eine Gesamtaussagestärke TEV der Sprachelemente aus den einzelnen Aussagwerten der Spracheelemente zu ermitteln. Dies wird noch genauer beschrieben.
Die Steuerungsvorrichtung umfasst zudem eine Steuerungseinheit 40, die beispielsweise als Mikrocontroller ausgebildet sein kann oder Teil eines Datenverarbeitungsgerätes ist. Die Steuerungseinheit 40 weist ein Eingabemodul 41 auf, um die Gesamtaussagestärke TEV zu empfangen.
Die Steuerungseinheit 40 umfasst ferner ein Signalerzeugungsmodul 42, das aus der Gesamtaussagestärke TEV ein Steuerungssignal CS erzeugt. Das Signalerzeugungsmodul 42 greift zum Erzeugen des Steuerungssignals CS auf Steuerungsregeln 44 zurück, die Art und Ausmaß des Steuerungssignals CS bestimmen.
Die Steuerungseinheit 40 weist zudem ein Signalausgabemodul 43 auf, welches das Steuerungssignal CS an angeschlossene Endgeräte ausgibt. Das Signalausgabemodul 43 bildet somit eine Schnittstelle für die zu steuernden Endgeräte.
Es wird nachfolgend auf die Fig. 1 und die Fig. 2 Bezug genommen, anhand derer ein Ausführungsbeispiel eines Steuerungsverfahrens näher erläutert wird. Zunächst wird in einem Umwandlungsschritt 100 die Spracheingabe LI mittels der Spracherkennungseinrichtung 10 in maschinenlesbare Sprachdaten LD umgewandelt, beispielsweise: „Die Luft hier drinnen ist zu stickig, das akzeptiere ich nicht."
Diese Sprachdaten LD werden mittels des Ausgabemoduls 13 an die Sprachinterpretationseinrichtung 20 übermittelt. Sodann ermittelt die Sprachinterpretationseinrichtung 20 in einem Ermittlungsschritt 110 eine Gesamtaussagestärke TEV. Zunächst werden die Sprachdaten LD mit wenigstens einer Orientierung 22 verglichen. Wird ein spezifischer Eintrag aufgefunden (unterstrichen) , wird dessen Eintragstyp und Linguistikwert LV zwischengespeichert: „Die Luft hier drinnen ist zu stickig, das akzeptiere ich nicht." zu: MUL 0.5 stickig: MOD -0.25 akzeptiere: MOD 0.5 nicht: NEG -0.5
Anschließend wird aus den jeweiligen Linguistikwerten die Gesamtaussagestärke TEV in Abhängigkeit vom Eintragstyp bestimmt. Der Aussagewert eines Statics EVSTA entspricht dessen Linguistikwert LV, also EVSTA = LV. Der Aussagewert eines Modifiers EVMOD wird wie ein Static behandelt, wenn der Modifier für sich steht, also EVMOD = LV. Steht der Modifier im Kontext eines Statics, wird der Linguistikwert des Modifiers mit dem Linguistikwert des Statics kombiniert COMB. Somit ergibt sich als Aussagewert eines modifizierten Static EVMODSTA = COMB{EVMOD; EVSTA}. Steht ein Multiplier nicht im Kontext eines Statics oder Modifiers, wird sein Linguistikwert nicht berücksichtigt. Grenzt ein Multiplier hingegen an einen Modifier oder einen Static, verändert er deren Aussagestärke auf Basis seines Linguistikwertes.
Somit ergibt sich als Aussagewert einer Multiplier/Modifier Kombination EVMULMOD - COMB{EVMUL; EVMOD} oder einer Multiplier/Static Kombination EVMULSTA = COMB{EVMUL; EVSTA}. Negators dienen der Negation der Werte von Modifiern oder Statics. Deren Aussagestärke wird durch Multiplikation mit dem negativen Linguistikwert eines Negators umgekehrt, beispielsweise im Rahmen einer Modifier/Negator Kombination EVMODNEG = EVMOD * EVNEG. Die Eintragstypen werden beispielsweise in der Reihenfolge „Static", „Modifier", „Multiplier" und „Negator" berücksichtigt. Die Gesamtaussagestärke TEV wird auf Basis der Durchschnittswerte AVG der einzelnen Typenkombinationen ermittelt. Somit ergibt sich bei dem vorliegenden Beispiel eine Gesamtaussagestärke TEV von: TEV = AVG[EVMULMOD; EVMODNEG] = AVG[COMB{0.5; -0.25}; (0.5 * -1)] = AVG[-0,625; -0.5] = -0.56
Der Aussagewert der Multiplier/Modifier Kombination wird mithilfe der Funktion COMB wie folgt ermittelt:
EVMOD-(1+EVMOD)*EVMUL
Als weiteres Beispiel sei aufgeführt: „Diese äußerst eingeschränkte Sicht birgt große Gefahren in sich." äußerst: MUL 0.5 eingeschränkte: MOD -0.5
Sicht: STA 0.0 große : MUL 0.5
Gefahren: STA -0.5 TEV = AVG[COMB{0.5; -0.5; 0.0}; COMB{0.5; -0.5}] = AVG[- 0.75; -0,75] = -0.75
Der Aussagewert der Multiplier/Modifier/Static Kombination wird mithilfe der Funktion COMB wie folgt ermittelt:
(EVMOD-(1+EVMOD)*EVMUL)+EVSTA
Der Aussagewert der Multiplier/Static Kombination wird mithilfe der Funktion COMB wie folgt ermittelt:
EVSTA-(1+EVSTA)*EVMUL
Anschließend wird in einem Signalerzeugungsschritt 120 anhand der Steuerungsregeln 44 geprüft, ob ein Steuerungssignal CS ausgegeben werden soll. Wenn kein Steuerungssignal ausgegeben werden soll (N) beginnt das Steuerungsverfahren wieder im Umwandlungsschritt 100. Wenn das Steuerungssignal CS ausgegeben werden soll (Y) wird mittels des Signalerzeugungsmoduls 42 das Steuerungssignal CS nach Art und Ausmaß erzeugt und anschließend in einem Ausgabeschritt 130 an das zu steuernde Endgerät ausgegeben.
Es wird nachfolgend auf die Fig. 3 Bezug genommen, die eine erste Anwendung des Steuerungsverfahrens für ein Sicherheitssystem 50 zeigt, wie es etwa in einer Strafvollzugsanstalt benutzt wird. Das Sicherheitssystem 50 umfasst wenigstens ein Endgerät, beispielsweise eine Kamera 51, ein Schloss 52 oder ein Alarmsystem 53. Neben der Basisorientierung 23 wird die Domänenorientierung 24 vom Typ „Aggression" verwendet. Die Spracherkennungseinrichtung 10 nimmt die akustische Spracheingabe LI auf, wandelt diese in maschinenlesbare Sprachdaten LD um und übergibt die Sprachdaten LD an die Sprachinterpretationseinrichtung 20. Fällt etwa der Satz „Du solltest ganz vorsichtig sein.", wird dessen Gesamtaussagestärke TEV ermittelt, die an die Steuerungseinheit 40 weitergeleitet wird. Die Steuerungseinheit 40 legt mittels der Steuerungsregeln 44 das Steuerungssignal CS fest. Beispielsweise kann die Kamera 51 angeschaltet werden oder deren Kamerabild in den Vordergrund bewegt werden, um so die Aufmerksamkeit des Nutzers auf das Geschehen zu lenken. Ermittelt die Sprachinterpretationseinrichtung 20 eine höhere Gesamtaussagestärke TEV mit höherem Aggressionspotential, so können das Schloss 52 verriegelt und das Alarmsystem 53 aktiviert werden.
Nachfolgend wird auf Fig. 4 Bezug genommen, die eine zweite Anwendung des Steuerungsverfahrens für eine Smart-Home-Umgebung 60 zeigt. Die Smart-Home-Umgebung 60 wird beispielsweise von einem Hauscomputer zur Steuerung der
Haustechnik bereitgestellt. Die Smart-Home-Umgebung 60 enthält die Spracherkennungseinrichtung 10, die Sprachinterpretationseinrichtung 20 mit der Domänenorientierung 24 vom Typ „Aggression" und die Steuerungseinheit 40. Ferner umfasst die Smart-Home-Umgebung 60 eine Temperatursteuerung 61, eine Lichtsteuerung 62 und/oder eine Fenstersteuerung 63, die jeweils mit der Steuerungseinheit 40 verbunden sind. Wird von der Sprachinterpretationseinheit 20 eine Gesamtaussagestärke TEV mit Aggressionspotential ermittelt, steuert die Steuerungseinheit 40 anhand der Gesamtaussagestärke TEV die Temperatursteuerung 61, die Lichtsteuerung 62 und/oder die Fenstersteuerung 63. Beispielsweise wird mittels der Temperatursteuerung 61 die Raumtemperatur abgesenkt während mittels der Fenstersteuerung 63 die Fenster des Raumes in die Offenstellung bewegt werden. Ferner kann die Lichtsteuerung 62 eine beruhigende Raumbeleuchtung einstellen. Denkbar ist auch, dass ein (nicht näher dargestelltes)
Raumbeduftungssystem aktiviert wird, um beruhigenden Duft in den Raum zu bringen. Somit kann mittels des Steuerungsverfahrens eine aggressive Atmosphäre im Raum vermieden werden.
In Fig. 5, auf die im Folgenden Bezug genommen wird, ist eine dritte Anwendung des Steuerungsverfahrens bei einem Fahrzeug 70, wie etwa einem autonom gesteuerten Kraftfahrzeug, dargestellt. Das Fahrzeug umfasst die Spracherkennungseinrichtung 10, die Sprachinterpretationseinrichtung 20 mit der
Basisorientierung 23 und der Domänenorientierung 24 vom Typ „Aggression" sowie die Steuerungseinheit 40. Das Fahrzeug 70 umfasst zudem eine Geschwindigkeitssteuerung 71, eine Bremssteuerung 72 und/oder eine Audiosteuerung 73. Kommt es beim Fahren zu einer sprachlichen Auseinandersetzung zwischen den Fahrgästen, kann durch die
Sprachinterpretationseinrichtung 20 die Gesamtaussagestärke TEV mit Aggressionspotential ermittelt werden. Die Steuerungseinheit 40 leitet dann anhand der Steuerungsregeln 44 sicherheitsverbessernde Maßnahmen ein. Beispielsweise wird die Geschwindigkeitssteuerung 71 derart gesteuert, dass die Geschwindigkeit abgesenkt wird. Ferner kann die Audiosteuerung 73 so gesteuert werden, dass eine beruhigende Musik abgespielt wird und/oder die Lautstärke abgesenkt wird.
Fig. 6 zeigt eine vierte Anwendung des Steuerungsverfahrens bei einem roboterähnlichen Automaten 80, wie etwa einem Spielzeugroboter. Der Automat 80 umfasst die Spracherkennungseinrichtung 10, die Sprachinterpretationseinrichtung 20 und die Steuerungseinrichtung 40. Die
Sprachinterpretationseinrichtung 20 enthält eine Mehrzahl von Orientierungen, insbesondere eine Domänenorientierung 25 vom Typ „Angst", eine Domänenorientierung 26 vom Typ „Wut" und eine Domänenorientierung 27 vom Typ „Fröhlichkeit". Ferner umfasst der Automat 80 eine Gestiksteuerung 81 zur Steuerung der Gestik und eine Mimiksteuerung 82 zur Steuerung der Mimik. Der Automat 80 kann mittels der Sprachinterpretationseinrichtung 20 die Gesamtaussagestärke TEV einer oder mehrerer Komponenten der natürlichsprachlichen Spracheingabe LI ermitteln. Wird von der Sprachinterpretationseinrichtung 20 etwa Angst ermittelt, steuert die Steuerungseinheit 40 die Gestiksteuerung 81 und/oder die Mimiksteuerung 82 derart, dass beruhigende oder aufmunternde Gestik oder Mimik von dem Automaten 80 dargestellt werden. Wird von der Sprachinterpretationseinrichtung 20 Wut ermittelt, steuert die Steuerungseinheit 40 die Gestiksteuerung 81 und/oder die Mimiksteuerung 82 derart, dass beruhigende oder deeskalierende Gestik oder Mimik von dem Automaten 80 dargestellt werden. Ermittelt die
Sprachinterpretationseinrichtung 20 Freude/Fröhlichkeit, steuert die Steuerungseinheit 40 die Gestiksteuerung 81 und/oder die Mimiksteuerung 82 derart, dass freundliche oder fröhliche Gestik oder Mimik von dem Automaten 80 dargestellt werden.
In der nachfolgend beschriebenen Fig. 7 ist eine fünfte Anwendung des Steuerungsverfahrens bei einem sprachgesteuerten Automaten 90 dargestellt, beispielsweise einem Roboter im Bereich der Medizin oder Pflege. Der Automat 90 umfasst die Spracherkennungseinrichtung 10, die Sprachinterpretationseinrichtung 20 und die
Steuerungseinheit 40. Die Sprachinterpretationseinrichtung 20 enthält eine Mehrzahl von Orientierungen, insbesondere eine Domänenorientierung 25' vom Typ „Subjektivität", eine Domänenorientierung 26' vom Typ „Ironie" und eine Domänenorientierung 27' vom Typ „Plausibilität". Die Sprachinterpretationseinrichtung 20 kann somit eine Gesamtaussagestärke TEV ermitteln, die einen Wert für die entsprechenden Domänen angibt. Die Steuerungseinheit 40 enthält Steuerungsregeln 44', welche die
Gesamtaussagestärke TEV abbilden auf ein Ausführen 91 oder Unterlassen 92 einer Aktion, die durch die Spracheingabe LI herbeigeführt werden soll. Damit kann in Domänen mit einer hohen Wahrscheinlichkeit von falschen Spracheingaben LI, wie etwa im Gesundheits- oder Pflegebereich, das Ausführen einer unnötigen oder gar gefährlichen Aktion vermieden werden.
Insgesamt werden bei dem vorliegenden Steuerungsverfahren und der Steuerungsvorrichtung Bewertungen von natürlichsprachlichen Spracheingaben LI auf Basis der kategorisierten linguistischen Ressourcen bzw. Orientierungen ermittelt. Die sprachliche Logik lässt sich somit direkt abbilden. Eine Zwischenkategorisierung nach Wortkategorien (z.B. Nomen, Verben, ...) ist somit nicht notwendig.
Auch wird bei dem Steuerungsverfahren und der Steuerungsvorrichtung ressourcenintensives maschinelles Lernen vermieden. Somit kann, im Unterschied zu bekannten Verfahren und Vorrichtungen, durch natürlichsprachliche Spracheingabe LI eine jederzeit deterministische Beurteilung des semantischen Inhalts der Spracheingabe LI erfolgen.
Das hier vorgestellte Steuerungsverfahren erfordert keine tiefgehenden linguistischen Analysen und ist daher besonders ressourcenschonend. Somit kann das Steuerungsverfahren auch auf leistungsschwachen Geräten zur Echtzeitanalyse verwendet werden. Insgesamt beruht das
Steuerungsverfahren weder auf maschinellem Lernen noch ausschließlich auf Lexika. Vielmehr nutzt das Steuerungsverfahren eine direkte hybrid organisierte semantisch motivierte Abbildung domänenrelevanten Sprachverhaltens.
Bezugszeichenliste 10 Spracherkennungseinrichtung 11 Spracherkennungsmodul 12 Sprachumwandlungsmodul 13 Ausgabemodul 20 Sprachinterpretationseinrichtung 21 Orientierungsvokabular 22 Orientierung 23 Basisorientierung 24 Domänenorientierung 25 Domänenorientierung „Angst" 25' Domänenorientierung „Subjektivität" 26 Domänenorientierung „Wut" 26' Domänenorientierung „Ironie" 27 Domänenorientierung „Fröhlichkeit" 27 ' Domänenorientierung „Plausibilität" 30 linguistische Ressourcen 31 Eintragstyp „Static" 32 Eintragstyp „Modifier" 33 Eintragstyp „Multiplier" 34 Eintragstyp „Negator" 40 Steuerungseinheit 41 Eingabemodul 42 Signalerzeugungsmodul 43 Signalausgabemodul 44 Steuerungsregeln 44 ' Steuerungsregeln 50 Sicherheitssystem 51 Kamera (Endgerät) 52 Schloss (Endgerät) 53 Alarmsystem (Endgerät) 60 Smart-Home-Umgebung 61 Temperatursteuerung (Endgerät) 62 Lichtsteuerung (Endgerät) 63 Fenstersteuerung (Endgerät) 70 Fahrzeug 71 Geschwindigkeitssteuerung (Endgerät) 72 Bremssteuerung (Endgerät) 73 Audiosteuerung 80 roboterähnlicher Automat 81 Gestiksteuerung (Endgerät) 82 Mimiksteuerung (Endgerät) 90 sprachgesteuerter Automat 91 Ausführen 92 Unterlassen 100 Umwandlungsschritt 110 Ermittlungsschritt 120 Signalerzeugungsschritt 130 Ausgabeschritt # Platzhalter CS Steuerungssignal LD Sprachdaten LI Spracheingabe LV Linguistikwert TEV Gesamtaussagestärke
Claims (13)
- Patentansprüche1. Steuerungsverfahren zum Steuern eines Endgerätes (51, 52, 53, 61, 62, 63, 71, 72, 73, 81, 82) auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe (LI), gekennzeichnet durch die Schritte: Umwandeln der Spracheingabe (LI) in maschinenlesbare Sprachdaten (LD), die eine Mehrzahl von Sprachelementen enthalten; Vergleichen der Sprachdaten (LD) mit wenigstens einer Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27'), wobei die Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27') eine Mehrzahl von spezifischen Einträgen enthält, wobei jedem Eintrag ein im Voraus festgelegter Linguistikwert (LV) zugeordnet ist, um eine Aussagestärke für jedes Sprachelement, das einem Eintrag entspricht zu ermitteln; Ermitteln der Gesamtaussagestärke (TEV) auf Basis der jeweiligen Aussagestärken; und Erzeugen eines Steuersignals (CS) für das Endgerät (51, 52, 53, 61, 62, 63, 71, 72, 73, 81, 82) auf Basis der Gesamtaussagestärke (TEV).
- 2. Steuerungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Sprachdaten (LD) mit einer Mehrzahl von Orientierungen (22, 23, 24, 25, 25', 26, 26', 27, 27'), wobei die Mehrzahl von Orientierungen (22, 23, 24, 25, 25', 26', 27') eine Basisorientierung (23) mit einer Mehrzahl von basisspezifischen Einträgen und wenigstens eine Domänenorientierung (24, 25, 25', 26', 27') mit einer Mehrzahl von domänenspezifischen Einträgen aufweist, verglichen werden, wobei, wenn der domänenspezifische Eintrag demselben Sprachelement wie der basisspezifische Eintrag entspricht, der domänenspezifische Eintrag gegenüber dem basisspezifischen Eintrag Vorrang hat.
- 3. Steuerungsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass innerhalb derselben Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27') ein Eintrag, der einen anderen Eintrag dieser Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27') vollständig enthält, gegenüber dem anderen Eintrag Vorrang hat.
- 4. Steuerungsverfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass wenigstens einem, insbesondere jedem, Eintrag ein, insbesondere ein einzelner, Eintragstyp (31, 32, 33, 34) zugeordnet ist, wobei beim Ermitteln der Gesamtaussagestärke (TEV) die jeweiligen Aussagestärken in Abhängigkeit von dem Eintragstyp (31, 32, 33, 34) verknüpft werden.
- 5. Steuerungsverfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Eintragstyp aus einer Gruppe ausgewählt ist, die „Static" (31), „Modifier" (32), „Multiplier" (33) und „Negator" (34) enthält, wobei beim Eintragstyp „Static" (31) die Aussagestärke dem Linguistikwert (LV) des Eintrags entspricht, wobei beim Eintragstyp „Modifier" (32) entweder die Aussagestärke dem Linguistikwert (LV) des Eintrags entspricht oder die Aussagestärke durch Verknüpfen des Linguistikwertes (LV) des Eintrags mit dem Linguistikwert (LV) eines durch den Eintrag modifizierten Eintrags ermittelt wird, wobei beim Eintragstyp „Multiplier" (33) entweder die Aussagestärke dem Linguistikwert 0 entspricht oder die Aussagestärke durch Verknüpfen des Linguistikwertes (LV) des Eintrags mit dem Linguistikwert (LV) eines durch den Eintrag modifizierten Eintrags ermittelt wird, wobei beim Eintragstyp „Negator" (34) die Aussagestärke durch Verknüpfen des Linguistikwertes (LV) des Eintrags mit dem Linguistikwert (LV) des durch den Eintrag negierten Eintrags ermittelt wird.
- 6. Steuerungsverfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Eintrag und/oder die Einträge vom Eintragstyp „Static" (31) und/oder vom Eintragstyp „Modifier" (32) und/oder vom Eintragstyp „Multiplier" (33) einen Linguistikwert (LV) von einer negativen Untergrenze bis zu einer positiven Obergrenze aufweist/aufweisen, wobei der Eintrag oder die Einträge vom Eintragstyp „Negator" (34) einen Linguistikwert (LV) von einer negativen Untergrenze bis ausgeschlossen 0 aufweist/aufweisen.
- 7. Steuerungsverfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die wenigstens eine Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27') wenigstens einen Eintrag umfasst, der ein Wort oder eine Wortgruppe enthält.
- 8. Steuerungsverfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Wortgruppe einen Wortgruppentyp aufweist und ein Anfangswort und ein Endwort, die durch wenigstens einen Platzhalter (#) getrennt sind, umfasst, wobei das durch den Platzhalter (#) repräsentierte Sprachelement beim Ermitteln der Gesamtaussagestärke (TEV) in Abhängigkeit von dem Wortgruppentyp berücksichtigt oder nicht berücksichtigt wird.
- 9. Steuerungsverfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Gesamtaussagestärke (TEV) deterministisch ermittelt wird.
- 10. Steuerungsverfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass wenigstens ein Verfahrensschritt, bevorzugt alle Verfahrensschritte durch ein Datenverarbeitungsgerät ausgeführt werden.
- 11. Verwendung eines Verfahrens nach einem der Ansprüche 1 bis 10 zum Steuern eines Fahrzeugs (70), insbesondere eines Kraftfahrzeugs, oder eines Spielzeugs (80) oder eines Roboters (80, 90) oder einer Medizintechnikvorrichtung (90) oder eines Haustechnik-Computers (60) oder eines Sicherheitssystems (50).
- 12. Steuerungsvorrichtung zum Steuern eines Endgerätes (51, 52, 53, 61, 62, 63, 71, 72, 73, 81, 82) auf Basis einer akustischen, elektronischen und/oder textuellen Spracheingabe (LI) gemäß dem Steuerungsverfahren nach einem der Ansprüche 1 bis 10 umfassend: eine Spracherkennungseinrichtung (10), die ausgebildet ist, die Spracheingabe (LI) in maschinenlesbare Sprachdaten (LD), die eine Mehrzahl von Sprachelementen enthalten, umzuwandeln; eine Sprachinterpretationseinrichtung (20), die ausgebildet ist, eine Gesamtaussagestärke (TEV) auf Basis der Sprachdaten (LD) zu ermitteln und die wenigstens eine Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27'), die eine Mehrzahl von spezifischen Einträgen enthält, wobei jedem Eintrag ein im Voraus festgelegter Linguistikwert (LV) zugeordnet ist, umfasst; und eine Steuerungseinheit (40), die ausgebildet ist, auf Basis der Gesamtaussagestärke (TEV) ein Steuersignal (CS) für das Endgerät (51, 52, 53, 61, 62, 63, 71, 72, 73, 81, 82) zu erzeugen und an das Endgerät (51, 52, 53, 61, 62, 63, 71, 72, 73, 81, 82) auszugeben, wobei die Sprachinterpretationseinrichtung (20) ausgebildet ist, die Sprachdaten (LD) mit der wenigstens einen Orientierung (22, 23, 24, 25, 25', 26, 26', 27, 27') zu vergleichen, um eine Aussagestärke für jedes Sprachelement, das einem Eintrag entspricht zu ermitteln, und die ausgebildet ist, die Gesamtaussagestärke (TEV) auf Basis der jeweiligen Aussagestärken zu ermitteln.
- 13. Fahrzeug (70), insbesondere Kraftfahrzeug, oder Spielzeug (80) oder Roboter (80, 90) oder Medizintechnikvorrichtung (90) oder Haustechnik-Computer (60) oder Sicherheitssystem (50), gekennzeichnet durch eine Steuerungsvorrichtung nach Anspruch 12.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50212/2016A AT518314A1 (de) | 2016-03-14 | 2016-03-14 | Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50212/2016A AT518314A1 (de) | 2016-03-14 | 2016-03-14 | Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung |
Publications (1)
Publication Number | Publication Date |
---|---|
AT518314A1 true AT518314A1 (de) | 2017-09-15 |
Family
ID=59828448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA50212/2016A AT518314A1 (de) | 2016-03-14 | 2016-03-14 | Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung |
Country Status (1)
Country | Link |
---|---|
AT (1) | AT518314A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8284905B1 (en) * | 2008-06-30 | 2012-10-09 | Symantec Corporation | Method and apparatus for monitoring conversations to control telecommunications |
US20130152000A1 (en) * | 2011-12-08 | 2013-06-13 | Microsoft Corporation | Sentiment aware user interface customization |
-
2016
- 2016-03-14 AT ATA50212/2016A patent/AT518314A1/de not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8284905B1 (en) * | 2008-06-30 | 2012-10-09 | Symantec Corporation | Method and apparatus for monitoring conversations to control telecommunications |
US20130152000A1 (en) * | 2011-12-08 | 2013-06-13 | Microsoft Corporation | Sentiment aware user interface customization |
Non-Patent Citations (1)
Title |
---|
Moreno Ortiz, A.; Pérez Hernández, C.; Del-Olmo, M. "Managing Multiword Expressions in a Lexicon-Based Sentiment Analysis System for Spanish". [online]. Proceedings of the 9th Workshop on Multiword Expressions MWE, S. 1-10. 2013 [ermittelt am 23.12.2016]. Ermittelt aus dem Internet <URL: http://aclweb.org/anthology//W/W13/W13-10.pdf> * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112014006542B4 (de) | Einrichtung und Verfahren zum Verständnis von einer Benutzerintention | |
EP3652664A1 (de) | Verfahren zur dialogführung zwischen mensch und computer | |
DE112014002819B4 (de) | System und Verfahren zur Erkennung von Sprache | |
DE69923191T2 (de) | Interaktive anwenderschnittstelle mit spracherkennung und natursprachenverarbeitungssystem | |
DE69834553T2 (de) | Erweiterbares spracherkennungssystem mit einer audio-rückkopplung | |
EP0925578B1 (de) | Sprachverarbeitungssystem und verfahren zur sprachverarbeitung | |
DE112017006151T5 (de) | Anpassbare Verarbeitungskomponenten | |
EP3100174A1 (de) | Verfahren zur automatischen sinnerkennung und messung der eindeutigkeit von text | |
CN202736475U (zh) | 一种聊天机器人 | |
DE102013007502A1 (de) | Computer-implementiertes Verfahren zum automatischen Trainieren eins Dialogsystems und Dialogsystem zur Erzeugung von semantischen Annotationen | |
EP1336955A2 (de) | Verfahren zur Erzeugung natürlicher Sprache in Computer-Dialogsystemen | |
DE102018108947A1 (de) | Vorrichtung zum Korrigieren eines Äußerungsfehlers eines Benutzers und Verfahren davon | |
EP1417678A1 (de) | Verfahren und vorrichtung zum erkennen einer phonetischen lautfolge oder zeichenfolge | |
EP1599866B1 (de) | Sprachverarbeitendes system und verfahren | |
DE112020002288T5 (de) | Verfahren, System und Vorrichtung zum Verstehen und Generieren menschlicher Konversations-Cues | |
DE69519229T2 (de) | Verfahren und vorrichtung zur anpassung eines spracherkenners an dialektische sprachvarianten | |
CN114528919A (zh) | 自然语言处理方法、装置及计算机设备 | |
DE202023102803U1 (de) | System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen | |
DE112020005337T5 (de) | Steuerbare, natürliche paralinguistik für text-zu-sprache-synthese | |
CN114676259B (zh) | 一种基于因果感知交互网络的对话情绪识别方法 | |
Yoon et al. | Fear emotion classification in speech by acoustic and behavioral cues | |
DE69333762T2 (de) | Spracherkennungssystem | |
AT518314A1 (de) | Steurerungsverfahren zum Steuern eines Endgerätes sowie Steuerungsvorrichtung zu dessen Durchführung | |
Lai | English Flipped Classroom Teaching Mode Based on Emotion Recognition Technology | |
Alexandris | Processing Information Unspoken: New Insights from Crowd-Sourced Data for Sentiment Analysis and Spoken Interaction Applications. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
REJ | Rejection |
Effective date: 20240615 |