DE19908137A1 - Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog - Google Patents
Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per SprachdialogInfo
- Publication number
- DE19908137A1 DE19908137A1 DE19908137A DE19908137A DE19908137A1 DE 19908137 A1 DE19908137 A1 DE 19908137A1 DE 19908137 A DE19908137 A DE 19908137A DE 19908137 A DE19908137 A DE 19908137A DE 19908137 A1 DE19908137 A1 DE 19908137A1
- Authority
- DE
- Germany
- Prior art keywords
- commands
- action
- critical
- voice
- kom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000003993 interaction Effects 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000000977 initiatory effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 claims 1
- 230000001755 vocal effect Effects 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Calculators And Similar Devices (AREA)
- Digital Computer Display Output (AREA)
- Debugging And Monitoring (AREA)
- Machine Translation (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog , umfassend einen Sprachspeicher, in dem für die Sprachausgabe benötigte Kommandos (KOM) in unterschiedlichen Intonationen abgelegt sind, wobei mindestens die Kommandos (KOM) für handlungskritische Anweisungen eine Befehlsintonation aufweisen.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Steuerung
mindestens eines Gerätes per Sprachdialog.
Verfahren bzw. Vorrichtungen dieser Art werden allgemein in sogenannten Sprachdialog-
bzw. Sprachbediensystemen z. B. für Fahrzeuge, Computer, Roboter, Maschinen, Anlagen
usw. eingesetzt.
Ein Sprachdialogsystem (SDS) läßt sich i. a. im wesentlichen auf folgende Komponenten
reduzieren:
- - Spracherkennungssystem, welches ein eingesprochenes Kommando ("Sprachkommando") mit anderen erlaubten Sprachkommandos vergleicht und eine Entscheidung trifft, welches Kommando aller Wahrscheinlichkeit nach eingesprochen wurde,
- - Sprachausgabe, welche die zur Benutzerführung erforderlichen Sprachbefehle und Signalisierungstöne ausgibt und ggf. das Erkennergebnis rückmeldet,
- - Dialog- und Ablaufsteuerung, um dem Benutzter zu verdeutlichen, welche Art von Eingabe erwartet wird, bzw. um zu prüfen, ob die erfolgte Eingabe konsistent ist mit der Aufforderung und mit dem momentanen Status der Applikation, und um die resultierende Aktion bei der Applikation (z. B. dem zu steuemden Gerät) anzustoßen,
- - Kontrollinterface als Schnittstelle zur Applikation: Dahinter verbergen sich Hard- und Softwaremodule, um verschiedene Aktuatoren bzw. Rechner anzusteuern, die die Applikation beinhalten,
- - Applikation, die per Sprache angesteuert wird: Das kann z. B. ein Bestell- oder Auskunftssystem, ein CAE-Arbeitsplatz oder ein behindertengerechter Rollstuhl sein.
Ein solches Sprach-Dialog-System ist beispielsweise aus der DE 195 33 541 C1 bekannt.
Zur Verbesserung der Akzeptanz eines solchen Mensch-Maschinen-Dialogs wird dort
beispielsweise vorgeschlagen, für die Kommandos synonyme Worte bzw. unterschiedliche
Aussprachevarianten zu verwenden oder aber die Wörter in den Kommandos umzustellen,
beispielsweise "Größerer Radius bei linkem Kreis" oder alternativ hierzu "Bei linkem Kreis
größerer Radius". Des weiteren wird vorgeschlagen, durch einen erweiterten Speicher ein
multilinguales sprecherunabhängiges Dialogsystem aufzubauen, wobei wahlweise zwischen
den Dialogsystemen verschiedener Sprachen umgeschaltet werden kann. Weiter wird
vorgeschlagen, sogenannte Ellipsen einzubinden, d. h. Verzicht auf Wiederholung ganzer
Kommandosätze und statt dessen Kommandos wie "höher", "stärker" oder "weiter", wobei
dann das Sprachdialog-System diese den vorangegangenen Kommandos zuordnet. Des
weiteren kann das Sprach-Dialog-System bei unsicherem Erkennen Rückfragen wie
beispielsweise "Wie bitte?", "Bitte wiederholen" oder "Und weiter?" stellen oder bestimmte
Anregungen wie "Bitte lauter" ausgeben. All diese Maßnahmen dienen dazu, eine monotone
Kommunikation zu vermeiden und den Dialog stärker einer Mensch-Mensch-Kommunikation
anzunähern. Zur Verbesserung der Kommunikation wird das Sprachsystem mit einem
optischen Anzeigemedium gekoppelt, auf dem erkannte Befehle zu Kontrollzwecken
angegeben werden. Weiter ermöglicht das optische Anzeigemedium die Darstellung der vom
Zielgerät als Reaktion auf das Sprachkommando eingestellten Funktionen und/oder
verschiedener Funktionen/Alternativen, die per Sprachkommando anschließend eingestellt
bzw. ausgewählt werden können. Nachteilig an der bekannten Vorrichtung und des damit
durchgeführten Verfahrens ist, daß trotz der dargestellten Verbesserungen die
Sprachausgabe aufgrund ihrer Monotonie den Nutzer ermüdet, so daß dessen Reaktionszeit
bei handlungskritischen Aktionen zu groß ist. Ein weiteres Problem ist, daß bei
Erkennungsschwierigkeiten die bekannten Sprach-Dialog-Systeme eine Endlosschleife
durchlaufen und dem Nutzer immer wieder die gleiche Aufforderung ausgeben, so daß der
work-flow unterbrochen ist.
Der Erfindung liegt daher das technische Problem zugrunde, ein Verfahren und eine
Vorrichtung zur automatischen Steuerung eines Gerätes per Sprachdialog zu schaffen, bei
denen bei handlungskritischen Anweisungen eine verbesserte Aufmerksamkeit des Nutzers
erreicht wird sowie der work-flow sichergestellt ist.
Die Lösung des technischen Problems ergibt sich durch die Merkmale der Patentansprüche
1, 2 und 8. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den
Unteransprüchen.
Durch die Verwendung unterschiedlicher Intonationen, wobei bei handlungskritischen
Anweisungen die Kommandos eine Befehlsintonation aufweisen, wird bereits unmittelbar bei
der Sprachausgabe die Aufmerksamkeit des Nutzers geweckt, so daß die Reaktionszeit zur
Durchführung der geforderten Anweisung erheblich verkürzt wird.
Zur weiteren Erhöhung der Aufmerksamkeit und Unterscheidung von handlungskritischen
Anweisungen kann die Lautstärke der Sprachausgabe bei handlungskritischen Anweisungen
erhöht werden und/oder diese besonders hart bzw. abrupt eingeblendet werden.
Weiter kann das Sprach-Dialog-System multilingual ausgebildet sein, so daß beispielsweise
zwischen einer Männer- und einer Frauenstimme gewählt werden kann, wobei dann bei
handlungskritischen Anweisungen die eine und bei handlungsunkritischen Anweisungen die
andere Stimme vom System ausgewählt wird.
Zur Sicherstellung des work-flows wird das Sprach-Dialog-System nur durch Betätigung
eines "Push to talk" PTT-Schalters aktiviert, wobei bei Ausbleiben einer gültigen Interaktion
die Dialog-Kommunikations-Ebene gewechselt wird. Zur Erhöhung der Erkennungssicherheit
bzw. zur Verbesserung der Nutzerführung können einzelne Kommandos in verschiedenen
alternativen Ausgabeformen abgespeichert sein, die dann bei einer ungültigen Interaktion
sukzessive ausgegeben werden, wobei die Dialog-Kommunikations-Ebene erst gewechselt
wird, wenn auf alle Kommandoformen keine gültige Interaktion erfolgt ist. Zur Vermeidung
von Monotonie kann die Reihenfolge der Ausgabe durch einen Zufallsgenerator permutiert
werden.
Der Grundgedanke der Erfindung besteht darin, durch die Art der Sprachausgabe beim
Kraftfahrzeugführer eine Emotion zu wecken, die ein situationsgerechtes Handeln provoziert.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher
erläutert. Die Figur zeigen:
Fig. 1 ein schematisches Flußdiagramm des Verfahrens zur automatischen
Steuerung mindestens eines Gerätes per Sprachdialog,
Fig. 2a einen schematischen Verlauf des Gefahrenpotentials bei
handlungsunkritischen Interaktionen,
Fig. 2b einen zugehörigen Denotationsverlauf,
Fig. 2c einen zugehörigen Intonationsverlauf,
Fig. 2d einen zugehörigen Konnotationsverlauf,
Fig. 3a einen schematischen Verlauf des Gefahrenpotentials bei handlungskritischen
Interaktionen,
Fig. 3b einen zugehörigen Denotationsverlauf,
Fig. 3c einen zugehörigen Intonationsverlauf und
Fig. 3d einen zugehörigen Konnotationsverlauf.
Durch die Betätigung des PTT-Schalters wird das Sprach-Dialog-System aktiviert. Zum
besseren Verständnis wird die Sprachausgabe des Sprachdialog-Systems in Kommandos
KOM und Aufforderungen Auff unterteilt, die in Realität identisch sein können. Nachfolgend
wird unter Kommandos KOM eine direkte Anweisung zum Handeln verstanden, wie
beispielsweise "BREMSEN", "LICHTEINSCHALTEN", wohingegen Aufforderungen eine
Interaktion in Form einer Eingabe anfordern, wie beispielsweise "Bitte gewünschte
Temperatur in Grad Celsius angeben".
Erzeugt nun das Sprach-Dialog-System ein Kommando KOM, so wird dieses Kommando
KOM danach unterteilt, ob es sich um eine handlungskritische Anweisung oder eine
handlungsunkritische Anweisung handelt. Vereinfacht sind handlungskritische Anweisungen,
Kommandos KOM, die ein schnelles Durchführen der Handlung erfordern. Ein Beispiel
hierfür ist das Kommando KOM "Bremsen", wenn ein ADR-System oder eine Prescrash-
Sensorik ein Kollisionsobjekt erfaßt haben. Handlungsunkritische Anweisungen sind
beispielsweise Kommandos KOM eines Navigationssystems. Dabei werden
handlungskritische Anweisungen mit einer Befehlsintonations-Sprache S1, mit großer
Lautstärke L1 hart und abrupt in einer Zeit t1 eingeblendet, um beim Nutzer einen hohen
Aufmerksamkeitsgrad zu erzeugen. Handlungsunkritische Anweisungen werden hingegen
weich bei geringerer Lautstärke L2 und normaler Intonation S2 eingeblendet.
Aufforderungen Auff sind in der Regel zeitunkritisch, so daß hier ein gute Benutzerführung im
Vordergrund steht. Dazu kann eine Aufforderung Auff in n verschiedenen Alternativen im
Sprachspeicher abgelegt sein. Die Alternativen können beispielsweise unterschiedliche
Betonungen, Aussprachen, Wortumstellungen oder synonyme Begriffe sein. Nach
akustischer Ausgabe der ersten Alternative wartet das Sprach-Dialog-System eine
vorgegebene Zeit auf eine Interaktion. Erfolgt innerhalb dieser Zeit keine oder eine ungültige
Interaktion, so wiederholt das Sprach-Dialog-System die Aufforderung mit der zweiten
Alternative, gegebenenfalls bis zur n-ten Alternative. Erfolgt eine gültige Interaktion, so wird
diese ausgeführt und gegebenenfalls eine neue Aufforderung Auff ausgegeben. Erfolgt
hingegen auf die n-te Alternative der Aufforderung Auff keine gültige Interaktion, so wird auf
eine andere Dialog-Kommunikations-Ebene DKE gewechselt, um den work-flow
sicherzustellen. Die neue Dialog-Kommunikatons-Ebene DKE ist dann beispielsweise eine
Auswahlliste, die auf dem Bordmonitor dargestellt wird, woraus sich der Nutzer ein
entsprechendes Menü auswählen kann.
In den Fig. 2a-d sind schematisch die Verhältnisse für eine handlungsunkritische Anweisung,
wie beispielsweise eine Angabeanforderung für ein Navigationssystem, dargestellt. Dabei ist
in Fig. 2a die Wichtigkeit der Interaktion über die Zeit t aufgetragen, wobei zu den
Zeitpunkten t0-t2 Handlungsanweisungen ausgegeben werden, wobei angenommen wird,
daß auf jede vorangegangenen Aufforderung nicht reagiert wurde. Da eine fehlende Eingabe
in das Navigationssystem nur dazu führt, daß diese Komfortkomponente nicht arbeiten kann,
was gegebenenfalls auch nicht vom Kraftfahrzeugführer erwünscht ist, ändert sich die
Wichtigkeit über die Zeit nicht. Ebenso bleibt der die Inhaltsangabe des Befehls, die
sogenannte Denotation, nämlich die Eingabeanforderung über die Zeit konstant, was in Fig.
2b dargestellt ist. Zum Zeitpunkt t0 wird nun beispielsweise der Kraftfahrzeugführer
aufgefordert, "Bitte geben Sie nun Ihr gewünschtes Fahrziel ein". Diese Aufforderung erfolgt
mit einer bestimmten Intonation I1 und einem bestimmten Begriffsinhalt (Konnotat) K1, was in
Fig. 2c-d dargestellt ist. Erfolgt nun keine Eingabe, so weiß das System nicht, warum dies
unterblieben ist, beispielsweise ob der Kraftfahrzeugführer die Aufforderung überhöht hat
oder willentlich nicht vorzunehmen gedenkt. Daher erfolgt zum Zeitpunkt t1 eine erneute
Aufforderung "Wollen Sie ein Fahrziel eingeben" mit einer verstärkten Intonation I2, um eine
verbesserte Wahrnehmbarkeit zu erreichen, wobei jedoch die Konnotationsstufe K2
abnimmt. Erfolgt hierauf wieder keine Eingabe, so kann das System davon ausgehen, daß
dies der Kraftfahrzeugführer wohl nicht wünscht. Um die Belästigung des
Kraftfahrzeugführeres durch permanente Wiederholungen gering zu halten, erfolgt dann
zum Zeitpunkt t2 eine letztmalige Aufforderung, wie beispielsweise "Falls Sie keinen Zielort
wünschen, schalte ich mich jetzt ab". Diese letzte Aufforderung wird mit einer sehr geringen
Intonation I3 ausgegeben und weist nur noch eine geringe Konnotation auf. Wie aus dem
Verlauf in Fig. 2d zu entnehmen ist, bildet die Konnotation einen Antiklimax, also einen
Übergang vom stärkeren zum schwächeren Ausdruck, wohingegen bei der Intonation eine
gewisse Variation auftritt, um Monotonie entgegenzuwirken.
Im Gegensatz hierzu ist in Fig. 3a-d eine Situation dargestellt, bei der Wichtigkeit der
Interaktion mit der Zeit zunimmt und schließlich handlungskritisch wird. Beispielsweise fährt
das Kraftfahrzeug mit einer Geschwindigkeit oberhalb einer zugelassenen Geschwindigkeit
auf der Autobahn unter Einhaltung des Sicherheitsabstandes hinter einem Kraftfahrzeug
hinterher. Zum Zeitpunkt t0 gibt das System eine Handlungsanweisung, beispielsweise der
Form "Bitte passen Sie Ihre Geschwindigkeit an", an den Kraftfahrzeugführer. Die
Handlungsanweisung weist einen geringen lntonationsgrad I1 und eine entsprechend geringe
Konnotationsstufe K1 auf, da der Kraftfahrzeugführer zwar eine Ordnungswidrigkeit begeht,
jedoch keine unmittelbare Gefahr besteht. Weiter sei angenommen, daß nun der
Kraftfahrzeugführer seine Geschwindigkeit nicht anpaßt und zusätzlich zum Zeitpunkt t1 der
Sicherheitsabstand bereits knapp unterschritten wird, d. h. das Gefahrenpotential der
Verkehrssituation nimmt zu, was durch die ansteigende Kurve in Fig. 3a symbolisiert wird.
Das System gibt daraufhin eine Handlungsanweisung, beispielsweise der Form "Sie müssen
bremsen" oder "Bitte bremsen Sie" an den Kraftfahrzeugführer, wobei diese einen höheren
lntonationsgrad I2 mit entsprechend höherer Konnotationsstufe K2 aufweist. Reagiert der
Kraftfahrzeugführer auch hierauf nicht, so wird das Gefahrenpotential der Verkehrssituation
noch gesteigert, was anhand des weiteren Anstiegs in Fig. 3a dargestellt ist. Dies bedeutet,
daß ein weiteres Nicht-Reagieren des Kraftfahrzeugführers innerhalb kürzester Zeit zu einem
Unfall führen könnte. Diese handlungskritische Anweisung wird beispielsweise in der Form
"Vollbremsung" mit einer Befehlsintonation 13 ausgegeben. Die in Fig. 3d dargestellten
Konnotationsstufen stellen dabei einen Klimax dar, also die Steigerung des Ausdrucks vom
weniger Wichtigen zum Wichtigeren. Ergänzend sei angemerkt, daß die in Fig. 2a-d und Fig.
3a-d dargestellten Veränderungen nicht maßstäblich sind, sondern nur als qualitative
Angaben zu verstehen sind.
Claims (8)
1. Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog,
umfassend einen Sprachspeicher, in dem für die Sprachanlage benötigte Kommandos
abgelegt sind,
dadurch gekennzeichnet, daß
die Kommandos (KOM) in unterschiedlichen Intonationen abgelegt sind, wobei
mindestens die Kommandos (KOM) für handlungskritische Anweisungen eine
Befehlsintonation aufweisen.
2. Verfahren zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog,
mittels mindestens eines Sprachspeichers, in dem für die Sprachausgabe benötigte
Kommandos (KOM) abgelegt sind,
dadurch gekennzeichnet, daß
bei handlungskritischen Anweisungen die Kommandos (KOM) mit Befehlsintonation
ausgegeben werden.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet, daß
die handlungskritischen Kommandos (KOM) mit einer höheren Lautstärke (L1)
ausgegeben werden.
4. Verfahren nach Anspruch 2 oder 3,
dadurch gekennzeichnet, daß
die handlungskritischen Kommandos (KOM) hart eingeblendet werden.
5. Verfahren nach einem der Ansprüche 2 bis 4,
dadurch gekennzeichnet, daß
die Kommandos (KOM) multilingual im Sprachspeicher abgelegt sind und bei
handlungskritischen Kommandos (KOM) die Sprache gewechselt wird.
6. Verfahren nach einem der Ansprüche 2 bis 5,
dadurch gekennzeichnet, daß
bei handlungskritischen Kommandos (KOM) die Intonation I und die Konnotation K
entsprechend der Wichtigkeit gesteigert wird.
7. Verfahren nach einem der Ansprüche 2 bis 6,
dadurch gekennzeichnet, daß
bei handlungsunkritischen Aufforderungen die Intonation bei abnehmender Konnotation
K variiert wird.
8. Verfahren zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog,
mittels mindestens eines PTT-Schalters, eines Bordmonitor und eines Sprach-Dialog-
Systems, umfassend folgende Verfahrensschritte:
- a) Einleiten des Verfahrens durch Betätigung des PTT-Schalters,
- b) Darstellen der möglichen Steuermöglichkeiten alphanumerisch in der Kommandoform und grafisches Hervorheben der sprachaktiven Funktionen und
- c) Wechseln der Dialog-Kommunikations-Ebene, falls keine erwartete Interaktion erfolgt.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19908137A DE19908137A1 (de) | 1998-10-16 | 1999-02-25 | Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog |
PCT/EP1999/006476 WO2000023982A1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
KR1020007014276A KR20010052920A (ko) | 1998-10-16 | 1999-09-03 | 음성 정보 및/또는 음성 메시지 출력 방법 및 장치 |
EP99970775A EP1121684B1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
CN99809626A CN1312936A (zh) | 1998-10-16 | 1999-09-03 | 通过语音输出信息和/或信号的方法和装置 |
JP2000577649A JP4705242B2 (ja) | 1998-10-16 | 1999-09-03 | 情報および/またはメッセージを音声によって出力する方法および装置 |
AT99970775T ATE221242T1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
DE59902143T DE59902143D1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
US12/193,367 US7991618B2 (en) | 1998-10-16 | 2008-08-18 | Method and device for outputting information and/or status messages, using speech |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19847879 | 1998-10-16 | ||
DE19908137A DE19908137A1 (de) | 1998-10-16 | 1999-02-25 | Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19908137A1 true DE19908137A1 (de) | 2000-06-15 |
Family
ID=26049577
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19908137A Withdrawn DE19908137A1 (de) | 1998-10-16 | 1999-02-25 | Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog |
DE59902143T Expired - Lifetime DE59902143D1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE59902143T Expired - Lifetime DE59902143D1 (de) | 1998-10-16 | 1999-09-03 | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache |
Country Status (8)
Country | Link |
---|---|
US (1) | US7991618B2 (de) |
EP (1) | EP1121684B1 (de) |
JP (1) | JP4705242B2 (de) |
KR (1) | KR20010052920A (de) |
CN (1) | CN1312936A (de) |
AT (1) | ATE221242T1 (de) |
DE (2) | DE19908137A1 (de) |
WO (1) | WO2000023982A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10001263A1 (de) * | 2000-01-14 | 2001-07-19 | Daimler Chrysler Ag | Sprachbasiertes Fahrzeuginformationsausgabesystem |
DE10061696A1 (de) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Fahrzeug-Navigationssystem |
EP1275935A2 (de) * | 2001-07-13 | 2003-01-15 | Robert Bosch Gmbh | Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10063503A1 (de) | 2000-12-20 | 2002-07-04 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zur differenzierten Sprachausgabe |
DE10207875A1 (de) * | 2002-02-19 | 2003-08-28 | Deutsche Telekom Ag | Parametergesteuerte Sprachsynthese |
JP2006018614A (ja) * | 2004-07-02 | 2006-01-19 | Oki Electric Ind Co Ltd | 入場者案内システムおよび係員端末機 |
JP2008065789A (ja) * | 2006-09-11 | 2008-03-21 | Canon Inc | 入力操作支援装置およびその制御方法 |
ITMO20110274A1 (it) * | 2011-10-28 | 2013-04-29 | Scm Group Spa | Metodo e apparato per lavorare legno |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
KR20140112911A (ko) * | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | 표시부 미확인 모드에서 액션을 실행하는 모바일 장치 및 그 제어 방법 |
US10564928B2 (en) * | 2017-06-02 | 2020-02-18 | Rovi Guides, Inc. | Systems and methods for generating a volume- based response for multiple voice-operated user devices |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3032286C2 (de) | 1979-08-31 | 1982-12-16 | Nissan Motor Co., Ltd., Yokohama, Kanagawa | Akustische Warneinrichtung für ein mit einem Tonwiedergabegerät ausgerüstetes Kraftfahrzeug |
US4623970A (en) * | 1979-11-07 | 1986-11-18 | Canon Kabushiki Kaisha | Electronic equipment which outputs data in synthetic voice |
JPS5667470A (en) | 1979-11-07 | 1981-06-06 | Canon Inc | Voice desk-top calculator |
KR830008274A (ko) | 1980-10-17 | 1983-11-16 | 미다 가쓰시게 | 음성 출력장치 |
US4400787A (en) | 1980-12-12 | 1983-08-23 | Westinghouse Electric Corp. | Elevator system with speech synthesizer for repetition of messages |
JPH06101013B2 (ja) | 1986-03-07 | 1994-12-12 | 株式会社日立製作所 | 音声出力方式 |
JP2595235B2 (ja) | 1987-03-18 | 1997-04-02 | 富士通株式会社 | 音声合成装置 |
JPS6439892A (en) | 1987-08-05 | 1989-02-10 | Hitachi Ltd | Video tex with sound |
JPH01148240A (ja) | 1987-12-04 | 1989-06-09 | Toshiba Corp | 診断用音声指示装置 |
US5012221A (en) | 1989-03-24 | 1991-04-30 | Siren Sounds, Inc. | Emergency vehicle audible warning system and method |
US5559927A (en) * | 1992-08-19 | 1996-09-24 | Clynes; Manfred | Computer system producing emotionally-expressive speech messages |
US5584052A (en) | 1992-11-16 | 1996-12-10 | Ford Motor Company | Integrated microphone/pushbutton housing for voice activated cellular phone |
US5796916A (en) * | 1993-01-21 | 1998-08-18 | Apple Computer, Inc. | Method and apparatus for prosody for synthetic speech prosody determination |
CA2119397C (en) | 1993-03-19 | 2007-10-02 | Kim E.A. Silverman | Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation |
DE4325096C2 (de) | 1993-07-27 | 1998-12-17 | Computervision Corp | Ein Datenverarbeitungssystem, welches einen Benutzer-Dialog in mehreren natürlichen Sprachen ermöglicht |
US5612869A (en) | 1994-01-21 | 1997-03-18 | Innovative Enterprises International Corporation | Electronic health care compliance assistance |
JPH08167091A (ja) * | 1994-12-14 | 1996-06-25 | Nippon Signal Co Ltd:The | 警告装置 |
JPH08211885A (ja) * | 1995-02-01 | 1996-08-20 | Fujitsu Ten Ltd | 音声処理装置 |
DE19503419A1 (de) | 1995-02-03 | 1996-08-08 | Bosch Gmbh Robert | Verfahren und Einrichtung zur Ausgabe von digital codierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache |
JPH08247779A (ja) * | 1995-03-09 | 1996-09-27 | Honda Motor Co Ltd | 音声出力装置 |
DE19533541C1 (de) | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
JP3580643B2 (ja) * | 1996-07-24 | 2004-10-27 | 株式会社デンソー | 音声認識方法及び音声認識装置 |
JPH10104011A (ja) * | 1996-09-30 | 1998-04-24 | Mazda Motor Corp | ナビゲーション装置 |
DE19646634A1 (de) * | 1996-11-12 | 1998-05-14 | Bosch Gmbh Robert | Verfahren zur Befehlseingabe mit Sprache |
US5864805A (en) | 1996-12-20 | 1999-01-26 | International Business Machines Corporation | Method and apparatus for error correction in a continuous dictation system |
US5966691A (en) | 1997-04-29 | 1999-10-12 | Matsushita Electric Industrial Co., Ltd. | Message assembler using pseudo randomly chosen words in finite state slots |
CN1163869C (zh) | 1997-05-06 | 2004-08-25 | 语音工程国际公司 | 用于开发交互式语音应用程序的系统和方法 |
JP3884851B2 (ja) | 1998-01-28 | 2007-02-21 | ユニデン株式会社 | 通信システムおよびこれに用いられる無線通信端末装置 |
US6598045B2 (en) | 1998-04-07 | 2003-07-22 | Intel Corporation | System and method for piecemeal relevance evaluation |
US6446040B1 (en) * | 1998-06-17 | 2002-09-03 | Yahoo! Inc. | Intelligent text-to-speech synthesis |
GB9929284D0 (en) | 1999-12-11 | 2000-02-02 | Ibm | Voice processing apparatus |
-
1999
- 1999-02-25 DE DE19908137A patent/DE19908137A1/de not_active Withdrawn
- 1999-09-03 KR KR1020007014276A patent/KR20010052920A/ko not_active Application Discontinuation
- 1999-09-03 AT AT99970775T patent/ATE221242T1/de not_active IP Right Cessation
- 1999-09-03 WO PCT/EP1999/006476 patent/WO2000023982A1/de not_active Application Discontinuation
- 1999-09-03 EP EP99970775A patent/EP1121684B1/de not_active Expired - Lifetime
- 1999-09-03 JP JP2000577649A patent/JP4705242B2/ja not_active Expired - Lifetime
- 1999-09-03 DE DE59902143T patent/DE59902143D1/de not_active Expired - Lifetime
- 1999-09-03 CN CN99809626A patent/CN1312936A/zh active Pending
-
2008
- 2008-08-18 US US12/193,367 patent/US7991618B2/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10001263A1 (de) * | 2000-01-14 | 2001-07-19 | Daimler Chrysler Ag | Sprachbasiertes Fahrzeuginformationsausgabesystem |
DE10001263C2 (de) * | 2000-01-14 | 2002-06-13 | Daimler Chrysler Ag | Sprachbasiertes Fahrzeuginformationsausgabesystem |
DE10061696A1 (de) * | 2000-12-12 | 2002-06-27 | Bernhard Lehmeier | Fahrzeug-Navigationssystem |
EP1275935A2 (de) * | 2001-07-13 | 2003-01-15 | Robert Bosch Gmbh | Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems |
EP1275935A3 (de) * | 2001-07-13 | 2005-04-27 | Robert Bosch Gmbh | Verfahren zur akustischen Wiedergabe von Informationen im Rahmen eines Fahrerinformationssystems |
Also Published As
Publication number | Publication date |
---|---|
KR20010052920A (ko) | 2001-06-25 |
US7991618B2 (en) | 2011-08-02 |
JP4705242B2 (ja) | 2011-06-22 |
US20090157388A1 (en) | 2009-06-18 |
JP2002528751A (ja) | 2002-09-03 |
WO2000023982A1 (de) | 2000-04-27 |
EP1121684A1 (de) | 2001-08-08 |
CN1312936A (zh) | 2001-09-12 |
EP1121684B1 (de) | 2002-07-24 |
DE59902143D1 (de) | 2002-08-29 |
ATE221242T1 (de) | 2002-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60032193T2 (de) | Verfahren und System zur Auswahl erkannter Wörter bei der Korrektur erkannter Sprache | |
DE10338512A1 (de) | Unterstützungsverfahren für Sprachdialoge zur Bedienung von Kraftfahrzeugfunktionen | |
EP1127748B1 (de) | Vorrichtung und Verfahren zur Sprachsteuerung | |
EP1121684B1 (de) | Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache | |
DE102005047591A1 (de) | Verfahren zur Entlastung des Fahrers bei der Bedienung eines Kraftfahrzeugs | |
DE102005007317A1 (de) | Verfahren und Vorrichtung zur Sprachsteuerung eines Gerätes oder eines Systems in einem Kraftfahrzeug | |
DE102014017384A1 (de) | Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung | |
EP3526790A1 (de) | Multimodaler dialog in einem kraftfahrzeug | |
EP3430615B1 (de) | Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe | |
DE19717601A1 (de) | Navigationsverfahren und Vorrichtung dafür | |
DE102017206876A1 (de) | Verfahren und Vorrichtung zur Ausgabe einer Statusmeldung in einem Kraftfahrzeug mit Sprachsteuerungssystem | |
EP1673762B1 (de) | Nutzeradaptive dialogunterstützung für sprachdialogsysteme | |
DE19959755A1 (de) | Verfahren und Vorrichtung zur Information über die Bedienung eines Kraftfahrzeuges | |
DE102005051175A1 (de) | Verfahren zur Anpassung von Informationsausgaben an zeitliche Gegebenheiten | |
DE102020001658B3 (de) | Verfahren zur Absicherung der Übernahme der Kontrolle über ein Fahrzeug | |
DE102020100638A1 (de) | System und Verfahren für einen Dialog mit einem Nutzer | |
DE102007042583B4 (de) | Verfahren zur Kommunikation zwischen einer natürlichen Person und einem künstlichen Sprachsystem sowie Kommunikationssystem | |
DE102010051833A1 (de) | Verfahren und Vorrichtung zur Interaktion | |
EP3115886A1 (de) | Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem | |
DE10001263C2 (de) | Sprachbasiertes Fahrzeuginformationsausgabesystem | |
DE102013013695A1 (de) | Kraftfahrzeug mit Spracherkennung | |
DE102021132712A1 (de) | Unterstützung eines Fahrers eines Fahrzeugs | |
DE102012201934A1 (de) | Verfahren zur Ausgabe von Fahrerassistenzinformationen | |
DE102005010230A1 (de) | Verfahren zum Ausgeben von Hilfeinformationen | |
DE102008025532B4 (de) | Kommunikationssystem und Verfahren zum Durchführen einer Kommunikation zwischen einem Nutzer und einer Kommunikationseinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |