WO2002005264A1 - Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung - Google Patents

Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung Download PDF

Info

Publication number
WO2002005264A1
WO2002005264A1 PCT/DE2001/002374 DE0102374W WO0205264A1 WO 2002005264 A1 WO2002005264 A1 WO 2002005264A1 DE 0102374 W DE0102374 W DE 0102374W WO 0205264 A1 WO0205264 A1 WO 0205264A1
Authority
WO
WIPO (PCT)
Prior art keywords
vocabulary
voice input
voice
devices
unit
Prior art date
Application number
PCT/DE2001/002374
Other languages
English (en)
French (fr)
Inventor
Meinrad Niemöller
Andreas Kipp
Niels Kunstmann
Reinhart Vogl
Ralph Wilhelm
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2002005264A1 publication Critical patent/WO2002005264A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the invention relates to a voice-controlled arrangement with a plurality of devices according to the preamble of claim 1 and a method for voice input and recognition that can be used in such an arrangement.
  • Devices of this type are already known (for example some types of mobile telephones) in which simple speech recognition for control functions is implemented on the device itself.
  • simple speech recognition for control functions is implemented on the device itself.
  • primitive to simple voice controls are also known for other devices in everyday life, for example for remote controls for audio systems or lighting systems. All known devices of this type each have their own, dedicated speech recognition system.
  • Arrangements have therefore already been proposed in which a single voice input unit is assigned to several technical devices, by means of which various functions of these devices are controlled by voice control.
  • the control information is preferably transmitted wirelessly to (stationary or even mobile) terminals.
  • the technical problem arises that the speech input unit has to keep a very large vocabulary for speech recognition in order to be able to control different terminal devices.
  • handling a large vocabulary is associated with losses in the speed and accuracy of recognition.
  • such an arrangement has the disadvantage that subsequent additions to additional devices, which were not foreseen when the voice input unit was implemented, are not readily possible.
  • the invention is therefore based on the object of specifying an improved arrangement of this type which is distinguished, in particular, by high recognition speed and accuracy at low costs and by modular expandability. Furthermore, a voice input and recognition method suitable for such an arrangement is to be specified.
  • the invention includes the basic idea that in the individual devices of the arrangement a device-specific u> ⁇ w IV ) P 1 P 1 no cn o cn o C ⁇
  • the vocabulary size is optimized in that only the vocabulary is loaded into the speech recognition system that belongs to a device that is actually to be controlled by the speech input unit due to the spatial constellation.
  • the voice input unit is also relatively inexpensive, because the restriction to a local context for the vocabulary results in a strong reduction in the need for storage capacity and computing power in the voice input unit.
  • an input unit can control any number of devices, which means that the above-described, uneconomical development of equipping all possible everyday devices with separate voice controls can be prevented.
  • the voice input unit is programmed or trained on a person-specific basis, while this does not apply to the devices to be controlled.
  • training or adaptation can take place on the speech input unit or corresponding acoustic models can be stored there, the end devices remaining completely unaffected by this and able to communicate with various “personalized” * speech input units.
  • the triggering of the vocabulary transmission by specific addressing of the corresponding device on the voice input unit is also required for certain applications (via voice or button control) makes sense.
  • FIG. 1 This shows in a sketch-like functional block diagram a device configuration 1 consisting of several voice-controlled devices, namely a television set 3, an audio system 5, a lighting control unit 7 and a kitchen stove 9 with a mobile voice control terminal 11.
  • the devices 3 to 9 to be controlled each have one Device vocabulary memory 3a to 9a, a vocabulary transmission unit 3b to 9b operating according to the Bluetooth standard, a control command
  • P- ⁇ ⁇ P tr 1 P- ⁇ P ti ⁇ ⁇ Hi H ⁇ P- ⁇ PPP ⁇ S cn ⁇ tti PP P- HO: f ti a iQ a P- o PN Hi ⁇ PPN ⁇ PH o C ⁇ rt
  • the user can selectively switch on the light anywhere via a central lighting control unit or a lighting control unit that is implemented separately for each room and (with the “brighter * control command) change the light intensity after having reached the reception area of this control unit or control units.
  • a central lighting control unit or a lighting control unit that is implemented separately for each room and (with the “brighter * control command) change the light intensity after having reached the reception area of this control unit or control units.
  • the armchair he can then conveniently select a desired television program by entering the program name by voice, since the armchair is located in the Bluetooth reception area of the television and the control command vocabulary of the television was transferred to the mobile phone when the operator sat down.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)

Abstract

Sprachgesteuerte Anordnung mit einer Mehrzahl von Geräten und einer mobilen Spracheingabeeinheit, wobei mindestens ein Teil der Geräte jeweils einen Geräte-Wortschatzspeicher zur Speicherung eines gerätespezifischen Wortschatzes und eine Wortschatz-Sendeeinheit aufweist und die Spracheingabeeinheit eine Wortschatz-Empfangseinheit, Mittel zur Spracheingabe sowie eine mit den Mitteln zur Spracheingabe und mindestens mittelbar mit der Wortschatz-Empfangseinheit verbundene Spracherkennungsstufe aufweist.

Description

Beschreibung
Sprachgesteuerte Anordnung und Verfahren zur Spracheingabe und -er ennung
Die Erfindung betrifft eine sprachgesteuerte Anordnung mit einer Mehrzahl von Geräten nach dem Oberbegriff des Anspruchs 1 sowie ein in einer solchen Anordnung anwendbares Verfahren zur Spracheingabe und -erkennung.
Nachdem Spracherkennungssysteme sich mehr und mehr zu einer Standardkomponente leistungsfähiger Computer für den professionellen und privaten Bedarf, bis hin zu PCs und Notebooks im mittleren und unteren Preissegment, entwickelt haben, wird zunehmend an Einsatzmöglichkeiten solcher Systeme bei Geräten aus dem täglichen Lebensumfeld gearbeitet. Elektronische Geräte wie Mobiltelefone, Schnurlostelefone, PDAs und Fernbedienungen für Audio- und Videosysteme etc. verfügen üblicherweise über eine Eingabetastatur, die mindestens ein Ziffern- Eingabefeld und eine Reihe von Funktionstasten umfaßt.
Manche dieser Geräte - insbesondere natürlich die verschiedenen Telefone, aber auch zunehmend Fernbedienungen und weitere Geräte - sind zudem mit Sprech- und ggf. auch Hörkapseln zur Spracheingabe und -ausgäbe ausgestattet. Es sind auch bereits Geräte dieser Art (beispielsweise einige Typen von Mobiltelefonen) bekannt, bei denen eine einfache Spracherkennung für Steuerungsfunktionen auf dem Gerät selbst implementiert ist. Weiterhin sind primitive bis einfache Sprachsteuerungen auch für andere Geräte des täglichen Lebensumfeldes bekannt, beispielsweise bei Fernsteuerungen für Audioanlagen oder Beleuchtungssysteme. Alle bekannten derartigen Geräte haben jeweils ein eigenes, dediziertes Spracherkennungssystem.
Es ist eine Entwicklung absehbar, in deren Verlauf eine zunehmende Anzahl von technischen Geräten und Systemen des täglichen Lebensumfeldes, insbesondere im Haushalt und in Kraft- fahrzeugen, mit jeweils eigenen Spracherkennungssyste en ausgerüstet sein wird. Da derartige Systeme, sofern sie einen akzeptablen Bedienkomfort und hinreichende Erkennungssicherheit bieten sollen, hard- und softwaremäßig relativ aufwendig und somit teuer sind, ist diese Entwicklung im Grunde kostentreibend und aus Sicht des Verbrauchers nur bedingt sinnvoll.
Es wurden daher bereits Anordnungen vorgeschlagen, bei denen mehreren technischen Geräten eine einzelne Spracheingabeein- heit zugeordnet ist, über die verschiedene Funktionen dieser Geräte per Sprachsteuerung gesteuert werden. Die Steuerungsinformation wird hierbei vorzugsweise drahtlos an (stationäre oder selbst mobile) Endgeräte übertragen. Hier taucht jedoch das technische Problem auf, daß die Spracheingabeeinheit ei- nen sehr großen Wortschatz für die Spracherkennung vorhalten muß, um verschiedene Endgeräte steuern zu können. Die Handhabung eines großen Wortschatzes ist jedoch mit Einbußen in der Erkennungsgeschwindigkeit und -genauigkeit verbunden. Zudem hat eine derartige Anordnung den Nachteil, daß spätere, nicht bei der Realisierung der Spracheingabeeinheit vorhergesehene Ergänzungen um zusätzliche Geräte nicht ohne weiteres möglich sind.
Der Erfindung liegt daher die Aufgabe zugrunde, eine verbes- serte Anordnung dieser Art anzugeben, die sich insbesondere durch hohe Erkennungsgeschwindigkeit und -genauigkeit bei niedrigen Kosten und durch modulare Erweiterbarkeit auszeichnet. Weiterhin soll ein für eine derartige Anordnung geeignetes Spracheingabe- und -erkennungsverfahren angegeben werden.
Diese Aufgabe wird hinsichtlich ihres Vorrichtungsaspektes durch eine Anordnung mit den Merkmalen des Anspruchs 1 und hinsichtlich ihres Verfahrensaspektes durch ein Verfahren mit den Merkmalen des Anspruchs 6 gelöst.
Die Erfindung schließt den grundlegenden Gedanken ein, in den einzelnen Geräten der Anordnung jeweils einen gerätespezifi- u> ω w IV) P1 P1 n o cn o cn o Cπ
i-i a p- P1 ö cn cn r CΛ ι-3 Hi Λ cn p- l-J t i cn a ιQ ^ a P H PJ < φ φ a P P" CΛ cn φ Φ P P- P- O •< •Ö H Φ O Φ rt O: P P- rt S P O p: P P Φ O P- i-i Φ φ Φ Φ TJ Ω
P H Ω Φ 1 cn P- H PJ P' H P H l-J P P Φ P £P Hi P- P vQ Hi P a P P- l-J PJ p- PJ P rt rt PJ P P1 P Φ Φ iQ φ a •^ ιQ φ rt Φ 0 φ rt rt P Φ
• M i-r Φ CΛ rt Φ n cn cn Ω Ω P cn a φ P- Sl P P1 P- P Φ Ω P
P H P TJ N ä P P' W s: 1 P Pf a α N tr P •Ö Hi Φ P- P P o rt ιq a P . . t s rt t-J 1 J Φ l-i o Φ N Φ Φ Φ s: Φ ι-J p: a P φ P l-J rt φ P Φ Sl p- Hi CΛ « P INI ιQ O H P- H P- P P l-J φ P cn o H Φ l-J a rt P- P- Φ Φ t-J o r Φ TJ o o ≤, Φ tr Λ* Ό rt P ιQ Ω P rt to l-J cn Ω P Φ P P- tr f l-i
H H P tr P- P" Φ rt Φ ιQ Φ P cn Λ w rt CΛ O a tr a Ω PJ l-J Φ P Φ Φ rt a P 0) cn Φ cn P φ P P- P & cn Φ Ό a N rt Λ' P- P a Φ P* φ cn p: 3 φ P P cn p- P o rt p- O a P- P o O tr O: l-J l-J p: rt P O Φ Φ H <! PJ p: P O rt P Ω φ 3 tr Φ P P- Φ P P P Φ H, Q p: P &a P H rt P 0 t-i rt Ώ CΛ a P P*
W ιQ Φ ιQ Φ P φ P Φ Φ P- Φ rt Ω μ. s: α ^ O PJ H φ N CΛ Φ cn Φ J Φ P P φ l-J H P P ** l-J iQ P l-J P- ιQ ι-J Φ P* ιq Φ P Φ P O rt N K Φ TJ P- Φ H l-J P IQ rt
H N Pf P tr cn . P P Φ : φ Φ H l-i P rt P" P Φ P t-J P P1 p: P N
P Φ rt Φ TJ P ιQ Q. 1 P' P rt P- P- P, α P W P* O ιQ P P Φ tr rr Ω CΛ <* ^.
^ P P- Φ Φ P Φ ö j Φ P P Φ cn P W 1 cn rt ISI Ω cn P TJ o p Φ P O P- P- a Φ φ φ PJ P- Sl P. iQ P P α O CΛ Φ Φ H ^ PJ ι-J rt iQ φ H l-i ι_ι.
P P- P P P O P- H < l-J rt 0 p- a P cn • Hi a rt P P P P- φ p: Φ l-i P N Φ
Pf P P tr P N ιQ rt J l-i Φ H- tr Hl p: tö a P a cn t-i P ιQ 51 f Ω P a rr Φ iQ S! Φ φ s: P Sl cn P= rt Φ φ p: l-J P P C ιQ Ω Λ' 3 Φ P- φ P' cn o
P- a ω O P- l-J P Φ O • Φ tr cn < φ p- cn P a tr P φ PJ φ cn 1 P Φ φ Ω o CQ l-J rt l-J rt l-J P φ Ω o ?α P- H α Ω p- P Φ cn l-J φ P P- TJ P P- PJ P"
P Q • rt a Φ rt N H PJ P Φ P P P- PJ f -i l-J Hi P-- P P O Φ φ P P Φ cn Φ cn cn " Φ < P cn P P- rt P P- PJ P φ l-J P a rt p: rt P P- rt P iQ P f s; n rt O P cn o O CQ P l-J rt P- Ω φ iQ Φ rt l-J PJ Φ a P φ Ω φ iQ P φ
Φ p: Φ tr P cn ü SJ P" P>: p: N p' 0- P- Ö: P- P- P l-J P Φ iQ PJ P cn tr P- p- rt a (D: P Φ rt P> PJ rt o ιQ P s: rt Hi tj tr o cn ^ P • l-J cn ι-3 φ cn Φ s: P
Ul - — rt (-> Φ P rr N H r Hl Φ P Φ P P rt P P t H t-i CΛ > a p: φ CΛ) φ l-J N a tr P- a N rt • p P P- P P H P P P iQ , — . P Φ rt J cn P- P" s: P Φ P Φ P- PJ H f rt P Pf rt ιQ cn rt LQ a *Ö P Φ H rt rt t-i <
P- P- a a P PJ P s: Ω o ö N Φ a rt ι-J cn o rt cn Hi o P P P P Φ rt Φ φ n Φ Φ Φ P- • P P P- PJ ιQ Φ φ P- P cn P1 • cn P- tr N P Ω a Φ P t-i rt a p P- rt Hl ιQ l-J φ l-i H P- •Ö P- φ O vQ rt M rt P P- P- P Sl p- cn a P
Φ P rt P φ rt p- P- P P P rt to i-f a rt iQ o φ P l-i
Φ o N P- Φ P- H H) s; P- H P P- P P Φ P Φ Φ Φ p: ü H p- — - P- tr a Φ P H P J P P- o Λ φ Φ φ φ ιq α P cn Ω rt P rt a rt f a P Φ
P <i Φ s: P Hi cn l-J O li H cn l-i P P- f — Φ cn φ TJ a P- φ Φ l-J 0 Φ Φ o Ω rt l-J rt rt & l-J PJ φ Φ a P ι-J Ω P H P- a rt
H Φ P- P- P> α H PJ cn P Φ ^1 α Φ α O: H P- CΛ P P" P Φ φ Φ P w X l-J P cn cn Φ a φ Ω Ω P P φ n ι-J cn PJ φ Φ Ό a Sl P P 3 l-J P φ φ N φ Φ H P> H PJ PJ P H O Φ P tr cn l-J o rt P Φ < iQ
P- li * N t-J CΛ rt P Φ o fV Sl l-J a Φ Φ P Φ l-J N iQ P φ CΛ cn
PJ Hi tu P P- O CΛ P- o rt l-J rt P: N o s: P- Ω P- rt cn rt t-j TJ a
Φ Φ « ^Q ιQ P I-J Ό o N W φ tr P α l-i p- Φ P cn ^ PJ P cn N p- P l-J P-
P Φ Φ J K P Φ Φ P Φ l-J P rt φ H P V O φ Φ Ω P o φ l-J P rt
< tr tr ιQ φ n PJ Φ l-J Φ P Φ öo cn rt Hi P- a t-J PJ iQ H li tr Ω rt o er Φ O: Φ P- PJ o P P P l-J rt Ω N P- φ a « p: Φ ιq rt Φ PJ Φ
P N P- l-J tr P Φ tf •Ö rt P tr l-J $ P P' . iQ Φ P φ o rt ιQ P P- Φ s: P- Φ φ H φ Hi P* PJ P Φ P o P p: tr) Φ P- cn P P g N t-i P cn rt P-
<! N uQ P P w P- P: o p: iQ Hl iQ l-i Ω r • P s: P- P π Φ P- ιQ P- P P Hl o P Φ Φ Φ P l-J P Φ P α p- N C Φ Φ ?T P P Hi P P iQ P ι-S 5 P H P SJ P iQ Φ rt P PJ P P Φ si tr a P- P P P <i Hi s: a ^3 P H rt Φ O P P_ rt P iQ P > Φ cn rt iQ p- o Φ P- cn tr
Φ Φ tj1 Q l-J P tr P- P- t Φ cn P & P- <J} l-J <v Φ P- cn f P P ι-J f Φ a
P- l-J § Φ p: rt P Φ Φ cn Φ 1 ιQ P rt H O Φ P • p a i*l 0 Φ P-
P1 Φ l-J 1 iQ Φ Ω 1 P- P p: o H o ^Q P P- rt a P= a P- φ
Φ P- 0 j: 3 cn P- PJ φ P ιQ p- CΛ a P rt Φ P P- M P H TJ P
P Φ 1 rt 1 1 P Φ Φ φ Φ 1 o 1 1 o t-j cn P 0 1 1 Φ 1 l-J 1 1 i l-J 1 P Hl 1
verbunden :
- Die Wortschatzgröße wird insofern optimiert, als nur derjenige Wortschatz in das Spracherkennungssystem geladen wird, der zu einem aufgrund der räumlichen Konstellation tatsächlich durch die Spracheingabeeinheit zu steuernden Gerät gehört.
- Das System ist leicht zu erweitern, denn der Wortschatz hinzukommender Geräte muß nicht a priori bekannt sein.
- Die Endgeräte selbst sind preiswert, denn in ihnen sind keine Hardware- und Software-Ressourcen für die Spracherkennung bereitzustellen.
- Auch die Spracheingabeeinheit ist relativ preiswert, denn die Beschränkung auf einen lokalen Kontext bei den Wortschätzen erbringt eine starke Reduzierung des Bedarfes an Speicherkapazität und Rechenleistung in der Spracheingabeeinheit.
- Eine Eingabeeinheit kann im Prinzip beliebig viele Geräte steuern, wodurch die oben skizzierte, unwirtschaftliche Entwicklung der Ausrüstung aller möglicher Geräte des täglichen Bedarfes mit separaten Sprachsteuerungen unterbunden werden kann.
- In einer ggf. zweckmäßigen Ausführung ist die Spracheingabeeinheit personenbezogen programmiert bzw. trainiert, während dies für die zu steuernden Geräte nicht gilt. Zur Opti- mierung der Spracherkennung können ein Training oder eine Adaption an der Spracheingabeeinheit stattfinden bzw. entsprechende akustische Modelle dort gespeichert werden, wobei die Endgeräte hiervon völlig unberührt bleiben und mit verschiedenen „personalisierten'* Spracheingabeeinheiten kommuni- zieren können.
- Aufgrund des erwähnten räumlichen Kontexts läßt sich in für konkrete Anwendungsfälle geeigneter Weise vorherbestimmen, mit wie vielen und welchen Geräten eine Spracheingabeeinheit normalerweise bzw. unter Extrembedingungen in Verbindung steht. Dies ermöglicht eine sinnvolle Ausprägung von Lei- stungs- und Preisklassen, wobei die einfachsten Ausführungen mit vergleichsweise geringer Speicher- und Prozessorkapazität auskommen.
Der Einsatz der oben erwähnten Bluetooth-Technologie für die Nachrichtenverbindung der Geräte mit der Spracheingabeeinheit erscheint mit Blick auf die enormen Perspektiven dieser Technik als bevorzugte Variante; grundsätzlich sind aber auch Infrarot-Übertragungsstrecken zur Realisierung der Erfindung geeignet.
Neben der oben als vorteilhaft herausgestellten selbsttätigen Initiierung der Übertragung der gerätespezifischen Wortschätze in das Spracherkennungssystem bei Eintritt in den Emp- fangs-/Sendebereich der jeweiligen Übertragungsstrecke ist für bestimmte Anwendungen auch die Auslösung der Wortschatz- Übertragung durch ein gezieltes Ansprechen des entsprechenden Gerätes an der Spracheingabeeinheit (per Sprach- oder Tastensteuerung) sinnvoll.
Vorteile und Zweckmäßigkeiten der Erfindung ergeben sich im übrigen aus den Unteransprüchen sowie der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels anhand der Figur.
Diese zeigt in einem skizzenartigen Funktions-Blockschaltbild eine Gerätekonfiguration 1 aus mehreren sprachgesteuerten Geräten, nämlich einem Fernsehgerät 3, einer Audioanlage 5, einer Beleuchtungssteuereinheit 7 und einem Küchenherd 9 mit einem mobilen Sprachsteuerterminal 11. Die zu steuernden Ge- rate 3 bis 9 weisen jeweils einen Geräte-Wortschatzspeicher 3a bis 9a, eine nach dem Bluetooth-Standard arbeitende Wortschatz-Sendeeinheit 3b bis 9b, eine Steuerbefehl-
Figure imgf000008_0001
Q p: et a CΛ CΛ a l ≥; rt Ω P> ^ H a cn 1—1. f 1 t, V cn n Pf tr σ M N <i P1 P M
Φ tr φ φ rt TJ φ o o P tr P1 a H J≡l P- Ω Φ Φ tr φ Φ Ω φ P P- P- a Φ P1 P a φ li P Φ li cn li rt P Φ TJ Φ tr P cn P- tr H P cn Φ TJ P- ü P H, J p: ü a P P rt 1 rt P T Sl TJ Hi P φ a Φ Ω Φ p: P Hi cn tr ** • Hl rt rt P- a Φ Ω ι_ι. cn P- P o Hi P l rt P- iQ Φ P tr P rt rt (£5 <! P Ω P P
Φ ti P P ü 0* Φ Ω tr O to P H P P o ISI P- P- Ü rt . Φ Φ φ P tr P φ α P
P P Ü tr Φ X tr N P Φ P rt P ιQ h 1 P- Φ Q Ω ü P ti ιQ Φ a P- P iQ o vQ Ω Φ li Φ P X <Ω cn uq n rt t i ιQ rt to P- P- Φ tr P cn cn P Φ P cn cn
Φ cn tr Hi f p- rt • a ü φ Ω cn Φ cn s: Φ -^ Φ Ω rt ti P Sl a Ω φ cn P Φ Φ tr P φ Φ P" t i P- P- P- tr tr P- Ω P- P -> PJ Φ p: ü Φ P- P- TJ Φ a P-
P- P1 a tr P P- cn CΛ φ Hi P P Φ P tr cn a Φ rt P P- a P- P Φ
TJ P- Hl rt ü P1 P Ω P P W a Pf £ o P cn P P> P- P" P iQ. cn Φ φ P* p- CΛ tr PJ
P Φ Φ P φ Φ Ω H Φ cn tsi Φ Φ rt - Φ &= Ω H Φ P et φ cn a φ Ω TJ N P- Φ a P P P P- tr P P ti 1 p- P- N Φ H tr Φ ii P Φ P- tr H Φ PJ P-
P CΛ Hi iQ Ω Φ tr P tsl Ω rt 1 P p: P rt P- a ü 1 CΛ P rt Φ P P- φ rt
H- < et p: cn Q tr H Φ P- P ≤ tr CΛ cn rt P P P Sl TJ Φ ti Ω vq
P o a Φ li cn φ Φ tr rt a P- P1 Φ TJ φ rt P φ o to P cn l-J P P1 p- φ CΛ ω a P- P rt ü ti Φ ü TJ 2, cn Φ P> P Φ 1 O ιQ t-i ü Φ P O P P1 P> Φ φ TJ Ω
CΛ φ φ a P P-' P- P- PJ O Ω H φ a P- sl a cn rt P a Ω CΛ φ P1 ü P- ü rt l_l. ü P Hi rt Φ rt φ φ Ü tr Hi Φ Ω O P cn P cn P P tr Φ a f P P tr
Φ φ CΛ tr cn Φ Φ P cn tr a rt φ O tr Φ tr H rt rt Ω rt a P cn P P φ PJ Ω P-
P x rt Φ cn rt Hi P Φ cn P Φ H- Φ rt P- Φ cn tr N P- cn rt a P N P Φ tr cn
Φ Φ Φ Hi 1—1. P> • P^ P P P Ω cn ιQ P- P li cn cn P P Φ Φ ιQ Φ Φ a P P P- cn h P- P φ φ * P P ö1 r p- J rt p- Ω Ω Φ a rt li Φ P 1 iQ P rt rt 3 cn H Φ tr x Ω ≥! f y P- P Φ • ts Φ P1 PJ tr -i P- N - P- Φ P rt rt Φ Φ rt P- P- P- E≤ tr Φ Φ φ P Φ Ω
P h P1 P Φ φ 1 P tr P- ü P P- o ιQ P tp ιQ tr 1 P- * Ω Φ P- H N Ω P <i- L_l. CΛ tr P" M cn P» Φ P
Φ Φ CΛ P- tr a rt Φ P- rt P P
P P O a et tr rt φ N P- P Φ Φ iQ P-
P- φ a Φ a Φ a cn tr ti P
P P Hi Φ P Φ P Φ ü P a cn P tr P P φ Ω Φ H P rt "^ rt φ a
P ιQ li a CΛ Φ cn cn P li P- Φ TJ φ Φ P- a cn PJ rt a M CΛ Φ P Φ cr>
Φ £ tr a Φ P Φ TJ P Φ rt CO cn Φ P- iQ Φ rt φ P- 3 rt rt Hi φ ü Φ
P- PJ Φ P cn φ cn P- CΛ P1 rt tr P- Sl rt Φ Φ P- P P TJ Φ Φ P- a p- p Pf 1 Φ Q Hi cn N ιQ Φ P et P1 CΛ Ω o • P- a a P Hi P P- P P- P
3 ü M P- Φ Φ P- Φ cn φ a P- tr TJ tr li a P P ü P P Φ cn P» φ P φ iQ. o a P ü N P P s P P P P- ü Φ rt ^ Φ PJ rt pj: &o cn P ti rt P1 P P
Φ Ω TJ tr p: P p: a a Φ a Ui P i-i cn P: ü Φ p iQ tr « Ω a
Cn O Hi ω rt lΩ. ö 1 P1 rt Φ li Φ a Ω Ω t-J P- p- p P- P1 cn Φ P- S
Φ P P P- ü Cj o ü cn ü tr cn Φ ^o P^ o tr sl rt cn tr P1 Φ Hi Φ rt P> P- rt rt P et Φ Φ Φ f ^ Φ P tr cn P P P o rt P- ü P- Φ P- a P> W
N ü tQ P- P- ü P Φ cn P- Hl CΛ rt rt i-i vo Ω Φ cn P P* P Φ a H rt O cn P1 P H) et tr P- et P φ TJ L-I. P Φ tr N et tr 1 tr P- P- - Φ Ü Φ tr o
• P" Φ P> cn Φ H P cn Φ tr H Φ P P P- p: Φ cn Φ tö P Φ 1 H P Ω
H P- Hi TJ P P rt a l_l. P" P Ξ a Φ CQ tr Ω a cn P φ a P- CΛ s! Φ rt O
Φ P ü ιΩ. P φ cn φ Φ Ω Φ ü φ O PJ Φ O P- rt Φ o P- CΛ P li p- a φ P P i rt a P tr P- a rt < I tr P cn tö Ω 1 φ P H P TJ Φ rt
Φ Φ Ω P P • P Φ cn P- Φ P rt Φ rt p- Φ tr P a rt ü P- li o P- cn tr a ιQ N P li P rt P- Φ ü ü Ü N cn . P- Φ cn i Φ P O tr rt φ P α a P Φ ιQ a P- P rt 1 p: rt P Φ P a Φ Ω o Ω Φ
Φ CΛ P a Pf ti P- to a P φ l P- P iQ li ω Ω rt P- Φ P- tr tr tr P TJ • P Φ "3 φ Φ P o P P P Φ t φ P- rt P ti P P rt Pf CΛ Φ
P- H ii P ω Φ P N H H P a P ιQ P Φ rt O Φ P PJ rt cn P TJ H ω co P ü P rt Q s: P P rt CΛ rt P1 Φ IQ P s: P cn a P cn Φ N Ω TJ ü
Ω Ω p- to Φ Φ P- rt cn Φ Φ ω P P P" P Φ P cn Φ P- 1 tr cn Φ CO Ω P* Φ Φ a P H cn N p: ti P Ω P ι<3 Φ φ P P P- li rt P φ Ω a tr cn cn P P- Φ p: cn P rt a a P' t-1 si P cn P- ti a Hi Ω p: rt a p-
P- rt Φ P φ ti rt φ P N P- Φ P P1 o cn cn P a P- N tr rt N Pf tr a cn φ rt P Φ ii ιQ * P 1 rt li rt P Φ Φ s: a Φ P> 1 P1 P P-
Φ P 21 N P 1 CQ P- P N : rt n 1 1 a ti Φ cn P- Φ tr Hi P* TJ cn
Ü U3 Φ Φ Φ £) c tr 1 φ Φ p- 1 P Φ CO P cn Ω li ü li P- cn φ f rt (Ω 1 Φ U3 1 1 1 ü 1 P" a
co o N> l\) P1 P1
Cn o Cn o Cn O Cn cn a a a X M Φ ^ t-d Hi Hi a H Q ö rt z Hi tr rt CΛ P cn X X 3 M P tr CΛ rt M
Ω Φ Φ P p: P- P- P P- p: p: Φ P- Φ M Φ Φ p: Φ Φ sl Φ φ Φ P- P- O: P- P Φ TJ Φ P- tr 0 ti ü P" P P ü P tT ü H P O P- tr tr cn P o P- P ü ü PJ iQ P a P- ü ü P
P Ω P1 tr ti Φ φ p: P3 Φ i o — li rt Φ p: a a PJ cn Φ P P φ rt to P tr et SS to a Φ P a rt 1 PJ P tr P rt Φ rt P- P Ü P Ω P-
N Φ P P Φ P- p- P Φ Hi X Φ CΛ P P a N cn P >x) Φ H Ω rt O tr P tr
Hl Hi m Φ rt P φ rt uP P p: φ P rt Hi £ Φ P Ω H P p- P p- N P a Φ P Φ a φ P- ti N P ü P- P rt o H PJ P* a o P cn rt Φ P- H cn
Φ tr a P Φ rt .. — g a to rt ι P tr Φ P Φ rt a Ω a α PJ cn o li -1 Φ cn p: li N tu φ P tr Φ Φ a P P- ! rt Ü O Φ na P* a Φ Φ P ι P
3 TJ tr Φ X Φ ü P φ H P P PJ P- P N f Hi Ü Φ Φ H PJ Φ P Φ a cn ü Φ Hl ti Φ P cn cn Φ P i cn rt P cn 1 N O P- o P pt: P tr ü Φ
P Q Φ ü p: 1 P a Λ P* rt rt a Φ cn CΛ P P rt P to et Φ ιΩ PJ i P Ω tr CΛ a cn J P P- N CΛ P-1 Φ Φ P1 P- O P t H Φ cn 3 P- ω
P ü rt tr a li csi P Φ li a o rt cn TJ Φ CΛ P P cn cn φ f a P P P Φ O: tr ιQ P o Φ P- rt φ P rt P et p H φ H Hl o a a rt Ω H o P φ li ιΩ rt <l φ ι Ü P φ P ι Ω cn rt rt X PJ P o P) P Φ Φ tr rt P" vΩ rt P P= o
P Φ P ä P • tr 1 Φ Φ Φ tr Ω P Pt P Φ P p- P- PJ cn O P rt P- n ü et a φ ^ P- Ü a Φ P- ü cn tr Φ 1 ιΩ P- Φ Ω P o Φ O rt φ Ω P- rt o θ: P- P- li rt P- Φ P- tr TJ a rt φ P ^ P li tr P N to p- rt N P 0J Ω Φ ti Hi o P Φ o ti P N li tr Φ P- o P tr P et a P φ ü tr Φ W tr P- cn Hl φ P- ω ιQ X O P P N P φ ü P Φ a φ t-i 1 P Φ rt P P cn cn φ cn <! P • Hi Hi P ι P- 3 a P- Φ ti cn < J H3 a P- P- tr
Φ Φ P TJ p- Pf o tr Φ rt Pf ü P υa P rt P rt α φ Φ P- P rt P P
P P cn CΛ -i P P- ti Φ « cn Φ P tr P rt N φ tr P P li Φ Ω P= Hi
Φ • Φ Φ φ N ιΩ Φ ti cn P « Φ Φ •• p P Q N P rt tr P- tr εo Ω P rt li P Ω a N Φ P- P P- ! P o Φ P p φ X a Φ H cn P rt tr P φ Φ
P TJ to a tr P- cn P Hi o P • a P- p: P ü P P Φ X o • P a cn
P φ φ Φ Φ > φ Ω p- rt P cn P cn P P- P p: H p: P- φ P-1 P et P) ιΩ ü P- P- P ü tr φ Hi φ Hi P tr P- &o M a rt σ a tr rt ü o > cn !Λ P p ^J
P P rt et PJ P- P p: P Φ Ω Φ TJ Φ P- P- Φ P rt ιΩ P Φ H TJ
CΛ P li O • • P rt tr P" tr p- P- tr ü Hi CΛ Φ cn H P Φ P- Ω Hi Ω rt PJ p: TJ & 0* P- vΩ ü φ Ü f rt cn P rt cn P P- rt ιΩ H Φ tr p: PJ φ
Ü ti f p Ω <! Φ P N P P » P rt P Φ P- cn φ H PJ φ Φ P a P P φ P* O P Φ P rt P ιΩ P P rt l-i P Φ « <J Hi P P- φ
Φ Ω P P rt a Φ cn P ι P- X Ω Φ Φ a Φ rt ιΩ ü O o p: a P P tr Hi cn P P ιQ X O O tr P- f H Φ a ι-s ü P- φ Φ rt
N Φ rt P to S tr φ φ P tr P P tr a ü P P p tr Φ P- cn P-
. P- φ ιΩ P= tr1 P- Φ P ti Φ Λ Hi H Φ P- Φ P P P Φ S cn Φ tti P P P- H O: f ti a iQ a P- o P N Hi Φ P P N ιΩ P H o CΛ rt
• £ ιQ P P cn o cn Ü Φ P P- P- tr Ω Φ Φ P-1 Hi X Φ p- Φ tr TJ P o P
P Φ Φ P o p- P tr rt - P p- H tr t P- P- P Pf P- P- l-J P tr P a tr a P P- P P Hi Ω ιΩ rt P- P t-> cn a cn • P rt P1 P ιΩ H- ιΩ
P- Φ φ P P ιΩ O P^ φ a φ li P ≥: 1 P p- Φ Ω rt Φ rt Ω H-
Φ li ιΩ Φ Ω P P cn Φ Ü P P H φ φ cn P' ö P- rt Φ tr cn rt a
Φ Φ cn tr cn 1 1 ^ P- P tr O a Ω et cn φ P O cn p- Φ Φ
•n P- s: Φ « Ω Φ cn tr TJ O Φ Φ P P Φ rt Ω P1 ω - P P p: S to p- o a ιQ P' N P- rt TJ ü Hi O P P P: cn a Hl Φ J Φ
PJ • li P o P TJ P- ιΩ P Φ Ü P- P et to tr tr O P Hi ω
P P cn tr P P Hi rt Hi 1 P P1 Φ Ω P tr to P" Φ P P P φ . — ^ o TJ cn „— <Q Ω P- CQ P tr • cn P Φ P- tr ιΩ 1 P P P H P P φ ii l_J- P ü
Φ α Φ tr P1 Φ Ω O: a P- rt Ω Hi cn et cn o cn cn Φ tr cn P Φ cn P
0 Φ et rt • tr Ü Φ P P Φ P^ O X Φ Φ tr cn P- rt P- rt a P- P a Ω li ιΩ Φ Φ Hi Φ ü tr cn P P φ P P- p- φ cn O P φ P- cn ιΩ Φ tr
5 P- P P" H o ti Φ tr Φ a Φ ii * P TJ P O P p- φ rt P a ω si tr φ a PJ 1 > li φ ü Φ rf- p- cn • cn rt P P cn <i Hl Φ rt
P o rt CΛ Hi ιΩ P cn P Ü < p- Φ P- tr cn Φ φ a O P cn Φ ii ti Φ o Φ cn P O a o P P P- Ω 1 Φ P PJ cn P
P rt Φ P P P P 1 P P Φ H P cn 1 P tr P φ H P" φ Φ ι 1 ti 1 ω et a Ω 1 P 1 cn 1 Hi P H cn P H
Φ O 0" l a 1 1
öffnen , „Garage schließen', „Licht einschalten*, „Licht ausschalten* umfassen und bei Annäherung des als Spracheingabeeinheit dienenden Mobiltelefons im Auto des Nutzers an die Garage in das Spracherkennungssystem im Mobiltelefon über- spielt werden.) Nachdem der Nutzer das Auto abgestellt und durch Einsprechen des entsprechenden Steuerbefehls die Garage geschlossen hat, geht er zur Haustür und gelangt dabei in den Empfangsbereich des Gerätes Haustüröffner. Hier spricht er den in dessen Gerätewortschatz enthaltenen und während der Annäherung in das Spracherkennungssystem im Mobiltelefon übernommenen Steuerbefehl „Tür öffnen* aus und kann in das Haus gelangen. Nach Betreten des Hauses kann der Nutzer über eine zentrale oder für jeden Räume separat realisierte Beleuchtungssteuereinheit überall gezielt Licht einschalten und (mit dem Steuerbefehl „heller*) die Lichtstärke ändern, nachdem er in den Empfangsbereich dieser Steuereinheit bzw. Steuereinheiten gelangt ist. Vom Sessel aus kann er anschließend bequem ein gewünschtes Fernsehprogramm durch Spracheingabe des Programmnamens auswählen, da der Sessel im Bluetooth- Empfangsbereich des Fernsehers liegt und beim Hinsetzen der Steuerbefehl-Wortschatz des Fernsehers in das Mobiltelefon übernommen wurde .
Die Ausführung der Erfindung ist nicht auf die oben beschrie- benen Beispiele und Anwendungsfälle beschränkt, sondern ebenso in einer Vielzahl von Abwandlungen möglich, die im Rahmen fachgemäßen Handelns liegen.

Claims

Patentansprüche
1. Sprachgesteuerte Anordnung (1) mit einer Mehrzahl von Geräten (3 bis 9) und einer mobilen, mit den Geräten über eine, insbesondere drahtlose, Nachrichtenverbindung verbundenen Spracheingabeeinheit (11), d a d u r c h g e k e n n z e i c h n e t, daß mindestens ein Teil der Geräte jeweils einen Geräte- Wortschatzspeicher (3a bis 9a) zur Speicherung eines geräte- spezifischen Wortschatzes und eine Wortschatz-Sendeeinheit (3b bis 9b) zur Übertragung des gespeicherten Wortschatzes an die Spracheingabeeinheit aufweist und die Spracheingabeeinheit eine Wortschatz-Empfangseinheit (lle) zum Empfangen des von dem Gerät übertragenen Wortschatzes bzw. der von den Geräten übertragenen Wortschätze, Mittel zur Spracheingabe (11a) sowie eine mit den Mitteln zur Spracheingabe und mindestens mittelbar mit der Wortschatz-Empfangseinheit verbundene Spracher- kennungsstufe (11c) aufweist.
2. Sprachgesteuerte Anordnung nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, daß die Spracheingabeeinheit (11) mindestens einen zwischen die
Wortschatz-Empfangseinheit (lle) und die Spracherkennungsstu- fe (11c) geschalteten Wortschatz-Zwischenspeicher (lld) aufweist.
3. Sprachgesteuerte Anordnung nach Anspruch 1 oder 2, d a d u r c h g e k e n n z e i c h n e t, daß mindestens ein Teil der Geräte (3 bis 9) als stationäres Gerät ausgebildet ist.
4. Sprachgesteuerte Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß die Wortschatz-Sendeeinheit bzw. Wortschatz-Sendeeinheiten (3b bis 9b) und die Wortschatz-Empfangseinheit (lle) als Funksende- bzw. -empfangseinheit, insbesondere nach dem Blue- tooth-Standard, ausgebildet sind.
5. Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß in den Geräte-Wortschatzspeichern (3a bis 9a) im wesentlichen Steuerbefehle für das jeweilige Gerät (3 bis 9) sowie Begleitvokabular zu diesen gespeichert sind.
6. Verfahren zur Spracheingabe und -erkennung, insbesondere in einer Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß gerätespezifische Wortschätze dezentral gespeichert werden und eine zentrale Spracheingabe und -erkennung vorgenommen wird, wobei mindestens ein dezentral gespeicherter Wortschatz vorab an den Ort der Spracherkennung übermittelt wird.
7. Verfahren nach Anspruch 6, d a d u r c h g e k e n n z e i c h n e t, daß gerätespezifische Wortschätze jeweils von einem Gerät (3 bis 9) an eine mobile Spracheingabeinheit (11) übertragen werden, sobald eine Nachrichtenverbindung zustande kommt und/oder an der Spracheingabeeinheit eines der Geräte als Ziel der Spracheingabe spezifiziert wird.
8. Verfahren nach Anspruch 6, d a d u r c h g e k e n n z e i c h n e t, daß ein gerätespezifischer Wortschatz dann übertragen wird, wenn ein Gerät (3 bis 9) in den Bereich der Reichweite einer Funkverbindung mit der Spracheingabeeinheit (11), insbesondere nach dem Bluetooth-Standard, kommt .
9. Verfahren nach einem der Ansprüche 6 bis 8, d a d u r c h g e k e n n z e i c h n e t, daß die Spracheingabe und -erkennung mindestens unter anderem zur Steuerung von Funktionen von Geräten (3 bis 9) angewandt wird und die Wortschätze der entsprechenden Geräte im wesentlichen Steuerbefehle und Begleitvokabular zu diesen umfassen.
PCT/DE2001/002374 2000-07-07 2001-06-27 Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung WO2002005264A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10033132.7 2000-07-07
DE10033132 2000-07-07

Publications (1)

Publication Number Publication Date
WO2002005264A1 true WO2002005264A1 (de) 2002-01-17

Family

ID=7648180

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/002374 WO2002005264A1 (de) 2000-07-07 2001-06-27 Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung

Country Status (1)

Country Link
WO (1) WO2002005264A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1555652A1 (de) * 2004-01-19 2005-07-20 Harman Becker Automotive Systems GmbH Betätigung eines Sprachdialogsystems
US7454351B2 (en) 2004-01-29 2008-11-18 Harman Becker Automotive Systems Gmbh Speech dialogue system for dialogue interruption and continuation control
US7552221B2 (en) 2003-10-15 2009-06-23 Harman Becker Automotive Systems Gmbh System for communicating with a server through a mobile communication device
US7761204B2 (en) 2004-01-29 2010-07-20 Harman Becker Automotive Systems Gmbh Multi-modal data input

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0661688A2 (de) * 1993-12-30 1995-07-05 International Business Machines Corporation System und Verfahren zur ortsabhängigen Spracherkennung
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
EP0865014A2 (de) * 1997-03-10 1998-09-16 Daimler-Benz Aktiengesellschaft Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
EP0911808A1 (de) * 1997-10-23 1999-04-28 Sony International (Europe) GmbH Sprachschnittstelle für ein Hausnetzwerk
WO1999021165A1 (en) * 1997-10-20 1999-04-29 Computer Motion Inc. General purpose distributed operating room control system
WO2000005708A1 (en) * 1998-07-24 2000-02-03 Motorola Inc. Voice browser for interactive services and methods thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0661688A2 (de) * 1993-12-30 1995-07-05 International Business Machines Corporation System und Verfahren zur ortsabhängigen Spracherkennung
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
EP0865014A2 (de) * 1997-03-10 1998-09-16 Daimler-Benz Aktiengesellschaft Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb
WO1999021165A1 (en) * 1997-10-20 1999-04-29 Computer Motion Inc. General purpose distributed operating room control system
EP0911808A1 (de) * 1997-10-23 1999-04-28 Sony International (Europe) GmbH Sprachschnittstelle für ein Hausnetzwerk
WO2000005708A1 (en) * 1998-07-24 2000-02-03 Motorola Inc. Voice browser for interactive services and methods thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7552221B2 (en) 2003-10-15 2009-06-23 Harman Becker Automotive Systems Gmbh System for communicating with a server through a mobile communication device
US7555533B2 (en) 2003-10-15 2009-06-30 Harman Becker Automotive Systems Gmbh System for communicating information from a server via a mobile communication device
EP1555652A1 (de) * 2004-01-19 2005-07-20 Harman Becker Automotive Systems GmbH Betätigung eines Sprachdialogsystems
US7457755B2 (en) 2004-01-19 2008-11-25 Harman Becker Automotive Systems, Gmbh Key activation system for controlling activation of a speech dialog system and operation of electronic devices in a vehicle
US7454351B2 (en) 2004-01-29 2008-11-18 Harman Becker Automotive Systems Gmbh Speech dialogue system for dialogue interruption and continuation control
US7761204B2 (en) 2004-01-29 2010-07-20 Harman Becker Automotive Systems Gmbh Multi-modal data input

Similar Documents

Publication Publication Date Title
EP1314013B1 (de) Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung
EP1282842B1 (de) Verfahren zur steuerung von geräten im kommunikationsnetz eines kraftfahrzeuges
DE4242231C2 (de) Fernsteuereinrichtung
DE102014011802A1 (de) Sichere Aktivierung einer teilautonomen Funktion eines Kraftfahrzeugs über ein tragbares Kommunikationsgerät
WO2007059823A1 (de) Zuordnung von stationsadressen zu kommunikationsteilnehmern in einem bussystem
DE112010003633B4 (de) Fernbedienungssystem und mobile Vorrichtung
WO2006069762A1 (de) Verfahren zur konfiguration von feldgeräten
WO2002005264A1 (de) Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung
EP0970422A1 (de) Einfahren zur erkennung durch einen sternsensor aufgefundener sternen ineinem vorerzeugten verzeichnis
DE102005041355A1 (de) Hörvorrichtung mit Transpondereinrichtung und entsprechendes Datenübertragungsverfahren
WO2020221602A1 (de) Verfahren zur personalisierung eines kraftfahrzeugs
DE10336572B4 (de) Busankopplung ohne Steckverbindungen für Automatisierungsgeräte
EP3568838B1 (de) Funkfernbedienungssystem für automatische gebäudeabschlüsse und deren aktoren, automatisches gebäudeabschlusssystem und betriebsverfahren
DE19537087C2 (de) Verfahren und Anordnung zur ferngesteuerten Initialisierung eines Telefons
DE19645626B4 (de) Busgerät für den Anschluss an ein Bussystem der Gebäudesystemtechnik
DE10034774A1 (de) Fernsteuereinrichtung für Antriebe von Schließvorrichtungen für Gebäudeöffnungen
EP1353490B1 (de) Wohnungsstation für eine Tür-Kommunikationsanlage
WO2005125170A1 (de) Vorrichtung und verfahren zum schalten des stromflusses von steckdosen unter verwendung eines funksignals
DE102018203067B4 (de) Verfahren und Fertigungsanlage zum Fertigen eines Kraftfahrzeugs
WO1999059311A1 (de) Menügesteuerte bedienung eines endgerätes
WO2001080199A1 (de) Verfahren zur fernbedienung von geräten
DE102006050845A1 (de) Hausanlage
EP3735688A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum verarbeiten einer spracheingabe, kraftfahrzeug und nutzerendgerät mit einer sprachverarbeitung
DE102022110630B3 (de) Verfahren und System zum Steuern eines Garagentors
DE10360547B3 (de) Gegensteckermodul zur Kopplung eines Kabels mit dem einer Komponente eines Fernwirk- oder Automatisierungssystems zugeordneten Anschlussstecker

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase