WO2002005264A1 - Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung - Google Patents
Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung Download PDFInfo
- Publication number
- WO2002005264A1 WO2002005264A1 PCT/DE2001/002374 DE0102374W WO0205264A1 WO 2002005264 A1 WO2002005264 A1 WO 2002005264A1 DE 0102374 W DE0102374 W DE 0102374W WO 0205264 A1 WO0205264 A1 WO 0205264A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vocabulary
- voice input
- voice
- devices
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 10
- 230000015654 memory Effects 0.000 claims abstract description 5
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 4
- 230000003203 everyday effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- XZKIHKMTEMTJQX-UHFFFAOYSA-N 4-Nitrophenyl Phosphate Chemical compound OP(O)(=O)OC1=CC=C([N+]([O-])=O)C=C1 XZKIHKMTEMTJQX-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- AYEKOFBPNLCAJY-UHFFFAOYSA-O thiamine pyrophosphate Chemical compound CC1=C(CCOP(O)(=O)OP(O)(O)=O)SC=[N+]1CC1=CN=C(C)N=C1N AYEKOFBPNLCAJY-UHFFFAOYSA-O 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Definitions
- the invention relates to a voice-controlled arrangement with a plurality of devices according to the preamble of claim 1 and a method for voice input and recognition that can be used in such an arrangement.
- Devices of this type are already known (for example some types of mobile telephones) in which simple speech recognition for control functions is implemented on the device itself.
- simple speech recognition for control functions is implemented on the device itself.
- primitive to simple voice controls are also known for other devices in everyday life, for example for remote controls for audio systems or lighting systems. All known devices of this type each have their own, dedicated speech recognition system.
- Arrangements have therefore already been proposed in which a single voice input unit is assigned to several technical devices, by means of which various functions of these devices are controlled by voice control.
- the control information is preferably transmitted wirelessly to (stationary or even mobile) terminals.
- the technical problem arises that the speech input unit has to keep a very large vocabulary for speech recognition in order to be able to control different terminal devices.
- handling a large vocabulary is associated with losses in the speed and accuracy of recognition.
- such an arrangement has the disadvantage that subsequent additions to additional devices, which were not foreseen when the voice input unit was implemented, are not readily possible.
- the invention is therefore based on the object of specifying an improved arrangement of this type which is distinguished, in particular, by high recognition speed and accuracy at low costs and by modular expandability. Furthermore, a voice input and recognition method suitable for such an arrangement is to be specified.
- the invention includes the basic idea that in the individual devices of the arrangement a device-specific u> ⁇ w IV ) P 1 P 1 no cn o cn o C ⁇
- the vocabulary size is optimized in that only the vocabulary is loaded into the speech recognition system that belongs to a device that is actually to be controlled by the speech input unit due to the spatial constellation.
- the voice input unit is also relatively inexpensive, because the restriction to a local context for the vocabulary results in a strong reduction in the need for storage capacity and computing power in the voice input unit.
- an input unit can control any number of devices, which means that the above-described, uneconomical development of equipping all possible everyday devices with separate voice controls can be prevented.
- the voice input unit is programmed or trained on a person-specific basis, while this does not apply to the devices to be controlled.
- training or adaptation can take place on the speech input unit or corresponding acoustic models can be stored there, the end devices remaining completely unaffected by this and able to communicate with various “personalized” * speech input units.
- the triggering of the vocabulary transmission by specific addressing of the corresponding device on the voice input unit is also required for certain applications (via voice or button control) makes sense.
- FIG. 1 This shows in a sketch-like functional block diagram a device configuration 1 consisting of several voice-controlled devices, namely a television set 3, an audio system 5, a lighting control unit 7 and a kitchen stove 9 with a mobile voice control terminal 11.
- the devices 3 to 9 to be controlled each have one Device vocabulary memory 3a to 9a, a vocabulary transmission unit 3b to 9b operating according to the Bluetooth standard, a control command
- P- ⁇ ⁇ P tr 1 P- ⁇ P ti ⁇ ⁇ Hi H ⁇ P- ⁇ PPP ⁇ S cn ⁇ tti PP P- HO: f ti a iQ a P- o PN Hi ⁇ PPN ⁇ PH o C ⁇ rt
- the user can selectively switch on the light anywhere via a central lighting control unit or a lighting control unit that is implemented separately for each room and (with the “brighter * control command) change the light intensity after having reached the reception area of this control unit or control units.
- a central lighting control unit or a lighting control unit that is implemented separately for each room and (with the “brighter * control command) change the light intensity after having reached the reception area of this control unit or control units.
- the armchair he can then conveniently select a desired television program by entering the program name by voice, since the armchair is located in the Bluetooth reception area of the television and the control command vocabulary of the television was transferred to the mobile phone when the operator sat down.
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Selective Calling Equipment (AREA)
- Telephone Function (AREA)
Abstract
Sprachgesteuerte Anordnung mit einer Mehrzahl von Geräten und einer mobilen Spracheingabeeinheit, wobei mindestens ein Teil der Geräte jeweils einen Geräte-Wortschatzspeicher zur Speicherung eines gerätespezifischen Wortschatzes und eine Wortschatz-Sendeeinheit aufweist und die Spracheingabeeinheit eine Wortschatz-Empfangseinheit, Mittel zur Spracheingabe sowie eine mit den Mitteln zur Spracheingabe und mindestens mittelbar mit der Wortschatz-Empfangseinheit verbundene Spracherkennungsstufe aufweist.
Description
Beschreibung
Sprachgesteuerte Anordnung und Verfahren zur Spracheingabe und -er ennung
Die Erfindung betrifft eine sprachgesteuerte Anordnung mit einer Mehrzahl von Geräten nach dem Oberbegriff des Anspruchs 1 sowie ein in einer solchen Anordnung anwendbares Verfahren zur Spracheingabe und -erkennung.
Nachdem Spracherkennungssysteme sich mehr und mehr zu einer Standardkomponente leistungsfähiger Computer für den professionellen und privaten Bedarf, bis hin zu PCs und Notebooks im mittleren und unteren Preissegment, entwickelt haben, wird zunehmend an Einsatzmöglichkeiten solcher Systeme bei Geräten aus dem täglichen Lebensumfeld gearbeitet. Elektronische Geräte wie Mobiltelefone, Schnurlostelefone, PDAs und Fernbedienungen für Audio- und Videosysteme etc. verfügen üblicherweise über eine Eingabetastatur, die mindestens ein Ziffern- Eingabefeld und eine Reihe von Funktionstasten umfaßt.
Manche dieser Geräte - insbesondere natürlich die verschiedenen Telefone, aber auch zunehmend Fernbedienungen und weitere Geräte - sind zudem mit Sprech- und ggf. auch Hörkapseln zur Spracheingabe und -ausgäbe ausgestattet. Es sind auch bereits Geräte dieser Art (beispielsweise einige Typen von Mobiltelefonen) bekannt, bei denen eine einfache Spracherkennung für Steuerungsfunktionen auf dem Gerät selbst implementiert ist. Weiterhin sind primitive bis einfache Sprachsteuerungen auch für andere Geräte des täglichen Lebensumfeldes bekannt, beispielsweise bei Fernsteuerungen für Audioanlagen oder Beleuchtungssysteme. Alle bekannten derartigen Geräte haben jeweils ein eigenes, dediziertes Spracherkennungssystem.
Es ist eine Entwicklung absehbar, in deren Verlauf eine zunehmende Anzahl von technischen Geräten und Systemen des täglichen Lebensumfeldes, insbesondere im Haushalt und in Kraft-
fahrzeugen, mit jeweils eigenen Spracherkennungssyste en ausgerüstet sein wird. Da derartige Systeme, sofern sie einen akzeptablen Bedienkomfort und hinreichende Erkennungssicherheit bieten sollen, hard- und softwaremäßig relativ aufwendig und somit teuer sind, ist diese Entwicklung im Grunde kostentreibend und aus Sicht des Verbrauchers nur bedingt sinnvoll.
Es wurden daher bereits Anordnungen vorgeschlagen, bei denen mehreren technischen Geräten eine einzelne Spracheingabeein- heit zugeordnet ist, über die verschiedene Funktionen dieser Geräte per Sprachsteuerung gesteuert werden. Die Steuerungsinformation wird hierbei vorzugsweise drahtlos an (stationäre oder selbst mobile) Endgeräte übertragen. Hier taucht jedoch das technische Problem auf, daß die Spracheingabeeinheit ei- nen sehr großen Wortschatz für die Spracherkennung vorhalten muß, um verschiedene Endgeräte steuern zu können. Die Handhabung eines großen Wortschatzes ist jedoch mit Einbußen in der Erkennungsgeschwindigkeit und -genauigkeit verbunden. Zudem hat eine derartige Anordnung den Nachteil, daß spätere, nicht bei der Realisierung der Spracheingabeeinheit vorhergesehene Ergänzungen um zusätzliche Geräte nicht ohne weiteres möglich sind.
Der Erfindung liegt daher die Aufgabe zugrunde, eine verbes- serte Anordnung dieser Art anzugeben, die sich insbesondere durch hohe Erkennungsgeschwindigkeit und -genauigkeit bei niedrigen Kosten und durch modulare Erweiterbarkeit auszeichnet. Weiterhin soll ein für eine derartige Anordnung geeignetes Spracheingabe- und -erkennungsverfahren angegeben werden.
Diese Aufgabe wird hinsichtlich ihres Vorrichtungsaspektes durch eine Anordnung mit den Merkmalen des Anspruchs 1 und hinsichtlich ihres Verfahrensaspektes durch ein Verfahren mit den Merkmalen des Anspruchs 6 gelöst.
Die Erfindung schließt den grundlegenden Gedanken ein, in den einzelnen Geräten der Anordnung jeweils einen gerätespezifi-
u> ω w IV) P1 P1 n o cn o cn o Cπ
i-i a p- P1 ö cn cn r CΛ ι-3 Hi Λ cn p- l-J t i cn a ιQ ^ a P H PJ < φ φ a P P" CΛ cn φ Φ P P- P- O •< •Ö H Φ O Φ rt O: P P- rt S P O p: P P Φ O P- i-i Φ φ Φ Φ TJ Ω
P H Ω Φ 1 cn P- H PJ P' H P H l-J P P Φ P £P Hi P- P vQ Hi P a P P- l-J PJ p- PJ P rt rt PJ P P1 P Φ Φ iQ φ a •^ ιQ φ rt Φ 0 φ rt rt P Φ
• M i-r Φ CΛ rt Φ n cn cn Ω Ω P cn a φ P- Sl P P1 P- P Φ Ω P
P H P TJ N ä P P' W s: 1 P Pf a α N tr P •Ö Hi Φ P- P P o rt ιq a P . . t s rt t-J 1 J Φ l-i o Φ N Φ Φ Φ s: Φ ι-J p: a P φ P l-J rt φ P Φ Sl p- Hi CΛ « P INI ιQ O H P- H P- P P l-J φ P cn o H Φ l-J a rt P- P- Φ Φ t-J o r Φ TJ o o ≤, Φ tr Λ* Ό rt P ιQ Ω P rt to l-J cn Ω P Φ P P- tr f l-i
H H P tr P- P" Φ rt Φ ιQ Φ P cn Λ w rt CΛ O a tr a Ω PJ l-J Φ P Φ Φ rt a P 0) cn Φ cn P φ P P- P & cn Φ Ό a N rt Λ' P- P a Φ P* φ cn p: 3 φ P P cn p- P o rt p- O a P- P o O tr O: l-J l-J p: rt P O Φ Φ H <! PJ p: P O rt P Ω φ 3 tr Φ P P- Φ P P P Φ H, Q p: P &a P H rt P 0 t-i rt Ώ CΛ a P P*
W ιQ Φ ιQ Φ P φ P Φ Φ P- Φ rt Ω μ. s: α ^ O PJ H φ N CΛ Φ cn Φ J Φ P P φ l-J H P P ** l-J iQ P l-J P- ιQ ι-J Φ P* ιq Φ P Φ P O rt N K Φ TJ P- Φ H l-J P IQ rt
H N Pf P tr cn . P P Φ : φ Φ H l-i P rt P" P Φ P t-J P P1 p: P N
P Φ rt Φ TJ P ιQ Q. 1 P' P rt P- P- P, α P W P* O ιQ P P Φ tr rr Ω CΛ <* ^.
^ P P- Φ Φ P Φ ö j Φ P P Φ cn P W 1 cn rt ISI Ω cn P TJ o p Φ P O P- P- a Φ φ φ PJ P- Sl P. iQ P P α O CΛ Φ Φ H ^ PJ ι-J rt iQ φ H l-i ι_ι.
P P- P P P O P- H < l-J rt 0 p- a P cn • Hi a rt P P P P- φ p: Φ l-i P N Φ
Pf P P tr P N ιQ rt J l-i Φ H- tr Hl p: tö a P a cn t-i P ιQ 51 f Ω P a rr Φ iQ S! Φ φ s: P Sl cn P= rt Φ φ p: l-J P P C ιQ Ω Λ' 3 Φ P- φ P' cn o
P- a ω O P- l-J P Φ O • Φ tr cn < φ p- cn P a tr P φ PJ φ cn 1 P Φ φ Ω o CQ l-J rt l-J rt l-J P φ Ω o ?α P- H α Ω p- P Φ cn l-J φ P P- TJ P P- PJ P"
P Q • rt a Φ rt N H PJ P Φ P P P- PJ f -i l-J Hi P-- P P O Φ φ P P Φ cn Φ cn cn " Φ < P cn P P- rt P P- PJ P φ l-J P a rt p: rt P P- rt P iQ P f s; n rt O P cn o O CQ P l-J rt P- Ω φ iQ Φ rt l-J PJ Φ a P φ Ω φ iQ P φ
Φ p: Φ tr P cn ü SJ P" P>: p: N p' 0- P- Ö: P- P- P l-J P Φ iQ PJ P cn tr P- p- rt a (D: P Φ rt P> PJ rt o ιQ P s: rt Hi tj tr o cn ^ P • l-J cn ι-3 φ cn Φ s: P
Ul - — rt (-> Φ P rr N H r Hl Φ P Φ P P rt P P t H t-i CΛ > a p: φ CΛ) φ l-J N a tr P- a N rt • p P P- P P H P P P iQ , — . P Φ rt J cn P- P" s: P Φ P Φ P- PJ H f rt P Pf rt ιQ cn rt LQ a *Ö P Φ H rt rt t-i <
P- P- a a P PJ P s: Ω o ö N Φ a rt ι-J cn o rt cn Hi o P P P P Φ rt Φ φ n Φ Φ Φ P- • P P P- PJ ιQ Φ φ P- P cn P1 • cn P- tr N P Ω a Φ P t-i rt a p P- rt Hl ιQ l-J φ l-i H P- •Ö P- φ O vQ rt M rt P P- P- P Sl p- cn a P
Φ P rt P φ rt p- P- P P P rt to i-f a rt iQ o φ P l-i
Φ o N P- Φ P- H H) s; P- H P P- P P Φ P Φ Φ Φ p: ü H p- — - P- tr a Φ P H P J P P- o Λ φ Φ φ φ ιq α P cn Ω rt P rt a rt f a P Φ
P <i Φ s: P Hi cn l-J O li H cn l-i P P- f • — Φ cn φ TJ a P- φ Φ l-J 0 Φ Φ o Ω rt l-J rt rt & l-J PJ φ Φ a P ι-J Ω P H P- a rt
H Φ P- P- P> α H PJ cn P Φ ^1 α Φ α O: H P- CΛ P P" P Φ φ Φ P w X l-J P cn cn Φ a φ Ω Ω P P φ n ι-J cn PJ φ Φ Ό a Sl P P 3 l-J P φ φ N φ Φ H P> H PJ PJ P H O Φ P tr cn l-J o rt P Φ < iQ
P- li * N t-J CΛ rt P Φ o fV Sl l-J a Φ Φ P Φ l-J N iQ P φ CΛ cn
PJ Hi tu P P- O CΛ P- o rt l-J rt P: N o s: P- Ω P- rt cn rt t-j TJ a
Φ Φ « ^Q ιQ P I-J Ό o N W φ tr P α l-i p- Φ P cn ^ PJ P cn N p- P l-J P-
P Φ Φ J K P Φ Φ P Φ l-J P rt φ H P V O φ Φ Ω P o φ l-J P rt
< tr tr ιQ φ n PJ Φ l-J Φ P Φ öo cn rt Hi P- a t-J PJ iQ H li tr Ω rt o er Φ O: Φ P- PJ o P P P l-J rt Ω N P- φ a « p: Φ ιq rt Φ PJ Φ
P N P- l-J tr P Φ tf •Ö rt P tr l-J $ P P' . iQ Φ P φ o rt ιQ P P- Φ s: P- Φ φ H φ Hi P* PJ P Φ P o P p: tr) Φ P- cn P P g N t-i P cn rt P-
<! N uQ P P w P- P: o p: iQ Hl iQ l-i Ω r • P s: P- P π Φ P- ιQ P- P P Hl o P Φ Φ Φ P l-J P Φ P α p- N C Φ Φ ?T P P Hi P P iQ P ι-S 5 P H P SJ P iQ Φ rt P PJ P P Φ si tr a P- P P P <i Hi s: a ^3 P H rt Φ O P P_ rt P iQ P > Φ cn rt iQ p- o Φ P- cn tr
Φ Φ tj1 Q l-J P tr P- P- t Φ cn P & P- <J} l-J <v Φ P- cn f P P ι-J f Φ a
P- l-J § Φ p: rt P Φ Φ cn Φ 1 ιQ P rt H O Φ P • p a i*l 0 Φ P-
P1 Φ l-J 1 iQ Φ Ω 1 P- P p: o H o ^Q P P- rt a P= a P- φ
Φ P- 0 j: 3 cn P- PJ φ P ιQ p- CΛ a P rt Φ P P- M P H TJ P
P Φ 1 rt 1 1 P Φ Φ φ Φ 1 o 1 1 o t-j cn P 0 1 1 Φ 1 l-J 1 1 i l-J 1 P Hl 1
verbunden :
- Die Wortschatzgröße wird insofern optimiert, als nur derjenige Wortschatz in das Spracherkennungssystem geladen wird, der zu einem aufgrund der räumlichen Konstellation tatsächlich durch die Spracheingabeeinheit zu steuernden Gerät gehört.
- Das System ist leicht zu erweitern, denn der Wortschatz hinzukommender Geräte muß nicht a priori bekannt sein.
- Die Endgeräte selbst sind preiswert, denn in ihnen sind keine Hardware- und Software-Ressourcen für die Spracherkennung bereitzustellen.
- Auch die Spracheingabeeinheit ist relativ preiswert, denn die Beschränkung auf einen lokalen Kontext bei den Wortschätzen erbringt eine starke Reduzierung des Bedarfes an Speicherkapazität und Rechenleistung in der Spracheingabeeinheit.
- Eine Eingabeeinheit kann im Prinzip beliebig viele Geräte steuern, wodurch die oben skizzierte, unwirtschaftliche Entwicklung der Ausrüstung aller möglicher Geräte des täglichen Bedarfes mit separaten Sprachsteuerungen unterbunden werden kann.
- In einer ggf. zweckmäßigen Ausführung ist die Spracheingabeeinheit personenbezogen programmiert bzw. trainiert, während dies für die zu steuernden Geräte nicht gilt. Zur Opti- mierung der Spracherkennung können ein Training oder eine Adaption an der Spracheingabeeinheit stattfinden bzw. entsprechende akustische Modelle dort gespeichert werden, wobei die Endgeräte hiervon völlig unberührt bleiben und mit verschiedenen „personalisierten'* Spracheingabeeinheiten kommuni- zieren können.
- Aufgrund des erwähnten räumlichen Kontexts läßt sich in für
konkrete Anwendungsfälle geeigneter Weise vorherbestimmen, mit wie vielen und welchen Geräten eine Spracheingabeeinheit normalerweise bzw. unter Extrembedingungen in Verbindung steht. Dies ermöglicht eine sinnvolle Ausprägung von Lei- stungs- und Preisklassen, wobei die einfachsten Ausführungen mit vergleichsweise geringer Speicher- und Prozessorkapazität auskommen.
Der Einsatz der oben erwähnten Bluetooth-Technologie für die Nachrichtenverbindung der Geräte mit der Spracheingabeeinheit erscheint mit Blick auf die enormen Perspektiven dieser Technik als bevorzugte Variante; grundsätzlich sind aber auch Infrarot-Übertragungsstrecken zur Realisierung der Erfindung geeignet.
Neben der oben als vorteilhaft herausgestellten selbsttätigen Initiierung der Übertragung der gerätespezifischen Wortschätze in das Spracherkennungssystem bei Eintritt in den Emp- fangs-/Sendebereich der jeweiligen Übertragungsstrecke ist für bestimmte Anwendungen auch die Auslösung der Wortschatz- Übertragung durch ein gezieltes Ansprechen des entsprechenden Gerätes an der Spracheingabeeinheit (per Sprach- oder Tastensteuerung) sinnvoll.
Vorteile und Zweckmäßigkeiten der Erfindung ergeben sich im übrigen aus den Unteransprüchen sowie der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels anhand der Figur.
Diese zeigt in einem skizzenartigen Funktions-Blockschaltbild eine Gerätekonfiguration 1 aus mehreren sprachgesteuerten Geräten, nämlich einem Fernsehgerät 3, einer Audioanlage 5, einer Beleuchtungssteuereinheit 7 und einem Küchenherd 9 mit einem mobilen Sprachsteuerterminal 11. Die zu steuernden Ge- rate 3 bis 9 weisen jeweils einen Geräte-Wortschatzspeicher 3a bis 9a, eine nach dem Bluetooth-Standard arbeitende Wortschatz-Sendeeinheit 3b bis 9b, eine Steuerbefehl-
Q p: et a CΛ CΛ a l ≥; rt Ω P> ^ H a cn 1—1. f 1 t, V cn n Pf tr σ M N <i P1 P M
Φ tr φ φ rt TJ φ o o P tr P1 a H J≡l P- Ω Φ Φ tr φ Φ Ω φ P P- P- a Φ P1 P a φ li P Φ li cn li rt P Φ TJ Φ tr P cn P- tr H P cn Φ TJ P- ü P H, J p: ü a P P rt 1 rt P T Sl TJ Hi P φ a Φ Ω Φ p: P Hi cn tr ** • Hl rt rt P- a Φ Ω ι_ι. cn P- P o Hi P l rt P- iQ Φ P tr P rt rt (£5 <! P Ω P P
Φ ti P P ü 0* Φ Ω tr O to P H P P o ISI P- P- Ü rt . Φ Φ φ P tr P φ α P
P P Ü tr Φ X tr N P Φ P rt P ιQ h 1 P- Φ Q Ω ü P ti ιQ Φ a P- P iQ o vQ Ω Φ li Φ P X <Ω cn uq n rt t i ιQ rt to P- P- Φ tr P cn cn P Φ P cn cn
Φ cn tr Hi f p- rt • a ü φ Ω cn Φ cn s: Φ -^ Φ Ω rt ti P Sl a Ω φ cn P Φ Φ tr P φ Φ P" t i P- P- P- tr tr P- Ω P- P -> PJ Φ p: ü Φ P- P- TJ Φ a P-
P- P1 a tr P P- cn CΛ φ Hi P P Φ P tr cn a Φ rt P P- a P- P Φ
TJ P- Hl rt ü P1 P Ω P P W a Pf £ o P cn P P> P- P" P iQ. cn Φ φ P* p- CΛ tr PJ
P Φ Φ P φ Φ Ω H Φ cn tsi Φ Φ rt - Φ &= Ω H Φ P et φ cn a φ Ω TJ N P- Φ a P P P P- tr P P ti 1 p- P- N Φ H tr Φ ii P Φ P- tr H Φ PJ P-
P CΛ Hi iQ Ω Φ tr P tsl Ω rt 1 P p: P rt P- a ü 1 CΛ P rt Φ P P- φ rt
H- < et p: cn Q tr H Φ P- P ≤ tr CΛ cn rt P P P Sl TJ Φ ti Ω vq
P o a Φ li cn φ Φ tr rt a P- P1 Φ TJ φ rt P φ o to P cn l-J P P1 p- φ CΛ ω a P- P rt ü ti Φ ü TJ 2, cn Φ P> P Φ 1 O ιQ t-i ü Φ P O P P1 P> Φ φ TJ Ω
CΛ φ φ a P P-' P- P- PJ O Ω H φ a P- sl a cn rt P a Ω CΛ φ P1 ü P- ü rt l_l. ü P Hi rt Φ rt φ φ Ü tr Hi Φ Ω O P cn P cn P P tr Φ a f P P tr
Φ φ CΛ tr cn Φ Φ P cn tr a rt φ O tr Φ tr H rt rt Ω rt a P cn P P φ PJ Ω P-
P x rt Φ cn rt Hi P Φ cn P Φ H- Φ rt P- Φ cn tr N P- cn rt a P N P Φ tr cn
Φ Φ Φ Hi 1—1. P> • P^ P P P Ω cn ιQ P- P li cn cn P P Φ Φ ιQ Φ Φ a P P P- cn h P- P φ φ * P P ö1 r p- J rt p- Ω Ω Φ a rt li Φ P 1 iQ P rt rt 3 cn H Φ tr x Ω ≥! f y P- P Φ • ts Φ P1 PJ tr -i P- N - P- Φ P rt rt Φ Φ rt P- P- P- E≤ tr Φ Φ φ P Φ Ω
P h P1 P Φ φ 1 P tr P- ü P P- o ιQ P tp ιQ tr 1 P- * Ω Φ P- H N Ω P <i- L_l. CΛ tr P" M cn P» Φ P
Φ Φ CΛ P- tr a rt Φ P- rt P P
P P O a et tr rt φ N P- P Φ Φ iQ P-
P- φ a Φ a Φ a cn tr ti P
P P Hi Φ P Φ P Φ ü P a cn P tr P P φ Ω Φ H P rt "^ rt φ a
P ιQ li a CΛ Φ cn cn P li P- Φ TJ φ Φ P- a cn PJ rt a M CΛ Φ P Φ cr>
Φ £ tr a Φ P Φ TJ P Φ rt CO cn Φ P- iQ Φ rt φ P- 3 rt rt Hi φ ü Φ
P- PJ Φ P cn φ cn P- CΛ P1 rt tr P- Sl rt Φ Φ P- P P TJ Φ Φ P- a p- p Pf 1 Φ Q Hi cn N ιQ Φ P et P1 CΛ Ω o • P- a a P Hi P P- P P- P
3 ü M P- Φ Φ P- Φ cn φ a P- tr TJ tr li a P P ü P P Φ cn P» φ P φ iQ. o a P ü N P P s P P P P- ü Φ rt ^ Φ PJ rt pj: &o cn P ti rt P1 P P
Φ Ω TJ tr p: P p: a a Φ a Ui P i-i cn P: ü Φ p iQ tr « Ω a
Cn O Hi ω rt lΩ. ö 1 P1 rt Φ li Φ a Ω Ω t-J P- p- p P- P1 cn Φ P- S
Φ P P P- ü Cj o ü cn ü tr cn Φ ^o P^ o tr sl rt cn tr P1 Φ Hi Φ rt P> P- rt rt P et Φ Φ Φ f ^ Φ P tr cn P P P o rt P- ü P- Φ P- a P> W
N ü tQ P- P- ü P Φ cn P- Hl CΛ rt rt i-i vo Ω Φ cn P P* P Φ a H rt O cn P1 P H) et tr P- et P φ TJ L-I. P Φ tr N et tr 1 tr P- P- - Φ Ü Φ tr o
• P" Φ P> cn Φ H P cn Φ tr H Φ P P P- p: Φ cn Φ tö P Φ 1 H P Ω
H P- Hi TJ P P rt a l_l. P" P Ξ a Φ CQ tr Ω a cn P φ a P- CΛ s! Φ rt O
Φ P ü ιΩ. P φ cn φ Φ Ω Φ ü φ O PJ Φ O P- rt Φ o P- CΛ P li p- a φ P P i rt a P tr P- a rt < I tr P cn tö Ω 1 φ P H P TJ Φ rt
Φ Φ Ω P P • P Φ cn P- Φ P rt Φ rt p- Φ tr P a rt ü P- li o P- cn tr a ιQ N P li P rt P- Φ ü ü Ü N cn . P- Φ cn i Φ P O tr rt φ P α a P Φ ιQ a P- P rt 1 p: rt P Φ P a Φ Ω o Ω Φ
Φ CΛ P a Pf ti P- to a P φ l P- P iQ li ω Ω rt P- Φ P- tr tr tr P TJ • P Φ "3 φ Φ P o P P P Φ t φ P- rt P ti P P rt Pf CΛ Φ
P- H ii P ω Φ P N H H P a P ιQ P Φ rt O Φ P PJ rt cn P TJ H ω co P ü P rt Q s: P P rt CΛ rt P1 Φ IQ P s: P cn a P cn Φ N Ω TJ ü
Ω Ω p- to Φ Φ P- rt cn Φ Φ ω P P P" P Φ P cn Φ P- 1 tr cn Φ CO Ω P* Φ Φ a P H cn N p: ti P Ω P ι<3 Φ φ P P P- li rt P φ Ω a tr cn cn P P- Φ p: cn P rt a a P' t-1 si P cn P- ti a Hi Ω p: rt a p-
P- rt Φ P φ ti rt φ P N P- Φ P P1 o cn cn P a P- N tr rt N Pf tr a cn φ rt P Φ ii ιQ * P 1 rt li rt P Φ Φ s: a Φ P> 1 P1 P P-
Φ P 21 N P 1 CQ P- P N : rt n 1 1 a ti Φ cn P- Φ tr Hi P* TJ cn
Ü U3 Φ Φ Φ £) c tr 1 φ Φ p- 1 P Φ CO P cn Ω li ü li P- cn φ f rt (Ω 1 Φ U3 1 1 1 ü 1 P" a
co o N> l\) P1 P1
Cn o Cn o Cn O Cn cn a a a X M Φ ^ t-d Hi Hi a H Q ö rt z Hi tr rt CΛ P cn X X 3 M P tr CΛ rt M
Ω Φ Φ P p: P- P- P P- p: p: Φ P- Φ M Φ Φ p: Φ Φ sl Φ φ Φ P- P- O: P- P Φ TJ Φ P- tr 0 ti ü P" P P ü P tT ü H P O P- tr tr cn P o P- P ü ü PJ iQ P a P- ü ü P
P Ω P1 tr ti Φ φ p: P3 Φ i o — li rt Φ p: a a PJ cn Φ P P φ rt to P tr et SS to a Φ P a rt 1 PJ P tr P rt Φ rt P- P Ü P Ω P-
N Φ P P Φ P- p- P Φ Hi X Φ CΛ P P a N cn P >x) Φ H Ω rt O tr P tr
Hl Hi m Φ rt P φ rt uP P p: φ P rt Hi £ Φ P Ω H P p- P p- N P a Φ P Φ a φ P- ti N P ü P- P rt o H PJ P* a o P cn rt Φ P- H cn
Φ tr a P Φ rt .. — g a to rt ι P tr Φ P Φ rt a Ω a α PJ cn o li -1 Φ cn p: li N tu φ P tr Φ Φ a P P- ! rt Ü O Φ na P* a Φ Φ P ι P
3 TJ tr Φ X Φ ü P φ H P P PJ P- P N f Hi Ü Φ Φ H PJ Φ P Φ a cn ü Φ Hl ti Φ P cn cn Φ P i cn rt P cn 1 N O P- o P pt: P tr ü Φ
P Q Φ ü p: 1 P a Λ P* rt rt a Φ cn CΛ P P rt P to et Φ ιΩ PJ i P Ω tr CΛ a cn J P P- N CΛ P-1 Φ Φ P1 P- O P t H Φ cn 3 P- ω
P ü rt tr a li csi P Φ li a o rt cn TJ Φ CΛ P P cn cn φ f a P P P Φ O: tr ιQ P o Φ P- rt φ P rt P et p H φ H Hl o a a rt Ω H o P φ li ιΩ rt <l φ ι Ü P φ P ι Ω cn rt rt X PJ P o P) P Φ Φ tr rt P" vΩ rt P P= o
P Φ P ä P • tr 1 Φ Φ Φ tr Ω P Pt P Φ P p- P- PJ cn O P rt P- n ü et a φ ^ P- Ü a Φ P- ü cn tr Φ 1 ιΩ P- Φ Ω P o Φ O rt φ Ω P- rt o θ: P- P- li rt P- Φ P- tr TJ a rt φ P ^ P li tr P N to p- rt N P 0J Ω Φ ti Hi o P Φ o ti P N li tr Φ P- o P tr P et a P φ ü tr Φ W tr P- cn Hl φ P- ω ιQ X O P P N P φ ü P Φ a φ t-i 1 P Φ rt P P cn cn φ cn <! P • Hi Hi P ι P- 3 a P- Φ ti cn < J H3 a P- P- tr
Φ Φ P TJ p- Pf o tr Φ rt Pf ü P υa P rt P rt α φ Φ P- P rt P P
P P cn CΛ -i P P- ti Φ « cn Φ P tr P rt N φ tr P P li Φ Ω P= Hi
Φ • Φ Φ φ N ιΩ Φ ti cn P « Φ Φ •• p P Q N P rt tr P- tr εo Ω P rt li P Ω a N Φ P- P P- ! P o Φ P p φ X a Φ H cn P rt tr P φ Φ
P TJ to a tr P- cn P Hi o P • a P- p: P ü P P Φ X o • P a cn
P φ φ Φ Φ > φ Ω p- rt P cn P cn P P- P p: H p: P- φ P-1 P et P) ιΩ ü P- P- P ü tr φ Hi φ Hi P tr P- &o M a rt σ a tr rt ü o > cn !Λ P p ^J
P P rt et PJ P- P p: P Φ Ω Φ TJ Φ P- P- Φ P rt ιΩ P Φ H TJ
CΛ P li O • • P rt tr P" tr p- P- tr ü Hi CΛ Φ cn H P Φ P- Ω Hi Ω rt PJ p: TJ & 0* P- vΩ ü φ Ü f rt cn P rt cn P P- rt ιΩ H Φ tr p: PJ φ
Ü ti f p Ω <! Φ P N P P » P rt P Φ P- cn φ H PJ φ Φ P a P P φ P* O P Φ P rt P ιΩ P P rt l-i P Φ « <J Hi P P- φ
Φ Ω P P rt a Φ cn P ι P- X Ω Φ Φ a Φ rt ιΩ ü O o p: a P P tr Hi cn P P ιQ X O O tr P- f H Φ a ι-s ü P- φ Φ rt
N Φ rt P to S tr φ φ P tr P P tr a ü P P p tr Φ P- cn P-
. P- φ ιΩ P= tr1 P- Φ P ti Φ Λ Hi H Φ P- Φ P P P Φ S cn Φ tti P P P- H O: f ti a iQ a P- o P N Hi Φ P P N ιΩ P H o CΛ rt
• £ ιQ P P cn o cn Ü Φ P P- P- tr Ω Φ Φ P-1 Hi X Φ p- Φ tr TJ P o P
P Φ Φ P o p- P tr rt - P p- H tr t P- P- P Pf P- P- l-J P tr P a tr a P P- P P Hi Ω ιΩ rt P- P t-> cn a cn • P rt P1 P ιΩ H- ιΩ
P- Φ φ P P ιΩ O P^ φ a φ li P ≥: 1 P p- Φ Ω rt Φ rt Ω H-
Φ li ιΩ Φ Ω P P cn Φ Ü P P H φ φ cn P' ö P- rt Φ tr cn rt a
Φ Φ cn tr cn 1 1 ^ P- P tr O a Ω et cn φ P O cn p- Φ Φ
•n P- s: Φ « Ω Φ cn tr TJ O Φ Φ P P Φ rt Ω P1 ω - P P p: S to p- o a ιQ P' N P- rt TJ ü Hi O P P P: cn a Hl Φ J Φ
PJ • li P o P TJ P- ιΩ P Φ Ü P- P et to tr tr O P Hi ω
P P cn tr P P Hi rt Hi 1 P P1 Φ Ω P tr to P" Φ P P P φ . — ^ o TJ cn „— <Q Ω P- CQ P tr • cn P Φ P- tr ιΩ 1 P P P H P P φ ii l_J- P ü
Φ α Φ tr P1 Φ Ω O: a P- rt Ω Hi cn et cn o cn cn Φ tr cn P Φ cn P
0 Φ et rt • tr Ü Φ P P Φ P^ O X Φ Φ tr cn P- rt P- rt a P- P a Ω li ιΩ Φ Φ Hi Φ ü tr cn P P φ P P- p- φ cn O P φ P- cn ιΩ Φ tr
5 P- P P" H o ti Φ tr Φ a Φ ii * P TJ P O P p- φ rt P a ω si tr φ a PJ 1 > li φ ü Φ rf- p- cn • cn rt P P cn <i Hl Φ rt
P o rt CΛ Hi ιΩ P cn P Ü < p- Φ P- tr cn Φ φ a O P cn Φ ii ti Φ o Φ cn P O a o P P P- Ω 1 Φ P PJ cn P
P rt Φ P P P P 1 P P Φ H P cn 1 P tr P φ H P" φ Φ ι 1 ti 1 ω et a Ω 1 P 1 cn 1 Hi P H cn P H
Φ O 0" l a 1 1
öffnen , „Garage schließen', „Licht einschalten*, „Licht ausschalten* umfassen und bei Annäherung des als Spracheingabeeinheit dienenden Mobiltelefons im Auto des Nutzers an die Garage in das Spracherkennungssystem im Mobiltelefon über- spielt werden.) Nachdem der Nutzer das Auto abgestellt und durch Einsprechen des entsprechenden Steuerbefehls die Garage geschlossen hat, geht er zur Haustür und gelangt dabei in den Empfangsbereich des Gerätes Haustüröffner. Hier spricht er den in dessen Gerätewortschatz enthaltenen und während der Annäherung in das Spracherkennungssystem im Mobiltelefon übernommenen Steuerbefehl „Tür öffnen* aus und kann in das Haus gelangen. Nach Betreten des Hauses kann der Nutzer über eine zentrale oder für jeden Räume separat realisierte Beleuchtungssteuereinheit überall gezielt Licht einschalten und (mit dem Steuerbefehl „heller*) die Lichtstärke ändern, nachdem er in den Empfangsbereich dieser Steuereinheit bzw. Steuereinheiten gelangt ist. Vom Sessel aus kann er anschließend bequem ein gewünschtes Fernsehprogramm durch Spracheingabe des Programmnamens auswählen, da der Sessel im Bluetooth- Empfangsbereich des Fernsehers liegt und beim Hinsetzen der Steuerbefehl-Wortschatz des Fernsehers in das Mobiltelefon übernommen wurde .
Die Ausführung der Erfindung ist nicht auf die oben beschrie- benen Beispiele und Anwendungsfälle beschränkt, sondern ebenso in einer Vielzahl von Abwandlungen möglich, die im Rahmen fachgemäßen Handelns liegen.
Claims
1. Sprachgesteuerte Anordnung (1) mit einer Mehrzahl von Geräten (3 bis 9) und einer mobilen, mit den Geräten über eine, insbesondere drahtlose, Nachrichtenverbindung verbundenen Spracheingabeeinheit (11), d a d u r c h g e k e n n z e i c h n e t, daß mindestens ein Teil der Geräte jeweils einen Geräte- Wortschatzspeicher (3a bis 9a) zur Speicherung eines geräte- spezifischen Wortschatzes und eine Wortschatz-Sendeeinheit (3b bis 9b) zur Übertragung des gespeicherten Wortschatzes an die Spracheingabeeinheit aufweist und die Spracheingabeeinheit eine Wortschatz-Empfangseinheit (lle) zum Empfangen des von dem Gerät übertragenen Wortschatzes bzw. der von den Geräten übertragenen Wortschätze, Mittel zur Spracheingabe (11a) sowie eine mit den Mitteln zur Spracheingabe und mindestens mittelbar mit der Wortschatz-Empfangseinheit verbundene Spracher- kennungsstufe (11c) aufweist.
2. Sprachgesteuerte Anordnung nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t, daß die Spracheingabeeinheit (11) mindestens einen zwischen die
Wortschatz-Empfangseinheit (lle) und die Spracherkennungsstu- fe (11c) geschalteten Wortschatz-Zwischenspeicher (lld) aufweist.
3. Sprachgesteuerte Anordnung nach Anspruch 1 oder 2, d a d u r c h g e k e n n z e i c h n e t, daß mindestens ein Teil der Geräte (3 bis 9) als stationäres Gerät ausgebildet ist.
4. Sprachgesteuerte Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß die Wortschatz-Sendeeinheit bzw. Wortschatz-Sendeeinheiten (3b bis 9b) und die Wortschatz-Empfangseinheit (lle) als Funksende- bzw. -empfangseinheit, insbesondere nach dem Blue- tooth-Standard, ausgebildet sind.
5. Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß in den Geräte-Wortschatzspeichern (3a bis 9a) im wesentlichen Steuerbefehle für das jeweilige Gerät (3 bis 9) sowie Begleitvokabular zu diesen gespeichert sind.
6. Verfahren zur Spracheingabe und -erkennung, insbesondere in einer Anordnung nach einem der vorangehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t, daß gerätespezifische Wortschätze dezentral gespeichert werden und eine zentrale Spracheingabe und -erkennung vorgenommen wird, wobei mindestens ein dezentral gespeicherter Wortschatz vorab an den Ort der Spracherkennung übermittelt wird.
7. Verfahren nach Anspruch 6, d a d u r c h g e k e n n z e i c h n e t, daß gerätespezifische Wortschätze jeweils von einem Gerät (3 bis 9) an eine mobile Spracheingabeinheit (11) übertragen werden, sobald eine Nachrichtenverbindung zustande kommt und/oder an der Spracheingabeeinheit eines der Geräte als Ziel der Spracheingabe spezifiziert wird.
8. Verfahren nach Anspruch 6, d a d u r c h g e k e n n z e i c h n e t, daß ein gerätespezifischer Wortschatz dann übertragen wird, wenn ein Gerät (3 bis 9) in den Bereich der Reichweite einer Funkverbindung mit der Spracheingabeeinheit (11), insbesondere nach dem Bluetooth-Standard, kommt .
9. Verfahren nach einem der Ansprüche 6 bis 8, d a d u r c h g e k e n n z e i c h n e t, daß die Spracheingabe und -erkennung mindestens unter anderem zur Steuerung von Funktionen von Geräten (3 bis 9) angewandt wird und die Wortschätze der entsprechenden Geräte im wesentlichen Steuerbefehle und Begleitvokabular zu diesen umfassen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10033132.7 | 2000-07-07 | ||
DE10033132 | 2000-07-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2002005264A1 true WO2002005264A1 (de) | 2002-01-17 |
Family
ID=7648180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/DE2001/002374 WO2002005264A1 (de) | 2000-07-07 | 2001-06-27 | Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2002005264A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1555652A1 (de) * | 2004-01-19 | 2005-07-20 | Harman Becker Automotive Systems GmbH | Betätigung eines Sprachdialogsystems |
US7454351B2 (en) | 2004-01-29 | 2008-11-18 | Harman Becker Automotive Systems Gmbh | Speech dialogue system for dialogue interruption and continuation control |
US7552221B2 (en) | 2003-10-15 | 2009-06-23 | Harman Becker Automotive Systems Gmbh | System for communicating with a server through a mobile communication device |
US7761204B2 (en) | 2004-01-29 | 2010-07-20 | Harman Becker Automotive Systems Gmbh | Multi-modal data input |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0661688A2 (de) * | 1993-12-30 | 1995-07-05 | International Business Machines Corporation | System und Verfahren zur ortsabhängigen Spracherkennung |
US5774859A (en) * | 1995-01-03 | 1998-06-30 | Scientific-Atlanta, Inc. | Information system having a speech interface |
EP0865014A2 (de) * | 1997-03-10 | 1998-09-16 | Daimler-Benz Aktiengesellschaft | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
EP0911808A1 (de) * | 1997-10-23 | 1999-04-28 | Sony International (Europe) GmbH | Sprachschnittstelle für ein Hausnetzwerk |
WO1999021165A1 (en) * | 1997-10-20 | 1999-04-29 | Computer Motion Inc. | General purpose distributed operating room control system |
WO2000005708A1 (en) * | 1998-07-24 | 2000-02-03 | Motorola Inc. | Voice browser for interactive services and methods thereof |
-
2001
- 2001-06-27 WO PCT/DE2001/002374 patent/WO2002005264A1/de active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0661688A2 (de) * | 1993-12-30 | 1995-07-05 | International Business Machines Corporation | System und Verfahren zur ortsabhängigen Spracherkennung |
US5774859A (en) * | 1995-01-03 | 1998-06-30 | Scientific-Atlanta, Inc. | Information system having a speech interface |
EP0865014A2 (de) * | 1997-03-10 | 1998-09-16 | Daimler-Benz Aktiengesellschaft | Verfahren und Vorrichtung zur Spracheingabe einer Zieladresse in ein Zielführungssystem im Echtzeitbetrieb |
WO1999021165A1 (en) * | 1997-10-20 | 1999-04-29 | Computer Motion Inc. | General purpose distributed operating room control system |
EP0911808A1 (de) * | 1997-10-23 | 1999-04-28 | Sony International (Europe) GmbH | Sprachschnittstelle für ein Hausnetzwerk |
WO2000005708A1 (en) * | 1998-07-24 | 2000-02-03 | Motorola Inc. | Voice browser for interactive services and methods thereof |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7552221B2 (en) | 2003-10-15 | 2009-06-23 | Harman Becker Automotive Systems Gmbh | System for communicating with a server through a mobile communication device |
US7555533B2 (en) | 2003-10-15 | 2009-06-30 | Harman Becker Automotive Systems Gmbh | System for communicating information from a server via a mobile communication device |
EP1555652A1 (de) * | 2004-01-19 | 2005-07-20 | Harman Becker Automotive Systems GmbH | Betätigung eines Sprachdialogsystems |
US7457755B2 (en) | 2004-01-19 | 2008-11-25 | Harman Becker Automotive Systems, Gmbh | Key activation system for controlling activation of a speech dialog system and operation of electronic devices in a vehicle |
US7454351B2 (en) | 2004-01-29 | 2008-11-18 | Harman Becker Automotive Systems Gmbh | Speech dialogue system for dialogue interruption and continuation control |
US7761204B2 (en) | 2004-01-29 | 2010-07-20 | Harman Becker Automotive Systems Gmbh | Multi-modal data input |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1314013B1 (de) | Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung | |
EP1282842B1 (de) | Verfahren zur steuerung von geräten im kommunikationsnetz eines kraftfahrzeuges | |
DE4242231C2 (de) | Fernsteuereinrichtung | |
DE102014011802A1 (de) | Sichere Aktivierung einer teilautonomen Funktion eines Kraftfahrzeugs über ein tragbares Kommunikationsgerät | |
WO2007059823A1 (de) | Zuordnung von stationsadressen zu kommunikationsteilnehmern in einem bussystem | |
DE112010003633B4 (de) | Fernbedienungssystem und mobile Vorrichtung | |
WO2006069762A1 (de) | Verfahren zur konfiguration von feldgeräten | |
WO2002005264A1 (de) | Sprachgesteuerte anordnung und verfahren zur spracheingabe und -erkennung | |
EP0970422A1 (de) | Einfahren zur erkennung durch einen sternsensor aufgefundener sternen ineinem vorerzeugten verzeichnis | |
DE102005041355A1 (de) | Hörvorrichtung mit Transpondereinrichtung und entsprechendes Datenübertragungsverfahren | |
WO2020221602A1 (de) | Verfahren zur personalisierung eines kraftfahrzeugs | |
DE10336572B4 (de) | Busankopplung ohne Steckverbindungen für Automatisierungsgeräte | |
EP3568838B1 (de) | Funkfernbedienungssystem für automatische gebäudeabschlüsse und deren aktoren, automatisches gebäudeabschlusssystem und betriebsverfahren | |
DE19537087C2 (de) | Verfahren und Anordnung zur ferngesteuerten Initialisierung eines Telefons | |
DE19645626B4 (de) | Busgerät für den Anschluss an ein Bussystem der Gebäudesystemtechnik | |
DE10034774A1 (de) | Fernsteuereinrichtung für Antriebe von Schließvorrichtungen für Gebäudeöffnungen | |
EP1353490B1 (de) | Wohnungsstation für eine Tür-Kommunikationsanlage | |
WO2005125170A1 (de) | Vorrichtung und verfahren zum schalten des stromflusses von steckdosen unter verwendung eines funksignals | |
DE102018203067B4 (de) | Verfahren und Fertigungsanlage zum Fertigen eines Kraftfahrzeugs | |
WO1999059311A1 (de) | Menügesteuerte bedienung eines endgerätes | |
WO2001080199A1 (de) | Verfahren zur fernbedienung von geräten | |
DE102006050845A1 (de) | Hausanlage | |
EP3735688A1 (de) | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum verarbeiten einer spracheingabe, kraftfahrzeug und nutzerendgerät mit einer sprachverarbeitung | |
DE102022110630B3 (de) | Verfahren und System zum Steuern eines Garagentors | |
DE10360547B3 (de) | Gegensteckermodul zur Kopplung eines Kabels mit dem einer Komponente eines Fernwirk- oder Automatisierungssystems zugeordneten Anschlussstecker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AK | Designated states |
Kind code of ref document: A1 Designated state(s): CN US |
|
AL | Designated countries for regional patents |
Kind code of ref document: A1 Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
122 | Ep: pct application non-entry in european phase |