DE19962218A1 - Verfahren und System zum Autorisieren von Sprachbefehlen - Google Patents

Verfahren und System zum Autorisieren von Sprachbefehlen

Info

Publication number
DE19962218A1
DE19962218A1 DE19962218A DE19962218A DE19962218A1 DE 19962218 A1 DE19962218 A1 DE 19962218A1 DE 19962218 A DE19962218 A DE 19962218A DE 19962218 A DE19962218 A DE 19962218A DE 19962218 A1 DE19962218 A1 DE 19962218A1
Authority
DE
Germany
Prior art keywords
typical
commands
sounds
words
mouth movements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19962218A
Other languages
English (en)
Other versions
DE19962218C2 (de
Inventor
Goetz Roderer
Dirk Groeger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19962218A priority Critical patent/DE19962218C2/de
Publication of DE19962218A1 publication Critical patent/DE19962218A1/de
Application granted granted Critical
Publication of DE19962218C2 publication Critical patent/DE19962218C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C2209/00Indexing scheme relating to groups G07C9/00 - G07C9/38
    • G07C2209/60Indexing scheme relating to groups G07C9/00174 - G07C9/00944
    • G07C2209/63Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Abstract

In einer mit Sprachbefehlen arbeitenden Einrichtung werden Sprachbefehle dadurch autorisiert, daß vorbestimmten Sprachbefehlen vorbestimmte Orte zugeordnet werden, in denen sich eine den Befehl sprechende Person befinden muß, damit der Sprachbefehl ausgeführt wird. Der Sprachbefehl wird von einem Mikrofon erfaßt. Gleichzeitig wird von einer dem vorbestimmten Ort zugeordneten Kamera die Mundbewegung einer dort sprechenden Person erfaßt und der Befehl zur Ausführung nur freigegeben, wenn die Mundbewegung mit dem vom Mikrofon erfaßten Audiosignal korreliert.

Description

Die Erfindung betrifft ein Verfahren zum Autorisieren von Sprachbefehlen sowie ein System zum Autorisieren von Sprach­ befehlen in einer mittels Sprachbefehlen gesteuerten Einrich­ tung.
Fortschritte auf dem Gebiet der Spracherkennung ermöglichen in zunehmendem Maß eine komfortable Steuerung von Funktions­ einheiten über Sprachbefehle. Dazu wird über ein Mikrofon aufgenommene Sprache zunächst im Hinblick auf darin enthalte­ ne typische Laute, Worte oder Wortfolgen analysiert und die festgestellten Laute, Worte oder Wortfolgen werden anschlie­ ßend mit in einem Befehlsspeicher abgelegten Befehlen vergli­ chen, die in Form von typischen Lauten, Worten oder Wortfol­ gen abgelegt sind. Bei Übereinstimmung wird der jeweilige Be­ fehl aktiviert.
Aus der EP 0 082 304 A1 ist bekannt, Sprache in Verbindung mit Gesichtserkennung als biometrische Merkmalskombination zu verwenden, um eine Person zu identifizieren und dadurch bei­ spielsweise zu überprüfen, ob eine Person zur Überwindung ei­ nes Zugangskontrollsystems autorisiert ist. Dazu werden stimmspezifische Merkmale der zu überprüfenden Person, die ein Schlüsselwort in ein Mikrofon spricht, in einem Korrela­ tionsrechner mit früher gespeicherten stimmspezifischen Merk­ malen einer bekannten Person verglichen, die dasselbe Schlüs­ selwort äußert. Dadurch wird eine erste Korrelationsrate er­ halten. Zur gleichen Zeit und zwar wenn ein Schlüsselereignis in der Äußerung des Schlüsselwortes durch die zu überprüfende Person entsteht, wird ein Momentanbild der Mundregion der Person aufgenommen, auf die vorher ein Gittermuster proji­ ziert worden ist. Dieses Momentanbild wird mit einem vorher gespeicherten, entsprechenden Momentanbild der bekannten Per­ son verglichen, um eine zweite Korrelationsrate zu erhalten.
Die beiden Korrelationsraten werden analysiert, um festzu­ stellen, ob die zu überprüfende Person mit der bekannten Per­ son übereinstimmt.
Bei Einrichtungen, die über Sprachbefehle gesteuert werden, insbesondere wenn solche Einrichtungen in Kraftfahrzeugen verwendet werden, besteht ein Problem dahingehend, daß eine andere Person als die Fahrerin oder der Fahrer des Fahrzeugs Sprachbefehle spricht, die dann als Befehle erkannt werden und zur Auslösung bestimmter Funktionen führen. Dies kann zu für den Fahrer verwirrenden oder sogar gefährlichen Zuständen führen.
Der Erfindung liegt die Aufgabe zugrunde, Abhilfe für das vorgenannte Problem zu schaffen.
Gegenstand des Anspruchs 1 ist ein Verfahren zur Lösung die­ ser Aufgabe.
Erfindungsgemäß wird festgestellt, an welchem Ort sich eine einen Sprachbefehl sprechende Person befindet und werden Sprachbefehle, die diesem Ort zugeordnet sind, nur dann frei­ gegeben, wenn die den jeweiligen Befehl sprechende Person als an dem Ort befindlich erkannt ist. Für die Ortserkennung gibt es unterschiedlichste Möglichkeiten, beispielsweise indem die Sprache von mehreren Mikrofonen erfaßt wird, so daß über ein Triangulationsverfahren der Ort des Sprechers erkannt werden kann.
Ein anderes Verfahren zur Ortserkennung des Sprechers ist im Anspruch 2 angegeben, wobei dieses Verfahren gemäß dem An­ spruch 3 zusätzlich dazu verwendet werden kann, die Spracher­ kennung sicherer zu machen.
Ein System zur Lösung der Erfindungsaufgabe ist im Anspruch 4 angegeben.
Dieses System wird mit den Merkmalen der Ansprüche 5 bis 8 in vorteilhafter Weise weitergebildet.
Die Erfindung ist überall dort mit Vorteil einsetzbar, wo Sprachsteuersysteme eingesetzt werden, bei denen vorbestimmte Befehle nur dann aktiviert werden sollen, wenn sich eine den Befehl sprechende Person innerhalb eines vorbestimmten örtli­ chen Bereiches befindet.
Die Erfindung kann in Verbindung mit Personenidentifizie­ rungssystemen eingesetzt werden, wie sie beispielsweise in der eingangs genannten EP 0 082 304 A1 beschrieben sind. Auf diese Weise kann zusätzlich überprüft werden, ob die in einem vorbestimmten örtlichen Bereich befindliche Person eine auto­ risierte Person ist.
Die Erfindung wird im folgenden anhand schematischer Zeich­ nungen beispielsweise und mit weiteren Einzelheiten erläu­ tert.
Es stellen dar:
Fig. 1 eine Aufsicht auf einen vereinfacht dargestellten Innenraum eines Kraftfahrzeugs, und
Fig. 2 ein Blockschaltbild des erfindungsgemäßen Systems. Gemäß Fig. 1 sind im Innenraum eines Kraftfahrzeugs ein Fah­ rersitz 2, ein Beifahrersitz 4 und eine Fondsitzbank 6 ange­ ordnet.
Im Dachbereich oberhalb der Windschutzscheibe befindet sich eine Kameraeinrichtung 10 mit Kameras 12 und 14. Der Bildwin­ kel Ω1 der Kamera 12 überstreicht einen Bereich, in dem sich normalerweise der Kopf des Fahrers befindet. Der Bildwinkel Ω2 der Kamera 14 überstreicht einen Bereich, in dem sich nor­ malerweise der Beifahrer befindet.
Im Dachbereich vor dem Fondraum ist eine weitere Kamera 16 angeordnet, deren Bildwinkel Ω3 den mittleren Bereich des Fondraums überstreicht. Weiter sind Mikrofone 18 und 20 vor­ gesehen, wobei das Mikrofon 18 dem Fahrer/Beifahrerraum zuge­ ordnet ist und das Mikrofon 20 dem Fondraum zugeordnet ist.
Fig. 2 zeigt ein Blockschaltbild der Anordnung gemäß Fig. 1.
Das Mikrofon 18 ist an eine Sprachanalyseeinrichtung 22 ange­ schlossen, in der die empfangene Sprache durch Korrelation mit in einem Sprachspeicher 24 abgelegten typischen Sprach­ lauten und Worten analysiert wird und an deren Ausgang den analysierten Lauten bzw. Worten entsprechende Signale erzeugt werden.
Die Kamera 12, die das Gesicht der Fahrerin oder des Fahrers 26 erfaßt, ist mit einer Bewegungsanalyseeinrichtung 26 ver­ bunden, in der die von der Kamera 12 erfaßten Mundbewegungen im Hinblick auf typische Mundbewegungen analysiert werden und auf ihre Korrelation mit typischen Mundbewegungen zugeordne­ ten, im Sprachspeicher 24 vorher gespeicherten typischen Lau­ ten oder Worten überprüft werden. Bei positiver Korrelation erscheinen am Ausgang der Bewegungsanalyseeinrichtung 26 den typischen Lauten und/oder Worten entsprechende Signale.
Die Ausgangssignale der Sprachanalyseeinrichtung 22 und der Bewegungsanalyseeinrichtung 26 werden einer Synchronprüfein­ richtung 30 zugeführt, die nur solche Laute und/oder Worte durchläßt und einer Korrelationseinrichtung 32 zuführt, die zeitgleich aus der Sprachanalyseeinrichtung 22 und der Bewe­ gungsanalyseeinrichtung 26 ausgegeben werden.
In der Korrelationseinrichtung 32 werden die empfangenen ty­ pischen Laute und/oder Worte mit in einer Sektion I eines Be­ fehlsspeichers 34 abgelegten Befehlen verglichen. Bei positi­ vem Vergleich wird am Ausgang der Korrelationseinrichtung 32 ein entsprechendes Befehlssignal erzeugt und in einer Steuer­ einrichtung 36 in ein entsprechendes Steuersignal zum Steuern einer Funktion umgewandelt.
Die dem Beifahrer 40 zugeordnete Kamera 14 ist mit einer wei­ teren Bewegungsanalyseeinrichtung 42 verbunden, der eine Syn­ chronprüfeinrichtung 44 nachgeschaltet ist, die mit der Sprachanalyseeinrichtung 22 und einer weiteren Korrelations­ einrichtung 46 verbunden ist, die mit einer Sektion II des Befehlsspeichers 34 und mit der Steuereinrichtung 36 verbun­ den ist.
Die Kamera 16 des Fondraums ist der Einfachheit halber nicht in das Blockschaltbild eingezeichnet. Sie ist ähnlich ge­ schaltet wie die Kamera 14 bzw. die Kamera 12. Das Fondraum­ mikrofon 20 kann unmittelbar an die Sprachanalyseeinrichtung 22 angeschlossen sein.
Die Funktionen der einzelnen entsprechend fortschrittlichen gängigen Verfahren der Spracherkennung, der Bildverarbeitung und der Informationskorrelationen arbeitenden Komponenten so­ wie deren Aufbau sind an sich bekannt und werden daher nicht erläutert.
Im folgenden wird daher lediglich das erfindungsgemäße Zusam­ menwirken der Komponenten beschrieben:
Es sei angenommen, der Fahrer 26 spräche das Befehlswort "Scheibenwischer an". Das Sprechen dieses Sprachbefehls wird zum einen vom Mikrofon 18 erfaßt und zum anderen von der Ka­ mera 12. In der Sprachanalyseeinrichtung 22 wird durch Ver­ gleich mit im Sprachspeicher 24 abgelegter Information ermit­ telt, daß die Wortgruppe "Scheibenwischer an" gesprochen wur­ de und am Ausgang der Sprachanalyseeinrichtung 22 erscheint ein entsprechendes Signal. In der Bewegungsanalyseeinrichtung 26 werden die Mundbewegungen analysiert, die dem Sprechen der Wortfolge "Scheibenwischer an" entsprechen und durch Korrela­ tion mit im Sprachspeicher 24 abgelegten Informationen fest­ gestellt, daß diese Wortfolge gesprochen wurde, so daß am Ausgang der Bewegungsanalyseeinrichtung 26 ein entsprechendes Signal erzeugt wird. In der Synchronprüfeinrichtung 30 wird überprüft, ob beide Signale synchron zueinander sind, so daß das synchrone Signal zu der Korrelationseinrichtung 32 durch­ gelassen wird, in der überprüft wird, ob dem Signal ein im Befehlsspeicher 34 abgelegter Befehl entspricht. Ist im Be­ fehlsspeicher 34 ein entsprechender Befehl "Scheibenwischer an" abgelegt, so sendet die Korrelationseinrichtung 32 ein entsprechendes Signal an die Steuereinrichtung 26, in der ein Steuersignal zum Inbetriebsetzen des Scheibenwischers erzeugt wird.
Wird die Wortfolge "Scheibenwischer an" vom Beifahrer 40 ge­ sprochen, so läuft der geschilderte Vorgang in der Sprachana­ lyseeinrichtung 22, der Bewegungsanalyseeinrichtung 42, der Synchronprüfeinrichtung 44 und der Korrelationseinrichtung 46 ab. In der Korrelationseinrichtung 46 erfolgt keine positive Korrelation mit einem in der Sektion II des Befehlsspeichers 34 abgelegten Befehl, da in der Sektion II nur solche Befehle abgelegt sind, die für den Beifahrer erlaubte Befehle sind. Entsprechend wird die Steuereinrichtung 36 nicht aktiv, wenn der Beifahrer 40 den Befehl "Scheibenwischer an" spricht.
Durch Segmentierung der in dem Befehlsspeicher 34 abgelegten Befehle in einzelne Sektionen, die unterschiedlichen Kameras bzw. örtlichen Bereichen im Fahrzeuginneren zugeordnet sind, wird somit ermöglicht, daß Sprachbefehle nur dann ausgeführt werden, wenn sie aus einem, dem jeweiligen Sprachbefehl zuge­ ordneten räumlichen Bereich des Fahrzeuginnenraums kommen. Dabei können bestimmte Befehle durchaus allen Bereichen des Fahrzeuginnenraums zugeordnet sein beispielsweise "Innenbe­ leuchtung an" oder "Radio aus" und so weiter. Weiter ist es möglich, daß ein Befehl "Temperatur höher" unterschiedliche Funktionen auslöst, je nachdem, ob er vom Fahrer, Beifahrer oder aus dem Fond gesprochen wird. In einer Heizungs-/Klimaanlage werden dann entsprechende Funktionen ausgelöst, die den örtlichen Bereichen zugeordnet sind.
Es versteht sich weiter, daß der Fahrer beispielsweise mit­ tels einer nicht dargestellten Bedieneinheit Befehle einzel­ nen örtlichen Bereichen zuordnen kann; beispielsweise kann er Telefonfunktionen für den gesamten Innenraum freigeben, nur für den Beifahrer freigeben usw.
In der bzw. den Synchronprüfeinrichtungen 30, 44 können ver­ stümmelte Worte, die bezüglich ihrer Synchronisierung noch erkennbar sind, die aber nicht vollständig aufgenommen sind, beispielsweise weil der Mund der sprechenden Person teilweise verdeckt wird oder ein Geräusch das gesprochene Wort über­ deckt, durch gegenseitige Korrelation ergänzt werden, so daß die Qualität der der Korrelationseinrichtung 32 zugeordneten Information bzw. Worte verbessert ist.
Die Erfindung kann in vielfältiger Weise abgeändert werden. Beispielsweise können die den unterschiedlichen Kameras zuge­ ordneten Sprachanalyseeinrichtungen, Synchronprüfeinrichtun­ gen und Korrelationseinrichtungen in einem gemeinsamen Hard­ ware-Baustein zusammengefaßt sein, wobei die von der jeweili­ gen Kamera erfaßte optische Information hinsichtlich ihrer Kamerazuordnung gekennzeichnet wird. Die verschiedenen Sek­ tionen des Befehlsspeichers 34 können dadurch ausgebildet sein, daß den insgesamt im Befehlsspeicher 34 befindlichen Befehlen Informationen hinsichtlich der jeweiligen örtlichen Bereiche bzw. Kameras zugefügt sind. Die Synchronprüfung zwi­ schen optischen und akustischen Informationen kann bereits vor der Analyse hinsichtlich vorbestimmter Sprachbausteine erfolgen, da zwischen der gesprochenen Sprache und den erfaß­ ten Mundbewegungen Grundkorrelationen bestehen beispielsweise zwischen Sprachbeginn und Beginn einer Mundbewegung. Der In­ nenraum des Fahrzeugs kann in mehrere Bereiche aufgeteilt sein, beispielsweise der Fondraum in drei nebeneinander ange­ ordnete Bereiche. Das System kann auf den Außenraum erweitert werden, der von einer oder mehreren Kameras bereichsweise überdeckt wird.
In vereinfachter Ausführungsform kann das System dazu verwen­ det werden festzustellen, ob eine Sprache überhaupt von einer im Sichtfeld einer Kamera befindlichen Person ausgeht, indem eine Synchronizität zwischen akustisch aufgenommener Sprache und optisch erfaßter Mundbewegung festgestellt oder nur fest­ gestellt wird, ob sich ein Mund bewegt. Liegt keine Mundbewe­ gung vor, so wird eine Sprachauswertung gar nicht aktiviert, so daß Rechnerleistung eingespart bzw. nicht unnötig ver­ braucht wird.

Claims (8)

1. Verfahren zum Autorisieren von Sprachbefehlen, bei wel­ chem Verfahren vorbestimmten Sprachbefehlen wenigstens ein vorbestimmter Ort zugeordnet wird, an dem sich eine die Be­ fehle sprechende Person befinden muß, damit die Sprachbefehle ausgeführt werden, festgestellt wird, ob sich eine einen Sprachbefehl sprechende Person an dem Ort befindet und bei positiver Feststellung die Ausführung der Sprachbefehle freigegeben wird.
2. Verfahren nach Anspruch 1, wobei
Sprache akustisch aufgenommen und hinsichtlich typischer Lau­ te analysiert wird, wenigstens eine Kamera Mundbewegungen ei­ ner an einem vorbestimmten Ort befindlichen Person erfaßt,
die aufgenommenen Mundbewegungen hinsichtlich typischer Mund­ bewegungen analysiert werden,
die typischen Mundbewegungen und die typischen Laute hin­ sichtlich ihrer zeitlichen Übereinstimmung verglichen werden und
bei positivem Vergleich der Ort des Sprechers als der Ort der mit der Kamera aufgenommenen Person identifiziert wird.
3. Verfahren nach Anspruch 2, wobei typischen Mundbewegungen typische Laute zugeordnet sind und akustisch schlecht aufgenommene Laute durch typische Laute ersetzt werden, die zeitgleich aufgenommenen, typischen Mund­ bewegungen zugeordnet sind.
4. System zum Autorisieren von Sprachbefehlen in einer mit­ tels Sprachbefehlen gesteuerten Einrichtung, enthaltend ein Mikrofon (18, 20) zur Aufnahme von Sprache,
eine dem Mikrofon nachgeschaltete Sprachanalyseeinrichtung (22) zur Analyse der Sprache hinsichtlich typischer Laute und/oder Worte,
eine Kameraeinrichtung (12, 14, 16), die Mundbewegungen einer an einem vorbestimmten Ort befindlichen Person aufnimmt,
eine der Kamera nachgeschalteten Bewegungsanalyseeinrichtung (28, 42), die die aufgenommenen Mundbewegungen hinsichtlich typischer Mundbewegungen und/oder diesen zugeordneten typi­ schen Lauten und/oder Worten analysiert,
eine Synchronprüfeinrichtung (30, 44), die die typischen Mundbewegungen und/oder die aus diesen abgeleiteten typischen Laute und/oder Worte hinsichtlich ihrer zeitlichen Überein­ stimmung mit aus der Sprachanalyse hergeleiteten typischen Lauten und/oder Worten vergleicht und bei Übereinstimmung weiterleitet, und eine Korrelationseinrichtung (32, 46), die durch Vergleich der weitergeleiteten typischen Laute und/oder Worte mit in einem Befehlsspeicher (34) gespeicherten Befeh­ len Befehlssignale an eine Steuereinrichtung (36) weitergibt, die die Befehle in diesen zugeordnete Steuersignale umsetzt.
5. System nach Anspruch 4, wobei die Kameraeinrichtung (12, 14, 16) derart ausgebildet ist, daß die Mundbewegungen von an unterschiedlichen vorbe­ stimmten Orten befindlichen Orten erfaßbar sind und den un­ terschiedlichen Orten vorbestimmte zulässige Befehle zugeord­ net sind.
6. System nach Anspruch 4 oder 5, wobei eine Speichereinrichtung (24) vorgesehen ist, in der typi­ schen Mundbewegungen zugeordnete typische Laute und/oder Wor­ te abgelegt sind, und die Korrelationseinrichtung (32, 46) bei schlechter Qualität der akustisch aufgenommenen typischen Laute und/oder Worte die den zeitgleich aufgenommenen Mundbe­ wegungen zugeordneten typischen Laute und/oder Worte weiter­ leitet.
7. System nach einem der Ansprüche 4 bis 6, wobei die Kamera (12, 14, 16) den Fahrer- und Beifahrerraum in einem Kraftfahrzeug erfaßt und die Steuersignale zur Steuerung von Funktionen vorgesehen sind.
8. System nach Anspruch 7, wobei eine Kamera (16) den Fond­ raum des Kraftfahrzeugs erfaßt.
DE19962218A 1999-12-22 1999-12-22 Verfahren und System zum Autorisieren von Sprachbefehlen Expired - Fee Related DE19962218C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19962218A DE19962218C2 (de) 1999-12-22 1999-12-22 Verfahren und System zum Autorisieren von Sprachbefehlen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19962218A DE19962218C2 (de) 1999-12-22 1999-12-22 Verfahren und System zum Autorisieren von Sprachbefehlen

Publications (2)

Publication Number Publication Date
DE19962218A1 true DE19962218A1 (de) 2001-07-05
DE19962218C2 DE19962218C2 (de) 2002-11-14

Family

ID=7933940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19962218A Expired - Fee Related DE19962218C2 (de) 1999-12-22 1999-12-22 Verfahren und System zum Autorisieren von Sprachbefehlen

Country Status (1)

Country Link
DE (1) DE19962218C2 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10156954A1 (de) * 2001-11-20 2003-06-18 Daimler Chrysler Ag Bildgestützte adaptive Akustik
WO2003069541A1 (en) * 2002-02-14 2003-08-21 Koninklijke Philips Electronics N.V. Method and system for person identification using video-speech matching
DE10208465A1 (de) * 2002-02-27 2003-09-18 Bsh Bosch Siemens Hausgeraete Elektrisches Gerät, insbesondere Dunstabzugshaube
DE10217778A1 (de) * 2002-04-18 2003-11-06 Volkswagen Ag Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug
US7162424B2 (en) 2001-04-26 2007-01-09 Siemens Aktiengesellschaft Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language
EP1901282A2 (de) * 2006-09-15 2008-03-19 Volkswagen Aktiengesellschaft Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug
DE102007002905A1 (de) * 2007-01-19 2008-07-24 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines Sprachsignals
DE102009051508A1 (de) * 2009-10-30 2011-05-05 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung
EP2798635A4 (de) * 2011-12-26 2016-04-27 Intel Corp Bestimmung von akustischen und visuellen eingaben von insassen eines fahrzeugs
DE102016003401A1 (de) * 2016-03-19 2017-10-05 Audi Ag Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE102021128260A1 (de) 2021-10-29 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Sprachsteuerung an Bord eines Fahrzeugs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0082304A1 (de) * 1981-11-20 1983-06-29 Siemens Aktiengesellschaft Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2049173C (en) * 1990-08-16 1996-06-25 Shoji Fujimoto Speech recognition apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0082304A1 (de) * 1981-11-20 1983-06-29 Siemens Aktiengesellschaft Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054988B2 (en) 1920-04-18 2011-11-08 Volkswagen Ag Communications device for transmitting acoustic signals in a motor vehicle
US7162424B2 (en) 2001-04-26 2007-01-09 Siemens Aktiengesellschaft Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language
DE10156954B4 (de) * 2001-11-20 2004-12-23 Daimlerchrysler Ag Bildgestützte adaptive Akustik
DE10156954B9 (de) * 2001-11-20 2005-07-14 Daimlerchrysler Ag Bildgestützte adaptive Akustik
DE10156954A1 (de) * 2001-11-20 2003-06-18 Daimler Chrysler Ag Bildgestützte adaptive Akustik
WO2003069541A1 (en) * 2002-02-14 2003-08-21 Koninklijke Philips Electronics N.V. Method and system for person identification using video-speech matching
CN1324517C (zh) * 2002-02-14 2007-07-04 皇家飞利浦电子股份有限公司 采用视频-语音匹配进行人员认证的方法和系统
DE10208465A1 (de) * 2002-02-27 2003-09-18 Bsh Bosch Siemens Hausgeraete Elektrisches Gerät, insbesondere Dunstabzugshaube
DE10217778A1 (de) * 2002-04-18 2003-11-06 Volkswagen Ag Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug
EP1901282A2 (de) * 2006-09-15 2008-03-19 Volkswagen Aktiengesellschaft Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug
EP1901282A3 (de) * 2006-09-15 2008-05-21 Volkswagen Aktiengesellschaft Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug
US8214219B2 (en) 2006-09-15 2012-07-03 Volkswagen Of America, Inc. Speech communications system for a vehicle and method of operating a speech communications system for a vehicle
DE102007002905A1 (de) * 2007-01-19 2008-07-24 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines Sprachsignals
DE102009051508A1 (de) * 2009-10-30 2011-05-05 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung
US9020823B2 (en) 2009-10-30 2015-04-28 Continental Automotive Gmbh Apparatus, system and method for voice dialogue activation and/or conduct
DE102009051508B4 (de) * 2009-10-30 2020-12-03 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
EP2798635A4 (de) * 2011-12-26 2016-04-27 Intel Corp Bestimmung von akustischen und visuellen eingaben von insassen eines fahrzeugs
DE102016003401A1 (de) * 2016-03-19 2017-10-05 Audi Ag Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE102016003401B4 (de) * 2016-03-19 2021-06-10 Audi Ag Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE102021128260A1 (de) 2021-10-29 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Sprachsteuerung an Bord eines Fahrzeugs

Also Published As

Publication number Publication date
DE19962218C2 (de) 2002-11-14

Similar Documents

Publication Publication Date Title
DE3238855C2 (de) Spracherkennungseinrichtung
DE102004044771B4 (de) Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug
DE102016212647B4 (de) Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Innenraum und Sprachsteuerungssystem
DE102013222645A1 (de) Erkennungssystem in einem Fahrzeug zur Erfassung der Sprachaktivität eines Fahrzeuginsassen
DE19962218C2 (de) Verfahren und System zum Autorisieren von Sprachbefehlen
DE102009051508A1 (de) Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung
DE102007023140A1 (de) Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
DE102015210430A1 (de) Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren
DE112017007280T5 (de) Fahrzeuginterne Kommunikationssteuerungsvorrichtung, fahrzeuginternes Kommunikationssystem, und fahrzeuginternes Kommunikationssteuerungsverfahren
WO2021023468A1 (de) Vorrichtung und verfahren zur steuerung eines beifahrersitzes in einem fahrzeug
EP3430615A1 (de) Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe
DE102017206876B4 (de) Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Kraftfahrzeug undSprachsteuerungssystem
EP3254172A1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102013006086A1 (de) Augenbewegungsgesteuertes Authentifizierungssystem sowie Verfahren zur augenbewegungsgesteuerten Authentifizierung
DE102018217634A1 (de) Verfahren zum Betrieb eines Fahrzeugs sowie Fahrzeug
DE102012203795A1 (de) Vorrichtung zum Einstellen und/oder Nachjustieren eines Spiegels in einem Kraftfahrzeug
DE102017103391A1 (de) Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
DE102004020255A1 (de) Überwachungssystem für Fahrzeuge
EP1610302A1 (de) Verfahren zur sprecherabhängigen Spracherkennung in einem Kraftfahrzeug
DE102004044204A1 (de) Vorrichtung zur Betätigung von Türen
DE102019008743A1 (de) Verfahren und System zur Aufnahme von Personen im lnnenraum eines Fahrzeuges
WO2020193123A1 (de) Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug
EP4047499A1 (de) Verfahren zur sprachsteuerung, system zur sprachsteuerung sowie fahrzeug mit einem system zur sprachsteuerung
DE102016011141A1 (de) Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges
DE102016011016A1 (de) Verfahren zum Betrieb eines Assistenzsystems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee