DE19962218A1 - Verfahren und System zum Autorisieren von Sprachbefehlen - Google Patents
Verfahren und System zum Autorisieren von SprachbefehlenInfo
- Publication number
- DE19962218A1 DE19962218A1 DE19962218A DE19962218A DE19962218A1 DE 19962218 A1 DE19962218 A1 DE 19962218A1 DE 19962218 A DE19962218 A DE 19962218A DE 19962218 A DE19962218 A DE 19962218A DE 19962218 A1 DE19962218 A1 DE 19962218A1
- Authority
- DE
- Germany
- Prior art keywords
- typical
- commands
- sounds
- words
- mouth movements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 12
- 238000013475 authorization Methods 0.000 title 1
- 230000001360 synchronised effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 235000010678 Paulownia tomentosa Nutrition 0.000 description 1
- 240000002834 Paulownia tomentosa Species 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C2209/00—Indexing scheme relating to groups G07C9/00 - G07C9/38
- G07C2209/60—Indexing scheme relating to groups G07C9/00174 - G07C9/00944
- G07C2209/63—Comprising locating means for detecting the position of the data carrier, i.e. within the vehicle or within a certain distance from the vehicle
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Analysis (AREA)
Abstract
In einer mit Sprachbefehlen arbeitenden Einrichtung werden Sprachbefehle dadurch autorisiert, daß vorbestimmten Sprachbefehlen vorbestimmte Orte zugeordnet werden, in denen sich eine den Befehl sprechende Person befinden muß, damit der Sprachbefehl ausgeführt wird. Der Sprachbefehl wird von einem Mikrofon erfaßt. Gleichzeitig wird von einer dem vorbestimmten Ort zugeordneten Kamera die Mundbewegung einer dort sprechenden Person erfaßt und der Befehl zur Ausführung nur freigegeben, wenn die Mundbewegung mit dem vom Mikrofon erfaßten Audiosignal korreliert.
Description
Die Erfindung betrifft ein Verfahren zum Autorisieren von
Sprachbefehlen sowie ein System zum Autorisieren von Sprach
befehlen in einer mittels Sprachbefehlen gesteuerten Einrich
tung.
Fortschritte auf dem Gebiet der Spracherkennung ermöglichen
in zunehmendem Maß eine komfortable Steuerung von Funktions
einheiten über Sprachbefehle. Dazu wird über ein Mikrofon
aufgenommene Sprache zunächst im Hinblick auf darin enthalte
ne typische Laute, Worte oder Wortfolgen analysiert und die
festgestellten Laute, Worte oder Wortfolgen werden anschlie
ßend mit in einem Befehlsspeicher abgelegten Befehlen vergli
chen, die in Form von typischen Lauten, Worten oder Wortfol
gen abgelegt sind. Bei Übereinstimmung wird der jeweilige Be
fehl aktiviert.
Aus der EP 0 082 304 A1 ist bekannt, Sprache in Verbindung
mit Gesichtserkennung als biometrische Merkmalskombination zu
verwenden, um eine Person zu identifizieren und dadurch bei
spielsweise zu überprüfen, ob eine Person zur Überwindung ei
nes Zugangskontrollsystems autorisiert ist. Dazu werden
stimmspezifische Merkmale der zu überprüfenden Person, die
ein Schlüsselwort in ein Mikrofon spricht, in einem Korrela
tionsrechner mit früher gespeicherten stimmspezifischen Merk
malen einer bekannten Person verglichen, die dasselbe Schlüs
selwort äußert. Dadurch wird eine erste Korrelationsrate er
halten. Zur gleichen Zeit und zwar wenn ein Schlüsselereignis
in der Äußerung des Schlüsselwortes durch die zu überprüfende
Person entsteht, wird ein Momentanbild der Mundregion der
Person aufgenommen, auf die vorher ein Gittermuster proji
ziert worden ist. Dieses Momentanbild wird mit einem vorher
gespeicherten, entsprechenden Momentanbild der bekannten Per
son verglichen, um eine zweite Korrelationsrate zu erhalten.
Die beiden Korrelationsraten werden analysiert, um festzu
stellen, ob die zu überprüfende Person mit der bekannten Per
son übereinstimmt.
Bei Einrichtungen, die über Sprachbefehle gesteuert werden,
insbesondere wenn solche Einrichtungen in Kraftfahrzeugen
verwendet werden, besteht ein Problem dahingehend, daß eine
andere Person als die Fahrerin oder der Fahrer des Fahrzeugs
Sprachbefehle spricht, die dann als Befehle erkannt werden
und zur Auslösung bestimmter Funktionen führen. Dies kann zu
für den Fahrer verwirrenden oder sogar gefährlichen Zuständen
führen.
Der Erfindung liegt die Aufgabe zugrunde, Abhilfe für das
vorgenannte Problem zu schaffen.
Gegenstand des Anspruchs 1 ist ein Verfahren zur Lösung die
ser Aufgabe.
Erfindungsgemäß wird festgestellt, an welchem Ort sich eine
einen Sprachbefehl sprechende Person befindet und werden
Sprachbefehle, die diesem Ort zugeordnet sind, nur dann frei
gegeben, wenn die den jeweiligen Befehl sprechende Person als
an dem Ort befindlich erkannt ist. Für die Ortserkennung gibt
es unterschiedlichste Möglichkeiten, beispielsweise indem die
Sprache von mehreren Mikrofonen erfaßt wird, so daß über ein
Triangulationsverfahren der Ort des Sprechers erkannt werden
kann.
Ein anderes Verfahren zur Ortserkennung des Sprechers ist im
Anspruch 2 angegeben, wobei dieses Verfahren gemäß dem An
spruch 3 zusätzlich dazu verwendet werden kann, die Spracher
kennung sicherer zu machen.
Ein System zur Lösung der Erfindungsaufgabe ist im Anspruch 4
angegeben.
Dieses System wird mit den Merkmalen der Ansprüche 5 bis 8 in
vorteilhafter Weise weitergebildet.
Die Erfindung ist überall dort mit Vorteil einsetzbar, wo
Sprachsteuersysteme eingesetzt werden, bei denen vorbestimmte
Befehle nur dann aktiviert werden sollen, wenn sich eine den
Befehl sprechende Person innerhalb eines vorbestimmten örtli
chen Bereiches befindet.
Die Erfindung kann in Verbindung mit Personenidentifizie
rungssystemen eingesetzt werden, wie sie beispielsweise in
der eingangs genannten EP 0 082 304 A1 beschrieben sind. Auf
diese Weise kann zusätzlich überprüft werden, ob die in einem
vorbestimmten örtlichen Bereich befindliche Person eine auto
risierte Person ist.
Die Erfindung wird im folgenden anhand schematischer Zeich
nungen beispielsweise und mit weiteren Einzelheiten erläu
tert.
Es stellen dar:
Fig. 1 eine Aufsicht auf einen vereinfacht dargestellten
Innenraum eines Kraftfahrzeugs, und
Fig. 2 ein Blockschaltbild des erfindungsgemäßen Systems.
Gemäß Fig. 1 sind im Innenraum eines Kraftfahrzeugs ein Fah
rersitz 2, ein Beifahrersitz 4 und eine Fondsitzbank 6 ange
ordnet.
Im Dachbereich oberhalb der Windschutzscheibe befindet sich
eine Kameraeinrichtung 10 mit Kameras 12 und 14. Der Bildwin
kel Ω1 der Kamera 12 überstreicht einen Bereich, in dem sich
normalerweise der Kopf des Fahrers befindet. Der Bildwinkel
Ω2 der Kamera 14 überstreicht einen Bereich, in dem sich nor
malerweise der Beifahrer befindet.
Im Dachbereich vor dem Fondraum ist eine weitere Kamera 16
angeordnet, deren Bildwinkel Ω3 den mittleren Bereich des
Fondraums überstreicht. Weiter sind Mikrofone 18 und 20 vor
gesehen, wobei das Mikrofon 18 dem Fahrer/Beifahrerraum zuge
ordnet ist und das Mikrofon 20 dem Fondraum zugeordnet ist.
Fig. 2 zeigt ein Blockschaltbild der Anordnung gemäß Fig. 1.
Das Mikrofon 18 ist an eine Sprachanalyseeinrichtung 22 ange
schlossen, in der die empfangene Sprache durch Korrelation
mit in einem Sprachspeicher 24 abgelegten typischen Sprach
lauten und Worten analysiert wird und an deren Ausgang den
analysierten Lauten bzw. Worten entsprechende Signale erzeugt
werden.
Die Kamera 12, die das Gesicht der Fahrerin oder des Fahrers
26 erfaßt, ist mit einer Bewegungsanalyseeinrichtung 26 ver
bunden, in der die von der Kamera 12 erfaßten Mundbewegungen
im Hinblick auf typische Mundbewegungen analysiert werden und
auf ihre Korrelation mit typischen Mundbewegungen zugeordne
ten, im Sprachspeicher 24 vorher gespeicherten typischen Lau
ten oder Worten überprüft werden. Bei positiver Korrelation
erscheinen am Ausgang der Bewegungsanalyseeinrichtung 26 den
typischen Lauten und/oder Worten entsprechende Signale.
Die Ausgangssignale der Sprachanalyseeinrichtung 22 und der
Bewegungsanalyseeinrichtung 26 werden einer Synchronprüfein
richtung 30 zugeführt, die nur solche Laute und/oder Worte
durchläßt und einer Korrelationseinrichtung 32 zuführt, die
zeitgleich aus der Sprachanalyseeinrichtung 22 und der Bewe
gungsanalyseeinrichtung 26 ausgegeben werden.
In der Korrelationseinrichtung 32 werden die empfangenen ty
pischen Laute und/oder Worte mit in einer Sektion I eines Be
fehlsspeichers 34 abgelegten Befehlen verglichen. Bei positi
vem Vergleich wird am Ausgang der Korrelationseinrichtung 32
ein entsprechendes Befehlssignal erzeugt und in einer Steuer
einrichtung 36 in ein entsprechendes Steuersignal zum Steuern
einer Funktion umgewandelt.
Die dem Beifahrer 40 zugeordnete Kamera 14 ist mit einer wei
teren Bewegungsanalyseeinrichtung 42 verbunden, der eine Syn
chronprüfeinrichtung 44 nachgeschaltet ist, die mit der
Sprachanalyseeinrichtung 22 und einer weiteren Korrelations
einrichtung 46 verbunden ist, die mit einer Sektion II des
Befehlsspeichers 34 und mit der Steuereinrichtung 36 verbun
den ist.
Die Kamera 16 des Fondraums ist der Einfachheit halber nicht
in das Blockschaltbild eingezeichnet. Sie ist ähnlich ge
schaltet wie die Kamera 14 bzw. die Kamera 12. Das Fondraum
mikrofon 20 kann unmittelbar an die Sprachanalyseeinrichtung
22 angeschlossen sein.
Die Funktionen der einzelnen entsprechend fortschrittlichen
gängigen Verfahren der Spracherkennung, der Bildverarbeitung
und der Informationskorrelationen arbeitenden Komponenten so
wie deren Aufbau sind an sich bekannt und werden daher nicht
erläutert.
Im folgenden wird daher lediglich das erfindungsgemäße Zusam
menwirken der Komponenten beschrieben:
Es sei angenommen, der Fahrer 26 spräche das Befehlswort "Scheibenwischer an". Das Sprechen dieses Sprachbefehls wird zum einen vom Mikrofon 18 erfaßt und zum anderen von der Ka mera 12. In der Sprachanalyseeinrichtung 22 wird durch Ver gleich mit im Sprachspeicher 24 abgelegter Information ermit telt, daß die Wortgruppe "Scheibenwischer an" gesprochen wur de und am Ausgang der Sprachanalyseeinrichtung 22 erscheint ein entsprechendes Signal. In der Bewegungsanalyseeinrichtung 26 werden die Mundbewegungen analysiert, die dem Sprechen der Wortfolge "Scheibenwischer an" entsprechen und durch Korrela tion mit im Sprachspeicher 24 abgelegten Informationen fest gestellt, daß diese Wortfolge gesprochen wurde, so daß am Ausgang der Bewegungsanalyseeinrichtung 26 ein entsprechendes Signal erzeugt wird. In der Synchronprüfeinrichtung 30 wird überprüft, ob beide Signale synchron zueinander sind, so daß das synchrone Signal zu der Korrelationseinrichtung 32 durch gelassen wird, in der überprüft wird, ob dem Signal ein im Befehlsspeicher 34 abgelegter Befehl entspricht. Ist im Be fehlsspeicher 34 ein entsprechender Befehl "Scheibenwischer an" abgelegt, so sendet die Korrelationseinrichtung 32 ein entsprechendes Signal an die Steuereinrichtung 26, in der ein Steuersignal zum Inbetriebsetzen des Scheibenwischers erzeugt wird.
Es sei angenommen, der Fahrer 26 spräche das Befehlswort "Scheibenwischer an". Das Sprechen dieses Sprachbefehls wird zum einen vom Mikrofon 18 erfaßt und zum anderen von der Ka mera 12. In der Sprachanalyseeinrichtung 22 wird durch Ver gleich mit im Sprachspeicher 24 abgelegter Information ermit telt, daß die Wortgruppe "Scheibenwischer an" gesprochen wur de und am Ausgang der Sprachanalyseeinrichtung 22 erscheint ein entsprechendes Signal. In der Bewegungsanalyseeinrichtung 26 werden die Mundbewegungen analysiert, die dem Sprechen der Wortfolge "Scheibenwischer an" entsprechen und durch Korrela tion mit im Sprachspeicher 24 abgelegten Informationen fest gestellt, daß diese Wortfolge gesprochen wurde, so daß am Ausgang der Bewegungsanalyseeinrichtung 26 ein entsprechendes Signal erzeugt wird. In der Synchronprüfeinrichtung 30 wird überprüft, ob beide Signale synchron zueinander sind, so daß das synchrone Signal zu der Korrelationseinrichtung 32 durch gelassen wird, in der überprüft wird, ob dem Signal ein im Befehlsspeicher 34 abgelegter Befehl entspricht. Ist im Be fehlsspeicher 34 ein entsprechender Befehl "Scheibenwischer an" abgelegt, so sendet die Korrelationseinrichtung 32 ein entsprechendes Signal an die Steuereinrichtung 26, in der ein Steuersignal zum Inbetriebsetzen des Scheibenwischers erzeugt wird.
Wird die Wortfolge "Scheibenwischer an" vom Beifahrer 40 ge
sprochen, so läuft der geschilderte Vorgang in der Sprachana
lyseeinrichtung 22, der Bewegungsanalyseeinrichtung 42, der
Synchronprüfeinrichtung 44 und der Korrelationseinrichtung 46
ab. In der Korrelationseinrichtung 46 erfolgt keine positive
Korrelation mit einem in der Sektion II des Befehlsspeichers
34 abgelegten Befehl, da in der Sektion II nur solche Befehle
abgelegt sind, die für den Beifahrer erlaubte Befehle sind.
Entsprechend wird die Steuereinrichtung 36 nicht aktiv, wenn
der Beifahrer 40 den Befehl "Scheibenwischer an" spricht.
Durch Segmentierung der in dem Befehlsspeicher 34 abgelegten
Befehle in einzelne Sektionen, die unterschiedlichen Kameras
bzw. örtlichen Bereichen im Fahrzeuginneren zugeordnet sind,
wird somit ermöglicht, daß Sprachbefehle nur dann ausgeführt
werden, wenn sie aus einem, dem jeweiligen Sprachbefehl zuge
ordneten räumlichen Bereich des Fahrzeuginnenraums kommen.
Dabei können bestimmte Befehle durchaus allen Bereichen des
Fahrzeuginnenraums zugeordnet sein beispielsweise "Innenbe
leuchtung an" oder "Radio aus" und so weiter. Weiter ist es
möglich, daß ein Befehl "Temperatur höher" unterschiedliche
Funktionen auslöst, je nachdem, ob er vom Fahrer, Beifahrer
oder aus dem Fond gesprochen wird. In einer
Heizungs-/Klimaanlage werden dann entsprechende Funktionen ausgelöst,
die den örtlichen Bereichen zugeordnet sind.
Es versteht sich weiter, daß der Fahrer beispielsweise mit
tels einer nicht dargestellten Bedieneinheit Befehle einzel
nen örtlichen Bereichen zuordnen kann; beispielsweise kann er
Telefonfunktionen für den gesamten Innenraum freigeben, nur
für den Beifahrer freigeben usw.
In der bzw. den Synchronprüfeinrichtungen 30, 44 können ver
stümmelte Worte, die bezüglich ihrer Synchronisierung noch
erkennbar sind, die aber nicht vollständig aufgenommen sind,
beispielsweise weil der Mund der sprechenden Person teilweise
verdeckt wird oder ein Geräusch das gesprochene Wort über
deckt, durch gegenseitige Korrelation ergänzt werden, so daß
die Qualität der der Korrelationseinrichtung 32 zugeordneten
Information bzw. Worte verbessert ist.
Die Erfindung kann in vielfältiger Weise abgeändert werden.
Beispielsweise können die den unterschiedlichen Kameras zuge
ordneten Sprachanalyseeinrichtungen, Synchronprüfeinrichtun
gen und Korrelationseinrichtungen in einem gemeinsamen Hard
ware-Baustein zusammengefaßt sein, wobei die von der jeweili
gen Kamera erfaßte optische Information hinsichtlich ihrer
Kamerazuordnung gekennzeichnet wird. Die verschiedenen Sek
tionen des Befehlsspeichers 34 können dadurch ausgebildet
sein, daß den insgesamt im Befehlsspeicher 34 befindlichen
Befehlen Informationen hinsichtlich der jeweiligen örtlichen
Bereiche bzw. Kameras zugefügt sind. Die Synchronprüfung zwi
schen optischen und akustischen Informationen kann bereits
vor der Analyse hinsichtlich vorbestimmter Sprachbausteine
erfolgen, da zwischen der gesprochenen Sprache und den erfaß
ten Mundbewegungen Grundkorrelationen bestehen beispielsweise
zwischen Sprachbeginn und Beginn einer Mundbewegung. Der In
nenraum des Fahrzeugs kann in mehrere Bereiche aufgeteilt
sein, beispielsweise der Fondraum in drei nebeneinander ange
ordnete Bereiche. Das System kann auf den Außenraum erweitert
werden, der von einer oder mehreren Kameras bereichsweise
überdeckt wird.
In vereinfachter Ausführungsform kann das System dazu verwen
det werden festzustellen, ob eine Sprache überhaupt von einer
im Sichtfeld einer Kamera befindlichen Person ausgeht, indem
eine Synchronizität zwischen akustisch aufgenommener Sprache
und optisch erfaßter Mundbewegung festgestellt oder nur fest
gestellt wird, ob sich ein Mund bewegt. Liegt keine Mundbewe
gung vor, so wird eine Sprachauswertung gar nicht aktiviert,
so daß Rechnerleistung eingespart bzw. nicht unnötig ver
braucht wird.
Claims (8)
1. Verfahren zum Autorisieren von Sprachbefehlen, bei wel
chem Verfahren vorbestimmten Sprachbefehlen wenigstens ein
vorbestimmter Ort zugeordnet wird, an dem sich eine die Be
fehle sprechende Person befinden muß, damit die Sprachbefehle
ausgeführt werden,
festgestellt wird, ob sich eine einen Sprachbefehl sprechende
Person an dem Ort befindet und bei positiver Feststellung die
Ausführung der Sprachbefehle freigegeben wird.
2. Verfahren nach Anspruch 1, wobei
Sprache akustisch aufgenommen und hinsichtlich typischer Lau te analysiert wird, wenigstens eine Kamera Mundbewegungen ei ner an einem vorbestimmten Ort befindlichen Person erfaßt,
die aufgenommenen Mundbewegungen hinsichtlich typischer Mund bewegungen analysiert werden,
die typischen Mundbewegungen und die typischen Laute hin sichtlich ihrer zeitlichen Übereinstimmung verglichen werden und
bei positivem Vergleich der Ort des Sprechers als der Ort der mit der Kamera aufgenommenen Person identifiziert wird.
Sprache akustisch aufgenommen und hinsichtlich typischer Lau te analysiert wird, wenigstens eine Kamera Mundbewegungen ei ner an einem vorbestimmten Ort befindlichen Person erfaßt,
die aufgenommenen Mundbewegungen hinsichtlich typischer Mund bewegungen analysiert werden,
die typischen Mundbewegungen und die typischen Laute hin sichtlich ihrer zeitlichen Übereinstimmung verglichen werden und
bei positivem Vergleich der Ort des Sprechers als der Ort der mit der Kamera aufgenommenen Person identifiziert wird.
3. Verfahren nach Anspruch 2, wobei
typischen Mundbewegungen typische Laute zugeordnet sind und
akustisch schlecht aufgenommene Laute durch typische Laute
ersetzt werden, die zeitgleich aufgenommenen, typischen Mund
bewegungen zugeordnet sind.
4. System zum Autorisieren von Sprachbefehlen in einer mit
tels Sprachbefehlen gesteuerten Einrichtung, enthaltend
ein Mikrofon (18, 20) zur Aufnahme von Sprache,
eine dem Mikrofon nachgeschaltete Sprachanalyseeinrichtung (22) zur Analyse der Sprache hinsichtlich typischer Laute und/oder Worte,
eine Kameraeinrichtung (12, 14, 16), die Mundbewegungen einer an einem vorbestimmten Ort befindlichen Person aufnimmt,
eine der Kamera nachgeschalteten Bewegungsanalyseeinrichtung (28, 42), die die aufgenommenen Mundbewegungen hinsichtlich typischer Mundbewegungen und/oder diesen zugeordneten typi schen Lauten und/oder Worten analysiert,
eine Synchronprüfeinrichtung (30, 44), die die typischen Mundbewegungen und/oder die aus diesen abgeleiteten typischen Laute und/oder Worte hinsichtlich ihrer zeitlichen Überein stimmung mit aus der Sprachanalyse hergeleiteten typischen Lauten und/oder Worten vergleicht und bei Übereinstimmung weiterleitet, und eine Korrelationseinrichtung (32, 46), die durch Vergleich der weitergeleiteten typischen Laute und/oder Worte mit in einem Befehlsspeicher (34) gespeicherten Befeh len Befehlssignale an eine Steuereinrichtung (36) weitergibt, die die Befehle in diesen zugeordnete Steuersignale umsetzt.
eine dem Mikrofon nachgeschaltete Sprachanalyseeinrichtung (22) zur Analyse der Sprache hinsichtlich typischer Laute und/oder Worte,
eine Kameraeinrichtung (12, 14, 16), die Mundbewegungen einer an einem vorbestimmten Ort befindlichen Person aufnimmt,
eine der Kamera nachgeschalteten Bewegungsanalyseeinrichtung (28, 42), die die aufgenommenen Mundbewegungen hinsichtlich typischer Mundbewegungen und/oder diesen zugeordneten typi schen Lauten und/oder Worten analysiert,
eine Synchronprüfeinrichtung (30, 44), die die typischen Mundbewegungen und/oder die aus diesen abgeleiteten typischen Laute und/oder Worte hinsichtlich ihrer zeitlichen Überein stimmung mit aus der Sprachanalyse hergeleiteten typischen Lauten und/oder Worten vergleicht und bei Übereinstimmung weiterleitet, und eine Korrelationseinrichtung (32, 46), die durch Vergleich der weitergeleiteten typischen Laute und/oder Worte mit in einem Befehlsspeicher (34) gespeicherten Befeh len Befehlssignale an eine Steuereinrichtung (36) weitergibt, die die Befehle in diesen zugeordnete Steuersignale umsetzt.
5. System nach Anspruch 4,
wobei die Kameraeinrichtung (12, 14, 16) derart ausgebildet
ist, daß die Mundbewegungen von an unterschiedlichen vorbe
stimmten Orten befindlichen Orten erfaßbar sind und den un
terschiedlichen Orten vorbestimmte zulässige Befehle zugeord
net sind.
6. System nach Anspruch 4 oder 5, wobei
eine Speichereinrichtung (24) vorgesehen ist, in der typi
schen Mundbewegungen zugeordnete typische Laute und/oder Wor
te abgelegt sind, und die Korrelationseinrichtung (32, 46)
bei schlechter Qualität der akustisch aufgenommenen typischen
Laute und/oder Worte die den zeitgleich aufgenommenen Mundbe
wegungen zugeordneten typischen Laute und/oder Worte weiter
leitet.
7. System nach einem der Ansprüche 4 bis 6,
wobei die Kamera (12, 14, 16) den Fahrer- und Beifahrerraum
in einem Kraftfahrzeug erfaßt und die Steuersignale zur
Steuerung von Funktionen vorgesehen sind.
8. System nach Anspruch 7, wobei eine Kamera (16) den Fond
raum des Kraftfahrzeugs erfaßt.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19962218A DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19962218A DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19962218A1 true DE19962218A1 (de) | 2001-07-05 |
DE19962218C2 DE19962218C2 (de) | 2002-11-14 |
Family
ID=7933940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19962218A Expired - Fee Related DE19962218C2 (de) | 1999-12-22 | 1999-12-22 | Verfahren und System zum Autorisieren von Sprachbefehlen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19962218C2 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10156954A1 (de) * | 2001-11-20 | 2003-06-18 | Daimler Chrysler Ag | Bildgestützte adaptive Akustik |
WO2003069541A1 (en) * | 2002-02-14 | 2003-08-21 | Koninklijke Philips Electronics N.V. | Method and system for person identification using video-speech matching |
DE10208465A1 (de) * | 2002-02-27 | 2003-09-18 | Bsh Bosch Siemens Hausgeraete | Elektrisches Gerät, insbesondere Dunstabzugshaube |
DE10217778A1 (de) * | 2002-04-18 | 2003-11-06 | Volkswagen Ag | Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug |
US7162424B2 (en) | 2001-04-26 | 2007-01-09 | Siemens Aktiengesellschaft | Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language |
EP1901282A2 (de) * | 2006-09-15 | 2008-03-19 | Volkswagen Aktiengesellschaft | Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug |
DE102007002905A1 (de) * | 2007-01-19 | 2008-07-24 | Siemens Ag | Verfahren und Vorrichtung zur Aufnahme eines Sprachsignals |
DE102009051508A1 (de) * | 2009-10-30 | 2011-05-05 | Continental Automotive Gmbh | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung |
EP2798635A4 (de) * | 2011-12-26 | 2016-04-27 | Intel Corp | Bestimmung von akustischen und visuellen eingaben von insassen eines fahrzeugs |
DE102016003401A1 (de) * | 2016-03-19 | 2017-10-05 | Audi Ag | Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug |
DE102021128260A1 (de) | 2021-10-29 | 2023-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Sprachsteuerung an Bord eines Fahrzeugs |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304A1 (de) * | 1981-11-20 | 1983-06-29 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2049173C (en) * | 1990-08-16 | 1996-06-25 | Shoji Fujimoto | Speech recognition apparatus |
-
1999
- 1999-12-22 DE DE19962218A patent/DE19962218C2/de not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304A1 (de) * | 1981-11-20 | 1983-06-29 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8054988B2 (en) | 1920-04-18 | 2011-11-08 | Volkswagen Ag | Communications device for transmitting acoustic signals in a motor vehicle |
US7162424B2 (en) | 2001-04-26 | 2007-01-09 | Siemens Aktiengesellschaft | Method and system for defining a sequence of sound modules for synthesis of a speech signal in a tonal language |
DE10156954B4 (de) * | 2001-11-20 | 2004-12-23 | Daimlerchrysler Ag | Bildgestützte adaptive Akustik |
DE10156954B9 (de) * | 2001-11-20 | 2005-07-14 | Daimlerchrysler Ag | Bildgestützte adaptive Akustik |
DE10156954A1 (de) * | 2001-11-20 | 2003-06-18 | Daimler Chrysler Ag | Bildgestützte adaptive Akustik |
WO2003069541A1 (en) * | 2002-02-14 | 2003-08-21 | Koninklijke Philips Electronics N.V. | Method and system for person identification using video-speech matching |
CN1324517C (zh) * | 2002-02-14 | 2007-07-04 | 皇家飞利浦电子股份有限公司 | 采用视频-语音匹配进行人员认证的方法和系统 |
DE10208465A1 (de) * | 2002-02-27 | 2003-09-18 | Bsh Bosch Siemens Hausgeraete | Elektrisches Gerät, insbesondere Dunstabzugshaube |
DE10217778A1 (de) * | 2002-04-18 | 2003-11-06 | Volkswagen Ag | Kommunikationseinrichtung zur Übertragung akustischer Signale in einem Kraftfahrzeug |
EP1901282A2 (de) * | 2006-09-15 | 2008-03-19 | Volkswagen Aktiengesellschaft | Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug |
EP1901282A3 (de) * | 2006-09-15 | 2008-05-21 | Volkswagen Aktiengesellschaft | Sprachkommunikationssystem für ein Fahrzeug und Verfahren zum Bedienen eines Sprachkommunikationssystems für ein Fahrzeug |
US8214219B2 (en) | 2006-09-15 | 2012-07-03 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
DE102007002905A1 (de) * | 2007-01-19 | 2008-07-24 | Siemens Ag | Verfahren und Vorrichtung zur Aufnahme eines Sprachsignals |
DE102009051508A1 (de) * | 2009-10-30 | 2011-05-05 | Continental Automotive Gmbh | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung |
US9020823B2 (en) | 2009-10-30 | 2015-04-28 | Continental Automotive Gmbh | Apparatus, system and method for voice dialogue activation and/or conduct |
DE102009051508B4 (de) * | 2009-10-30 | 2020-12-03 | Continental Automotive Gmbh | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung |
EP2798635A4 (de) * | 2011-12-26 | 2016-04-27 | Intel Corp | Bestimmung von akustischen und visuellen eingaben von insassen eines fahrzeugs |
DE102016003401A1 (de) * | 2016-03-19 | 2017-10-05 | Audi Ag | Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug |
DE102016003401B4 (de) * | 2016-03-19 | 2021-06-10 | Audi Ag | Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug |
DE102021128260A1 (de) | 2021-10-29 | 2023-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Sprachsteuerung an Bord eines Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
DE19962218C2 (de) | 2002-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3238855C2 (de) | Spracherkennungseinrichtung | |
DE102004044771B4 (de) | Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug | |
DE102016212647B4 (de) | Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Innenraum und Sprachsteuerungssystem | |
DE102013222645A1 (de) | Erkennungssystem in einem Fahrzeug zur Erfassung der Sprachaktivität eines Fahrzeuginsassen | |
DE19962218C2 (de) | Verfahren und System zum Autorisieren von Sprachbefehlen | |
DE102009051508A1 (de) | Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung | |
DE102007023140A1 (de) | Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug | |
DE102015210430A1 (de) | Verfahren zum Erkennen eines Sprachkontexts für eine Sprachsteuerung, Verfahren zum Ermitteln eines Sprachsteuersignals für eine Sprachsteuerung und Vorrichtung zum Ausführen der Verfahren | |
DE112017007280T5 (de) | Fahrzeuginterne Kommunikationssteuerungsvorrichtung, fahrzeuginternes Kommunikationssystem, und fahrzeuginternes Kommunikationssteuerungsverfahren | |
WO2021023468A1 (de) | Vorrichtung und verfahren zur steuerung eines beifahrersitzes in einem fahrzeug | |
EP3430615A1 (de) | Fortbewegungsmittel, system und verfahren zur anpassung einer länge einer erlaubten sprechpause im rahmen einer spracheingabe | |
DE102017206876B4 (de) | Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Kraftfahrzeug undSprachsteuerungssystem | |
EP3254172A1 (de) | Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug | |
DE102013006086A1 (de) | Augenbewegungsgesteuertes Authentifizierungssystem sowie Verfahren zur augenbewegungsgesteuerten Authentifizierung | |
DE102018217634A1 (de) | Verfahren zum Betrieb eines Fahrzeugs sowie Fahrzeug | |
DE102012203795A1 (de) | Vorrichtung zum Einstellen und/oder Nachjustieren eines Spiegels in einem Kraftfahrzeug | |
DE102017103391A1 (de) | Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs | |
DE102004020255A1 (de) | Überwachungssystem für Fahrzeuge | |
EP1610302A1 (de) | Verfahren zur sprecherabhängigen Spracherkennung in einem Kraftfahrzeug | |
DE102004044204A1 (de) | Vorrichtung zur Betätigung von Türen | |
DE102019008743A1 (de) | Verfahren und System zur Aufnahme von Personen im lnnenraum eines Fahrzeuges | |
WO2020193123A1 (de) | Verfahren zur bereitstellung eines sprachdialogs in gebärdensprache bei einem sprachdialog-system für ein fahrzeug | |
EP4047499A1 (de) | Verfahren zur sprachsteuerung, system zur sprachsteuerung sowie fahrzeug mit einem system zur sprachsteuerung | |
DE102016011141A1 (de) | Verfahren zur Überwachung eines Zustandes zumindest eines Insassen eines Fahrzeuges | |
DE102016011016A1 (de) | Verfahren zum Betrieb eines Assistenzsystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |