DE4413788C1 - Personenidentifikation mit Bewegungsinformation - Google Patents
Personenidentifikation mit BewegungsinformationInfo
- Publication number
- DE4413788C1 DE4413788C1 DE4413788A DE4413788A DE4413788C1 DE 4413788 C1 DE4413788 C1 DE 4413788C1 DE 4413788 A DE4413788 A DE 4413788A DE 4413788 A DE4413788 A DE 4413788A DE 4413788 C1 DE4413788 C1 DE 4413788C1
- Authority
- DE
- Germany
- Prior art keywords
- movement
- person
- sequence
- evaluation
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Description
Das technische Gebiet der Erfindung ist die
Personenidentifikation mittels Auswertung von Informationen, die
der Person an sich anhaften und ohne Verwendung von
Hilfsmitteln, wie Ausweise, Schlüssel oder Geheimzahlen.
Das sichere Erkennen - und damit das Identifizieren - von
Personen ist nach wie vor technisch ungelöst. Derzeitige Ansätze
gehen davon aus, daß sich Personen über Hilfsmittel
identifizieren Beispiele dafür sind der oft gefälschte Ausweis,
die verlorengegangenen Schlüssel oder die allzu häufig
vergessene Geheimzahl). Auch Passwörter haben im heutigen Leben
nur eine kurze Lebensdauer, da sie entweder zu einfach gestaltet
sind oder von unberechtigten Personen leicht in Erfahrung
gebracht werden können. Gerade die zuletzt genannte Gefahr tritt
häufig dann auf, wenn man eilig eine Zugangsberechtigung
benötigt und das eingegebene (vermeintlich richtige) Passwort
nicht funktioniert.
Sicher Identifizierung von Personen heißt aber auch: Schützen
eines lokalen Bereiches gegen unberechtigten Zutritt. Beispiele
hier sind militärische Anlagen oder gefährdete Bereiche in
Kernkraftwerken. Auch der Zutritt zu Informationen, wie Akten
oder Geheimdienstinformationen, die in unserem Zeitalter
zunehmend Bedeutung erlangen, fordert eine genau abgestimmte
Zugangsberechtigung für Personen, abhängig von ihrer
Zuverlässigkeit und ihrem Kompetenzbereich.
Der Stand der Technik kennt die Analyse statischer Bilder, so
der Gesichtserkennung, der Erkennung von Handabdrücken oder die
Analyse von Fingerabdrücken. Aufgrund der starken Varianz im
Aussehen der Person als auch der Schwierigkeit, reproduzierbare
Aufnahmebedingungen zu schaffen, zeigen diese Systeme eine
"Ungenauigkeit", die noch so hoch ist, daß von einer "sicheren
Personenerkennung" nicht gesprochen werden kann. Sicher kann
eine Personenerkennung nur dann werden, wenn sie mit (nahezu)
100%iger Sicherheit arbeitet.
Scheinbar mit einer Bildsequenz befaßt sich die EP 82 304 B1;
die Bildsequenz, die dort Anwendung findet, ist aber nicht mehr
als eine Vorstufe, um das geeignete Momentanbild (Einzelbild) zu
lokalisieren und in einem üblichen statistischen
Vergleichsverfahren mit vorab gespeicherter Information zu
vergleichen. Um das dort als "Schlüsselereignis" bezeichnete
Momentanbild während des Sprechens eines Schlüsselwortes
aufzufinden, werden akustisch gewonnene Energiesignale
ausgewertet und bei Überschreiten eines Schwellenwertes das
relevante Einzelbild aus der fortwährend aufgezeichneten Sequenz
ausgesondert, festgehalten und ausgewertet. Zur Auswertung dient
die Verzerrung eines auf den Lippenbereich projizierten Linien- oder
Gittermusters zum Zeitpunkt des Schlüsselereignisses. Also
liegt dort eine - mit akustischer Signalauswertung kombinierte -
Einzelbildauswertung vor.
Die Erfindung schlägt zur Erreichung einer sicheren
Personenidentifizierung dagegen die technische Lehre des
Anspruches 1 vor. Sie wird ergänzt und konkretisiert mit den
Lehren der abhängigen Ansprüche 2 bis 7. Unabhängig davon
schlägt die Erfindung zur Implementierung der vorgenannten
Verfahren einen synergetischen Computer vor (Anspruch 10). Das
Lernverfahren zur Erstellung von kontrasterhöhenden Adjungierten
des Audio- und des optischen Merkmalsvektors ist Gegenstand des
Anspruchs 8. Der Audio-Merkmalsvektor kann über eine FFT aus dem
Spektrogramm; der optische Merkmalsvektor kann ebenfalls über
eine FFT aus dem optischen Fluß berechnet werden (Anspruch 9).
Anstelle des statischen Bildes des Standes der Technik verwendet
die Erfindung Bildsequenzen (Bildfolgen). Diese Bildfolgen
definieren die Bewegungsinformationen, die über die Berechnung
eines optischen Flusses (vgl. Fig. 6 oder Fig. 7) ausgewertet
wird. Um die Auswertung sicher zu gestalten, wird ein typischer
oder ein vorgegebener Bewegungsablauf verwendet, dessen
Bildsequenzen ausgewertet und mit Vergleichswerten verglichen
werden. Vor einem Vergleich kann eine Datenreduktion mittels
eines Klassifizierungs-Verfahrens erfolgen (Anspruch 7), mit der
eine Filterung großer Datenmengen möglich ist.
Die Erfindung, wie sie in ihrem Anspruch 1 mit ihren
maßgeblichen Merkmalen umrissen ist, wertet die Sequenz von
Bildern aus, in der das Einzelbild "untergeht".
Ein typischer Bewegungsablauf kann eine Gang- oder Kopfbewegung
sein (Anspruch 3); ein vorgegebener Bewegungsablauf kann die
Bewegung eines Gesichtes oder eines Teilbereiches eines
Gesichtes (Gesichtszüge) sein, die beim Sprechen eines
vorgegebenen Wortes oder Satzes entsteht (Anspruch 2). Die
typischen und vorgegebenen Bewegungsabläufe können vorteilhaft
kombiniert werden (Anspruch 4). Die Auswertung der Kombination
kann parallel oder ineinander verschachtelt verlaufen.
Zusätzlich zur Bildsequenz-Information kann die Auswertung von
statischer Bild-Information eingesetzt werden (Anspruch 5).
Die Bildsequenz-Information und die Auswertung von statischer
Bild-Information kann mit der Auswertung akustischer Information
ergänzt werden (Anspruch 6), um die Zuverlässigkeit (weiter) zu
erhöhen.
Ein synergetischer Computer zur Realisierung des
Erkennungsverfahrens im vorgenannten Sinn ist Gegenstand des
Anspruches 10; er ist z. B. in einem Tagungsband der Tagung in
Innsbruck (April 1993, Seiten 206 bis 212) näher erläutert;
allerdings nicht für den Zweck des Anspruchs 10. Der Titel
dieser Druckschrift ist "Using a Synergetic Computer in an
Industrial Classification Problem"; Gegenstand der Tagung und
Name des Tagungsbandes ist "Artificial Neural Networks and
Genetic Algorithms". Insbesondere unter der dortigen Ziffer 2
wird die hinter einem solchen synergetischen Computer stehende
Theorie erläutert, bei der einer der speziellen Algorithmen auf
die Lösung einer Matrixinversion zurückgeführt werden kann,
anstelle der Integration eines Systems von
Differentialgleichungen. Vorgeschlagen wird auch, neurale
Netzwerke zu verwenden. Das dortige Anwendungsgebiet war die
Erkennung von Kfz-Felgen, die einem Gieß- oder Spritzguß-
Verfahren entstammen. Dabei verbleiben Reste von Aluminium (oder
anderem Metall) an den Felgen, die eine genaue Erfassung
erschweren. Hinzu kommt, daß die Position der zu erfassenden
Felgen ebenso wie die Orientierung vielfältig und dem System
nicht bekannt ist.
Auf einer anderen Konferenz IECON 1992 in San Diego, California,
vom 9. bis zum 13. November 1992 ist in einem Vortrag von
Yamasaki und Takahashi ein adaptives Tonerfassungs-System
vorgeschlagen worden, bei dem visuelle Effekte ergänzend
herangezogen wurden, um auch in der (technischen)
Erkennungstechnik den (humaneigenen) "Cocktailparty-Effekt" zu
realisieren. Dieser Effekt äußert sich dadurch, daß ein Mensch
in der Lage ist, mit seinen Sinnen trotz eines erheblichen
Hintergrundgeräusches und eines sehr schlechten
S/R-Verhältnisses (S/N-Ratio) bestimmte ihn interessierende
Information herauszufiltern. Diese menschliche Eigenschaft ist
heute weder genau erforscht noch kann sie in der hohen Qualität
technisch reproduziert werden. Ziel des vorgenannten Vortrages
war es also, ein Tonsignal von einer Quelle (einem gesprochenen
Satz von einer Person) aus einer Vielzahl von unterschiedlichen
Umgebungsgeräuschen herauszufiltern und dabei das Signal/Rausch-
Verhältnis zu verbessern. Als Anwendungsgebiet nennt der Vortrag
die Erfassung von fehlerhaften Maschinenkomponenten (durch
Erkennen "seltsamer" Geräusche) oder die Erfassung von
menschlichen Stimmen in lärmender Umgebung (als Mensch/Maschine-
Interface, bei dem eine Person der Maschine auf akustischem Wege
mitteilt, welche weiteren Schritte sie einsetzen soll). Die im
Vortrag erwähnte Technik verwendet neben akustischen
Informationen optische Informationen und verbindet diese beiden
Informationsquellen, so daß eine "Sensor-Fusion" entsteht. Die
Verbindung der beiden Informationen erfolgt in zwei Ebenen,
einem Ton-Untersystem und eine Visual-Untersystem.
Anders als die vorgenannten Ansätze verwendet die Erfindung
maßgeblich eine Bildsequenz und den optischen Fluß zur
Erreichung einer sicheren (hochgenauen) Personenidentifikation.
Erst zusätzlich können akustische Informationen herangezogen
werden oder statische Bilder ausgewertet werden.
Das Verständnis der Erfindung soll an einem Ausführungsbeispiel
vertieft werden.
Fig. 1 zeigt ein Beispiel der visuellen und akustischen
Erfassung von Informationen, die von einer schematisch
dargestellten Person 2 ausgehen.
Fig. 2 veranschaulicht einen vorgegebenen Bewegungsablauf
anhand von (schematisch in Folge dargestellten) Gesichtszügen 2a
bis 2e über der (senkrecht verlaufenden) Zeitachse t. Die
Gesichtszüge werden von einer Hochgeschwindigkeitskamera 10
aufgezeichnet.
Fig. 3 ist eine Darstellung des optischen Auswertepfades, mit
dem die Bildsequenzen verarbeitet werden, namentlich über ein
Flußvektor-Feld und ein solches mit reduzierter Auflösung hin zu
einem hochdimensionalen Merkmalsvektor, der in ein
Klassifikationsverfahren eingespeist wird. Das
Klassifikationsverfahren kann in einem synergetischen Computer
programmiert sein.
Fig. 4 ist ein mit Fig. 3 korrespondierender akustischer
Auswertepfad, in dem die akustischen Signale digitalisiert und
als Spektrogramm dargestellt werden. Der Weg führt auch hier
über einen eindimensionalen Merkmalsvektor, der in ein
Klassifikationsverfahren eingespeist wird, das in einem
synergetischen Computer programmiert sein kann.
Fig. 5 zeigt die Kombination der beiden Auswerteverfahren,
wobei die optische und akustische Vorverarbeitung als
Blockschaltbild jeweils diejenigen Auswerteschritte der
Fig. 3 bzw. 4 beinhalten, die vor dem eindimensionalen
Merkmalsvektor liegen. Die Ausgangssignale der optischen
Klassifikation und der akustischen Klassifikation werden in
einer Verknüpfung 20 zusammengefaßt und ergeben das
Auswertesignal E, das bei Verwendung zur Personen-Identifikation
die Aussage ist, ob die das Kennwort sprechende Person eine der
vorgespeicherten Personen ist.
Die Fig. 6 veranschaulicht anhand einer Lippenfolge beim
Sprechen einer Person den Bewegungsablauf, der zum optischen
Fluß von der Schaltung gemäß Fig. 3 umgesetzt wird. Die weißen
Richtungspfeile sind charakteristisch für die Bewegung
bestimmter Bereiche der Lippengegend.
Fig. 7a, 7b und 7c veranschaulichen einen beispielhaften
anderen Bewegungsablauf, hier zwei Bilder einer aufgezeichneten
Bildsequenz und das sich daraus ergebende Flußvektor-Feld in
Fig. 7c. Deutlich ist die Bewegung des Balles mit Richtung und
Rotation erkennbar, ebenso wie die Bewegung des Armes des
Kindes, obwohl in den beiden nebeneinandergestellten
Momentanbildern gemäß Fig. 7a und 7b nahezu kein Unterschied
erkennbar ist. Deutlich - geradezu überdeutlich - wird der
Bewegungsablauf also mit dem Flußvektorfeld gemäß Fig. 7c, das
mit der Schaltung gemäß Fig. 3 berechnet werden kann.
In der Fig. 1 ist eine Person schematisch mit 2 dargestellt.
Ein vorgegebener Bewegungsablauf der Gesichtszüge der
(schematisch dargestellten) Person 2 ist in Fig. 2 mit 2a
bis 2e veranschaulicht.
Das System zur Erkennung der Person 2 verwendet in diesem
Beispiel eine Hochgeschwindigkeits-Kamera 10, die auf die
Person 2 gerichtet ist, sowie ein Mikrofon 12, das Sprachsignale
aufzeichnen kann. Die optischen Signale der Kamera 10 und die
Tonsignale des Mikrofons 12 werden einer Ansteuerelektronik 11
zugeführt. Diese Ansteuerelektronik 11 kann die Signale so
aufbereiten, daß sie einem Rechner 1 zur Auswertung zugeführt
werden können. Dabei ist es sowohl möglich, der
Ansteuerelektronik bereits Analog/Digitalwandler bei zugeben als
auch diese Analog/Digitalwandler in der Auswerteeinheit 1 selbst
anzuordnen, so daß die Kopplungen zwischen den Bildinformations-
Quellen 10 und 12 auf analoger Basis vorgenommen werden.
Der Verfahrensablauf im Beispiel der Fig. 1 und 2 beginnt mit
der Vorgabe eines Wortes, Satzes oder Kennwortes, z. B. dem Namen
der zu erkennenden Person. Die Hochgeschwindigkeits-Kamera 10
und das Mikrofon 12 nehmen die dabei entstehenden Signale
gleichzeitig auf und leiten sie der Ansteuerelektronik 11 zu.
Beim Sprechen des Wortes oder Satzes werden die Bewegungen des
Gesichts oder eines Teilbereiches davon aufgezeichnet. Ein
Klassifikationsverfahren ist in der Auswerte-Einheit
programmiert, um zu große Datenmengen auf ein auswertbares Maß
zu reduzieren. Zuvor oder danach wird der optische Fluß der
Gesichtsmimik errechnet und anhand von Vergleichswerten mit
hoher Sicherheit eine der "gespeicherten Personen"
wiedererkannt. Wird keine Übereinstimmung zwischen den
vorgespeicherten Daten und der den Zugang oder Zutritt
anfordernden Person erkannt, so besteht die Möglichkeit der
Wiederholung der vorgenannten Vorgehensweise. Bei höheren
Sicherheitsstufen kann es auch ratsam sein, diese Wiederholung
nicht vorzunehmen und die Berechtigung sogleich abzulehnen.
Detaillierter ergibt sich die Auswertung in der Auswerteeinheit 1
dadurch, daß der optische Fluß aus der Bildsequenz der
Hochgeschwindigkeitskamera 10 berechnet wird, der die
Bewegungsinformation in komprimierter Form - jedoch nicht
beliebig genau - wiedergibt. Die Bewegungsinformation setzt sich
dabei aus einer Mehrzahl von Abtastwerten der Gesichtszüge
zusammen, so daß fiktive Punkte des Gesichts eine bestimmte
Bewegung oder Bewegungskurve beschreiben, die mit dem optischen
Fluß (vgl. Horn und Schunk, "Determining Optical Flow",
Artificial Intelligence, Vol. 17, 1981, Seiten 185 bis 203)
festgelegt werden. Die akustischen Daten werden mit einer
Kurzzeit-Fourier-Transformation (FFT) ausgewertet, um die
vorhandene Frequenzinformation adäquat darzustellen.
Das in der Auswerteeinheit 1 programmierte Verfahren und die
Ansteuerelektronik 11 der Fig. 1 und 2 finden sich in den
Fig. 3, 4 und 5 wieder. Eingangsgröße in Fig. 3 ist das
optische Signal über die Kamera 10, Ausgangsgröße ist eine
erkannte Person oder ein Erkennungssignal EB. Eingangsgröße in
Fig. 4 ist ein akustisches Signal über das Mikrofon 12,
Ausgangsgröße ist das Erkennungssignal EA. Beide Ausgangsgrößen
können in einer Verknüpfung 20 kombiniert werden und bilden das
Ausgangssignal E, das für eine erkannte Person stehen kann. Die
Verknüpfung 20 kann als einfaches UND-Gatter ausgestaltet sein.
Das in Fig. 3 dargestellte optische Verarbeitungssystem
verarbeitet eine echte Bildsequenz und diese Bildsequenz
repräsentiert sich in dem eindimensionalen Merkmalsvektor, der
dem Klassifikationsverfahren zugeleitet wird. Die
aufeinanderfolgenden Bilder der Kamera 10 werden in eine
digitale Bildsequenz umgesetzt, aus ihnen wird ein Flußvektor-
Feld (Flußsequenz) errechnet, die anhand der Fig. 6 und 7
noch erläutert wird; die Flußsequenz ist ein Bild von
Vektorpfeilen. Diese entstandene Flußsequenz wird umgesetzt in
eine solche mit reduzierter Auflösung (Mittelung), um die
Datenmenge zu beschränken.
Die Flußsequenz mit reduzierter Auflösung kann nochmals fourier
transformiert werden, wenn eine Lage-Invarianz des Bildes oder
der Person erwünscht ist.
Das Ergebnis ist der eindimensionale Merkmalsvektor, der der
Klassifikation zugeführt wird und aus dem das
Erkennungssignal EB abgeleitet ist.
In vergleichbarer Weise arbeitet die akustische Auswertung gemäß
Fig. 4. Das digitalisierte Akustiksignal bildet ein
Spektrogramm, bei dem die hohen Amplituden hell dargestellt sind
und die geringen Amplituden dunkel erscheinen. Jede Linie ist
repräsentativ für eine Abtastzeit.
Auch hier kann eine Koordinaten-Transformation erfolgen, für
akustische Signale bietet sich eine logarithmische
Transformation an. Mittels dieser Transformation erreicht man
eine Tonhöhen-Invarianz, die vergleichbar ist mit der Lage
Invarianz bei der optischen Auswertung gemäß Fig. 3.
Der eindimensionale Merkmalsvektor, der für die akustischen
Signale gemäß Fig. 4 gebildet wird, wird der Klassifikation
überreicht, die daraus das Ausgangssignal EA bildet.
Die Klassifikations-Verfahren der Fig. 3 und 4 können auf
einem synergetischen Computer programmiert sein.
Die Kombination der Verfahren gemäß Fig. 3 und 4 ist in Fig. 5
dargestellt. Jede Datenquelle (akustisch, optisch) extrahiert
auf dem beschriebenen Weg geeignete Merkmale, die die akustische
Information bzw. die Bildsequenz-Information bestmöglich
repräsentieren. Diese Merkale werden in den eindimensionalen
Zahlenvektoren festgehalten und der Klassifikation zur Bildung
der Ausgangssignale EB oder EA übergeben.
Bevor auf die Auswertung in der Klassifikation und den dort auch
programmierten Lernalgorithmus eingegangen wird, soll der
optische Fluß anhand der Fig. 6 und 7a, 7b bzw. 7c erläutert
werden.
Der optische Fluß in Fig. 6 ist z. B. derjenige eines
Lippenbereiches. Fiktive Punkte haben die weiß dargestellten
Bewegungen, die hinsichtlich Länge und Richtung ausgewertet
werden können. Bei der Bewegung sind im wesentlichen nur
Vektoren des entstehenden Flußvektor-Feldes zu erkennen, die in
vertikaler Richtung verlaufen. Anders ist der Sachverhalt bei
einer Rotationsbewegung, beispielsweise des Balles gemäß
Fig. 7a, 7b. Dort ist in dem Flußvektor-Feld der Fig. 7
erkennbar, daß der Ball rotiert. Die Flußvektoren sind also in
der Lage, jede Bewegung von fiktiven Punkten auszuwerten und
selbst bei statischen, kaum erkennbaren Unterschieden, deutliche
Vektoren aufzuzeigen, die den Bewegungsablauf festlegen und
markant beschreiben können.
Ebenfalls erkennbar ist die Bewegung des Armes des Kindes und
des Knies des Kindes, das in den Fig. 7a und 7b dargestellt
ist. Der Kopf ist nahezu unbeweglich.
In den Fig. 3, 4 und 5 ist ein Lernalgorithmus angegeben. Er
dient der Festlegung der bestimmten, dem System bekannten
Personen. Bei einem solchen Lernverfahren auf einem
synergetischen Computer wird entweder für den optischen oder für
den akustischen Informationspfad die Vielzahl der Merkmale, die
für jede Klasse berechnet worden ist, zu adjungierten Prototypen
umgerechnet. Für jede Klasse - jede Klasse entspricht einer
Person - existiert ein adjungierter Prototyp. Diese Adjungierte
hat die Eigenschaft, diejenigen Merkmale in der Bewertung stark
zu berücksichtigen, die signifikante Unterschiede zwischen
einzelnen Klassen (einzelnen Personen) aufzeigen, während andere
Merkmale, die in allen Klassen nahezu gleich sind, stark
unterdrückt werden. Sie ist "kontrastbildend".
Mittels des Lernverfahrens werden die adjungierten Prototypen
berechnet, diese adjungierten Prototypen ermöglichen die
zielstrebige Klassifikation von noch unbekannten optischen oder
akustischen Merkmalsvektoren.
Ist das Lernverfahren einmal ausgeführt und besteht ein
Datensatz an Klassen, so können zu erkennende Personen (ein zu
klassifizierender Merkmalsvektor oder ein zu klassifizierendes
Muster) leicht erkannt werden. Der Merkmalsvektor wird gemäß den
Schaltungen von Fig. 3 und Fig. 4 bzw. Fig. 5 erstellt und
dann der Klassifikation übergeben, die auf die gelernten Klassen
zurückgreifen kann.
Die bereits gelernten adjungierten Prototypen, die die
Eigenheiten jeder einzelnen Klasse (jeder einzelnen Person) zum
Ausdruck bringen, werden im Klassifikationsmodus dann dem noch
unbekannten Merkmalsvektor zugeordnet und als "schon dagewesen"
erkannt oder als unbekannt zurückgewiesen.
Eine vorteilhafte Ergänzung dieser Sequenz- und Akustik-
Auswertungen bildet die Auswertung von Einzelbildern der
aufgezeichneten Bildsequenz. Als geeignete Einzelbilder haben
sich das Anfangs- und Endbild eines kurzen Zeitabschnittes
erwiesen, in dem die dynamische Erkennung erfolgt; sie können
zusätzlich als Informationsquelle für die Festlegung der zu
identifizierenden Person herangezogen werden.
Werden alle drei Datenquellen kombiniert, so können diese drei
Sensor-Eingangssignale in ein Klassifikations-Verfahren
eingegeben werden, das wie zuvor erläutert arbeitet.
Die vorerwähnte Verfahrensweise zur Erkennung von Personen hat
in einem Versuchsaufbau ergeben, daß unabhängig von der
Umgebungsbedingung (Hintergrund, Skalierung, Lichteinfluß)
zuverlässige Identifikationsraten erhalten werden.
Besonders vorteilhaft ist an dem beschriebenen Verfahren, daß
die zu identifizierende Person keine Hilfsmittel, wie Schlüssel
oder Ausweise verwenden muß. Auch sind keine Markierungen oder
Kennzeichnungen an der jeweiligen Person erforderlich. Die der
Identifikation zugrundeliegenden Bewegungsabläufe, das Sprechen
von vorgegebenen Worten oder das Ausführen typischer
Bewegungsabläufe, kann häufig gewechselt werden, so daß eine
nicht zugangsberechtigte Person sich auf die jeweilige
Erkennungsprobe nicht vorbereiteten oder einstellen kann.
Claims (10)
1. Verfahren zur Personenidentifikation, bei dem
Bewegungsinformation aus Bildsequenzen (Fig. 2 oder
Fig. 6), die aufgrund eines - typischen oder vorgegebenen -
Bewegungsablaufs an bzw. von der Person entstehen,
aufgezeichnet (10), ausgewertet und mit Vergleichswerten
verglichen werden.
2. Verfahren nach Anspruch 1, bei dem
der vorgegebene Bewegungsablauf die Bewegung der
Gesichtszüge der zu erkennenden Person beim Sprechen eines
vorgegebenen Wortes oder Satzes ist.
3. Verfahren nach Anspruch 1, bei dem
der typische Bewegungsablauf eine Gang- oder Kopfbewegung
der zu identifizierenden Person ist.
4. Verfahren nach Anspruch 2 und 3, bei dem
ein typischer Bewegungsablauf mit einem vorgegebenen
Bewegungsablauf kombiniert erfaßt wird.
5. Verfahren nach einem der erwähnten Ansprüche, bei dem
die Auswertung des Bewegungsablaufs (typisch und/oder
vorgegeben) mit der Auswertung von statischen Bildern
kombiniert wird.
6. Verfahren nach einem der erwähnten Ansprüche, bei dem
die Auswertung der Bildsequenzen und/oder der statischen
Bilder mit der Auswertung von Audioinformation kombiniert
(20) wird.
7. Verfahren nach einem der erwähnten Ansprüche, bei dem
ein Klassifikations-Verfahren vorgesehen ist, daß
insbesondere ein Vergleich des unbekannten Merkmalsvektors
mit adjungierten Prototypen ist, die aufgrund eines
Lernverfahrens erhalten wurden.
8. Lernverfahren für ein Personen-Identifikationsverfahren,
bei dem
- (a) zu einem - aus der optischen Bildsequenz (10) und dem aus dem optischen Flußvektor-Feld ermittelten - Merkmalsvektor eine Adjungierte errechnet wird, die als Klasse dem Klassifikations-Verfahren zur Verfügung steht; oder/und
- (b) aus dem akustischen Signal (12) ein Spektrogramm gebildet wird, das in einen Merkmalsvektor umgesetzt und zu einer Adjungierten umgerechnet wird.
9. Lernverfahren nach Anspruch 8, bei dem
die Merkmalsvektor-Bildung über eine zwischengeschaltete
Fourier-Transformation erfolgt.
10. Verwendung eines synergetischen Computers für eine
Personenidentifizierung gemäß einem der vorhergehenden
Ansprüche.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4413788A DE4413788C1 (de) | 1994-03-15 | 1994-04-20 | Personenidentifikation mit Bewegungsinformation |
AT95912136T ATE182707T1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
US08/716,247 US6101264A (en) | 1994-03-15 | 1995-03-14 | Person identification based on movement information |
DE59506480T DE59506480D1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
EP95912136A EP0758471B1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
PCT/DE1995/000351 WO1995025316A1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4408792 | 1994-03-15 | ||
DE4413788A DE4413788C1 (de) | 1994-03-15 | 1994-04-20 | Personenidentifikation mit Bewegungsinformation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4413788C1 true DE4413788C1 (de) | 1995-10-12 |
Family
ID=6512858
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4413788A Expired - Fee Related DE4413788C1 (de) | 1994-03-15 | 1994-04-20 | Personenidentifikation mit Bewegungsinformation |
DE59506480T Expired - Lifetime DE59506480D1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE59506480T Expired - Lifetime DE59506480D1 (de) | 1994-03-15 | 1995-03-14 | Personenidentifikation mit bewegungsinformation |
Country Status (1)
Country | Link |
---|---|
DE (2) | DE4413788C1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
WO2000043960A1 (de) * | 1999-01-19 | 2000-07-27 | Bioid Ag | Verfahrend und system zur fälschungssicherung bei biometrischer personenerkennung |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304B1 (de) * | 1981-11-20 | 1986-05-07 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
ATE72083T1 (de) * | 1985-11-14 | 1992-02-15 | British Telecomm | Bildkodierung und synthese. |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
EP0582989A2 (de) * | 1992-08-11 | 1994-02-16 | Istituto Trentino Di Cultura | Erkennungssystem, insbesonders zum Erkennen von Personen |
-
1994
- 1994-04-20 DE DE4413788A patent/DE4413788C1/de not_active Expired - Fee Related
-
1995
- 1995-03-14 DE DE59506480T patent/DE59506480D1/de not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0082304B1 (de) * | 1981-11-20 | 1986-05-07 | Siemens Aktiengesellschaft | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens |
ATE72083T1 (de) * | 1985-11-14 | 1992-02-15 | British Telecomm | Bildkodierung und synthese. |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
EP0582989A2 (de) * | 1992-08-11 | 1994-02-16 | Istituto Trentino Di Cultura | Erkennungssystem, insbesonders zum Erkennen von Personen |
Non-Patent Citations (2)
Title |
---|
Artificial Intelligence, Vol. 17, 1981,pp.185-203 * |
Tagungsband "Artificial Neural Networks and Gen Algorithms", Innsbruck, April 1993, S. 206-212 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
WO1999046737A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Für Neuroinformatik Gmbh | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes |
WO2000043960A1 (de) * | 1999-01-19 | 2000-07-27 | Bioid Ag | Verfahrend und system zur fälschungssicherung bei biometrischer personenerkennung |
Also Published As
Publication number | Publication date |
---|---|
DE59506480D1 (de) | 1999-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0758471B1 (de) | Personenidentifikation mit bewegungsinformation | |
DE4436692C2 (de) | Trainingssystem für ein Spracherkennungssystem | |
DE69328982T2 (de) | Gesichtsklassifizierung | |
DE10158990C1 (de) | Videoüberwachungssystem | |
DE69131689T2 (de) | Gleichzeitige sprecherunabhängige sprachererkennung und sprecherverifikation über einen fernsprechnetz | |
DE69031189T2 (de) | Sprachverifizierungseinrichtung zur Prüfung der Identität des Benutzers einer Telefonkreditkarte | |
EP0082304B1 (de) | Verfahren zur Identifizierung einer Person unter Verwendung von Sprach-und Gesichtserkennung und Einrichtung zur Durchführung des Verfahrens | |
DE69800009T2 (de) | Verfahren und Gerät zur Überprüfung statischer Unterschriften mittels dynamischer Information | |
DE69332721T2 (de) | Dynamisches hochpräzisions-on-line-unterschriftprüfungssystem | |
DE69331254T2 (de) | Erkennungssystem zum Erkennen von Personen | |
DE102011001319B4 (de) | Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung | |
DE69636057T2 (de) | Sprecherverifizierungssystem | |
DE60000403T2 (de) | Vorrichtung und Verfahren zur Modelladaption, Speichervorrichtung und Mustererkennungsvorrichtung | |
DE4310190A1 (de) | Sprecher-Verifizierungssystem unter Verwendung der Abstandsmessung nächster Nachbarn | |
DE10030105A1 (de) | Spracherkennungseinrichtung | |
DE2422028A1 (de) | Schaltungsanordnung zur identifizierung einer formantfrequenz in einem gesprochenen wort | |
EP2756458A1 (de) | Maschinelles lernverfahren zum maschinellen erlernen von erscheinungsformen von objekten in bildern | |
DE102020203475A1 (de) | Anonymisierungseinrichtung, Überwachungsvorrichtung, Verfahren, Computerprogramm und Speichermedium | |
DE69512961T2 (de) | Spracherkennung auf Grundlage von "HMMs" | |
DE4413788C1 (de) | Personenidentifikation mit Bewegungsinformation | |
WO2022013045A1 (de) | Verfahren zum automatischen lippenlesen mittels einer funktionskomponente und zum bereitstellen der funktionskomponente | |
DE3784872T2 (de) | Persoenliche stimmuster tragendes kartensystem. | |
Teissier et al. | Models for audiovisual fusion in a noisy-vowel recognition task | |
Grigoriev | Service for Monitoring and Control of Remote Testing by Video Information | |
DE4435272C2 (de) | Verfahren und Vorrichtung zum Extrahieren eines visuellen Merkmalvektors aus einer Folge von Bildern sowie Spracherkennungsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DENCOM LTD., LLC, WILMINGTON, DEL., US |
|
8328 | Change in the person/name/address of the agent |
Representative=s name: LEONHARD OLGEMOELLER FRICKE, 80331 MUENCHEN |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20121101 |