DE60209760T2 - Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität - Google Patents

Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität Download PDF

Info

Publication number
DE60209760T2
DE60209760T2 DE60209760T DE60209760T DE60209760T2 DE 60209760 T2 DE60209760 T2 DE 60209760T2 DE 60209760 T DE60209760 T DE 60209760T DE 60209760 T DE60209760 T DE 60209760T DE 60209760 T2 DE60209760 T2 DE 60209760T2
Authority
DE
Germany
Prior art keywords
facial
face
image
imaging system
camera unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60209760T
Other languages
English (en)
Other versions
DE60209760D1 (de
Inventor
A. Gary North Gower VAN BEEK
James Andrew Ottawa ADLER
Daniel Marius Ottawa CORDEA
Adrian Simion Ottawa MOICA
R. William Merrickville ROSS
F. Joel Stittsville SHAW
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cryptometrics Inc
Original Assignee
Cryptometrics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cryptometrics Inc filed Critical Cryptometrics Inc
Application granted granted Critical
Publication of DE60209760D1 publication Critical patent/DE60209760D1/de
Publication of DE60209760T2 publication Critical patent/DE60209760T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/186Video door telephones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Alarm Systems (AREA)

Description

  • Erfindungsgebiet
  • Die Erfindung bezieht sich das Gebiet der Gesichtsbild-Fotografie und Identitätsbestätigung unter Verwendung von Gesichtsbildern und insbesondere auf die Einrichtung, mit der Gesichter aufgenommen und die Identität bestätigt werden können, und zwar unter Verwendung von Gesichtsbildern, die automatisch in Sicherheitsbereichen erhalten werden (d. h. ohne menschliche Einwirkung), wo die Bewegung von Menschen nicht durch Begrenzungen festgelegt werden kann.
  • Hintergrund der Erfindung
  • In einer Welt, in der der erwartete Terrorismus eine wachsende Bedrohung darstellt, besteht ein Bedarf, Individuen rasch zu sichten und abzubilden oder zu identifizieren, die Zugang zu bestimmten beschränkten Bereichen anstreben, beispielsweise Flughäfen, Sportstadien, politische Versammlungen, Gesetzgebungskörperschaften, gesellschaftliche Meetings, usw. Außerdem besteht ein Bedarf, Individuen, die Zugang zu einem Land durch dessen Vielzahl von Eintrittshäfen anstreben, auszusortieren und aufzunehmen oder zu identifizieren. Eine der Möglichkeiten zur Identifizierung derartiger Individuen ist die biometrische Identifikation, die Gesichtserkennungstechniken benutzen, welche sich eine Vielzahl von Messungen einzigartiger Gesichtsmerkmale einer Person als Mittel zur Identifikation zu eigen machen. Einige der Probleme, die mit der Gesichtserkennung als Mittel einer raschen Aussortierung und Identifizierung einzelner Personen, die Zugang zu einem Sicherheitsbereich anstreben, verbunden sind, sind der eine geringe Geschwindigkeit aufweisende Bildherstellung, die schlechte Qualität der erhaltenen Bilder und die Notwendigkeit, derartige Systeme human zu betreiben.
  • Versuche in der Vergangenheit, diese Probleme zu lösen, haben zur Entwicklung einer besonderen hochauflösenden Videokamera geführt, die zur Überwachung eines Sicherheitsbereiches benutzt wird, der zu einem Eingang führt. Typischer weise wurde eine fixe Brennweitenlinse an der Kamera benutzt. Software diente zur Analyse des Videobildes, um Gesichtsbilder festzustellen und abzuleiten, die in den Sicherheitsbereich eintreten. Diese Bilder wurden aufgenommen, gespeichert und der Gesichtserkennungs- und Vergleichs-Software übermittelt, um zu versuchen, die Individuen zu identifizieren und ihr Zugangsrecht zu dem Bereich zu verifizieren. Eines der Hauptprobleme derartiger Systeme besteht darin, daß die Videodaten eine geringe Auflösung haben und zu "geräuschvoll" sind, um folgerichtig gute Ergebnisse zu erzielen. Derartige Systeme arbeiten nur dann einigermaßen gut, wenn der Sicherheitsbereich klein ist und die Abstände zwischen den Zielen, die den Sicherheitsbereich betreten, und der Überwachungskamera, relativ konstant. Wenn der Sicherheitsbereich erweitert und/oder versucht wird, die Ziele an sich ändernde Abstände der Kamera anzupassen, so führt dies zu gewissen Zielen, die eine zu geringe Auflösung im Videobild haben, um eine angemessene Analyse für eine genaue Gesichtserkennung zu ermöglichen. Der Hauptnachteil solcher Systeme ist daher darin zu sehen, daß sie nur über einen sehr kleinen Winkel- und Tiefenbereich erfolgreich arbeiten. Die erreichte Bildqualität und damit der Erfolg der Gesichtserkennung auf derartigen Bildern ist unbefriedigend.
  • Andere vorhandene Systeme benutzen zwei Kameras, die eine als stationäre Weitwinkelkamera zur Überwachung des Sicherheitsbereiches und zur Ermittlung von Gesichtern, und ein zweite mit einem engeren Beobachtungsfeld, die mit Hilfe von Schwenk-, Neigungs- und Zoomfunktionen auf die Gesichter fokussiert werden kann, die von der ersten Kamera zum Zwecke der Gesichtsbilderfassung und ihrer Übermittlung zur Gesichtserkennung und zum Gesichtsvergleich an eine Datenbank identifiziert worden sind. Bei diesem Verfahren ist die zweite Kamera in der Lage, hochaufgelöste Bilder zu erhalten, die für eine genaue Gesichtserkennung erforderlich sind. Der Hauptnachteil dieser Systeme besteht jedoch darin, daß dann, wenn der Abstand von der ersten Kamera sich vergrößert, es schwierig wird, ein Ziel innerhalb eines Beobachtungsfeldes, das ein Gesicht enthält, zu erkennen. Des weiteren sind die motorisierten Schwenk-, Neigungs- und Zoomvor gänge der zweiten Kamera relativ langsam. Infolgedessen kann das System nur eine Person zu einem bestimmten Zeitpunkt erfassen.
  • Die US-6 122 445 offenbart eine Kamera, die einer separaten Wegefeststellungseinrichtung zugeordnet ist.
  • Eine andere Lösung besteht darin, motorisierte Neigungs-, Schwenk- und Zoomkameras zu benutzen, die von einem menschlichen Operator fernbedient werden, um einen Sicherheitsbereich zu überwachen. Derartige Systeme werden gewöhnlich dazu benutzt, große Flächen oder Gebäude zu überwachen. Eine Vielzahl von Kameras können hier Verwendung finden und normalerweise arbeitet jede mit einem Weitwinkelobjektiv. Wenn der Benutzer etwas von Interesse feststellt, kann er/sie durch Benutzung der motorisierten Steuerung den Zoom betätigen und ein Bild vom Gesicht einer Person für die Zwecke der Gesichtserkennung erhalten. Der Nachteil solcher Systeme besteht darin, daß sie die Präsenz eines Benutzers erfordern, um festzustellen und zu entscheiden, wenn die Gesichtsbilder zu machen sind. Ein solches System ist gewöhnlich zu langsam, so daß nicht mehr als eine Person gleichzeitig abgelichtet werden kann.
  • Noch eine andere Lösung besteht darin, Personen, die in einen Sicherheitsbereich eindringen wollen, zu veranlassen, einzeln langsamen Schrittes durch eine Überwachungszone zu gehen, was im wesentlichem dem Durchgang durch einen Metalldetektor in einem Airport gleicht. Eine einzelne, mit einem festen Fokus versehene Kamera ist in einem vorgegebenen Abstand angeordnet, um ein Bild des Gesichts der betreffenden Person zwecks Gesichtsvergleich und Gesichtserkennung aufzunehmen. Ein solches System beschränkt Jedoch ernsthaft den Personenfluß in den Sicherheitsbereich hinein und ist in vielen Fällen, beispielsweise in Sportstadien, völlig unbrauchbar. Darüber hinaus benötigt auch dieses System noch eine Operator, um sicherzustellen, daß die Kamera direkt auf das Gesicht einer Person gerichtet wird, und weist keinerlei Mittel auf, die sicherstellen, daß die richtige Bildeinstellung erhalten wird.
  • Aus dem obigen ergibt sich, daß ein Bedürfnis nach einem automatisierten Gesichtsbild-Erzeugungssystem besteht, das die Nachteile des Standes der Technik überwindet, indem es die Möglichkeit bietet, qualitativ hochwertige Gesichtsbilder von Personen, die in einen Sicherheitsbereich eintreten, rasch einzufangen und aufzunehmen und diese Bilder gewünschtenfalls einem Gesichtsvergleich und einer Identifizierung zugänglich zu machen. Es wäre vorteilhaft, wenn ein solches System ein automatisiertes, sehr genaues, schnelles Gesichtsermittlungs- und Gesichtsaufspürsystem aufweist, um das Einfangen von Gesichtsbildern zu erleichtern, und zwar zum Zwecke der Aufzeichnung und/oder des Gesichtsvergleiches und der Gesichtserkennung.
  • Zusammenfassung der Erfindung
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, die obigen Nachteile durch Schaffung eines Gesichtsbildsystems zur überwinden, um rasch Gesichtsbilder von Zielpersonen innerhalb eines Sicherheitsbereiches zu ermitteln und qualitativ hochwertige Bilder von solchen Gesichtern zu machen, um sie aufzuzeichnen und/oder in Gesichtserkennungssystemen zum Zwecke der Gesichtsverifikation, Gesichtserkennung und des Gesichtsvergleiches zu benutzen.
  • Eine andere Aufgabe der Erfindung besteht darin, ein Kamerasystem für ein Gesichtsbildsystem zu schaffen, das in der Lage ist, eine Vielzahl von Zielgesichtern innerhalb eines Sicherheitsbereiches aufzuspüren und qualitativ hochwertige Bilder dieser Gesichter zur Aufzeichnung und/oder zur Benutzung in Gesichtserkennungssystemen zum Zwecke der Gesichtsverifikation, Gesichtserkennung und des Gesichtsvergleiches zu machen.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist darin zu sehen, ein Gesichtsbildsystem zu entwickeln, das Gesichtsbilder ausreichender Größe und Auflösung erzeugt, und zwar gemäß den Erfordernissen bekannter Gesichtserkennungs- und Gesichtsvergleichssysteme, um es solchen Systemen zu ermöglichen, mit einem spitzen Wirkungsgrad zu arbeiten und besonders gute Ergebnisse bei der Gesichtsidentifikation und Gesichtsvergleich zu erreichen.
  • Noch eine weitere Aufgabe der Erfindung besteht darin, ein Gesichtsabbildungssystem zu schaffen, das Bereichsmeßdaten verwendet, die von einer Bereichsmeßdateneinheit oder einer anderen Einrichtung geliefert werden, sowie Videobilddaten, um die Gesichtsbildermittlung und die Gesichtsbildaufspürung zu unterstützen.
  • Noch eine andere Aufgabe der Erfindung besteht darin, ein Gesichtsbilderzeugungssystem zur Aufnahme und/oder automatischen Identifizierungsbestätigung eines Ziel innerhalb eines Sicherheitsbereiches zu schaffen, wobei das Gesichtsbilderzeugungssystem folgende Elemente aufweist: eine Kameraeinheit mit einem Kameraeinheitssteuerer, eine Bereicheinheit zur Ermittlung des Vorhandenseins des Ziels innerhalb des Sicherheitsbereiches und zur Schaffung von Bereichsdaten in Bezug auf das Ziel für die Kamerasteuereinheit sowie eine Videokamera zum Einfangen von Bildern des Ziels und zur Übermittlung der Zielbilder an die Kamerasteuereinheit, wobei letztere folgende Elemente aufweist: ein Gesichtsaufspürsystem, das so konfiguriert ist, daß es ein Gesichtsbild innerhalb von Zielbildern feststellt; ein Gesichtseinfangsystem, das so konfiguriert ist, daß es das Gesichtsbild einfängt, wenn das Gesichtsbild eine Qualität aufweist, die für die Gesichtserkennung ausreicht.
  • Die Videokamera selbst kann entweder vollständig oder teilweise betätigt werden, um ein Ziel einzufangen, beispielsweise durch Schwenken, Neigen und Fokussieren. Oder die Videokamera kann die Szene durch eine eingeschaltete Reflektoreinrichtung, beispielsweise einen Spiegel, beobachten, der das Beobachtungsfeld schnell verschieben kann. Die Ausrichtung der Kamera kann wenigstens anfänglich auch durch Bereichsdaten unterstützt werden, die von einem vorhandenen Sensor zur Verfügung gestellt werden.
  • Die Zahl bzw. Geschwindigkeit der eingefangenen Bilder stützt sich auf die Zeit, die jeder der speziellen Schritte für das Bildermitteln, Bildaufspüren und schließlich für das Bildeinfangen erfordert. Die Entscheidung, das Bild einzufangen, beruht auf dem Vorhandensein eines Bildes, das einen vorbestimmten Qualitätsanspruch erfüllt. Sobald ein Bild eingefangen worden ist, wird das System freigegeben, um den Zyklus zu wiederholen. Eine Aufgabe der Erfindung ist es, die Zykluszeit auf ein Mindestmaß zu beschränken.
  • Bei bevorzugten Ausführungsformen benutzt das hier beschriebene Gesichtsbilderzeugungssystem eine hohe Auflösung, eine steuerbare Videokamera und einen hochauflösenden, lasergestützten Bereichs- oder Entfernungsmesser. Der Entfernungsmesser scannt den beobachteten Sicherheitsbereich, typischerweise in einem Blickfeld von 45 ° annähernd alle 100 Millisekunden und zeichnet die Winkellagen, Entfernungen und Breiten aller in dem Feld befindlichen potentiellen Ziele auf. Die Tiefe des beobachteten Sicherheitsbereiches beträgt gewöhnlich 15 Meter, kann jedoch so abgeändert werden, daß sie zu der jeweiligen Installation paßt. Die Winkellagen, Entfernungen und Breiten der Ziele in dem überwachten Sicherheitsbereich werden an einen eine Kameraeinheit steuernden Computer geliefert, der die Daten bearbeitet und Befehle zur Ausrichtung der Videokamera auf Ziele von Interesse abgibt. Die Befehle dienen zum Schwenken, Neigen und Zoomen der Videokamera. Auf der Grundlage des Abstandes des Ziels wird die Zoomfunktion der Videokamera auf das erforderliche Maß aktiviert, um ein Videobild eines durchschnittlichen menschlichen Gesichtes zu erhalten, das wenigstens 20 % des Bildbereiches ausfüllt. Die Gesichtsermittlungs-Software, unterstützt durch die Bereichsdatenspezifizierung des Abstandes, der Winkellage und der Breite eines potentiellen Ziels dient zur Analyse des Bildes und zur Feststellung, wenn das Bild ein menschliches Gesicht enthält. Wenn ein Gesicht festgestellt wird, werden die Koordinaten der wesentlichen Gesichtsmerkmale berechnet und von der Videokamera dazu benutzt, um auf das Gesicht weiter zu zoomen, so daß es fast das gesamte Gesichtsfeld der Videokamera ausfüllt. Diese Koordinaten werden mit Bezug auf die Bereichsdaten und das Videobild ständig aktualisiert und können auch dazu dienen, das Aufspüren des Zielgesichtes, wenn es sich bewegt, zu erleichtern. Sobald die Bildqualität des Gesichtes als ausreichend festgestellt worden ist, also aufgrund der bestehenden Kriterien für die verwendeten Gesichtserkennungssysteme, werden Gesichtsbilder eingefangen und aufgenommen und/oder der Gesichtserkennungssoftware zur biometrischen Verifikation und Identifikation sowie zum Vergleich externen Datenbanken zugänglich gemacht.
  • Die für die vorliegende Erfindung verwendete Videokamera ist neuartig aufgebaut, wobei sie einen Hochgeschwindigkeits- und genauen Zielbetrieb ermöglicht. Die Fähigkeit der vorliegenden Erfindung zur schnellen Ausrichtung der Videokamera ermöglicht das gleichzeitige Einfangen vieler Personen innerhalb des Sicherheitsbereiches mit echtem Multiplexbetrieb. Die Videokamera ist in der Lage, sich schnell von einer Person auf die andere und dann wieder zurück auszurichten. Im Gegensatz zu anderen Videokameras mit motorgetriebener Schwenk-, Neigungs- und Zoomfunktion wird die Videokamera der vorliegenden Erfindung nicht auf einer Plattform bewegt, um den Schwenkvorgang durchzuführen. Statt dessen ist ein leichtgewichtiger Spiegel direkt auf einem Linearmotor mit sich bewegender Spule angeordnet und dient dazu, ein Bild eines Segments des Sicherheitsbereiches auf die Videokamera zu lenken. Durch Bewegen des Spiegels läßt sich das Sichtfeld der Videokamera rasch über den Sicherheitsbereich in einer sehr kurzen Zeit verschwenken, nämlich innerhalb von etwa 10 Millisekunden, so daß das System in der Lage ist, einen echten Multiplexbetrieb auszuführen. Das Neigen wird noch durch Bewegen der Videokamera selbst ausgeführt, jedoch sind bei normalen Betriebsabständen die Winkel, über die die Videokamera geneigt werden muß, um ein Gesichtsbild einzufangen, klein und können durch vorhandene Neigungs- oder Kippmechanismen leicht angepaßt werden. Das Zoomen wird ebenfalls in der üblichen Weise durch Bewegen der Linsenelemente der Videokamera erreicht.
  • Das erfindungsgemäße System kann auch eine Bildanalyselogik enthalten, die entweder am Ort der Kameraeinheit "an Bord" ist, oder sich an einem entfernten Ort befindet. Auf diese Weise läßt sich das Kamerasystem so programmieren, daß zusätzliche Bilder besonderer Individuen erhalten werden. Die Gesichtsaufspürdaten von dem Videobild lassen sich zur Verstärkung der Leistung der Gesichtser kennungslogik-Operationen verwenden. Die Bilddaten können mit Daten von einem vorhandenen Sensor kombiniert werden, um eine gute Befeuchtung sowie Haltungsbeurteilung sicherzustellen. Dies kann die Identitätsbestätigung verstärken und/oder dem System ermöglichen, einen vorgegebenen Übereinstimmungsstandard beizubehalten.
  • Die Vorteile der hier beschriebenen Vorgehensweise sind vielfältiger Natur. Bestätigungen der Videokamera werden vermieden, da sie nicht länger schnell rückwärts und vorwärts bewegt werden muß, um über den Sicherheitsbereich verschwenkt zu werden. Damit verbundene Verkabelungsprobleme werden ebenfalls vermieden. Es ist kein leistungsstarker Schwenkmotor oder zugehöriges Getriebe erforderlich, um eine schnelle Bewegung der Videokamera zu bewirken, und Getriebespielprobleme werden ausgeschaltet. Die Verwendung von Zielbereichsdaten zusammen mit Zielvideodaten ermöglicht dem System, Gesichter im Sicherheitsbereich genauer zu ermitteln und aufzuspüren und ermöglicht auch das Aufspüren von Mehrfach-Zielgesichtern. Video- und Bereichsdaten werden in komplementärer Weise verwendet, um bei der Gesichtsermittlung und -aufspürung vorhandene Unwägbarkeiten zu beseitigen, wenn nur eine einzige Datenquelle zur Verfügung steht. Die gegenwärtigen Gesichtserkennungs-Softwarealgorithmen sind mangelhaft, wenn die Eingabebilder das Gesicht in einer schlechten Haltung zeigen, schlecht belichtet sind oder schlecht geschnitten sind. Die Verwendung von Zielbereichsdaten in Verbindung mit Zielvideodaten ermöglicht eine genaue Auswahl genau zentrierter Bilder mit guter Beleuchtung und richtiger zeitlicher Abstimmung des Bildeinfangs, um eine korrekte Haltung sicherzustellen. Die verbesserte Bildqualität verbessert entscheidend den Gesichtserkennungsvorgang.
  • Weitere Aufgaben und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung in Verbindung mit den Zeichnungen, in denen bevorzugte Ausführungsbeispiele der Erfindung beschrieben und dargestellt sind.
  • Beschreibung der Zeichnungen
  • Die vorliegende Erfindung wird aus der folgenden Beschreibung mit Bezug auf die Zeichnungen weiter verdeutlicht. Es zeigen:
  • 1 eine Draufsicht der Erfindung, eingebaut in einen Sicherheitsbereich;
  • 2 eine Seitenansicht einer möglichen Einbauposition der Videokamera, eines drehbaren Spiegelsystems und der Entfernungseinheit der vorliegenden Erfindung in einem Sicherheitsbereich;
  • 3 ein Blockdiagramm der Kameraeinheit der vorliegenden Erfindung, wie in 1 gezeigt;
  • 4 ein Blockdiagramm der Netzarchitektur der vorliegenden Erfindung einschließlich multipler Kameraeinheiten und einer externen Steuerung.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen der Erfindung
  • In den 1 und 2 ist ein automatisches Identitätsbestimmungssystem 10 zur Überwachung von Zielen 1 und zum Erhalt von Bildern der Zielgesichter 2 gezeigt, die in einen Sicherheitsbereich 4 eintreten. Wie ebenfalls in dem Architekturblockdiagramm von 4 dargestellt, weist ein automatisches Identitätsbestätigungssystem 10 eine oder mehrere Kameraeinheiten 20 und einen externen Steuerer 50 auf. Zu den Kameraeinheiten 20 gehört eine Videokamera 21, ein drehbares Spiegelsystem 25, eine Bereichs- oder Entfernungsbestimmungs-Einheit 30 und ein Kameraeinheitsteuerer 40.
  • Es versteht sich aufgrund der gesamten Diskussion, daß der Sicherheitsbereich 4 ein dreidimensionaler Raum ist. Die senkrechte Richtung wird normalerweise vom Boden bis zur Decke des Sicherheitsbereiches gemessen, während vom Blickpunkt der Kameraeinheit 20 aus, die waagerechte Richtung von Seite zu Seite gemessen wird und die Tiefe von der Kameraeinheit 20 nach außen, und zwar auch normalerweise. Somit reicht für eine Person, die im Sicherheitsbereich 4 steht und auf die Kameraeinheit blickt, die senkrechte Richtung von ihren Füßen bis zu ihrem Kopf, die waagerechte Richtung von der linken Seite der Person zur rechten Seite und die Tiefe von der Vorderseite zur Rückseite der Person.
  • Kameraeinheit – Videokamera
  • Die Kameraeinheit 20 weist eine übliche Videokamera 21 des Typs auf, der häufig in Maschinenbildsystemen verwendet wird. Obgleich es eine große Zahl Kameramodelle gibt, die von verschiedenen Firmen hergestellt werden, reicht es für den hier beschriebenen speziellen Fall aus, daß der Anmelder eine Farbvideokamera verwendet hat, die von Sony hergestellt wird, und zwar das Modell EVI-400. Diese Kamera arbeitet mit Zoom, automatischer Belichtungssteuerung und automatischer Fokussierung. Die Videokamera 21 weist einen Videoausgang auf, mit dem Videosignale an den Kameraeinheitsteuerer 40 abgegeben werden, sowie eine Reihe von Schnittstellen-Eingängen/Ausgängen (I/O), um den Kameraeinheitsteuerer 40 so anzuschließen, daß unterschiedliche Kamerafunktionen, beispielsweise Zoom, Brennweite und Belichtung, gesteuert und überwacht werden. Um den Bereich, über den die Videokamera 21 arbeitet, zu vergrößern, wurde eine Telekonverterlinse 23 zusätzlich eingebaut, so daß ein Bild eines menschlichen Gesichtes 2 in maximaler Entfernung so eingefangen werden kann, daß das Gesicht das gesamte Videobild ausfüllt. Im vorliegenden Fall ist die maximale Entfernung jedoch willkürlich auf 15 Meter festgesetzt worden, indem die Empfindlichkeit des Entfernungsmessers 30 vergrößert wurde und die Brennweite der Linse 23 erhöht wurde, so daß die maximale Entfernung ausgedehnt werden kann. Die Kameraeinheit 20 weist einen Kippmotor 24 auf sowie eine diesen Motor antreibende Elektronik, um die Videokamera 21 auf- und abzukippen bzw. zu neigen, und dadurch in senkrechter Richtung abtasten zu lassen. Der Grad, in dem die Videokamera 21 in senkrechter Richtung gekippt werden muß, ist klein, da es nur erforderlich ist, den Unterschied in der senkrechten Höhe des Gesichtes einer Person von einem gewöhnlichen Bezugspunkt aus zu kompensieren, der normalerweise der durchschnittlichen Höhe des menschlichen Auges entspricht.
  • Wie oben bereits erwähnt, weist die Kameraeinheit 20 die Möglichkeit zur Fokussierung, zum Kippen und zum Zoomen auf, so daß eine rasche Bewegung der Videokamera 21 ermöglicht wird, um von dem Ziel 1 qualitativ hochwertige Gesichtsbilder zu erhalten. Diese Merkmale werden durch Kamerasteuersignale von dem Kameraeinheitsteuerer 40 über die Reihenschnittstelle gesteuert. Die Fokussierung auf ein spezielles ausgewähltes Ziel mit Hilfe des Entfernungsmessers 30 ist automatisiert und erfordert nur, daß die Videokamera 21 auf ein Ziel gerichtet wird. Das Zoomen wird durch eine Einstellung gesteuert, die anfänglich ermöglicht, das Blickfeld der Videokamera 21 erheblich größer zu machen als das, was einem durchschnittlichen menschlichen Gesicht bei der Zielentfernung geboten wird. Typischerweise wird das Zoom so eingestellt, daß das durchschnittliche menschliche Gesicht 20 % des Blickfeldes füllen würde. Das Zoom wird durch weitere Signale von dem Kameraeinheitsteuerer 40 verfeinert, und zwar auf der Basis der Daten von der Entfernungsmessereinheit 30 und der Videokamera 21. Bei der vorhandenen Einstellung wird die Kipp- oder Neigungsfunktion von einem externen Kippmotor 24 ausgeübt, der mit der Videokamera 21 verbunden ist, kann jedoch auch in anderen Konfigurationen als Teil der Videokamera 21 vorgesehen werden. Die Größe der Neigung, die erforderlich ist, um ein qualitativ hochwertiges Gesichtsbild eines Ziels 1 zu erhalten, begründet sich auf Daten der Entfernungsmessereinheit 30 und der Videokamera 21 und wird durch Signale von dem Kameraeinheitsteuerer 40 gesteuert. Die Größe der Entfernung ist wichtig, weil der Zielabstand bei der Bestimmung der Größe der erforderlichen Neigung hilfreich ist.
  • Dort wo das Blickfeld der Videokamera 21 rechtwinklig ist, wobei also eine Abmessung größer ist als die andere, wurde vom Anmelder gefunden, daß es vorteilhaft ist, die Videokamera so auszurichten, daß die längere Abmessung des Blickfeldes parallel zur senkrechten Richtung des Sicherheitsbereiches liegt, um dadurch den Eingangbereich für senkrechte Ziele, also beispielsweise Personen, innerhalb des Sicherheitsbereiches 4 zu vergrößern. Durch Vergrößerung des Einfangbereiches für senkrechte Ziele verringert der Anmelder die Größe der Videokameraneigung, die erforderlich ist, um ein qualitativ hochwertiges Gesichtsbild des Ziels zu erhalten.
  • Kameraeinheit – Drehbares Spiegelsystem
  • Die Kameraeinheit 20 weist ein drehbares Spiegelsystem 25 auf, das unmittelbar vor der Videokamera 21 angeordnet ist, wie in 1 gezeigt. Das drehbare Spiegelsystem 25 ist mit einem leichten Spiegel 26 versehen, der direkt auf einer senkrechten Motorwelle 27 eines Linearmotors 28 angebracht ist. Der Linearmotor 28 entspricht dem Typ, wie er in ständigen Computerantrieben Verwendung findet, und weist elektronische Servoantriebe auf, die ausreichen, um den Spiegel 26 schnell zu drehen und genau in die angestrebte Position zu bringen. Außerdem ist das System mit einem üblichen Positions-Feedback-System ausgerüstet, das di rekt auf der Welle 27 sitzt und einen Schaltkreis aufweist, der die genaue Position des Spiegels 26 liest und ein Positions-Feedback-Signal an die Servoantriebe aussendet. Wenn das Positions-Feedback-Signal zu einem Befehlssignal paßt, das von dem Kameraeinheitsteuerer 40 empfangen wird und die angestrebte Position des Spiegels 26 darstellt, kann der Motor 28 den Spiegel 26 direkt in die angestrebte Lage bringen.
  • Bei dem in den 1 und 2 dargestellten Aufbau bestimmt die Entfernungsmessereinheit 30 den Abstand (Tiefe), die Winkelstellung und die Breite des Ziels 1 innerhalb des Sicherheitsbereiches 4 und stellt diese Koordinaten dem Kameraeinheitsteuerer 40 zur Verfügung. Der Kameraeinheitsteuerer 40 sendet ein Spiegelbefehlssignal an das Spiegelsystem 25, um dadurch den Linearmotor 28 zu veranlassen, den Spiegel 26 in die richtige Lage zu drehen und damit eine horizontale Verschwenkung der Kameraeinheit 20 zu ermöglichen. Das Bild des Ziels 1, das auf den Spiegel 26 fällt, wird auf die Videokamera 21 gelenkt, um dadurch das Bild einzufangen. Durch schnelles Drehen des Spiegels 26 kann die Videokamera 21 wirkungsvoll über die ganze horizontale Spannweite des Sicherheitsbereiches 4 verschwenkt werden, und zwar in einem Bruchteil der Zeit, die eine normale Videokamera braucht, und zwar bei einer motorgetriebenen waagerechten Verschwenkung, um dieselbe Aufgabe zu erfüllen. Die Reaktionszeit ist derart, daß das Verschwenken von irgendeinem Ziel innerhalb des Sicherheitsbereiches 4 zu irgendeinem anderen Ziel innerhalb des Sicherheitsbereiches 4 in weniger als 100 Millisekunden durchgeführt wird. Dabei läßt sich eine Verschwenkungsgenauigkeit von weniger als 1/10° erreichen.
  • Das Spiegelsystem 25 kann eine Spiegelbremse (nicht gezeigt) aufweisen, die den Spiegel 26 an Ort und Stelle hält und verriegelt, sobald das gewünschte Ziel 1 erreicht ist. Die Spiegelbremse verhindert Schwingungen im Spiegel 26 und verbessert dadurch die Bildstabilität, wodurch somit die Bildqualität vergrößert wird. Bei einer bevorzugten Ausführungsform ist die Spiegelbremse ein Elektromagnet, der auf der Welle 27 sitzt.
  • Das Spiegelsystem 25 kann so angepaßt werden, daß es einen zweiten Freiheitsgrad der Drehbewegung aufweist, um dadurch auch die Videokamera 21 mit einer senkrechten Neigungsmöglichkeit zu versehen, so daß die Schwenkeigenschaft, die durch den externen Schwenkmotor 24 geboten wird, ersetzt wird. Bei der Alternative könnte ein zweites drehbares Spiegelsystem vorgesehen werden, das einen zweiten Spiegel aufweist, der auf einer Achse drehbar ist, die unter 90° zur Achse der Drehbewegung des Spiegels 26 angeordnet ist. In der Kombination würden die beiden drehbaren Spiegelsysteme eine Videokamera 26 mit sowohl senkrechter Schwenkung als auch horizontaler Neigung schaffen.
  • Kameraeinheit – Kamera/Sgiegelsystem-Steuerung
  • Wie aus 3 ersichtlich, ist eine Kamera/Spiegelsystem-Steuerung 39 mit Videokamera 21 und dem drehbaren Spiegelsystem 25 verbunden und weist Hardware- und Software-Komponenten zum Empfang von Kamera- und Spiegelsystem-Steuersignalen für den Kameraeinheitsteuerer 40 auf, sowie zur Steuerung der verschiedenen Funktionen der Videokamera 21 und des Spiegelsystems 25. Diese Funktionen betreffen Belichtung, Zoom, Tiefenschärfe, Neigung, Verschwenkung (Spiegeldrehung), Ein/Aus, Videokamera-Rahmengeschwindigkeit, Helligkeit und Kontrast. Die Kamera/Spiegelsystem-Steuerung 39 ist auch verantwortlich für die Rückmeldung des Zustands der verschiedenen Videokamera- 21 und Spiegelsystem- 25 Funktionen und die Übermittlung derselben an den Kameraeinheitsteuerer 40.
  • Kameraeinheit – Bereichs- bzw. Entfernungsmessereinheit
  • Wie aus den 1 bis 4 ersichtlich, weist die Kameraeinheit 20 eine Bereichs- bzw. Entfernungsmessereinheit 30 auf, um die Ziele 1 innerhalb des Sicherheitsbereiches 4 anzuordnen. Gemäß einem Merkmal der Erfindung entspricht die Entfernungsmessereinheit 30 einer gewöhnlichen, gut bekannten Konstruktion und verwendet eine fasergestützte Abstandsmessungsvorrichtung, die in Verbindung mit einem drehenden Spiegel mit einem Entfernungslinsen-Aufnahmesystem arbeitet, um den Sicherheitsbereich 4 abzutasten. Zur Berechnung der Entfernung des Ziels 1 dient ein Flugzeitprinzip. Bei der vorliegenden Konfiguration wird die Laserdiode mit einer Periode von etwa 10 Nanosekunden einmal während jedes 1/4-Grad-Drehung des Entfernungsmesserspiegels gepulst. Der Laserstrahl wird von dem sich drehenden Entfernungsmesserspiegel in den Sicherheitsbereich 4 reflektiert, und jeder zurückkehrende Impuls, der von dem Ziel 1 reflektiert wird, wird von dem Entfernungsmesserlinsen-Empfangssystem gemessen. Da der konstante Wert für die Lichtgeschwindigkeit und das Zeitintervall zwischen der Emission des Laserimpulses und der Rückkehrreflektion bekannt ist, läßt sich der Abstand zum Ziel 1 errechnen. Die Entfernungsmessereinheit 30 nimmt den Abstand (Tiefe), die Winkelposition und die Breite des ermittelten Ziels innerhalb des Bereichs 4 auf und sendet diese Information an den Kameraeinheitsteuerer 40. Da die Entfernungsmessereinheit 30 in der Lage ist, Meßdaten jedes 1/4 Grad aufzunehmen, können die Entfernungsmeßdaten zu einem Zielprofil führen, das sich analysieren läßt, um festzustellen, ob es mit dem Profil einer Person (relativ glatt) übereinstimmt. Ein vollständiger Scan des Sicherheitsbereiches 4 kann während jeder Drehung des Entfernungsmesserspiegels erreicht werden, die alle 100 Millisekunden auftritt, so daß ein extrem schnelle Ermittlung und Lokalisierung der darin befindlichen Ziele möglich ist. Die Scangeschwindigkeit des Bereiches 4 wird als Entfernungsmeßeinheits-Rahmengeschwindigkeit bezeichnet und läßt sich entsprechend den Anforderungen der Installation oder der Betriebsart variieren.
  • Die Entfernungsmeßeinheit 30 ist im allgemeinen unter der Videokamera 21 auf einem Niveau angeordnet, das gleich der durchschnittlichen Personenbrusthöhe ist. Die Videokamera 21 ist allgemein in der durchschnittlichen Personenaugenhöhe angeordnet. Jedoch sind auch andere Anordnungen für die Entfernungsmeßeinheit 30 und die Videokamera 21 möglich, und zwar in Abhängigkeit von den besonderen Umständen.
  • Der Leser wird verstehen, daß auch andere Konfigurationen für die Entfernungsmessereinheit 30 für den erfindungsgemäßen Zweck benutzt werden können. So kann beispielsweise ein sonargestütztes Entfernungsmeßsystem Verwendung finden oder ein Hochfrequenzradar oder eine Binokular/Differential-Parallaxe.
  • Kameraeinheit – Bereichs- bzw. Entfernungsmessereinheit-Steuerung
  • Die Entfernungsmessereinheit 30 weist eine Entfernungseinheitsteuerung 41 auf, die mit Hardware- und Softwarekomponenten ausgestattet ist, um die verschiedenen Funktionen der Entfernungsmessereinheit 30 zu erfüllen, einschließlich der Aufrechterhaltung einer Entfernungsspiegel-Drehgeschwindigkeit innerhalb spezieller Parameter, ferner der Regelung der Laserdioden-Energiespar-Betriebsarten, zu denen ein "Ruhezustand" gehört, der die Laserimpulsrate während "Tot-Zeiten" reduziert wird, sobald im Sicherheitsbereich kein Bedarf besteht, ferner gehören zu diesen Komponenten der Empfang von Steuerfunktionen von dem Kameraeinheitsteuerer 40 und die Aussendung von Statusinformationen, betreffend die Entfernungsmessereinheit 30, zum Kameraeinheitsteuerer 40 auf Anforderung. Die Entfernungsmessereinheit-Steuerung 41 bereitet Meßdaten mit Hil fe verschiedener Funktionen prozessual vor, zu denen Geräuschfilterungsfunktionen gehören, um gestreute Daten auszuschalten, die einzelne Scanpunkte ohne Bezug aufweisen, Bewegungsdurchschnittsbildung und Scanndurchschnittsbildung über multiple Scannlinien, um die Entfernungsdaten zu glätten, ferner Beispielgruppenberechnungen, um festzustellen, ob ermittelte Objekte Ziele von Interesse darstellen, die die erforderliche Breite in einem gegebenen Abstand aufweisen, des weiteren das Beschaffen von Koordinateninformationen von Zielen von Interesse in Form von Winkel, Radius (Abstand) und Breite und schließlich der Bau eines Profils aus Vektoren von den Entfernungsdaten jedes Ziels. Die Meßeinheitsteuerungs-Hardware 41 sendet entweder die rohen Meßdaten oder das vorbereitete, vektorisierte Entfernungsdatenprofil a den Kamereinheitsteuerer 40 zur weiteren Verarbeitung. Die vektorisierten Entfernungsdaten werden in der Form n(a1, r1, w1)(a2, r2, w2) ..., gesendet, wobei n die Anzahl der Ziele in dem gescannten Sicherheitsbereich darstellt, ax die Winkellage des Ziels x innerhalb des Sicherheitsbereiches, rx den Radius (Entfernung) zum Ziel x und wx die Breite des Ziels x. Die Entfernungsdaten werden an den Kameraeinheitsteuerer 40 auf Anforderung von der Entfernungseinheitsteuerung 41 gesendet oder kontinuierlich mit einer wählbaren (programmierbaren) Wiederholungsgeschwindigkeit.
  • Kameraeinheit – Kameraeinheitsteuerer
  • Die Kameraeinheit 20 weist auch einen Kameraeinheitsteuerer 40 auf, wie im Detail im Blockdiagramm von 3 dargestellt. Der Kameraeinheitsteuerer 40 ist mit der ganzen Hardware und Software ausgestattet, um zwischen der Videokamera 21, der Entfernungsmessereinheit 30, dem drehbaren Spiegelsystem 25 und dem externen Steuerer 50 eine Schnittstelle zu schaffen. Der Zweck des Kameraeinheitsteuerers 40 besteht darin, das Ermitteln, Aufspüren und Einfangen qualitativ hochwertiger Videobilder von Gesichtern 2 der Ziele 1 von Interesse innerhalb des Sicherheitsbereiches 4 zu steuern. Dies geschieht durch Prozeßeingangsdaten, die von der Entfernungsmessereinheit 30 und der Videokamera 21 erhalten werden, sowie durch Verwendung dieser Daten zur Berechnung geeigneter Steuerbefehlssignale, die an die Videokamera 21 und das drehbare Spiegelsystem 25 zurückgesendet werden. Dies ist im einzelnen im folgenden beschrieben, wenn die verschiedenen Komponenten des Kameraeinheitsteuerers 40 diskutiert werden. Der Kameraeinheitsteuerer 40 hat außerdem mit dem externen Steuerer 50 eine Schnittstelle, um externe Steuerbefehle zu empfangen und eingefangene Videobilder zu senden. Die externen Steuerbefehle dienen sowohl dazu, Komponenten der Kameraeinheiten 20 zu konfigurieren als auch ihr Verhalten zu modifizieren, beispielsweise ein bestimmtes Ziel im Sicherheitsbereich 4 im Auge zu behalten und aufzuspüren.
  • Kameraeinheit – Kameraeinheitsteuerer-Hardware
  • Der Kameraeinheitsteuerer 40 ist mit Hardware versehen, bestehend aus einem Computer mit CPU, RAM und einem Speicher mit Schnittstellenanschlüssen für Video-Eingang, serielle Schnittstellen und Hochgeschwindigkeits-I/O- sowie Ethernet-Schnittstelle. Der Ausgang der Videokamera 21 wird von dem Videoeingang aufgenommen. Der Ausgang von der Erkennungsmaßeinheit 30 und die Steuersignale zu dieser Einheit werden von einem der seriellen Eingänge empfangen. Die Steuersignale für die Videokamera 21 und das drehbare Spiegelsystem 25 werden an eine der anderen seriellen Eingänge gesandt. Die Netzschnittstelle dient zur Verbindung mit dem externen Steuerer 50. Andere Hardware-Konfigurationen sind für den Kameraeinheitsteuerer 40 möglich, beispielsweise könnten viele niedrigenergetische CPUs anstelle einer einzigen hochenergetischen CPU Verwendung finden, der Videoeingang von der Videokamera 21 könnte ein direkter digitaler Eingang sein oder die Schnittstelle mit dem äußeren Steuerer 50 könnte ein serielles oder drahtloses Hochgeschwindigkeitsnetz anstelle des Ethernetzes sein.
  • Kameraeinheit – Kameraeinheitsteuerer-Software
  • Der Kameraeinheitsteuerer 40 weist ein Kameraeinheitsteuer-Software auf, die mit einem modernen Netzwerk ausgestattet ist, das für ein Vielfach-Aufgaben-Betriebssystem geeignet ist, um den Betrieb und die planmäßige Abwicklung der vielfachen, unabhängigen, untereinander kommunizierenden Software-Komponenten zu steuern. Die Kameraeinheitsteuer-Softwarekomponenten weisen folgende Mittel auf: Videokamera-Datenverarbeitung 43; Entfernungsmeßeinheit-Datenverarbeitung 44; Kameraentfernungs-Maßeinheit-Steuerung 45; Gesichtsermittlung 46; Gesichtsaufspürung 47; Gesichtsbildeinfang 48; Kameraeinheitsteuerer-Systemsteuerung 49 sowie Kameraeinheitsteuerer-Kommunikation 60.
  • Die Videorahmen, die von der Videokamera 21 kommen, sind in einem Hardware-Videoeinfangpult asynchron digitalisiert. Diese Daten werden der Videokamera-Datenverarbeitung 43 übermittelt, die Software umfaßt, um grundlegende Bildver arbeitungsvorgänge auszuführen und dadurch die Eingangsdaten zu normalisieren, zu skalieren und zu korrigieren. Korrekturen werden hinsichtlich der Bildfarbe und der Geometrie auf der Grundlage üblicher Kalibrationsdaten ausgeführt. Die Bildverstärkung und die Geräuschfilterung werden durchgeführt, und die verarbeiteten Videobilddaten werden der Kameraeinheitsteuerer-Systemsteuerung 49 zugänglich gemacht, wo sie dazu dienen, eine Reihe Funktionen auszuführen, einschließlich Gesichtsfeststellung, Gesichtsaufspürung oder Gesichtsbildeinfangung (siehe unten). Die Meßdaten von der Entfernungseinheit 30 kommen entweder kontinuierlich oder auf Anforderung des Kameraeinheitsteuerer 40 an dem Kameraeinheitsteuerer 40 an. Die Entfernungsmeßdaten haben die Form einer Tabelle aus Werten von Distanz (Tiefe oder Radius), Winkel und Breite. Die Entfernungsmeßdaten werden von der Entfernungeinheit-Datenverarbeitung 44 verarbeitet, die eine Software zur Bestimmung der Position und der Lage der Ziele 1 in dem Sicherheitsbereich 4 aufweist. Heuristische Methoden werden zum Abziehen des Hintergrundes und zur Entfernung kleiner "Geräusch"-Durchmesser benutzt, so daß nur größere Objekte mit einer Größe, die ähnlich den angestrebten Zielen ist, welche Personen sind, verbleiben. Diese heuristischen Mittel sind intelligente Software-Module, die historische Wahrscheinlichkeits- und statistische Analysen der Daten zur Bestimmung der Eigenschaften der Gegenstände innerhalb des Sicherheitsbereiches benutzen. Wenn beispielsweise ein Objekt mit nur einer Abtastung der Entfernungsmessereinheit 30 festgestellt wurde und nicht auch in den vorhergehenden oder folgenden Abtastungen (Scans), kann mit Sicherheit angenommen werden, daß hier ein unechtes Ereignis aufgetreten ist, das ignoriert werden kann. In ähnlicher Weise können Grenzen für die Geschwindigkeit des Objekts bei seiner Bewegung im Sicherheitsbereich gesetzt werden. Wenn sich ein Objekt 5 Meter zwischen den Abtastungen bewegt, kann mit Sicherheit angenommen werden, daß es sich bei diesem Objekt um keine Person handelt. Zusätzlich werden Eichdaten an der Installation, wenn der Sicherheitsbereich 4 vollständig leer ist, genommen, um potentielle Ziele von feststehenden Objekten im Sicherheitsbereich zu trennen, wie beispielsweise Parksäulen und dergleichen (Hintergrundentfernung).
  • Die verarbeiteten Meßdaten werden der Kameraeinheitsteuerer-Systemsteuerung 49 zugänglich gemacht, wo sie zur Unterstützung der Gesichtsfeststellung und der Gesichtsaufspürung dienen. Die Entfernungsmeßeinheits-Datenverarbeitung 44 behält ein historisches Polster an vorherigen Entfernungsbereichsdaten für jedes Ziel 1 innerhalb des Sicherheitsbereiches 4, und zwar für ein bestimmtes Zeitinter vall. Dieses historische Polster dient zur Gesichtsermittlung 46 sowie zur Gesichtsaufspürung 47, um dadurch die Gesichtsermittlung und -aufspürung zu unterstützen. So kann beispielsweise ein einziges großes Objekt eine große Person oder zwei nahe beieinander stehende Personen sein. Wenn die Gesichter der beiden Personen nahe zusammen sind, kann es schwierig sein, zwischen den beiden Situationen zu unterscheiden. Bei Verwendung der historischen Polsterdaten ist es jedoch möglich, festzustellen, daß zwei einzelne kleinere Personen vorher getrennte Ziele waren und sich nun zusammengestellt haben. Somit können von der Entfernungsmeßeinheit 30 und der Videokamera 26 erhaltene zweideutige Daten geklärt werden.
  • Die Kamera/Entfernungsmeßeinheitsteuerung 45 weist eine Software auf, um alle Signale, die durch die Kameraeinheitsteuerer-Seriellausgänge I/O an die Videokamera 21, die Entfernungsmeßeinheit 30 und das drehbare Spiegelsystem 25 gesendet werden, zu verarbeiten. Diese Steuersignale gehen zu der Entfernungsmeßeinheitsteuerung 41 und der Kamera/Spiegelsystemsteuerung 39 und gründen sich auf die von der Kameraeinheitsteuerer-Systemsteuerung 49 erhaltenen Eingangssignale. Positionsänderungen des Ziels, gestützt auf Änderungen der Meßdaten von der Entfernungsmeßeinheit 30 sowie auf Änderungen der geometrischen Form des von der Videokamera 21 abgegebenen Zielvideobildes, werden durch die Kameraeinheitsteuerer-Systemsteuerung 49 bestimmt. Steuerkommandos zur Steuerung des Ein- und Ausschaltens der Videokamera; der Videokamera-Brennweite; der Videokameraneigung, der Spiegeldrehung (Verschwenkung); des Videokamerazoom; der Videokamera-Rahmengeschwindigkeit; der Videokamerahelligkeit und ihres Kontrastes; der Ein- und Ausschaltung der Entfernungsmessereinheit; sowie der Entfernungsmessereinheit-Rahmengeschwindigkeit werden über die Videokamera/Meßdateneinheit-Steuerung 45 abgegeben, um sowohl die Gesichtsfeststellung als auch das Gesichtsaufspüren zu erleichtern. Der Zweck der Steuersignale besteht darin, sicherzustellen, daß das Ziel richtig eingefangen und daß ein qualitativ hochwertiges Videobild des Zielgesichts erhalten wird, um das Gesicht zu erkennen. Dazu kommt, daß die Kamera/Entfernungsmessereinheit-Steuerung 45 die geeignete zeitliche Abstimmung der ausgesendeten Befehle bewerkstelligt, um eine zuverlässige Ausgabe und Ausführung dieser Befehle sicherzustellen und die Kameraeinheitsteuerer-Systemsteuerung 49 von irgendwelchen Problemen mit solchen Befehlen oder anderen Problemsituationen zu unterrichten, die mit der Videokamera 21, der Entfernungsmessereinheit 30 oder dem drehbaren Spiegelsystem 25 auftreten kön nen. Wenn beispielsweise das drehbare Spiegelsystem 25 nicht auf Steuerbefehle reagiert, wird angenommen, daß der Motor 28 versagt hat oder der Spiegel 26 festhängt, so daß ein Alarm ausgesandt wird, um zu signalisieren, daß Wartung benötigt wird. Die Gesichtfeststellung 46 weist eine Software zur Ermittlung von Gesichtsbildern innerhalb des Videobildes auf, das von der Videokamera 21 geliefert wird. Anfänglich verwendet die Gesichtsfeststellung 46 den gesamten Eingang des Videobildes zum Zwecke der Gesichtsfeststellung. Eine Anzahl unterschiedlicher, bekannter Software-Algorithmus-Strategien dient dazu, die Eingangsdaten zu bearbeiten, und heuristische Methoden werden in Verbindung mit diesen Daten in einer Weise benutzt, um die Zweideutigkeit, die dem Gesichtsfeststellungsprozeß anhaftet, auf ein Mindestmaß zu beschränken. Die Zweideutigkeit kann sich aus Faktoren ergeben wie: Schwankungen des Bildes aufgrund von Schwankungen im Gesichtsausdruck (nicht starr) und Texturunterschiede zwischen Bildern desselben Personengesichtes; kosmetische Kennzeichen wie Brillen oder ein Schnurrbart; und nicht vorhersagbare Bildbedingungen in einer freien Umgebung, wie etwa Beleuchtung. Da Gesichter dreidimensional sind, kann jede Änderung in der Lichtverteilung erhebliche Schattenwechsel ergeben, die zu einer erhöhten Variabilität des zweidimensionalen Gesichtsbildes beitragen. Die heuristischen Möglichkeiten, die bei der Bildermittlung 46 auftreten, sind mit einer Reihe Regeln verbunden, die so strukturiert sind, daß sie bestimmen, welche Softwarealgorithmen in bestimmten Situationen am verläßlichsten sind. So bieten beispielsweise bei idealen Lichtbedingungen der Hauptteil der Gesichtsfarbe und die Algorithmusform die gewünschte Genauigkeit bei hoher Geschwindigkeit. Entfernungsdaten von der Entfernungsmeßeinheit 30 werden hinzugenommen, um die Suche einzuengen und die Bestimmung der speziellen Bereich des Videobildes zu unterstützen, die höchstwahrscheinlich ein menschliches Gesicht enthalten, und zwar auf der Grundlage der Zielbreite und der historischen Bewegungskennzeichen der Ziele innerhalb des Sicherheitsbereiches 4.
  • Im folgenden werden einige der Softwarealgorithmen angegeben, die auf dem Gebiet bekannt sind, die von dem Anmelder in der Gesichtsermittlung benutzt werden:
    Massengesichtsfarbe und Formschätzung;
    Individuelle Gesichtsmerkmalsermittlung (für Augen, Nase, Mund, usw.) unter Verwendung geometrischer Zwänge zur Beseitigung unbrauchbarer Merkmale;
    Künstliche neurale Netzwerkanalyse auf der Basis eines Trainings des Algorithmus für eine große Gruppe von Gesichtern und Nichtgesichtsdaten; und Bayesian Analyse unter Verwendung der Principle-Component-Analyse (PCA) oder der Eigengesicht-Auflösung des Gesichtsbildes.
  • Die folgenden zusätzlichen Schritten werden durch die erfindungsgemäße Gesichtsermittlung 46 ausgeführt, die Entfernungsmeßdaten von der Entfernungsmeßeinheit 30 verwendet, und, wie vom Anmelder gefunden wurde, die Möglichkeit der vorliegenden Erfindung vergrößert, ein Gesicht in dem Videobild zu entdecken:
    Analyse der Entfernungsmeßdaten zur Isolierung personengroßer Ziele. Wie oben erwähnt, werden hierzu in der Legende Softwaremodule genutzt, und zwar unter Verwendung einer historischen Analyse, Wahrscheinlichkeitsanalyse und statistischen Analyse der Entfernungsmeßdaten zur Bestimmung der Eigenschaften der Objekte innerhalb des Sicherheitsbereiches und zur Eliminierung von Geräuschen, die von kleinen oder sich schnell bewegenden Objekten, die aller Wahrscheinlichkeit nach nicht Personen sind, herrühren. Die Meßdaten von der Entfernungsmeßeinheit 30 können zur Bestimmung von Zielen einer geeigneten Breite (30 cm bis 100 cm) und Form (glatte vordere Oberfläche) dienen. Wenn genau bekannt ist, wo sich das personengroße Ziel in dem Videobild befindet, so wird dadurch ein Startpunkt für den Beginn der Gesichtsermittlung geschaffen.
    Analyse der Entfernungsmeßdatengeschichte zur Bestimmung des Vorhandenseins von Gruppen von Leuten. Dies geschieht durch Isolierung von personengroßen Zielen in jedem Videorahmen unter Verwendung der oben beschriebenen Technik auf der Basis einer Analyse der Meßdaten. Die Bewegungsschätzungs-Software, beispielsweise eine Kalman-Filterung, dient zur Schätzung des Bahnverlaufs solcher Ziele und zur Identifizierung zweifelhafter Ziele, beispielsweise jene, die schlechter unter Kalman-Bahnverlauf-Schätzung passen. Schließlich werden zweifelhafte Ziele klassifiziert und die Klassifikation dient zur Unterstützung der Gesichtsermittlung. Beispielsweise ist es möglich festzustellen, ob ein besonderer Zweifel das Ergebnis von zwei oder mehr Personen ist, die eng beieinander stehen.
  • Bei einer bevorzugten Ausführungsform der Erfindung identifiziert die Gesichtsermittlung ein Bild entsprechend einem Gesicht, auf der Basis von Farbe, Form und Struktur. Elliptische Regionen liegen in einem Bereich wachsenden Algorithmus, angewandt auf eine grobe Auflösung des in Segmente unterteilten Bildes. Ein Farbalgorithmus wird durch eine Gesichtsform bewertende Technik verstärkt. Der Bildbereich wird mit "Gesicht" oder "Nichtgesicht" bezeichnet, nachdem die Bereichsgrenzen mit einer elliptischen Form übereinstimmen (Nachahmung der Kopfform) und zwar mit einem fixen Höhen-zu-Breiten-Verhältnis (gewöhnlich 1,2).
  • Bei einer weiteren bevorzugten Ausführungsform der Erfindung kann ein Verfahren zur Augenermittlung, das Infrarot (IR)-Licht benutzt, dazu dienen, die Augen eines normalen Menschengesichtes zu lokalisieren und damit die Gesichtsermittlung 46 zu unterstützen. Bei diesem Verfahren wird das Ziel mit Blitzen infraroten Lichts von einem IR-Stroboskop beleuchtet, die vorzugsweise koaxial oder nahezu koaxial zu der optischen Achse der Videokamera 21 entstehen. Die IR-Strahlen vergrößern die Helligkeit der Pupille des menschlichen Auges auf dem Videobild. Indem diese Bereiche vergrößerter Helligkeit lokalisiert worden sind, ist es der Gesichtsermittlung 46 möglich, ein potentielles Gesicht innerhalb des Videobildes schnell zu identifizieren und zu lokalisieren. Wenn das IR-Stroboskop nur während der speziellen identifizierten Videorahmen blitzt, läßt sich eine Rahmensubtraktionstechnik benutzen, um rasch Bereiche erhöhter Helligkeit zu identifizieren, die möglicherweise der Lage der menschlichen Augen entsprechen. Die genaue Identifizierung der Lage der Augen hat den weiteren Vorteil, daß eine derartige Information die Genauigkeit der Gesichtserkennungs-Software stark verbessern kann.
  • Die Gesichtsfeststellung ist eigentlich eine rechnerisch intensive Aufgabe. Bei den gegenwärtigen Prozessorgeschwindigkeiten ist es unmöglich, eine Ganzgesichtsfeststellung auf jedem von der Videokamera 21 geschickten Videobildrahmen durchzuführen. Daher wird der Gesichtsfeststellungsprozeß nur durch die Kameraeinheitsteuerer-Systemsteuerung 49 aktiviert, wenn er erforderlich ist, d. h. wenn kein Gesicht innerhalb des ankommenden Bildes festgestellt wurde. Sobald ein Gesicht festgestellt worden ist, wird die Gesichtsermittlung ausgeschaltet, und die Gesichtsaufspürung 47 übernimmt. Die Qualität der Gesichtsaufspürung 47 ist durch einen Aufspürvertrauensparameter gekennzeichnet. Sobald der Aufspürvertrauensparameter unter einen gesetzten Grenzwert fällt, gilt das Zielgesicht als verloren und die Gesichtsermittlung wird wieder aufgenommen. Sobald der Aufspürvertrauensparameter ein vorherbestimmtes Bildeinfang-Schwellengesicht aufspürt, werden Bilder von dem Gesichtsbildeinfangmodul 48 angefordert. Sobald eine ausreichende Anzahl qualitativ hochwertiger Gesichtsbilder vorliegt, wird das Ziel fallengelassen und die Gesichtsermittlung für andere Ziele wieder aufgenommen.
  • Sobald einmal ein Gesicht in dem Videobild festgestellt worden ist, wird die Gesichtsaufspürung 47, die die Gesichtsaufspür-Software aufweist, aktiviert und verarbeitet die von der Videokamera-Datenverarbeitung 43 und der Entfernungsmeßeinheit-Datenverarbeitung 44 einkommenden Daten zum Zwecke der Bestimmung von Geschwindigkeit und Richtung der Bewegung des festgestellten Gesichtes, und zwar sowohl in der senkrechten als auch waagerechten Richtung sowie Tiefenrichtung. Die Gesichtsaufspürung 47 wird mit der ermittelten Zielgesichtposition sowie dem Zielgesichtmaßstab eingeleitet und verwendet einen Interessenbereich (ROI), beschränkt auf die umgebende Begrenzungsbox des festgestellten Zielgesichtes. Jegliche Bewegung wird an die Kameraeinheitsteuerer-Systemsteuerung 49 gemeldet, wo sie dazu dient, die Schwenkbewegung des drehbaren Spiegelsystems 25 und die Zoom-, Fokussierungs- und Neigungsfunktionen der Videokamera 21 zu lenken, so daß das Zielgesicht aufgespürt wird und im Blickfeld gehalten wird. Das Zielgesicht wird so lange aufgespürt, bis das Aufspürvertrauen unter einen festgesetzten Grenzwert sinkt. In diesem Fall gilt das Ziel als verloren und das System schaltet in den Feststellungsmodus zurück. Die Kameraeinheitsteuerer-Systemsteuerung 49 bestimmt, wenn das Gesichtsbildeinfangen 48 wieder aktiviert wird.
  • Das Gesichtaufspüren 47 benutzt eine Anzahl bekannter Softwarealgorithmus-Strategien, um das Eingangsvideo und die Entfernungsmesserdaten zu bearbeiten, und es werden heuristische Methoden benutzt, um die Ergebnisse zu kombinieren. Die verwendeten heuristischen Methoden weisen eine Reihe Regeln auf, die so aufgebaut sind, daß sie festlegen, welche Softwarealgorithmen in diesen Situationen am zuverlässigsten sind. im folgenden werden einige der Softwarealgorithmen, die auf diesem Gebiet bekannt sind, angegeben, die von dem Anmelder beim Gesichtsaufspüren benutzt worden sind:
    Rahmen-zu-Rahmen-Differenzierung zur Feststellung der Bewegung;
    Optische Fließtechniken für den Videostrom;
    Massenbildfarbe und Formschätzung;
    Kalman-Filteranalyse für die gegenwärtige Filterbewegung und Vorhersage zukünftiger Bewegung aus der vergangenen Bewegungsschätzung; und
    Künstliche neutrale Netzwerkanalyse auf der Grundlage der Übung des Algorithmus mit einer großen Gruppe Videosequenzen.
  • Der folgende zusätzliche Schritt wird durch das Gesichtsaufspüren 47 der vorliegenden Erfindung ausgeführt, der von der Entfernungsmessereinheit 30 Meßdaten verwendet und, wie der Anmelder festgestellt hat, die Fähigkeit der Erfindung vergrößert, ein Gesicht aufzuspüren:
    Analyse der Entfernungsdaten und Entfernungsdatengeschichte. Wie oben erwähnt, läßt sich ein Geschichtspuffer vorn vorherigen Entfernungsmeßdaten für jedes Ziel verwenden, um festzustellen, ob ein einzelnes großes Objekt eine große Person ist oder zwei Personen, die nahe beieinander stehen oder möglicherweise überhaupt keine Person.
  • Bei einer bevorzugten Ausführungsform der Erfindung wird ein elliptischer Umriß an die Kontur des ermittelten Gesichtes angepaßt. Jedesmal, wenn ein neues Bild zur Verfügung steht, paßt die Gesichtsaufspürung 47 die Ellipse von dem vorherigen Bild so an, daß sie der Position des Gesichtes in dem neuen Bild am nächsten kommt. Ein Vertrauenswert, der die Modellanpassung widerspiegelt, wird zurückgegeben. Die Gesichtspositionen werden aufeinanderfolgend unter Verwendung eines Kalman-Filters analysiert, um die Bewegungsbahn des Gesichtes innerhalb eines vorbestimmten Fehlerbereiches zu bestimmen. Diese Bewegungsbahn ist ein Kennzeichnungsmerkmal.
  • Viele der Gesichtsaufspüralgorithmen beruhen teilweise auf Farbe und Farbtextur, um das Aufspüren des Gesichtes zu ermöglichen. Aufgrund von Änderungen sowohl der Hintergrundbelichtung als auch der Vordergrundbelichtung ist die Bildfarbe oftmals instabil und führt zu Aufspürirrtümern und "verlorenen Zielen". Zur Kompensation von Änderungen in den Beleuchtungsbedingungen wird eine statistische Annäherung angewendet, bei der die Farbverteilungen über den gesamten Gesichtsbildbereich über die Zeit geschätzt werden. Auf diese Weise kann, angenommen, die Beleuchtungsbedingungen ändern sich allmählich mit der Zeit, ein farbiges Modell dynamisch angepaßt werden, um die sich ändernde Erscheinung des aufzuspürenden Ziel widerzuspiegeln. Da jedes Bild von der Videokamera 21 kommt, wird von dem Gesichtsbereich ein neuer Satz Pixel probiert und benutzt, um das Farbmodell zu aktualisieren. Während des erfolgreichen Aufspürens wird das Farbmodell automatisch nur dann angepaßt, wenn das Aufspürvertrauen grö ßer ist als ein vorbestimmter Aufspürgrenzwert. Die dynamische Anpassung wird im Falle eines Aufspürversagens ausgesetzt und, sobald das Ziel wieder aufgefunden worden ist, neu gestartet.
  • Die Gesichtsaufspürung 47 wird durch die Kameraeinheitsteuerer-Systemsteuerung 49 nur dann aktiviert, wenn die Gesichtsermittlung 46 in dem Videobild ein Gesicht festgestellt hat und die Betriebsparameter des Systems nach dem aufzuspürenden Gesicht verlangen. Diese Betriebsparameter hängen von den individuellen Installationserfordernissen ab. Beispielsweise können in gewissen Situationen wenige gute Bilder von jedem Ziel eingefangen werden, das in den Sicherheitsbereich eintritt. In anderen Situationen können gewisse Ziele identifiziert und sorgfältiger aufgespürt werden, um bessere Bildqualitäten zum Zwecke der Gesichtserkennung oder der Archivspeicherung zu erhalten.
  • Das Gesichtsbildeinfangen 48 weist eine Bildeinfang-Software auf, die die von der Videokamera 21 und der Entfernungsmeßeinheit 30 erhaltenen Daten analysiert, um genau zu bestimmen, wenn ein Gesichtsbild eingefangen werden soll, so daß qualitativ hochwertige, gut belichtete Frontalgesichtsbilder des Ziels erhalten werden. Das Einfangen 48 des Gesichtsbildes verwendet heuristische Methoden, um die Haltung des Gesichts und die beste Beleuchtung zu bestimmen. Die richtige Haltung wird durch Identifizierung von Schlüsselmerkmalen des Gesichts, beispielsweise der Augen, der Nase und des Mundes, bestimmt und stellt sicher, daß sie sich in der richtigen Lage befinden. Die Beleuchtungsqualität wird durch eine Gesamtanalyse der Farbe des Gesichtes bestimmt.
  • In einer bevorzugten Ausführungsform ist die Videokamera 21 mit einem kombinierbaren Brennpunkt-Meßbelichtungssystem ausgestattet, das Größe und Lage auf dem Videobild einstellen kann. Sobald ein Gesichtsbild lokalisiert worden ist, wird das Brennpunkt-Meßsystem in Bezug auf die Größe des Gesichtsbildes justiert und auf das Gesichtsbild zentriert. Das Ergebnis ist ein eingefangenes Gesichtsbild, das korrekt belichtet ist und sich für die Bildanalyse sowie die Gesichtserkennung und den Gesichtsvergleich besser eignet.
  • Das Einfangen 48 des Gesichtsbildes wird durch die Kameraeinheitsteuerer-Systemsteuerung 49 aktiviert, wenn ein Gesicht durch den Gesichtsermittler 46 festgestellt worden ist, und die das System betreibenden Parameter fordern dann ein einzufangendes Gesichtsbild an. Die Parameter, die auf das Bildeinfangen einwirken, sind folgende: die Zahl der benötigten Bilder, der erforderliche Qualitätsgrenzwert für diese Bilder und die benötigte Zeit zwischen den Bildern. Die Bildqualität stützt sich auf die Haltung und die Beleuchtung und wird mit einem festgesetzten Grenzwert verglichen. Der zeitliche Abstand bezieht sich auf die Schnelligkeit des Bildeinfangs. Das Einfangen einer Vielzahl von Bildern in einer kurzen Zeitspanne erfordert nicht mehr Informationen als das Einfangen eines Bildes in derselben Zeitspanne. Ein minimaler zeitlicher Abstand wird benötigt, um sicherzustellen, daß genügend unterschiedliche Bilder eingefangen werden, so daß eine gute Haftung erreicht wird. Sobald ein qualitativ hochwertiges Gesichtsbild erhalten wird, wird es an den externen Steuerer 50 gesendet.
  • Die Eigenschaften des letzten eingefangenen Bildes bestimmen sich zum großen Teil durch die besonderen Gesichtserkennungs-Softwarealgorithmen, die eingesetzt werden. Einer der Hauptvorteile der vorliegenden Erfindung ist die Fähigkeit zum Justieren der Systembetriebsparameter, so daß qualitativ hochwertige, konsistente Gesichtsbilder geschaffen werden, um dadurch eine genaue und dauerhafte Gesichtserkennung zu erreichen. Beispielsweise ist bekannt, daß gewisse Gesichtserkennungssoftware eine frontale Haftung erfordert, eine minimale Pixelauflösung zwischen den Augen und eine besondere Qualität der Belichtung. Die vorliegende Erfindung läßt sich nur auf eingefangene Bilder programmieren, die diese Kriterien erfüllen sowie auf das Aufspüren eines gegebenen Gesichtes, bis derartige Bilder erhalten werden, so daß eine konsistente, qualitativ hochwertige Arbeit des Gesichtserkennungssystems sichergestellt ist.
  • Der Kameraeinheitsteuerer 40 weist ein Kameraeinheitsteuer-Kommunikationssystem 60 auf, das durch eine Schnittstelle über eine Netzverbindung mit dem Kameraeinheitsteuerer 40 an den externen Steuerer 50 angeschlossen ist, um Konfigurations- und Betriebsinstruktionen zu erhalten oder Videobilder oder Daten, wie von dem externen Steuerer 50 verlangt, zu senden.
  • Die folgenden Arten der Konfiguration und der Betriebsinstruktionen werden von dem Kamereinheitsteuerer- Kommunikationssystem 60 angenommen:
    Konfiguration von Parametern für die Gesichtsermittlung, das Gesichtsaufspüren und das Gesichtsbildeinfangen, so beispielsweise wie lang jedem Ziel zu folgen ist, die Anzahl der einzufangenden Bilder, die erforderliche Qualität und Auflösung der Bilder, der zeitliche Abstand der Bilder und wie viele Ziele zu verfolgen sind;
    Eichungsinstruktionen zur Bestimmung der notwendigen Bildkorrektur für Belichtungsbedingungen innerhalb des Sicherheitsbereiches;
    Instruktionen zum Aufspüren von Eichungsdaten für die Entfernungsmeßeinheit 30,
    Konfigurationsinstruktionen, die die räumliche Position der Kamera 21 und der Entfernungsmeßeinheit 30 betreffen;
    Betriebsartinstruktionen zum Ein-/Ausschalten, Schalten in den "Ruhe"-Zustand oder Schalten in verschiedene betriebliche Aufspürmodi. "Ruhe"-Zustände für verschiedene Komponenten können nützlich sein, um die Lebensdauer der Komponenten zu verlängern und Energie zu sparen. Beispielsweise kann die Entfernungsmeßeinheit 30 so gesteuert werden, daß ihre Laserimpulsgeschwindigkeit auf eine Bereichsabtastung pro Sekunde verringert wird, sobald die Aktivität in dem Sicherheitsbereich für eine gewisse Zeitspanne abnimmt. Sobald ein Ziel ermittelt wird, wird die Entfernungsmeßeinheit 30 wieder "aktiviert" und beginnt mit dem normalen Abtasten. Dadurch läßt sich die Lebensdauer der Laderdiode erheblich verlängern.
  • Es sind unterschiedliche Konfigurationen des Kameraeinheitsteuerer-Kommunikationssystems 60 möglich. Die Kameraeinheiten 20 können selbst untereinander kommunizieren. Die Kameraeinheiten 20 können von anderen Computern als dem externen Steuerer 50 Befehle empfangen und Daten an diese senden. Dazu können unterschiedliche Kommunikationsinfrastrukturen Verwendung finden, so beispielsweise Punkt-zu-Punkt-Netze, serielle Hochgeschwindigkeits-I/O, ferner Ringnetze oder drahtlose Arbeitsnetze oder irgendein anderes geeignetes Kommunikationssystem.
  • Die Kameraeinheitsteuerer-Systemsteuerung 49 weist eine Software auf, die alle Funktionen in dem Kameraeinheitsteuerer 40 übersieht. Alle Daten, die durch die Videokamera-Datenverarbeitung 43 erlangt werden, ferner durch die Entfernungsmessereinheit-Datenverarbeitung 44 und das Kameraeinheitsteuerer-Kommunikationssystem 60 werden der Kameraeinheitsteuerer-Systemsteuerung 49 zugänglich gemacht, die bestimmt, welche der die Gesichtsermittlung 46, die Gesichtsaufspürung 47 oder die Gesichtsbildeinfangung 48 betreffende Softwaremodule zu aktivieren sind. Diese Entscheidungen stützen sich auf bestimmte Systemanforderungen, so beispielsweise die Zahl der verlangten Bilder, den Bild qualität-Schwellenwert und den Bildzeitabstand. Auch wird die jeweilige Betriebsart in Betracht gezogen. So wird beispielsweise in einer Betriebsart nur das nächstliegende Ziel verfolgt. In einer anderen Betriebsart können die nächstliegenden drei Ziele je drei Sekunden lang verfolgt werden. Die Betriebsarten sind vollständig programmierbar und hängen von der jeweiligen Anwendung ab.
  • Die Kameraeinheitsteuerer-Systemsteuerung 49 bestimmt außerdem, welche Befehle an die Videokamera 21, das drehbare Spiegelsystem 25 und die Entfernungsmeßeinheit 30 zu senden sind, um deren vielfältige Funktionen zu steuern. Dazu kommt, daß alle besonderen Betriebsarten wie beispielsweise die Beantwortung von Systemfehlern, durch die Kameraeinheitsteuerer-Systemsteuerung 49 koordiniert werden.
  • Die Kameraeinheitsteuerer-Systemsteuerung 49 kombiniert die Informationen von der Gesichtsfeststellung 46 (die anzeigt, daß der Bildbereich wahrscheinlich ein Gesicht ist) mit der Aufspürinformation, die von der Aufspüreinrichtung 47 (die anzeigt, daß der Bildbereich zu einem Ziel gehört, das sich wie eine Person bewegt) und mit Entfernungsdaten von der Entfernungsdaten-Meßeinheit-Verarbeitung 44 (die anzeigt, daß der Bildbereich die Form einer einzelnen Person hat), um dadurch auszuwählen, welche Pixels im Videobild wahrscheinlich von den Gesichtern besetzt werden. Zu diesem Zweck müssen die Entfernungsdaten in zeitlicher und räumlicher Hinsicht mit den Videodaten eng registriert werden. Die Gesichtsaufspürgenauigkeit wird durch Verwendung einer Wahrscheinlichkeitsanalyse vergrößert, die die vielfachen Messungen der Gesichtsfeststellungsinformation, Gesichtsaufspürinformation und Entfernungsdaten über die Zeit kombiniert.
  • Die Kameraeinheitsteuerer-Systemsteuerung 49 benutzt eine Kombination von Entfernungs- und Bilddaten, um eine Bewegungs-Geschichten-Datei anzulegen, die die Bahnen der einzelnen Ziele innerhalb des Sicherheitsbereiches 4 speichert. Dies ermöglicht das Aufspüren individueller Gesichtsziele und das Einfangen einer vorbestimmten Anzahl von Gesichtsbildern pro Person.
  • Externer Steuerer
  • 4 ist ein Blockdiagramm, das die Netzarchitektur der vorliegenden Erfindung zeigt. Multiple Kameraeinheiten 20 sind, wie dargestellt, mit dem externen Steuerer 50 verbunden. Außerdem werden Datenbank/Suchanwendungen 70 und ex terne Anwendungen 80 gezeigt, die über eine Netzschnittstelle in Verbindung stehen. 4 zeigt des weiteren den Kommunikations- und Datenstrom zwischen den verschiedenen Komponenten der Erfindung. Es versteht sich, daß die Erfindung nicht erfordert, daß zwischen allen Komponenten eine einzelne Netzverbindung besteht. Tatsächlich verlangen viele Sicherheitsanwendungen die Benutzung getrennter Netze für jeden Anwendungsfall. Die Verwendung von multiplen Kameraeinheiten 20 ermöglicht zwischen den Kameraeinheiten eine Kooperation, um dadurch Aufgaben wie beispielsweise das Verfolgen eines Ziels von dem einen Sicherheitsbereich in den anderen oder die Überdeckung eines großen Sicherheitsbereiches mit vielen potentiellen Zielen zu lösen.
  • Externe Steuerer 50 weisen einen Computer mit einer Netzverbindungsmöglichkeit an eine Schnittstelle mit Kameraeinheiten 20, Datenbank/Suchanwendungen 70 und externen Anwendungen 80 auf, die eine Suche nach gespeicherten Gesichtsbildern ermöglichen, sowie zusätzliche Quellen von Dateneingängen für das System. So kann beispielsweise eine externe Ausweis-Kontrollanwendung zu Bildern der Datenseitenfotografie für den externen Steuerer 50 führen, die sich mit Bildern kombinieren und vergleichen lassen, die von Kameraeinheiten aufgenommen worden sind, um eine automatische Gesichtserkennung durchzuführen und damit zu verifizieren, daß das Gesichtsbild auf dem Ausweis dem Gesichtsbild der den Ausweis vorlegenden Person entspricht.
  • Der externe Steuerer 50 weist eine Software auf, die mit einem modernen Netzwerk für ein Vielfach-Aufgaben-Betriebssystem versehen ist, das in der Lage ist, den Betrieb vieler unabhängiger, miteinander kommunizierender Softwarekomponenten zu steuern, zu denen gehören: Kameraeinheit-Schnittstelle 51; externe Systemsteuerung 52; Suchschnittstelle 53; Kamerakonfigurations-Anwendungsschnittstelle 54; und externe Anwendungsschnittstelle 55. Alle Netzkommunikationen sind durch Verwendung einer fortschrittlichen, modernen Netzverschlüsselung und Authentitätstechnologien gesichert, um zwischen den Komponenten sichere und verläßliche Kommunikationen zu ermöglichen.
  • Die Kameraeinheit-Schnittstelle 51 weist eine Software auf, die die Kommunikationen mit den Kameraeinheitsteuerern 40 steuert. Befehle werden von der externen Systemsteuerung 52 empfangen und an die Kameraeinheiten 20 geschickt. Die Kameraeinheit-Schnittstelle 51 stellt eine verläßliche Auslieferung und angemessene zeitliche Abstimmung aller derartigen Kommunikationen sicher. Ge sichtsbilder, die von den Kameraeinheiten 20 angekommen, werden gespeichert und sequenziert, um durch andere Softwaremodule in dem externen Steuerer 50 weiter bearbeitet zu werden.
  • Die externe Systemsteuerung 52 weist eine Software auf, die alle Funktionen des externen Steuerers 50 übersieht. Alle Daten, die durch die Kameraeinheit-Schnittstelle 51, die Suchschnittstelle 53, die Kamerakonfigurations-Anwendungsschnittstelle 54 und die externe Anwendungsschnittstelle 55 erworben werden, werden der externen Systemsteuerung 52 zur Verfügung gestellt. Alle Aktivitäten, die eine Koordination der Kameraeinheiten 20 erfordern, werden durch die externe Systemsteuerung 52 gesteuert. Dazu kommt, daß besondere Betriebsarten, wie beispielsweise Beantwortung von Systemfehlern, durch die externe Systemsteuerung 52 koordiniert werden. Die Suchschnittstelle 53 weist eine Software auf, die eine Schnittstelle zwischen dem externen Steuerer 50 und der Datenbank/Suchanwendung 70 schafft, wie unten beschrieben wird, um dadurch eine verläßliche Abgabe und angemessene zeitliche Abstimmung aller Kommunikationen zwischen ihnen sicherzustellen.
  • Die Kamerakonfiguration-Anwendungsschnittstelle 54 weist eine Software auf, die Eingangsdaten von einer Kamerakonfigurations-Anwendung aufnimmt. Eine Kamerakonfigurations-Anwendung kann bei dem externen Steuerer 50 oder einem anderen Computer liegen, der extern angeordnet und über ein Netz verbunden ist. Die Kamerakonfigurationsdaten dienen zur Verschickung von Befehlen an Kameraeinheiten 20, um die verschiedenen Betriebs- und Konfigurationsfunktionen zu steuern, beispielsweise die Belichtung, die Farbart, das Videosystem, usw. und damit die Kameraeinheiten 20 anzuweisen, Eichdaten zu nehmen oder in einen Betriebsmodus zu schalten und damit zu beginnen, ein spezifisches Ziel zu verfolgen.
  • Die externe Anwendungsschnittstelle 55 weist eine Software auf, die zwischen dem externen Steuerer 50 und externen Anwendungen 80 eine Schnittstelle liefert, wie im folgenden beschrieben, um eine verläßliche Ausgabe und eine angemessene zeitliche Abstimmung der zwischen diesen stattfindenden Kommunikationen zu sichern.
  • Datenbank/Suchanwendungen
  • Datenbank/Suchanwendungen 70 ist ein allgemeiner Ausdruck, der benutzt wird, um alle unterschiedlichen Suchfunktionen zu beschreiben, die bei der vorliegenden Erfindung miteinander arbeiten können. Diese Anwendungen empfangen Daten von dem externen Steuerer 50 und möglicherweise von anderen Datenquellen, beispielsweise Ausweis-Kontrollanwendungen, um Recherchen durchzuführen und eine Kandidatenliste möglicher Übereinstimmungen der Eingabedaten rückzuführen.
  • Beispiele von Datenbank-Suchanwendungen enthalten folgendes, sind jedoch nicht darauf beschränkt:
    Gesichtsverifikation: ein eingefangenes Gesichtsbild, das von einer Kameraeinheit 20 empfangen wird, wird mit einem Gesichtsbild verglichen, das von einem vorhandenen Identifikationsdokument genommen wird, beispielsweise einem Ausweis oder einem anderen Bildidentifikationsdokument. Gesichtserkennungs- und Vergleichs-Software dient zur Bestimmung, ob oder ob nicht eine Übereinstimmung vorliegt, und die Ergebnisse werden für einen Bericht zurückgesandt.
    Gesichtsidentifikation: die von den Kameraeinheiten 20 erhaltenen Gesichtsbilder werden mit einer Alarm- oder "Aussuch"-Liste verglichen, die unerwünschte Objekte enthält. Eine Kandidatenliste von null oder mehr möglichen Übereinstimmungen wird für einen Bericht zurückgegeben.
    Datenbanksuche: Identifikationsdaten von einem Identifikationsdokument, beispielsweise Name, Identifikationsnummer, Geschlecht, After und Nationalität werden mit einer Alarmliste verglichen. Eine Kandidatenliste von null oder mehr möglichen Übereinstimmungen mit der Alarmliste wird für einen Bericht zurückgegeben.
  • Externe Anwendungen
  • Externe Anwendungen 80 ist ein allgemeiner Ausdruck, der benutzt wird, um andere mögliche Sicherheitsidentifikationssysteme zu beschreiben, die dieselben Ziele oder Sicherheitsbereiche wie bei der hier beschriebenen Erfindung überwachen. Daten von externen Anwendungen 80 können dem vorliegenden System eingegeben werden, um die Funktionstüchtigkeit zu verbessern. Es versteht sich, daß die Details der Zusammenwirkung zwischen der vorliegenden Erfindung und den externen Anwendungen 80 von der spezifischen Natur der externen Anwendungen abhängen.
  • Ein Beispiel für eine externe Anwendung ist ein Ausweis-Kontrollsystem. Reisende präsentieren Identifikationsdokumente, die Identifikationsdaten und Gesichtsbilder enthalten, den Ausweis-Kontrollbeamten. Die Identifikationsdaten und Gesichtsbilder von den Identifikationsdokumenten werden durch den externen Steuerer 50 eingegeben, um eine verstärkte Funktionalität zu erzeugen, insbesondere bei Datenbank-Suchanwendungen. So kann beispielsweise ein Bild des Reisenden, das von den Identifikationsdokumenten genommen wird, mit Bildern des Reisenden verglichen werden, die von der Kameraeinheit 20 eingefangen werden, um eine Übereinstimmung sicherzustellen (Verifikation). Bei einem anderen Beispiel können Identifikationsdaten von dem Identifikationsdokument, beispielsweise Geschlecht, Alter und Nationalität, dazu dienen, die Kandidatenliste der Gesichtsbilder, die von einer Gesichtserkennungs-Recherche des von einer Kameraeinheit 20 aufgenommenen Gesichtsbildes zurückkommt, anhand einer Gefahr-Datenbank zu filtern.
  • Dazu kommt, daß der externe Steuerer 50 Informationen liefern kann, die von den Kameraeinheiten 20 für externe Anwendungen 80 gesammelt werden, um dadurch eine verstärkte Funktionalität bei diesen Anwendungen zu ermöglichen. So können beispielsweise Gesichtsbilder, die von den Kameraeinheiten 20 eingefangen werden, an einen Paßkontrolleinsatz geschickt werden, um einem Paßkontrollbeamten einen Seite-an-Seite-Vergleich mit dem Gesichtsbild zu ermöglichen, das von dem Identifikationsdokument des Reisenden stammt. In einem anderen Beispiel können Gesichtsbilder von Kameraeinheiten 20 dazu dienen, Datensuchanwendungen zu ermöglichen, um mit der Bearbeitung zu beginnen, bevor die Identifikationsdokumente einem Paßkontrollbeamten vorgelegt werden.
  • Einstellung und Eichung
  • In 2 ist ein typischer Aufbau dargestellt, bei dem eine Entfernungsmessereinheit 30 zur horizontalen Abtastung eines Sicherheitsbereiches 4 eingesetzt wird, und zwar in annähernd Brusthöhe der Durchschnittsperson. Die Videokamera 21 und das drehbare Spiegelsystem 25 sind annähernd in Augenhöhe für die Durchschnittsperson so angeordnet, daß das Blickfeld der Videokamera 21 den Sicher heitsbereich 4 abdeckt. Die genauen Positionen von Entfernungsmessereinheit 30, Videokamera 21 und drehbarem Spiegelsystem 25 werden exakt gemessen, und ihre Positionen innerhalb des Sicherheitsbereiches 4 werden in den Kameraeinheitsteuerer 40 als Eichdaten eingegeben. Normalerweise können, wie in 4 gezeigt, viele Kameraeinheiten 20 Verwendung finden, um einen großen Sicherheitsbereich abzudecken, oder es lassen sich eine Vielzahl diesbezüglicher Bereiche überwachen. In Abhängigkeit von der Art der Installation und den Anwendungserfordernissen können im Hinblick auf die Betriebsweise und die Kommunikationsprotokolle zwischen den verschiedenen Systemkomponenten Einstellungen erforderlich werden.
  • Die Entfernungsmessereinheit 30 wird dadurch geeicht, daß Entfernungsdaten von dem Sicherheitsbereich 4 erhalten und gespeichert werden, der keine vorübergehenden Ziele enthält. Danach werden die Entfernungsdaten, die während des Betriebs erhalten werden, mit den Eichdaten verglichen, um statische Objekte von vorübergehenden Zielen von Interesse zu unterscheiden. Die Videokamera 21 erzeugt Probebilder bekannter Ziele unter existierenden Arbeitslichtbedingungen. Diese Bilder ermöglichen die Kalibrierung der Gesichtsfeststellung 46 und des Gesichtseinfangs 47.
  • Betrieb
  • Im Betrieb tastet die Entfernungsmessereinheit 30 kontinuierlich den übenrwachten Sicherheitsbereich 4 ab, um das Vorhandensein von Zielen festzustellen. Meßdaten, die die Winkellage, Entfernung und Breite irgendwelcher potentieller Ziele betreffen, werden an den Kameraeinheitsteuerer 40 übermittelt. Der Kameraeinheitsteuerer 40 verarbeitet die Meßdaten und den Ort der Ziele, die wahrscheinlich Personen sind, und zwar auf der Basis der Lage der Ziele (das naheliegendste zuerst), der Größe (Personengröße) und der Bewegungsgeschichte. Sobald ein Ziel zwecks näherer Inspektion identifiziert worden ist, werden von der Kamerasteuereinheit 40 an die Videokamera 21 und das Spiegelsystem 25 Befehle gesendet, die diese veranlassen, die Schwenk- und Zoomfunktionen auszuführen, so daß ein detaillierteres Bild von dem Ziel erhalten wird. Diese Befehle bewirken, daß sich der Spiegel 26 so dreht, daß das Ziel in das Blickfeld der Videokamera 21 gelangt, und das Zoom der Videokamera 21 wird gemäß der gemessenen Entfernung so aktiviert, daß das menschliche Durchschnittsgesicht 20 % des Sichtfeldes ausfüllt. Die Gesichtsermittlung 46 tritt in Tätigkeit und verwendet die von der Videokamera in Verbindung mit den Entfernungsmeßdaten erhaltenen Daten, um die Gesichtsermittlungsalgorithmen auszuführen und damit festzustellen, wenn das von der Videokamera 21 kommende Bild ein menschliches Gesicht enthält. Falls ein menschliches Gesicht festgestellt wird, werden die Gesichtsmerkmale entnommen und die räumlichen Koordinaten des Gesichtsmittelpunktes werden berechnet. Diese Ortsinformation wird an die Kameraeinheitsteuerer-Systemsteuerung 49 zurückgeleitet, die es ihr ermöglicht, verfeinerte Schwenk(Spiegeldrehung), Neigungs- und Zoombefehle an die Videokamera 21 und das Spiegelsystem 25 zu senden, um dadurch zu bewirken, daß das ermittelte Gesicht das Videobild vollständig ausfüllt.
  • Normalerweise leitet an dieser Stelle der Kameraeinheitsteuerer 40 einen Gesichtsaufspürvorgang ein, um der Interesse erregenden Person zu folgen, indem die Entfernungs- und Videodaten verwendet werden, um die richtigen Verschwenkungs-, Zoom- und Neigungsbefehle zu berechnen, die ergehen müssen, um die Videokamera 21 genau auf das Zielgesicht gerichtet zu halten und die gewünschte Gesichtsbildgröße beizubehalten. Während das Ziel aufgespürt wird, dienen heuristische Methoden zur Bestimmung passender Momente zum Einfangen qualitativ hochwertiger Frontalhaltungsbilder des Zielgesichtes. Außerdem werden festgesetzte Bildqualitätgrenzwerte berücksichtigt, ferner die Anzahl der erforderlichen Bilder und die Zeitabstände zwischen den Bildern. Sobald die Bilder erhalten worden sind, werden sie an den externen Steuerer 50 über eine Netzverbindung gesendet. An dieser Stelle folgt der Kameraeinheitsteuerer 40 entweder dem Ziel weiter oder wendet seine Aufmerksamkeit auf das Aufspüren eines anderen interessanten Ziels, das in den Sicherheitsbereich 4 eingetreten sein kann, und zwar bestimmt durch die spezielle Arbeitsflußlogik des Anwenders.
  • Der externe Steuerer 50 empfängt von jeder Kameraeinheit 20 die eingefangenen Videogesichtsbilder und Zielbewegungsinformationen. Auch empfängt er Informationen von externen Anwendungen 80, beispielsweise der Ausweis-Kontrollsoftware, die dieselben Zielpersonen überwachen kann. Wie bereits oben kurz erwähnt, ist ein Beispiel für eine externe Information ein Fotobild, das von einem Identifikationsdokument, das von der Zielperson präsentiert wird, gemacht wurde. Der externe Steuerer 50 ist durch Schnittstellen mit der Gesichtserkennung anderer Datenbank-Suchsoftware über Schnittstellen verbunden, um Zielpersonen zu verifizieren und zu identifizieren.
  • Dazu kommt, daß der externe Steuerer 50 den Betrieb zwischen mehreren Kameraeinheiten 20 so koordinieren kann, daß die folgenden Funktionen möglich werden:
    • 1) Einfangen einer einzelnen Person, die von Interesse ist, sobald sie von einem Überwachungsbereich zum anderen läuft;
    • 2) Koordinieren mehrerer Kameraeinheiten 20, die einen einzigen Raum überwachen. In dieser Situation werden Ziele, die von Interesse sind, identifiziert und den verschiedenen Kameraeinheiten 20 wird ermöglicht, Gesichter einzufangen und Gesichtsbilder aufzuspüren.
  • Andere Anwendungen
  • Zusätzlich zu den oben beschriebenen Anwendungen sind andere Anwendungen der vorliegenden Erfindung möglich, jedoch nicht auf die folgenden Anwendungen beschränkt:
    • 1. Einfangen des Gesichtsbildes einer Person, die ein Identifikationsdokument, beispielsweise einen Paß oder ein Visa erhält, und Speicherung des Bildes in einer Datenbank zum Zweck der Verwendung zu einem späteren Zeitpunkt, wenn die maschinengestützte Identitätsbestätigung benötigt wird, um die Identität der Person, die das Identitätsdokument präsentiert, zu verifizieren.
    • 2. Durchführen einer "Vorsicht"-Überprüfung einer beliebigen Person, die ein offizielles Identitätsdokument beantragt, durch Herstellen von Gesichtsbildern der Person und Übermittlung dieser Bilder an eine Datenbank-Suchanwendung für Gesichtserkennung, Identifizierung und Vergleich mit einer Datenbank für unerwünschte Individuen.
    • 3. Einfangen von Gesichtsbildern der Person, die ein Identitätsdokument an sich nimmt und Vergleich mit dem Gesichtsbild der Person auf dem Identitätsdokument, um zu verifizieren, daß das Dokument an den berechtigen Inhaber ausgegeben wird.
    • 4. Einfangen und Speichern des Gesichtsbildes einer Person in einer Datenbank, wenn diese Person die Genehmigung zur Reise oder zum Eintritt in ein Land erhält. Das Einfangen derartiger Gesichtsbilder kann, muß aber nicht auf der Grundlage eines Risikoprofils erfolgen. Die Datenbank dient dann zum Vergleich mit Gesichtsbildern, die von festgehaltenen, nicht kooperativen Personen oder nicht autorisierten Personen aufgenommen worden sind, welche gewisse Sicherheitsbereiche betreten, um festzustellen, ob die Person vorher gesehen worden ist und, wenn dies der Fall sein sollte, welche Identitätsdokumente zu jener Zeit vorgelegt worden sind.
    • 5. Einfangen und Speichern von Gesichtsbildern von Personen in einer Datenbank, die für eine Flugreise einchecken, um eine Passagier-Vorausinformations-Datenbank ("API") zu schaffen. Die API-Aufzeichnungen werden den Behörden am Ankunftsziel übermittelt, wo sie dazu dienen, Vorausüberprüfungen durchzuführen, bevor der Flug ankommt, um dadurch alle Personen zu identifizieren, die Gegenstand einer detaillierten Überprüfung nach der Ankunft sein sollten.
    • 6. Verwendung von API-Daten, die in dem obigen Beispiel gesammelt wurden, um die automatisierte Inspektion von Passagieren am Ankunftszielort zu unterstützen. Gesichtsbilder von ankommenden Passagieren werden aufgenommen und mit den API-Daten verglichen, um sicherzustellen, daß diese ankommenden Personen dieselben Personen sind, die an Board des Flugzeuges gegangen sind. Dies ermöglicht ein rasches Aussteigverfahren aus dem Flugzeug, wobei die Passagiere buchstäblich durch einen Sicherheitsbereich gehen können und jene, die einer genaueren Betrachtung unterzogen werden müssen, lassen sich leicht identifizieren und aussondern.
    • 7. Die Aufnahme von Gesichtsbildern von Personen, die irgendein öffentliches Transportmittel, beispielsweise Flugzeuge, Züge oder Busse besteigen oder die versuchen, irgendeinen Sicherheitsbereich einschließlich von Eintrittshäfen in die Länder oder Sportstadien zu betreten, und Übermittlung dieser Bilder an eine Datenbank-Suchanwendung für Gesichtserkennung, Identifikation und Vergleich mit einer Datenbank, die unerwünschte Personen enthält, um dadurch zu verhindern, daß solche unerwünschten Personen öffentliche Transportmittel benutzen oder den Sicherheitsbereich betreten.
    • 8. Einfangen von Gesichtsbildern von Personen, die auf öffentliche Transportmittel einchecken und Vergleichen dieser Bilder mit einem Gesichtsbild, das in einem während des Eincheckens vorgelegten Identitätsdokument enthalten ist, um zu verifizieren, daß die richtige Person das Identitätsdokument vorlegt.
    • 9. Einfangen von Gesichtsbildern von Personen beim Annähern an einen Hafen eines Landes mit Eintrittsinspektionsbereich und Versenden dieser Bilder an eine Datenbank-Suchanwendung zur Gesichtsidentifizierung und zum Vergleich mit einer Datenbank, die unerwünschte Personen speichert, um dadurch die Inspektionsbehörde bei der Bestimmung zu unterstützen, ob der ankommenden Person der Eintritt erlaubt werden darf.
    • 10. Einfangen von Gesichtsbildern von Personen, die an Selbstbedienungs-Inspektionsmaschinen beim Ankommen im Eintrittshafen eines Landes behandelt werden und Versenden dieser Bilder an eine Datenbank-Suchanwendung zur Gesichtsidentifizierung und zum Vergleich mit einer Datenbank, die unerwünschte Personen speichert, um dadurch den Eintritt solcher Personen in das Land zu verhindern.
    • 11. Einfangen von Gesichtsbildern aller an allen Ankunftsgates ankommenden Passagiere und Speicherung dieser Bilder in einer Ankunftsdatenbank zusammen mit Details des ankommenden Flugs. Verwendung der Datenbank ankommender Passagiere für einen Vergleich mit Gesichtsbildern, die von Personen genommen worden sind, die an Inspektionsschaltern ohne ordentliche Identifikation erscheinen und die es ablehnen, Flugankunftsdetails mitzuteilen. Dies ermöglicht den Grenzkontrollbeamten, die Fluggesellschaft und den Ursprung der Person zu identifizieren, so daß die Fluggesellschaft gefunden und gezwungen werden kann, die festgehaltene Person zum Ausgangspunkt des Fluges zurückzubringen.
    • 12. Durchführung einer "Sicherheits-Überprüfung" für jede Person, die in einen Sicherheitsbereich eintritt, durch Einfangen von Gesichtsbildern der Person und Übermittlung dieser Bilder an eine Datenbank-Suchanwendung zwecks Gesichtsidentifizierung und Vergleichens mit einer Datenbank für unerwünschte Personen sowie Sicherheitsalarm-Auslösung.
    • 13. Verbesserung der Fluglinien-Eincheck-Verfahren durch Einfangen von Gesichtsbildern von Passagieren, sobald sie sich verschiedenen Sicherheitsbe reichen nähern und Vergleichen dieser Bilder mit Gesichtsbildern von gebuchten Passagieren. So läßt sich beispielsweise das Gesichtsbild des Reisenden beim anfänglichen Buchen oder Einchecken erhalten und zur Verifizierung der Identität der Person benutzen, die andere Sicherheitsbereiche innerhalb des Flughafens betritt und möglicherweise an Board des Flugzeugs geht. Dadurch kann die Geschwindigkeit des Eincheckens und an-Board-Gehens sehr vergrößert werden.
    • 14. Gesichtsbilder von Personen, die an Board eines Flugzeugs gehen, können mit Gesichtsbildern von Personen beim Einchecken verglichen werden, um zu verifizieren, daß die Person, die eingecheckt hat, dieselbe Person ist, die das Flugzeug besteigt und mit jener Person übereinstimmt, deren Gepäck in das Flugzeug geladen wird.
    • 15. Gesichtsbilder, die kontinuierlich durch viele Kameraeinheiten 20, die in vielen Sicherheitsbereichen überall an einem gegebenen Ort angeordnet sind, beispielsweise einem Flughafen, lassen sich zur Lokalisierung irgendeiner Person zu irgendeiner Zeit verwenden. Auf diese Weise kann ein Passagier, der einen Flug verpaßt, lokalisiert und in den richtigen Einsteigbereich gelenkt werden. Flugverzögerungen, die notwendig sind, um einen eigensinnigen Passagier zu lokalisieren, lassen sich reduzieren. Derartige Überwachungssysteme können auch in einem Gefängnis zur Lokalisierung von Gefangenen wertvoll sein.
    • 16. In Situationen, die finanzielle Transaktionen, beispielsweise an Geldautomaten (ATM) betreffen, können eingefangene Gesichtsbilder zum Vergleich mit Daten von ATM-Karten dienen, um zu verifizieren, daß die richtige Person die Karte benutzt.
    • 17. Eingefangene Gesichtsbilder aller Personen, die einen Sicherheitsbereich betreten, können mit einer Datenbank/Suchanwendung verglichen werden, um sicherzustellen, daß die Person sich auf einer vorab geprüften Liste von Personen befindet, welchen der Eintritt gestattet ist.
  • Im obigen wurde eine detaillierte Beschreibung der besonders bevorzugten Ausführungsformen der Erfindung gegeben. Die auf diesem Gebiet tätigen Fachleute werden erkennen, daß im Lichte der gegebenen Offenbarung offensichtliche Ab änderungen der hier beschriebenen Ausführungsformen durchgeführt werden können, ohne vom Erfindungsgedanken und vom Schutzumfang der Erfindung abzuweichen. Alle hier beschriebenen und beanspruchten Ausführungsbeispiele können aufgrund der vorhandenen Offenbarung der Erfindung ohne unangemessene experimentelle Arbeit angewendet und ausgeführt werden. Der Schutzumfang der Erfindung ergibt sich aus den folgenden Ansprüchen und ihren Äquivalenten. Allerdings dienen die Ansprüche und die Beschreibung nicht dazu, den Schutzumfang der vorliegenden Erfindung unangemessen einzuengen.

Claims (35)

  1. Gesichtsbilderzeugungssystem zur Aufzeichnung und/oder automatisierten Bestätigung der Identität eines Zielobjektes innerhalb eines Sicherheitsbereiches, wobei das Gesichtsbilderzeugungssystem enthält: eine Kameraeinheit mit: einer Kameraeinheit-Steuereinrichtung; eine Bereichsmesseinrichtung zum Feststellen der Anwesenheit des Zielobjektes in dem Sicherheitsbereich und zum Liefern von Entfernungsdaten bezüglich des Zielobjektes an die genannte Kameraeinheit-Steuereinrichtung; und einer Videokamera zum Einfangen von Bildern des Zielobjektes und Senden der genannten Zielobjektbilder an die genannte Kameraeinheit-Steuereinrichtung; wobei die Kameraeinheit-Steuereinrichtung aufweist: ein Gesichtsfeststellungsystem, welches konfiguriert ist, um ein Gesichtsbild innerhalb der genannten Zielobjektbilder festzustellen; ein Bildeinfangsystem, welches konfiguriert ist, um das genannte Gesichtsbild einzufangen, wenn das genannte Gesichtsbild dahingehend festgestellt wird, dass es eine genügende Qualität für eine Gesichtserkennung hat.
  2. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die genannte Kameraeinheit-Steuereinrichtung ein Gesichtsaufspürsystem einschließt, welches konfiguriert ist, um das genannte Gesichtsbild aufzuspüren.
  3. Gesichtsbilderzeugungssystem nach Anspruch 2, bei welchem die genannte Kameraeinheit-Steuereinrichtung eine Videaokamera-Datenverarbeitungssoftware einschließt, welche konfiguriert ist, um die genannten Zielobjektbilder zu verarbeiten und Videobilddaten zu liefern, und bei welchem das genannte Gesichtsfeststellungssystem und das genannte Gesichtsaufspürsystem konfiguriert sind, um die genannten Videobilddaten zu verwenden, um bei der genannten Feststellung und dem genannten Aufspüren des genannten Gesichtsbildes zu helfen.
  4. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 3, bei welchem die Kameraeinheit ein rotierbares Spiegelsystem zum Reflektieren der genannten Zielobjektbilder und der genannten Gesichtsbilder zu der genannten Videokamera einschließt.
  5. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 4, bei welchem das genannte Gesichtsfeststellungssystem konfiguriert ist, um die genannten Bereichsmessdaten zu benutzen, um bei dem Feststellen der genannten Gesichtsbilder zu helfen, wobei die Bereichsmessdaten eine Abstandslage und eine Winkellage aufweisen.
  6. Gesichtsbilderzeugungssystem nach Anspruch 5, bei welchem die genannten Bereichsmessdaten eine Breite des genannten Zielobjekts einschließen.
  7. Gesichtsbilderzeugungssystem nach Anspruch 2, bei weichem das genannte Gesichtsaufspürsystem konfiguriert ist, um die genannten Bereichs messdaten zu benutzen, um bei dem Aufspüren der genannten Gesichtsbilder zu helfen, wobei die Bereichsmessdaten eine Abstandslage und eine Winkellage aufweisen.
  8. Gesichtsbilderzeugungssystem nach Anspruch 7, bei welchem die genannten Bereichsmessdaten eine Breite des genannten Zielobjekts einschließen.
  9. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 8, mit einem Kameraeinheit-Übermittlungssystem zum Senden der genannten eingefangenen Gesichtsbilder an eine externen Steuereinrichtung zu Zwecken einer Gesichtsüberprüfung und/oder Gesichtserkennung.
  10. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 9, bei welchem das genannte Gesichtsfeststellungssystem konfiguriert ist, um Farbe, Gestalt und Lage von strukturellen Charakteristiken in den genannten Zielobjektbildern zu benutzen, um das genannte Gesichtsbild zu identifizieren.
  11. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 10, bei welchem das genannte Gesichtsfeststellungssystem individuelle Gesichtsmerkmalsfeststellung einschließt, um Gesichtsmerkmale innerhalb der genannten Zielobjektbilder zu lokalisieren und zu bestätigen.
  12. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 11, bei welchem das genannte Gesichtsfeststellungssystem ein Augenfeststellungssystem einschließt, welches Infrarotbeleuchtung des genannten Zielobjektes benutzt, um die Position der Augen innerhalb der genannten Zielobjektbilder zu lokalisieren.
  13. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 12, bei welchem das genannten Gesichtfeststellungssystem konfiguriert ist, um abzudrehen, wenn das genannte Gesichtsbild innerhalb der genannten Zielobjektbilder festgestellt ist.
  14. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 13, bei welchem das genannte Gesichtseinfangsystem ein Haltungsbeurteilungssystem einschließt, welches konfiguriert ist, um eine Haltung des genannten Gesichtsbildes zu dem Zweck zu beurteilen, um festzulegen, ob das genannte Gesichtsbild von der genannten hinreichenden Qualität für eine Gesichtserkennung ist.
  15. Gesichtsbilderzeugungssystem nach Anspruch 14, bei welchem das genannte Haltungsbeurteilungssystem in der Lage ist, festzulegen, ob die genannte Haltung des genannten Gesichtsbildes eine Frontalhaltung ist.
  16. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 15, bei welchem das genannte Gesichtseinfangsystem ein Beleuchtungsbeurteilungssystem einschließt, welches konfiguriert ist, um ein Beleuchten des genannten Gesichtsbildes zu dem Zweck zu beurteilen, um festzulegen, ob das genannte Gesichtsbild von der genannten hinreichenden Qualität für eine Gesichtserkennung ist.
  17. Gesichtsbilderzeugungssystem nach Anspruch 14, bei welchem das genannte Haltungsbeurteilungssystem ein Gesichtsmerkmalidentifikationssystem und ein Gesichtsmerkmallokalisiersystem einschließt.
  18. Gesichtsbilderzeugungssystem nach Anspruch 16, bei welchem das genannte Beleuchtungsbeurteilungssystem ein Farbanalysesystem einschließt.
  19. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 18, bei welchem das genannte Gesichtseinfangsystem ein Belichtungssystem aufweist, welches konfiguriert ist, um eine Belichtung des genannten Gesichtsbildes zum Steuern des genannten Gesichtseinfangsystems zu messen, um festzulegen, ob das genannte Gesichtsbild von der genannten hinreichenden Qualität für eine Gesichtserkennung ist, wobei das Belichtungssystem auf einem Bereich basiert, wobei der genannte Bereich in Größe und Lage auf dem genannten Gesichtsbild einstellbar ist.
  20. Gesichtsbilderzeugungssystem nach einem der Ansprüche 1 bis 19, bei welchem das genannte Gesichtsfeststellungssystem eine individuelle Gesichtsmerkmalsfeststellung einschließt, welche konfiguriert ist, um die Position der Augen innerhalb der genannten Zielobjektbilder zu lokalisieren, und bei welchem das genannte Gesichtseinfangsystem ein Pixelauflösungsbeurteilungssystem zum Festlegen einer minimalen Pixelauflösung des genannten Gesichtsbildes zwischen den genannten Augen festzulegen, um festzulegen, ob das genannte Gesichtsbild von der genannten ausreichenden Qualität für eine Gesichtserkennung ist.
  21. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die genannten Bereichsmessdaten benutzt werden, um dem genannten Gesichtsfeststellungssystem bei der Feststellung des genannten Gesichtsbildes zu helfen.
  22. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die genannten Bereichsmessdaten benutzt werden, um dem genannten Gesichtseinfangsystem bei dem Einfangen des genannten Gesichtsbildes zu helfen.
  23. Gesichtsbilderzeugungssystem nach Anspruch 2, bei welchem die genannten Bereichsmessdaten benutzt werden, um dem genannten Gesichtsaufspürsystem beim Aufspüren des genannten Gesichtbildes zu helfen.
  24. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die genannte Kameraeinheit-Steuereinrichtung Videokamera-Datenverarbeitungssoftware einschließt, welche konfiguriert ist, um die genannten Zielobjektbilder zu verarbeiten und verarbeitete Videobilddaten zu liefern, und bei welchem das genannte Gesichtsfeststellungssystem konfiguriert ist, die genannten verarbeiteten Videobilddaten zu benutzen, um bei der genannten Feststellung des genannten Gesichtsbildes zu helfen.
  25. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die genannte Kameraeinheit-Steuereinrichtung Videokamera-Datenverarbeitungssoftware einschließt, welche konfiguriert ist, um die genannten Zielobjektbilder zu verarbeiten und verarbeitete Videobilddaten zu liefern, und bei welchem das genannte Gesichtseinfangsystem konfiguriert ist, um die genannten verarbeiteten Videobilddaten zu benutzen, um bei dem genannten Einfang des genannten Gesichtsbildes zu helfen.
  26. Gesichtsbilderzeugungssystem nach Anspruch 2, bei welchem die genannte Kameraeinheit-Steuereinrichtung Videokamera-Datenverarbeitungssoftware einschließt, welche konfiguriert ist, um die genannten Zielobjektbilder zu verarbeiten und verarbeitete Videobilddaten zu liefern, und bei welchem das genannte Gesichtsaufspürsystem konfiguriert ist, um die genannten verarbeiteten Videobilddaten zu benutzen, um bei dem genannten Aufspüren des genannten Gesichtsbildes zu helfen.
  27. Gesichtsbilderzeugungssystem nach einem der Ansprüche 24, 25 oder 26, bei welchem die genannten verarbeiteten Videobilddaten in einer Bewegungsablaufdatei organisiert und gespeichert werden.
  28. Gesichtsbilderzeugungssystem nach Anspruch 1, bei welchem die Kameraeinheit automatisierte Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale einschließt.
  29. Gesichtsbilderzeugungssystem nach Anspruch 28, bei welchem das genannte Horizontalschwenkmerkmal von einem ersten Spiegelsystem geliefert wird, welches in einer horizontalen Richtung rotierbar ist, um die genannten Zielobjektbilder in die genannte Videokamera zu reflektieren.
  30. Gesichtsbilderzeugungssystem nach einem der Ansprüche 28 oder 29, bei welchem die genannte Kameraeinheit-Steuereinrichtung konfiguriert ist, um die genannten Bereichsmessdaten zu benutzen, um bei dem automatisierten Steuern der genannten Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale zu helfen.
  31. Gesichtsbilderzeugungssystem nach einem der Ansprüche 28 bis 30, bei welchem das genannte Vertikalneigungs-Merkmal von dem genannten ersten Spiegelsystem geliefert wird, welches auch in einer vertikalen Richtung rotierbar ist.
  32. Gesichtsbilderzeugungssystem nach einem der Ansprüche 28 bis 30, bei welchem das genannte Vertikalneigungs-Merkmal von einem zweiten Spiegelsystem geliefert wird, welches in einer vertikalen Richtung rotierbar ist, um die genannten Zielobjektbilder in die genannte Videokamera zu reflektieren.
  33. Gesichtsbilderzeugungssystem nach einem der Ansprüche 28 bis 32, bei welchem die genannte Kameraeinheit-Steuereinrichtung Videokamera-Datenverarbeitungssoftware einschließt, um die genannten Zielobjektbilder zu verarbeiten und Videobilddaten zu liefern, und bei welchem die genannte Kameraeinheit-Steuereinrichtung konfiguriert ist, um die genannten Videobilddaten zu benutzen, um bei dem automatisierten Steuern der genannten Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale zu helfen.
  34. Bilderzeugungssystem nach einem der Ansprüche 28 bis 33, bei welchem das genannte Bildfeststellungssystem Gesichtsbilddaten erzeugt und die genannte Kameraeinheit-Steuereinrichtung konfiguriert ist, um die genannten Gesichtsbilddaten zu benutzen, um bei dem automatisierten Steuern der genannten Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale zu helfen.
  35. Bilderzeugungssystem nach Anspruch 2, bei welchem die genannte Kameraeinheit automatisierte Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale einschließt, und bei welchem das genannte Bildaufspürsystem Gesichtsaufspürdaten erzeugt und die genannte Kameraeinheit-Steuereinrichtung konfiguriert ist, um die genannten Bildaufspürdaten zu benutzen, um bei einem automatisierten Steuern der genannten Horizontalschwenk-, Zoom- und Vertikalneigungs-Merkmale zu helfen.
DE60209760T 2001-10-17 2002-10-17 Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität Expired - Lifetime DE60209760T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CA2359269 2001-10-17
CA002359269A CA2359269A1 (en) 2001-10-17 2001-10-17 Face imaging system for recordal and automated identity confirmation
PCT/CA2002/001566 WO2003034361A1 (en) 2001-10-17 2002-10-17 Face imaging system for recordal and automated identity confirmation

Publications (2)

Publication Number Publication Date
DE60209760D1 DE60209760D1 (de) 2006-05-04
DE60209760T2 true DE60209760T2 (de) 2007-01-18

Family

ID=4170284

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60209760T Expired - Lifetime DE60209760T2 (de) 2001-10-17 2002-10-17 Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität

Country Status (13)

Country Link
US (2) US20050063566A1 (de)
EP (2) EP1444667B1 (de)
JP (1) JP2005505871A (de)
CN (1) CN100418112C (de)
AT (1) ATE320054T1 (de)
CA (1) CA2359269A1 (de)
DE (1) DE60209760T2 (de)
DK (1) DK1444667T3 (de)
ES (1) ES2260476T3 (de)
HK (1) HK1070167A1 (de)
NZ (1) NZ532315A (de)
PT (1) PT1444667E (de)
WO (1) WO2003034361A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011102744A1 (de) * 2011-05-28 2012-11-29 Connaught Electronics Ltd. Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung

Families Citing this family (216)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7057256B2 (en) 2001-05-25 2006-06-06 President & Fellows Of Harvard College Silicon-based visible and near-infrared optoelectric devices
US7442629B2 (en) 2004-09-24 2008-10-28 President & Fellows Of Harvard College Femtosecond laser-induced formation of submicrometer spikes on a semiconductor substrate
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2003296711A (ja) * 2002-03-29 2003-10-17 Nec Corp 顔画像識別方法、装置およびプログラム
US20070201694A1 (en) * 2002-06-18 2007-08-30 Bolle Rudolf M Privacy management in imaging system
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
JP4218348B2 (ja) * 2003-01-17 2009-02-04 オムロン株式会社 撮影装置
JP4277534B2 (ja) * 2003-02-12 2009-06-10 オムロン株式会社 画像編集装置および画像編集方法
CA2435424C (en) * 2003-07-29 2010-04-27 Jack Gin Rotatable bay window switch box surveillance camera and illuminator for facial recognition
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
JP4476744B2 (ja) * 2003-09-02 2010-06-09 富士フイルム株式会社 撮像システム、及びプログラム
JP4339762B2 (ja) * 2003-09-02 2009-10-07 富士フイルム株式会社 認証システム、及びプログラム
US20050110634A1 (en) * 2003-11-20 2005-05-26 Salcedo David M. Portable security platform
CN100448267C (zh) * 2004-02-06 2008-12-31 株式会社尼康 数码相机
IL161082A (en) * 2004-03-25 2008-08-07 Rafael Advanced Defense Sys System and method for automatically acquiring a target with a narrow field-of-view gimbaled imaging sensor
EP1584898B1 (de) * 2004-04-08 2008-08-27 Accenture Global Services GmbH Verfahren und Vorrichtung zur entfernten Überwachung eines Messgerät
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
WO2006011153A2 (en) 2004-07-30 2006-02-02 Extreme Reality Ltd. A system and method for 3d space-dimension based image processing
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP2006259930A (ja) * 2005-03-15 2006-09-28 Omron Corp 表示装置およびその制御方法、表示装置を備えた電子機器、表示装置制御プログラム、ならびに該プログラムを記録した記録媒体
ES2296443B1 (es) * 2005-04-15 2009-03-01 Universidad Rey Juan Carlos Sistema de verificacion facial.
WO2006118563A1 (en) * 2005-04-29 2006-11-09 Chubb International Holdings Limited Method and device for consistent region of interest
JP2007052770A (ja) * 2005-07-21 2007-03-01 Omron Corp 監視装置
JP4856409B2 (ja) * 2005-08-12 2012-01-18 株式会社リコー 画像処理システム、認証方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
US20070064208A1 (en) * 2005-09-07 2007-03-22 Ablaze Development Corporation Aerial support structure and method for image capture
US8026840B2 (en) * 2005-10-28 2011-09-27 Raytheon Company Biometric radar system and method for identifying persons and positional states of persons
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
US20070162761A1 (en) * 2005-12-23 2007-07-12 Davis Bruce L Methods and Systems to Help Detect Identity Fraud
US7668346B2 (en) * 2006-03-21 2010-02-23 Microsoft Corporation Joint boosting feature selection for robust face recognition
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
JP4751776B2 (ja) * 2006-06-19 2011-08-17 オリンパスイメージング株式会社 電子撮像装置及び個人特定システム
WO2008005834A2 (en) * 2006-06-30 2008-01-10 The Intertech Group, Inc. Biometric aid for customer relations
JP4979289B2 (ja) * 2006-07-21 2012-07-18 日立オートモティブシステムズ株式会社 画像処理装置
US8296808B2 (en) * 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
MXPA06013614A (es) * 2006-11-24 2007-12-06 Global Sight S A De C V Sistemas de transmision de datos en forma remota y digital y localizacion satelital desde terminales moviles o fijas con camaras de vigilancia urbana para reconocimiento facial, detector de disparos, captura de personal de seguridad publica y persona
US8694792B2 (en) * 2007-02-16 2014-04-08 Honeywell International Inc. Biometric based repeat visitor recognition system and method
JP4668220B2 (ja) * 2007-02-20 2011-04-13 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
GB2447246B (en) * 2007-03-07 2012-04-18 Aurora Comp Services Ltd Controlled high resolution sub-image capture with time domain multiplexed high speed full field of view reference video stream for image biometric application
JP4289415B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
WO2008120395A1 (ja) * 2007-03-29 2008-10-09 Fujitsu Limited 撮影装置、および撮影方法、ならびに撮影プログラム
JP4858849B2 (ja) * 2007-05-18 2012-01-18 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2009033369A (ja) 2007-07-26 2009-02-12 Sony Corp 記録装置、再生装置、記録再生装置、撮像装置、記録方法およびプログラム
GB0717019D0 (en) * 2007-09-01 2007-10-10 Rixen Uk Ltd Audiovisual Terminal
US20100162285A1 (en) * 2007-09-11 2010-06-24 Yossef Gerard Cohen Presence Detector and Method for Estimating an Audience
US20090103909A1 (en) * 2007-10-17 2009-04-23 Live Event Media, Inc. Aerial camera support structure
CN101465961B (zh) * 2007-12-19 2013-10-30 神基科技股份有限公司 以特征影像辨识控制快门的摄像装置及方法
US20090207121A1 (en) * 2008-02-19 2009-08-20 Yung-Ho Shih Portable electronic device automatically controlling back light unit thereof and method for the same
US8325976B1 (en) * 2008-03-14 2012-12-04 Verint Systems Ltd. Systems and methods for adaptive bi-directional people counting
JP5132445B2 (ja) * 2008-06-25 2013-01-30 キヤノン株式会社 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体
EP2342642A1 (de) * 2008-09-04 2011-07-13 Extreme Reality Ltd. Verfahren, system und software zur bereitstellung einer auf bildsensoren basierenden mensch-maschine-schnittstelle
JP2010117487A (ja) * 2008-11-12 2010-05-27 Fujinon Corp オートフォーカスシステム
TW201025190A (en) * 2008-12-30 2010-07-01 Altek Corp Image capture device used for monitoring and a monitor method thereof
US8452599B2 (en) 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
JP5356162B2 (ja) * 2009-09-07 2013-12-04 株式会社ザクティ 物体像探索装置
US9673243B2 (en) 2009-09-17 2017-06-06 Sionyx, Llc Photosensitive imaging devices and associated methods
JP2013505493A (ja) 2009-09-21 2013-02-14 エクストリーム リアリティー エルティーディー. 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8908033B2 (en) * 2009-09-29 2014-12-09 Avaya Inc. Utilizing presence information for the purpose of enhanced surveillance
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
KR101082159B1 (ko) 2010-02-02 2011-11-09 대전대학교 산학협력단 얼굴 이미지 분석용 촬영장치
US9377778B2 (en) * 2010-02-17 2016-06-28 The Boeing Company Integration of manufacturing control functions using a multi-functional vision system
JP5642410B2 (ja) * 2010-03-30 2014-12-17 パナソニック株式会社 顔認識装置及び顔認識方法
US8692198B2 (en) 2010-04-21 2014-04-08 Sionyx, Inc. Photosensitive imaging devices and associated methods
TW201137765A (en) * 2010-04-29 2011-11-01 Hon Hai Prec Ind Co Ltd Image capturing device and method for obtaining clear images using the image capturing device
US20190034706A1 (en) * 2010-06-07 2019-01-31 Affectiva, Inc. Facial tracking with classifiers for query evaluation
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
CN101908236B (zh) * 2010-06-08 2012-03-21 上海理工大学 公交客流统计方法
CN103081128B (zh) 2010-06-18 2016-11-02 西奥尼克斯公司 高速光敏设备及相关方法
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
US20130163833A1 (en) * 2010-09-17 2013-06-27 Utc Fire & Security Corporation Security device with security image update capability
CN102466800B (zh) * 2010-11-09 2014-05-14 亚洲光学股份有限公司 具自动启动测距功能的雷射测距装置及其自动启动方法
US8908034B2 (en) * 2011-01-23 2014-12-09 James Bordonaro Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
JP2014504074A (ja) 2011-01-23 2014-02-13 エクストリーム リアリティー エルティーディー. 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路
US9965094B2 (en) 2011-01-24 2018-05-08 Microsoft Technology Licensing, Llc Contact geometry tests
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US8982061B2 (en) 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
FR2976106B1 (fr) 2011-06-01 2015-07-17 Morpho Systeme et methode pour le controle de l'acces d'un individu a une zone a acces controle
US9020207B2 (en) 2011-06-07 2015-04-28 Accenture Global Services Limited Biometric authentication technology
US9496308B2 (en) 2011-06-09 2016-11-15 Sionyx, Llc Process module for increasing the response of backside illuminated photosensitive imagers and associated methods
US8705812B2 (en) * 2011-06-10 2014-04-22 Amazon Technologies, Inc. Enhanced face recognition in video
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
EP2546782B1 (de) * 2011-07-11 2014-06-25 Accenture Global Services Limited Echtheitserkennung
EP2732402A2 (de) * 2011-07-13 2014-05-21 Sionyx, Inc. Biometrische bildgebungsvorrichtungen und entsprechende verfahren
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
DE102011079285A1 (de) * 2011-07-15 2013-01-17 Bundesdruckerei Gmbh Vorrichtung zur Erfassung biometrischer Merkmale
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
US8832805B1 (en) * 2011-08-08 2014-09-09 Amazon Technologies, Inc. Verifying user information
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
CN102298801A (zh) * 2011-08-23 2011-12-28 苏州盛世华安智能科技有限公司 访客智能安全管理装置
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
FR2979873B1 (fr) * 2011-09-12 2013-10-04 Valeo Securite Habitacle Procede d'ouverture d'un ouvrant de vehicule automobile
TWI439967B (zh) * 2011-10-31 2014-06-01 Hon Hai Prec Ind Co Ltd 安全監控系統及安全監控方法
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
WO2013069023A2 (en) * 2011-11-13 2013-05-16 Extreme Reality Ltd. Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response
US8971574B2 (en) * 2011-11-22 2015-03-03 Ulsee Inc. Orientation correction method for electronic device used to perform facial recognition and electronic device thereof
US8941561B1 (en) 2012-01-06 2015-01-27 Google Inc. Image capture
US9197864B1 (en) 2012-01-06 2015-11-24 Google Inc. Zoom and image capture based on features of interest
AU2013200450B2 (en) * 2012-01-30 2014-10-02 Accenture Global Services Limited System and method for face capture and matching
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
US20130194406A1 (en) * 2012-01-31 2013-08-01 Kai Liu Targeted Delivery of Content
CN104041016B (zh) 2012-02-06 2017-05-17 松下电器产业株式会社 服务器装置及系统控制方法
US8948465B2 (en) 2012-04-09 2015-02-03 Accenture Global Services Limited Biometric matching technology
US9558332B1 (en) * 2012-04-09 2017-01-31 Securus Technologies, Inc. Virtual communication device interfaces
US8929596B2 (en) 2012-06-04 2015-01-06 International Business Machines Corporation Surveillance including a modified video data stream
US8855369B2 (en) * 2012-06-22 2014-10-07 Microsoft Corporation Self learning face recognition using depth based tracking for database generation and update
DE102012214148A1 (de) * 2012-08-09 2014-02-13 Siemens Aktiengesellschaft Bildgebungseinrichtung
CN103679745B (zh) * 2012-09-17 2016-08-17 浙江大华技术股份有限公司 一种运动目标检测方法及装置
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US9286509B1 (en) 2012-10-19 2016-03-15 Google Inc. Image optimization during facial recognition
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
GB2508227B (en) * 2012-11-27 2015-02-25 Bae Systems Plc Imaging system and process
EP2736249A1 (de) * 2012-11-27 2014-05-28 BAE Systems PLC Abbildungssystem und -verfahren
EP2926545A1 (de) * 2012-11-27 2015-10-07 BAE Systems PLC Abbildungssystem und -verfahren
BR112015014945A2 (pt) * 2012-12-21 2017-07-11 Koninklijke Philips Nv sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
WO2014209421A1 (en) 2013-06-29 2014-12-31 Sionyx, Inc. Shallow trench textured regions and associated methods
KR102153539B1 (ko) * 2013-09-05 2020-09-08 한국전자통신연구원 영상 처리 장치 및 방법
JP6025690B2 (ja) * 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
US9672649B2 (en) * 2013-11-04 2017-06-06 At&T Intellectual Property I, Lp System and method for enabling mirror video chat using a wearable display device
CN105011903B (zh) * 2014-04-30 2018-06-29 上海华博信息服务有限公司 一种智能健康诊断系统
US20150356802A1 (en) * 2014-06-10 2015-12-10 Center For Integrated Smart Sensors Foundation Low Power Door-Lock Apparatus Based On Battery Using Face Recognition
US11615663B1 (en) * 2014-06-17 2023-03-28 Amazon Technologies, Inc. User authentication system
US9526896B2 (en) * 2014-08-12 2016-12-27 Second Sight Medical Products, Inc. Pattern detection and location indication for a visual prosthesis
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
JP6205073B2 (ja) * 2014-09-10 2017-09-27 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
US9953187B2 (en) 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
JP6483485B2 (ja) * 2015-03-13 2019-03-13 株式会社東芝 人物認証方法
US10551913B2 (en) 2015-03-21 2020-02-04 Mine One Gmbh Virtual 3D methods, systems and software
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
CN104778726A (zh) * 2015-04-29 2015-07-15 深圳市保千里电子有限公司 一种基于人体特征进行运动轨迹跟踪的方法及系统
EP3295372A4 (de) * 2015-05-12 2019-06-12 Mine One GmbH Verfahren, systeme und software für gesichtssignatur
CN104902233B (zh) * 2015-05-22 2018-03-09 辽宁玖鼎金盛计算机技术有限公司 综合安全监控系统
US10146797B2 (en) 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
JP6284688B2 (ja) * 2015-06-29 2018-02-28 富士フイルム株式会社 撮像装置及び撮像方法
US20210390246A1 (en) * 2015-07-11 2021-12-16 Thinxtream Technologies Ptd. Ltd. System and method for contextual service delivery via mobile communication devices
US10803229B2 (en) * 2015-07-16 2020-10-13 Thinxtream Technologies Pte. Ltd. Hybrid system and method for data and file conversion across computing devices and platforms
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
US10579863B2 (en) 2015-12-16 2020-03-03 Global Tel*Link Corporation Unmanned aerial vehicle with biometric verification
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US20170300742A1 (en) * 2016-04-14 2017-10-19 Qualcomm Incorporated Systems and methods for recognizing an object in an image
US9892335B2 (en) * 2016-06-05 2018-02-13 International Business Machines Corporation Real-time system for determining current video scale
CN109414221B (zh) * 2016-06-29 2021-08-17 视觉探索工业股份有限公司 用于矫正装置的测量和定制系统
CN106054278B (zh) * 2016-07-07 2018-06-12 王飞 一种头部三维数据采集及身份识别的安检门及方法
US20180091730A1 (en) * 2016-09-21 2018-03-29 Ring Inc. Security devices configured for capturing recognizable facial images
EP3301476B1 (de) 2016-09-28 2023-03-15 STMicroelectronics (Research & Development) Limited Vorrichtung mit einer kamera und einem laufzeit-einzelphotonen-lawinendioden-entfernungsdetektionsmodul zur steuerung der kamera und zugehöriges verfahren
KR102559745B1 (ko) 2016-10-13 2023-07-26 엘지전자 주식회사 공항 로봇 및 그를 포함하는 공항 로봇 시스템
JPWO2018109869A1 (ja) * 2016-12-14 2019-04-04 三菱電機株式会社 監視カメラシステム、監視カメラ
IT201700021559A1 (it) * 2017-02-27 2018-08-27 St Microelectronics Srl Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti
CN110475510B (zh) * 2017-03-27 2022-08-02 韩国斯诺有限公司 获取对象的形状信息的方法及装置
US10762353B2 (en) 2017-04-14 2020-09-01 Global Tel*Link Corporation Inmate tracking system in a controlled environment
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
US10181192B1 (en) * 2017-06-30 2019-01-15 Canon Kabushiki Kaisha Background modelling of sport videos
US20190031145A1 (en) * 2017-07-28 2019-01-31 Alclear, Llc Biometric identification system connected vehicle
RU2667790C1 (ru) 2017-09-01 2018-09-24 Самсунг Электроникс Ко., Лтд. Способ автоматической регулировки экспозиции для инфракрасной камеры и использующее этот способ вычислительное устройство пользователя
JP6409929B1 (ja) * 2017-09-19 2018-10-24 日本電気株式会社 照合システム
US10679082B2 (en) * 2017-09-28 2020-06-09 Ncr Corporation Self-Service Terminal (SST) facial authentication processing
US10521651B2 (en) * 2017-10-18 2019-12-31 Global Tel*Link Corporation High definition camera and image recognition system for criminal identification
NO343993B1 (en) * 2017-10-30 2019-08-12 Hypervig As A security system
US11538257B2 (en) 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
CN107944422B (zh) * 2017-12-08 2020-05-12 业成科技(成都)有限公司 三维摄像装置、三维摄像方法及人脸识别方法
US10601491B2 (en) 2017-12-15 2020-03-24 Google Llc Performance-based antenna selection for user devices
US10657782B2 (en) 2017-12-21 2020-05-19 At&T Intellectual Property I, L.P. Networked premises security
CN108241853A (zh) * 2017-12-28 2018-07-03 深圳英飞拓科技股份有限公司 一种视频监控方法、系统及终端设备
JP6973258B2 (ja) * 2018-04-13 2021-11-24 オムロン株式会社 画像解析装置、方法およびプログラム
US12020505B1 (en) 2018-05-10 2024-06-25 Wicket, Llc System and method for facial recognition accuracy
US11544965B1 (en) 2018-05-10 2023-01-03 Wicket, Llc System and method for access control using a plurality of images
US11132532B1 (en) 2018-05-10 2021-09-28 Ism Connect, Llc System and method for facial recognition accuracy
US11010597B1 (en) 2018-05-10 2021-05-18 Ism Connect, Llc Entry prevention of persons of interest from venues and events using facial recognition
US10839200B2 (en) * 2018-05-16 2020-11-17 Gatekeeper Security, Inc. Facial detection and recognition for pedestrian traffic
US11087119B2 (en) 2018-05-16 2021-08-10 Gatekeeper Security, Inc. Facial detection and recognition for pedestrian traffic
JP6961845B2 (ja) 2018-05-29 2021-11-05 キュリアサー プロダクツ インコーポレイテッド 対話型トレーニング及びデモンストレーション用の反射ビデオディスプレイ機器及びその使用方法
US11053729B2 (en) * 2018-06-29 2021-07-06 Overhead Door Corporation Door system and method with early warning sensors
CN108877011A (zh) * 2018-07-06 2018-11-23 安徽超清科技股份有限公司 一种基于人脸识别的门禁系统
CN109714521B (zh) * 2018-08-20 2020-11-03 浙江禾记电子科技有限公司 会议场所现场登记平台
DE102018121256A1 (de) * 2018-08-30 2020-03-05 Bundesdruckerei Gmbh Zugangskontrollsystem zum Erfassen eines Gesichtsbildes einer Person
JP7204421B2 (ja) * 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
RU2712417C1 (ru) * 2019-02-28 2020-01-28 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система распознавания лиц и построения маршрута с помощью средства дополненной реальности
RU2694140C1 (ru) * 2019-04-04 2019-07-09 Общество с ограниченной ответственностью "Скайтрэк" (ООО "Скайтрэк") Способ идентификации человека в режиме одновременной работы группы видеокамер
USD963407S1 (en) 2019-06-24 2022-09-13 Accenture Global Solutions Limited Beverage dispensing machine
US10726246B1 (en) 2019-06-24 2020-07-28 Accenture Global Solutions Limited Automated vending machine with customer and identification authentication
US10867193B1 (en) 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11283937B1 (en) * 2019-08-15 2022-03-22 Ikorongo Technology, LLC Sharing images based on face matching in a network
US11157722B2 (en) * 2019-10-10 2021-10-26 Unisys Corporation Systems and methods for facial recognition in a campus setting
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems
CN112788227B (zh) * 2019-11-07 2022-06-14 富泰华工业(深圳)有限公司 目标追踪拍摄方法、装置、计算机装置及存储介质
US11275928B2 (en) * 2019-12-12 2022-03-15 Realnetworks, Inc. Methods and systems for facial recognition using motion vector trained model
US11373322B2 (en) 2019-12-26 2022-06-28 Stmicroelectronics, Inc. Depth sensing with a ranging sensor and an image sensor
CN111179477B (zh) * 2020-02-20 2021-01-05 广东创宇信息工程有限公司 一种通用型人脸识别安全门
EP3869395A1 (de) 2020-02-21 2021-08-25 Accenture Global Solutions Limited Identitäts- und lebendigkeitsprüfung
EP3879478A1 (de) * 2020-03-10 2021-09-15 Mastercard International Incorporated Verfahren, computerprogramm und vorrichtung
US11465030B2 (en) 2020-04-30 2022-10-11 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11151390B1 (en) 2020-05-21 2021-10-19 Ism Connect, Llc Self-correcting face detection pipeline-based method and apparatus for censusing a crowd
JP7188417B2 (ja) * 2020-06-25 2022-12-13 横河電機株式会社 装置、方法およびプログラム
CN112017346B (zh) * 2020-08-25 2023-08-18 杭州海康威视数字技术股份有限公司 门禁管理方法、门禁终端、门禁系统及存储介质
US11167172B1 (en) 2020-09-04 2021-11-09 Curiouser Products Inc. Video rebroadcasting with multiplexed communications and display via smart mirrors
WO2022066460A1 (en) * 2020-09-25 2022-03-31 Arris Enterprises Llc System and method for the access and routing of content on the basis of facial recognition
CN112614264B (zh) * 2020-12-30 2022-12-09 无锡嘉利信科技有限公司 一种人脸识别与指纹解锁一体式小区门禁系统
CN112949505A (zh) * 2021-03-05 2021-06-11 浙江工商大学 基于mcu的离线式人脸识别智能门锁以及控制方法
US11482088B1 (en) * 2021-06-22 2022-10-25 Motorola Solutions, Inc. System and method for context aware access control with weapons detection
US11770623B2 (en) * 2021-07-29 2023-09-26 Lenovo (Singapore) Pte. Ltd. Single camera image data collection
JP7266071B2 (ja) * 2021-08-02 2023-04-27 株式会社日立ソリューションズ西日本 オンライン認証装置、方法、およびプログラム
TWI827028B (zh) * 2022-04-29 2023-12-21 新加坡商鴻運科股份有限公司 一種目標追蹤方法與裝置
US20240179405A1 (en) * 2022-11-28 2024-05-30 Ford Global Technologies, Llc Activation of facial recognition
CN116363817B (zh) * 2023-02-02 2024-01-02 淮阴工学院 一种化工厂危险区域入侵预警方法及系统

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4337482A (en) * 1979-10-17 1982-06-29 Coutta John M Surveillance system
JPS5783971A (en) * 1980-11-13 1982-05-26 Asahi Optical Co Ltd Spot exposure control circuit
US4326218A (en) * 1980-11-14 1982-04-20 Coutta John M Surveillance system
US5339163A (en) * 1988-03-16 1994-08-16 Canon Kabushiki Kaisha Automatic exposure control device using plural image plane detection areas
US4963962A (en) * 1989-01-25 1990-10-16 Visual Methods, Inc. Optical surveillance assembly and camera
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5296945A (en) * 1991-03-13 1994-03-22 Olympus Optical Co., Ltd. Video ID photo printing apparatus and complexion converting apparatus
US5581625A (en) * 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
US5852669A (en) * 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5629752A (en) * 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
US5699449A (en) * 1994-11-14 1997-12-16 The University Of Connecticut Method and apparatus for implementation of neural networks for face recognition
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US5805745A (en) * 1995-06-26 1998-09-08 Lucent Technologies Inc. Method for locating a subject's lips in a facial image
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US5717512A (en) * 1996-05-15 1998-02-10 Chmielewski, Jr.; Thomas A. Compact image steering and focusing device
US6320610B1 (en) * 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
JP2962295B2 (ja) 1997-11-14 1999-10-12 日本電気株式会社 自動情報処理装置の内蔵カメラの自動姿勢制御方法および自動姿勢制御システム
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6289113B1 (en) * 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
US6298145B1 (en) * 1999-01-19 2001-10-02 Hewlett-Packard Company Extracting image frames suitable for printing and visual presentation from the compressed image data
US7038715B1 (en) * 1999-01-19 2006-05-02 Texas Instruments Incorporated Digital still camera with high-quality portrait mode
JP2000259814A (ja) * 1999-03-11 2000-09-22 Toshiba Corp 画像処理装置及びその方法
US7039221B1 (en) * 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
EP1085366B1 (de) * 1999-09-14 2004-09-15 Kabushiki Kaisha Toshiba Vorrichtung und Verfahren zur Portrait Photographie
US6757008B1 (en) * 1999-09-29 2004-06-29 Spectrum San Diego, Inc. Video surveillance system
US6642955B1 (en) * 2000-01-10 2003-11-04 Extreme Cctv Inc. Surveillance camera system with infrared and visible light bandpass control circuit
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
DE60119418T2 (de) * 2000-03-22 2007-05-24 Kabushiki Kaisha Toshiba, Kawasaki Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
EP1290571A4 (de) * 2000-04-17 2005-11-02 Igt Reno Nev System und verfahren zur erfassung des bildes eines spielers, um es in ein spiel zu integrieren
US6766035B1 (en) * 2000-05-03 2004-07-20 Koninklijke Philips Electronics N.V. Method and apparatus for adaptive position determination video conferencing and other applications
WO2002019137A1 (en) * 2000-08-29 2002-03-07 Imageid Ltd. Indexing, storage & retrieval of digital images
JP4374759B2 (ja) * 2000-10-13 2009-12-02 オムロン株式会社 画像比較システムおよび画像比較装置
US6680745B2 (en) * 2000-11-10 2004-01-20 Perceptive Network Technologies, Inc. Videoconferencing method with tracking of face and dynamic bandwidth allocation
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
US6525663B2 (en) * 2001-03-15 2003-02-25 Koninklijke Philips Electronics N.V. Automatic system for monitoring persons entering and leaving changing room
US6920236B2 (en) * 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US6985179B2 (en) * 2001-03-30 2006-01-10 Intel Corporaiton Determining image quality for improving object trackability
US7020345B2 (en) * 2001-04-26 2006-03-28 Industrial Technology Research Institute Methods and system for illuminant-compensation
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US7068841B2 (en) * 2001-06-29 2006-06-27 Hewlett-Packard Development Company, L.P. Automatic digital image enhancement
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011102744A1 (de) * 2011-05-28 2012-11-29 Connaught Electronics Ltd. Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung

Also Published As

Publication number Publication date
DK1444667T3 (da) 2006-07-17
WO2003034361A1 (en) 2003-04-24
HK1070167A1 (en) 2005-06-10
US20050063566A1 (en) 2005-03-24
CN100418112C (zh) 2008-09-10
PT1444667E (pt) 2006-07-31
CA2359269A1 (en) 2003-04-17
EP1667080A1 (de) 2006-06-07
ES2260476T3 (es) 2006-11-01
EP1444667B1 (de) 2006-03-08
US20090080715A1 (en) 2009-03-26
CN1568489A (zh) 2005-01-19
EP1444667A1 (de) 2004-08-11
ATE320054T1 (de) 2006-03-15
NZ532315A (en) 2005-08-26
DE60209760D1 (de) 2006-05-04
JP2005505871A (ja) 2005-02-24

Similar Documents

Publication Publication Date Title
DE60209760T2 (de) Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität
DE60209050T2 (de) Gerät und Verfahren zur Anpassung der Fokusposition in einem Iriserkennungssystem
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
DE69032326T2 (de) Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür
DE102008039130A1 (de) Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren
DE69934068T2 (de) Bestimmung der position von augen durch blitzreflexerkennung und korrektur von defekten in einem aufgenommenen bild
DE102015206178A1 (de) Ein Videoverfolgungsbasiertes Verfahren zur automatischen Reihung von Fahrzeugen in Drivethrough-Anwendungen
DE10227601A1 (de) Bildverarbeitungseinrichtung und damit versehener Aufzug
EP1589484A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
EP3526963A1 (de) Objektüberwachung mit infrarotbildaufnahme und infrarotpulsbeleuchtung
WO2015040001A2 (de) Vorrichtung, system und verfahren zum identifizieren einer person
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
EP3425560B1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
EP3391163A1 (de) Vorrichtung und verfahren für ein unbemanntes flugobjekt
EP4266270A1 (de) Verfahren zur steuerung einer türanlage
DE102005055879A1 (de) Flugverkehr-Leiteinrichtung
EP3611659B1 (de) Vorrichtung zum bereitstellen einer mehrzahl von biometrischen merkmalen einer mehrzahl von personen einer personengruppe
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
EP3857304B1 (de) Verfahren zum fokussieren einer kamera
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
EP3839815A1 (de) Vorrichtung und verfahren zum bestimmen eines biometrischen merkmals eines gesichts einer person
EP2553630B1 (de) Vorrichtung und verfahren zur identifikation von personen
EP3449463A1 (de) Bewegungsanalysesystem und ein dieses umfassendes bewegungsverfolgungssystem von bewegten oder sich bewegenden, sich thermisch von ihrer umgebung abhebenden objekten
CA2463836A1 (en) Face imaging system for recordal and automated identity confirmation
AU2002331511B2 (en) Face imaging system for recordal and automated identity confirmation

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: CRYPTOMETRICS CANADA INC., KANATA, ONTARIO, CA

8364 No opposition during term of opposition