DE602004005520T2 - Anordnung und Verfahren zur Bilderkennung - Google Patents

Anordnung und Verfahren zur Bilderkennung Download PDF

Info

Publication number
DE602004005520T2
DE602004005520T2 DE602004005520T DE602004005520T DE602004005520T2 DE 602004005520 T2 DE602004005520 T2 DE 602004005520T2 DE 602004005520 T DE602004005520 T DE 602004005520T DE 602004005520 T DE602004005520 T DE 602004005520T DE 602004005520 T2 DE602004005520 T2 DE 602004005520T2
Authority
DE
Germany
Prior art keywords
image
unit
video signal
skin color
digital video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004005520T
Other languages
English (en)
Other versions
DE602004005520D1 (de
Inventor
Hyeok-Beom Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020030023791A external-priority patent/KR100548211B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE602004005520D1 publication Critical patent/DE602004005520D1/de
Application granted granted Critical
Publication of DE602004005520T2 publication Critical patent/DE602004005520T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Bilderfassungssystem, speziell, aber nicht ausschließlich, auf ein Bilderfassungssystem eines menschlichen Antlitzes und auf ein Verfahren, das in der Lage ist Gesichtsbilder zu entdecken, zu vergrößern und zu erfassen, die Bilder zur Aufzeichnung und Speicherung zu komprimieren und danach die Suche und das wieder Finden der komprimierten und aufgezeichneten Bilder zu ermöglichen.
  • Das unterbrechungsfreie TV System (CCTV) der nächsten Generation ist ein Überwachungssystem mit zumindest einer Überwachungskamera, die in einem Überwachungsbereich installiert ist, in dem Sicherheit gefordert wird, und einem Bildschirm für die Ausgabe der Bilder, die von der installierten Überwachungskamera in Realzeit gemacht wurden. Der Bildschirm wird für Monitore zur Verfügung gestellt, die an bestimmten Stellen installiert sind, um weniger Überwachungspersonal zu ermöglichen, um sowohl normale, als auch ungewöhnliche Situationen in den Überwachungsbereichen zu beobachten.
  • Darüber hinaus zeichnet das CCTV System ein Bildsignal in einem Aufzeichnungsmedium auf, wie ein Videosignal, das durch das Aufzeichnungssystem aufgenommen wurde, und reproduziert das aufgezeichnete Videosignal und gibt es auf Monitore aus. Ein digitales Videorekorder- (DVR) System ist ein Beispiel einer solchen CCTV Komponente.
  • Das DVR System erfasst ein analoges Videoeingangssignal aus einer aufnehmenden Kamera und komprimiert das analoge Videosignal und zeichnet es auf einem Festplattenlaufwerk (HDD) als ein digitales Hochauflösungsvideosignal auf. Daher kann das erfasste Videosignal aufgezeichnet werden, und für eine größere Periode ohne Bildverschlechterung behalten werden, so dass es in Fällen verwendet werden kann, die eine Beweissicherung oder Suche danach für die Zukunft erfordern.
  • Ein herkömmliches CCTV System dieses Typs verwendet zumindest eine fixierte Überwachungskamera, um Positionen aufzunehmen und/oder aufzuzeichnen, in denen ein Aufnehmen notwendig ist. Jedoch ist die fixierte Überwachungskamera unbeweglich, so dass sie Bilder nur für einen speziellen Bereich an der installierten Position erfasst, und oft Bilder innerhalb eines weiten Bereichs abdeckt und erfasst, anstelle eines speziellen, engeren Teils des Überwachungsbereichs. Entsprechend leidet ein Videosignal für den weiten Bereich an schlechter Bildqualität, wenn es mit einem Videosignal verglichen wird, das für einen speziellen Teil des Überwachungsbereichs aufgenommen wurde, dabei Schwierigkeiten bei der Sicherung eines klarer Identifikationsnachweises für zukünftige Verwendung verursachend.
  • Darüber hinaus hat das herkömmliche CCTV System ein niedrigeres Aufzeichnungsraumeffizienzniveau, da es alle Videosignale aufzeichnet, die von Subjekten und Umgebungen gemacht wurden. Nachdem eine solche große Menge von Information aufgezeichnet wurde, erfordert das herkömmliche CCTV System eine lange Suchzeit für das gewünschte Videosignal.
  • Hongo et al., "Gesichts- und Handbewegungserkennung für Mensch-Computerinteraktion" beschreibt ein Mehrkamerasystem in dem Gesichter und Hände erfasst werden können und verfolgt werden können, um Gesichts- und Handbewegungen zu erkennen.
  • Acosta et al., " Ein automatisches Gesichtserfassungs- und Erkennungssystem für Videoregistrieranwendungen" beschreibt ein Gesichtserfassungs- und Erkennungssystem, das Hautpixelerfassung mit anschließender Gesichtserkennung unter Verwendung der Hauptkomponentenanalyse anwendet.
  • Krüger et al., "Gabor Elementarwellennetzwerke für effiziente Kopfstellungsabschätzung" beschreibt die Verwendung des Gabor Elementarwellennetzwerks als einen Modell basierenden Ansatz zur Objektpräsentation.
  • Garcia et al., "Gesichtserkennung in Farbbildern unter Verwendung der Elementarwellenanalyse" beschreibt die Erfassung des menschlichen Antlitzes unter Verwendung der Hautfarbbereichserfassung und der Elementarwellenanalyse.
  • Entsprechend existiert ein Bedarf für ein Überwachungssystem und -Verfahren, das in der Lage ist, Gesichtsbilder aus einer aufgenommenen Position zu erfassen und aufzuzeichnen, die Umgebung ausschließend, so dass die Bilder nützlicher sind und die Analyse, Speicherung und das Finden der Bilder auf eine effizientere Weise erreicht wird.
  • Daher ist es eine Aufgabe der vorliegenden Erfindung ein Überwachungssystem und -Verfahren zur Erfassung und Aufzeichnung spezieller Bilder zur Verfügung zu stellen, wie Gesichtsbilder, aus einer aufgenommenen Position und die Ausschließung der Bildumgebungen, so dass die Bilder für verschiedene Zwecke, wie zur Identifikation, nützlicher sind.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist es, ein Überwachungssystem und -Verfahren zur Analyse, Speicherung und Findung der Bilder auf effiziente Weise zur Verfügung zu stellen.
  • Entsprechend der Erfindung wird ein Bilderfassungssystem gemäß dem Anspruch 1 zur Verfügung gestellt.
  • Entsprechend der Erfindung wird weiterhin ein Verfahren zur Bilderfassung gemäß dem Anspruch 17 zur Verfügung gestellt.
  • Die Ausführungen liefern ein Überwachungssystem und -Verfahren, das Gesichtsbilder in einer überwachten Position als ein Videosignal erkennen und erfassen kann, und als Reaktion, das analoge Videosignal in ein digitales Videosignal zur Vergrößerung, Analyse und Speicherung des Gesichtsbildes zu konvertieren. Das Überwachungssystem enthält eine Kandidatenbereichs-Erfassungseinheit zum Vergleichen eines Farbdifferenzsignalniveaus des konvertierten digitalen Videosignals mit einem vorbestimmten Referenzfarbendifferenz-Signalniveaubereichs, der für eine Hautfarbenentscheidung vorbestimmt ist, und als Reaktion, zumindest einen Farbkandidatenbereich erkennend.
  • Das ausgeführte Überwachungssystem enthält weiterhin eine Kontrolleinheit zur Ausgabe eines Zoomkontrollsignals an die Bilderfassungseinheit, um vergrößerte Bilder jedes erkannten Hautfarben-Kandidatenbereichs zu erfassen. Eine Konvertierungseinheit zum Konvertieren jedes Hautfarben-Kandidatenbereichs, der im vergrößerten Bild erfasst wurde, in ein vergrößertes digitales Bildvideosignal zur Verwendung mit einer Gesichtserkennungseinheit, um ein Gesichtsvideosignal aus dem konvertierten, vergrößerten digitalen Bildvideosignal zu ermitteln. Dann wird eine Kompression/Aufzeichnungseinheit zum Komprimieren und Aufzeichnen des ermittelten Gesichtsbildvideosignals zur Verfügung gestellt.
  • Das ausgeführte System sucht nach Kandidatenbereichen und sobald gefunden, dirigiert es die Erfassung der vergrößerten Bilder. Wenn ein Gesichtsbild in diesen vergrößerten Bildern ermittelt wird, wird das vergrößerte Gesichtsbild zur weiteren Verwendung aufgezeichnet. Entsprechend ermöglichen das System und das Verfahren es einem Benutzer, eine Suche nach dem Gesicht eines Subjekts leicht durchzuführen, wenn er die aufgezeichneten Videodaten durchsucht.
  • 1 ist ein Blockdiagramm, das ein Beispiel eines Gesichtsbild-Überwachungssystems gemäß einer Ausführung der vorliegenden Erfindung zeigt;
  • 2 ist ein Blockdiagramm, das ein Beispiel einer Kandidatenbereichs-Erfassungseinheit der 1 im Detail zeigt;
  • 3 ist ein Blockdiagramm, das ein Beispiel einer Gesichtserfassungseinheit im Detail zeigt; und
  • 4 ist ein Flussdiagramm, das ein Beispiel eines Gesichtsbild-Erfassungsverfahren für ein Aufzeichnungssystem, wie in 1 gezeigt, darstellt.
  • Im Folgenden wird die vorliegende Erfindung im Detail mit Bezug auf die beiliegenden Abbildungen beschrieben werden.
  • 1 ist ein Blockdiagramm, das ein Beispiel eines Gesichtsbild-Aufzeichnungssystems entsprechend einer Ausführung der vorliegenden Erfindung zeigt, 2 ist ein Blockdiagramm, das ein Beispiel einer Kandidatenbereichs-Ermittlungseinheit der 1 im Detail zeigt und 3 ist ein Blockdiagramm, das ein Beispiel einer Gesichtsermittlungseinheit der 1 im Detail zeigt.
  • Mit Bezug auf die 1 hat ein Beispiel eines Gesichtsbild-Aufzeichnungssystems 100 gemäß einer Ausführung der vorliegenden Erfindung eine Bilderfassungseinheit 105, auch als eine ein Bild aufnehmende Einheit bezeichnet, eine Schwenk/Kipp/Zoom-Antriebseinheit (im Folgenden auch als "P/T/Z-Antriebseinheit" bezeichnet), ein analog zu digital Konvertierungseinheit (im Folgenden als "ADC" bezeichnet) 115, eine Schalteinheit 120, eine Kandidatenbereichs-Ermittlungseinheit 125, eine Kandidatenbereichs-Entscheidungseinheit 130, eine Kontrolleinheit 135, eine Kandidatenbereichs-Speicherungseinheit 140, eine Gesichtsermittlungseinheit 145, eine Kompressionseinheit 150, eine Datenbank- (im Folgenden als "DB" bezeichnet) Generierungseinheit 155, eine Aufzeichnungseinheit 160, eine Dekompressionseinheit 165, eine digital zu analog Konvertierungseinheit (im Folgenden als "DAC" bezeichnet) 170 und eine Schlüsselmanipulationseinheit 175. Ein Bus 180 wird zur Kopplung der Kontrolleinheit 135, der Kompressionseinheit 150, der Datenbankgenerierungseinheit 155, der Aufzeichnungseinheit 160 und der Dekompressionseinheit 165 zur Verfügung gestellt.
  • Die Bilderfassungseinheit 105 ist eine Kameravorrichtung, wie eine Ladungskopplungsspeicher- (CCD) Kamera, angetrieben von einer P/T/Z-Antriebseinheit 110, um Bilder der vordefinierten Aufzeichnungsbereiche zu erfassen. Die CCD Kamera kann in eine horizontalen Richtung schwenken, in eine vertikale Richtung kippen, herein und heraus zoomen, und ein analoges Videosignal ausgeben, das von der CCD Kamera aufgenommen wurde. Eine Vielzahl von Bilderfassungseinheiten 105 kann installiert werden, von denen jede eine Identifikationsnummer besitzt.
  • In der Ausführung der vorliegenden, in 1 gezeigten, Erfindung wird eine Bilderfassungseinheit 105 dazu verwendet, um Bilder von zumindest einem Aufzeichnungsbereich zu erfassen. Jedoch kann, im Falle von zwei oder mehr Aufzeichnungsbereichen, die eine Bilderfassungseinheit 105 die Bilderfassungsoperationen zuerst in einem vordefinierten Aufzeichnungsbereich für eine erste vordefinierte Zeitperiode wiederholen, und sich dann zu einem zweiten Aufzeichnungsbereich hinbewegen, um Bilder für eine zweite vorbestimmte Zeitperiode zu erfassen, und so weiter für jede Anzahl von Aufzeichnungsbereichen. Zum Beispiel, in dem das Aufzeichnungssystem 100 in einer Bank installiert ist und Bilder der drei Bankfenster mit einer Bilderfassungseinheit 105 erfasst, erfasst die Bilderfassungseinheit 105 Bilder eines Bankfensters bei einem fixierten Zustand für eine vorbestimmte Zeitperiode, bewegt sich in eine Position, in der sie Bilder des nächsten Bankfensters für eine zweite vorbestimmte Zeitperiode erfassen kann, und bewegt sich dann in eine Position, in der sie Bilder des nächsten Schalterbereichs für eine dritte vorbestimmte Zeitperiode erfassen kann. In diesem Beispiel wird bevorzugt, dass die erste, zweite und dritte Zeitperiode zur Erfassung der Bilder jedes Schalterbereichs dieselben sind. Sie kann jedoch wie von der Anwendung gefordert konfiguriert werden.
  • Zurückkehrend zur 1, treibt die P/T/Z-Antriebseinheit 110 die Bilderfassungseinheit 105 auf der Basis eines Antriebskontrollsignals an, z.B., eines Zoomkontrollsignals, eines Schwenk/Kipppositionskontrollsignals und so weiter, einer Ausgabe aus der Kontrolleinheit 135, die in größerem Detail weiter unten beschrieben wird.
  • Um die zu tun, enthält die P/T/Z-Antriebseinheit 110 eine Zoomantriebseinheit (nicht gezeigt) um die Zoomlinsen (nicht gezeigt) anzutreiben, vergrößerte Bilder eines Kandidatenbereichs basierend auf dem Zoomkontrollsignal zu erfassen. Die P7T7Z-Antriebseinheit 110 enthält weiterhin eine Schwenk/Kippantriebseinheit (nicht gezeigt) zum Antrieb der Bilderfassungseinheit 105, um sich zu Positionen zu bewegen, in denen sie Bilder der Kandidatenbereiche basierend auf einem Positionskontrollsignal erfassen kann.
  • Das ADC 115 konvertiert das analoge Videosignal, das von der Bilderfassungseinheit 105 geliefert wird, in ein digitales Videosignal.
  • Die Schaltereinheit 120 liefert selektiv die digitale Videosignalausgabe aus dem ADC 115 entweder an die Kandidatenbereichsermittlungseinheit 125 oder an die Gesichtsermittlungseinheit 145, und wird bevorzugt mit einem Multiplexer implementiert. Die Schaltereinheit 120 ist konfiguriert, um anfänglich die digitale Videosignalausgabe aus dem ADC 115 an die Kandidatenbereichsermittlungseinheit 125 zu liefern. Eine weitere Operation des System 100 resultiert in einem digitalen Videosignal eines vergrößerten Bildbereichs, das an die Gesichtsermittlungseinheit 145 geliefert wird, wie weiter unten in größerem Detail beschrieben wird.
  • Die Kandidatenbereichsermittlungseinheit 125 verwendet ein Farbdifferenzsignal, das von der digitalen Videosignalausgabe aus der Schalteinheit 120 geliefert wird, um zumindest einen Hautfarben-Kandidatenbereich zu ermitteln, der aus einem Farbdifferenzsignal besteht, das einem Farbdifferenzsignal für eine menschlichen Hautfarbe ähnlich ist.
  • Um dies auszuführen, besitzt die Kandidatenbereichs-Ermittlungseinheit 125 eine Farbdifferenzsignal-Berechnungseinheit 125a, einen Filter 125b und eine Hautfarbenkandidatenbereichs-Ermittlungseinheit 125c, wie in 2 gezeigt.
  • Die Farbdifferenzsignal-Berechnungseinheit 125a digitalisiert das Farbdifferenzsignalniveau einer digitalen Videosignaleingabe aus der Schaltereinheit 120 unter Verwendung der folgenden Gleichung (1) f(Cb, Cr) = 〈0, if(CbL ≺ Cb ≺ CbH |(CrL ≺ Cr ≺ CrH )〉 (1)255, otherwise
  • Mit Bezug auf die Gleichung (1), ist 'CbL < Cb < CbH' und 'CrL < Cr < CrH' ein vorher bestimmter Referenzfarbdifferenz-Signalniveaubereich, der mit einer besonderen Hautfarbe assoziiert ist. In Gleichung (1) bezeichnen Cb und Cr Farbdifferenzsignalniveaus von digitalen Signalen, die Eingabe aus der Schalteinheit 120 sind, CbL und CrH sind Minimalwerte des Referenzfarbdifferenz-Signalniveaus und CbH und CrH sind Maximalwerte des Referenzfarbdifferenz-Signalniveaus.
  • Die Farbdifferenzsignal-Berechnungseinheit 125a vergleicht das Farbdifferenzsignalniveau der digitalen Videosignaleingabe Einzelbild um Einzelbild, (d.h., Cb und Cr) mit dem für die besondere Hautfarbenentscheidung vorher bestimmten Referenzfarbdifferenz-Signalniveaubereich (d.h., CbL, CrL, CbH und CrH), und digitalisiert das auf den Resultaten basierende Videosignal.
  • Speziell digitalisiert die Farbdifferenzsignal-Berechnungseinheit 125a das digitale Videosignal aus der Schalteinheit 120 in ein Farbdifferenzsignalniveau von '0', wenn sich das Farbdifferenzsignalniveau des digitalen Videosignal innerhalb des vorher bestimmten Referenzfarbdifferenz-Signalniveaubereichs wie in Gleichung (1) befindet, und digitalisiert das digitale Videosignal in ein Farbdifferenzsignalniveau von '255', wenn das Farbdifferenzsignalniveau des digitalen Videosignals aus dem vorher bestimmten Referenzfarbdifferenz-Niveaubereich ausgeschlossen wurde.
  • Der Filter 125b filtert dann das digitalisierte digitale Videosignal, um Störungen zu entfernen, die im digitalisierten digitalen Videosignal enthalten sind.
  • Die Hautfarben-Kandidatenbereichs-Ermittlungseinheit 125c führt dann vertikale und horizontale Projektionen für das gefilterte digitale Videosignal durch, um zumindest einen Hautfarbenkandidatenbereich zu ermitteln.
  • Zum Beispiel wird die vertikale Projektion dazu verwendet, die Anzahl der Pixel zu zählen, d.h., die Anzahl der aufeinander folgenden ausgegeben Pixel, ausgedrückt im Farbdifferenzsignalniveau '0' in der vertikalen Richtung des gefilterten digitalen Videosignals, und um zu entscheiden, ob die Anzahl der gezählten Pixel größer ist, als ein vorher bestimmter erster Grenzwert für einen Hautfarbenbereich. In ähnlicher Weise wird die horizontale Projektion dazu verwendet, die Anzahl der Pixel zu zählen, d.h., die Anzahl der aufeinander folgenden ausgegebenen Pixel, ausgedrückt im Farbdifferenzsignalniveau '0' in die horizontale Richtung des gefilterten Videosignals, und um zu entscheiden, ob die Anzahl der gezählten Pixel größer ist, als ein vorher bestimmter zweiter Grenzwert für einen Hautfarbenkandidatenbereich.
  • Durch diese Handlungsweise kann zumindest ein Hautfarbenkandidatenbereich mit einer unterschiedlichen Größe aus dem digitalisierten digitalen Videosignal einer Bildeinheit ermittelt werden.
  • Zurückkehrend zur 1, normalisiert die Kandidatenbereichs-Entscheidungseinheit 130 die unterschiedlichen Größen der Hautfarbenbereiche, die von der Hautfarben-Kandidatenbereichs-Ermittlungseinheit 125c ermittelt wurden, auf eine vorher bestimmte Größe. Z.B., kann die Kandidatenbereichs-Entscheidungseinheit 130 alle ermittelte Hautfarben-Kandidatenbereiche auf eine (20 × 20) Pixelauflösung normalisieren.
  • Sobald die Größe jedes Hautfarben-Kandidatenbereichs normalisiert ist, kann die Kandidatenbereichs-Entscheidungseinheit 130 entscheiden, ob jeder normalisierte Hautfarben-Kandidatenbereich ein Bild eines menschlichen oder nicht menschlichen (d.h., Umgebung) Bildes ist. Diese Entscheidung kann z.B, unter Verwendung des Mahalanobis Entfernungs- (MD) Verfahren durchgeführt werden. Eine detaillierte Beschreibung des MD Verfahrens ist nicht enthalten, da sie den Fachleuten wohl bekannt ist.
  • Die Kandidatenbereichs-Speicherungseinheit 140 speichert dann sowohl Positionskoordinatenwerte des Hautfarben-Kandidatenbereichs, der als ein menschliches Abbild ermittelt wurde, als auch das digitale Videosignal für den Hautfarben-Kandidatenbereich, der von der Kandidatenbereichs-Entscheidungseinheit 130 auf die vorher bestimmte Größe normalisiert wurde.
  • Die Kontrolleinheit 135 kontrolliert die Gesamtoperation des Aufzeichnungssystems 100 entsprechend den Kontrollprogrammen, die in der Programmspeichereinheit (nicht gezeigt) gespeichert sind und mit der Kontrolleinheit verbunden sind.
  • Die Kontrolleinheit 135 verarbeitet die Positionskoordinatenwerte des Hautfarben-Kandidatenbereichs und das Videosignal für den auf die vorbestimmte Größe normalisierten Hautfarben-Kandidatenbereich, das von der Kandidatenbereichs-Entscheidungseinheit 130 geliefert wird, das in der Kandidatenbereichs-Speicherungseinheit 140 gespeichert ist.
  • Auf der Basis dieser Prozesse, speziell der Ermittlung des menschlichen Bildes, gibt die Kontrolleinheit 135 an die P/T/Z Antriebseinheit 110 ein Zoomkontrollsignal zur Erfassung vergrößerter Bilder von nur des Hautfarben-Kandidatenbereichs aus, der von der Kandidatenbereichs-Entscheidungseinheit 130 als menschliches Bild ermittelt wurde, und gibt ein den Positionskoordinatenwerten entsprechendes Positionskontrollsignal aus, durch Lesen der Positionskoordinatenwerte des Hautfarben-Kandidatenbereichs aus der Kandidatenbereichs-Speichereinheit 140.
  • Daher sucht die Bilderfassungseinheit 105 angepasst den Hautfarben-Kandidatenbereich ab und erfasst ein vergrößertes Bild des Bereichs. In größerem Detail beschrieben, bewegt die P/T/Z Antriebseinheit 110 die Bilderfassungseinheit 105 in eine Position, in der sie Bilder des Kandidatenbereichs, basierend auf dem Positionskontrollsignal, das eine Ausgabe aus der Kontrolleinheit 135 ist, erfassen kann und bewegt die Zoomlinsen der Bilderfassungseinheit 105, um mit einem vorher bestimmten Vergrößerungsfaktor einzuzoomen, um ein vergrößertes Bild des Hautfarben-Kandidatenbereichs auf der Basis des Zoomkontrollsignals zu erfassen.
  • Die Kontrolleinheit 135 benötigt jedoch eine bestimmte Zeitperiode, um das Zoomkontrollsignal auszugeben, das dem bestimmten Hautfarben-Kandidatenbereich entspricht. Entsprechend gibt die Kontrolleinheit 135, wenn ein spezieller Hautfarben-Kandidatenbereich von der Kandidatenbereichs-Entscheidungseinheit 130 ermittelt wird, ein Zoomkontrollsignal zum Aufbau von Anfangsvergrößerungen (d.h., eine Anfangszoomkontrollsignal) aus, das in einer Reduzierung der Antwortzeit resultiert, die zur Zoomoperation der Bilderfassungseinheit 105 erforderlich ist, wenn das dem speziellen Hautfarben-Kandidatenbereich entsprechende Zoomkontrollsignal zur Verfügung gestellt wird.
  • Das Anfangszoomkontrollsignal zum Aufbau von Anfangsvergrößerungen ist ein spezielles Signal, das aufgebaut wird, um schnell vergrößerte Bilder zu erfassen, dabei gewöhnlich einen Bereich ansteuernd, von dem angenommen wird, dass er eine bestimmte Größe enthält, oder der sehr nahe daran ist, den bestimmten Hautfarben-Kandidatenbereich zu enthalten, und der auch im Programmspeichereinheit gespeichert sein kann. Entsprechend kann jeder Hautfarben-Kandidatenbereich, der durch ein Anfangszoomkontrollsignal in einem vergrößerten Bild erfasst wurde, von einem Benutzer erkannt werden. D.h., durch die Erstellung eines Anfangszoomkontrollsignals abhängig von der Lage und den Aufzeichnungsbereichen, in denen die Bilderfassungseinheit 105 installiert ist, kann der in den Aufzeichnungsbereichen ermittelte Hautfarben-Kandidatenbereich schneller in einem vergrößerten Bild mit einer erkennbaren Größe erfasst werden.
  • Weiterhin kann in Beispielen, in denen eine Bilderfassungseinheit 105 sequentiell Bilder von zumindest zwei Aufzeichnungsbereichen erfasst, ein unterschiedliches oder ein identisches Anfangszoom-Kontrollsignal für vergrößerte Bilder jedes Aufzeichnungsbereichs aufgebaut werden.
  • Sobald ein Zoomkontrollsignal geliefert und ein vergrößertes Bild erfasst wird, wird ein analoges Videosignal für einen speziellen Hautfarben-Kandidatenbereich, der in einem vergrößerten Bild von der Bilderfassungseinheit 105 erfasst wurde, von ADC 115 in ein digitales Videoausgabesignal konvertiert.
  • Die Schalteinheit 120 liefert dann selektiv das digitale Videosignal, Ausgabe des vergrößerten Bildes aus der ADC 115, auf der Basis der Kontrollsignale der Kontrolleinheit 135 an die Gesichtsermittlungseinheit 145.
  • Die Gesichtsermittlungseinheit 145 wird dann dazu verwendet, um ein Gesichtsvideosignal aus der digitalen Videosignalausgabe des vergrößerten Bildes zu ermitteln.
  • Speziell hat die Gesichtsermittlungseinheit 145 eine erste Gesichtskandidatenbereichs-Ermittlungseinheit 145a, eine zweite Gesichtskandidatenbereichs-Ermittlungseinheit 145b und eine letzte Gesichtsermittlungseinheit 145c, wie in 3 gezeigt.
  • Die erste Gesichtskandidatenbereichs-Ermittlungseinheit 145a wendet ein spezielles Muster auf das digitale Videosignal, konvertiert von der ADC 115, des vergrößerten Bildes an und ermittelt einen Gesichtskandidatenbereich, in dem wahrscheinlich ein Gesicht existiert. In einem Beispiel, in dem ein M-Gitter Gabor Wavelet als das spezielle Muster angewendet wird, passt sich ein "M-artiges Formgitter" an ein normalisiertes Gesichtsbild an, und extrahiert dann (20 × 40) Antworten als Eigenschaftsvektoren. Diese (20 × 40) Antworten werden aus einer Fläche von 40 (5 Frequenzen × 8 Richtungen) Gabor Filtern an 20 Eigenschaftspunkten auf dem Gitter erhalten. Die Ermittlungseinheit 145a führt dann eine Lernprozedur durch, zur Berechnung einer Maximumsdistanz mit Bezug auf einen Durchschnitt von 5 Frequenzgruppen in einem Eigenschaftsvektorraum.
  • Wenn ein digitales Videosignal eines vergrößerten Bildes eines Einheitsrahmens die Eingabe ist, passt die erste Gesichtskandidatenbereichs-Ermittlungseinheit 145a das "M" -artige Formgitter an alle mögliche Positionen an, extrahiert Eigenschaftsvektoren und führt eine Ermittlungsprozedur für die Berechnung einer Distanz mit Bezug auf einen Durchschnittsvektor der 5 erfahrenen Frequenzgruppen durch. Wenn die Minimaldistanz, resultierend aus den in der Ermittlungsprozedur mit Bezug auf den Durchschnittsvektor berechneten Distanzen, kleiner ist, als die Maximaldistanz, erhalten in der lernenden Prozedur, entscheidet die erste Gesichtskandidatenbereichs-Ermittlungseinheit 145a, das der Bereich, der die Eigenschaftsvektoren mit der Minimaldistanz enthält, ein Gesichtkandidatenbereich ist.
  • Die zweite Gesichtskandidatenbereichs-Ermittlungseinheit 145b führt eine Hauptkomponentenanalyse (PCA) über eine Vielzahl von normalisierten Bildern durch, z.B., mit einer (20 × 20) Auflösung in der lernenden Prozedur und der Verwendung von 20 Eigen-Vektoren, um Eigenschaftsvektoren mit aufsteigender Ordnung der Eigen-Werte zu extrahieren. Weiterhin verwendet die zweite Kandidatenbereichs-Ermittlungseinheit 145b die 20 obigen Eigen-Vektoren, um die Eigenschaftsvektoren aus willkürlich gesammelten, normalisierten nicht Gesichtsbildern zu extrahieren, z.B. wie oben, mit einer (20 × 20) Auflösung. Sobald eine Vielzahl von Gesichtseigenschaftsvektoren und nicht Gesichtseigenschaftsvektoren extrahiert werden, wendet die zweite Gesichtskandidatenbereichs-Ermittlungseinheit 145b die extrahierten Vektoren auf das SVM an, um Entscheidungsgrenzen zu gewinnen, mit denen zwei Klassen, d.h. Gesichts- und nicht Gesichtsbilder, unterschieden werden können.
  • Die zweite Gesichtskandidatenbereichs-Ermittlungseinheit 145b führt auch einen Ermittlungsschritt zur Ermittlung eines speziellen Kandidatenbereichs eine Gesichts durch Prüfen durch, ob das Gesicht in den entsprechenden Beobachtungsfenstern enthalten ist, die von den Entscheidungsgrenzen verwendet werden, die mit Bezug auf alle möglichen Beobachtungsfenster des Gesichtkandidatenbereichs erlangt wurden, der von der ersten Gesichtskandidatenbereichs-Ermittlungseinheit 145a ermittelt wurde. Die letzte Gesichtermittlungseinheit 145c verwendet dann ein hoch auflösendes SVM über dem ermittelten, speziellen Kandidatenbereich, um schließlich das Gesicht zu ermitteln. Besonders die letzte Gesichtsermittlungseinheit 145c ermittelt ein Gesicht unter Verwendung eines Verfahrens, das der Entscheidungsgrenzenakquisition ähnlich ist, und einer speziellen Kandidatenbereichsermittlung der Eigenschaftskandidatenbereichs-Ermittlungseinheit 125, wie oben beschrieben.
  • Jedoch verwendet die letzte Gesichtsermittlungseinheit 145c ein Bild mit einer (40 × 40) Pixelauflösung in der lernenden Prozedur und verwendet 50 Eigen-Vektoren, um Eigenschaften zu extrahieren. Weiterhin verwendet dann die letzte Gesichtsermittlungseinheit 145c das hoch auflösende SVM über dem speziellen Kandidatenbereich, einen speziellen Teil des Gesichts einschließend, der von der zweiten Gesichtskandidatenbereichs-Ermittlungseinheit 125 ermittelt wurde, um schließlich das Gesicht zu ermitteln.
  • Eine Speicher- und Retrievaleinheit 100a enthält die Kompressionseinheit 150, die Datenbankgenerierungseinheit 155, die Aufzeichnungseinheit 160, die Dekompressionseinheit 165, das DAC 170 und den Monitor.
  • Die Kompressionseinheit 150, basierend auf der Kontrolle der Kontrolleinheit 135 und verbunden über einen Bus 180, komprimiert dann das digitale Videosignal jeder Rahmeneinheitsausgabe aus der Kandidatenbereichs-Ermittlungseinheit 125 und ein Gesichtsvideosignal, das von der letzten Gesichtsermittlungseinheit 145c ermittelt wurde, in ein vorher bestimmtes Kompressionsformat, wie z.B. MPEG-2.
  • Die DB Generierungseinheit 155, die auch auf der Kontrolle der über den Bus 180 verbundenen Kontrolleinheit 135 basiert, generiert dann eine DB für die Bilder von zumindest einem der digitalen Videosignale, die von der Kompressionseinheit 150 geliefert werden, eine Identifikationsziffer der Bilderfassungseinheit 105, die die digitalen Videosignale produziert, und eine Bilderfassungszeit für die Videosignale.
  • Weiterhin generiert die DB Generierungseinheit 155 eine DB für Gesichtsvideosignale für die komprimierten Gesichtsvideosignale, die von der Kompressionseinheit 150 geliefert werden, und zumindest eine der Identifikationsziffern und eine Erfassungszeit eines vergrößerten Bildes der Bilderfassungseinheit 105, die die komprimierten Gesichtsbildvideosignale erzeugt.
  • Die für die Bilder erzeugte DB und die DB für die Gesichtsvideosignale werden beide in der Aufzeichnungseinheit 160 unter der Kontrolle der Kontrolleinheit 135 aufgezeichnet. Für die Aufzeichnungseinheit 160, verwendet die Ausführung der vorliegenden Erfindung, die in 1 gezeigt wird, ein Aufzeichnungsmedium, wie z.B. ein Festplattengerät (HDD), das die Massenspeicherung von Datenblöcken erlaubt.
  • Die Dekompressionseinheit 165, basierend auf der Kontrolle der Kontrolleinheit 135 und verbunden über den Bus 180, kann das komprimierte digitale Videosignal, das in der Aufzeichnungseinheit 160 aufgezeichnet ist, in ein vorher vorbestimmtes Format zur Lieferung einer Ausgabe dekomprimieren, wenn es gefordert wird.
  • Die DAC 170 konvertiert das digitale Videosignal, das von der Dekompressionseinheit 165 dekomprimiert wurde, in ein analoges Videosignal. Das konvertierte analoge Videosignal wird dann auf einem Monitor ausgegeben (nicht gezeigt).
  • Zur Verwendung der oben beschriebenen Einheiten wird eine Schlüsselmanipulationseinheit 175 zur Verfügung gestellt, die eine Vielzahl von Manipulationsschlüsseln (nicht gezeigt) zur Lieferung einer Signalausgabe an die Kontrolleinheit, um eine vom Aufzeichnungssystem 100 unterstützte Funktion aufzubauen oder zu manipulieren. Die Schlüsselmanipulationseinheit 175 ist mit dem Aufzeichnungssystem 100 über eine Kommunikationsinterfaceeinheit (nicht gezeigt) verbunden, die im Hauptteil des Aufzeichnungssystems 100 zur Verfügung gestellt werden könnte.
  • In der Ausführung der in 1 gezeigten, vorliegenden Erfindung hat die Beispielschlüssel-Manipulationseinheit 175 ein Gesichtsaufzeichnungsschlüssel 175a, zur Ermittlung und Aufzeichnung von ausschließlich menschlichen Gesichtsbildern aus einem Aufzeichnungsbereich, der durch die Bilderfassungseinheit 105 abgedeckt wird, und einen Gesichtsucheschlüssel 175b zur Suche von ausschließlich Gesichtsvideosignalen aus diversen, in der Aufzeichnungseinheit 160 aufgezeichneten Videosignalen.
  • Wenn z.B. der Gesichtsaufzeichnungsschlüssel 175a ausgewählt wird, verarbeitet die Kontrolleinheit 135 die Erfassung von vergrößerten Bildern von menschlichen Gesichtsbildern aus dem Aufzeichnungsbereich und das Aufzeichnen der vergrößerten menschlichen Gesichtbilder in der Aufzeichnungseinheit 160, wie oben beschrieben.
  • Wenn der Gesichtssucheschlüssel 175b ausgewählt wird, sucht die Kontrolleinheit 135 nach Gesichtsvideosignalen ausschließlich aus der Aufzeichnungseinheit 160 und liefert die gesuchten Gesichtsvideosignale als Ausgaben an die Dekompressionseinheit 165. Suchbedingungen wie Identifikationsziffern, Bilderfassungszeiten, usw. können zur schnellen und reibungslosen Suche verwendet werden.
  • Besonders, wenn ein bestimmtes Videosignal durch eine Schlüsselmanipulation der Schlüsselmanipulationseinheit 175 ausgewählt wird, nachdem der Gesichtssucheschlüssel 175b ausgewählt wird und eine Vielzahl von Gesichtsvideosignalen auf einem Monitor reproduziert werden, kann die Kontrolleinheit 135 die Aufzeichnungseinheit 160 und die Dekompressionseinheit 165 steuern, alle die digitalen Videosignale zu reproduzieren, die zu einer speziellen Zeit aufgenommen wurden, wie zur selben Zeit wie der Zeit, zu der das ausgewählte Gesichtsvideosignal aufgenommen wurde, oder alle die digitalen Videosignale, die von derselben Bilderfassungseinheit 105 aufgenommen wurden, die auch das ausgewählte Gesichtsvideosignal erfasst hat.
  • Wenn ein bestimmtes Gesichtsvideosignal von der Schlüsselmanipulationseinheit 175 ausgewählt ist und die Schlüsselmanipulationseinheit 175 ein Kommandosignal zur Reproduktion der gesamten digitalen Videosignale ausgibt, die zur selben Zeit aufgenommen wurden, zu der das ausgewählte Gesichtsvideosignal aufgenommen wurde (d.h., unvergrößerte Weitwinkelbilder, die zu der Zeit aufgenommen wurden, während der das ausgewählte Gesichtsvideosignal, wie oben beschrieben, ermittelt wurde), kann die Kontrolleinheit 135 aus der Aufzeichnungseinheit 160 Information über die Zeit auslesen, zu der das ausgewählte Gesichtsvideosignal aufgenommen wurde (d.h., eine Auslesezeit). Weiterhin kann die Kontrolleinheit 135 die Aufzeichnungseinheit 160 steuern, die gesamten digitalen Videosignale auszugeben, die während derselben Zeit wie der Auslesezeit aufgenommen wurden. Die Kontrolleinheit 135 kann dann die Kompressionseinheit 165 steuern, die gesamten digitalen Videosignale aus der Aufzeichnungseinheit 160 zu dekomprimieren. Daher kann ein Monitor die gesamten digitalen Videosignale anzeigen, die während der Zeit aufgenommen wurden, als das ausgewählte Gesichtsvideosignal aufgenommen wurde, so dass der Benutzer bequem nach verwandten Umgebungssituationen in den unvergrößerten Weitwinkelbildern suchen kann.
  • Eine Backupeinheit (nicht gezeigt) kann auch im Aufzeichnungssystem 100 gemäß einer Ausführung der vorliegenden Erfindung zur Verfügung gestellt werden, die ermöglicht, die in der Aufzeichnungseinheit 160 aufgezeichneten digitale Videosignale als Backupdaten zu speichern. Ein Aufzeichnungsmedium wie ein digitales Audioband, eine Kompaktdisk, usw., könnte als Backupeinheit verwendet werden.
  • 4 ist ein Flussdiagramm, das ein Beispiel eines Gesichtsbild-Ermittlungsverfahren für das Aufzeichnungssystem der 1 darstellt.
  • Mit Bezug auf die Abbildungen 1 incl. 4, konvertiert das ADC 115 in einem ersten Schritt nach dem Starten ein Videosignal, das mit einem vorher festgelegten Vergrößerungsfaktor von der Bilderfassungseinheit 105 aufgenommen wurde, in ein digitales Videosignal (Schritt S400).
  • Wenn das digitale Videosignal der Kandidatenbereichs-Ermittlungseinheit 125 von der Schalteinheit 120 zur Verfügung gestellt wird, vergleicht die Kandidatenbereichs-Ermittlungseinheit 125 ein Farbendifferenzsignalniveau des konvertierten digitalen Videosignals mit einem vorher festgelegten Referenzfarben-Differenzsignal-Niveaubereich, der mit einer speziellen Hautfarbe assoziiert ist, und entscheidet, ob zumindest ein Hautfarbenkandidatenbereich existiert, und ermittelt, wenn solch ein Hautfarbenkandidatenbereich existiert, zumindest einen Hautfarbenkandidatenbereich (Schritt S410).
  • Wenn im Schritt S410 Hautfarbenkandidatenbereiche ermittelt werden, normalisiert die Kandidatenbereichs-Entscheidungseinheit 130 jeden ermittelten Hautfarbenkandidatenbereich auf eine vorher festgelegte Pixelauflösung (Schritt S420) und entscheidet, ob jeder normalisierte Hautfarbenkandidatenbereich ein menschliches oder nicht menschliches (d.h., Umgebung) Bild ist (Schritt S430). Die Kandidatenbereichsspeicherungseinheit 140 speichert dann die Positionskoordinatenwerte und Videosignale für die normalisierten Haufarbenkandidatenbereiche.
  • Wenn im Schritt S430 entschieden wird, dass ein spezieller Hautfarbenkandidatenbereich ein menschliches Bild ist, bewegt sich die Bilderfassungseinheit 105 in eine Position, in der sie Bilder des Hautfarbenkandidatenbereichs erfassen kann, basierend auf den Kontrollmeldungen der P/T/Z Antriebseinheit 110 und erfasst vergrößerte Bilder des Hautfarbenkandidatenbereichs, und die ADC 115 konvertiert dann die Videosignale für die vergrößerten Bilder in ein digitales Videosignal des vergrößerten Bildes (Schritt S440).
  • Die Schalteinheit 120 liefert dann das Videosignal des vergrößerten Bildes, auch als digitales Vergrößerungsvideosignal bezeichnet, an die Gesichtermittlungseinheit 145.
  • Die Gesichtsermittlungseinheit 145 entscheidet, ob ein Gesichtsvideosignal basierend auf dem konvertierten digitalen Videosignal des vergrößerten Bildes existiert, und ermittelt, falls die Existenz entschieden wurde, das Gesichtsvideosignal (Schritt S450).
  • Wenn das Gesichtsvideosignal ermittelt ist, komprimiert die Kompressionseinheit 150 das ermittelte Videosignal in ein vorher festgelegtes Format (Schritt S460).
  • Wenn ein Gesichtbild im Schritt S450 ermittelt wird, generiert die DB Generierungseinheit 155 eine DB des komprimierten Gesichtsvideosignals und zumindest einer der Identifikationsziffern und der Bilderfassungszeit der Bilderfassungseinheit 105, die das komprimierte Gesichtbildsignal erfasst hat, und die generierte DB wird in der Aufzeichnungseinheit 160 aufgezeichnet (Schritt S470).
  • Wenn kein Hautfarbenkandidatenbereich im Schritt S410 ermittelt wird, komprimiert die Kompressionseinheit 150 das digitale Videosignal der Rahmeneinheit, die im Schritt S400 konvertiert wurde, in ein vorher festgelegtes Format, und die Aufzeichnungseinheit 160 speichert das komprimierte digitale Videosignal der Rahmeneinheit zur Aufbewahrung in den Datenbanken (Schritt S480).
  • Im Aufzeichnungssystem 100 und im Gesichtsbild-Ermittlungsverfahren gemäß der Ausführung der vorliegenden Erfindung wie oben beschrieben, kann die Gesichtsbildermittlung mit verschiedenen bekannten Verfahren, wie einer Gesichtsermittlung basierend auf Gesichtsforminformation, Eigenschaftspunkten eines Gesichts, Musteransatz-Gesichtsermittlung, Farbinformation, usw., ausgeführt werden, zusätzlich zur Gesichtsermittlung basierend auf dem in 3 präsentierten SVM.
  • Wie oben beschrieben ist das Aufzeichnungssystem und -Verfahren in der Lage Gesichtsbilder zu ermitteln. Wenn das Aufzeichnungssystem während des Fotografierens von Bildern eines Aufzeichnungsbereichs ermittelt, kann das System ein Gesichtsbild eines Subjektes ermitteln, vergrößern und aufzeichnen, so dass ein Benutzer leicht nach dem Gesicht des Objektes suchen kann, wenn er gespeichert Daten durchsucht.
  • Weiterhin generiert die vorliegende Erfindung eine Datenbank, wenn sie Subjektbilder aufzeichnet, so dass ein Benutzer effizient nach gewünschten Bildsignalen aus einem großen Volumen von aufgezeichneten Videosignalen suchen kann.
  • Es ist klar, dass Farbdifferenzsignalbereiche, die verschiedenen Hautfarben entsprechen, im Voraus zur Verwendung als Referenzfarben-Differenzsignal-Niveaubereiche festgelegt werden können.
  • Obwohl die bevorzugten Ausführungen der vorliegenden Erfindung beschrieben wurden, wird es den Fachleuten klar sein, dass die vorliegende Erfindung nicht auf die beschriebenen bevorzugten Ausführungen limitiert ist, sondern verschieden Änderungen und Modifikationen innerhalb des Rahmens der vorliegenden Erfindung, wie durch die beigefügten Ansprüche definiert, gemacht werden können.

Claims (17)

  1. Ein Bilderfassungssystem (100), enthaltend: eine Bilderfassungseinheit (105), zum Erfassen eines Bildes; Mittel (125), zur Erfassung eines Hautfarbbereichs innerhalb des Bildes; Mittel (139, 135, 110), reagierend auf die Erfassung des Hautfarbbereichs, um die Bilderfassungseinheit (105) zu veranlassen, ein vergrößertes Bild des Hautfarbbereiches zu erfassen; Mittel (145) zur Erfassung eines Gesichtsbildes innerhalb des vergrößerten Bildes, wobei die Gesichtsbild-Erfassungsmittel enthalten: eine erste Gesichtsbereich-Erfassungseinheit (145a), angepasst, um einen Bereich innerhalb des vergrößerten Bildes zu ermitteln, dabei erste vorher bestimmten Kriterien erfüllend; eine zweite Gesichtsbereich-Erfassungseinheit (145b), angepasst, um eine erste Vektorunterstützungsmaschine zu verwenden, um ein spezifisches Teilstück des festgelegten Bereichs zu ermitteln, wobei das spezielle Teilstück zweite vorher bestimmte Kriterien erfüllt; und eine letzte Gesichts-Erfassungseinheit (145c), angepasst um eine zweite Vektorunterstützungsmaschine zu verwenden, um eine Gesichtsbild innerhalb des spezifischen Teilstücks zu ermitteln, wobei die zweite Vektorunterstützungsmaschine eine höhere Auflösung als die erste Vektorunterstützungsmaschine besitzt.
  2. Ein Bilderfassungssystem gemäß Anspruch 1, worin das System angeordnet ist, um ein erstes digitales Videosignal zu liefern, das Bild repräsentierend, und ein zweites digitales Videosignal, das vergrößerte Bild liefernd.
  3. Ein Bilderfassungssystem gemäß Anspruch 2, worin die Hautfarbbereich-Erfassungsmittel (125) weiterhin enthalten: Mittel (125a) zum Vergleichen eines Farbdifferenzsignalniveaus des ersten digitalen Videosignals mit einem Referenzbereich und zum Digitalisieren des Farbdifferenzsignalniveaus in Abhängigkeit vom Ergebnis des Vergleichs.
  4. Ein Bilderfassungssystem gemäß Anspruch 3, weiterhin Mittel (125c) enthaltend, zum Ermitteln eines Hautfarbbereichs basiert auf dem digitalisierten Farbdifferenzsignalniveau enthaltend.
  5. Ein Bilderfassungssystem gemäß Anspruch 4, worin das digitalisierte Farbdifferenzsignalniveau ein erstes Niveau enthält, um anzuzeigen, dass das Farbdifferenzsignalniveau innerhalb eines Referenzbereichs liegt, und ein zweites Niveau, um anzuzeigen, dass sich das Farbdifferenzsignalniveau außerhalb des Referenzbereichs befindet.
  6. Ein Bilderfassungssystem gemäß Anspruch 5, worin die Hautfarbbereich-Erfassungsmittel (125c) angeordnet sind, um festzustellen, ob die Anzahl der konsekutiv ausgegebenen Pixel mit einem digitalisierten Farbdifferenzsignalniveau beim ersten Niveau einen vorbestimmten Grenzwert übertreffen.
  7. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, worin die Hautfarbbereich-Erfassungsmittel (125c) weiterhin enthalten: Mittel, angepasst, um den Hautfarbbereich zu normalisieren und um festzustellen, wenn der normalisierte Hautfarbbereich ein menschlicher Hautfarbbereich ist.
  8. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, worin: die erste Gesichtsbereich-Erfassungseinheit ein Gabor Wavelet Muster verwendet, um den Bereich zu ermitteln, der die ersten vorbestimmten Kriterien erfüllt.
  9. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, worin: die zweite Gesichtsbereich-Erfassungseinheit eine Hauptkomponentenanalyse verwendet, um eine Vielzahl von Gesichts- und nicht Gesichtseigenschaftsvektoren zur Verwendung mit der ersten Vektorunterstützungsmaschine zu erzeugen.
  10. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, weiterhin eine Speicher- und Abfrageeinheit zum Empfangen, Speichern und Abfragen des ermittelten Gesichtsbildes enthaltend.
  11. Ein Bilderfassungssystem gemäß Anspruch 2 oder jedem der Ansprüche 3 bis 10, wenn von Anspruch 2 abhängig, worin die Speicher- und Abfrageeinheit weiterhin enthält: eine Kompression/Dekompressionseinheit, um zumindest eines der folgenden, des ersten digitalen Videosignals, des zweiten digitalen Videosignals und des erfassten Gesichtsbildes zu komprimieren und zu dekomprimieren; eine Datenbankerzeugungseinheit, um eine Datenbank auf der Basis zumindest eines der folgenden, des ersten digitalen Videosignals, des zweiten digitalen Videosignals und erfassten Gesichtsbildes aufzubauen; eine Aufzeichnungseinheit, um zumindest eines der folgenden, das erste digitale Videosignal, das zweite digitale Videosignal und das erfasste Gesichtsbild zu speichern; und einen Monitor, um eine Ableitung von zumindest einem der folgenden, des ersten digitalen Videosignals, des zweiten digitalen Videosignals und des erfassten Gesichtsbildes auszugeben.
  12. Ein Bilderfassungssystem gemäß Anspruch 2 und Anspruch 10, weiterhin enthaltend: eine Schlüsselmanipulationseinheit zum Kontrollieren der Erfassung, der Speicherung und der Abfrage von zumindest einem der folgenden, des ersten digitalen Signals, des zweiten digitalen Signals und des erfassten Gesichtsbildes.
  13. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, worin die Bilderfassungseinheit weiterhin einen Schwenk-, Senkrechtschwenk- und Zoommechanismus zum Erfassen des photographischen Bildes und des vergrößerten photographischen Bildes enthält.
  14. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, weiterhin eine Schalteinheit enthaltend, die angepasst ist, selektiv die Ausgabe der Bilderfassungseinheit einem der Hautfarbbereich-Erfassungsmittel (125) und den Gesichtsbild-Erfassungsmitteln (145) zur Verfügung zu stellen.
  15. Ein Bilderfassungssystem gemäß Anspruch 2 oder jedem der Ansprüche 3 bis 14, wenn abhängig von Anspruch 2, weiterhin enthaltend einen Filter, angepasst Störungen aus dem ersten digitalen Videosignal zu filtern.
  16. Ein Bilderfassungssystem gemäß jedem der vorhergehenden Ansprüche, weiterhin enthaltend: eine Datenbank erfasster Gesichtsbilder, angepasst, um einem Benutzer zu erlauben, nach einem gewünschten Bild, vergrößerten Bild und Gesichtsbild aus einer großen Zahl von aufgezeichneten Bildern zu suchen.
  17. Ein Verfahren der Bilderfassung, enthaltend: Erfassen eines Bildes unter Verwendung einer Bilderfassungseinheit (105); Erfassen eines Hautfarbbereichs innerhalb des Bildes; in Reaktion auf die Erfassung des Hautfarbbereichs, die Bilderfassungseinheit (105) verursachend, ein vergrößertes Bild des Hautfarbbereichs zu erfassen; und Erfassen eines Gesichtsbildes innerhalb des vergrößerten Bildes, wobei der festgelegte Bereich erste vorbestimmte Kriterien erfüllt; Festlegen eines speziellen Teilstücks des festgelegten Bereichs unter Verwendung einer ersten Vektorunterstützungsmaschine, wobei das spezielle Teilstück zweite vorbestimmten Kriterien erfüllt; und Erfassen eines Gesichtsbildes innerhalb des speziellen Teilstücks unter Verwendung einer zweiten Vektorunterstützungsmaschine, wobei die zweite Vektorunterstützungsmaschine eine höhere Auflösung besitzt, als die erste Vektorunterstützungsmaschine.
DE602004005520T 2003-03-06 2004-03-04 Anordnung und Verfahren zur Bilderkennung Expired - Lifetime DE602004005520T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20030014105 2003-03-06
KR2003014105 2003-03-06
KR2003023791 2003-04-15
KR1020030023791A KR100548211B1 (ko) 2003-03-06 2003-04-15 얼굴영상 검출이 가능한 감시시스템 및 그의 얼굴영상검출방법

Publications (2)

Publication Number Publication Date
DE602004005520D1 DE602004005520D1 (de) 2007-05-10
DE602004005520T2 true DE602004005520T2 (de) 2007-08-16

Family

ID=32829122

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004005520T Expired - Lifetime DE602004005520T2 (de) 2003-03-06 2004-03-04 Anordnung und Verfahren zur Bilderkennung

Country Status (3)

Country Link
US (1) US7359529B2 (de)
EP (1) EP1455297B1 (de)
DE (1) DE602004005520T2 (de)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159561B2 (en) * 2003-10-10 2012-04-17 Nikon Corporation Digital camera with feature extraction device
EP1748387B1 (de) * 2004-05-21 2018-12-05 Asahi Kasei Kabushiki Kaisha Anordnungen für die klassifizierung des errugunszustands der augen eines fahrers, korrespondierende methode und computer lesbares speichermedium
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
US20070239780A1 (en) * 2006-04-07 2007-10-11 Microsoft Corporation Simultaneous capture and analysis of media content
US7730047B2 (en) * 2006-04-07 2010-06-01 Microsoft Corporation Analysis of media content via extensible object
JP4751776B2 (ja) * 2006-06-19 2011-08-17 オリンパスイメージング株式会社 電子撮像装置及び個人特定システム
KR100862341B1 (ko) * 2006-11-13 2008-10-13 삼성전기주식회사 사람의 피부 영역 검출장치 및 그 방법
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
KR101362381B1 (ko) * 2007-07-13 2014-02-13 삼성전자주식회사 얼굴 인식 기반의 실시간 선별 녹화 장치 및 방법
US7856118B2 (en) * 2007-07-20 2010-12-21 The Procter & Gamble Company Methods for recommending a personal care product and tools therefor
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
CN102016882B (zh) 2007-12-31 2015-05-27 应用识别公司 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
US20090174805A1 (en) * 2008-01-07 2009-07-09 Motorola, Inc. Digital camera focusing using stored object recognition
KR20090083108A (ko) * 2008-01-29 2009-08-03 삼성전자주식회사 특정 영역이 확대된 영상을 촬영된 영상에 부가하는촬영방법 및 이를 적용한 촬영장치
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8923556B2 (en) * 2011-12-17 2014-12-30 Symbol Technologies, Inc. Method and apparatus for detecting people within video frames based upon multiple colors within their clothing
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
JP5649601B2 (ja) * 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
JP5998830B2 (ja) * 2012-10-15 2016-09-28 富士ゼロックス株式会社 電力供給制御装置、画像処理装置、電力供給制御プログラム
TWI490792B (zh) * 2012-10-22 2015-07-01 Pixart Imaging Inc 使用者辨識及確認裝置、方法以及使用該裝置之車用中央控制系統
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
CN106709424B (zh) * 2016-11-19 2022-11-11 广东中科人人智能科技有限公司 一种优化的监控视频存储系统
US10977509B2 (en) * 2017-03-27 2021-04-13 Samsung Electronics Co., Ltd. Image processing method and apparatus for object detection
KR102574120B1 (ko) * 2018-07-11 2023-09-04 삼성전자주식회사 디스플레이장치 및 그 제어방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7131136B2 (en) * 2002-07-10 2006-10-31 E-Watch, Inc. Comprehensive multi-media surveillance and response system for aircraft, operations centers, airports and other commercial transports, centers and terminals
EP1260934A3 (de) 2001-05-22 2004-04-14 Matsushita Electric Industrial Co., Ltd. Vorrichtung und Verfahren zur Aufzeichnung von Überwachungsdaten
US6793128B2 (en) 2001-06-18 2004-09-21 Hewlett-Packard Development Company, L.P. Face photo storage system
US6927694B1 (en) * 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2003219225A (ja) * 2002-01-25 2003-07-31 Nippon Micro Systems Kk 動体画像監視装置
KR100474848B1 (ko) * 2002-07-19 2005-03-10 삼성전자주식회사 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
KR100455294B1 (ko) * 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
JP4218348B2 (ja) * 2003-01-17 2009-02-04 オムロン株式会社 撮影装置

Also Published As

Publication number Publication date
US20040183951A1 (en) 2004-09-23
US7359529B2 (en) 2008-04-15
EP1455297A1 (de) 2004-09-08
EP1455297B1 (de) 2007-03-28
DE602004005520D1 (de) 2007-05-10

Similar Documents

Publication Publication Date Title
DE602004005520T2 (de) Anordnung und Verfahren zur Bilderkennung
KR100896949B1 (ko) 객체식별이 가능한 영상처리 감시시스템 및 감시방법
DE602005005583T2 (de) Videoüberwachungssysteme im allgemeinen und speziell eine Vorrichtung und Verfahren zur automatischen Echtzeiterfassung abnormaler Bewegung in Videoströmen
DE69921237T2 (de) Automatische Videoüberwachungsanlage
AU2004233453B2 (en) Recording a sequence of images
DE10214079B4 (de) WEB-Camming und Bandbreitensteuerung auf Grundlage der Bewegungs- und Audioerkennung
DE60132622T2 (de) Verfahren und vorrichtung zur auswahl des besten videoeinzelbildes zur übermittlung an einen entfernten standort innerhalb eines geschlossenen fernsehsystems zur wohnbereichssicherheitsüberwachung
DE69932489T2 (de) Verfahren und System zur merkmalbasierten Echtzeitbewegungsanalyse zur Auswahl von Schlüsselbildern aus einer Videosequenz
US20090110058A1 (en) Smart image processing CCTV camera device and method for operating same
US20110096149A1 (en) Video surveillance system with object tracking and retrieval
US20080158361A1 (en) Video surveillance equipment and video surveillance system
CN109711318B (zh) 一种基于视频流的多人脸检测与跟踪方法
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE19955714A1 (de) Verfahren und Vorrichtung zum Fotografieren/Erkennen eines Gesichts
DE60209945T2 (de) Videoüberwachungs- und beobachtungssysteme mit der fähigkeit zum abwickeln asynchron gemultiplexter videosignale
US6434320B1 (en) Method of searching recorded digital video for areas of activity
GB2408884A (en) Detecting activity in image frames
DE102015102276A1 (de) Anzeigesteuerungsvorrichtung und anzeigeverfahren
KR100548211B1 (ko) 얼굴영상 검출이 가능한 감시시스템 및 그의 얼굴영상검출방법
KR100571801B1 (ko) 디지탈 감시 장치 및 방법
DE60307979T2 (de) Videoüberwachungssystem und -verfahren
DE10153484B4 (de) Video-/Audio-System und Auswertungsverfahren für Video-/Audio-Daten
DE10252731A1 (de) Verfahren zur Überwachung einer Szene mit wenigstens einem bildgebenden Sensor
AU2004233463B2 (en) Monitoring an output from a camera
DE102020205724A1 (de) Verfahren, Computerprogramm, Speichermedium und Vorrichtung zur Erweiterung von Objektsignaturdaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition