DE102012020301A1 - Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter - Google Patents

Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter Download PDF

Info

Publication number
DE102012020301A1
DE102012020301A1 DE102012020301A DE102012020301A DE102012020301A1 DE 102012020301 A1 DE102012020301 A1 DE 102012020301A1 DE 102012020301 A DE102012020301 A DE 102012020301A DE 102012020301 A DE102012020301 A DE 102012020301A DE 102012020301 A1 DE102012020301 A1 DE 102012020301A1
Authority
DE
Germany
Prior art keywords
frame
smiling
list
smiling faces
faces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102012020301A
Other languages
English (en)
Inventor
Ben-Zion Shaick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
CSR Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CSR Technology Inc filed Critical CSR Technology Inc
Publication of DE102012020301A1 publication Critical patent/DE102012020301A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

Es wird ein Verfahren, eine Vorrichtung und ein Erzeugnis zum Erkennen lächelnder Gesichter bereitgestellt. Für jeden Rahmen wird eine Liste neuer lächelnder Gesichter für den Rahmen erzeugt, indem eine Ermittlung lächelnder Gesichter ausgeführt wird, wobei ein Objektklassifizierer verwendet wird, der dazu trainiert ist, zwischen lächelnden Gesichtern und allen Objekten im Rahmen, die keine lächelnden Gesichter sind, zu unterscheiden. Für den ersten Rahmen wird die Liste neuer lächelnder Gesichter als eine Eingabeliste lächelnder Gesichter für den nächsten Rahmen verwendet. Für jeden Rahmen nach dem ersten Rahmen wird eine Liste verfolgter Lächeln für den Rahmen erzeugt, indem lächelnde Gesichter im Rahmen aus der Eingabeliste lächelnder Gesichter für den Rahmen verfolgt werden. Ferner wird eine Liste neuer lächelnder Gesichter für den nächsten Rahmen erzeugt, indem die Liste neuer lächelnder Gesichter für den Rahmen mit der Liste verfolgter Lächeln für den Rahmen kombiniert wird.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft das Erkennen und Verfolgen (Tracking) von Objekten und insbesondere, aber nicht ausschließlich, ein Verfahren, eine Vorrichtung und ein Erzeugnis zum Erkennen lächelnder Gesichter, bei denen der Objektklassifizierer dazu trainiert ist, zwischen lächelnden Gesichtern und allen Objekten im Rahmen (Frame), die keine lächelnden Gesichter sind, zu unterscheiden.
  • Hintergrund
  • Elektronische Kameras bilden Szenen auf einen zweidimensionalen Sensor, wie z. B. eine ladungsgekoppelte Schaltung (CCD), ein komplementäres Metall-Oxid-Halbleiter(CMOS)-Bauelement oder andere Arten von Lichtsensoren, ab. Diese Vorrichtungen umfassen eine große Zahl von Fotodetektoren (üblicherweise zwei, drei, vier oder mehr Millionen), die über eine kleine zweidimensionale Fläche verteilt sind, welche einzeln ein Signal erzeugen, das proportional zur Intensität des Lichts oder einer anderen optischen Strahlung (einschließlich der infraroten und ultravioletten Bereiche des Spektrums, die an die sichtbaren Lichtwellenlängen anschließen) ist, die auf das Element auftrifft. Diese Elemente, welche die Pixel eines Bildes bilden, werden üblicherweise in einem Rastermuster abgetastet, um einen seriellen Datenstrom zu erzeugen, der die Intensität der Strahlung kennzeichnet, die auf ein Sensorelement nach dem anderen auftrifft, wenn sie abgetastet werden. Farbdaten werden gewöhnlich unter Verwendung von abwechselnd über den Sensor hinweg verteilten Fotodetektoren erhalten, die für jede der unterschiedlichen Farbkomponenten (wie z. B. rot, grün und blau) empfindlich sind.
  • Eine weit verbreitete Form einer derartigen elektronischen Kamera ist eine kleine, in der Hand haltbare Digitalkamera, die Daten von einer großen Zahl von Bildrahmen entweder als Standfoto-”Schnappschüsse” oder als Rahmenfolgen aufzeichnen, die einen Film erzeugen. Vor dem Speichern auf einem herausnehmbaren nichtflüchtigen Speicher, wie z. B. einer Magnetbandkassette, einer Flash-Speicherkarte, einem Laufwerk mit einer beschreibbaren optischen Platte oder einer magnetischen Festplatte, wird üblicherweise in der Kamera an den Daten eines jeden Rahmens eine Bildbearbeitung in einem beträchtlichen Umfang ausgeführt. Die bearbeiteten Daten werden üblicherweise als ein Bild mit einer verminderten Auflösung auf einer Flüssigkristallanzeige(LCD)-Vorrichtung auf der Außenseite der Kamera angezeigt. Üblicherweise werden die bearbeiteten Daten vor dem Speichern im nichtflüchtigen Speicher auch komprimiert, um die Größe des Speicherplatzes, der von den Daten für jeden Rahmen eingenommen wird, zu verringern.
  • Die vom Bildsensor erfassten Daten werden üblicherweise bearbeitet, um Unzulänglichkeiten der Kamera zu kompensieren und allgemein die Qualität des Bildes zu verbessern, das aus den Daten erhalten werden kann. Eine Bearbeitungsfunktion ist die Korrektur bezüglich beliebiger fehlerhafter Pixel-Fotodetektorelemente des Sensors. Eine weitere ist die Weißabgleichkorrektur, bei der die relativen Größen der verschiedenen Pixel der Primärfarben eingestellt werden, um Weiß darzustellen. Diese Bearbeitung schließt auch das Demosaicing der einzelnen Pixeldaten zum Überlagern der Daten aus den räumlich getrennten monochromatischen Pixeldetektoren des Sensors ein, so dass sich übereinanderliegende mehrfarbige Pixel in den Bilddaten ergeben. Dieses Demosaicing macht dann eine Bearbeitung der Daten zum Verstärken und Glätten der Kanten des Bildes wünschenswert. Auch der Ausgleich der Bilddaten hinsichtlich des Rauschens und der Streuungen der Optik der Kamera über das Bild hinweg sowie der Abweichungen unter den Sensor-Fotodetektoren wird üblicherweise in der Kamera ausgeführt. Die sonstige Bearbeitung schließt üblicherweise die Gammakorrektur und/oder die Kontraststeigerung und/oder das Chrominanzfiltern und dergleichen ein.
  • Elektronische Kameras weisen nahezu immer eine automatische Belichtungsregelungsfähigkeit auf, welche die Belichtungsdauer, die Größe ihrer Blendenöffnung und die elektronische Analogverstärkung des Sensors festlegt, sodass sich eine Lumineszenz des Bildes oder der Bildfolge ergibt, die auf Grundlage der Kalibrierungen für den verwendeten Sensor und der Präferenzen des Benutzers auf einer bestimmten Stufe liegt. Diese Belichtungsparameter werden berechnet, bevor das Bild aufgenommen wird, und dann verwendet, um die Kamera während der Erfassung der Bilddaten zu steuern. Für eine Szene mit einem speziellen Beleuchtungspegel wird eine Abnahme der Belichtungsdauer durch Vergrößern der Blendenöffnung oder Erhöhen der Verstärkung des Sensors oder durch beides ausgeglichen, um die Daten innerhalb eines bestimmten Lumineszenzbereichs zu erhalten. Eine vergrößerte Blende führt zu einem Bild mit einer verringerten Schärfentiefe und einer erhöhten optischen Unschärfe, und ein Erhöhen der Verstärkung zieht eine Zunahme des Rauschens im Bild nach sich. Wenn die Szene dagegen hell beleuchtet ist, werden die Blende und/oder die Verstärkung verringert und ausgeglichen durch die Zunahme der Belichtungsdauer, wobei das entstehende Bild eine größere Tiefenschärfe und/oder ein verringertes Rauschen umfasst. Zusätzlich zu einer oder anstelle einer Anpassung der analogen Verstärkung wird oft die digitale Verstärkung eines Bildes angepasst, nachdem die Daten erfasst worden sind.
  • Eine weitere Bearbeitung, die auch durch elektronische Kameras ausgeführt werden kann, umfasst ein Ermitteln der Wahrscheinlichkeit, dass ein bestimmter Objekttyp in einem Bild vorhanden ist. Ein Beispiel für ein Objekt ist das Gesicht eines Menschen. Besteht eine Wahrscheinlichkeit, dass das Objekt im Bild vorkommt, dann wird auch seine Lage bestimmt. Das ermöglicht es der Kamera, während der Erfassung und/oder der Bearbeitung der erfassten Daten unterschiedlich auf diesen Teil des Bildes einzuwirken.
  • Kurzbeschreibung der Zeichnungen
  • Es werden nicht einschränkende und keinen Anspruch auf Vollständigkeit erhebende Ausführungsformen der vorliegenden Erfindung mit Bezugnahme auf die nachfolgenden Zeichnungen beschrieben, in denen:
  • 1 ein Blockdiagramm einer Ausführungsform einer Bildgebungsvorrichtung darstellt;
  • 2 ein vereinfachtes Blockdiagramm einer Ausführungsform eines Systems zum Erkennen lächelnder Gesichter zeigt; und
  • 3 ein Flussdiagramm einer Ausführungsform eines Vorgangs zum Erkennen lächelnder Gesichter gemäß Aspekten der Erfindung darstellt.
  • Ausführliche Beschreibung
  • Es werden verschiedene Ausführungsformen der vorliegenden Erfindung ausführlich mit Bezugnahme auf die Zeichnungen beschrieben, wobei gleiche Bezugsziffern gleiche Teile und Anordnungen durchgehend in den verschiedenen Ansichten darstellen. Die Bezugnahme auf verschiedene Ausführungsformen schränkt den Umfang der Erfindung nicht ein, der allein durch den Umfang der hierzu angefügten Ansprüche beschränkt ist. Außerdem sollen beliebige in dieser Beschreibung dargelegte Beispiele nicht einschränkend sein und stellen lediglich einige der vielen möglichen Ausführungsformen der beanspruchten Erfindung dar.
  • In der Beschreibung und den Ansprüchen haben die nachfolgenden Begriffe durchgehend wenigstens die Bedeutungen, die hier explizit zugeordnet sind, wenn der Zusammenhang nicht etwas anderes vorschreibt. Die unten festgelegten Begriffsinhalte schränken die Begriffe nicht notwendigerweise ein, sondern liefern nur veranschaulichende Beispiele für die Begriffe. Die Begriffsinhalte von ”einer/eine/eines” und ”der/die/das” schließt die Bezugnahme auf die Mehrzahl ein, und der Begriffsinhalt von ”in” schließt ”in” und ”auf” ein. Die Formulierung ”in einer Ausführungsform”, wie sie hier verwendet wird, bezieht sich nicht notwendigerweise auf die gleiche Ausführungsform, obwohl es so sein kann. Ebenso bezieht sich die Formulierung ”in einigen Ausführungsformen”, wie sie hier verwendet wird, bei mehrfacher Verwendung nicht notwendigerweise auf die gleichen Ausführungsformen, obwohl es so sein kann. Wie er hier verwendet wird, ist der Begriff ”oder” ein inklusives ”oder” und gleichwertig zum Ausdruck ”und/oder”, wenn der Zusammenhang nicht eindeutig etwas anderes vorschreibt. Der Ausdruck ”teilweise auf Grundlage von”, ”wenigstens teilweise auf Grundlage von” oder ”auf Grundlage von” schließt anderes nicht aus, sondern erlaubt es, dass zusätzliche Faktoren, die nicht beschrieben sind, zur Grundlage beitragen, außer wenn der Zusammenhang eindeutig etwas anderes vorschreibt, Der Begriff ”Signal” bedeutet wenigstens ein Strom-, Spannungs-, Ladungs-, Temperatur-, Daten- oder anderes Signal.
  • Kurz gesagt betrifft die Erfindung ein Verfahren, eine Vorrichtung und ein Erzeugnis zum Erkennen lächelnder Gesichter. Für jeden Rahmen wird eine Liste neuer lächelnder Gesichter für den Rahmen erzeugt, indem eine Ermittlung lächelnder Gesichter ausgeführt wird, wobei ein Objektklassifizierer verwendet wird, der dazu trainiert ist, zwischen lächelnden Gesichtern und allen Objekten im Rahmen, die keine lächelnden Gesichter sind, zu unterscheiden. Für den ersten Rahmen wird die Liste neuer lächelnder Gesichter als eine Eingabeliste lächelnder Gesichter für den nächsten Rahmen verwendet. Für jeden Rahmen nach dem ersten Rahmen wird eine Liste verfolgter (getrackter) Lächeln für den Rahmen erzeugt, indem lächelnde Gesichter im Rahmen von der für den Rahmen eingegebenen Liste lächelnder Gesichter verfolgt werden. Ferner wird eine Liste neuer lächelnder Gesichter für den nächsten Rahmen erzeugt, indem die Liste neuer lächelnder Gesichter für den Rahmen mit der Liste verfolgter Lächeln für den Rahmen kombiniert wird.
  • 1 zeigt ein Blockdiagramm einer Ausführungsform der Vorrichtung 100, die eine Digitalkamera oder dergleichen sein kann. Die Digitalkamera 100 weist eine Optikgruppe (z. B. eine oder mehrere Linsen und/oder Lichtführungen) 101, einen Satz Bildsensoren 102, die optisch an die Optik 101 gekoppelt sind, einen Satz Analog-Digital(A/D)-Wandler 103 mit Eingängen, die elektrisch mit den Ausgängen der Bildsensoren 102 verbunden sind, und einen oder mehrere Prozessoren und Hardware 104 auf, die gekoppelt sind, um die Ausgaben der A/D-Wandler 103 aufzunehmen. Die Bildsensoren 102 können getrennte R-, G- und B-Farbsignale erzeugen. Die Kamera 100 umfasst ferner eine Anzeigevorrichtung 106, die mit den Ausgängen des Prozessors (der Prozessoren) und der Hardware 104 verbunden ist, und einen Speicher 105, der eine bidirektionale Kommunikation mit dem (den) Prozessor(en) 104 umfasst. Die Anzeigevorrichtung 106 ist optional und nicht in allen Ausführungsformen der Digitalkamera 100 enthalten.
  • Im Einsatz empfangen die Bildsensoren 102 durch die Optik 101 hindurch eingegebenes Licht und erzeugen als Reaktion darauf ausgegebene analoge Farbsignale R, G und B für die A/D-Wandler. Die A/D-Wandler wandeln diese eingegebenen Farbsignale in eine digitale Form um, die dem (den) Prozessor(en) 104 zur Verfügung gestellt werden.
  • Der (die) Prozessor(en) und die Hardware 104 können eine CPU sowie eine spezialisierte Hardware aufweisen, wie nachfolgend ausführlicher dargelegt wird. Der (die) Prozessor(en) 104 kann (können) beliebige von verschiedenen wohl bekannten Arten der Bearbeitung an diesen eingegebenen Farbsignalen vornehmen. Der (die) Prozessor(en) 104 kann (können) zum Beispiel eines oder mehreres sein oder umfassen: ein programmierter Mikroprozessor oder digitaler Signalprozessor (DSP), ein Mikrocontroller, eine anwendungsspezifische integrierte Schaltung (ASIC), ein programmierbarer Logikbaustein (PLD) usw. Prozessor(en) und Hardware 104 können verschiedene Prozesse ausführen, wie z. B. einen Teil oder alle Prozesse aus einer Ausführungsform des Prozesses, der in 3 dargestellt ist.
  • Der Speicher 105 kann zum Beispiel einen beliebigen oder mehrere der Folgenden umfassen: Flash-Speicher, Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM) usw. Der Speicher 105 kann ein dinghaftes prozessorlesbares Speichermedium aufweisen, das ausgelegt ist, prozessorlesbaren Code zu codieren, welcher Aktionen ermöglicht, wenn er durch den (die) Prozessor (en) 104 ausgeführt wird. Die vom (den) Prozessor(en) 104 ermöglichten Aktionen, die eine Aktion (Aktionen) umfassen können, die vom (den) Prozessor(en) 104 gesteuert wird (werden), tatsächlich aber von anderen Teilen der Digitalkamera 100 ausgeführt wird (werden), können verschiedene Prozesse ausführen, wie z. B. einen Teil oder alle Prozesse aus einer Ausführungsform des Prozesses, der in 3 dargestellt ist.
  • Die Digitalkamera 100 ist nicht beschränkt auf handelsübliche Digitalkameras, sondern kann andere Arten von Abbildungsvorrichtungen umfassen, die Bilder auf vielen unterschiedlichen Wegen aufnehmen.
  • Die bearbeiteten oder unbearbeiteten Farbdaten können zur Anzeige an die Anzeigevorrichtung 106 und/oder ein oder mehrere externe Geräte, wie z. B. einen Computer oder einen Drucker, ausgegeben werden.
  • 2 zeigt eine Ausführungsform des Systems 200 zum Erkennen eines Lächelns, das eine Bildstreueinheit 210, eine Einheit 230 zum Erkennen lächelnder Gesichter und eine Einheit 220 zum Verfolgen lächelnder Gesichter umfasst. Die Bildstreueinheit (ISU) 210 ist ausgelegt, Daten eines Rahmens als Eingabe zu erhalten. Eingabebeispiele in das System umfassen das Quarter-Video-Graphics-Array (QVGA), codierte Bild- und/oder Filmdaten (z. B. YUV) und komprimierte Daten (z. B lediglich in Y herunterskalierte Kopien), ohne Beschränkung darauf.
  • Die ISU 210 kann an eine Erkennungsvorrichtung und/oder einen Prozessor zum Empfang der Daten für den einen oder die mehreren Rahmen gekoppelt sein. Wie hier verwendet, kann sich ein Rahmen auf ein Bildfenster oder einen Erkennungsbereich einer Abbildungsvorrichtung, wie z. B. einen Fotosensor, eine Kamera, einen Videodetektor usw., beziehen. In bestimmten Ausführungsformen können sich die von der ISU 210 aufgenommenen Daten auf ein Vorschaubild des Detektors beziehen. Ein Rahmen kann auch die Ermittlungsdaten für einen speziellen Zeitabschnitt beschreiben. Die ISU 210 kann ausgelegt sein, die empfangenen Rahmendaten für ein Gerätedisplay auszugeben. Im Anschluss an den Empfang eines oder mehrerer Rahmen ist die ISU 210 ausgelegt, der Einheit 230 zum Erkennen lächelnder Gesichter (SD) und der Einheit 220 zum Verfolgen lächelnder Gesichter (ST) den einen oder die mehreren Rahmen bereitzustellen. SD 230 und ST 220 sind Bildbearbeitungskomponenten, die zum Ausführen von Aktionen ausgelegt sind. In einer Ausführungsform kann ST 220 eine Liste von Koordinaten der lächelnden Gesichter und eine Skala zum Verfolgen eines oder mehrerer lächelnder Gesichter verwenden.
  • Die SD 230 ist ausgelegt, Fenster mit einem potenziell lächelnden Gesicht bereitzustellen. Erfassung und Bearbeitung von Bildern können auf dem Erkennen und Scharfeinstellen beruhen, das mit dem einen oder den mehreren Fenstern innerhalb eines Rahmens verbunden ist. Auf Grundlage des einen oder der mehreren Fenster, die durch die Bilderkennungsvorrichtung unterstützt werden, kann die Erkennung lächelnder Gesichter innerhalb des Rahmens ausgeführt werden. Die SD 230 weist eine Objekterkennungseinheit auf, die zwischen lächelnden Gesichtern und allen Objekten unterscheidet, die keine lächelnden Gesichter sind. In einigen Ausführungsformen können die lächelnden Gesichter, die durch die SD 230 erkannt wurden, mit den lächelnden Gesichtern kombiniert werden, die durch die ST 220 verfolgt wurden, um eine Liste lächelnder Gesichter bereitzustellen, die von der ST 220 für den nächsten Rahmen verfolgt werden müssen, wie nachstehend ausführlicher dargelegt wird.
  • Gemäß einigen Ausführungsformen der Erfindung kann das System zum Erkennen des Lächelns 200 eine Liste oder einen Satz von einem oder mehreren lächelnden Gesichtern verwenden, die innerhalb eines Rahmens verfolgt werden müssen. Die ST 220 kann ausgelegt sein, eine Liste lächelnder Gesichter bereitzustellen, die durch eine Bildgebungsvorrichtung, wie z. B. eine Kamera, verwendet werden kann, in der ein oder mehrere Konfidenzniveaus enthalten sind, die dem erkannten lächelnden Gesicht zugeordnet sind. Die Gesichtsliste kann für jedes Gesicht in der Gesichtsliste auf dem Grad des Vertrauens (Konfidenz) darauf beruhen, dass es tatsächlich ein lächelndes Menschengesicht ist. Eine Ausgabeliste 240 lächelnder Gesichter kann erzeugt werden, indem die verfolgten lächelnden Gesichter herausgefiltert werden, die unterhalb eines speziellen Konfidenzniveau-Schwellenwerts liegen. In einigen Ausführungsformen ist das Konfidenzniveau ein Konfidenzniveau für jedes lächelnde Gesicht, welches verfolgt und über die Zeit gemittelt wird. In einigen Ausführungsformen wird die Ausgabeliste 240 lächelnder Gesichter zum Beispiel erzeugt, indem aus der Liste verfolgter lächelnder Gesichter jedes lächelnde Gesicht entfernt wird, das ein mittleres Konfidenzniveau umfasst, das unter einem Konfidenzniveau-Schwellenwert liegt.
  • Obwohl sie in 2 als Hardwareeinheiten beschrieben sind, sollte anerkannt werden, dass die Funktionen der Einheiten auf verschiedenen Wegen realisiert werden können, wobei Hardware, Firmware, Software und/oder Kombinationen davon eingeschlossen sind. In einigen Ausführungsformen kann insbesondere die Einheit 220 zum Verfolgen lächelnder Gesichter als eine Kombination aus Hardware und Software realisiert werden, und die Einheit 230 zum Erkennen lächelnder Gesichter kann als eine Kombination aus Hardware und Software realisiert werden. Die Softwarekomponenten können ein dinghaftes prozessorlesbares Speichermedium aufweisen, das ausgelegt ist, den prozessorlesbaren Code zu codieren, der Aktionen ermöglicht, wenn er durch den einen oder die mehreren Prozessoren ausgeführt wird.
  • 3 zeigt ein Flussdiagramm einer Ausführungsform eines Prozesses (350) zum Erkennen lächelnder Gesichter.
  • In einigen Ausführungsformen kann der Prozess 350 eine Anzahl von eingegebenen Bildern oder Rahmen bearbeiten. In einigen Ausführungsformen sind die Rahmen einem Vorschaubild einer Digitalkamera zugeordnet. Für jeden Rahmen wird eine Liste neuer lächelnder Gesichter für den Rahmen erzeugt, indem bei Einheit 360 zum Erkennen lächelnder Gesichter eine Ermittlung der lächelnden Gesichter vorgenommen wird, wobei ein Objektklassifizierer verwendet wird, der dazu trainiert ist, zwischen lächelnden Gesichtern und allen Objekten im Rahmen zu unterscheiden, die keine lächelnden Gesichter sind. Für den ersten Rahmen/das erste Eingabebild wird die Liste neuer lächelnder Gesichter als eine Eingabeliste lächelnder Gesichter für den nächsten Rahmen das nächste Eingabebild (d. h. den zweiten Rahmen/das zweite Eingabebild) verwendet. Für jeden Rahmen nach dem ersten Rahmen wird bei Verfolgungsblock 370 von lächelnden Gesichtern eine Liste verfolgter lächelnder Gesichter für den Rahmen erzeugt, indem lächelnde Gesichter im Rahmen von der für den Rahmen eingegebenen Liste lächelnder Gesichter verfolgt werden. Ferner wird bei Kombinierungsblock 380 eine Liste neuer lächelnder Gesichter für den nächsten Rahmen erzeugt, indem die Liste neuer lächelnder Gesichter für den Rahmen mit der Liste verfolgter Lächeln für den Rahmen kombiniert wird. In einigen Ausführungsformen kann die Liste verfolgter Lächeln mit einem Stördatenfilter 390 gefiltert werden, um eine Ausgabeliste lächelnder Gesichter zu erzeugen.
  • In einigen Ausführungsformen beginnt der Prozess 350, wenn eine Digitalkamera in den automatischen Erfassungsmodus oder Modus zum Erkennen eines Lächelns versetzt wird, um immer dann automatisch ein Standbild zu erfassen, wenn eine Person im Gesichtsfeld der Kamera lächelt, wobei die Kamera schnell genug reagiert, bevor die Person zu lächeln aufhört. In einigen Ausführungsformen kann ein Benutzer die Digitalkamera dazu veranlassen, in den Modus zum Erkennen eines Lächelns überzugehen, indem der Modus zum Erkennen eines Lächelns als eine Option aus einem Menü ausgewählt wird. In einigen Ausführungsformen kann die Erkennung eines Lächelns in einem Selbstauslösermodus umfasst sein, der eine Bildaufnahme auslöst, nachdem ein Zeitgeber endet, wenn ein Lächeln erkannt ist.
  • In einigen Ausführungsformen wird der Prozess 350 zum Erkennen des Lächelns in einem Kamera-Vorschaumodus ausgeführt, in dem die Algorithmeneingaben eine Bildfolge sind. Die Ausgabe des Algorithmus ist eine Liste lächelnder Gesichter, welche die Koordinaten der Gesichter und die Größe für jedes eingegebene Bild enthält. In einigen Ausführungsformen kann die Folge von eingegebenen Bildern aus Bildern im Vorschaumodus der Kamera bestehen. In verschiedenen Ausführungsformen können die eingegebenen Rahmen sich auf eine Vorschau von Bilddaten beziehen, die Standbilder, Bewegungsbilder, Video und/oder abgebildete Daten umfassen.
  • Die Einheit 360 zum Erkennen lächelnder Gesichter ist ausgelegt, neue Gesichter über den gesamten Eingaberahmen hinweg aufzufinden. In einigen Ausführungsformen kann die Einheit 360 zum Erkennen lächelnder Gesichter unter Verwendung der Objekterkennungseinheit ausgeführt sein, die beschrieben ist in der US-Patentschrift 7961908 mit dem Titel ”Detecting objects in an image being acquired by a digital camera or other eletronic image acquisition device”, die hiermit durch Verweis einbezogen ist. Die Objekterkennungseinheit wird mit zwei vorbereiteten Datenbanksätzen trainiert. Die erste Datenbank umfasst eine große Anzahl von Bildern lächelnder Gesichter von verschiedenen Personen. Der Satz wird als ein Satz positiver Beispiele verwendet. Die zweite Datenbank umfasst eine große Anzahl von Bildern unterschiedlicher Objekttypen, die keine lächelnden Gesichter umfassen. Der Satz wird als ein Satz negativer Beispiele verwendet. Hintereinandergeschaltete Klassifizierer werden durch Trainieren der Klassifizierer mit den positiven und negativen Sätzen eingestellt. Dann wird die Objekterkennungseinheit mit den hintereinandergeschalteten Klassifizierern gespeist. Auf diese Weise arbeitet die Objekterkennungseinheit als Klassifizierer, die den Ort und die Größe von lächelnden Gesichtern im eingegebenen Bild erkennen, während beliebige andere Objekttypen ausgesondert werden. Dementsprechend ist der Objektklassifizierer trainiert, alle Objekte im Bild auszusondern, die keine lächelnden Gesichter sind. Das Erkennen lächelnder Gesichter erfolgt ausschließlich unter Verwendung der Objekterkennungseinheit. Die Objekterkennungseinheit unterscheidet zwischen lächelnden Gesichtern und allen Objekten, die keine lächelnden Gesichter sind. Das Trainieren wird offline im Werk ausgeführt, bevor die Parameter in die Kamera eingegeben werden. Nach dem Abschluss des Trainierens werden die Parameter, die sich aus dem Trainieren ergeben, in die Kamera geladen.
  • In einigen Ausführungsformen arbeitet die Einheit 360 zum Erkennen lächelnder Gesichter wie die Objekterkennungseinheit, die in der US-Patentschrift 7961908 beschrieben ist, abgesehen davon, dass das lächelnde Menschengesicht das zu erkennende Objekt ist, anstatt das Menschengesicht als das zu erkennende Objekt zu verwenden. Die Klassifizierer unterscheiden zwischen lächelnden Menschengesichtern und allen Objekten, die keine lächelnden Menschengesichter sind. Anstelle eines zweistufigen Prozesses, in dem zuerst eine Objekterkennungseinheit zwischen Gesichtern und Nicht-Gesichtern unterscheidet, und dann eine anschließende Bestimmung ausgeführt wird, ob die Gesichter lächeln oder nicht, führt die Einheit 360 zum Erkennen lächelnder Gesichter einen einstufigen Prozess aus, in dem die Objekterkennungseinheit zwischen lächelnden Gesichtern und den Objekten unterscheidet, die keine lächelnden Gesichter sind. Statt die Klassifizierer zwischen Beispielen, die Gesichter sind, und Beispielen, die keine Gesichter sind, trainieren zu lassen, trainieren die Klassifizierer zwischen Beispielen, die lächelnde Gesichter sind, und Beispielen, die keine lächelnden Gesichter sind.
  • Obwohl in der US-Patentschrift 7961908 eine Ausführungsform der Objekterkennung ausführlicher beschrieben ist, arbeitet in einer Ausführungsform jeder Klassifizierer kurz gesagt wie folgt. Für jeden Rahmen ist der Klassifizierer ausgelegt, Grenzen von Fenstern im Rahmen festzulegen. Der Klassifizierer bewertet dann die Daten innerhalb einzelner Fenster mit Bezug auf die gespeicherten Daten eines ersten Satzes von Merkmalen des speziellen Objekttyps und weist den einzelnen Fenstern erste Punktwerte zu, die eine Wahrscheinlichkeit für das Vorliegen des ersten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern wiedergeben. Der Klassifizierer vergleicht dann die ersten Punktwerte mit einem vorgegebenen ersten Schwellenwert, um eine erste Gruppe von Fenstern zu bestimmen, die Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des ersten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dementsprechend diejenigen der einzelnen Fenster auszusondern, die anders als die der ersten Gruppe sind.
  • Die erste Gruppe der Fenster besteht aus einem oder mehreren, aber aus weniger als allen Fenstern. Der Klassifizierer bewertet dann die Daten in den einzelnen ausgewählten Fenstern der ersten Gruppe, aber nicht die ausgesonderten Fenster, bezüglich gespeicherter Daten eines zweiten Satzes von Merkmalen des speziellen Objekttyps. Der Klassifizierer weist dann den einzelnen Fenstern der ersten Gruppe zweite Punktwerte zu, die eine Wahrscheinlichkeit für das Vorliegen des zweiten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern der ersten Gruppe wiedergeben. Der Klassifizierer vergleicht dann die zweiten Punktwerte mit einem vorgegebenen zweiten Schwellenwert, um eine zweite Gruppe von Fenstern zu bestimmen, die zweite Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des zweiten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dementsprechend diejenigen der einzelnen Fenstern der ersten Gruppe auszusondern, die nicht die der zweiten Gruppe sind. Wie oben dargelegt wurde, ist der Klassifizierer derart trainiert, dass ”der spezielle Bildtyp” ein lächelndes Gesicht ist.
  • Die Klassifizierer arbeiten derart in Reihe, dass die Bestimmung, ob die Fenster ein lächelndes Gesicht aufweisen oder nicht, in jeder nachfolgenden Runde detaillierter und komplizierter ist. Die Fenster, die durch den ersten Klassifizierer nicht zurückgewiesen wurden, gehen zum nächsten Klassifizierer über und so weiter. Jeder nachfolgende Klassifizierer ist stärker als die vorhergehenden Klassifizierer in der Reihenfolge, derart, dass das Objekt mehr und mehr einem lächelnden Gesicht ähneln muss, um in den nachfolgenden Runden nicht ausgesondert zu werden. Das ermöglicht es, dass Fenster, die offensichtlich keine lächelnden Gesichter enthalten, wie z. B. ein Fenster, das nichts außer eine weiße Wand im Hintergrund enthält, schnell ausgesondert werden.
  • In einigen Ausführungsformen kann anstelle des Verfahrens, das in der US-Patentschrift 7961908 beschrieben ist, ein anderes geeignetes Verfahren zur Objektverfolgung verwendet werden, aber auf alle Fälle sollte das Verfahren die Objekterkennung verwenden, die zwischen lächelnden Gesichtern und den Objekten unterscheidet, die keine lächelnden Gesichter sind.
  • Die Verfolgungseinheit 370 von lächelnden Gesichtern ist ausgelegt, lächelnde Gesichter im eingegebenen Bild zu verfolgen. In einigen Ausführungsformen ist die Lächeleinheit 370 auf die gleiche Weite ausgeführt wie die Gesichtsverfolgungseinheit, die in der Patentanmeldung 2010/0021008 mit dem Titel ”System and Method for Face Tracking” beschrieben ist, die hier durch Verweis einbezogen ist, außer dass die Verfolgungseinheit 370 von lächelnden Gesichtern statt den Gesichtern den lächelnden Gesichtern nachfolgt. Während des Trainierens der Verfolgungseinheit 370 von lächelnden Gesichtern wird in die Verfolgungseinheit 370 von lächelnden Gesichtern eine Liste lächelnder Gesichtsobjekten anstelle einer Verfolgungsliste von Gesichtsobjekten eingegeben, wie in der US-Patentanmeldung 2010/0021008 beschrieben ist.
  • In einigen Ausführungsformen kann von der Verfolgungseinheit 370 von lächelnden Gesichtern ein anderes geeignetes Verfolgungsverfahren anstelle des Verfahrens, das in der US-Patentanmeldung 2010/0021008 beschrieben ist, verwendet werden, aber statt der Gesichter werden durch die Einheit 370 lächelnde Gesichter verfolgt.
  • Die Kombinierungseinheit 380 ist ausgelegt, die Liste neu erkannter lächelnder Gesichter und die verfolgten lächelnden Gesichter zu kombinieren, um die Liste lächelnder Gesichter bereitzustellen, die durch die Verfolgungseinheit 370 verfolgt werden sollen.
  • Bei dem System 350 ist es möglich, dass fälschlicherweise Störobjekte oder nicht lächelnde Gesichter als lächelnde Gesichter erkannt werden. Das unrichtige Erkennen lächelnder Gesichter im Algorithmus zum Erkennen des Lächelns ist vorzugsweise, da die Kamera sonst leere Bilder ohne ein Gesicht in der Bildfläche oder mit Gesichtern, die nicht lächeln, erfassen könnte. Die Stördatenfiltereinheit 390 ist dafür ausgelegt, die Anzahl der Falscherkennungen zu verringern. Die Stördatenfiltereinheit 390 ist ausgelegt, das mittlere Erkennungs-Konfidenzniveau über n Rahmen (n > 1) hinweg zu berechnen und nur Gesichter mit einem mittleren Erkennungs-Konfidenzniveau weiterzuleiten, das höher als ein vorgegebener Schwellenwert ist. Das Konfidenzniveau bezieht sich hier auf das Vertrauen, dass das verfolgte lächelnde Gesicht tatsächlich ein lächelndes Gesicht ist.
  • In einigen Anwendungen einiger Ausführungsformen des Prozesses 350 stellt sich die Kamera auf die lächelnden Gesichter scharf ein und erfasst das Bild. In einigen Ausführungsformen ist jedoch in einigen Anwendungen die Scharfeinstellungszeit der Kamera kritisch, und der Scharfeinstellungsvorgang wird vor dem Erkennen des Lächelns ausgeführt. Dementsprechend stellt sich die Kamera in einigen Ausführungsformen auf nicht lächelnde Gesichter im Bild ein und erfasst das Bild sofort, wenn ein nicht lächelndes Gesicht zu lächeln beginnt. In einigen Ausführungsformen, in denen die Scharfeinstellungszeit der Kamera kritisch ist, wird das bewerkstelligt, indem die Anwendungen zur Gesichtserkennung und zum Erkennen des lächelnden Gesichts unabhängig und gleichzeitig ausgeführt und die Gesichtserkennungsanwendung zum Scharfeinstellen verwendet und der Algorithmus zum Erkennen des lächelnden Gesichts für die Bilderfassung eingesetzt wird.
  • Obwohl verschiedene oben dargelegte Ausführungsformen das Erkennen und Verfolgen lächelnder Gesichter beinhalten, können einige Ausführungsformen nur das Erkennen lächelnder Gesichter und nicht das Verfolgen lächelnder Gesichtern einsetzen, wobei das oben dargelegte Verfahren zum Erkennen eines lächelnden Gesichts verwendet wird. Zum Beispiel kann das Erkennen lächelnder Gesichter nach dem Erfassen des Fotos im Standmodus angewendet werden. Diese Ausführungsformen und weitere liegen auch im Umfang und Wesen der Erfindung.
  • Beschreibung, Beispiele und Daten, die oben gegeben sind, liefern eine Darstellung der Herstellung und Verwendung des Aufbaus der Erfindung. Da viele Ausführungsformen der Erfindung ausgeführt werden können, ohne das Wesen und den Umfang der Erfindung zu verlassen, beruht die Erfindung auch auf den Ansprüchen, die hier nachfolgend angefügt sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7961908 [0029, 0030, 0031, 0034]

Claims (16)

  1. Verfahren, umfassend: für jeden Rahmen von mehreren Rahmen, die wenigstens einen ersten Rahmen, einen zweiten Rahmen und einen letzten Rahmen umfassen: Erzeugen einer Liste neuer lächelnder Gesichter für den Rahmen durch Ausführen einer Erkennung lächelnder Gesichter unter Verwendung eines Objektklassifizierers, der trainiert ist, zwischen lächelnden Gesichtern und allen Objekten im Rahmen, die keine lächelnden Gesichter sind, zu unterscheiden; Verwenden der Liste neuer lächelnder Gesichter aus dem ersten Rahmen der mehreren Rahmen als eine Eingabeliste lächelnder Gesichter für den zweiten Rahmen der mehreren Rahmen; für jeden Rahmen der mehreren Rahmen nach dem ersten Rahmen: Erzeugen einer Liste verfolgter Lächeln für den Rahmen durch Verfolgen lächelnder Gesichter in dem Rahmen aus der Eingabeliste lächelnder Gesichter für den Rahmen; und für jeden Rahmen der mehreren Rahmen nach dem ersten Rahmen der mehreren Rahmen und vor dem letzten Rahmen der mehreren Rahmen: Erzeugen einer Liste neuer lächelnder Gesichter für den nächsten Rahmen der mehreren Rahmen durch Kombinieren der Liste neuer lächelnder Gesichter für den Rahmen mit der Liste verfolgter Lächeln für den Rahmen.
  2. Verfahren nach Anspruch 1, wobei die mehreren Rahmen einem Vorschaubild einer Digitalkamera zugeordnet sind.
  3. Verfahren nach Anspruch 1, wobei das Erzeugen der Liste verfolgter Lächeln umfasst: Erkennen eines Bildes im Rahmen auf der Grundlage von wenigstens einem von: Koordinatenwerten und Skalenwerten lächelnder Gesichter in der Eingabeliste lächelnder Gesichter für den Rahmen.
  4. Verfahren nach Anspruch 1, ferner umfassend: Ausführen der Gesichtserkennung und Gesichtsverfolgung und Ausführen der Scharfeinstellung der Kamera auf der Grundlage der Gesichtsverfolgung, wobei das Ausführen der Gesichtserkennung und Gesichtsverfolgung gleichzeitig mit und unabhängig von der Erkennung lächelnder Gesichter und der Verfolgung lächelnder Gesichter geschieht.
  5. Verfahren nach Anspruch 1, wobei der Objektklassifizierer mehrere Klassifizierer umfasst.
  6. Verfahren nach Anspruch 5, ferner für jeden Rahmen umfassend, wobei wenigstens einer der mehreren Klassifizierern ausgelegt ist zum: Einrichten von Fenstergrenzen im Rahmen, Auswerten von Daten innerhalb einzelner Fenster mit Bezug auf gespeicherte Daten eines ersten Satzes von Merkmalen des speziellen Objekttyps und Zuweisen erster Punktwerte für die einzelnen Fenster, die eine Wahrscheinlichkeit für das Vorliegen des ersten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern wiedergeben, Vergleichen der ersten Punktwerte mit einem vorgegebenen ersten Schwellenwert, um eine erste Gruppe von Fenstern zu bestimmen, die erste Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des ersten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dadurch diejenigen der einzelnen Fenstern auszusondern, die nicht die der ersten Gruppe sind, wobei die erste Gruppe der Fenster aus einem oder mehreren, aber aus weniger als allen Fenstern besteht, anschließend Auswerten der Daten in den einzelnen ausgewählten Fenster der ersten Gruppe, aber nicht die ausgesonderten Fenster, bezüglich gespeicherter Daten eines zweiten Satzes von Merkmalen des speziellen Objekttyps und Zuweisen zweiter Punktwerte an die einzelnen Fenster der ersten Gruppe, die die Wahrscheinlichkeit für das Vorliegen des zweiten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern der ersten Gruppe wiedergeben, und Vergleichen der zweiten Punktwerte mit einem vorgegebenen zweiten Schwellenwert, um eine zweite Gruppe von Fenstern zu bestimmen, die zweite Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des zweiten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dadurch diejenigen der einzelnen Fenstern der ersten Gruppe auszusondern, die nicht die der zweiten Gruppe sind, wobei der spezielle Bildtyp ein lächelndes Gesicht ist.
  7. Verfahren nach Anspruch 1, ferner umfassend: Erzeugen einer Liste ausgegebener lächelnder Gesichter durch Filtern der Liste verfolgter lächelnder Gesichter.
  8. Verfahren nach Anspruch 7, wobei das Filtern der Liste verfolgter Lächeln ein Beseitigen eines jeden lächelnden Gesichts umfasst, das ein durchschnittliches Konfidenzniveau aufweist, das unter einem Konfidenzniveau-Schwellenwert liegt.
  9. Vorrichtung mit: einem Bilddetektor, der ausgelegt ist, mehrere Rahmen auszugeben, wobei die mehreren Rahmen wenigstens einen ersten Rahmen, einen zweiten Rahmen und einen letzten Rahmen umfassen; und Bildbearbeitungskomponenten, die zum Ausführen von Aktionen ausgelegt sind, die umfassen: für jeden Rahmen der mehreren Rahmen: Erzeugen einer Liste neuer lächelnder Gesichter für den Rahmen durch Ausführen einer Erkennung lächelnder Gesichter unter Verwendung eines Objektklassifizierers, der trainiert ist, zwischen lächelnden Gesichtern und allen Objekten in dem Rahmen, die keine lächelnden Gesichter sind, zu unterscheiden; Verwenden der Liste neuer lächelnder Gesichter aus dem ersten Rahmen der mehreren Rahmen als eine Eingabeliste lächelnder Gesichter für den zweiten Rahmen der mehreren Rahmen; für jeden Rahmen der mehreren Rahmen nach dem ersten Rahmen: Erzeugen einer Liste verfolgter Lächeln für den Rahmen durch Verfolgen lächelnder Gesichter im Rahmen aus der Eingabeliste lächelnder Gesichter für den Rahmen; und für jeden Rahmen der mehreren Rahmen nach dem ersten Rahmen der mehreren Rahmen und vor dem letzten Rahmen der mehreren Rahmen: Erzeugen einer Liste neuer lächelnder Gesichter für den nächsten Rahmen der mehreren Rahmen durch Kombinieren der Liste neuer lächelnder Gesichter für den Rahmen mit der Liste verfolgter Lächeln für den Rahmen.
  10. Vorrichtung nach Anspruch 9, wobei die Vorrichtung eine Digitalkamera umfasst, die den Bilddetektor und die Bildbearbeitungskomponenten umfasst, wobei die mehreren Rahmen einem Vorschaubild der Digitalkamera zugeordnet sind.
  11. Vorrichtung nach Anspruch 9, wobei die Bildbearbeitungskomponenten ferner derart ausgelegt sind, dass das Erzeugen der Liste verfolgter Lächeln umfasst: Erkennen eines Bildes in dem Rahmen auf der Grundlage von Koordinatenwerten und/oder Skalenwerten der lächelnden Gesichter in der Eingabeliste lächelnder Gesichter für den Rahmen.
  12. Vorrichtung nach Anspruch 9, wobei die Bildbearbeitungskomponenten ausgelegt sind, weitere Aktionen bereitzustellen, die umfassen: Ausführen der Gesichtserkennung und Gesichtsverfolgung und Ausführen der Scharfeinstellung der Kamera auf der Grundlage der Gesichtsverfolgung, wobei das Ausführen der Gesichtserkennung und Gesichtsverfolgung gleichzeitig mit und unabhängig von der Erkennung lächelnder Gesichter und der Verfolgung lächelnder Gesichter geschieht.
  13. Vorrichtung nach Anspruch 9, wobei der Objektklassifizierer mehrere Klassifizierer umfasst.
  14. Vorrichtung nach Anspruch 13, wobei die Bildbearbeitungskomponenten derart ausgelegt sind, dass wenigstens einer der Objektklassifizierer für jeden Rahmen ausgelegt ist zum: Einrichten von Fenstergrenzen in dem Rahmen, Auswerten von Daten innerhalb einzelner Fenster mit Bezug auf die gespeicherten Daten eines ersten Satzes von Merkmalen des speziellen Objekttyps und Zuweisen erster Punktwerte für die einzelnen Fenster, die eine Wahrscheinlichkeit für das Vorliegen des ersten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern wiedergeben, Vergleichen der ersten Punktwerte mit einem vorgegebenen ersten Schwellenwert, um eine erste Gruppe von Fenstern zu bestimmen, die erste Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des ersten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dadurch diejenigen der einzelnen Fenstern auszusondern, die nicht die der ersten Gruppe sind, wobei die erste Gruppe der Fenster aus einem oder mehreren, aber aus weniger als allen Fenstern besteht, anschließend Auswerten der Daten in den einzelnen ausgewählten Fenstern der ersten Gruppe, aber nicht die ausgesonderten Fenster, bezüglich gespeicherter Daten eines zweiten Satzes von Merkmalen des speziellen Objekttyps und Zuweisen zweiter Punktwerte für die einzelnen Fenster der ersten Gruppe, die die Wahrscheinlichkeit für das Vorliegen des zweiten Satzes von Merkmalen des speziellen Objekttyps in den entsprechenden einzelnen Fenstern der ersten Gruppe wiedergeben, und Vergleichen der zweiten Punktwerte mit einem vorgegebenen zweiten Schwellenwert, um eine zweite Gruppe von Fenstern zu bestimmen, die zweite Punktwerte aufweisen, die auf die Wahrscheinlichkeit des Vorliegens des zweiten Satzes von Merkmalen des speziellen Objekttyps hinweisen, und um dadurch diejenigen der einzelnen Fenstern der ersten Gruppe auszusondern, die nicht die der zweiten Gruppe sind, wobei der spezielle Bildtyp ein lächelndes Gesicht ist.
  15. Vorrichtung nach Anspruch 9, wobei die Bildbearbeitungskomponenten ausgelegt sind, weitere Aktionen bereitzustellen, die umfassen: Erzeugen einer Liste ausgegebener lächelnder Gesichter durch Filtern der Liste verfolgter Lächeln.
  16. Vorrichtung nach Anspruch 15, wobei die Bildbearbeitungskomponenten derart ausgelegt sind, dass: das Filtern der Liste verfolgter Lächeln ein Beseitigen eines jeden lächelnden Gesichts umfasst, das ein durchschnittliches Konfidenzniveau aufweist, das unter einem Konfidenzniveau-Schwellenwert liegt.
DE102012020301A 2012-03-16 2012-10-16 Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter Ceased DE102012020301A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/423,039 2012-03-16
US13/423,039 US8965046B2 (en) 2012-03-16 2012-03-16 Method, apparatus, and manufacture for smiling face detection

Publications (1)

Publication Number Publication Date
DE102012020301A1 true DE102012020301A1 (de) 2013-09-19

Family

ID=47137316

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012020301A Ceased DE102012020301A1 (de) 2012-03-16 2012-10-16 Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter

Country Status (3)

Country Link
US (2) US8965046B2 (de)
DE (1) DE102012020301A1 (de)
GB (1) GB2500738B (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965046B2 (en) 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection
KR101429339B1 (ko) * 2012-06-29 2014-08-12 인텔렉추얼디스커버리 주식회사 매크로 간섭 회피를 위한 방법 및 장치
WO2014071558A1 (en) * 2012-11-06 2014-05-15 Nokia Corporation Method and apparatus for summarization based on facial expressions
US10091419B2 (en) * 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US9412048B2 (en) 2014-04-21 2016-08-09 Haier Us Appliance Solutions, Inc. Systems and methods for cookware detection
US9449220B2 (en) * 2014-04-21 2016-09-20 Haier Us Appliance Solutions, Inc. Systems and methods for cookware detection
SE541141C2 (en) * 2016-04-18 2019-04-16 Moonlightning Ind Ab Focus pulling with a stereo vision camera system
US10257414B2 (en) 2016-07-15 2019-04-09 Qualcomm Incorporated Method and system for smart group portrait

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961908B2 (en) 2007-12-21 2011-06-14 Zoran Corporation Detecting objects in an image being acquired by a digital camera or other electronic image acquisition device

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6128398A (en) 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
US6038337A (en) 1996-03-29 2000-03-14 Nec Research Institute, Inc. Method and apparatus for object recognition
US5960097A (en) 1997-01-21 1999-09-28 Raytheon Company Background adaptive target detection and tracking with multiple observation and processing stages
EP1260935B1 (de) 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
AU2003282943A1 (en) 2002-10-11 2004-05-04 Digimarc Corporation Systems and methods for recognition of individuals using multiple biometric searches
JP4247041B2 (ja) 2003-04-01 2009-04-02 本田技研工業株式会社 顔識別システム
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7362368B2 (en) 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
WO2005006072A1 (ja) 2003-07-15 2005-01-20 Omron Corporation 対象決定装置及び撮像装置
GB2409027A (en) 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
JP4489608B2 (ja) 2004-03-31 2010-06-23 富士フイルム株式会社 ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
JP4824411B2 (ja) 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
GB0502371D0 (en) 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
US20080181453A1 (en) 2005-03-17 2008-07-31 Li-Qun Xu Method of Tracking Objects in a Video Sequence
FR2884007A1 (fr) 2005-03-29 2006-10-06 France Telecom Procede d'identification de visages a partir d'images de visage, dispositif et programme d'ordinateur correspondants
WO2006117942A1 (ja) 2005-04-28 2006-11-09 Konica Minolta Holdings, Inc. 人物撮影装置、及び人物撮影方法
DE602006009191D1 (de) 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP2007065290A (ja) 2005-08-31 2007-03-15 Nikon Corp オートフォーカス装置
JP4619927B2 (ja) 2005-11-01 2011-01-26 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7542668B2 (en) 2006-06-30 2009-06-02 Opt Corporation Photographic device
US7693301B2 (en) 2006-10-11 2010-04-06 Arcsoft, Inc. Known face guided imaging method
JP2008187591A (ja) 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法
JP4429328B2 (ja) 2007-02-09 2010-03-10 キヤノン株式会社 自動合焦装置とその制御方法並びに撮像装置
JP4789825B2 (ja) 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
US7756296B2 (en) 2007-03-27 2010-07-13 Mitsubishi Electric Research Laboratories, Inc. Method for tracking objects in videos using forward and backward tracking
GB2447976B (en) 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
JP4315212B2 (ja) 2007-05-02 2009-08-19 カシオ計算機株式会社 撮像装置、撮像制御プログラム及び撮像制御方法
JP4341696B2 (ja) 2007-05-18 2009-10-07 カシオ計算機株式会社 撮像装置、顔領域検出プログラム、及び、顔領域検出方法
US7664389B2 (en) 2007-05-21 2010-02-16 Sony Ericsson Mobile Communications Ab System and method of photography using desirable feature recognition
JP4453721B2 (ja) 2007-06-13 2010-04-21 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4994311B2 (ja) 2007-06-18 2012-08-08 富士フイルム株式会社 顔検出方法、顔検出装置及びデジタルカメラ
JP4356778B2 (ja) 2007-06-25 2009-11-04 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4958659B2 (ja) 2007-07-03 2012-06-20 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体
JP4853425B2 (ja) 2007-08-14 2012-01-11 ソニー株式会社 撮像装置、撮像方法およびプログラム
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8855360B2 (en) 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US8385609B2 (en) 2008-10-21 2013-02-26 Flashfoto, Inc. Image segmentation
KR20100055946A (ko) * 2008-11-18 2010-05-27 삼성전자주식회사 동영상 썸네일 생성 방법 및 장치
JP5116652B2 (ja) * 2008-12-24 2013-01-09 三洋電機株式会社 撮像装置および笑顔記録プログラム
JP2010171797A (ja) 2009-01-23 2010-08-05 Nikon Corp 撮像装置及びプログラム
US8036522B2 (en) 2009-06-04 2011-10-11 Texas Instruments Incorporated Method and system for auto-focusing
US8442967B2 (en) * 2010-02-04 2013-05-14 Identix Incorporated Operator-assisted iterative biometric search
US9053681B2 (en) * 2010-07-07 2015-06-09 Fotonation Limited Real-time video frame pre-processing hardware
US8965046B2 (en) 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961908B2 (en) 2007-12-21 2011-06-14 Zoran Corporation Detecting objects in an image being acquired by a digital camera or other electronic image acquisition device

Also Published As

Publication number Publication date
GB201216254D0 (en) 2012-10-24
GB2500738A (en) 2013-10-02
US20130243241A1 (en) 2013-09-19
GB2500738B (en) 2020-02-26
US20150193652A1 (en) 2015-07-09
US9195884B2 (en) 2015-11-24
US8965046B2 (en) 2015-02-24

Similar Documents

Publication Publication Date Title
DE102012020301A1 (de) Verfahren, Vorrichtung und Erzeugnis zum Erkennen lächelnder Gesichter
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE602006000400T2 (de) Bildsegmentierungsverfahren und -system
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
DE60116949T2 (de) Gesichtserfassungsverfahren
DE112008002819T5 (de) Autofokus-Bildsystem
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE112017005193T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildaufnahmevorrichtung
DE102017126269B4 (de) Vorrichtung und Verfahren zur hinterleuchteten Gesichtserkennung
DE102012023299A1 (de) Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang)
DE112016002229B4 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
DE102019114533A1 (de) Erkennung von visible-light-communication-quellen über einen hohen dynamikbereich
DE10164201A1 (de) System und Verfahren zum automatischen Verbessern von graphischen Bildern
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE112008001990T5 (de) Belichtungssteuerung für ein Bildgebungssystem
Monakhova et al. Dancing under the stars: video denoising in starlight
DE102009035927A1 (de) Verfahren zur Simulation der Belichtungskorrektur dunkler Bereiche mit einem Einzelbild und ein entsprechendes Bildverarbeitungsgerät
DE112015001656T5 (de) Bildverarbeitungsverfahren und -vorrichtung
US10999526B2 (en) Image acquisition method and apparatus
DE102015102681A1 (de) All-in-focus - implementierung
DE19882912B4 (de) Bildselektion auf der Basis des Bildinhalts
DE102014211039B4 (de) Bildgebungsgerät, Bildverarbeitungsgerät und zugehöriges Steuerungsverfahren
DE102014102011A1 (de) System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich
WO2016087202A1 (de) Bildverarbeitung mittels kreuzkorrelation

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: OLSWANG GERMANY LLP, DE

R081 Change of applicant/patentee

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US

Effective date: 20141112

Owner name: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATE, US

Free format text: FORMER OWNER: CSR TECHNOLOGY INC., SUNNYVALE, CALIF., US

Effective date: 20141112

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Effective date: 20141112

Representative=s name: OLSWANG GERMANY LLP, DE

Effective date: 20141112

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

Effective date: 20141112

R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATES DELAWARE), SAN DIEGO, CALIF., US

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final