Hollah-Prozessor
Beschreibung
Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf einen Hough- Prozessor, Weitere Ausführungsbeispiele beziehen sich auf ein Bildanalysesystem zum Tracken einer Pupille mit einem Hough-Prozessor, auf ein Verfahren für eine Hough- Verarbeitung und ein Computerprogramm zur Durchführung des Verfahrens.
Viele Bildererkennungssysteme bzw. Bildauswertungssysteme, wie z.B. 2D- Bildanalysetools oder 3D-Bildanalysatoren, können auf der Hough-Transformation aufbauen, wie nachfolgend ausgeführt wird. Hough-Prozessoren dienen zur Durchführung einer Hough-Transformation, mittels welcher geometrische Muster, wie Geraden oder Kreise oder auch nur Segmente von derartigen geometrischen Mustern, erkannt werden können. Bei der Erkennung wird typischerweise von Gradientenbildern bzw. Schwarz/Weiß-Bildern oder binären Kantenbildern ausgegangen. Mittels der Hough-Transformation erfolgt eine Überführung eines zweidimensi- onalen Ausgangsbilds in einen mehrdimensionalen Akkumulatorraum, der auch als Hough- Raum bezeichnet wird. In diesem Raum wird die gesuchte Struktur in einer Parameterdarstellung ausgedrückt bzw. der Hough-Raum über die Parameter aufgespannt. Ein Hough- Raum weist je nach Komplexität der zu delektierenden Struktur eine Vielzahl an Dimensionen auf. So umlasst ein 1 lough-Raum zur Erkennung von Geraden typischerweise zwei Dimensionen (Winkel zwischen x-Achse und Normalen auf die Gerade und Abstandlot- fußpunkt vom Ursprung, vgl. hessische Normalform); bei einem Hough-Raum zur Erkennung von Kreisen sind typischerweise drei Dimensionen (zweimal Lagekoordinaten des Kreismittelpunkts, einmal Kreisradius) vorhanden, während ein 1 lough-Raum zur Erkennung von Ellipsen typischerweise fünf Dimensionen (zweimal Lagekoordinaten Ellipsen- mittelpunkt. zweimal Ellipsendurchmesser, einmal Kippungswinkel) umfasst. Insofern ist die Hough-Transformation dadurch gekennzeichnet, dass ein zu verarbeitendes Bild in einen n-dimensionalen Hough-Raum überführt wird. Die gesuchten geometrischen Merkmale könnte man auch als Hough-Merkmale bezeichnen. Diese sind anhand der Häufigkeitsverteilungen im I lough-Raum (kann auch als Akkumulatorraum bezeichnet werden) erkennbar.
Die Hough-Transformation stellt die Grundlage dar, um mittels eines Hough- Transformations- Algorithmus geometrische Strukturen effizient und zuverlässig zu erken-
nen. In der Praxis ist beispielsweise die Detektion einer Ellipse bzw. Ellipsenform, wie z.B. bei einer Pupille oder Iris, oder auch andere markante Strukturen im Auge (z.B. Augenlider) in einer Gesichtsaufnahme eine wichtige Anwendung, wobei jedoch angemerkt sei, dass die Ausführung von Hough-Transformations-Algorithmen sehr rechenaufwendig ist. Dies führt dazu, dass die Echtzeitfähigkeit von I lough-I'ransformations-Algorithmen eingeschränkt ist. Ein weiterer sich hieraus ergebender Nachteil liegt darin, dass eine Ausführung eines Hough-Transtbrmations- Algorithmus typischerweise spezielle Hough- Prozcssoren oder allgemein sehr leistungsstarke Prozessoren voraussetzt, so dass die Implementierung eines Hough-Erkcnnungs-Algorithmus mittels einfachen und/oder kosten- günstigen Prozessoren, aber auch FPGAs (Field Programmable Gate Arrays, integrierte Schaltung mit programmierbaren logischen Schaltelementen), schwierig oder nicht möglich ist.
Verbesserungen hinsichtlich der Performance wurden durch eine sogenannte Parallel- Hough-Transformation erreicht, wie sie beispielsweise in der Patentschrift DE 10 2005 047 160 B4 beschrieben ist. Bei dieser Parallel-Hough-Transformation kann jedoch nur ein binäres Ergebnis bezogen auf eine Bildkoordinate (Position der Struktur), nicht aber Maß für die Ubereinstimmung mit der gesuchten Struktur oder weitere Strukturmerkmale, de- tektiert werden. Des Weiteren ist eine flexible Anpassung des Transformationskerns wäh- rend der Laufzeit nicht möglich, was die Eignung hinsichtlich dynamischer Bildinhalte (z.B. kleine und große Pupillen) einschränkt. So ist der Transformationskern nicht rekonfi- gurierbar, so dass andere Strukturen während der Laufzeit nicht erkannt werden können.
Deshalb besteht der Bedarf nach einem verbesserten Ansatz.
Aufgabe der vorliegenden Erfindung ist es, ein flexibel implementierbares Konzept zu schaffen, dass eine effiziente, robuste Hough-Transformation in Echtzeit ermöglicht.
Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Weiterbildungen sind in den Unteransprüchen definiert.
Ausführungsbeispiele der vorliegenden Erfindung schaffen einen Hough-Prozessor mit einem Pre-Prozessor und einer Hough-Transformationseinrichtung. Der Pre-Prozessor ist ausgebildet, um eine Mehrzahl von Samples zu empfangen, die jeweils ein Bild umfassen und um das Bild des jeweiligen Samples zu drehen und/oder zu spiegeln und um eine Mehrzahl von Versionen des Bildes des jeweiligen Samples für jedes Sample auszugeben. Die Hough-Transformationseinrichtung ist ausgebildet, um ein vorbestimmtes gesuchtes Muster in der Mehrzahl von Samples auf der Basis der Mehrzahl von Versionen zu erfas-
sen. Die Hough-Transfomiationseinrichtung weist eine mit dem gesuchten Muster in Abhängigkeit stehende Charakteristik auf, die entsprechend auf das gesuchte Muster anpassbar ist. Der Erfindung liegt die Erkenntnis zu Grunde, dass eine verbesserte Berechnung von Hough-Featurcs durch einen Hough-Prozessor mit einer Hough- Transformationseinrichtung ermöglicht wird, die eine entsprechend dem gesuchten Muster anpassbare Charakteristik, wie zum Beispiel eine Filtercharaktcristik eines Verzögerungsfilters oder eine Charakteristik einer PC-basierten (schnellen) 2D-Korrelation, aufweist. Beispielsweise kann jeder Kombination von Verzögerungselementen des Verzögerungsfilters ein bestimmtes Suchmuster bzw. gesuchtes Merkmal zugeordnet werden. Im Detail, detektiert jede Konfiguration eines Verzögerungsfilters mehrere Ausprägungen eines bestimmten Suchmusters bzw. eine Kurvenschar, wobei jede Spaltensumme für ein bestimmtes Muster, also für eine konkrete Ausprägung der Kurvenschar, steht. Hierbei ist die Cha- rakteristik dynamisch, d.h. also während der laufenden Hough-Transformation anpassbar, um das Suchmuster bzw. die Kurvenscharen zu variieren. Es ist hinsichtlich Implementier- barkeit vorteilhaft, den Hough-Prozessor in zwei Funktionseinheiten, nämlich in einen Pre- Prozessor und eine Hough-Transformationseinheit zu untergliedern. Der Pre-Prozessor führt für die Suche nach Mustern eine Vorverarbeitung durch, die beispielsweise Spiegeln und/oder Drehen des Bildes, in welchem das Muster erkannt werden soll, umfassen kann. Diese von dem Pre-Prozessor ausgegebenen verschiedenen Versionen werden an die Hough-Transformationseinrichtung ausgegeben, die dann nach einem oder mehreren gesuchten Mustern, z.B. einer steigenden Geraden in der ersten Version und einer fallenden Geraden in der zweiten Version, wobei jeweils das gleiche Suchmuster angewendet wer- den kann, sucht.
Es sei an dieser Stelle angemerkt, dass der Filterkern, der auch als Hough-Kern oder Hough-Core bezeichnet wird, entsprechend bevorzugten Ausführungsbeispielen auch eine Mehrzahl an Spalten mit je einem schaltbaren Verzögerungselement je Zeile aufweisen kann, um eine Mehrzahl an unterschiedlichen Mustern (z.B. Gerade/Geradenabschnitt. ein Ellipsenabschnitt, eine ganze Ellipse, einen Kreis und/oder eine Gerade bzw. ein Segment einer Ellipse, eines Kreises oder einer Geraden) zu detektieren. Durch die Mehrzahl an Spalten können verschiedene Ausprägungen des Musters detektiert werden, bei einem Kreissegment können beispielsweise verschiedene Krümmungen und bei einer Geraden verschiedene Steigungen abgebildet werden. Ein vorbestimmtes Muster ist beispielsweise dann erkennbar, wenn die Summe über die einzelnen Verzögerungselemente innerhalb einer Spalte maximal ist bzw. einen vorbestimmten Schwell wert überschreitet.
Durch das Schalten der einzelnen Verzögerungselemente erfolgt entsprechend weiteren Ausführungsbeispielen die Einstellung der Filtercharakteristik. Um dieses Schalten im laufenden Betrieb des Hough- erns durchzuführen, kann z.B. ein Multiplexer zu Hilfe genommen werden.
Entsprechend weiteren Ausführungsbeispielen kann der Pre-Prozessor dazu ausgebildet sein, das Bild um 360°/n zu drehen und n Versionen des Bildes parallel an mehrerer Hough-Kerne oder in Serie an einen auszugeben oder das Bild um 360°/n zu drehen und dann diese Versionen zu spiegeln, und dann die gedrehten und die gespiegelten Versionen auszugeben. Dadurch, dass ein Teil der Hough- Verarbeitung, der für die Detektion verschiedener Muster gleich ist, vorgelagert ist, wird die Performance gesteigert. Dies ermöglicht eine Echtzeitfähigkeit bei gleichzeitigem Geringhalten des Ressourcenverbrauchs auch bei der Implementierung auf herkömmliche Prozessoren, oder insbesondere auf FPGAs. Insofern ist ein derartig mittels FPGA-Architektur implementierter Hough- Prozessor ausgebildet, die oben beschriebene Verarbeitung für mehrere Samples nacheinander durchzuführen.
Entsprechend weiteren Ausführungsbeispielen ist die Hough-Transformationseinrichtung dazu ausgebildet, das Detektionsergebnis in Form eines mehrdimensionalen Hough-Raums auszugeben, der Informationen über die erfassten Muster, wie z.B. die Position (in x-, y- Koordinaten, vgl. Bildkoordinaten des transformierten Bildes), eine Größe (oder einen Durchmesser) des erkannten Merkmals oder eine eventuelle Verkippung des Merkmals, umfasst. Ferner kann auch ein Maß für die Übereinstimmung mit der gesuchten Struktur ausgegeben werden.
Entsprechend weiteren Ausführungsbeispielen kommt eine sogenannte Non-Maxima- Supprcssion zum Einsatz, die lokale Maxima im mehrdimensionalen Hough-Raum mit Hilfe vordefmierter oder dynamisch angepasster Schwell werte extrahiert. Also wi d ein Hough-Merkmal dann vom Extrahierer extrahiert, wenn es ein lokales Maximum ist und die Schwellenwerte überschreitet.
Entsprechend weiteren Ausführungsbeispielen kann der Hough-Prozessor mit einer nachgelagerten Verarbeitungseinrichtung verbunden sein, die beispielsweise Mittel zur Steue- rang der einstellbaren Verzögerungszeit bzw. der Verzögerungselemente der Hough- Transformationseinrichtung aufweist.
Entsprechend weiteren Ausfuhrungsbeispielen kann der Hough-Prozessor Teil eines Bildanalysesystems sein, wobei die oben angesprochene Verarbeitungscinheit ausgebildet ist. das detektierte Muster zu analysieren und als Analyseergebnis einen Geometrieparametersatz, der die Geometrie des einen Musters oder mehreren vordefinierten Mustern be- schreibt, auszugeben.
Des Weiteren kann entsprechenden weiteren Ausführungsbeispielen die Verarbeitungseinrichtung einen Selektiv-adaptiven Datenprozessor aufweisen, der ausgebildet ist, eine Glättung eines aus dem Hough-Raum berechneten Parameters (z.B. die Position der Ellipse) über mehrere Samples durchzuführen. Hierbei wird ein unplausibler Wert durch einen anderen ersetzt, der beispielsweise auf dem vorherigen basiert.
Ein weiteres Ausführungsbeispiel bezieht sich auf ein weiteres Bildanalysesystem, das zwei Hough-Pfade mit zwei Hough-Prozessoren aufweist, so dass zwei Bilddateien von zwei Kameras einer stereoskopischen Kameraanordnung gleichzeitig verarbeitet werden können. Hierzu kann dann das Bildanalysesystem auch einen 3 D-Bildanal ysator umfassen, der ausgebildet ist, eine Position und eine Ausrichtung (Blickwinkel) eines Objekts zu berechnen. Weitere Ausführungsbeispiele beziehen sich auf ein Verfahren für die Hough-Verarbeitung mit den Schritten des Vorverarbeitens einer Mehrzahl von Samples und des Erfassens eines vorbestimmten Musters unter Verwendung einer Hough-Transformationseinrichtung, wobei die Hough-Transformationseinrichtung einen Filter mit einstellbarer Filtercharakteristik aufweist.
A us tührungsbei spi el e der vorliegenden Erfindung werden nachfolgend anhand der beiliegenden Zeichnungen erläutert. Es zeigen:
Fig. 1 ein schematisches Blockschaltbild eines Hough- Prozessors mit einem Prc- Prozessor und einer Hough-Transformationseinrichtung gemäß einem Ausführungsbeispiel;
Fig. 2a ein schematisches Blockschaltbild eines Pre-Prozessors gemäß einem Ausführungsbeispiel;
Fig. 2b eine schematische Darstellung von Hough-Kemen zur Detektion von Geraden (abschnitten);
Fig. 3 a ein schematisches Blockschaltbild einer möglichen Implementierung einer
Hough-Transfonnationseinrichtung gemäß einem Ausführungsbeispiel;
Fig. 3b einzelne Zelle einer Verzögerungsmatrix entsprechend einem Ausführungs- bei spiel;
Fig. 4a-d ein schematisches Blockschaltbild einer weiteren Implementierung einer Hough-Transformationseinrichtung entsprechend einem Ausfuhrungsbeispiel; Fig. 5a ein schematisches Blockschaltbild einer stereoskopischen Kameraanordnung mit zwei Bildprozessoren und einer Nachverarbeitungseinrichtung, wobei jeder der Bild-Prozessoren einen Hough-Prozessor gemäß Ausführungsbeispielen aufweist;
Fig. 5b eine exemplarische Aufnahme eines Auges zur Illustration einer mit der Vorrichtung aus Fig. 5a durführbaren Blickwinkeldetektion und zur Erläuterung der Blickwinkeldetektion im monoskopischen Fall;
Fig. 6-7 weitere Darstellungen zur Erläuterung von zusätzlichen Ausführungsbeispielen bzw. Aspekten;
Fig. 8a-e schematische Darstellungen von optischen Systemen; und
Fig. 9a-9i weitere Darstellungen zur Erläuterung von Hintergrundwissen für die Hough-Transformationseinnchtung.
Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der Figuren im Detail erläutert. Es sei darauf hingewiesen, dass gleiche Elemente mit gleichen Bezugszeichen versehen sind, so dass die Beschreibung derer aufeinander angewendet wer- den kann bzw. austauschbar ist.
Fig. 1 zeigt einen Hough-Prozessor 100 mit einem Pre-Prozessor 102 und einer Hough- Transfonriationseinrichtung 104. Der Pre-Prozessor 102 stellt die erste Signalverarbeitungsstufe dar und ist informatorisch an die Hough-Transformationseinrichtung 104 ge- koppelt. Die Hough-Transformationseinrichtung 104 weist einen Verzögerungsfilter 106 auf, der mindestens ein, bevorzugt aber eine Vielzahl von Verzögerungselementen 108a, 108b, 108c, 1 10a, 1 10b und 1 10c umfassen kann. Die Verzögerungselemente 108a bis 108c und 1 10a bis 1 10c des Verzögerungsfilters 106 sind typischerweise als Matrix, also in
Spalten 108 und 1 10 und Zeilen a bis c angeordnet und signaltechnisch miteinander gekoppelt. Entsprechend dem Ausrührungsbeispiel aus Fig. 1 weist zumindest eines der Verzögerungsglieder 108a bis 108c bzw. 110a bis 1 10c eine einstellbare Verzögerungszeit auf, hier symbolisiert anhand des„+/-"-Symbols. Zur Ansteuerung der Verzögerungselemente 108a bis 108c und 1 10a bis 1 10c bzw. zur Steuerung derselben kann eine separate Ansteuerlogik bzw. ein AnSteuerregister (nicht dargestellt) vorgesehen sein. Diese Steuerlogik steuert die Verzögerungszeit der einzelnen Verzögerungselemente 108a bis 108c bzw. 1 10a bis 1 10c über optionale schaltbare Elemente 109a bis 109 c bzw. l i l a bis 1 1 1 c, die beispielsweise einen Multiplexer und einen Bypass umfassen können. Die Hough- Transformationseinrichtung 104 kann ein zusätzliches Konfigurationsregister (nicht dargestellt) zur initialen Konfiguration der einzelnen Verzögerungselemente 108a bis 108c und 110a bis 1 10c umfassen.
Der Pre-Prozessor 102 hat die Aufgabe, die einzelnen Samples 112a, 112b und 1 12c so aufzubereiten, dass diese durch die Hough-Transformationseinrichtung 104 effizient verarbeitet werden können. Hierzu empfängt der Pre-Prozessor 102 die Bilddatei bzw. die mehreren Samples 1 12a, 112b und 112c und führt eine Vorverarbeitung, z.B. in Form einer Drehung und/oder in Form einer Spiegelung durch, um die mehreren Versionen (vgl. 1 12a und 1 12a') an die Hough-Transformationseinrichtung 104 auszugeben. Die Ausgabe kann seriell erfolgen, wenn die Hough-Transformationseinrichtung 104 einen Hough-Kern 106 aufweist, oder auch parallel, wenn mehrerer Hough-Kerne vorgesehen sind. D.h. also, dass je nach Umsetzung die n Versionen des Bildes entweder vollständig parallel, semi-parallel (also nur zum Teil parallel) oder seriell ausgegeben und bearbeitet werden. Die Vorverarbeitung im Pre-Prozessor 1 2, die dem Zweck dient, mit einem Suchmuster bzw. einer 1 lough-Kernkonfiguration mehrere ähnliche Muster (steigende und fallende Gerade) zu detektieren, wird nachfolgend anhand des ersten Samples 1 12a erläutert.
Dieses Sample kann beispielsweise gedreht, z.B. um 90° gedreht, werden, um die gedrehte Version 1 12a' zu erhalten. Dieser Vorgang des Drehens ist mit dem Bezugszeichen 1 14 versehen. Hierbei kann die Drehung entweder um 90°, aber auch um 180° oder 270° bzw. allgemein um 360°/n erfolgen, wobei angemerkt sei, dass je nach nachgelagerter Hough- Transformation (vgl. Hough-Transformationseinriehtung 104) sehr effizient sein kann, nur eine 90°-Umdrehung durchzuführen. Auf diese Unteraspekte wird Bezug nehmend auf Fig. 2 eingegangen. Ferner kann das Bild 1 12a auch gespiegelt werden, um die gespiegelte Version 1 12a" zu erhalten. Der Vorgang des Spiegeins ist mit dem Bezugszeichen 1 16 versehen. Das Spiegeln 1 16 entspricht einem rückwärtigen Auslesen des Speichers. Sowohl ausgehend von der gespiegelten Version 1 12a" als auch von der gedrehten Version 1 12a' kann eine vierte Version durch eine gedrehte und gespiegelte Version 1 12a"' erhal-
ten werden, indem entweder der Vorgang 1 14 oder 1 16 durchgeführt wird. Auf Basis der Spiegelung 1 16 können dann zwei ähnliche Muster (z.B. nach rechts geöffneter Halbkreis und nach links geöffneter Halbkreis) mit derselben 11 o ugh - e nko n ti gu rat i on , wie nachfolgenden beschrieben, delektiert werden.
Die Hough-Transformationseinrichtung 104 ist dazu ausgebildet, um in der durch den Pre- Prozessor 102 zur Verfügung gestellten Version 1 12a bzw. 112a' (oder 1 12a" bzw. 1 12a'") ein vorbestimmtes gesuchtes Muster, wie z.B. eine Ellipse oder ein Segment einer Ellipse, einen Kreis oder Segment eines Kreises, oder eine Gerade bzw. ein Segment einer Geraden zu detektieren. Hierzu ist die Filteranordnung entsprechend dem gesuchten vorbestimmten Muster konfiguriert. Abhängig von der jeweiligen Konfiguration werden manche der Verzögerungselemente 108a bis 108c bzw. 110a bis 110c aktiviert oder gebypassed. Infolgedessen werden bei Anlegen eines Bildstreifens des zu untersuchenden Bildes 1 12a bzw. 112a' an die Transformationseinrichtung 104 durch die Verzögerungselemente 108a bis 108c einige Pixel selektiv verzögert, was einer Zwischenspei cherung entspricht, und andere direkt zur nächsten Spalte 110 weitergeleitet. Durch diesen Vorgang werden dann gekrümmte oder schräge Geometrien„geradegebogen". Abhängig von der eingelesenen Bilddatei 1 12a bzw. 112a', bzw., um genau zu sein, abhängig von der von der Bildstruktur der angelegten Zeile des Bildes 112a bzw. 112a' kommt es zu hohen Spaltensummen in einer der Spalten 108 oder 1 10, während die Spaltensummen in anderen Spalten niedriger sind. Die Spaltensumme wird über den Spaltensummenausgang 108x bzw. 1 1 Ox ausgegeben, wobei hier optional ein Additionselement (nicht dargestellt) zur Bildung der Spaltensumme je Spalte 108 oder 1 10 vorgesehen sein kann. Bei einem Maximum einer der Spaltensummen kann auf das Vorhandensein einer gesuchten Bildstruktur oder eines Segments der gesuchten Bildstruktur oder zumindest auf das zugehörige Maß der Übereinstimmung mit der gesuchten Struktur geschlossen werden. Das heißt also, dass je Verarbeitungsschritt der Bildstreifen um ein Pixel bzw. um eine Spalte 108 oder 1 10 weitergeschoben wird, so dass bei jedem Verarbeitungsschritt anhand eines Ausgangshistogramms erkennbar ist, ob eine der gesuchten Strukturen detektiert ist oder nicht, oder ob die Wahrschein- lichkeit des Vorhandenseins der gesuchten Struktur entsprechend hoch ist. In anderen Worten ausgedrückt heißt das, dass das Überschreiten eines Schwellenwerts der jeweiligen Spaltensumme der Spalte 108 oder 1 10 die Detektion eines Segments der gesuchten Bildstruktur anzeigen, wobei jede Spalte 108 oder 1 10 einem gesuchten Muster bzw. einer Ausprägung eines gesuchten Musters (z.B. Winkel einer Geraden oder Radius eines Krei- ses) zugeordnet ist. Es sei an dieser Stelle angemerkt, dass für die jeweilige Struktur nicht nur das jeweilige Verzögerungselement 1 10a, 1 10b und 1 10c der jeweiligen Zeile 1 10 maßgeblich ist, sondern insbesondere die vorherigen Verzögerungsei ementc 108a, 108b und 108c in Kombination mit den nachfolgenden Verzögerungselementen 1 10a, 1 10b und
i lOc. Entsprechend dem Stand der Technik sind derartige Strukturen bzw. Aktivierungen von Verzögerungselementen bzw. Bypass von vorneherein vorgegeben.
Über die variablen Verzögerangselemente 108a bis 108c bzw. 1 1 Oa bis 1 10c (Verzöge- rungselemente) kann die gesuchte Ausprägung (also z.B. der Radius oder der Anstieg) im laufenden Betrieb angepasst werden. Da die einzelnen Spalten 108 und 1 10 miteinander gekoppelt sind, erfolgt bei Anpassen der Verzögerungszeit eines der Verzögerungselemente 108a bis 108c bzw. 1 10a bis 1 10c eine Veränderung der gesamten Filtercharakteristik des Filters 106. Durch die flexible Anpassung der Filtercharakteristik des Filters 106 der Hough-Transformationseinrichtung 104 ist es möglich, den Transformationskern 106 während der Laufzeit anzupassen, so dass beispielsweise dynamische Bildinlialte, wie z.B. für kleine und große Pupillen, mit demselben Hough- ern 106 erfasst und getrackt werden können. Auf die genaue Implementierung, wie die Verzögerungszeit angepasst werden kann, wird in Fig. 3 c eingegangen. Um nun dem Hough-Prozessor 100 bzw. der Transfor- mationseinrichtung 104 mehr Flexibilität zu ermöglichen, sind bevorzugt alle Verzögerungselemente 108a, 108b, 108c, 1 10a, 1 10b und/oder 1 10c (oder zumindest eine der genannten) mit einer variablen oder diskret schaltbaren Verzögerungszeit ausgeführt, so dass während des Betriebes aktiv zwischen unterschiedlichen zu detektierenden Mustern bzw. zwischen unterschiedlichen Ausprägungen der zu detektierenden Muster hin- und herge- schaltet werden kann.
Entsprechend weiteren Ausführungsbeispielen ist die Größe des dargestellten Hough- Kerns 104 konfigurierbar (entweder im Betrieb oder vorab), so dass also zusätzliche Hough-Zellen aktiviert oder deaktiviert werden können.
Entsprechend weiteren Ausführungsbeispielen kann die Transformationseinrichtung 104 mit Mitteln zur Einstellung derselben bzw., um genau zu sein, zur Einstellung der einzelnen Verzögerungselemente 108a bis 108c und 1 10a bis 1 10c, wie z.B. mit einem Controller (nicht dargestellt) verbunden sein. Der Controller ist beispielsweise in einer nachge- schalteten Verarbeitungseinrichtung angeordnet und dazu ausgebildet, um die Verzögerungscharakteristik des Filters 106 anzupassen, wenn kein Muster erkannt werden kann oder wenn die Erkennung nicht ausreichend gut ist (geringe Ubereinstimmung des Bildinhaltes mit den gesuchten Mustern). Auf diesem Controller wird Bezug nehmend in Fig. 5a eingegangen.
Das oben genannte Ausführangsbeispiel hat den Vorteil, dass dieses einfach und flexibel zu realisieren ist und insbesondere auch auf einem FPGA implementiert werden kann. Hintergrund hierzu ist, dass die oben beschriebene parallele Hough-Transforrnation ohne Re-
gressionen auskommt und sozusagen vollständig parallelisiert ist. Deshalb beziehen sich weitere Auslührungsbcispiele auf FPGAs, die zumindest die Hough- Transformationseinrichtung 104 und/oder den Pre-Prozessor 102 aufweisen. Bei einer Implementierung der oben beschriebenen Vorrichtung auf einem FPGA, z.B. einen XILINX Spartan 3A DSP, konnte eine sehr hohe Frame-Rate, von beispielsweise 60 FPS bei einer Auflösung von 640x480, unter Nutzung von einer Taktfrequenz bei 96 MHz erzielt werden, da durch die oben beschriebene Struktur 104 mit der Vielzahl der Spalten 108 und 1 10 eine parallele Verarbeitung bzw. eine sogenannte parallele Hough-Transformation möglich ist.
Fig. 2 zeigt den Pre-Prozessor 102, der zur Vorverarbeitung des Videodatenstroms 1 12 mit den Frames 112a, 1 12b und 112c dient. Der Pre-Prozessor 102 ist dazu ausgebildet, die Samples 112 als binäre Kantenbilder oder auch als Gradientenbilder zu empfangen und auf Basis dieser die Rotation 114 bzw. die Spiegelung 116 durchzuführen, um die vier Versio- nen 1 12a, 1 12a', 1 12a" und 1 12a'" zu erhalten. Hintergrund hierzu ist, dass typischerweise die parallele Hough-Transformation, wie sie durch die Hough- Transformationseinrichtung ausgeführt wird, auf zwei oder vier jeweils vorverarbeiteten, z.B. um 90° versetzten, Versionen eines Bildes 1 12a aufbaut. Wie in Fig. 2a dargestellt ist, erfolgt zuerst eine 90°-Drehung (1 12a zu 1 12a'), bevor die zwei Versionen 1 12a und 1 12a' horizontal gespiegelt werden (vgl. 112a zu 1 12a" und 112a' zu 112a'"). Um die Spiegelung 1 16 und/oder die Rotation 1 14 durchzuführen, weist der Pre-Prozessor in entsprechenden Ausführungsbeispielen einen internen oder externen Speicher auf, der dazu dient, die empfangenen Bilddateien 1 12 vorzuhalten. Die Verarbeitung Drehen 1 14 und/oder Spiegeln 1 16 des Pre-Prozessors 102 hängt von der nachgelagerten Hough-Transformationseinrichtung, der Anzahl der parallelen Hough- Kerne ( Paral lcl isierungsgrad ) und der Konfiguration derselben ab, wie insbesondere Bezug nehmend au Fig. 2b beschrieben wird. Insofern kann der Pre-Prozessor 102 dazu ausgebildet sein, um den vorverarbeiteten Videostrom je nach Parallelisierungsgrad der nachge- lagerten Hough-Transformationseinrichtung 104 entsprechend einer der drei folgenden Konstellationen über den Ausgang 126 auszugeben:
100% Parallelisierung: Simultane Ausgabe von vier Videodatenströmen, nämlich einer nicht-rotierten und nicht-gespiegelten Version 1 12a, einer um 90° rotierten Version 1 12a', und jeweils eine gespiegelte Version 1 12a" und 1 12a"'.
50% Parallelisierung: Ausgabe von zwei Videodatenströmen, nämlich nicht-rotiert 1 12a und um 90% gespiegelt 1 12a' in einem ersten Schritt und Ausgabe der jeweils gespiegelten Varianten 1 12a" und 1 12a'" in einem zweiten Schritt. 25% Parallelisierung: jeweils Ausgabe eines Videodatenstroms, nämlich nicht-rotiert 1 12a, um 90° rotiert 1 12a", gespiegelt 1 12a" und gespiegelt und rotiert 1 12a"' sequenziell.
Alternativ zu obiger Variante wäre es auch denkbar, dass basierend auf der ersten Version drei weitere Versionen allein durch Drehung, also beispielsweise durch Drehung um 90°, 180° und 270°, erstellt werden, auf Basis derer die Hough-Transformation erfolgt.
Entsprechend weiteren Ausführungsbeispielen kann der Pre-Prozessor 102 dazu ausgebildet sein, auch weitere Bildverarbeitungsschritte, wie z.B. ein Up-Sampling, durchzuführen. Zusätzlich wäre es auch möglich, dass der Pre-Prozessor das Gradientenbild erzeugt. Für den Fall, dass die Gradientenbilderzeugung Teil der Bildvorverarbeitung wird, könnte das Grauwertbild (Ausgangsbild) im FPGA rotiert werden.
Fig. 2b zeigt zwei Hough- ernkonfigurationen 128 und 130, z.B. für zwei parallele 31x31 Hough-Kerne, so konfiguriert, um eine Gerade bzw. einen geraden Abschnitt zu erkennen. Des Weiteren ist ein Einheitskreis 132 aufgetragen, um zu illustrieren, in welchen Winkelbereichen die Detektion möglich ist. Es sei an dieser Stelle angemerkt, dass die Hough- Kernkonfiguration 128 und 130 jeweils so zu sehen sind, dass die weißen Punkte die Verzögerungselemente illustrieren. Die Hough-Kemkonfiguration 128 entspricht einem sogenannte Typ 1 Hough-Kern, während die Hough-Kemkonfiguration 130 einem sogenannten Typ 2 Hough-Kern entspricht. Wie an dem Vergleich der zwei Hough- Kernkon ti urat i onen 128 und 130 zu erkennen ist, stellt der eine die Inverse des anderen dar. Mit der ersten Hough-Kemkonfiguration 128 kann eine Gerade in dem Bereich 1 zwischen 3π/4 und π/2 detektiert werden, während eine Gerade in dem Bereich 3π/2 und 5π/4 (Bereich 2) mittels der H o ugh- Kemk o n fi gu ra t i n 130 detektierbar ist. Um in den weiteren Bereichen eine Detektion zu ermöglichen, wird, wie oben beschrieben, die Hough- Kemkonfiguration 128 und 130 auf die rotierte Version des jeweiligen Bildes angewendet. Folglich kann dann mittels der Hough-Kemkonfiguration 128 der Bereich 1 r zwischen π/4 und null und mittels der Hough-Kemkonfiguration 130 der Bereich 2r zwischen π und 3π/4 erfasst werden.
Alternativ kann bei Einsatz nur eines Hough-Kerns (z.B. eines Typ 1 I lough-Kerns) eine
Rotation des Bildes einmal um 90°, einmal um 180° und einmal um 270° sinnvoll sein, um die oben beschrieben Varianten der Geradenausrichtung zu erfassen. Andererseits kann
durch die Flexibilität bei der Konfiguration des Hough-Kcrns auch nur ein Hough-Kern- Typ eingesetzt werden, der während des laufenden Betriebs so umkonfiguriert wird bzw. bei dem die einzelne Verzö gerangsei emente zu- oder abgeschaltet werden können, dass der Hough-Kern dem invertierten Typ entspricht. In anderen Worten ausgedrückt heißt das also, dass bei Einsatz des Pre- Prozessors 102 (im 50% Parallelisierungs-Betrieb) und der konfigurierbaren Hough-Transformationseinrichtung 104 mit nur einem Hough-Kern und mit nur einer Bildrotation die vollständige Funktionalität abbildbar ist, die sonst nur mittels zwei parallelen Hough- ernen abgedeckt werden kann. Insofern wird klar, dass die jeweilige Hough-Kernkonfiguration bzw. die Wahl des Hough-Kern-Typs abhängig von dem Pre-Processing, welches durch den Pre-Prozessor 102 durchgeführt wird, ist.
Fig. 3a zeigt einen Hough-Kern 104 mit m Spalten 108, 110, 138, 140, 141 und 143 und n Zeilen a, b, c, d, e und f, so dass m x n Zellen gebildet werden. Die Spalte 108, 110, 138, 140, 141 und 143 des Filters steht für eine bestimmte Ausprägung der gesuchten Struktur, z.B. für eine bestimmte Krümmung oder einen bestimmten Anstieg des Geradenabschnittes.
Jede Zelle umfasst ein hinsichtlich Verzögerungszeit einstellbares Verzögerungselement, wobei in diesem Ausführungsbeispiel der Einstellmechanismus dadurch realisiert ist, dass jeweils ein schaltbares Verzögerungselement mit einem Bypass vorgesehen ist. Nachfolgend wird anhand von Fig. 3b der Aufbau einer einzelnen Zelle stellvertretend erläutert. Die Zelle (108a) aus Fig. 3b umfasst das Verzögerungselement 142, einen fernbedienbaren Schalter 144, wie z.B. einen Multiplexer, und einen Bypass 146. Mittels des fernbedienbaren Schalters 144 kann entweder das Zeilensignal über das Verzögerungselement 142 ge- leitet werden oder unverzögert zu dem Knotenpunkt 148 geführt werden. Der Knotenpunkt 148 ist einerseits mit dem Summenelement 150 für die Spalte (z.B. 108) verbunden, wobei andererseits über diesen Knotenpunkt 148 auch die nächste Zelle (z.B. 1 10a) angebunden ist. Der Multiplexer 144 wird über ein sogenanntes Konfigurationsregister 160 konfiguriert (vgl. Fig. 3a). Es sei an dieser Stelle angemerkt, dass das hier dargestellte Bezugszeichen
160 sich nur auf einen Teil des Konfigurationsregisters 160 bezieht, welcher direkt mit dem Multiplexer 144 gekoppelt ist. Das Element des Konfigurationsregisters 160 ist dazu ausgebildet, den Multiplexer 144 zu steuern und erhält dazu über einen ersten Informati- onseingang 160a eine Konfigurationsinformation, die beispielsweise aus einer Konfigura- tionsmatrize stammt, welche im FPGA-internen BRAM 163 abgelegt ist. Diese Konfigurationsinformation kann ein spaltenweiser Bitstring sein und bezieht sich auf die Konfiguration mehrerer der (auch während der Transformation) konfigurierbaren Verzögerungs-
Zellen (142+144) einer Spalte (108). Deshalb kann die Konfigurationsinformation ferner über den Ausgang 160b weitergeleitet werden. Da die Umkonfiguration nicht zu jedem Zeitpunkt des Betriebes möglich ist, erhält das Konfigurationsregister 160 bzw. die Zelle des Konfigurationsregisters 160 ein sogenanntes Enablesignal über einen weiteren Signal- eingang 160c, mittels welchem die Umkonfiguration veranlasst wird. Hintergrund hierzu ist, dass die Rekonfiguration des Hough-Kerns eine gewisse Zeit benötigt, die von der Anzahl der Verzögerangselemente bzw. insbesondere von der Größe einer Spalte abhängig ist. Dabei ist für jedes Spaltenclement ein Taktzyklus zugeordnet und es kommt zu einer Latenz von wenigen Taktzyklen durch den BRAM 163 bzw. die Konfigurationslogik 160. Die Gesamtlatenz zur Rekonfiguration ist für videobasierte Bildverarbeitungen typischerweise vernachlässigbar. Es sei davon ausgegangen, dass in dem vorliegenden Ausführungsbeispiel die mit einem CMOS-Sensor aufgezeichneten Videodatenströme ein horizontales und vertikales Blanking aufweisen, wobei das horizontale Blanking bzw. die horizontale Blanking-Zeit zur Rekonfiguration genutzt werden kann. Durch diesen Zusam- menhang gibt die Größe der in dem FPGA implementierten Hough-Kern- Struktur die maximal mögliche Größe für Hough-Kemkonfigurationen vor. Werden beispielsweise kleinere Konfigurationen genutzt, sind diese vertikal zentriert und in horizontaler Richtung an Spalte 1 der Hough-Kern-Struktur ausgerichtet. Nicht genutzte Elemente der Hough-Kern- Struktur werden allesamt mit aktivierten Verzögerungselementen besetzt.
Die Auswertung der so mit den einzelnen Verzögerungszellen (142+144) bearbeitenden Datenströme erfolgt spaltenweise. Hierzu wird spaltenweise aufsummiert, um ein lokales Summenmaximum zu detektieren, welches eine erkannte gesuchte Struktur anzeigt. Die Summenbildung je Spalte 108, 1 10, 138, 140, 141 und 143 dient dazu, einen Wert, der repräsentativ für das Maß der Übereinstimmung mit der gesuchten Struktur ist, für eine der jeweiligen Spalte zugeordnete Ausprägung der Struktur zu ermitteln. . Zur Ermittlung der lokalen Maxima der Spaltensummen sind je Spalte 108, 1 10. 138. 140, 141 oder 143 sogenannte Vergleicher 108v, 1 l Ov, 138v, 140v, 141 v bzw. 143v vorgesehen, die mit den jeweiligen Summengliedern 150 verbunden sind. Optional können zwischen den einzelnen Vergleichem 108v, HOv, 138v, 140v, 141v, 143 v der unterschiedlichen Spalten 108, 1 10, 138. 140, 141 oder 143 auch noch weitere Verzögerungsglieder 153 vorgesehen sein, die zum Vergleich der Spaltensummen von nebeneinanderliegenden Spalten dienen. Im Detail wird bei Durchlauf des Filters immer die Spalte 108, 1 10, 138 oder 140 mit dem größten Maß der Übereinstimmung für eine Ausprägung des gesuchten Musters aus dem Filter her- ausgereicht. Bei Detektieren eines lokalen Maximums einer Spaltensumme (Vergleich vorherige, nachfolgende Spalte) kann auf das Vorliegen einer gesuchten Struktur geschlossen werden. Das Ergebnis des Vergleichs ist also einen Spaltennummer (ggf. inkl. Spaltensumme = Maß für Übereinstimmung), in welcher das lokale Maximum erkannt wurde bzw.
die Ausprägung der gesuchten Struktur steht, z.B. Spalte 138. In bevorzugter Weise umfasst das Ergebnis einen sogenannten mehrdimensionalen Hough-Raum, der alle relevanten Parameter der gesuchten Struktur, wie z.B. Art des Musters (z.B. Gerade oder Halbkreis), Maß der Übereinstimmung des Musters, Ausprägung der Struktur (Stärke der Krümmung bei Kurvensegmenten bzw. Anstieg und Länge bei Geradensegmenten) und die Lage bzw. Orientierung des gesuchten Musters umfasst. Anders ausgedrückt heißt das, dass für jeden Punkt in dem Hough-Raum die Grauwerte der korrespondierenden Strukturen im Bildbereich aufaddiert werden. Infolgedessen bilden sich Maxima aus, mittels welchen die gesuchte Struktur im Hough-Raum einfach lokalisiert und in den Bildbereich zurückgeführt werden kann.
Die Hough-Kern-Zelle aus Fig. 3b kann ein optionales Pipeline- Verzögerungselement 162 (Pipeline-Delay) aufweisen, das beispielsweise am Ausgang der Zelle angeordnet ist und dazu ausgebildet ist, sowohl das mittels des Verzögerungselements 142 verzögerte Signal und das mittels des Bypasses 146 nicht verzögerte Signal zu verzögern.
Wie Bezug nehmend auf Fig. 1 angedeutet, kann eine derartige Zelle auch ein Verzögerungselement mit einer Variabilität aufweisen bzw. eine Vielzahl von miteinander geschalteten und gebypassten Verzögerungselementen umfassen, so dass die Verzögerungszeit in mehreren Stufen einstellbar ist. Insofern wären weitere Implementierungen über die in Fig. 3b dargestellte Implementierung der Hough-Kern-Zelle alternativ denkbar.
Nachfolgend wird Bezug nehmend auf Fig. 5a eine Anwendung der oben beschriebenen Vorrichtung erläutert in einem Bildverarbeitungs-System 1000. Fig. 5a zeigt einen FPGA implementierten Bildprozessor 10a mit einem Pre-Prozessor 102 und einer Hough- Transformationseinrichtung 104. Vor dem Pre-Prozessor 102 kann ferner eine Eingangsstufe 12 in den Bildprozessor 1 ()a implementiert sein, die dazu ausgebildet ist, um Bilddaten oder Bildsample von einer Kamera 14a zu empfangen. Hierzu kann die Eingangsstufe 12 beispielsweise eine Bildübernahmeschnittstelle 12a, einen Segmentations- und Kanten- detektor 12b und Mittel zur Kamerasteuerung 12c umfassen. Die Mittel zur Kamerasteuerung 12c sind mit der Bildschnittstelle 12a und der Kamera 14 verbunden und dienen dazu Faktoren wie Belichtungszeit und/oder Verstärkung zu steuern.
Der Bildprozessor 10a umfasst des Weiteren einen sogenannten Hough-Feature-Extraktor 16, der dazu ausgebildet ist, den mehrdimensionalen Hough-Raum, der durch die Hough- Transi rmationseinrichtung 104 ausgegeben wird und alle relevanten Informationen für die Mustererkennung umfasst, zu analysieren und au Basis des Analyseergebnisses eine Zusammenstellung aller Hough-Features auszugeben. Im Detail erfolgt hier eine Glättung
der Hough-Feature-Räume, d.h. also eine räumliche Glättung mittels eines lokalen Filters bzw. eine Ausdünnung des Hough-Raums (Unterdrückung nicht relevanter Informationen für die Mustererkennung). Diese Ausdünnung erfolgt unter Berücksichtigung der Art des Musters und der Ausprägung der Struktur, so dass Nicht-Maxima im Hough- Wahrscheinlichkeitsraum ausgeblendet werden. Ferner können für die Ausdünnung auch Schwell werte definiert sein, so dass beispielsweise minimal oder maximal zulässige Ausprägungen einer Struktur, wie z.B. eine minimale oder maximale Krümmung oder ein kleinster oder größter Anstieg, im Vorfeld bestimmt werden kann. Mittels dieser schwellenbasierten Unterdrückung kann auch eine Rauschunterdrückung im Hough- Wahrscheinlichkeitsraum erfolgen.
Die analytische Rücktransformation der Parameter aller verbleibenden Punkte in dem Originalbildbereich ergibt z.B. folgende Hough-Features: Für die gebogene Struktur können Lage (x- und y-Koordinate), Auftrittswahrscheinlichkeit, Radius und Winkel, der angibt, in welche Richtung der Bogen geöffnet ist, weitergeleitet werden. Für eine Gerade können Parameter wie Lage (x- und y-Koordinate), Auftrittswahrscheinlichkeit, Winkel der die Steigung der Gerade angibt, und Länge des repräsentativen geraden Abschnitts ermittelt werden. Dieser ausgedünnte Hough-Raum wird durch den Hough-Feature-Extraktor 16 bzw. allgemein durch den Bildprozessor 10a zur Weiterverarbeitung an eine Nachverarbei- tungseinrichtung 18 ausgegeben.
Diese Nachverarbeitungseinrichtung kann beispielsweise als eingebetteter Prozessor realisiert sein und je nach Anwendung unterschiedliche Untereinheiten aufweisen, die nachfolgend exemplarisch erläutert werden. Die N ach verarbei t ungsei nri chtung 18 kann einen Hough-Feature-nach-Geometrieumwandler 202 umfassen. Dieser Geometrieumwandler 202 ist dazu ausgebildet, ein oder mehrere vordefinierte gesuchte Muster, die durch den Hough-Feature-Extraktor ausgegeben werden, zu analysieren und die Geometrie beschreibende Parameter je Sample auszugeben. So kann der Geometrieumwandler 202 beispielsweise ausgebildet sein, auf Basis der detektierten Hough-Features G eo m et r i eparam et er, wie z.B. erster Durchmesser, zweiter Durchmesser, Kippung und Position des Mittelpunkts bei einer Ellipse (Pupille) oder eines Kreises, auszugeben. Entsprechend einem bevorzugten Ausführungsbeispiel dient der Geometrieumwandler 202 dazu, um eine Pupille anhand von 3 bis 4 Hough-Features (z.B. Krümmungen) zu detektieren und auszuwählen. Dabei fließen Kriterien, wie das Maß der Übereinstimmung mit der gesuchten Struktur bzw. der Hough-Features, die Krümmung der Hough-Features bzw. das vorbestimmte zu detektie- rende Muster, die Lage und Orientierung der Hough-Features ein. Die ausgewählten Hough-Feature-Kombinationen werden sortiert, wobei in der ersten Linie die Sortierung entsprechend der Anzahl der erhaltenen Hough-Features und in zweiter Linie nach dem
Maß der Übereinstimmung mit der gesuchten Struktur erfolgt. Nach dem Sortieren wird die an der ersten Stelle stehende Hough-Feature-Kombination ausgewählt und daraus die Ellipse gefittet, welche am ehesten die Pupille im Kamerabild repräsentiert. Des Weiteren umfasst die Nachverarbeitungseinrichtung 18 einen optionalen Controller 204, der dazu ausgebildet ist, ein Steuersignal zurück an den Bildprozessor 10a (vgl. Steuerkanal 206) bzw., um genau zu sein, zurück an die Hough-Transformationseinrichtung 104 auszugeben, auf Basis dessen die Filtercharakteristik des Filters 106 anpassbar ist. Zur dynamischen Anpassung des Filterkerns 106 ist der Controller 204 typischerweise mit dem Geometrieumwandler 202 verbunden, um die Geometrieparameter der erkannten Geometrie zu analysieren und um den Hough-Kern in definierten Grenzen derart nachzuführen, dass eine genauere Erkennung der Geometrie möglich ist. Dieser Vorgang ist ein sukzessiver Vorgang, der beispielsweise mit der letzten Hough-Kernkonfiguration (Größe des zuletzt genutzten Hough-Kerns) beginnt und nachgeführt wird, sobald die Erkennung 202 unzureichende Ergebnisse liefert. Am oben diskutierten Beispiel der Pupillen bzw. Ellip- sendetektion kann also der Controller 204 die Ellipsengröße anpassen, die z.B. von dem Abstand zwischen dem aufzunehmenden Objekt und der Kamera 14a abhängig ist, wenn die zugehörige Person sich der Kamera 14a nährt. Die Steuerung der Filtercharakteristik erfolgt hierbei auf Basis der letzten Einstellungen und auf Basis der Geometrieparameter der Ellipse.
Entsprechend weiteren Ausführungsbeispielen kann die Nachverarbeitungseinrichtung 18 einen Selektiv-adaptiven Datenprozessor 300 aufweisen. Der Datenprozessor hat den Zweck Ausreißer und Aussetzer innerhalb der Datenreihe nachzubearbeiten, um so bei- spielsweise eine Glättung der Datenreihe durzuführen. Deshalb ist der Selektiv-adaptive Datenprozessor 300 ausgebildet, um mehrere Sätze von Werten, die durch den Geometrieumwandler 202 ausgegeben werden, zu empfangen, wobei jeder Satz einem jeweiligen Sample zugewiesen ist. Der Filterprozessor des Datenprozessors 300 führt auf Basis der mehreren Sätze eine Selektion von Werten in der Art durch, dass die Datenwerte unplau- sible Sätze (z. B. Ausreißer oder Aussetzer) durch intern ermittelte Datenwerte (Ersatzwerte) ersetzt werden und die Datenwerte der übrigen Sätze unverändert weiterverwendet werden. Im Detail werden die Datenwerte plausibler Sätze (die keine Ausreißer oder Aussetzer enthalten) weitergeleitet und die Datenwerte unplausibler Sätze (die Ausreißer oder Aussetzer enthalten) durch Datenwerte eines plausiblen Satzes, z. B. den vorherigen Da- tenwert oder eine Mittelung aus mehreren vorherigen Datenwerten, ersetzt. Die sich ergebende Datenreihe aus weitergeleiteten Werten und ggf. Ersatzwerten wird dabei fortlaufend geglättet. D.h. also, dass eine adaptive zeitliche Glättung der Datenreihe (z. B. einer ermittelten Ellipsenmittelpunktskoordinate), /.. B. nach dem Prinzip der exponentiellen
Glättung, erfolgt, wobei Aussetzer oder Ausreißer (z. B. infolge Falschdetektion bei der Pupillendetektion) in der zu glättenden Datenreihe nicht zu Schwankungen der geglätteten Daten fuhren. Im Detail kann der Datenprozessor über den Datenwert eines neu eingegangenen Satzes glätten, wenn er nicht in eine der folgenden Kriterien fällt:
Entsprechend dem dazu gehörigen Maß der Übereinstimmung, die durch einen der Zusatzwertes des Satzes quantifiziert ist, mit der gesuchten Struktur handelt es sich um einen Aussetzer in der Datenreihe. - Entsprechend der zugehörigen Größenparameter oder Geometrieparameter handelt es sich um einen Aussetzer, wenn z. B. die Größe des aktuellen Objekts zu stark von der Größe des vorherigen Objekts abweicht.
Entsprechend eines Vergleichs des aktuellen Datenwertes mit Schwellwerten, die basierend auf den vorhergehenden Datenwerten ermittelt wurden, handelt es sich um einen Ausreißer, wenn der aktuelle Datenwert (z. B. der aktuelle Positionswert) nicht zwischen den Schwellwerten liegt. Ein anschauliches Beispiel dafür ist, wenn z. B. die aktuelle Positionskoordinate (Datenwert des Satzes) eines Objektes zu stark von der zuvor vom selektiv adaptiven Datenprozessor ermittelten Positionskoordinate abweicht.
Ist eines dieser Kriterien erfüllt, wird weiterhin der vorherige Wert ausgegeben oder zumindest zur Glättung des aktuellen Werts herangezogen. Um eine möglichst geringe Verzögerung bei der Glättung zu erhalten, werden optional die aktuellen Werte stärker gewichtet als vergangene Werte. So kann bei Anwendung einer cxponenticllen Glättung der aktuelle Wert anhand folgender Formel bestimmt werden:
Aktuell geglätteter Wert = aktueller Wert x Glättungskoeffizient + letzter geglätteter Wert x ( 1 - Glättungskoeffizient) Der Glättungskoeffizient wird in definierten Grenzen dynamisch an den Trend der zu glättenden Daten angepasst, z.B. Verringerung bei eher konstanten Werteverläufen oder Erhöhung bei aufsteigenden oder abfallenden Werteverläufen. Wenn langfristig ein größerer Sprung bei den zu glättenden Geometrieparametern (Ellipsenparametern) vorkommt, passen sich der Datenprozessor und somit auch der geglättete Werteverlauf an den neuen Wert an. Grundsätzlich kann der Selektiv-adaptive Datenprozessor 300 auch mittels Parameter, z.B. bei der Initialisierung konfiguriert werden, wobei über diese Parameter das Glättungs- verhalten, z. B. maximale Dauer eines Aussetzers oder maximaler Glättungsfaktor, festgelegt werden.
So kann der Selektiv- adaptive Datenprozessor 300 oder allgemein die Nachverarbeitungsvorrichtung 18 plausible, die Position und Geometrie eines zu erkennenden Musters beschreibende Werte mit hoher Genauigkeit ausgeben. Hierzu weist die Nach verarbei tungs- Vorrichtung eine Schnittstelle 18a auf, über die optional auch Steuerbefehle von extern empfangen werden können. Sollen mehrere Datenreihen geglättet werden, ist es sowohl denkbar, für jede Datenreihe einen separaten selektiv-adaptiven Datenprozessor zu benutzen oder den selektiv-adaptiven Datenprozessor so anzupassen, dass je Satz Datenwerte unterschiedlicher Daten reihen verarbeitete werden können.
Nachfolgend werden die oben anhand von einem konkreten Ausführungsbeispiel erläuterten Eigenschaften des selektiv-adaptiven Datenprozessor 300 allgemein beschrieben:
Der Datenprozessor 300 kann z. B. zwei oder mehr Eingänge sowie einen Ausgang aufweisen. Einer der Eingänge (empfängt den Datenwert und) ist für die Datenreihe die verar- beitet werden soll. Der Ausgang ist eine geglättete Reihe basierend auf selektierten Daten. Zur Selektion werden die weiteren Eingänge (die Zusatzwerte zur genaueren Beurteilung des Datenwertes empfangen) herangezogen und/oder die Datenreihe selbst. Bei der Verarbeitung innerhalb des Datenprozessor 300 erfolgt eine Veränderung der Datenreihe, wobei zwischen der Behandlung von Ausreißern und der Behandlung von Aussetzern innerhalb der Datenreihe unterschieden wird.
Ausreißer: Bei der Selektion werden Ausreißer (innerhalb der zu verarbeitenden Datenreihe) aussortiert und durch andere (intern ermittelte) Werte ersetzt. Aussetzer: Zur Beurteilung der Güte der zu verarbeitenden Datenreihe werden ein oder mehrere weitere Eingangssignale (Zusatzwerte) herangezogen. Die Beurteilung erfolgt anhand eines oder mehrerer Schwellwerte, wodurch die Daten in„hohe" und„geringe" Güte unterteilt werden. Daten geringer Güte werden als Aussetzer bewertet und durch andere (intern ermittelte) Werte ersetzt.
Im nächsten Schritt erfolgt beispielsweise eine Glättung der Datenreihe (z.B. exponentielle Glättung einer Zeitreihe). Zur Glättung wird die von Aussetzern und Ausreißern bereinigte Datenreihe herangezogen. Die Glättung kann durch einen variablen (adaptiven) Koeffizienten erfolgen. Der Glättungskoeffizient wird an die Differenz des Pegels der zu verar- beitenden Daten angepasst.
Entsprechend weiteren Ausführangsbeispielen ist es auch möglich, dass die Nachverarbeitungsvorrichtung 18 einen Bildanalysator, wie z.B. einen 3D-Bildanalysator 400 umfasst.
Im Falle eines 3 D-Bi ldanalysators 400 kann mit der Nachverarbeitungsvorrichtung 18 auch eine weitere Bilderfassungseinrichtung, bestehend aus Bildprozessor 10b und Kamera 14b, vorgesehen sein. Also bilden die zwei Kameras 14a und 14b sowie die Bildprozessoren 10a und 1 Ob eine stercoskopischc Kameraanordnung, wobei bevorzugterweise der Bild- prozessor 10b identisch mit dem Bildprozessor 10a ist.
Der 3D-Bildanalysator 400 ist dazu ausgebildet, um zumindest einen ersten Satz von Bilddaten, der auf Basis eines ersten Bildes (vgl. Kamera 14a) bestimmt wird, und einen zweiten Satz von Bilddaten, der auf Basis eines zweiten Bildes (vgl. Kamera 14b) bestimmt wird, zu empfangen, wobei das erste und das zweite Bild ein Muster aus unterschiedlichen Perspektiven abbilden, und um auf Basis dessen einen Blickwinkel bzw. einen SD- Blickvektor zu berechnen. Hierzu umfasst der 3D-Bildanalysator 400 eine Positionsbe- rechnungseinrichtung 404 und eine Ausrichtungsberechnungseinrichtung 408. Die Positi- onsbereclinungseinrichtung 404 ist dazu ausgebildet, um eine Position des Musters in ei- nem dreidimensionalen Raum basierend auf dem ersten Satz, dem zweiten Satz und einer geometrischen Beziehung zwischen den Perspektiven bzw. der ersten und der zweiten Kamera 14a und 14b zu berechnen. Der Ausrichtungsberechner 408 ist dazu ausgebildet, um einen 3D-Blickvektor, z.B. eine Blickrichtung, zu berechnen, gemäß dem das erkannte Muster in dem dreidimensionalen Raum ausgerichtet ist, wobei die Berechnung auf dem ersten Satz, dem zweiten Satz und der berechneten Position (vgl. Positionsberechner 404) basiert.
Hierzu kann beispielsweise ein sogenanntes 3 D-Kamerasystemmodel 1 hinzugezogen werden, das beispielsweise in einer Konfigurationsdatei alle Modellparameter, wie Lagepara- meter, optische Parameter (vgl. Kamera 14a und 14b) gespeichert hat.
Nachfolgend wird nun ausgehend von dem Beispiel der Pupillenerkennung die Gesamtfunktionalität des 3 D-Bildanal ysators 400 im Detail beschrieben. Das in dem 3D- Bildanalysator 400 gespeicherte oder eingelesene Modell umfasst Daten hinsichtlich der Kameraeinheit, d.h. hinsichtlieh des Kamerasensors (z.B. Pixelgröße, Sensorgröße und Auflösung) und verwendeter Objektive (z.B. Brennweite und Objektivverzeichnung), Daten bzw. Charakteristiken des zu erkennenden Objekts (z.B. Charakteristika eines Auges) und Daten hinsichtlich weitere relevanter Objekte (z.B. eines Displays im Falle der Nutzung des Systems 1000 als Eingabegerät).
Der 3D-Positionsberechner 404 berechnet die Augenposition bzw. den Pupillenmittelpunkt auf Basis der zwei oder auch mehreren Kamerabilder (vgl. 14a und 14b) durch Triangulation. Hierzu bekommt er 2D-Koordinaten eines Punktes in den zwei Kamerabildern (vgl.
14 a und 14b) über die Prozesskette aus Bildprozessoren 10a und 10b, Geometrieumwand- ler 202 und Selektiv- adaptiver Datenprozessor 300 zur Verfügung gestellt. Aus den über- gebenen 2 D-Koordinaten werden mithilfe des 3 D-Kameramodells insbesondere unter Berücksichtigung der optischen Parameter für beide Kameras 10 a und 1 Ob die Lichtstrahlen berechnet, die den 3D-Punkt als 2D-Punkt auf dem Sensor abgebildet haben. Der Punkt der zwei Geraden mit dem geringsten Abstand zueinander (im Idealfall der Schnittpunkt der Geraden) wird als Position des gesuchten 3 D-Punktes angenommen. Diese 3D-Position wird zusammen mit einem Fehlermaß, das die Genauigkeit der übergebenen 2D- Koordinatcn in der Verbindung mit den Modellparametern beschreibt, entweder über die Schnittstelle 18a als Ergebnis ausgegeben oder an den Blickrichtungsberechner 408 übergeben.
Auf Basis der Position im 3D-Raum kann der Blickwinkelberechner 408 die Blickrichtung aus zwei ellipsenförmigen Projektionen der Pupille auf die Kamerasensoren ohne Kalibrie- rung und ohne Kenntnis über den Abstand zwischen den Augen und Kamerasystem bestimmen. Hierzu nutzt der Blickrichtungsberechner 408 neben der 3D-Lageparameter der Bildsensoren die Ellipsenparameter, die mittels des Geometrieanalysators 202 ermittelt sind und die mittels des Positionsberechners 404 bestimmte Position. Aus der 3D-Position des Pupillenmittelpunkts und der Lage der Bildsensoren werden durch Drehung der realen Kameraeinheiten virtuelle Kameraeinheiten berechnet, deren optische Achse durch den 3D-Pupillenmittelpunkt verläuft. Anschließend werden jeweils aus den Projektionen der Pupille auf den realen Sensoren Projektionen der Pupille auf die virtuellen Sensoren berechnet, so dass zwei virtuelle Ellipsen entstehen. Aus den Parametern der virtuellen Ellipse können die beiden Sensoren jeweils zwei Blickpunkte des Auges auf einer beliebigen zur jeweiligen virtuellen Sensorebene parallelen Ebene berechnet werden. Mit den vier Blickpunkten und den 3 D-Pupillenmittelpunkten lassen sich vier Blickrichtungsvektoren berechnen, also jeweils zwei Vektoren pro Kamci a. Von diesen vier möglichen Blickrichtungsvektoren ist immer genau einer der einen Kamera mit einem der anderen Kamera annähernd identisch. Die beiden identischen Vektoren geben die gesuchte Blickrichtung des Auges (gaze direction) an. die dann vom Blickrichtungsberechner 404 über die Schnittstelle 18a ausgegeben wird.
Ein besonderer Vorteil in dieser 3 D-Berechnung liegt darin, dass eine berührungslose und vollständige kalibrierungsfreie Ermittlung der 3D-Augenposition der 3D-Blickrichtung und der Pupillengröße unabhängig von der Kenntnis über die Lage des Auges zu der Kamera möglich ist. Eine analytische Bestimmung der 3 D- Augenposition und SD- Blickrichtung unter Einbeziehung eines 3D-Raummodells ermöglicht eine beliebige Kameraanzahl (größer 1 ) und beliebige Kameraposition im 3 D- Raum. Die kurze Latenzzeit mit
der gleichzeitig hohen Frame-Rate ermöglicht eine Echtzeitfähigkeit des beschriebenen Systems 1000. Ferner sind auch die sogenannten Zeitregime fest, so dass die Zeitdifferenzen zwischen aufeinanderfolgenden Ergebnissen konstant sind. Entsprechend einer alternativen Variante ist es auch möglich mit nur einer Kamera ebenfalls eine Blickrichtungsbestimmung durchzuführen, wie nachfolgend anhand von Fig. 5b erläutert.
In der bisherigen Beschreibung zum„3D-Bildanalysator", welche das Verfahren zum ka- librationsfreien Eyetracking umfasst, wurden bisher mindestens 2 Kamerabilder aus unterschiedlichen Perspektiven vorausgesetzt. Bei der Berechnung der Blickrichtung gibt es eine Stelle, an der pro Kamerabild genau 2 mögliche Blickrichtungsvektoren ermittelt werden, wobei jeweils der zweite Vektor einer Spiegelung des ersten Vektors an der Verbindungslinie zwischen Kamera und Pupillenmittelpunkt entspricht. Von den beiden Vekto- ren, die sich aus dem anderen Kamerabild ergeben, stimmt genau ein Vektor nahezu mit einem aus dem ersten Kamerabild berechneten Vektor überein. Diese übereinstimmenden Vektoren geben die zu ermittelnde Blickrichtung an.
Um das kalibrationsfreie Eyetracking auch mit einer Kamera durchführen zu können, muss von den beiden möglichen Blickrichtungsvektoren, im Folgenden als„vi" und„v2" bezeichnet, die aus dem Kamerabild ermittelt werden, der tatsächliche Blickrichtungsvektor (im Folgenden als„vb" bezeichnet) ausgewählt werden.
Dieser Vorgang wird anhand von Fig. 5b erläutert. Fig. 5b zeigt den sichtbarer Teil des Augapfels (grün umrandet) mit der Pupille und den beiden möglichen Blickrichtungen vi und v2.
Zur Auswahl der Blickrichtung„vb" gibt es mehrere Möglichkeiten, die einzeln oder auch in Kombination genutzt werden können, um den tatsächlichen Blickrichtungsvektor aus- zuwählen. Einige dieser Möglichkeiten (die Auflistung ist nicht abschließend) werden nachfolgend erläutert, wobei davon ausgegangen wird, dass vi und v2 (vgl. Fig. 5a) zum Zeitpunkt dieser Auswahl bereits ermittelt worden sind:
Entsprechend einer ersten Möglichkeit kann eine(die weiße Lederhaut um die Iris) im Ka- merabild erfolgen. Es werden 2 Strahlen (beginnen beim Pupillenmittelpunkt und sind unendlich lang) definiert, einer in Richtung von vi und einer in Richtung von v2. Die beiden
Strahlen werden in das Kamerabild des Auges projiziert und verlaufen dort jeweils vom Pupillenmittelpunkt zum Bildrand. Der Strahl, der weniger zur Sklera gehörende Pixel
überstreicht, gehört zum tatsächlichen Blickrichtungsvektor vb. Die Pixel der Sklera unterscheiden sich durch ihren Grauwert von denen der an sie grenzenden Iris und von denen der Augenlieder. Diese Methode stößt an ihre Grenzen, wenn das zum aufgenommenen Auge gehörende Gesicht zu weit von der Kamera abgewendet ist (also der Winkel zwi- sehen optischer Achse der Kamer und dem senkrecht auf der Gesichtsebene stehenden Vektor zu groß wird).
Entsprechend einer zweiten Möglichkeit kann eine Auswertung der Lage des Pupillenmittelpunktes innerhalb der Augenöffnung erfolgen. Die Lage des Pupillenmittelpunktes in- nerhalb des sichtbaren Teils des Augapfels bzw. innerhalb der Augenöffnung kann zur Auswahl des tatsächlichen Blickrichtungsvektors genutzt werden. Eine Möglichkeit dazu ist, 2 Strahlen (beginnen beim Pupillenmittelpunkt und sind unendlich lang) zu definieren, einer in Richtung von vi und einer in Richtung von v2. Die beiden Strahlen werden in das Kamerabild des Auges projiziert und verlaufen dort jeweils vom Pupillenmittelpunkt zum Bildrand. Entlang beider Strahlen im Kamerabild wird jeweils die Distanz zwischen Pupillenmittelpunkt und dem Rand der Augenöffnung (in Fig.5b grün eingezeichnet) ermittelt. Der Strahl, für den sich die kürzere Distanz ergibt, gehört zum tatsächlichen Blickrichtungsvektor. Diese Methode stößt an ihre Grenzen, wenn das zum aufgenommenen Auge gehörende Gesicht zu weit von der Kamera abgewendet ist (also der Winkel zwischen op- tischer Achse der Kamer und dem senkrecht auf der Gesichtsebene stehenden Vektor zu groß wird).
Entsprechend einer dritten Möglichkeit kann eine Auswertung der Lage des Pupillenmittelpunktes zu einem Rcferenzpupillenmittelpunkt erfolgen. Die Lage des im Kamerabild ermittelten Pupillenmittelpunktes innerhalb des sichtbaren Teils des Augapfels bzw. innerhalb der Augenöffnung kann zusammen mit einem Rcferenzpupillenmittelpunkt zur Auswahl des tatsächlichen Blickrichtungsvektors genutzt werden. Eine Möglichkeit dazu ist, 2 Strahlen (beginnen beim Pupillenmittelpunkt und sind unendlich lang) zu definieren, einer in Richtung von vi und einer in Richtung von v2. Die beiden Strahlen werden in das Ka- merabild des Auges projiziert und verlaufen dort jeweils vom Pupillenmittelpunkt zum Bildrand. Der Referenzpupillenmittelpunkt innerhalb der Augenöffnung entspricht dem Pupillenmittelpunkt, wenn das Auge direkt in Richtung des Kamerasensormittelpunktes der zur Bildaufnahme eingesetzten Kamera schaut. Derjenige in das Kamerabild projizierte Strahl, welcher im Bild den geringsten Abstand zum Referenzpupillenmittelpunkt hat, ge- hört zum tatsächlichen Blickrichtungsvektor. Zur Ermittlung des Referenzpupillenmittelpunktes gibt es mehrere Möglichkeiten, von denen einige im Folgenden beschrieben werden:
Möglichkeit 1 (spezieller Anwendungsfall): Der Referenzpupillenmittelpunkt ergibt sich aus dem ermittelten Pupillenmittelpunkt, in dem Fall, in dem das Auge direkt in Richtung des Kamerasensormittelpunktes schaut. Dies ist gegeben, wenn die Pupillenkontur auf der virtuellen Sensorebene (siehe Beschreibung zur Blickrichtungsberechnung) einen Kreis beschreibt.
Möglichkeit 2 (allgemeiner Anwcndungsfall): Als Schätzung der Position des Referenzpupillenmittelpunktes kann der Schwerpunkt der Fläche der Augenöffnung genutzt werden. Diese Methode der Schätzung stößt an ihre Grenzen, wenn die Ebene, in der das Gesicht liegt, parallel zur Sensorebene der Kamera liegt. Diese Einschränkung kann kompensiert werden, wenn die Neigung der Gesichtsebene zur Kamerasensorebene bekannt ist (z. B. durch eine vorher ausgeführte Bestimmung der Kopfposition und -ausrichtung) und diese zur Korrektur der Position des geschätzten Referenzpupillenmittelpunktes genutzt wird. Möglichkeit 3 (allgemeiner Anwendungsfall): Wenn die 3D-Position des Augenmittelpunktes zur Verfügung steht, kann eine Gerade zwischen 3 D- Augenmittelpunkt und virtuellem Sensormittelpunkt bestimmt werden und deren Schnittpunkt mit der Oberfläche des Augapfels. Der Referenzpupillenmittelpunkt ergibt sich aus der ins Kamerabild umgerechneten Position dieses Schnittpunktes.
Entsprechend weiteren Ausführungsbeispielen kann anstelle des FPGAs 10a und 10b ein ASIC (anwendungsspezifischer Chip) eingesetzt werden, der besonders bei hohen Stückzahlen sehr kostengünstig zu realisieren ist. In Summe lässt sich jedoch feststellen, dass unabhängig von Implementierung des Hough-Prozessors 10a und 10b ein geringer Ener- gieverbrauch durch die sehr effiziente Verarbeitung und den damit verbundenen geringen Systemtaktbedarf erzielt werden kann.
Trotz dieser Merkmale bleibt der hier eingesetzte Hough-Prozessor bzw. das auf dem Hough-Prozessor ausgeführte Verfahren sehr robust und störunanfallig. Es sei an dieser Stelle angemerkt, dass der in Fig. 1 erläuterte Hough-Prozessor 100 in unterschiedlichen
Kombinationenmit Merkmalen, wie sie z.B. in Hinblick auf Fig. 5a vorgestellt wurden, eingesetzt werden kann.
Anwendungen des Hough-Prozessors gemäß Fig. 1 sind z.B. Sekundenschlafwarner bzw. Müdigkeitsdetektoren als Fahrassistenzsysteme im automobilen Bereich (bzw. allgemein bei sicherheitsrelevanten Menschmaschineschnittstellen). Hierbei kann durch Auswertung der Augen (z.B. Verdeck ung der Pupille oder Iris als Maß für den Augenöffnungsgrad) und unter Berücksichtigung der Blickpunkte und des Fokus ein bestimmtes Müdigkeits-
muster dctektiert werden. Weiter kann der Hough-Prozessor bei Eingabegeräten bzw. Eingabeschnittstellen für technische Geräte zum Einsatz kommen; hier werden dann Augenposition und Blickrichtung als lnputparametcr genutzt. Eine konkrete Anwendung wäre hierbei die Unterstützung des Nutzers beim Anschauen von Bildschirminhalten, z.B. beim Hervorheben von bestimmten fokussierten Bereichen. Derartige Anwendungen sind im Bereich des assisted living, bei Computerspielen, bei Optimierung von 3D-Visualisierung durch Einbeziehung der Blickrichtung, bei Markt- und Medienforschung oder bei ophthalmologischen Diagnostiken und Therapien besonders interessant. Wie oben bereits angedeutet, ist die Implementierung des oben vorgestellten Verfahrens plattformunabhängig, so dass das oben vorgestellte Verfahren auch auf anderen Einheiten, wie z.B. einem PC ausgeführt werden kann. Also bezieht sich ein weiteres Ausführungsbeispiel auf ein Verfahren für die Hough- Verarbeitung mit den Schritten Verarbeiten einer Mehrzahl von Samples, die jeweils ein Bild aufweisen, unter Verwendung eines Pre- Prozessors, wobei das Bild des jeweiligen Samples gedreht und/oder gespiegelt wird, so dass eine Mehrzahl von Versionen des Bildes des jeweiligen Samples für jedes Sample ausgegeben wird und des Erfassens vorbestimmten Musters in der Mehrzahl von Sampeln auf Basis der Mehrzahl von Versionen unter Verwendung einer Hough- Transformationseinrichtung, die einen Verzögerungsfilter mit einer Filtercharakteristik aufweist, dessen Filtercharakteristik abhängig von dem ausgewählten vorbestimmten Mustersatz eingestellt wird.
Auch wenn der obigen Ausführungen im Zusammenhang mit der anpassbaren Charakteristik immer von einer Filtercharakteristik gesprochen wurde, sei an dieser Stelle angemerkt, dass entsprechend weiteren Ausführungsbeispielen die anpassbare Charakteristik sich auch auf die Nachverarbeitungsscharakteristik (Biegungs- oder Verzerrungscharakteristik) bei einer schnellen 2D Korrelation beziehen kann. Diese Implementierung wird anhand von Fig. 4a bis Fig. 4d erläutert. Fig. 4a zeigt eine Verarbeitungskette 1000 einer schnellen 2D Korrelation. Die Verarbeitungskette der 2D Korrelation umfasst zumindest die Funktionsblöcke 1 105 zur mehrfachen 2D-Faltung und 1 1 10 zur Verschmelzung. Das Vorgehen bei der mehrfachen 2D- Faltung ist in Fig. 4b illustriert. Fig. 4b zeigt eine exemplarische Zusammenstellung an Templates. Wie auf Basis dieser Verarbeitungskette 1000 ein Hough-Feature extrahiert werden kann, wird anhand von Fig. 4c zusammen mit Fig. 4d deutlich. Fig. 4c zeigt die pixelweise Korrelation mit n Templates veranschaulicht (in diesem Falle beispielsweise für Geraden unterschiedlicher Steigung) zur Erkennung der Ellipse 1 1 15, während Fig. 4d das Ergebnis der pixelweisen Korrelation zeigt, wobei typischerweise über die n Ergebnisbil-
der noch eine Maximunisuche erfolgt. Jedes Ergebnisbild enthält pro Pixel ein Houghfea- ture. Nachfolgend wird diese Hough-Verarbeitung im Gesamtkontext erläutert.
Im Gegensatz zur Umsetzung mit einem Verzögerungsfilter mit anpassbarer Charakteristik ( Implementierung optimiert für parallele FPGA Strukturen) würde bei der hier dargestellten Hough-Verarbeitung, welche insbesondere für eine PC-basierte Umsetzung prädestiniert ist, ein Teil der Verarbeitung durch eine andere Vorgehensweise ausgetauscht werden. Bisher war es so, dass quasi jede Spalte des Verzögerungsfilters für eine gesuchte Struktur steht (z. B. Geradenabschnitte unterschiedlicher Steigung). Beim durchlaufen des Filters ist die Spaltennummer mit dem höchsten Summenwert maßgeblich. Dabei steht die Spaltennummer für eine Ausprägung der gesuchten Struktur und der Summenwert gibt ein Maß für die Übereinstimmung mit der gesuchten Struktur an.
Bei der PC-basierten Umsetzung wird der Verzögerungsfilter durch schnelle 2D- Korrelation ersetzt. Der bisherige Verzögerungsfilter ist je nach Größe in der Lage n Ausprägungen eines bestimmten Musters abzubilden. Diese n Ausprägungen werden als Templates im Speicher hinterlegt. Anschließend wird das vorverarbeitete Bild (z. B. binä- res Kantenbild oder Gradientenbild) pixelweise durchlaufen. An jeder Pixelposition werden jeweils alle abgelegten Templates mit dem darunterliegenden Bildinhalt (entsprechend einer Nachverarbeitungscharakteristik) abgeglichen (es wird sozusagen die Umgebung der Pixelposition (in Größe des Templates) ausgewertet). Dieses Vorgehen wird in der digitalen Bild Verarbeitung auch als Korrelation bezeichnet. Man erhält also für jedes Template einen Korrelationswert - also ein Maß für die Ubereinstimmung - mit dem darunterliegenden Biklinhalt. Diese entsprechen sozusagen den Spaltensummen aus dem bisherigen Ver- zögerungsfilter. Nun entscheidet man sich (pro Pixel) für das Template mit dem höchsten Korrelationswert und merkt sich dessen Templatenummer (die Templatenummer beschreibt die Ausprägung der gesuchten Struktur, z. B. Steigung des Geradenabschnitts).
Man erhält also pro Pixel einen Korrelationswert und eine Templatenummer. Dadurch lässt sich ein Houghfeature, wie es bereits erläutert wurde, vollständig beschreiben.
Es sei noch angemerkt, dass die Korrelation der einzelnen Templates mit dem Bildinhalt sowohl im Orts- als auch im Frequenzbereich durchgeführt werden kann. Das heißt, dass das Eingangsbild zunächst jeweils mit allen n Templates korreliert wird. Man erhält: n Ergebnisbilder. Legt man diese Ergebnisbilder übereinander (wie einen Quader) würde man pro Pixel nach dem höchsten Korrelationswert suchen (über alle Ebenen). Dabei stehen
dann einzelne Ebenen innerhalb des Quaders für einzelne Templates. Als Ergebnis erhält man wieder ein einzelnes Bild, das dann pro Pixel ein Korrelationsmaß und eine Templatenummer enthält - also pro Pixel ein Houghfeature. Auch wenn obige Aspekte immer im Zusammenhang mit der„Pupillenerkennung" erläutert wurden, sind die oben beschriebenen Aspekte auch für weitere Anwendungen nutzbar. Hier ist beispielsweise die Anwendung „Sekundenschlafwarnung" zu nennen, auf die nachfolgend näher eingegangen wird. Der Sekundenschlafwarner ist ein System, dass zumindest aus einer Bilderfassungseinrichtung, einer Beleuchtungseinheit, einer Verarbeitungseinheit und einer akustischen und/oder optischen Signalisierungseinrichtung besteht. Durch Auswertung eines vom Nutzer aufgezeichneten Bildes ist das Gerät in der Lage eintretenden Sekundenschlaf oder Müdigkeit oder Abgelenktheit des Nutzers zu erkennen und den Nutzer zu warnen.
Das kann System kann z. B. in der Form ausgestaltet sein, dass man einen CMOS Bildsensor nutzt und die Szene im Infraroten Bereich ausleuchtet. Das hat den Vorteil, dass das Gerät unabhängig vom Umgebungslicht arbeitet und insbesondere den Nutzer nicht blendet. Als Verarbeitungseinheit wird ein eingebettetes Prozessorsystem genutzt, dass einen Softwarecode auf einem darunterliegenden Betriebssystem ausführt. Die Signalisierungseinrichtung besteht derzeit aus einem Multifrequenzbuzzer und einer RGB-LED.
Die Auswertung des aufgezeichneten Bildes kann i der Form erfolgen, dass in einer ersten Verarbeitungsstufe eine Gesichts- und eine Augendetektion und Augenanalyse mit einem Klassifikator durchgeführt werden. Diese Verarbeitungsstufe liefert erste Anhaltspunkte für die Ausrichtung des Gesichtes, die Augenpositionen und den Lidschlussgrad.
Aufbauend darauf kann im darauffolgenden Schritt wird eine modellbasierte Augen- feinanal yse durchgeführt werden. Ein dazu genutztes Augenmodell kann z. B. bestehen aus: einer Pupillen- und/oder Irisposition, einer Pupillen- und/oder Irisgröße, einer Beschreibung der Augenlider und der Augeneckpunkte. Dabei ist es ausreichend, wenn zu jedem Zeitpunkt einige dieser Bestandteile gefunden und ausgewertet werden. Die einzelnen Bestandteile können auch über mehrere Bilder hinweg getrackt werden, sodass sie nicht in jedem Bild vollständig neu gesucht werden müssen.
Die zuvor beschriebenen Hough-Features können genutzt werden um die Gesichtsdetekti- on oder die Augendetektion oder die Augenanalyse oder die Augenfeinanalyse durchzuführen. Der zuvor beschriebene 2D-Bildanalysator kann zur Gesichtsdetektion oder zur
Augendetektion oder zur Augenanalyse genutzt werden. Zur Glättung der bei der Ge- sichtsdetektion oder Augendetektion oder Augenanalyse oder Augenfeinanalyse ermittelten Ergebniswerte oder Zwischenergebnisse bzw. Werteverläufe kann der beschriebene Adaptiv-selektive Datenprozessor genutzt werden.
Eine zeitliche Auswertung des Lidschlussgrades und/oder der Ergebnisse der Augenfeinanalyse kann zur Ermittlung des Sekundenschlafs oder der Müdigkeit oder Abgelenkt- heit des Nutzers genutzt werden. Zusätzlich kann auch die im Zusammenhang mit dem SD- Bildanal ysator beschriebene kalibrationstreie Blickrichtungsbestimmung genutzt werden um bessere Ergebnisse bei der Ermittlung des Sekundenschlafs oder der Müdigkeit oder Abgelenktheit des Nutzers zu erhalten. Zur Stabilisierung dieser Ergebnisse kann außerdem der Adaptiv-selektive Datenprozessor genutzt werden.
Das im Ausführungsbeispiel „Sekundenschlafwamer" beschriebene Vorgehen zur Be- Stimmung der Augenposition kann auch zur Bestimmung einer beliebigen anderen Definierten 2D-Position, wie z. B. einer Nasenposition, oder Nasenwurzelposition, in einem Gesicht genutzt werden.
Bei der Nutzung eines Satzes an Informationen aus einem Bild und eines weiteren Satzes an Informationen kann diese Position auch im 3D-Raum bestimmt werde, wobei der weitere Satz an Informationen aus einem Bild einer weiteren Kamera oder durch die Auswertung von Relationen zwischen Objekten im ersten Kamerabild generiert werden kann.
Entsprechend einem Ausführungsbeispiel kann der Hough-Prozessor in der Bildeingangs- stufe eine Einrichtung zur Kamerasteuerung umfassen.
Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, so dass ein Block oder ein Bauelement einer Vorrichtung auch als ein ent- sprechender Verfahrensschritt oder ein Merkmal eines Verfahrensschritts zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle Verfahrensschritte können durch einen Apparat (unter Verwendung eines Hardwareapparats), wie z.B. eines Mikroprozessors, eines programmierbaren Computer oder einer elektronischen Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigen Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer ßlu-ray Di sc. einer CD, eines ROM, eines PROM, eines EPROM, eines E EP ROM oder eines F L A S H - S ei chers , einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium eomputerlcsbar sein.
Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin be- schri ebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
Ein weiteres Ausrührungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelemcnt, die dahin gehend konfigu- riert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist. Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vor- richtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gattcrarray. ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein AS IC.
Nachfolgend werden die oben beschriebenen Erfindungen bzw. die Aspekte der Erfindungen aus zwei weiteren Blickwinkeln mit anderen Worten beschrieben: integrated Eyetracker
Der„Integrated Eyetracker" umfasst eine Zusammenstellung an FPGA-optimierten Algorithmen, die dazu geeignet sind (Ellipsen-)Merkmale (Hough-Features) mittels einer parallelen Hough-Transformation aus einem Kamera-Livebild zu extrahieren. Durch Auswertung der extrahierten Merkmale kann anschließend die Pupillenellipse bestimmt werden. Bei Einsatz mehrerer Kameras mit zueinander bekannter Lage und Ausrichtung können die 3D Position des Pupillenmittelpunktes sowie die 3D Blickrichtung und der Pupillendurchmesser ermittelt werden. Zur Berechnung werden die Lage und Form der Ellipsen in den Kamerabildern herangezogen. Es ist keine Kalibration des Systems für den jeweiligen Nutzer erforderlich und keine Kenntnis über den Abstand zwischen den Kameras und dem analysierten Auge.
Die genutzten Bildverarbeitungsalgorithmen sind insbesondere dadurch gekennzeichnet, dass Sie für die Verarbeitung auf einem FPGA (field programmable gate array) optimiert sind. Die Algorithmen ermöglichen eine sehr schnelle Bildverarbeitung mit konstanter Bildwiederholrate, minimalen Latenzzeiten und minimalem Ressourcenverbrauch im FPGA. Damit sind diese Module prädestiniert für zeit-/latenz-/sicherheitskritische Anwendungen (z. B. Fahrerassistenzsysteme), medizinische Diagnosesysteme (z. B. Perimeter) sowie Anwendungen wie Human machine interfaces (z. B. für mobile devices), die ein geringes Bauvolumen erfordern. Problemstellung
Robuste Detektion von 3D-Augenpositionen und 3 D-Blickrichtungen im 3D-Raum in mehreren (Live-) Kamerabildern sowie Detektion der Pupillengrößen
Sehr kurze Reaktionszeit (bzw. Verarbeitungszeit)
Kleine Bauform
- autonome Funktionsweise (Unabhängigkeit vom PC) durch integrierte Lösung
Stand der Technik
Eyetracker-Systeme
o Steffen Markert: Blickrichtungserfassung des menschlichen Auges in Echt- zeit (Diplomarbeit und Patent DE 10 2004 046 617 AI)
o Andrew T. Duchowski: Eye Tracking Methodology: Theory and Practice Parallele-Hough Transformation
o Johannes Katzmann: Eine Echtzeit-lmplementierung für die Ellipsen- Hough-Transformation (Diplomarbeit und Patent DE 10 2005 047 160 B4) o Christian Holland-Neil: Implementierung eines Pupillen-
Detektionsalgorithmus basierend auf der Hough-Transformation für Kreise (Diplomarbeit und Patent DE 10 2005 047 160 B4)
Nachteile des aktuellen Standes der Technik
Eyetracker-Systeme
o Nachteile:
■ Eyetracking-Systeme erfordern im Allgemeinen eine (aufwändige) Kalibrierung vor der Nutzung
■ Das System nach Markert (Patent DE 10 2004 046 617 AI) ist kalib- rationsfrei, funktioniert aber ur unter ganz bestimmten Vorausset- zungen:
1. Abstand zwischen Kameras und Pupillenmittelpunkt müssen bekannt und im System hinterlegt sein
2. Das Verfahren funktioniert nur für den Fall, dass der 3D Pupillenmittelpunkt in den optischen Achsen der Kameras liegt ■ Die gesamte Verarbeitung ist für PC Hardware optimiert und somit auch deren Nachteilen unterworfen (kein festes Zeitregime bei der Verarbeitung möglich)
H leistungsstarke Systeme werden benötigt, da die Algorithmen einen sehr hohen Ressourcenverbrauch aufweisen
■ lange Verarbeitungsdauer und damit lange Verzögerungszeit bis Ergebnis vorliegt (z. T. abhängig von der auszuwertenden Bildgröße) Parallele-Hough Transformation
o Nachteile:
* Es können nur binäre Kantenbilder transformiert werden
■ Transformation liefert nur ein binäres Ergebnis bezogen auf eine
Bildkoordinate (Position der Struktur wurde gefunden, aber nicht: Trefferwahrscheinlichkeit und weitere Strukturmerkmale)
■ Keine flexible Anpassung des Transformationskernes während der Laufzeit und damit nur unzureichende Eignung für dynamische Bildinhalte (z.B. kleine und große Pupillen)
■ Keine Rekonfiguration des Transformationskernes auf andere Strukturen während der Laufzeit möglich und damit begrenzte Eignung für Objekterkennung
Umsetzung
Das Gesamtsystem ennittelt aus zwei oder mehr Kamerabildern in denen dasselbe Auge abgebildet ist jeweils eine Liste von mehrdimensionalen Hough-Merkmalen und berechnet jeweils auf deren Basis die Lage und Form der Pupillenellipse. Aus den Parametern dieser beiden Ellipsen sowie allein aus der Lage und Ausrichtung der Kameras zueinander können die 3D Position des Pupillenmittelpunktes sowie die 31) Blickrichtung und der Pupillendurchmesser vollständig kalibrationsfrei ermittelt werden. Als Hardwareplattforrn wir eine Kombination aus mindestens zwei Bildsensoren, FPGA und/oder nachgeschaltetem Mikroprozessorsystem (ohne dass ein PC zwingend benötigt wird).
„Hough preproeessing".„Parallel hough transform",„Hough feature extractor",„Hough feature to ellipse converter"„,Coresize control",„Temporal smart smoothing Ii her",„3D camera System model",„3D position calculation" und ..31) gaze direction calculation" be-
treffen einzelne Funktionsmodule des Integratcd Eyetrackers. Sie ordnen sich in die Bildverarbeitungskette des Integrated Eyetrackers wie folgt ein:
Fig. 6 zeigt ein Blockschaltbild der einzelnen Funktionsmodule im Integrated Eyetracker. Das Blockschaltbild zeigt die einzelnen Verarbeitungsstufen des Integrated Eyetrackers. Im Folgenden wird eine detaillierte Beschreibung der Module gegeben.
• „Hough preprocessing"
o Funktion
■ Aufbereitung eines Videodatenstromes für das Modul„Parallel Hough Transform", insbesondere durch Bildrotation und Up- sampling des zu transformierenden Bildes je nach Parallelisierungsgrad des Moduls„Parallel Hough Transform" o Input
■ Binäres Kantenbild oder Gradientenbild
o Output
■ Je nach Parallelisierungsgrad des nachfolgenden Moduls ein oder mehrere Videodatenströme mit aufbereiteten Pixeldaten aus dem Input
o Detaillierte Beschreibung
■ Prinzip bedingt kann die parallele Hough-Transformation aus vier um jeweils 90° versetzten Hauptrichtungen auf den Bildinhalt angewendet werden
■ Dazu erfolgt im Preprocessing eine Bildrotation um 90°
■ Die beiden verbleibenden Richtungen werden dadurch abgedeckt, dass jeweils das rotierte und nicht rotierte Bild horizontal gespiegelt werden (durch umgekehrtes Auslesen der im Speicher abgelegten Bildmatrix)
■ Je nach P a r a 11 e I i s i eru n gs g rad des Moduls ergeben sich die folgenden drei Konstellationen für den Output:
• 100% Parallelisierung: simultane Ausgabe von vier Videodatenströmen: um 90° rotiert, nicht rotiert sowie jeweils gespiegelt
• 50% Parallelisierung: Ausgabe von zwei Videodatenströmen: um 90° rotiert und nicht rotiert, die Ausgabe der jeweils gespiegelten Varianten erfolgt sequentiell
• 25%o Parallelisierung: Ausgabe eines Videodatenstromes: um 90° rotiert und nicht rotiert und jeweils deren gespiegelte Varianten werden sequentiell ausgegeben
• „Parallel hough transfonn"
o Funktion
■ Parallele Erkennung einfacher Muster (Geraden mit unterschiedlichen Größen und Anstiegen und Krümmungen mit verschiedenen Radien und Orientierungen) und deren Auftrittswahrscheinlichkeit in einem binären Kanten- oder Gradientenbild
o Input
■ Für die parallele Hough Transformation aufbereitetes Kanten bzw.
Gradientenbild (Output des„Hough preprocessing" Moduls) o Output
■ Mehrdimensionaler Houghraum, der alle relevanten Parameter der gesuchten Struktur enthält
o Detaillierte Beschreibung
■ Verarbeitung des Input durch ein komplexes delaybasiertes lokales Filter, das eine definierte„Durchlaufrichrung" für Pixeldaten hat und durch folgende Eigenschaften geprägt ist:
· Filterkern mit variabler Größe bestehend aus Delayelemen- ten
• Zur adaptiven Anpassung des Filters an die gesuchten Muster können Delayelemente während der Laufzeit zu- und abgeschaltet werden
· Jede Spalte des Filters steht für eine bestimmte Ausprägung der gesuchten Struktur (Krümmung oder Geradenanstieg) β Summenbildung über die Filterspalten liefert Auftrittswahrscheinlichkeiten für die Ausprägung der Struktur, die durch die jeweilige Spalte repräsentiert wird
· Beim Durchlaufen des Filters wird immer die Spalte mit der größten Auftrittswahrscheinlichkeit für eine Ausprägung des gesuchten Musters aus dem Filter herausgereicht
■ Für jedes Bildpixel liefert das Filter einen Punkt im Houghraum der die folgenden Informationen enthält:
· Art des Musters (z.B. Gerade oder Halbkreis)
• Auftrittswahrscheinlichkeit für das Muster
• Ausprägung der Struktur (Stärke der Krümmung bzw. bei Geraden: Anstieg und Länge)
• Lage bzw. Orientierung der Struktur im Bild ■ Als Transformationsergebnis entsteht ein mehrdimensionales Bild, das im folgenden als Houghraum bezeichnet wird ughfeature extractor"
o Funktion
■ Extraktion von Features aus dem Houghraum, die relevante Informationen für die Mustererkennung enthalten
o Input
■ Mehrdimensionaler Houghraum (Output des„Parallel hough trans- form" Moduls)
o Output
* Liste von Hough-Features die relevante Informationen für die Mus- tererkennung enthalten
o Detaillierte Beschreibung
■ Glättung der Hough- Fcature-Räume (Räumliche Korrektur mittels lokaler Filterung)
■ „Ausdünnen" des Houghraumes (Unterdrückung nicht relevanter In- formationen für die Mustererkennung) durch eine abgewandelte
„non-maximum-suppression" :
• Ausblenden von für die Weiterverarbeitung nicht relevanten Punkten („Nicht-Maxima" im Hough- Wahrscheinlichkeitsraum) unter Berücksichtigung der Art des Musters und der Ausprägung der Struktur
• Weitere Ausdünnung der Houghraumpunkte mit Hilfe geeigneter Schwellen:
o Rauschunterdrückung durch Schwellwert im Hough- Wahrscheinlichkeitsraum
o Angabe eines Intervalls für minimal und maximal zulässige Ausprägung der Struktur (z.B. minimale/maximale Krümmung bei gebogenen Strukturen oder kleinster/größter Anstieg bei Geraden)
■ Analytische Rücktransformation der Parameter aller verbleibenden Punkte in den Originalbildbereich ergibt folgende Hough-Features:
• Gebogene Strukturen mit den Parametern:
o Lage (x- und y-Bildkoordinate)
o Auftrittswahrseheinlichkeit des Hough-Features o Radius des Bogens
o Winkel, der angibt, in welche Richtung der Bogen geöffnet ist
• Geraden mit den Parametern:
o Lage (x- und y-Bildkoordinate)
o Auftrittswahrscheinlichkeit des Hough-Features o Winkel, der die Steigung der Geraden angibt o Länge des repräsentierten Geradenabschnittes
„Hough feature to ellipse Converter"
o Funktion
■ Auswahl der 3 bis 4 Hough-Features (Krümmungen), die im Kamerabild am wahrscheinlichsten den Pupillenrand (Ellipse) beschreiben, und Verrechnung zu einer Ellipse
o input
■ Liste aller in einem Kamerabild delektierten Hough-Features
(Krümmungen)
o Output
■ Parameter der Ellipse, die am wahrscheinlichsten die Pupille repräsentiert
o Detaillierte Beschreibung
■ Aus der Liste aller Hough-Features (Krümmungen) werden Kombinationen aus 3 bis 4 Hough-Features gebildet, die auf Grund ihrer Parameter die horizontalen und vertikalen Extrempunkte eine Ellipse beschreiben könnten
■ Dabei fließen folgende Kriterien in die Auswahl der Hough-Features ein:
• Scores (Wahrscheinlichkeiten) der Hough-Features
• Krümmung der Hough-Features
• Lage und Orientierung der Hough-Features zueinander " Die ausgewählten Hough-Feature Kombinationen werden sortiert:
• Primär nach der Anzahl der enthaltenen Hough-Features
• Sekundär nach der kombinierten Wahrscheinlichkeit der enthaltenen Hough-Features
B Nach dem Sortieren wird die an erster Stelle stehende Hough- Feature Kombination ausgewählt und daraus die Ellipse gefittet, welche am wahrscheinlichsten die Pupille im Kamerabild repräsentiert
„Coresize control"
o Funktion
■ Dynamische Anpassung des Filterkernes (Hough-Core) der Parallelen Hough-Transformation an die aktuelle Ellipsengröße o Input
■ Zuletzt genutzte Hough-Core Größe
■ Parameter der Ellipse, welche die Pupille im entsprechenden Kamerabild repräsentiert
o Output
■ Aktualisierte Hough-Core Größe
o Detaillierte Beschreibung
■ In Abhängigkeit der Größe (Länge der I lalbachsen) der vom
„Hough feature to ellipse Converter" berechneten Ellipse, wird die Hough-Core Größe in definierten Grenzen nachgeführt um die Ge-
nauigkeit der Hough-Transformationsergebnisse bei der Detektion der Ellipsenextrempunkte zu erhöhen
„Temporal smart smoothing filter"
o Funktion
■ Adaptive zeitliche Glättung einer Datenreihe (z. B. einer ermittelten Ellipsenmittelpunktkoordinate) nach dem Prinzip der exponentiellen Glättung, wobei Aussetzer oder extreme Ausreißer in der zu glättenden Datenreihe NICHT zu Schwankungen der geglätteten Daten führen
o Input
■ Zu jedem Aufrufzeitpunkt des Moduls jeweils ein Wert der Datenreihe und die dazugehörigen Gütekriterien (z. B. Auftrittswahrscheinlichkeit einer gelitteten Ellipse)
o Output
■ Geglätteter Datenwert (z. B. Ellipsenmittelpunktkoordinate) o Detaillierte Beschreibung
■ Über einen Satz von Filterparametern kann beim Initialisieren des Filters dessen Verhalten festgelegt werden
B Der aktuelle Input-Wert wird für die Glättung verwendet, wenn er nicht in eine der folgenden Kategorien fällt:
• Entsprechend der dazugehörigen Auftrittswahrscheinlichkeit handelt es sich um einen Aussetzer in der Datenreihe
• Entsprechend der dazugehörigen Ellipsenparameter handelt es sich um einen Ausreißer
o Wenn die Größe der aktuellen Ellipse sich zu stark von der Größe der vorhergehenden Ellipse unterscheidet
o Bei einer zu großen Differenz der aktuellen Position zur letzten Position der Ellipse
■ Ist eines dieser Kriterien erfüllt, wird weiterhin der zuvor ermittelte geglättete Wert ausgegeben, andernfalls wird der aktuelle Wert zur Glättung herangezogen
■ Um eine möglichst geringe Verzögerung bei der Glättung zu erhalten werden aktuelle Werte stärker gewichtet als vergangene:
• aktueller geglättete Wert = aktueller Wert * Glättungskoeffi- zient + letzter geglätteter Wert * (1 - Glättungskoefflzient)
• der Glättungskoefflzient wird in definierten Grenzen dynamisch an den Trend der zu glättenden Daten angepasst: o Verringerung bei eher konstantem Werteverlauf der Datenreihe
o Erhöhung bei aufsteigendem oder abfallendem Werteverlauf der Datenreihe
Wenn langfristig ein größerer Sprang bei den zu glättenden Ellipsenparametern vorkommt, passt sich das Filter und somit auch der geglättete Werteverlauf an den neuen Wert an „3D camera System model"
o Funktion
■ Modellierung des D-Raumes in dem sich mehrere Kameras, der Nutzer (bzw. dessen Augen) und ggf. ein Bildschirm befinden o Input
■ Konfigurationsdatei, welche die Modellparameter (Lageparameter, optische Parameter, u. a.) aller Elemente des Modells beinhaltet o Output
■ Stellt ein Zahlengerüst und Funktionen für Berechnungen innerhalb dieses Modells zur Verfügung
o Detaillierte Beschreibung
■ Modellierung der räumlichen Lage (Position und Drehwinkel) aller Elemente des Modells sowie deren geometrische (z. B. Pixelgröße, Sensorgröße, Auflösung) und optische (z. B. Brennweite, Objektivverzeichnung) Eigenschaften
■ Das Modell umfasst zum jetzigen Zeitpunkt folgende Elemente:
• Kameraeinheiten, bestehend aus:
o Kamerasensoren
o Objektiven
• Augen
· Display
■ Es werden neben den Eigenschaften aller Elemente des Modells insbesondere die nachfolgend beschriebenen Funktionen„3D position calculation" (zur Berechnung der Augenposition) und„3D gaze di- rection calculation" (zur Berechnung der Blickrichtung) zur Verfü- gung gestellt
■ Mit Hilfe dieses Modells kann u. a. die 3 D-Blickgerade (bestehend aus Pupillenmittelpunkt und Blickrichtungsvektor (entsprechend der Biologie und Physiologie des menschlichen Auges korrigiert)) berechnet werden
■ Optional kann auch der Blickpunkt eines Betrachters auf einem anderen Objekt im 3 D- Modell (z. B. auf einem Display) berechnet werden sowie der fokussierte Bereich des Betrachters
,. D position calculation"
o Funktion
■ Berechnung der räumlichen Position (3 D-Koordinaten) eines Punktes, der von zwei oder mehr Kameras erfasst wird (z. B. Pupillenmittelpunkt) durch Triangulation
Input
■ 2D-Koordinaten eines Punktes in zwei Kamerabildern
Output
■ 3 D-Koordinaten des Punktes
■ Fehlennaß: beschreibt die Genauigkeit der übergebenen 2D- Koordinaten in Verbindung mit den Modellparametern.
Detaillierte Beschreibung
■ Aus den übergebenen 2D-Koordinatcn werden mit Hilfe des„3D camera System modcl" ( insbesondere unter Berücksichtigung der oj)ti sehen Parameter) für beide Kameras die Lichtstrahlen berechnet, die den 3D-Punkt als 2D-Punkte auf den Sensoren abgebildet haben
■ Diese Lichtstrahlen werden als Geraden im 3D-Raum des Modells beschrieben
■ Der Punkt von dem beide Geraden den geringsten Abstand haben (im Idealfall der Schnittpunkt der Geraden) wird als Position des gesuchten 3 D-Punktes angenommen
„3D gaze direction calculation"
o Funktion
■ Bestimmung der Blickrichtung aus zwei ellipsenförmigen Projektionen der Pupille auf die Kamerasensoren ohne Kalibration und ohne Kenntnis über den Abstand zwischen Auge und Kamerasystem o Input
■ 3 D-Lageparameter der Bildsensoren
■ Ellipsenparameter der auf die beiden Bildsensoren projizierten Pupille
■ 3 D-Positionen der Ellipsenmittelpunkte auf den beiden Bildsensoren
■ 3 D-Position des Pupillenmittelpunktes
o Output
■ 3D-Blickrichtung in Vektor- und Winkeldarstellung
o Detaillierte Beschreibung
■ Aus der 3 D-Position des Pupillenmittelpunktes und der Lage der Bildsensoren, werden durch Drehung der realen Kameraeinheiten virtuelle Kameraeinheiten berechnet, deren optische Achse durch den 3 D-Pupillenmittelpunkt verläuft
■ Anschließend werden jeweils aus den Projektionen der Pupille auf die realen Sensoren Projektionen der Pupille auf die virtuellen Sensoren berechnet, es entstehen sozusagen zwei virtuelle Ellipsen
■ Aus den Parametern der virtuellen Ellipsen können für beide Sensoren jeweils zwei Blickpunkte des Auges auf einer beliebigen zur jeweiligen virtuellen Sensorebene parallelen Ebene berechnet werden
Mit den vier Blickpunkten und dem 3 D-Pupillenmittelpunkt lassen sich vier Blickrichtungsvektoren berechnen (jeweils zwei Vektoren aus den Ergebnissen jeder Kamera)
Von diesen vier Blickrichtungsvektoren, ist immer genau einer der einen Kamera mit einem der anderen Kamera (annähernd) identisch Die beiden identischen Vektoren geben die gesuchte Blickrichtung des Auges (gaze directum) an, die dann vom Modul ,. D gaze direc- tion calculation" als Ergebnis geliefert wird
Berührungslose und vollständig kalibrationsfreie Ermittlung der SD- Augenpositionen, 3D-Blickrichtung und Pupillengröße unabhängig von der Kenntnis über die Lage des Auges zu den Kameras
Analytische Bestimmung der 3D Augenposition und 3D Blickrichtung (unter Einbeziehung eines 3D-Raum Modells) ermöglicht eine beliebige Kameraanzahl (>2) und beliebige Kamerapositionen im 3D-Raum
Vermessung der auf die Kamera projizierten Pupille und damit genaue Bestimmung der Pupillengröße
Hohe Frameraten (z.B. 60 FPS @ 640x480 auf einem XILINX Spartan 3A DSP @ 96 MHz) und kurze Latenzzeiten durch vollständig parallele Verarbeitung ohne Rekursionen in der Verarbeitungskette
Einsatz von FPGA-Hardware und Algorithmen, die für die parallelen FPGA- Strukturen entwickelt wurden
Einsatz der Hough-Transformation (in der beschriebenen angepassten Form für FPGA-Hardware) zur robusten Merkmalsextraktion zur Objekterkennung (hier: Merkmale der Pupillenellipse)
Algorithmen zur Nachverarbeitung der Houghtransformationsergebnisse sind optimiert auf parallele Verarbeitung in FPGAs
Festes Zeitregime (konstante Zeitdifferenz zwischen a u ei n an d er fo 1 gend en Ergebnissen)
Minimaler Bauraum, da vollständig auf Chip integriert
geringer Energieverbrauch
Möglichkeit zur direkten Portierung der Verarbeitung vom FPGA auf einen AS IC -> sehr kostengünstige Lösung bei hohen Stückzahlen durch Ausnutzung von Ska- leneffekten
Anwendung
In einem (Live-) Kamerabilddatenstrom werden D- Augenpositionen und SD- Blickrichtungen detektiert, die für folgende Anwendungen genutzt werden können: o Sichcrheitsrclcvantc Bereiche
■ z. B. S ek u n d cn sch 1 a fw arner bzw. Müdigkeitsdetektor als Fahrassistenzsystem im Automotive Bereich, durch Auswertung der Augen (z. B. Verdeckung der Pupille als Maß für den Öffnungsgrad) und unter Berücksichtigung der Blickpunkte und des Fokus
o Mensch-Maschine-Schnittstellen
■ als Eingabeschnittstellen für technische Geräte (Augenpositionen und Blickrichtung können als Inputparameter genutzt werden)
■ Unterstützung des Nutzers beim Anschauen von Biklschirminhalten (z.B. hervorheben von Bereichen, die angeschaut werden)
■ z. B.
• im Bereich Assisted Living
• für Computerspiele
• Blickrichtungsgestützte Eingabe für Head Mounted Devices
• Optimierung von 3D-Visualisierungen durch Einbeziehen der Blickrichtung
o Markt- und Medienforschung
■ z.B. Attraktivität von Werbung bewerten durch Auswertung der räumlichen Blickrichtung und des Blickpunktes der Testperson o Ophthalmologische Diagnostik (z. B. objektive Perimetrie) und Therapie
FPGA-Facetracker
Ein Aspekt der Erfindung betrifft ein autonomes (PC-unabhängiges) System, das insbesondere FPGA-optimierte Algorithmen nutzt, und dazu geeignet ist ein Gesicht in einem Kamera-Livebild zu detektieren und dessen (räumliche) Position zu ermitteln. Die genutzten Algorithmen sind insbesondere dadurch gekennzeiclinet, dass Sie für die Verarbeitung auf einem FPGA (field programmable gate array) optimiert sind und im Vergleich zu den bestehenden V erfahren ohne Rekursionen in der Verarbeitung auskommen. Die Algorithmen ermöglichen eine sehr schnelle Bildverarbeitung mit konstanter Bild w i cd erho 1 rat e, minimalen Latenzzeiten und minimalem Ressourcenverbrauch im FPGA. Damit sind diese Module prädestiniert für zeit-/latenz-/sicherheitskritische Anwendungen (z.B. Fahrerassistenzsysteme) oder Anwendungen wie Human machine interfaces (z.B. für mobile devices), die ein geringes Bauvolumen erfordern. Darüber hinaus kann unter Einsatz einer zweiten Kamera die räumliche Position des Nutzers für bestimmte Punkte im Bild hochgenau, ka- librationsfrei und berührungslos ermittelt werden.
Problemstellung
Robuste und hardwarebasierte Gesichtsdetektion in einem (Live-) Kamerabild
Detektion von Gesichts und Augenposition im 3 D-Raum durch Verwendung eines stereoskopischen Kamerasystems
Sehr kurze Reaktionszeit (bzw. Verarbeitungszeit)
Kleine Bauform
autonome Funktionsweise (Unabhängigkeit vom PC) durch integrierte Lösung
Stand der Technik
Literatur:
o Christian Küblbeek, Andreas Ernst: Face detection and tracking in vidco sequences using the modified census transformation
o Paul Viola, Michael Jones: Robust Real-timc Object Detection
Nachteile aktueller Facetraeker Systeme
- Die gesamte Verarbeitung ist für PC-Systeme (allgemeiner: general purpose pro- cessors) optimiert und somit auch deren Nachteilen unterworfen (z.B. kein festes Zeitregime bei der Verarbeitung möglich (Beispiel: in Abhängigkeit des Bildinhaltes z.B. Hintergrund dauert das Tracking unter Umständen länger))
Sequentielle Abarbeitung; das Eingangsbild wird sukzessive in verschiedene Ska- lierungsstufen gebracht (bis die kleinste Skalierungsstufe erreicht ist) und jeweils mit einem mehrstufigen Klassifikator nach Gesichtern durchsucht
o Je nachdem wie viele Skalierungsstufen berechnet werden müssen bzw. wie viele Stufen des Klassifikators berechnet werden müssen schwankt die Verarbeitungsdauer und damit die Verzögerungszeit bis das Ergebnis vorliegt - Um hohe Frameraten zu erreichen werden leistungsstarke Systeme benötigt (höhere
Taktraten, unter Umständen Multicore-Systeme), da die bereits auf PC-Hardware optimierten Algorithmen trotzdem einen sehr hohen Ressourcenverbrauch aufweisen (insbesondere bei embedded Prozessorsystemen)
Ausgehend von der detektierten Gesichtsposition liefern Klassifikatoren nur unge- naue Augenpositionen (die Position der Augen - insbesondere der Pupillenmittelpunkt - wird nicht analytisch ermittelt (bzw. vermessen) und ist dadurch hohen Ungenauigkeiten unterworfen)
Die ermittelten Gesichts- und A Ligenpositionen liegen nur in 2D-Bildkoordinaten vor, nicht in 3D
Umsetzung
Das Gesamtsystem ermittelt aus einem Kamerabild (in dem ein Gesicht abgebildet ist) die Gesichtsposition und ermittelt unter Nutzung dieser Position die Positionen der Pupillenmittelpunkte des linken und rechten Auges. Werden zwei oder mehr Kameras mit einer bekannten Ausrichtung zueinander verwendet, können diese beiden Punkte für den 3- dimensionalen Raum angegeben werden. Die beiden ermittelten Augenpositionen können in Systemen, welche den„Integrated Eyetracker" nutzen, weiterverarbeitet werden.
Der„Parallel image scaler",„Parallel face linder",„Parallel eye analyzer",„Parallel pupil analyzer",„Temporal smart smoothing filter",„3D camera System model" und„3D positi- on calculation" betreffen einzelne Funktionsmodule des Gesamtsystems (FPGA-
Facetracker). Sie ordnen sich in die Bildverarbeitungskette des FPGA-Facetrackers wie folgt ein:
Fig. 7 a zeigt ein Blockschaltbild der einzelnen Funktionsmodule im FPGA-Facetracker. Die Funktionsmodule„3D camera System model" und„3D position calculation" sind für das Facetracking nicht zwingend erforderlich, werden aber bei Verwendung eines stereo- skopen Kamerasystems und Verrechnung geeigneter Punkte auf beiden Kameras zur Bestimmung räumlicher Positionen genutzt (beispielsweise zur Bestimmung der SD- Kopfposition bei Verrechung der 2D-Gesichtsmittelpunkte in beiden Kamerabildern). Das Modul ..Feature extraction (Classification)" des FPGA-Facctrackers baut auf der Merkmalsextraktion und Klassifikation von Küblbeck/Ernst vom Fraunhofer IIS (Erlan- gen) auf und nutzt eine angepasste Variante ihrer Klassifikation auf Basis von Census Merkmalen.
Das Blockschaltbild zeigt die einzelnen Verarbeitungsstufen des FPGA-Facetracking Systems. Im Folgenden wird eine detaillierte Beschreibung der Module gegeben. · „Parallel image scaler"
o Funktion
B Parallele Berechnung der Skalierungsstufen des Ausgangsbildes und Anordnung der berechneten Skalierungsstufen in einer neuen Bildmatrix um den nachfolgenden Bildverarbeitungsmodulen eine simul- tane Analyse aller Skalierungsstufen zu ermöglichen
Fig. 7b zeigt die Ausgangsbild (Originalbild) und Ergebnis (Downscaling-Bild) des Parallel image-scaler. o Input
■ Ausgangsbild in Originalauflösung
o Output
■ Neue Bildmatrix die mehrere skalierte Varianten des Ausgangsbildes in einer für die nachfolgenden Facetracking-Module geeigneten Anordnung beinhaltet
o Detaillierte Beschreibung
■ Aufbau einer Bildpyramide durch parallele Berechnung der verschiedenen Skalierungsstufen des Ausgangsbildes
■ Um eine definierte Anordnung der zuvor berechneten Skalierungs- stufen in der Zielmatrix gewährleisten zu können erfolgt eine Transformation der Bildkoordinaten der jeweiligen Skalierungsstufe in das Bildkoordinatensystem der Zielmatrix anhand verschiedener Kriterien:
• Definierter Mindestabstand zwischen den Skalierungsstufen um ein übersprechen von Analyseergebnissen in benachbarte
Stufen zu unterdrücken
• Definierter Abstand zu den Rändern der Zielmatrix um die
Analyse zum Teil aus dem Bild herausragender Gesichter gewährleisten zu können · „Parallel face finder"
o Funktion
■ Detektiert ein Gesicht aus Klassifikationsergebnissen mehrerer Ska- licrungsstufen. die gemeinsam in einer Matrix angeordnet sind Wie in Fig. 7c gezeigt, stellt das Ergebnis der Klassifikation (rechts) den Input für den Parallel face finder dar.
o Input
■ Klassifizierte Bildmatrix die mehrere Skalierungsstufen des Ausgangsbildes enthält
o Output
■ Position, an der sich mit der höchsten Wahrscheinlichkeit ein Gesicht befindet (unter Berücksichtigung mehrerer Kriterien) o Detaillierte Beschreibung
■ Rauschunterdrückung zum Eingrenzen der Klassifikationsergebnisse ■ Räumliche Korrektur der Klassifikationsergebnisse innerhalb der
Skalierungsstufen mittels einer Kombination aus lokalen Summen- und Maximumfilter
■ Orientierung an der höchsten Auftrittswahrscheinlichkeit für ein Gesicht optional an der Gesichtsgröße über alle Skalierungsstufen hin- weg
■ Räumliche Mittelung der Ergebnispositionen über ausgewählte Skalierungsstufen hinweg
• Auswahl der in die Mittelung einbezogener Skalierungsstufen erfolgt unter Berücksichtigung der folgenden Kriterien: o Differenz der Mittelpunkte des ausgewählten Gesichts in den betrachteten Skalierungsstufen o Dynamische ermittelte Abweichung vom höchsten
Ergebnis des Summenfilters
o Unterdrückung von Skalierungsstufen ohne Klassifi- kationsergebnis
■ Schwellwertbasierte Einstellung der Detektionsleistung des„parallel face finder"
• „Parallel eye analyzer"
o Funktion
■ Detektiert während der Gesichtsdetektion parallel die Position der Augen im entsprechenden Gesicht (diese ist vor allem bei nicht ideal frontal aufgenommenen und verdrehten Gesichtern wichtig)
Input
■ Bildmatrix, die mehrere Skalierungsstufen des Ausgangsbildes enthält (aus dem„Parallel image scaler" Modul) sowie die jeweils aktuelle Position an der sich höchstwahrscheinlich das gesuchte Gesicht befindet (aus dem„Parallel face finder" Modul)
Output
■ Position der Augen und ein dazugehöriger Wahrscheinlichkeitswert im aktuell vom„Parallel face finder" gefundenen Gesicht
Detaillierte Beschreibung
■ Basierend auf dem herunter skalierten Ausgangsbild wird in einem definierten Bereich (Augenbereich) innerhalb der vom„Parallel face finder" gelieferten Gesichtsregion die im folgenden beschriebene Augensuche für jedes Auge durchgeführt:
• Definieren des Augenbereichs aus empirisch ermittelten Normalpositionen der Augen innerhalb der Gesichtsregion
• Mit einem speziell geformten korrelationsbasierten lokalen Filter werden innerhalb des Augenbereichs Wahrscheinlichkeiten für das Vorhandensein eines Auges ermittelt (das Auge wird in diesem Bildbereich vereinfacht ausgedrückt als eine kleine dunkle Fläche mit heller Umgebung beschrieben)
• Die genaue Augenposition inklusive ihrer Wahrscheinlichkeit ergibt sich durch eine Maximumsuche in dem zuvor berechneten Wahrseheinliehkeitsgebirgc rallel pupil analyzer"
o Funktion
■ Detektiert ausgehend von einer zuvor ermittelten Augenposition die
Position der Pupillenmittelpunkte innerhalb der detektierten Augen (dadurch erhöht sich die Genauigkeit der Augenposition, was für
Vermessungen oder das Anschließende Auswerten der Pupille wichtig ist)
o Input
■ Ausgangsbild in Originalauflösung sowie die ermittelten Augenpositionen und Gesichtsgröße (aus dem„Parallel eye analyzer" bzw. „Parallel face finder")
o Output
■ Position der Pupille innerhalb des ausgewerteten Bildes sowie ein
Status, der aussagt, ob eine Pupille gefunden wurde oder nicht o Detaillierte Beschreibung
■ Basierend auf den ermittelten Augenpositionen und der Gesichtsgröße wird ein zu bearbeitender Bildausschnitt um das Auge herum festgelegt
■ Über diese Bildmatrix hinweg wird ein Vektor aufgebaut, der die Minima der Bildspalten enthält, sowie ein Vektor, der die Minima der Bildzeilen enthält
■ Innerhalb dieser Vektoren (aus minimalen Grauwcrtcn) wird wie nachfolgend erklärt separat der Pupillenmittelpunkt in horizontaler und in vertikaler Richtung detektiert:
• Detektion des Minimums des jeweiligen Vektors (als Position innerhalb der Pupille)
• Ausgehend von diesem Minimum innerhalb des Vektors wird in positiver und negativer Richtung die Position ermittelt, an der ein einstellbarer prozentual auf den Dynamikbereich aller Vektorelemente bezogener Schwellwert überschritten wird
• Die Mittelpunkte dieser Bereiche in den Beiden Vektoren bilden zusammen den Mittelpunkt der Pupille im analysierten Bild
„Temporal smart smoothing filter"
o Funktion
■ Adaptive zeitliche Glättung einer Datenreihe (z. B. einer ermittelten Gesichtskoordinate), wobei Aussetzer, unsinnige Werte oder extreme Ausreißer in der zu glättenden Datenreihe NICHT zu Schwankungen der geglätteten Daten führen
o Input
■ Zu jedem Aufrufzeitpunkt des Moduls jeweils ein Wert der Datenreihe und die dazugehörigen Gütekriterien (beim Facetracking: Ge- sichtsscore und Downscalingstufe in der das Gesicht gefunden wurde)
o Output
■ Geglätteter Datenwert (z. B. Gesichtskoordinate)
o Detaillierte Beschreibung
■ Über einen Satz von Filterparametern kann beim Initialisieren des Filters dessen Verhalten festgelegt werden
■ Der aktuelle Input-Wert wird für die Glättung verwendet, wenn er nicht in eine der folgenden Kategorien fällt:
• Entsprechend dem dazugehörigen Score handelt es sich um einen Aussetzer in der Datenreihe
• Entsprechend der dazugehörigen Downscalingstufe handelt es sich um einen unsinnigen Wert (Wert, der in einer zu weit entfernten Downscalingstufe ermittelt wurde)
• Entsprechend der zu großen Differenz zum letzten für die Glättung verwendeten Wert handelt es sich um einen Ausrei ßer
Ist eines dieser Kriterien erfüllt, wird weiterhin der zuvor ermittelte geglättete Wert ausgegeben, andernfalls wird der aktuelle Wert zur Glättung herangezogen
Um eine möglichst geringe Verzögerung bei der Glättung zu erhalten werden aktuelle Werte stärker gewichtet als vergangene:
• aktueller geglättete Wert = aktueller Wert * Glättungskocffi- zient + letzter geglätteter Wert * (1 - Glättungskoeffizient)
• der Glättungskoeffizient wird in definierten Grenzen dynamisch an den Trend der zu glättenden Daten angepasst: o Verringerung bei eher konstantem Werteverlauf der Datenreihe
o Erhöhung bei aufsteigendem oder abfallendem Werteverlauf der Datenreihe
Wenn langfristig ein größerer Sprung bei den zu glättenden Daten oder den dazugehörigen Downscalingstufen vorkommt, passt sich das Filter und somit auch der geglättete Werteverlauf an den neuen Wert an
„3D camera system model"
o Funktion
■ Modellierung des 3 D-Raumes in dem sich mehrere Kameras, der Nutzer (bzw. dessen Augen) und ggf. ein Bildschirm befinden o Input
■ Kon figurationsdatei , welche die Modellparameter (Lageparameter, optische Parameter, u. a.) aller Elemente des Modells beinhaltet o Output
■ Stellt ein Zahlengerüst und Funktionen für Berechnungen innerhalb dieses Modells zur Verfügung
o Detaillierte Beschreibung
■ Modellierung der räumlichen Lage (Position und Drehwinkel) aller Elemente des Modells sowie deren geometrische (z. B. Pixelgröße, Sensorgröße, Auflösung) und optische (z. B. Brennweite, Objektivverzeichnung) Eigenschaften
■ Das Modell umfasst zum jetzigen Zeitpunkt folgende Elemente:
• Kameraeinheiten, bestehend aus:
o Kamerasensoren
o Objektiven
• Augen
• Display
■ Es werden neben den Eigenschaften aller Elemente des Modells insbesondere die nachfolgend beschriebenen Funktionen„3D position calculation" (zur Berechnung der Augenposition) und„3D gaze directum calculation" (zur Berechnung der Blickrichtung) zur Verfügung gestellt
■ In anderen Anwendungsfällen stehen auch folgende Funktionen zur Verfügung:
• Mit Hilfe dieses Modells kann u. a. die 3 D-Blickgerade (bestehend aus Pupillenmittelpunkt und Bliekrichtungsvektor (entsprechend der Biologie und Physiologie des menschlichen Auges korrigiert)) berechnet werden
• Optional kann auch der Blickpunkt eines Betrachters auf einem anderen Objekt im 3D-Modell (z. B. auf einem Display) berechnet werden sowie der fokussierte Bereich des Betrachters
„3D position calculation"
o Funktion
■ Berechnung der räumlichen Position (3D-Koordinaten) eines Punktes, der von zwei oder mehr Kameras erfasst wird (z. B. Pupillenmittelpunkt)
o Input
■ 2D-Koordinaten eines Punktes in zwei Kamerabildern
o Output
" 3D-Koordinaten des Punktes
■ Fehlermaß: beschreibt die Genauigkeit der übergebenen 2D- Koordinaten in Verbindung mit den Modellparametern
o Detaillierte Beschreibung
■ Aus den übergebenen 2 D-Koordinaten werden mit Hilfe des„3D camera system model" (insbesondere unter Berücksichtigung der optischen Parameter) tür beide Kameras die Lichtstrahlen berechnet, die den 3 D-Punkt als 2D-Punkte auf den Sensoren abgebildet haben
■ Diese Lichtstrahlen werden als Geraden im 3 D-Raum des Models beschrieben
■ Der Punkt von dem beide Geraden den geringsten Abstand haben (im Idealfall der Schnittpunkt der Geraden) wird als Position des gesuchten 3D-Punktes angenommen
Vorteile
Ermittlung der Gesichtsposition und der Augenpositionen in einem (Live-) Kamerabild in 2D und durch Rückrechnung in den 3 D-Raum in 3D (durch Einbeziehen eines 3 D-Raum Modells)
Die unter 3. Vorgestellten Algorithmen sind optimiert auf echtzeitfähige und parallele Verarbeitung in FPGAs
- Hohe Frameraten (60 FPS @ 640x480 auf einem XI LI NX Spartan 3A DSP @ 48 MHz) und kurze Latenzzeiten durch vollständig parallele Verarbeitung ohne Re- kursionen in der Verarbeitungskette -> sehr schnelle Bildverarbeitung und verzö- gerzugsarme Ausgabe der Ergebnisse
Minimaler Bauraum, da die gesamte Funktionalität mit einem Bauteil (FPGA) erreicht werden kann
geringer Energieverbrauch
- Festes Zeitregime (konstante Zeitdifferenz zwischen aufeinanderfolgenden Ergebnissen) und damit prädestiniert für den Einsatz in sicherheitskritischen Anwendungen
Möglichkeit zur direkten Portierung der Verarbeitung vom FPGA auf einen ASIC (application specific integrated cireuit) - sehr kostengünstige Lösung bei hohen Stückzahlen durch Ausnutzung von Skaleneffekten
Anwendung
- Vorteile bei der Anwendung im Vergleich zur Softwarelösung
o autonome Funktionsweise (System on Chip)
o Möglichkeit der einfachen Überführung in einen ASIC
o platzsparende Integration in bestehende Systeme/Schaltungen
Anwendungsbereiche ähnlich denen einer Softwarelösung (In einem (Live-) Kame- rabilddatenstrom werden Gesichtsposition und die entsprechenden Augenpositionen detektiert, die für die unten aufgeführten Anwendungen genutzt werden können)
o Sicherheitsanwendungen
■ z.B. Sekundenschlafwamer im Automotive Bereich, durch Auswer- tung der Augen (Öffnungsgrad) und der Augen- und Kopfbewegung o Mensch-Maschine-Kommunikation
■ z.B. Eingabeschnittstellen für technische Geräte (Kopf- bzw. Augenposition als Inputparameter)
o Gaze-Tracking
■ z.B. Gesichts- und Augenpositionen als Vorstufe zur Blickrichtungsbestimmung (in Kombination mit„Integrated Eyetracker") o Marketing
■ z.B. Attraktivität von Werbung bewerten durch Auswertung von Kopf- und Augenparametern (u. a. Position)
Nachfolgend wird anhand von zwei Darstellungen weiteres Hintergrundwissen zu den oben beschrieben Aspekten der Erfindungen offenbart.
Ein ausführliches Berechnungsbeispiel für diese Blickrichtungsberechnung wird nachfolgend anhand der Fig. 8a bis 8e beschrieben.
Berechnung des Pupillenmittelpunktes Wie bereits beschrieben, entsteht bei der Abbildung der kreisförmigen Pupille 806a durch die Kameraobjektive 808a und 808b auf den Bildsensoren 802a und 802b jeweils eine elliptische Pupillenprojektion (vgl. Fig. 8a). Der Mittelpunkt der Pupille wird auf beiden Sensoren 802a und 802b und somit auch in den entsprechenden Kamerabildern immer als Mittelpunkt E PK1 und EMP^ der Ellipse abgebildet. Daher kann durch stereoskopische Rückprojektion dieser beiden Ellipsenmittelpunkte EMpK1 und EMP10 mit Hilfe des Objek- tivmodells der 3 D-Pupillenmittelpunkt bestimmt werden. Optionale Voraussetzung dazu ist eine idealerweise zeitsynchrone Bildaufnahme, damit die von beiden Kameras abgebildeten Szenen identisch sind und somit der Pupillenmittelpunkt an der gleichen Position erfasst wurde.
Zunächst muss für jede Kamera der Rückprojektionsstrahl RS des Ellipsenmittelpunktes berechnet werden, welcher entlang des Knotenpunktstrahls zwischen dem Objekt und dem objektseitigen Knotenpunkt (Hl) des optischen System verläuft (Fig. 8a). RS(t) = RS„ + t■ RSti
(AI)
Dieser Rückprojektionsstrahl wird durch Gleichung (AI) definiert. Er besteht aus einem Anfangspunkt RSg und einem normierten Richtungsvektor RS„; , welche sich im genutzten Objektivmodell (Fig. 8b) durch die Gleichungen (A2) und (A3) aus den beiden Hauptpunkten Hi und Hi des Objektivs sowie dem Ellipsenmittelpunkt EMP in der Sensorebene ergeben. Dazu müssen alle drei Punkte (H ] , H2 und EMP) im Eyetracker-
Koordinatensystem vorliegen.
(A2) fl ij 1 1 2 - F MP
\H - F
(A3)
Die Hauptpunkte lassen sich mit den Gleichungen
H2 = K0 + b - K, und /-/, - K() + (h + cl) - K,j direkt aus den Objektiv- und Kameraparametern berechnen (Fig. 8b), o der Mittelpunkt der Kamerasensoreben ist und der Normalvektor der Kamerasensorebene. Der SD- Ellipsenmittelpunkt im Kamerakoordinatensystem lässt sich aus den zuvor bestimmten Ellipsenmittelpunktparametern xm und ym , welche in Bildkoordinaten vorliegen, mittels Gleichung
errechnen. Dabei ist PBiid die Auflösung des Kamerabildes in Pixeln, S0ffset ist die Position auf dem Sensor an der begonnen wird das Bild auszulesen, Sres ist die Auflösung des Sensors und SpxGr ist die Pixelgröße des Sensors.
Der gesuchte Pupillenmittelpunkt ist im Idealfall der Schnittpunkt der beiden Rückprojek- tionsstrahlen RSK1 und RSK2 . Mit praktisch ermittelten Modcllparametern und Ellipscnmit- telpunkten ergibt sich allerdings schon durch minimale Messfehler kein Schnittpunkt der Geraden mehr im 3-D-Raum. Zwei Geraden in dieser Konstellation, welche sich weder schneiden noch parallel verlaufen, werden in der Geometrie windschiefe Geraden genannt. Im Falle der Rückprojektion kann angenommen werden, dass die beiden windschiefen Ge- raden jeweils sehr nahe am Pupillenmittelpunkt vorbei verlaufen. Dabei liegt der Pupillenmittelpunkt an der Stelle ihres geringsten Abstands zueinander auf halber Strecke zwischen den beiden Geraden.
Der kürzeste Abstand zwischen zwei windschiefen Geraden wird von einer senkrecht zu beiden Geraden stehenden Verbindungsstrecke angegeben. Der Richtungsvektor nSt
Der senkrecht auf beiden Rückprojektionsstrahlen stehenden Strecke kann entsprechend Gleichung (A4) als Kreuzprodukt ihrer Richtungsvektoren berechnet werden. nSl = RS^l x RSn
(A4)
Die Lage der kürzesten Verbindungsstrecke zwischen den Rückprojektionsstrahlen wird durch Gleichung (A5) definiert. Durch Einsetzen von RSKI(s) , RSK2{t ) und nSt ergibt sich daraus ein Gleichungssystem, aus welchem s , t und u berechnet werden können.
(A5)
Der gesuchte Pupillenmittelpunkt P P, welcher auf halber Strecke zwischen den Rückprojektionsstrahlen liegt, ergibt sich folglich aus Gleichung (A6) nach dem Einsetzen der für s und u berechneten Werte.
(A6)
Als Indikator für die Genauigkeit des berechneten Pupillenmittelpunktes P P kann zusätzlich die minimale Distanz dRs zwischen den Rückprojektionsstrahlen berechnet werden. Je genauer die Modellparameter und Ellipsenmittelpunkte waren, welche für die bisherigen Berechnungen genutzt wurden, desto geringer ist d s . dRS = u- \ nSl I
(A7)
Der berechnete Pupillenmittelpunkt ist einer der beiden Parameter, welcher die vom Eye- tracker zu ermittelnde Blickgerade des Auges bestimmen. Außerdem wird er zur Berechnung des Blickrichtungsvektors Pfl benötigt, welche nachfolgend beschrieben wird.
Der Vorteil dieser Methode zur Berechnung des Pupillenmittelpunktes besteht darin, dass die Abstände der Kameras zum Auge nicht fest im System abgespeichert sein müssen. Dies ist /,. B. bei dem in der Patentschrift DE 10 2004 046 617 A 1 beschriebenen Verfahren erforderlich.
Berechnung des Blickrichtungsvektors
Der zu bestimmende Blickrichtungsvektor Ρή entspricht dem Normalvektor der kreisförmigen Pupillen fläche und ist somit durch die Ausrichtung der Pupille im 3-D-Raum festgelegt. Aus den Ellipsenparametern, welche für jede der beiden ellipsenförmigen Projektio- nen der Pupille auf den Kamerasensoren bestimmt werden können, lassen sich die Lage und Ausrichtung der Pupille ermitteln. Hierbei sind die Längen der beiden Halbachsen sowie die Rotationswinkel der projizierten Ellipsen charakteristisch für die Ausrichtung der Pupille bzw. die Blickrichtung relativ zu den Kamerapositionen. Ein Ansatz zur Berechnung der Blickrichtung aus den Ellipsenparametern und fest im Eye- tracking-System abgespeicherten Abständen zwischen den Kameras und dem Auge wird z. B. in der Patentschrift DE 10 2004 046 617 AI beschrieben. Wie in Fig. 8e dargestellt, geht dieser Ansatz von einer Parallelprojektion aus, wobei die durch die Sensornormale und den Mittelpunkt der auf den Sensor projizierten Pupille definierte Gerade durch den Pupillenmittelpunkt verläuft. Dazu müssen die Abstände der Kameras zum Auge vorab bekannt und fest im Eyetracking- System abgespeichert sein.
Das bei dem hier vorgestellten Ansatzes verwendete Modell des Kameraobjektivs, welches das Abbildungsverhalten eines realen Objektivs beschreibt, findet hingegen eine perspekti- vische Projektion des Objekts auf den Bildsensor statt. Dadurch kann die Berechnung des Pupillenmittelpunktes erfolgen und die Abstände der Kameras zum Auge müssen nicht vorab bekannt sein, was eine der wesentlichen Neuerungen gegenüber der oben genannten Patentschrift darstellt. Durch die perspektivische Projektion ergibt sich die Form der auf dem Sensor abgebildeten Pupillenellipse allerdings im Gegensatz zur Parallelprojektion nicht allein durch die Neigung der Pupille gegenüber der Sensorfläche. Die Auslenkung δ des Pupillenmittelpunktes von der optischen Achse des Kameraobjektivs hat, wie in Fig. 8b skizziert, ebenfalls einen Einfluss auf die Form der Pupillenprojektion und somit auf die daraus ermittelten Ellipsenparameter. Im Gegensatz zur Skizze in Fig. 8b ist der Abstand zwischen Pupille und Kamera mit mehreren hundert Millimetern sehr groß gegenüber dem Pupillenradius, welcher zwischen 2 mm und 8 mm liegt. Daher wird die Abweichung der Pupillenprojektion von einer idealen Ellipsenform, welche bei einer Neigung der Pupille gegenüber der optischen Achse entsteht, sehr gering und kann vernachlässigt werden.
Um den Blickrichtungsvektor /' berechnen zu können, muss der Einfluss des Winkels δ auf die Ellipsenparameter eliminiert werden, so dass die Form der Pupillenprojektion allein durch die Ausrichtung der Pupille beeinflusst wird. Dies ist immer dann gegeben, wenn der
Pupillenmittelpunkt P P direkt in der optischen Achse des Kamerasystems liegt. Daher kann der Einfluss des Winkels δ beseitigt werden, indem die Pupillenprojektion auf dem Sensor eines virtuellen Kamerasystems vK berechnet wird, dessen optische Achse direkt durch den zuvor berechneten Pupillenmittelpunkt PMP verläuft, wie in Fig. 8c dargestellt.
Die Lage und Ausrichtung eines solchen virtuellen Kamerasystems 804a' (vK in Fig. 8c) lässt sich aus den Parametern des originalen Kamerasystems 804a (K in Fig. 8b) durch Drehung um dessen objektseitigen Hauptpunkt /// berechnen. Dieser entspricht dadurch gleichzeitig dem objektseitigen Hauptpunkt vHj des virtuellen Kamerasystems 804a*. So- mit sind die Richtungsvektoren der Knotenpunktstrahlen der abgebildeten Objekte vor und hinter dem virtuellen optischen System 808c' identisch zu denen im originalen Kamerasystem. Alle weiteren Berechnungen zur Bestimmung des Blickrichtungsvektors erfolgen im Eyetracker-Koordinatensystem. Der normierte Normalvektor vK„ der virtuellen Kamera vK ergibt sich folgendermaßen:
(A8) Für das weitere Vorgehen ist es erforderlich, die Rotationwinkel um die x- Achse ( νΚθ ), um die y- Achse ( vK ) und um die z- Achse ( vK ) des Eyetracker-Koordinatensystems zu berechnen um die der Einheitsvektor der z-Richtung des Eyetracker-Koordinatensystems um verschiedene Achsen des Eyetracker-Koordinatensystems gedreht werden muss um den Vektor vK- zu erhalten. Durch Drehung des Einheitsvektor der x-Richtung sowie des Einheitsvektors der y-Richtung des Eyetracker-Koordinatensystems um die Winkel νΚθ , νΚφ und νΚψ können die Vektoren vKx und vK - berechnet werden, welche die x- und y-
Achse des virtuellen Sensors im Eyetracker-Koordinatensystem angeben.
Um die Lage des virtuellen Kamerasystems 804a" (Fig. 8c) zu erhalten, muss dessen Orts- vektor bzw. Koordinatenursprung vK0, welcher gleichzeitig der Mittelpunkt des Bildsensors ist, mittels Gleichung (A9) so berechnet werden, dass er im Knotenpunktstrahl des Pupillenmittelpunktes PMP liegt. vK, = vHx - (d+b) - vKn
(A9)
Die dazu benötigte Distanz d zwischen den Hauptpunkten sowie die Entfernung b zwischen der Hauptebene 2 und der Sensorebene müssen dazu bekannt sein oder z. B. mit einem Versuchsaufbau experimentell ermittelt werden.
Weiterhin ergibt sich die Lage des bildseitigen Hauptpunktes aus Gleichung (A10). vH2 = vH} - cl vKn
(MO)
Zur Berechnung der Pupillenprojektion auf dem virtuellen Sensor 804a' werden zunächst Randpunkte RPiD der zuvor ermittelten Ellipse auf dem Sensor in Originallage benötigt.
Diese ergeben sich aus den Randpunkten RP2D der Ellipse E im Kamerabild, wobei entsprechend Fig. 8d Ea die kurze Halbachse der Ellipse ist, Eb die lange Halbachse der Ellipse, Ex und Ey die Mittelpunktkoordinaten der Ellipse und Ea der Rotationswinkel der Ellipse. Die Lage eines Punktes RPyD im Eyetracker-Koordinatensystem kann durch die Gleichungen (AI 1) bis (A14) aus den Parametern der Ellipse E , des Sensors S und der Kamera K berechnet werden, wobei co die Lage eines Randpunktes RP2D entsprechend Fig. 8d auf dem Ellipsenumfang angibt.
(AH) cos{Ea)+ y' - sm(Ea )+ E
RP2
■sin(Ea)+ y' - cos(Ea )+ E
(AI 2)
RP- 2D -s„ -s o.ffset ■ s PxGr
(A13)
RP'D = K0 + Sl - K; + t K~
(A14)
Die Richtung eines Knotenpunktstrahls KS im originalen Kamerasystem, welcher einen Pupillenrandpunkt als Ellipsenrandpunkt RP3D auf dem Sensor abbildet, ist gleich der Richtung des Knotenpunktstrahls vKS im virtuellen Kamerasystem, welcher den gleichen Pupillenrandpunkt als Ellipsenrandpunkt RP3D auf dem virtuellen Sensor abbildet. Die Knotenpunktstrahlen der Ellipsenrandpunkte in Fig. 8b und Fig. 8c veranschaulichen dies.
Somit haben die beiden Strahlen KS und vKS den gleichen Richtungsvektor, welcher sich aus Gleichung (AI 5) ergibt. Für den Ortsvektor VKSQ des virtuellen sensorseitigen Knotenpunktstrahls vKS gilt immer VKSQ = vi!?.
(A I 5 )
Der virtuelle Knotenpunktstrahl und die virtuelle Sensorebene, welche der x-y-Ebene der virtuellen Kamera vK entspricht, werden in Gleichung (AI 6) gleichgesetzt, wobei sich durch Auflösen nach s2 und t2 die Parameter ihres Schnittpunktes ergeben. Mit diesen kann durch Gleichung (AI 7) der Ellipsenrandpunkt in Pixelkoordinaten im Bild der virtuellen Kamera berechnet werden.
vKS 0 + r2■ vKS -— K0 + s2 ■ K + t2■ K -
(A16) vRP2D = ■ + S.. - S o.
s jfset
PxGr V
(A17)
Anschließend können aus mehreren virtuellen Randpunkten vRP2D mittels Ellipsenfitting, z. B. mit dem„Direct least Square fitting of ellipses" Algorithmus nach Fitzgibbon et al.. die Parameter der in Fig. 8c dargestellten virtuellen Ellipse vE berechnet werden. Dazu werden mindestens sechs virtuelle Randpunkte vRP2D benötigt, welche durch Einsetzen unterschiedlicher co in Gleichung (AI 1) mit dem oben beschriebenen Weg berechnet werden können.
Die Form der so ermittelten v irtuellen Ellipse vE ist nur noch von der Ausrichtung der Pupille abhängig. Außerdem liegt ihr Mittelpunkt immer im Mittelpunkt des virtuellen Sensors und bildet zusammen mit der Sensornormalen, welche der Kameranonnalen vKn entspricht, eine entlang der optischen Achse verlaufende Gerade durch den Pupillenmittelpunkt PMP■ Somit sind die Voraussetzungen erfüllt, um aufbauend auf dem in der Patentschrift DE 10 2004 046 617 AI vorgestellten Ansatz nachfolgend die Blickrichtung zu berechnen. Dabei ist es mit diesem Ansatz nun auch möglich durch die Nutzung des oben beschriebenen virtuellen Kamerasystems die Blickrichtung zu bestimmen, wenn der Pupil- lenmittelpunkt außerhalb der optischen Achse des realen Kamerasystems liegt, was in realen Anwendungen nahezu immer der Fall ist.
Wie in Fig. 8e dargestellt, wird die zuvor berechnete virtuelle Ellipse vE nun in der virtuellen Hauptebene 1 angenommen. Da der Mittelpunkt von vE im Mittelpunkt des virtuellen Sensors und somit in der optischen Achse liegt, entspricht der 3 -D-Ellipsemittelpunkt VE 'MP dem virtuellen Hauptpunkt 1. Er ist auch gleichzeitig der Lotfußpunkt des Pupillenmittelpunktes PMP in der virtuellen Hauptebene 1 . Nachfolgend werden nur noch das Achsenverhältnis und der Rotationswinkel der Ellipse vE genutzt. Diese Formparameter von vE können dabei auch bezogen auf die Hauptebene 1 unverändert genutzt werden, da die Ausrichtungen der x- und y-Achse der 2-D-Sensorebene, auf welche sie sich beziehen, der Ausrichtung der 3-D-Sensorebene entsprechen und somit auch der Ausrichtung der Hauptebene 1.
Jede Abbildung der Pupille 806a in einem Kamerabild kann durch zwei verschiedene Ausrichtungen der Pupille entstehen. Bei der Auswertung der Pupillenform ergeben sich daher, wie Fig. 8e zeigt, aus den Ergebnissen jeder Kamera zwei virtuelle Schnittpunkte vS der zwei möglichen Blickgeraden mit der virtuellen Hauptebene 1. Entsprechend der geometrischen Verhältnisse in Fig. 8e können die beiden möglichen Blickrichtungen p. , und p, , folgendermaßen bestimmt werden. Der Abstand A zwischen dem bekannten Pupillenmittelpunkt und dem Ellipsenmittelpunkt
(AI 8)
Daraus lässt sich r mit Gleichung AI 9 bestimmen.
(AI 9)
Die beiden Richtungsvektoren r- , sowie r~ , , welche von vHj aus auf vS; sowie gerichtet sind, werden analog zu den Gleichungen
1 0 0
0 cos(^) -- sm((p)
0 sin(^) cos(#?) cos(6>) 0 sin(#)
0 1 0
-sin(0) 0 cos(0)
V = Μθ-Μφ·Μψ-ν
aus vÄTe, ν φ , νϋ und vEa berechnet:
(A20)
·Μφ=νΚφ · • [ι,ο,ο]
(A21)
Anschließend können die beiden virtuellen Schnittpunkte vSj sowie vS2 und daraus die möglichen Blickrichtungen p , sowie rf 2 ermittelt werden. v5, = vH, +r-r-,
(A22) vS, - vH. + r■ r- j
(A23) vS, -P M,P
vSx-PA
(A24) vS-,-Ρ MP
(A25)
Um die tatsächliche Blickrichtung zu bestimmen, werden die möglichen Blickrichtungen >- , sowie - 2 j und der Kamera 2 sowieP7>2 J benötigt. Von diesen vier Vektoren gibt jeweils einer von jeder Kamera die tatsächliche Blickrichtung an, wobei diese beiden normierten Vektoren im Ideal tall identisch sind. Um sie zu identifizieren, werden für alle vier möglichen Kombinationen aus einem Vektor der einen Kamera und einem Vektor der anderen Kamera die Differenzen der jeweils ausgewählten mögliehen Blickrichtungsvektoren gebildet. Die Kombination, bei welcher sich die geringste Differenz ergibt, enthält die gesuchten Vektoren. Diese ergeben gemittelt den zu bestimmenden Blickrichtungsvektor PH . Bei Mittelung muss von einer nahezu zeitgleichen Biklaufhahme ausgegangen werden, damit von beiden Kameras die gleiche Pupillenlage sowie die gleiche -ausrichtung und somit die gleiche Blickrichtung erfasst wurde.
Als Maß für die Genauigkeit des berechneten Blickrichtungsvektor kann zusätzlich der Winkel w^j zwischen den beiden gemittelten Vektoren PKX wnd PK1 , welche die tatsächliche Blickrichtung angeben, berechnet werden. Je geringer w^yj ist, desto genauer waren die Modellparameter und Ellipsenmittelpunkte, welche für die bisherigen Berechnungen genutzt wurden.
wdiff = arecos n o pK2
n
pK\ pK2
n n
(A26)
Die Blickwinkel ΘΒΨ und q>Bw gegenüber der Normallage der Pupille ( Ptj liegt parallel zur z- Achse des Eyetracker- Koord i natensystems) können mit den Gleichungen
<PBW = aresin (- /f ) und
90° wenn (z 0)Λ (Χ < 0) tan tan
berechnet werden. Falls eine systematische Abweichung der Blickrichtung von der optischen Achse des Auges bzw. von der Pupillennormale berücksichtigt werden soll, können die entsprechenden Winkel zu den ermittelten Blickwinkeln 6BW und (psw hinzuaddiert werden. Der neue Blickrichtungsvektor muss dann mittels Gleichung ΡΆ < = Μθ=θΒΐν, -Μφ=φΒν, -Μψ=ϋ - z aus den neuen Blickwinkeln ##j und ( ^' und i = [0,0, 1]T berechnet werden.
Mit dem Blickrichtungsvektor PN ist (neben dem Pupillemittelpunkt PMP aus Gleichung A6) auch der zweite Parameter der vom 3 D-Bildanal ysator zu bestimmenden Blickgeraden (LoS) bekannt. Diese ergibt sich entsprechend folgender Gleichung
LoS (t) = PMP + t - Pri . Die Implementierung des oben vorgestellten Verfahrens ist plattformunabhängig, so dass das oben vorgestellte Verfahren auf verschiedenen Hardwareplattformen, wie z.B. einem PC ausgeführt werden kann.
Entwicklung eines Verfahrens zur Überarbeitung des Verfahrens Merkmalsextraktion
Das Ziel der vorliegenden nachfolgenden Ausführungen ist es, auf Basis der parallelen Hough-Transformation und ein robustes Verfahren zur Merkmalsextraktion zu entwickeln. Dazu wird der Houghcore überarbeitet und ein Verfahren zur Merkmalsextraktion vorgestellt, das die Ergebnisse der Transformation reduziert und auf wenige„Merkmalsvekto-
ren" pro Bild herunterbricht. Anschließend wird das neu entwickelte Verfahren in einer Matlab- Toolbox implementiert und getestet. Es wird schließlich eine FPGA- Implementierung des neuen Verfahrens vorgestellt. Parallele Hough-Transformation für Geraden und Kreise
Die parallele Hough-Transformation nutzt Houghcores unterschiedlicher Größe, die mit Hilfe von Konfigurationsmatrizen für den jeweiligen Anwendungsfall konfiguriert werden müssen. Die mathematischen Zusammenhänge und Verfahre zur Erstellung solcher Kon- figurationsmatrizen sind nachfolgend dargestellt.
Zur Erstellung der Konfigurationsmatrizen ist es zunächst erforderlich Kurvenscharen in diskreter Darstellung und für unterschiedliche Houghcore- Größen zu berechnen. Die Anforderungen (Bildungsvorschriften) an die Kurvenscharen wurden bereits aufgezeigt. Unter Berücksichtigung dieser Bildungsvorschriften sind insbesondere Geraden und Halbkreise zur Konfiguration der Houghcores geeignet. Für die Blickrichtungsbestimmung werden Houghcores mit Konfigurationen für Halbkreise (bzw. Krümmungen) eingesetzt. Aus Gründen der Vollständigkeit werden hier auch die Konfigurationen für Geraden (bzw. Geradenabschnitte) hergeleitet. Die mathematischen Zusammenhänge zur Bestimmung der Kurvenscharen für Geraden sind veranschaulicht.
Ausgangspunkt für die Berechnung der Kurvenscharen für Geraden bildet die lineare Geradengleichung in (Bl). y = m■ x + n
(Bl)
Die Kurvenscharen können durch Variation des Anstiegs m generiert werden. Dazu wird die Geradensteigung von 0° bis 45° in gleichgroße Intervalle zerlegt. Die Anzahl der Intervalle ist von der Houghcore-Größe abhängig und entspricht der Anzahl an Houghcore- Zeilen. Der Anstieg kann über die Laufvariable Ycore von 0 bis core\^% durchgestimmt werden.
1
m =
core 'I,i ei gl
(B2)
Die Funktionswerte der Kurvenscharen errechnen sich durch Variation der Laufvariablen (in (B3) durch xcore ersetzt), deren Werte von 0 bis core width laufen.
1
core core
COreheigl
(B3)
Für eine diskrete Darstellung im 2D-Plot müssen die Funktionswertc auf ganze Zahlen gerundet werden. Die Berechnung der Kurvenscharen für Halbkreise orientiert sich an (Katzmann 2005, S. 37-38) und ist in Fig. 9b veranschaulicht.
Ausgangspunkt für die Berechnung der Kurvenscharen ist die Kreisgleichung in Koordinatenform.
(B4)
Mit XM = 0 (Lage des Kreismittelpunktes auf der y- Achse), x = xcore und umstellen nach y folgt für die Funktionswerte der Kurvenscharen (B5). y = r2 -x]ore +yM
(B5)
Da yst und r nicht bekannt sind, müssen sie ersetzt werden. Dazu können die mathematischen
Zusammenhänge in (B6) und (B7) aus Fig. 9b hergeleitet werden. yM= h - r
(B6)
(B7)
Durch Umstellen von (B7) nach y und der Bedingung das y» immer negativ sein muss (s. Fig. 9b) erhält man (B8).
2 f corewkltll
•(-- 0
2
(B8)
Einsetzen von (B8) in (B5) führt zu (B9). core width
· = - x core + - •(- 1)
(B9) Aus Fig. 9b wird deutlich, dass der Houghcore mittenzentriert in der y-Achse des Kreiskoordinatensystems liegt. Die Variable xcore läuft normalerweise von 0 bis corewidth - 1 und core
muss somit um - width korrigiert werden.
2 _ 2 _ core width core
y r X core + r - width
· (- >)
(B10)
Es fehlt noch der Radius, den man durch einsetzen von (B6) in (B7) und durch weitere Umformungen erhält.
( B l l ) core
r2 = -2hr + r~ + width
(B12) core
hl + width
r =-
2 · h
(B13) core height
Zum Erzeugen der Kurvenscharen muss schließlich die Variable h von
variiert werden. Dies geschieht über die Laufvariable ycore die von 0 bis corehejahl läuft.
(B14)
Wie bereits bei den Geraden müssen die y-Wcrte für eine diskrete Darstellung im 2D-Plot gerundet werden. Die Kurvenscharen für Houghcores vom Typ 2 können ganz einfach über Gleichung (B15) ermittelt werden.
Ore eigt - yTyP
(B15)
Ausgehend von den Kurvenscharen können für alle Houghcore-Größen jeweils zwei Konfigurationen (Typ 1 und Typ 2) für Geraden und Kreise ermittelt werden. Die Konfigurationen werden dabei direkt aus den Kurvenscharen bestimmt, vgl. (Katzmann 2005, S. 35- 36). Konfigurationsmatrizen können entweder mit Nullen oder mit Einsen besetzt sein. Eine Eins steht dabei für ein genutztes Delayelement im Houghcore. Zunächst wird die Konfigurationsmatrix in den Dimensionen des Houghcores mit Nullwerten initialisiert. Danach werden folgende Schritte durchlaufen:
1. Beginne mit der ersten Kurve der Kurvenschar und prüfe den y-Wert der ersten x- Indexnummer. Ist der y-Wcrt größer als Null, dann besetze in der gleichen Zeile (gleicher y- Index) an genau derselben Stelle (gleicher x- Index) das Element der Konfigurationsmatrix mit Eins.
2. Modifiziere die y- Werte mit gleichem x- Index über alle Kurven der Kurvenschar.
Wurde im ersten Schritt das Element mit Eins besetzt, dann ziehe von allen y- W erten Eins ab. Wurde im ersten Schritt das Element nicht besetzt, dann tue nichts.
3. Durchlaufe Schritt 1 und 2 so lange, bis alle Elemente der Konfigurationsmatrix angesprochen wurden.
Die Konfigurationsprozedur ist in Fig. 9c schrittweise veranschaulicht.
Abschließend möchte ich auf ein paar Eigenheiten der Houghcore-Konfigurationen eingehen. Die Konfigurationen für Geraden repräsentieren immer nur Geradenabschnitte in Abhängigkeit der Breite des Houghcores. Längere Geradenabschnitte im binären Kantenbild
müssen gegebenenfalls aus mehreren detektierten Geradenabschnitten zusammengesetzt werden. Die Auflösung der Winkel (bzw. Steigung) der Geradenabschnitte ist von der Höhe des Houghcores abhängig. Die Konfigurationen für Kreise repräsentieren immer Kreisbögen um den Scheitelpunkt des Halbkreises herum. Nur die größte y- Indexnummer der Kurvenschar (kleinster Radius) repräsentiert einen vollständigen Halbkreis. Die entwickelten Konfigurationen können für den neuen Houghcore genutzt werden. Überarbeitung des Houghcores
Ein entscheidender Nachteil der FPGA-Implementierung von Holland-Neil ist die starre Konfiguration der Houghcores. Die Delaylines müssen vor der Synthese parametrisiert werden und sind danach fest in den Hardwarestrukturen abgelegt (Holland-Neil, S. 48-49). Änderungen während der Laufzeit (z. B. Houghcore-Größe) sind nicht mehr möglich. Das neue Verfahren soll an dieser Stelle flexibler werden. Der neue Houghcore soll sich auch während der Laufzeit im FPGA vollständig neu konfigurieren lassen. Das hat mehrere Vorteile. Zum einen müssen nicht zwei Houghcores (Typ 1 und Typ 2) parallel abgelegt werden und zum anderen können auch unterschiedliche Konfigurationen für Geraden und Halbkreise genutzt werden. Darüber hinaus lässt sich die Houghcore-Größe flexibel während der Laufzeit ändern.
Bisherige Houghcore-Struktur bestehen aus einem Delay und einem Bypass und es wird vor der FPGA-Synthese festgelegt welcher Pfad genutzt werden soll. Im Folgenden wird diese Struktur um einen Multiplexer, ein weiteres Register zur Konfiguration des Delay- elements (Schalten des Multiplexers) und ein Pipelinedelay erweitert. Die Konfigurationsregister können während der Laufzeit modifiziert werden. Auf diese Weise können unterschiedliche Konfigurationsmatrizen in den Houghcore eingespielt werden. Durch setzten der Pipelinedelays hat das Synthesetool im FPGA mehr Freiheiten bei der Implementie- rang des Houghcore-Designs und es können höhere Taktraten erzielt werden. Pipelinedelays durchbrechen zeitkritische Pfade innerhalb der FPGA-Strukturen. In Fig. 9d ist das neue Design der Delayelemente veranschaulicht.
Im Vergleich zur bisherigen Umsetzung nach Katzmann und Holland-Neil sind die Delay- elemente des neuen Houghcores etwas komplexer aufgebaut. Zur flexiblen Konfiguration des Delayelements wird ein zusätzliches Register benötigt und der Multiplexer belegt weitere Logikressourcen (muss im FPGA in einer LUT implementiert werden). Das Pipelinedelay ist optional. Neben der Überarbeitung der Delayelemente wurden auch Modifika-
tionen am Design des Houghcores vorgenommen. Der neue Houghcore ist in Fig. 9e veranschaulicht.
Im Unterschied zum bisherigen Houghcore soll zunächst eine neue Notation eingeführt werden. Aufgrund des um 90° rotierten Designs in Fig. 9e werden die ursprünglich als „Zeilensummen" bezeichneten Signale des A usgangsh i stogramms ab sofort ..Spaltensummen'" genannt. Jede Spalte des Houghcores steht somit für eine Kurve der Kurvenschar. Der neue Houghcore kann außerdem während der Laufzeit mit neuen Konfigurationsmatrizen beaufschlagt werden. Die Konfigurationsmatrizen sind im FPGA-intcrnen BRAM ab- gelegt und werden von einer Konfigurationslogik geladen. Diese lädt die Konfigurationen als spaltenweisen Bitstring in die verketteten Konfigurationsregister (s. Fig. 9d). Die Re- konfiguration des Houghcores benötigt eine gewisse Zeit und ist von der Länge der Spalten (bzw. der Anzahl der Delaylines) abhängig. Dabei benötigt jedes Spaltenelement einen Taktzyklus und es kommt eine Latenz von wenigen Taktzyklen durch den BRAM und die Konfigurationslogik hinzu. Die Gesamtlatenz zur Rekonfiguration ist zwar nachteilig, kann jedoch für die videobasierte Bildverarbeitung in Kauf genommen werden. Im Normalfall haben die mit einem CMOS-Sensor aufgezeichneten Videodatenströme ein horizontales und vertikales Blanking. Die Rekonfiguration kann somit problemlos in der horizontalen Blankingzeit stattfinden. Die Größe der im FPGA implementierten Houghcore-Struktur gibt auch die maximal mögliche Größe für Houghcore-Konfigurationen vor. Werden kleine Konfigurationen genutzt sind diese vertikal zentriert und in horizontaler Richtung an Spalte 1 der Houghcore-Struktur ausgerichtet (s. Fig. 9f). Nicht genutzte Elemente der Houghcore-Struktur werden allesamt mit Dclays besetzt. Die korrekte Ausrichtung kleinerer Konfigurationen ist für die Korrektur der x- Koordinaten (s. Formeln (B 17) bis (B19)) wichtig.
Der Houghcore wird wie bisher mit einem binären Kantenbild gespeist, das die konfigurierten Delaylines durchläuft. Mit jedem Verarbeitungsschritt werden die Spaltensummen über den gesamten I l ugheore berechnet und jeweils mit dem Summensignal der vorher- gehenden Spalte verglichen. Liefert eine Spalte einen höheren Summenwert, wird der Summenwert der ursprünglichen Spalte überschrieben. Als Ausgangssignal liefert der neue Houghcore einen Spaltensummenwert und die dazugehörige Spaltennummer. Auf Basis dieser Werte kann später eine Aussage darüber getroffen werden, welche Struktur gefunden wurde (repräsentiert durch die Spaltennummer) und mit welcher Auftrittswahrschein- lichkeit diese detektiert wurde (repräsentiert durch den Summenwert). Das Ausgangssignal des Houghcores kann auch als Houghraum oder Akkumulatorraum bezeichnet werden. Im Gegensatz zur herkömmlichen Hough-Transformation liegt der Houghraum der parallelen H o ugh -Trans I rmat i n im Bildkoordinatensystem vor. Das heißt, dass zu jeder Bildkoor-
dinate ein Summenwert mit dazugehöriger Spaltennummer ausgegeben wird. Zur vollständigen Transformation des Ausgangsbildes muss jeweils ein Houghcore vom Typ 1 und Typ 2 vom nicht rotierten und rotierten Bild durchlaufen werden. Damit liegen nach der Transformation nicht nur Spaltensumme mit dazugehöriger Spaltennummer, sondern auch der Houghcore-Typ und die Ausrichtung des Ausgangsbildes (nicht rotiert oder rotiert) vor. Darüber hinaus können verschiedene Houghcore-Größen und Konfigurationen jeweils für Geraden und Halbkreise genutzt werden. Damit kann neben den genannten Ergebnissen noch der Kurventyp und die Houghcore-Größe angegeben werden. Zusammenfassend ist ein Ergebnisdatensatz des neuen Houghcores in nachfolgender Tabelle dargestellt. Bei der parallelen Hough-Transformation entsteht für jeden Bildpunkt des Ausgangsbildes ein solcher Datensatz.
Übersicht des Ergebnisdatensatzes der für jeden Bildpunkt des Ausgangsbildes bei der parallelen Hough-Transformation mit überarbeiteter I loughcore-Struktur entsteht. Im Gegensatz zum binären und schwellwertbasierten Ausgang des Houghcores von Katzmann und Holland-Neil erzeugt die neue Houghcore-Straktur deutlich mehr Ausgangsdaten. Da solch eine Datenmenge nur schwer zu handhaben ist, wird ein Verfahren zur Merkmalsextraktion vorgestellt, das die Ergebni sd at enm en ge deutlich verringert. Typ 2 Houghcore und Bildrotation
Bei den Ausführungen zur parallelen Hough-Transformation wurde bereits die Notwendigkeit der Bildrotation und die Eigenheiten des Typ 2 Houghcores angeschnitten. Bei der parallelen Hough-Transformation muss das Ausgangsbild den Houghcore viermal durch- laufen. Das ist notwendig, damit Geraden und Halbkreise in unterschiedlichen Winkellagen detektiert werden können. Arbeitet man nur mit einem Typ 1 Houghcore, müsste man das Bild in Ausgangslage und rotiert um 90°, 180° und 270° verarbeiten. Durch Hinzunahme des Typ 2 Houghcores entfallen die Rotation um 180° und 270°. Wird das nicht rotierte Ausgangsbild mit einem Typ 2 Houghcore verarbeitet entspricht das einer Verar- beitung des um 180° rotierten Ausgangsbildes mit einem Typ 1 Houghcore. Ähnlich verhält es sich mit der Rotation um 270°. Diese kann durch Verarbeitung des um 90° rotierten Bildes mit einem Typ 2 Houghcore ersetzt werden. Für eine FPGA-Umsetzung wirkt sich der Wegfall zusätzlicher Rotationen positiv aus, da Bildrotationen im Normalfall nur mit Hilfe eines externen Speichers gelöst werden können. Je nach eingesetzter Hardware steht nur eine gewisse Bandbreite (maximal mögliche Datenrate) zwischen FPGA und Speicherbaustein zur Verfügung. Bei Verwendung eines Typ 2 Houghcores wird die Bandbreite des externen Speicherbausteins nur mit einer Rotation um 90° belegt. Bei der bisherigen Implementierung von Holland-Neil war es erforderlich einen Houghcore vom Typ 1 und einen Houghcore vom Typ 2 im FPGA abzulegen. Mit dem überarbeiteten Houghcore- Design ist es nun auch möglich die I loughcore-Struktur einmal im FPGA abzulegen und Konfigurationen vom Typ 1 oder Typ 2 zu laden. Durch diese neue Funktionalität kann mit nur einem Houghcore und bei nur einer Bildrotation das Ausgangsbild vollständig transformiert werden. Es bleibt zu berücksichtigen, dass bei der Verarbeitung mit nur einem Houghcore auch die vierfache Datenrate im Houghcore anfällt. Bei einem Vidcodatenstrom mit 60fps und
VGA-Auflösung beträgt die Pixeldatenrate 24Mhz. In diesem Fall müsste der Houghcore mit 96Mhz betrieben werden, was für einen FPGA der Spartan 3 Generation bereits eine
hohe Taktrate darstellt. Zur Optimierung des Designs sollte verstärkt mit Pipelinedeiays innerhalb der i lougheore-Struktur gearbeitet werden.
Merkmalsextraktion
Die Merkmalsextraktion arbeitet auf den Datensätzen aus vorheriger Tabelle. Diese Datensätze können in einem Merkmalsvektor ( B 16) zusammengefasst werden. Der Merkmalsvektor kann im Folgenden auch als Hough-Feature bezeichnet werden. MV=[MVX. MVyMVo, MVKS, MVH, MVG-I, MVA]
(B16)
Ein Merkmalsvektor besteht jeweils aus x- und y-Koordinate für das gefundene Feature (MVX und MVy), der Orientierung MVo, der Krümmungsstärke MVKS, der Häufigkeit MVH, der Houghcore-Größe MVQ-I und die Art der gefundenen Struktur MVA. Die detaillierte Bedeutung und der Wertebereich der einzelnen Elemente des Merkmalsvektors kann nachfolgender Tabelle entnommen werden.
MVx und MVy Beide Koordinaten laufen jeweils bis zur Größe des Ausgangsbildes
MVo Die Orientierung steht für die Ausrichtung des Houghcores. Diese setzt sich aus der Bildrotation und dem eingesetzten Houghcore-Typ zusammen und lässt sich in vier Bereiche unterteilen. Die Umrechnung der vier Bereiche in deren jeweilige Orientierung ist in nachfolgender Tabelle veranschaulicht.
MVKS Die Krümmungsstärke läuft max. bis zur Größe des Houghcores und entspricht der Houghcore-Spalte mit der größten Spaltensumme (bzw. Häufigkeit MVH). Zur Veranschaulichung kann auf Fig. 9e in Verbindung mit obiger Tabelle verwiesen werden. Bei Geraden-Konfiguration der Houghcores steht die Houghcore-Spalte für die Steigung bzw. den Winkel der Geraden. Werden Halbkreis-Konfigurationen eingesetzt, steht die Houghcore-Spalte für den Radius des Halbkreises
MV„ Die Häufigkeit ist ein Maß für die Korrelation des Bildinhaltes mit der gesuchten Struktur. Sie entspricht der Spaltensumme (s. Fig. 9e und obige Tabelle) und kann maximal die Größe des Houghcores (genauer die Größe einer Houghcore-Spalte bei nichtquadratischen Houghcores) erreichen.
MVG., Größe des für die Transformation eingesetzten Houghcores minus eins.
MVA Steht für die Art der gefundenen Struktur je nachdem welche Houghcore- Konfiguration eingesetzt wurde (Konfiguration für Geraden = 0 bzw. Konfiguration für Kreise— 1 ).
Elemente des Hough-Merkmalsvektors, deren Bedeutung und Wertebereich.
Berechnung der Orientierung in Abhängigkeit der Bildrotation und des zur Transformation genutzten Houghcore-Typs.
Aus obigen Tabellen wird ersichtlich, dass die beiden Elemente MVo und MVKS bei Geraden und Halbkreisen unterschiedliche Bedeutungen haben. Bei Geraden bildet die Kombination aus Orientierung und Krümmungsstärke den Lagewinkel des detektierten Geraden- abschnittes im Winkel von 0° bis 180°. Dabei adressiert die Orientierung einen Winkelbereich und die Krümmungsstärke steht für einen konkreten Winkel innerhalb dieses Bereiches. Je größer der Houghcore (genauer je mehr Houghcore-Spalten vorhanden sind), desto feiner ist die Winkelauflösung. Bei Halbkreisen steht die Orientierung für den Lagewinkel bzw. die Ausrichtung des Halbkreises. Halbkreise können prinzipbedingt nur in vier Aus- richtungen detektiert werden. Die Krümmungsstärke steht bei Halbkreiskonfigurationen für den Radius.
Neben der Orientierung MVQ und der Krümmungsstärke MVKS ist bei den Koordinaten (MVx und MVy) eine weitere Besonderheit zu beachten (s. Fig. 9g). Bei Geraden sollen die Koordinaten immer den iMittelpunkt und bei Halbkreisen bzw. Krümmungen immer den Scheitelpunkt repräsentieren. Mit dieser Vorgabe kann die y-Koordinate entsprechend der implementierten Houghcore-Struktur korrigiert werden und ist unabhängig von der Größe der zur Transformation genutzten Konfiguration (s. Fig. 9t). Ähnlich einem lokalen Filter wird die y-Koordinate vertikal zentriert angegeben. Für die x-Koordinate wird ein Zusam- menhang über die Houghcore-Spalte hergestellt, die den Treffer geliefert hat (im Merkmalsvektor ist die Houghcore-Spalte unter der Bezeichnung MVKS abgelegt). In Abhängigkeit des Houghcore-Typs und der Bildrotation können Berechnungsvorschriften für drei verschiedene Fälle angegeben werden. Für einen Houghcore vom Typ 1 wird jeweils für das nichtrotierte und das rotierte Ausgangsbild auf Formel (B17) zurückgegriffen. Liegt ein Houghcore vom Typ 2 vor muss in Abhängigkeit der Bildrotation auf Formel (B18) bzw. Formel (B19) zurückgegriffen werden.
(MVKS
MV., --MV. + floor
( 131 7)
MV = Bildb
(B18)
(B19)
Mit der Anweisung floor wird die gebrochen rationale Zahl abgerundet. Im FPGA entspricht das dem einfachen Abschneiden der binären Nachkommastellen. Nachdem die Orientierung bestimmt und die Koordinaten des Hough-Features korrigiert wurden, kann die eigentliche Merkmalsextraktion erfolgen.
Zur Merkmalsextraktion werden drei Schwellwerte in Kombination mit einem non- maximumsuppression Operator genutzt. Der non-maximum-suppression Operator unterscheidet sich bei Geraden und Halbkreisen. Über die Schwellwerte wird eine minimale MVKS und maximale Krümmungsstärke MVKS^ vorgegeben und eine minimale Häufigkeit MVH festgelegt. Der non-maximum-suppression Operator kann als lokaler Operator der Größe 3x3 betrachtet werden (s. Fig. 9h). Ein gültiges Merkmal für Halbkreise (bzw. Krümmungen) entsteht immer genau dann, wenn die Bedingung des nms-Operators in (B23) erfüllt ist und die Sehwell werte gemäß Formeln (B20) bis (B22) überschritten werden.
(B20)
( B2 1 )
MV" > MVH
(B22)
MV nms\ A MV n"msl Λ Μ¥ n"msi MV n"ms2 MV nHms2 MV nmsi,\ MV n"s^ 2 MV n"msy^ MV n"ms2 2
(B23) Durch die non-maximum-suppression werden Hough-Features unterdrückt, die keine lokalen Maxima im Häufigkeitsraum der Merkmalsvektoren darstellen. Auf diese Weise werden Hough- Features unterdrückt, die keinen Beitrag zur gesuchten Struktur liefern und für die Nachverarbeitung irrelevant sind. Die Merkmalsextraktion wird nur noch über drei Schwellen parametrisiert, die im Vorfeld sinnvoll eingestellt werden können. Eine detail- lierte Erläuterung der Schwellwerte ist nachfolgender Tabelle zu entnehmen.
Detaillierte Beschreibung der drei Schwellwerte zur Extraktion von Hough-Features aus dem Houghraum. Im Vergleich zum Verfahren nach Katzmann sind Parameter mit ähnlicher Funktion angegeben.
Für Geraden kann ebenfalls ein non-maximum-suppression Operator der Größe 3x3 (s. Fig. 9h) hergeleitet werden. Dabei sind einige Besonderheiten zu beachten. Anders als bei den Krümmungen werden die gesuchten Strukturen bei den Geradenabschnitten nicht auf ein entstehen fortlaufend mehrere Maxima entlang des binären Kantenverlaufes. Die non- maximumsuppression kann somit an das Verfahren im Canny- Kantendetektionsalgorithmus angelehnt werden. Je nach Houghcore-Typ und detektiertem Winkelbereich können drei Fälle unterschieden werden (s. Fig. 9i in Kombination mit obiger Tabelle). Die Fallunterscheidung gilt sowohl für rotierte als auch nicht rotierte Ausgangsbilder, da die Rücktransformation rotiertet" Koordinaten erst nach der non-maximum- suppression erfolgt. Welcher nms-Operator zu verwenden ist hängt neben dem Houghcore- Typ auch vom Winkelbereich ab. Der Winkelbereich, den ein Houghcore mit Konfigurationen für Geraden liefert wird durch die Winkclbereichshalbierende geteilt. Die Winkelbereichshalbierende kann als Houghcore-Spalte (dezimal gebrochen) angegeben werden ( MVKS/ r ). Den mathematischen Zusammenhang in Abhängigkeit der Houghcore-Größe beschreibt Formel (B24). In welchem Winkelbereich das Hough-Feature liegt richtet sich
nach der Houghcore- Spalte, die den Treffer geliefert hat (MVKS), welche direkt mit der Winkelbereichshalbierenden Houghcore-Spalte verglichen werden kann. π
MVKK - tan Houghcorel
z j 180
(B24)
Hat man sich für einen Operator entschieden kann ähnlich der non-maximum-suppression für Krümmungen die Bedingung über den jeweiligen nms-Oprator abgefragt werden (For- mein (B25) bis (B27)). Sind alle Bedingungen erfüllt und werden zusätzlich die Schwellwerte gemäß den Formeln (B20) bis (B22) überschritten, kann das Hough-Feature an Position nms2,2 übernommen werden.
Entscheidung für einen nms-Operator in Abhängigkeit des Houghcore-Typs und des Win- kelbereichs, in dem der Treffer aufgetreten ist.
(MVH > MVH )A (MV" > MV
(B25)
(MV" > MVH, )Λ [MVH > MV'
(B26) (MV" > MV" )A (MVH > MV
(B27) Den Abschluss der Merkmalsextraktion bildet die Rückrotation der x- und y-Koordinaten rotierter Hough-Features. Für die Nachverarbeitung sollten diese wieder im Bildkoordinatensystem vorliegen. Die R ück t an s orm at i on ist unabhängig vom Kurventyp (egal ob Geraden oder Krümmungen) immer dann auszuführen, wenn das rotierte Ausgangsbild verarbeitet wird. In den Formeln (B28) und (B29) ist der mathematische Zusammenhang be- schrieben. Mit Bildbreite ist die Breite des nicht rotierten Ausgangsbildes gemeint.
MV = MV
(B28)
MV = Bildbreite - MV v
(B29)
Mit Hilfe der Merkmalsextraktion ist es möglich die Ergebnisdaten der parallelen Hough- Transformation bis auf wenige Punkte zu reduzieren. Diese können dann als Merkmalsvektor an die Nachverarbeitung übergeben werden.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.