-
Die Erfindung betrifft die Blendung einer Person durch eine Lichtquelle, wobei die Lichtquelle in einem Innenraum eines Fahrzeuges angeordnet ist.
-
Aus der
DE 10 2016 006 703 A1 ist ein Projektor zur Erzeugung einer Lichtprojektion in einem Innenraum eines Flugzeuges als Fahrzeug, insbesondere in der Passagierkabine als Innenraum, bekannt. In der Praxis soll vermieden werden, dass Personen, z.B. Passagiere in einem entsprechenden Flugzeug, durch Licht, welches der Projektor ausstrahlt, geblendet werden.
-
Aus der
DE 10 2015 215 371 A1 ist ein Fahrzeugbeleuchtungssteuersystem bekannt, das eine tragbare Brille verwendet, und ein Verfahren zum Steuern desselben, und ein Fahrzeugbeleuchtungssteuersystem, das eine tragbare Brille verwendet und durch automatisches Einstellen einer Lampenhelligkeit in dem Fahrzeug in Abhängigkeit von Tag und Nacht eine optimierte Fahrzeuginnenumgebung für einen Fahrer bereitstellt.
-
Aus der
DE 10 2013 223 145 A1 ist ein Fahrzeug mit einer Vorrichtung und einem Verfahren zur Beleuchtung eines Innenraums des Fahrzeugs bekannt.
-
Aus der
DE 10 2006 030 300 C5 ist ein Kraftfahrzeug umfassend mehrere im Innenraum verteilt angeordnete Leuchteinrichtungen enthaltend wenigstens ein Leuchtmittel zur Beleuchtung des Fahrzeuginnenraums bekannt.
-
Aus der
DE 10 2008 006 973 B4 ist eine Lichtblockierung bekannt und die Blockierung von Licht, das mit einer bestimmten Wellenlänge entsprechend einer bestimmten Farbe oder einem Farbbereich erzeugt wird, der für einen Fahrer im normalen Betrieb ablenkend oder störend ist, indem ein preiswerter Aufbau verwendet wird, wobei die Blockierung von Licht in einem Wellenlängenbereich vermieden wird, der für das menschliche Sehvermögen wichtig ist.
-
Aus der
DE 10 2006 015 332 A1 ist ein Gastservice-System für Fahrzeugnutzer bekannt, um den Nutzer bei der Benutzung des Fahrzeugs zu unterstützen und um den Nutzer in mindestens einem der folgenden Fälle zu unterhalten (zu bedienen): bei der Annäherung des Nutzers an das Fahrzeug, beim Einstieg des Nutzers in das Fahrzeug, beim Fahren des Fahrzeugs durch den Nutzer, beim Ausstieg des Nutzers aus dem Fahrzeug und bei der Sichentfernung des Nutzers vom Fahrzeug.
-
Aufgabe der Erfindung ist es daher, die Situation mit derartigen Lichtquellen zu verbessern.
-
Die Aufgabe der Erfindung wird gelöst durch ein Verfahren gemäß Patentanspruch 1. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung sowie anderer Erfindungskategorien ergeben sich aus den weiteren Ansprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.
-
Das Verfahren dient zur Vermeidung einer Blendung einer Person durch eine Lichtquelle. Die Lichtquelle ist in einem Innenraum eines Fahrzeuges angeordnet, wobei die Lichtquelle im Betrieb Licht innerhalb eines Strahlkegels abstrahlt. Bei dem Verfahren wird eine Kamera im Innenraum angeordnet und so ausgerichtet, dass zumindest ein Überwachungsabschnitt, also ein Teil, des Strahlkegels, in den die bzw. eine Person eintreten kann bzw. könnte, im Blickfeld der Kamera liegt.
-
Die Kamera nimmt dann ein Kamerabild auf. Aus dem Kamerabild wird dann vermittels maschineller Personenerkennung ermittelt, ob sich zumindest ein Teil der Person im Strahlkegel bzw. im Überwachungsabschnitt befindet. Für den Fall, dass sich zumindest der Teil der Person im Strahlkegel bzw. Überwachungsabschnitt befindet, wird zumindest derjenige Bereich des Strahlkegels, in dem sich der Teil der Person befindet, blendfrei geschaltet.
-
Das Verfahren bezieht sich auf Personen, die sich im Innenraum des Fahrzeuges befinden und potentiell in den Strahlkegel eintreten können und somit Gefahr laufen, von der Lichtquelle geblendet zu werden. Die Lichtquelle ist insbesondere ein Projektor. Die Lichtquelle ist insbesondere im Innenraum montiert.
-
Der Strahlkegel beschreibt den Raumbereich, in dem die Lichtquelle potentiell Licht abstrahlen kann. Je nach Lichtquelle und Betriebszustand findet dann eine eventuelle tatsächliche Abstrahlung von Licht ganz oder teilweise innerhalb des Strahlkegels statt. Ein „Kegel“ ist hierbei im weiten mathematischen Sinne als Körper mit einer beliebig geformten Grundfläche zu verstehen, der Kegel weist dabei insbesondere eine rechteckige Grundfläche auf, die dem auf einer Zielfläche dargestellten maximalen Bildinhalt eines Projektors als Lichtquelle entspricht.
-
Dank des Verfahrens gelingt es, mit Hilfe maschineller Personenerkennung zu erkennen, ob sich eine Person im Strahlkegel der Lichtquelle befindet und somit bei Normalbetrieb der Lichtquelle geblendet würde. Die tatsächliche Blendung wird dann jedoch vermieden, indem der Strahlkegel entsprechend zumindest am Ort der Person, zumindest dessen Kopfes, zumindest dessen Augen, blendfrei geschaltet wird.
-
„Blendfrei schalten“ bedeutet, dass das Licht der Lichtquelle in seiner Intensität auf ein Maximum begrenzt wird, das von der Person nicht mehr als „Blendung“ empfunden wird. Dabei kann z.B. von einem durchschnittlichen Empfinden ausgegangen werden. Ein entsprechend reduziertes Helligkeitsmaß kann dabei je nach Eigenschaften der Lichtquelle, Einbausituation, bestimmungsgemäß minimalem Abstand eventueller Personen zu Lichtquelle usw. individuell ermittelt werden, zum Beispiel durch Versuche, Abschätzungen etc. Die Lichtintensität kann dabei z.B. im Bereich von kleiner 3, höchstens 4, höchstens 5, höchstens 6 oder höchstens 7 oder höchstens 8 oder höchstens 9 der De-Boer-Skala gewählt werden (siehe unter anderem: „Blendung - Theoretischer Hintergrund, Informationen des Instituts für Arbeitsschutz der DGUV“, IFA Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung, Mai 2010, Seite 9, Tabelle 1, abgerufen von „https://www.dguv.de/ medien/ ifa/ de/ fac/ strahl/ pdf/ blendung_theorie.pdf“ am 30.10.2018)
-
In einer bevorzugten Ausführungsform wird der gesamte Strahlkegel blendfrei geschaltet, wenn sich zumindest ein Teil der Person im Strahlkegel befindet. Dies ist besonders einfach, da der Strahlkegel als Ganzes bzw. die Lichtquelle für den gesamten Strahlkegel blendfrei wird. Ein selektiver Betrieb bzw. ein selektives Abschalten oder Abblenden der Lichtquelle für bestimmte Teile des Strahlkegels ist damit vermieden.
-
In einer bevorzugten Ausführungsform wird der Bereich des Strahlkegels dadurch blendfrei geschaltet, dass die Lichtquelle nur für den betreffenden Bereich blendfrei geschaltet oder ausgeschaltet wird. Der Bereich ist dann derjenige der Person, also z.B. deren Umriss, deren Kopf oder deren Augen. Die Helligkeit der Lichtquelle wird also lokal dort auf ein blendfreies Maß reduziert oder auf Null gesetzt. Eine entsprechende Blendfrei-Schaltung der Lichtquelle kann besonders einfach durchgeführt werden.
-
In einer bevorzugten Ausführungsform wird der Strahlkegel auf eine Zielfläche des Innenraums gerichtet, und die Kamera wird so ausgerichtet, dass zumindest ein Teilbereich der Zielfläche im Blickfeld der Kamera liegt. An der Zielfläche endet der Strahlkegel der Lichtquelle. In der Praxis sind viele Situationen denkbar, bei denen sich Personen bestimmungsgemäß potentiell eher im Bereich der Zielfläche als im Bereich der Lichtquelle aufhalten können und dabei blendgefährdet sind. Derartige Situationen können mit der vorliegenden Ausführungsform besonders effizient bewältigt werden.
-
Die Zielfläche ist insbesondere ein Gepäckfach (Bin) in einer Passagierkabine eines Flugzeuges. Dieses befindet sich in der Regel auf Kopfhöhe von erwachsenen Personen durchschnittlicher Größe. Die Blendgefahr ist daher hier besonders gegeben.
-
In einer bevorzugten Variante dieser Ausführungsform wird der von der Kamera erfasste Teilbereich der Zielfläche beim maschinellen Sehen nicht berücksichtigt. Insbesondere wird in einer weiteren Variante nicht der ganze, sondern nur ein Teilbereich der Zielfläche nicht berücksichtigt, und zwar ein solcher mit Personen und/oder Bewegungen als Teil des auf der Zielfläche von der Lichtquelle, insbesondere einem Projektor, dargestellten Bildinhaltes. Somit wird generell - oder in der Variante zielgerichtet - vermieden, dass Personen und/oder Bewegungen, die Teil des von der Lichtquelle erzeugten Bildinhalts sind, eben nicht fälschlicherweise als blendgefährdete Teile von Personen erkannt werden. Insbesondere kann hierbei die gesamte von der Lichtquelle bestrahlte Zielfläche beim maschinellen Sehen nicht berücksichtigt werden. Dies ist besonders einfach zu bewerkstelligen.
-
Alternativ werden nur diejenigen Teile der Zielfläche, auf denen entsprechende Bildinhalte dargestellt sind, vom maschinellen Sehen ausgeschlossen. Damit können aber weiterhin reale Personen detektiert werden, die sich im Strahlkegel der Lichtquelle befinden. Insbesondere wird also hier der auf der Zielfläche durch die Lichtquelle dargestellte Teil einer Person als Teil des Bildinhalts erkannt und der Strahlkegel in diesem Fall nicht blendfrei geschaltet.
-
In einer bevorzugten Ausführungsform wird die Kamera so ausgerichtet, dass auch eine (an den Strahlkegel anschließende) Umgebung des Strahlkegels im Blickfeld der Kamera liegt. Somit können Personen auch bereits detektiert werden, wenn sich diese dem Strahlkegel nähern. So kann der Strahlkegel bereits vorsorglich blind freigeschaltet werden, bevor die Person in diesen Eintritt. Eine Blendung kann somit jederzeit verhindert werden. Auch kann so eine in den Strahlkegel eintretende Person in diesen hinein extrapoliert werden, wenn die Zielfläche (z.B. wegen wiedergegebener Bildinhalte usw., siehe oben) von der Personendetektion ausgeschlossen ist.
-
In einer bevorzugten Ausführungsform wird die Kamera neben der Lichtquelle platziert. Diese Montageposition für eine Kamera ist besonders günstig, da so der Strahlkegel und/oder gegebenenfalls auch die Zielfläche bzw. der von der Lichtquelle beleuchtete Teil der Zielfläche vollständig oder möglichst vollständig durch die Kamera erfassbar ist.
-
In einer bevorzugten Ausführungsform wird im Rahmen der maschinellen Personenerkennung ein maschinelles Sehen und/oder eine Gesichtserkennung und/oder eine Texturerkennung und/oder eine Bewegungserkennung durchgeführt. Die entsprechenden Verfahren sind für die maschinelle Personenerkennung besonders geeignet.
-
Die Aufgabe wird auch gelöst durch eine Verwendung gemäß Anspruch 10 der maschinellen Personenerkennung in einem Verfahren nach einem der vorhergehenden Ansprüche. Die Verwendung und zumindest ein Teil deren Ausführungsformen sowie die jeweiligen Vorteile wurden sinngemäß bereits im Zusammenhang mit dem erfindungsgemäßen Verfahren erläutert.
-
Die Erfindung beruht auf folgenden Erkenntnissen, Beobachtungen bzw. Überlegungen und weist noch die nachfolgenden Ausführungsformen auf. Die Ausführungsformen werden dabei teils vereinfachend auch „die Erfindung“ genannt. Die Ausführungsformen können hierbei auch Teile oder Kombinationen der oben genannten Ausführungsformen enthalten oder diesen entsprechen und/oder gegebenenfalls auch bisher nicht erwähnte Ausführungsformen einschließen.
-
Die Erfindung beruht auf der Idee, Lichtquellen (Projektoren) in der Flugzeugkabine zu integrieren, um Licht (Bilder) an eine Zielfläche (die Oberflächen von z.B. Gepäckfächern oder Monumenten) zu projizieren. In vielen Integrationsszenarien lässt es dabei nicht vermeiden, dass sich Passagiere in dem Lichtstrahl des Projektors bewegen und so potentiell geblendet werden können (Line Of Sight Situation). Um diese Integrationsszenarien trotzdem nutzen zu können ohne den Passagier negativ zu beeinflussen, schlägt die Erfindung ein Verfahren vor, welches den Lichtstrahl situationsbedingt abschaltet oder abblendet, wenn ein Passagier in den Blend-Bereich eindringt. Unter „Abblenden“ kann hierbei insbesondere auch verstanden werden, den Lichtstrahl nur bei einer Gesichtserkennung lokal im Bereich des Gesichts abzuschalten.
-
Die Erfindung beruht auf der Überlegung, dass diese über ein reines Vermeiden der Blend-Situation, d.h. durch entsprechende Integration der Projektoren, hinausgehen sollte.
-
Die Erfindung beruht auf der Idee, die Aufgabe durch den Einsatz von maschinellem Sehen zu lösen. Dazu wird zusätzlich zum System Projektor-Zielfläche eine Kamera installiert, welche den Bereich des projizierten Bildes und dessen nähere Umgebung erfassen kann. Anhand verschiedener Verfahren wie z.B. Gesichtserkennung, Texturerkennung oder Bewegungserkennung wird dabei ermittelt, ob sich eine Person im blendungsgefährdeten Bereich (insbesondere im Strahlkegel) befindet. Daraufhin kann je nach Verfahren die gesamte Lichtquelle deaktiviert oder der relevante Bildbereich ausgeblendet werden, welcher eine Blendung verursachen würde. Dabei kann auch berücksichtigt werden, dass Personen oder Bewegungen, welche im projizierten Bildinhalt existieren, nicht fälschlicherweise als Blend-Situation erkannt werden und zur Abschaltung der Lichtquelle führen.
-
Der Vorteil des Verfahrens liegt darin, dass mit dem beschriebenen Verfahren auch Zielflächen bzw. Projektionsflächen bzw. Integrationsszenarien (im Allgemeinen Beleuchtungssituationen) genutzt werden können, die sonst zu einer Blendung der Passagiere führen würden.
-
Die Erfindung weist zwei Kernaspekte auf: Erstens Verwendung von Computer Vision zur Vermeidung von Blendung bei Projektions- bzw. Lichtsystemen in der Flugzeugkabine. Zweitens Vermeidung von Fehldetektionen, welche durch menschenähnliche Elemente im projizierten Bildinhalt entstehen könnten.
-
Gemäß der Erfindung wurde im Bereich der Projektionssystem-Steuerung eine Funktionalität entwickelt, um per Kamera zu erkennen, ob eine Person durch den Projektor geblendet wird. Im Falle einer Blendung soll dann der Projektor deaktiviert oder der entsprechende Bereich im Bild ausgeblendet werden. Die Erfindung beschreibt damit eine Kamera-geregelte Vermeidung von Personenblendung.
-
Gemäß der Erfindung ergibt sich die Vermeidung von Passagierblendung durch maschinelle Personenerkennung. Eine mögliche Blendung der Passagiere durch Projektoren/Lichtquellen in der Flugzeugkabine wird durch maschinelle Personenerkennung, insbesondere durch maschinelles Sehen (Computer Vision) vermieden bzw. verringert.
-
Weitere Merkmale, Wirkungen und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie der beigefügten Figuren. Dabei zeigen, jeweils in einer schematischen Prinzipskizze:
- 1 Faltungsmasken gemäß Stand der Technik (Viola & Jones, 2001),
- 2 eine Kaskade der Klassifizierer gemäß Stand der Technik (Viola & Jones, 2001),
- 3 ein Schema eines Versuchsaufbaus gemäß der Erfindung,
- 4 eine räumliche Ansicht des Versuchsaufbaus auf 1,
- 5 eine Darstellung von Matches,
- 6 ein Differenzbild in Projektion,
- 7 ein Differenzbild um Projektion,
- 8 ein Merkmalsbild,
- 9 ein Strukturbild,
- 10 eine Gesichtserkennung.
-
Gemäß der Erfindung erkennt ein System, wenn sich eine Person zwischen einem Projektor und der von diesem Projektor projizierten Fläche befindet. Dies ist zielführend, wenn man vermeiden möchte, dass die Person unangenehm geblendet wird. Daher wird das Ziel verfolgt, in einem solchen Fall den Projektor auszuschalten beziehungsweise in einer weiteren Version die Bereiche des Projektors auszuschalten, in denen sich die Person befindet.
-
Dabei werden mehrere Ansätze verfolgt, welche jeweils unterschiedlich den Bedingungen in der Flugzeugkabine gerecht werden, denn durch Erschütterungen und Helligkeitsänderungen gibt es viele Einschränkungen in der Bildverarbeitung.
-
Zunächst werden die theoretischen Grundlagen der Bildverarbeitung zu den verschiedenen Ansätzen vermittelt. Anschließend wird ein Versuchsaufbau mit verwendeten Komponenten und Software beschrieben. Darauf aufbauend werden fünf Ansätze „Detektieren in der Projektion“, „Detektieren um die Projektion“ mit Differenzbild, Merkmals- und Strukturerkennung und „Detektieren mittels Gesichtserkennung“ erläutert. Abschließend werden die Ergebnisse der einzelnen Ansätze evaluiert.
-
Grundlagen:
-
Merkmalserkennung:
-
Ziel der Merkmalserkennung ist es, ein gegebenes Bildmerkmal in einem anderen Bild wiederzufinden. Dabei sollte das Wiederfinden unabhängig von Translation, Rotation und Skalierung sein. Daher werden Interessenpunkten in beiden Bildern gesucht und miteinander verglichen, sodass ein Wiederfinden möglich ist.
-
KAZE:
-
KAZE ist ein von Pablo F. Alcantarilla, Jesus Nuevo und Adrien Bartoli entwickelter Algorithmus zur Merkmalserkennung. Dieser nutzt zum Detektieren der Interessenpunkte die Hesse-Matrix. Dabei wird nach Positionen gesucht, an denen die Determinante der Hesse-Matrix ein lokales Maximum erreicht. Diese Punkte sind grundsätzlich interessant, da sie ausreichend Struktur enthalten, damit sie im Vergleichsbild wiedergefunden werden. Weiterhin wird ein Skalenraum erzeugt, um eine Skalierungsinvarianz zu ermöglichen. Skalenraum bedeutet, dass das Ausgangsbild mehrfach mit unterschiedlichen Filtergrößen gefiltert wird und somit das Bild in mehreren Skalierungen vorhanden ist. Damit ein Wiederfinden im Vergleichsbild gewährleistet ist, benötigt man eine Beschreibung dieser Interessenpunkte. Dies geschieht mit einem 64-dimensionalen Merkmalsvektor, der sich aus Helligkeits- und Gradienteninformationen zusammensetzt und invariant gegenüber Skalierung, Drehung und Verschiebung ist. Nun wird mittels Suchalgorithmus eine Korrespondenz zwischen Ausgangs- und Vergleichsbild hergestellt. (Alcantarilla, Nuevo, & Bartoli, 2012).
-
Ransac:
-
Um Fehlzuordnungen zu minimieren, wird das RANSAC-Verfahren angewendet. Dabei wählt man aus allen Zuordnungen eine zufällige Untermenge aus und bestimmt die Anzahl der Zuordnungen, die zu dieser Lösung passen. Hat man eine Untermenge gefunden, die keine Ausreißer enthält, ist diese Menge besonders groß. (Kunz, Bildverarbeitung SS 2016 Kapitel 20, 2016)
-
Differenzbild:
-
Beim Differenzbild findet eine pixelweise Subtraktion von zwei Bildern miteinander statt. Dazu sind Grauwertbilder nötig.
mit g1 (x,y), g2(x,y) = Eingangsbild und g'(x,y) = Ausgangsbild.
-
Mit dieser Methode ist es möglich, die Unterschiede zwischen zwei Bildern herauszufinden. Da Bewegung in der Bildverarbeitung eine Änderung der Grauwerte ist, kann mit diesem Verfahren auch Bewegung erkannt werden. Nimmt man also für g1 (x,y) das Bild mit der Person und für g2(x,y) ein Bild ohne die Person bedeutet dies, dass alle Pixelwerte ungleich Null eine Veränderung aufweisen (Erhardt, 2008). Setzt man nun noch einen Schwellwert und binarisiert das neu erzeugte Ausgangsbild hat man eine Schwarz-Weiß-Maske die nur die Veränderungen wiedergibt.
-
Da eine Veränderung der Helligkeit sowie Bewegung der Kamera auch eine Veränderung des Grauwertes bedeutet, ist dieses Verfahren nicht robust gegen Helligkeitsänderungen und Bewegungen der Kamera.
-
Mixture of Gaussian:
-
Um Veränderungen im Hintergrundbild und Erschütterungen entgegen zu wirken, kann man das Hintergrundmodell lernfähig machen. OpenCV stellt dafür das erweiterte Differenzbildverfahren „Mixture of Gaussian“ (MOG) zur Verfügung. Es basiert auf dem Paper von Chris Stauffer und W.E.L Grimson (Chris Stauffer, 1999). Dieses Verfahren eignet sich sehr gut bei ständigen Veränderungen des Hintergrundes durch Helligkeitsänderungen oder Bewegungen, wie beispielsweise bei Aufnahmen von Bäumen die im Wind wehen oder Wellenbewegungen im Meer.
-
Bei diesem Verfahren wird die Häufigkeit der Werte jedes einzelnen Pixels aus den vorangegangenen Bildern bei der Berechnung eines Hintergrundmodells mit einbezogen. Diese bereits aufgenommenen Werte werden als normalverteilte Zufallsvariable betrachtet und als Gaußverteilung dargestellt. Dabei bekommen die unterschiedlichen Werte eines Pixels verschiedene Gaußverteilungen. Die Wahrscheinlichkeit, ob ein Pixel beobachtet werden soll, berechnet sich mit:
-
Dabei ist K die Anzahl der Verteilungen, ωi, die Gewichtung und η(X , µi,t , Σi,t) die Gaußsche Wahrscheinlichkeitsdichtefunktion. Neue Pixelwerte werden nun permanent mit den Gaußverteilungen verglichen bis ein Treffer gefunden wurde. Ein Treffer ist als Pixelwert innerhalb der Standardabweichung von 2,5 definiert. Wird kein Treffer gefunden, wird die am geringsten passende Verteilung mit der aktuellen Verteilung ersetzt und die Gewichtung angepasst. Somit können Veränderungen, wie Licht oder Erschütterungen, in das Hintergrundmodell eingerechnet werden.
-
Um zu klassifizieren, ob ein Pixel zum Vorder- oder Hintergrundbild gehört, werden die Gaußverteilungen nach ihrer Wahrscheinlichkeit sortiert. Die Verteilungen mit hoher Wahrscheinlichkeit, die sich über einem Schwellwert befinden, werden als Hintergrund angesehen und die darunter liegenden als Vordergrund.
-
Bildtexturen:
-
Als Grundlage zum Erkennen von Strukturen eignet sich „Laws Texture Energy Measurement“ (Laws, 1980). Es wurde entwickelt mit dem Ziel die Struktur in Bildern zu analysieren und anzugeben, wie viel Energie diese enthält. Dabei wird das Bild mit einer 5x5 Faltungsmaske gefaltet um Strukturen hervorzuheben. Für die Faltung eines Bildes verwendet man die folgende Faltungsformel:
-
Konkret betrachtet bedeutet eine Faltung, dass im Eingangsbild mit einer Faltungsmaske jeder Punkt k, angefahren wird. An jedem Punkt innerhalb der Maske wird das Produkt gebildet, dieses wird aufsummiert und anschließend im Ausgangsbild an die Stelle k, geschrieben.
-
Die bei Law verwendete Faltungsmaske errechnet sich aus unterschiedlichen Vektoren die sich jeweils für entsprechende Bildinhalte kombinieren lassen.
-
Der L5 Vektor errechnet den lokalen Mittelwert, E5 erkennt Kanten, S5 Punkte und R5 eignet sich für wellige Strukturen. Bildet man nun das Produkt aus zwei dieser Vektoren, erhält man eine zweidimensionale Faltungsmaske die ein Ausgangsbild entsprechend der jeweiligen Vektoreigenschaften faltet und man erhält nach anschließender Binarisierung ein Binärbild, welches nur die Strukturen im Bild aufzeigt.
-
Gesichtserkennung:
-
Bei der Gesichtserkennung (engl. face detection) werden digitale Bilder auf unterschiedliche Merkmale analysiert um Gesichter zu erkennen. Eines der gängigsten Verfahren ist die OpenCV Implementierung basierend auf einer Mustererkennung mit Trainingsdaten die in dem von Paul Viola und Michael Jones veröffentlichtem Paper „Rapid Object Detection using a Boosted Cascade of Simple Features“ beschrieben wird (Viola & Jones, 2001). Dieser Algorithmus ermöglicht eine schnelle Berechnung mit einer geringen Fehlerrate, sodass auch eine robuste Erkennung in nahezu Echtzeit möglich ist.
-
Bei der Mustererkennung für Gesichter nach Viola und Jones müssen zunächst Trainingsdaten erzeugt werden. Dabei werden sowohl positive Bilder, also Bilder die Gesichter zeigen, als auch negative Bilder, Bilder ohne Gesichter, verwendet. Zur Analyse wird eine Faltung mit Haar-Wavelets mit unterschiedlichen Skalierungen durchgeführt (Faltung siehe 0 Bildtexturen). Haar-Wavelets sind einfache Faltungsmasken die aus Rechteckfunktionen gebildet werden, siehe in 1 Faltungsmasken 40a,b (Viola & Jones, 2001) bei der Anwendung auf eine Abbildung einer Person 10. Bei der Faltung wird die Summe der schwarzen Rechtecke von der Summe der weißen Rechtecke in einen 24x24 Pixel großen Ausschnitt subtrahiert. Zur Optimierung dieses Vorgangs werden die Berechnungen mit einem Integralbild durchgeführt. Bei einem Integralbild werden die einzelnen Pixelwerte aufsummiert. Dadurch ist es möglich, die Summe der einzelnen Ausschnitte mit nur vier Rechenoperationen zu erhalten. Um aus der Vielzahl an errechneten Werten nur die Brauchbaren zu finden, verwenden Viola und Jones für das maschinelle Lernen den Adaboost Algorithmus. Dabei werden aus positiven und negativen Bildern und den darin errechneten Features Klassifizierer erstellt. In dem erweiterten adaptiven Verfahren werden weiterhin einfache Klassifizierer zu einem kombiniert.
-
Mit Hilfe der erzeugten Trainingsdaten können nun Gesichter detektiert werden. Dafür durchläuft der Bildausschnitt eine Kaskade von Klassifizierern (engl. Cascade of Classifiers) die anhand der errechneten Merkmalsdaten entscheiden, ob es sich um ein negatives („F“) oder positives Bild („T“) handelt. 2 zeigt eine Kaskade („1“, „2“, „3“) der Klassifizierer (Viola & Jones, 2001) mit Schritt A „All Sub-Windows“, Schritt B „Further Processing“ und Schritt C „Reject Sub-Window“.
-
Versuchsaufbau:
-
Entwicklungsumgebung:
-
Zur Implementierung des Systems wird die Programmiersprache C++ in der Entwicklungsumgebung Eclipse eingesetzt. Die Umsetzung der Bildverarbeitung wird durch das Framework OpenCV realisiert. Als Grundlage für das AKAZE- und Differenzbildverfahren dienen Tutorials aus der Dokumentation von OpenCV. (Alcantarilla, Nuevo, & Bartoli, 2012) (How to Use Background Subtraction Methods, 2017).
-
Aufbau:
-
Zum Testen des Systems wird ein Versuchsaufbau gemäß 3 (Prinzipbild) und 4 (Ansicht) verwendet. Diese enthält eine Zielfläche 2, hier einer Projektionsfläche auf einem Bin (Gepäckfach) bzw. Panel in einem Innenraum 20, hier einer Passagierkabine, eines Fahrzeugs 22, hier eines Flugzeuges. Der Aufbau enthält auch eine Kamera 4 in Form einer Webcam, eine Lichtquelle 6 in Form eines Projektors und einen Rechner 8, hier ein Notebook. Die Kamera 4 ist neben der Lichtquelle 6 bzw. dem Projektor platziert. Der Projektor erzeugt Licht 24 innerhalb eines Strahlkegels 26 und damit das (auf der Zielfläche 2 projizierte) Bild 14b. Dieses weist einen bestimmten Bildinhalt 15, hier eine Landschaft mit Himmel, auf. Die Kamera 4 erfasst das erzeugte Bild 14b (bzw. den gesamten auf die Zielfläche 2 treffenden Strahlkegel 26) und eine Umgebung 17, d.h. einen zusätzlichen größeren Auswertebereich. Die Kamera 4 erfasst damit mit ihrem Blickfeld 30 einen Überwachungsabschnitt 28 des Strahlkegels 26. Die Kamera 4 nimmt dazu ein Kamerabild 32 auf.
-
Der Rechner 8 steuert den Projektor und erzeugt das Videosignal und wertet das Kamerabild 32 vermittels maschineller Personenerkennung dahingehend aus, ob sich eine Person 10 oder ein Teil dieser im Strahlkegel 26 befindet. Testgeräte sind der LED-Projektor Optoma ML750ST und die Webcam Logitech C920. Diese werden mit Hilfe von zwei Stativen auf die Höhe eines Bins (Zielfläche 2) in einer Testanordnung gebracht und auf diesen ausgerichtet. Dabei ist zu beachten, dass der Autofokus der Kamera deaktiviert wird. Während der Entwicklungsphase werden Videos zum Testen aufgezeichnet. Dabei läuft (angedeutet durch den Pfeil 12) eine Person 10 durch die Projektion und währenddessen wird der Projektor 6 aus- und wieder eingeschaltet (ganz oder lokal) bzw. blendfrei geschaltet. Beim Testen des Systems wird der Projektor 6 als erweiterter Bildschirm und die Webcam 4 an einen Laptop (Rechner 8) angeschlossen, auf dem der Programmcode ausgeführt wird. Dabei wird das von OpenCV erzeugte Fenster für die Inhalte, die auf dem Projektor 6 dargestellt werden sollen, im Vollbildmodus auf dem erweiterten Bildschirm geöffnet.
-
Bei Erkennung eines Teils der Person 10 im Strahlkegel 26 wird dessen Bereich 18, in dem sich der Teil der Person 10 befindet, blendfrei geschaltet, hier ausgeschaltet. Dabei wird im entsprechenden Bereich 18 anstelle des Bildes 14a „schwarzer“ Bildinhalt der Helligkeit Null wiedergegeben.
-
Lösungsansätze:
-
Ansatz 1: Detektieren innerhalb des projizierten Bildes
-
Hierbei soll das Erkennen einer Person in der Projektion stattfinden, also nicht wenn die Person im Kamerabild zu sehen ist, sondern beim Eintritt in die Projektion. Zum Auslösen der Erkennung sollen mit Hilfe des AKAZE Merkmalsdeskriptors und -detektors Übereinstimmungen zwischen dem projizierten Bild durch die Kamera und dem digital vorhandenen Bild gefunden werden. 5 zeigt das digital vorhandene Bild 14a und das projizierte Bild 14b, sowie anhand von Pfeilen übereinstimmende Merkmale 16 (angedeutet durch Kreise) des Bildinhalts 15, hier der Landschaft mit Himmel.
-
Um die AKAZE Methode einzusetzen, muss zu Beginn ein Schwellwert mit der Anzahl der Übereinstimmungen gesetzt werden. Tritt nun eine Person in die Projektion, fällt die Anzahl der übereinstimmenden Merkmale unter den Schwellwert und der Projektor wird ausgeschaltet. Da nun kein Bild zum Vergleichen vorhanden ist, wird mit Hilfe der Differenzbildmethode überprüft, ob sich die Person noch in der Projektion befindet. 6 zeigt ein Differenzbild in der Projektion. Da das Bild schwarz ist, wenn sich keine Person im Bild befindet, wird einfach der Mittelwert des Differenzbildes berechnet und wenn dieser steigt, findet Bewegung statt. Das Hintergrundbild zum Erzeugen des Differenzbildes wird direkt nach dem Starten der Anwendung bei abgeschaltetem Projektor erstellt. Da der Bildausschnitt der Webcam über die projizierte Fläche hinausgeht muss zusätzlich eine Maske erstellt werden, sodass nur die Projektion berücksichtigt wird und nicht der Bereich außerhalb. Diese Maske wird mit Hilfe des Rahmens 42 in 5 des AKAZE Merkmalsvergleichs erstellt. Verlässt die Person nun diesen Bereich, wird die Projektion wieder aktiviert und wieder der Merkmalsvergleichsmodus aktiviert.
-
Ansatz 2: Detektieren außerhalb des projizierten Bildes
-
Bei diesem Ansatz soll versucht werden die Person außerhalb der Projektion zu erkennen, um den Projektor zu deaktivieren. Das hat den Vorteil, dass die Analyse unabhängig vom projizierten Bildinhalt abläuft und somit auch das Abspielen von bewegten Bildinhalten möglich ist. Dies soll mit einem Differenzbild, einer Merkmalserkennung -wie in Ansatz 1- und einer Filterung des Bildes mittels Filterkernen nach „Laws Texture Energy Measurement“ umgesetzt werden. Damit der Bildinhalt ausgeblendet wird, muss -genau wie in Ansatz 1- zu Beginn eine Maske mittels Merkmalserkennung erstellt werden. In diesem Falle allerdings mit dem Ziel den projizierten Bildinhalt zu verdecken.
-
Differenzbild:
-
Zunächst muss das leere Hintergrundbild aufgezeichnet werden, das von dem aktuellen Kamerabild subtrahiert werden soll. Dies geschieht im Anschluss an das Erstellen der Maske. Da das „Mixture of Gaussian“-Verfahren angewendet wird, werden mehrere Bilder verwendet, wodurch man robuster gegen leichte Schwankungen im Bildinhalt ist.
-
Anschließend wird der Mittelwert des leeren Bildes berechnet, um einen Schwellwert für die Erkennung zu setzten. Nun wird dauerhaft der Mittelwert des Differenzbildes berechnet. Tritt nun eine Person in die Projektion, beziehungsweise in den Rahmen der Projektion, steigt der Mittelwert des gesamten Bildes über den Schwellwert und der Projektor wird deaktiviert. Daraus resultiert ein Differenzbild um die Projektion gemäß 7 (Differenzbildverfahren). In dieser Abbildung ist auch links und rechts neben der Projektion zu erkennen, dass durch Abschalten der Projektion die Helligkeit des Gesamtbildes verändert wird. Es wird versucht dies durch das Lernen des „Mixture of Gaussian“-Verfahren zu kompensieren, welches einfache Helligkeitsänderungen erkennen soll. Verlässt die Person das Bild, wird der Schwellwert unterschritten und der Projektor wieder aktiviert.
-
Die 7 bis 10 zeigen jeweils das gleiche Kamerabild 32, bewertet / bearbeitet durch verschiedene Verfahren. Die dargestellte Person 10 ist nicht Teil des Bildinhalts 15 des Bildes 14b, sondern befindet sich als tatsächliche Person 10 im Strahlkegel 26.
-
Merkmale:
-
Dieses Verfahren basiert auf der in Ansatz 1 verwendeten AKAZE Merkmalserkennung. Allerdings werden in diesem Fall die Merkmale außerhalb der Projektion gesucht. Auch hier wird zu Beginn ein Schwellwert im leeren Bild aus der Anzahl der Merkmale errechnet. Wenn jetzt eine Person in das Kamerabild tritt, ändert sich die Anzahl an Merkmalen. Zum einen werden Merkmale, die im leeren Bild gefunden wurden, verdeckt und zum anderen werden durch die Person mehr Merkmale erkannt.
-
Durch diese Veränderung der Merkmale gegenüber dem Schwellwert wird der Projektor deaktiviert. Dadurch, dass die Merkmalserkennung relativ robust gegenüber Helligkeitsveränderungen ist, nimmt die Schwankung der Helligkeit durch Abschalten des Projektors keinen großen Einfluss auf die Anzahl der Merkmale 16. Siehe hierzu das Merkmalsbild gemäß 8.
-
Struktur:
-
Bei der Strukturerkennung sollen mittels Faltung nach „Laws Texture Energy Measurement“ und anschließender Binarisierung nur die Strukturen im Bild hervorgehoben werden. Auch hier wird mit dem Bild ohne Person ein Mittelwert errechnet, der als Schwellwert dienen soll. Wird dieses Bild nun durch eine eintretende Person verändert, so wird durch Überschreiten des Schwellwertes der Projektor deaktiviert und beim Unterschreiten wieder aktiviert. Siehe das Strukturbild in 9 (Strukturbildverfahren).
-
Ansatz 3: Gesichtserkennung:
-
Mittels Gesichtserkennung soll die exakte Position der Person erkannt werden und somit, im Gegensatz zu den anderen Ansätzen nicht der gesamte Projektor deaktiviert werden, sondern nur der Bereich, in dem sich das Gesicht der Person befindet. Dies soll mit Hilfe des Algorithmus von Viola und Jones umgesetzt werden. Dabei wird ein Kaskade Klassifizierer mit Trainingsdaten basierend auf Haar Wavelets initialisiert. Dieser untersucht nun die Kamerabilder auf Gesichter. Wird ein Gesicht gefunden, wird dieses markiert und man erhält die Koordinaten der aktuellen Position.
-
Nun muss diese Position auf das projizierte Bild umgerechnet werden. Dazu benötigt man die Position der Projektion im Kamerabild. Diese wird zu Beginn mit einem projiziertem Testbild und der Merkmalserkennung berechnet, siehe 5. Mit der Position und Größe des Gesichtes, der Projektion und dem Verhältnis Projektionsbild zu Projektion im Kamerabild lassen sich nun die Koordinaten errechnen, an denen ein schwarzer Kreis erstellt werden soll.
-
//Position des Gesichtes
int FaceX = faces[i].x + faces[i].width*0.5;
int FaceY = faces[i].y + faces[i].height*0.5;
//Positionen Projektion
Point ProjectionLO = points[0][0];
Point ProjectionLU = points[0][3];
Point ProjectionRO = points[0][1];
Point ProjectionRU = points[0][2];
//Faktor für Skalierung des Kreises
float faktHori =(float)proje.cols/((float)ProjectionRO.x - (float)ProjectionLO.x);
float faktVert =(float)proje.rows/((float)ProjectionRU.y -(float) ProjectionRO.y);
//neue Koordinaten in Projektion
int FaceXnew = FaceX - ProjectionLO.x;
int FaceYnew = FaceY - ProjectionLO.y;
-
Mit diesen Koordinaten wird nun ein Kreis in dem projizierte Bild erstellt, dessen Position für jedes Einzelbild neu berechnet wird, um das Gesicht dauerhaft zu verfolgen und die Position in der Projektion zu aktualisieren. Das Ergebnis zeigt die Gesichtserkennung in 10.
-
Evaluation:
-
Beim Testen der unterschiedlichen Ansätze hat sich gezeigt, dass grundsätzlich das Ziel erfüllt wurde Personen in der Projektion zu erkennen, daraufhin den Projektor zu deaktivieren und schließlich wieder zu aktivieren, wenn die Person den Bereich verlässt. Bei der gewählten Merkmalserkennung, also bei dem Suchen von Merkmalen, dem Differenzbildverfahren, der Strukturerkennung, sowie bei der Gesichtserkennung, gibt es allerdings einige Einschränkungen.
-
Weiterhin wurde bei Tests festgestellt, dass durch Ein- und Ausschalten des Projektors die automatische Helligkeitsanpassung der Webcam sehr träge ist und im System berücksichtigt werden muss.
-
Ansatz 1: Detektieren innerhalb des projizierten Bildes:
-
Die AKAZE-Methode in der Projektion bietet nur mit großem Aufwand die Möglichkeit einen Merkmalsvergleich bei Bewegtbild durchzuführen, da bei jedem neuen Frame wieder ein neuer Schwellwert gesetzt werden und gleichzeigt überprüft werden müsste, ob sich eine Person in der Projektion befindet. Dies wäre ein enormer Rechenaufwand und ein permanenter Vergleich ist aufgrund von Latenz vermutlich schwierig. Weiterhin ist die AKAZE-Methode abhängig vom Bildinhalt. Die Merkmale werden mit Hilfe von im Bild vorhandenen Strukturen erzeugt. Hat man nun ein Bild mit wenig Struktur oder die Strukturen kommen nur in einem bestimmten Bereich vor, kann auch nur dort eine Erkennung stattfinden. Dieses Problem lässt sich anhand 5 erklären. Im Bild werden nur Übereinstimmungen im unteren Bildbereich (Landschaft) gefunden, nicht aber im oberen (Himmel). Ein großer Vorteil der AKAZE-Methode ist, dass sie invariant gegenüber Helligkeitsänderungen in der Flugzeugkabine ist.
-
Die Differenzbildmethode liefert grundsätzlich auch gute Ergebnisse. Allerdings ist diese Methode abhängig von Helligkeitsänderungen. Wenn sich also die Lichtverhältnisse in der Kabine gegenüber dem zu Beginn erzeugten Hintergrundbild ändern, funktioniert diese Methode nicht mehr. Allerdings ist dieses Hintergrundbild lernfähig und kann angepasst werden.
-
Ein Vorteil dieses Ansatzes ist, dass der Projektor erst bei Eintritt der Person in die Projektion deaktiviert wird.
-
Ansatz 2: Detektieren außerhalb des projizierten Bildes:
-
Auch beim Detektieren um das projizierte Bild wurde in allen drei Lösungsansätzen das Ziel erfüllt die Person nicht zu blenden. Weiterhin bietet dieser Ansatz die Möglichkeit mit geringem Aufwand Videos abzuspielen.
-
Differenzbild:
-
Die Lernrate ist zuverlässig und hat auch eine gute Reaktionszeit. Allerdings wird die Person im Stillstand mit in das Differenzbild kalkuliert und verschwindet somit. Dies wird versucht zu umgehen, indem die Lernrate zeitlich begrenzt wird, sowohl im eingeschalteten, als auch im ausgeschalteten Projektionsmodus. Dadurch ist ebenso das Problem gelöst, dass der Hintergrund zu „stark“ in das Hintergrundbild eingerechnet wird, wenn lange keine Person durch das Bild läuft, wodurch der Unterschied zwischen Hintergrund mit und ohne Person zu groß wäre und folglich der Projektor nicht wieder eingeschaltet wird. Weiterhin entstehen durch Schatten, die die Person wirft, als auch durch Helligkeitsänderungen beim Ein- und Ausschalten des Projektors, Einschränkungen, die das Differenzbild verfälschen. Auch Helligkeitsunterschiede bei den abgespielten Videoinhalten führen zu leichten Unterschieden im Kamerabild, die aber kompensiert werden können. Weiterhin führen starke Helligkeitsänderungen in der Flugzeugkabine zum Ausschalten des Projektors, da der Unterschied zum Differenzbild zu groß wird. Dieses Problem könnte entweder durch eine Verknüpfung von Licht- und Projektionssystem, damit das Projektionssystem im Falle einer Lichtänderung informiert werden kann, oder einer Anpassung des Lernalgorithmus, sodass dieser die Unterschiedlichen Lichtsituationen kennt, gelöst werden. Weiterhin ist die Rechenleistung bei diesem Verfahren relativ gering.
-
Merkmale:
-
Die Merkmalserkennung arbeitet weniger zuverlässig als das Differenzbild, liefert aber das gewünschte Ergebnis. Allerdings ist die Erkennung stark abhängig von den Strukturen der Person, die das Bild durchläuft. Trägt sie Beispielsweise ein einfarbiges Oberteil, werden weitaus weniger Merkmale gefunden, als bei einem Oberteil mit Logo oder mit viel Struktur. Somit ist es schwer einen sinnvollen Schwellwert zu finden und es hat sich gezeigt, dass manche Personen nicht erkannt werden. Weiterhin ist die Unabhängigkeit gegenüber Helligkeitsänderungen nicht so gut wie erhofft.
-
Durch die Änderung der Helligkeit entstehen an strukturreichen Bildbereichen neue Merkmale, beziehungsweise gehen verloren. Gegenüber dem Differenzbild sind allerdings homogene Flächen gleichbleibend. Bei einer Messung der gefundenen Merkmale unter den Bedingungen wie in 8 wurden ohne Person etwa 100 Merkmale gefunden und mit Person in etwa 200. Bei anderen Personen kann dieser Wert schwanken. Die Rechenleistung bei diesem Verfahren ist verhältnismäßig hoch.
-
Struktur:
-
Die Strukturerkennung liefert das gewünschte Ergebnis nur stark eingeschränkt. Die Veränderung zwischen leerem und Bild mit Person ist nicht groß genug. Die Messung des Mittelwertes des Binärbildes dieser beiden Zustände ergab, mit Person einen Wert von circa 30 und ohne Person um 29. Bei Werten von 0 bis 255 ist dieser Unterschied für eine zuverlässige Erkennung zu gering.
-
Ansatz 3: Gesichtserkennung:
-
Bei der Gesichtserkennung wurde für das frontale Gesicht ein sehr gutes Ergebnis erzielt. Der Algorithmus von Viola und Jones arbeitet sehr zuverlässig und erkennt selbst das Gesicht, wenn es sich in der Projektion befindet. Allerdings konnten keine brauchbaren Trainingsdaten für das Erkennen von Gesichtern im Profil gefunden werden. Auch das Ausblenden von Bildbereichen arbeitet zuverlässig, sodass die Wiedergabe des Videos fortgesetzt werden kann und Bereiche noch sichtbar sind. Allerdings ist die Berechnung etwas intensiver, sodass eine gewisse Latenz zwischen der realen Kopfposition und der errechneten Position des schwarzen Kreises in der Projektion entsteht. Daher kann es bei schnellen Bewegungen des Kopfes dazu kommen, dass die Person geblendet wird, da der schwarze Kreis nicht direkt an die Position des Kopfes verschoben wird. Die daraus resultierende optische Veränderung durch die Projektion im Gesicht kann dazu führen, dass kurzzeitig kein Gesicht erkannt wird. Ein Problem bei diesem Ansatz ergibt sich allerdings, wenn der projizierten Bildinhalt Gesichter enthält. Diese würden erkannt und ausgeblendet werden, ohne dass eine Person in der Projektion ist. Dieses Problem könnte entweder durch eine zusätzliche Analyse des projizierten Bildinhaltes oder durch eine Kombination mit anderen Ansätzen, wie beispielsweise dem Differenzbild, gelöst werden.
-
Übersicht der Ergebnisse:
-
Ansatz |
Rechenaufwand |
Stabilität/ Erkennungsrate |
Helligkeitsinvarianz |
Optimierungsansätze |
1 Innerhalb Bild |
+ + |
◯ |
◯ |
- Permanente Schwellwertberechnung - Lernfähiges Differenzbild |
2.1 Außerhalb Differenzbild |
- |
+ + |
- |
- Lernfähiges Differenzbild verknüpft mit Beleuchtung |
2.2 Außerhalb Merkmale |
+ |
- |
◯ |
|
2.3 Außerhalb Struktur |
- - |
- |
◯ |
|
3 Facedetection |
+ |
+ |
+ + |
- Besserer Algorithmus - Voranalyse des Bildmaterials auf Gesichter - Kombination mit Differenzbild |
-
Das beste Ergebnis würde eine Kombination aus der Gesichtserkennung und Differenzbildverfahren innerhalb der Projektion liefern. Dadurch würde die Gesichtserkennung nur aktiviert werden, wenn sich wirklich eine Person in der Projektion befindet. Das hierbei verwendete Differenzbildverfahren müsste lernfähig sein, für eine Invarianz gegen Helligkeitsänderungen.
-
Literaturverzeichnis:
-
- - AKAZE and ORB planar tracking . (04. 09 2016). Abgerufen am 07. 11 2017 von https://gregorkovalcik.github.io/opencv_contrib/tutorial_akaze_tracking.html
- - Alcantarilla, P. F., Nuevo, J., & Bartoli, A. (10 2012). KAZE FEATURES. Abgerufen am 24. 10 2017 von http://robesafe.com/personal/pablo.alcantarilla/kaze.html
- - Chris Stauffer, W. G. (1999). Adaptive background mixture models for real-time tracking. Cambridge.
- - Erhardt, A. (2008). Einführung in die Digitale Bildverarbeitung. Vieweg+Teubner.
- - How to Use Background Subtraction Methods . (7. 11 2017). Abgerufen am 8. 11 2017 von https://docs.opencv.org/master/d1/dc5/tutorial_background_subtraction.html
- - Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 20. TH Köln.
- - Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 5. TH Köln.
- - Laws, K. I. (1980). Rapid Texture Identification.
- - Melton, B. (2015). Presentation on theme: Segmentation Using Texture. Abgerufen am 22. 11 2017 von http://slideplayer.com/slide/6920161/
- - Viola, P., & Jones, M. (2001). Rapid Object Detection using a Boosted Cascade of Simple. Cambridge.
-
Bezugszeichenliste
-
- 2
- Zielfläche
- 4
- Kamera
- 6
- Lichtquelle
- 8
- Rechner
- 10
- Person
- 12
- Pfeil
- 14a,b
- Bild
- 15
- Bildinhalt
- 16
- Merkmal
- 17
- Umgebung
- 18
- Bereich
- 20
- Innenraum
- 22
- Fahrzeug
- 24
- Licht
- 26
- Strahlkegel
- 28
- Überwachungsabschnitt
- 30
- Blickfeld
- 32
- Kamerabild
- 40a,b
- Faltungsmaske
- 42
- Rahmen