DE102018010099A1 - Vermeiden der Blendung von Personen durch eine Lichtquelle - Google Patents

Vermeiden der Blendung von Personen durch eine Lichtquelle Download PDF

Info

Publication number
DE102018010099A1
DE102018010099A1 DE102018010099.6A DE102018010099A DE102018010099A1 DE 102018010099 A1 DE102018010099 A1 DE 102018010099A1 DE 102018010099 A DE102018010099 A DE 102018010099A DE 102018010099 A1 DE102018010099 A1 DE 102018010099A1
Authority
DE
Germany
Prior art keywords
person
image
camera
beam cone
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018010099.6A
Other languages
English (en)
Other versions
DE102018010099B4 (de
Inventor
Martin Bachhuber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Aerospace GmbH
Original Assignee
Diehl Aerospace GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Aerospace GmbH filed Critical Diehl Aerospace GmbH
Priority to DE102018010099.6A priority Critical patent/DE102018010099B4/de
Priority to CA3059405A priority patent/CA3059405A1/en
Priority to BR102019024585A priority patent/BR102019024585A8/pt
Priority to CN201911162022.7A priority patent/CN111355940A/zh
Priority to US16/716,928 priority patent/US10858105B2/en
Priority to FR1914579A priority patent/FR3090522B1/fr
Publication of DE102018010099A1 publication Critical patent/DE102018010099A1/de
Application granted granted Critical
Publication of DE102018010099B4 publication Critical patent/DE102018010099B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D11/0015Arrangements for entertainment or communications, e.g. radio, television
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • B60Q3/72Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for preventing the driver from being dazzled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/40Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types
    • B60Q3/41Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types for mass transit vehicles, e.g. buses
    • B60Q3/43General lighting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D2011/0038Illumination systems for cabins as a whole
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D2011/0061Windows displaying outside view, artificially generated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D2203/00Aircraft or airfield lights using LEDs
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2106/00Interior vehicle lighting devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2107/00Use or application of lighting devices on or in particular types of vehicles
    • F21W2107/30Use or application of lighting devices on or in particular types of vehicles for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Arrangements Of Lighting Devices For Vehicle Interiors, Mounting And Supporting Thereof, Circuits Therefore (AREA)
  • Refuge Islands, Traffic Blockers, Or Guard Fence (AREA)

Abstract

Bei einem Verfahren zur Vermeidung einer Blendung einer Person (10) durch eine Lichtquelle (6), die in einem Innenraum (20) eines Fahrzeuges (22) angeordnet ist, wobei die Lichtquelle (6) im Betrieb Licht (24) innerhalb eines Strahlkegels (26) abstrahlt, wird eine Kamera (4) im Innenraum (20) angeordnet und so ausgerichtet, dass zumindest ein Überwachungsabschnitt (28) des Strahlkegels (26), in den die Person (10) eintreten kann, im Blickfeld (30) der Kamera (4) liegt, nimmt die Kamera (4) ein Kamerabild (32) auf, wird aus dem Kamerabild (32) vermittels maschineller Personenerkennung ermittelt, ob sich zumindest ein Teil der Person (10) im Strahlkegel (26) befindet, wird für diesen Fall zumindest derjenige Bereich (18) des Strahlkegels (26), in dem sich der Teil der Person (10) befindet, blendfrei geschaltet.

Description

  • Die Erfindung betrifft die Blendung einer Person durch eine Lichtquelle, wobei die Lichtquelle in einem Innenraum eines Fahrzeuges angeordnet ist.
  • Aus der DE 10 2016 006 703 A1 ist ein Projektor zur Erzeugung einer Lichtprojektion in einem Innenraum eines Flugzeuges als Fahrzeug, insbesondere in der Passagierkabine als Innenraum, bekannt. In der Praxis soll vermieden werden, dass Personen, z.B. Passagiere in einem entsprechenden Flugzeug, durch Licht, welches der Projektor ausstrahlt, geblendet werden.
  • Aufgabe der Erfindung ist es daher, die Situation mit derartigen Lichtquellen zu verbessern.
  • Die Aufgabe der Erfindung wird gelöst durch ein Verfahren gemäß Patentanspruch 1. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung sowie anderer Erfindungskategorien ergeben sich aus den weiteren Ansprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.
  • Das Verfahren dient zur Vermeidung einer Blendung einer Person durch eine Lichtquelle. Die Lichtquelle ist in einem Innenraum eines Fahrzeuges angeordnet, wobei die Lichtquelle im Betrieb Licht innerhalb eines Strahlkegels abstrahlt. Bei dem Verfahren wird eine Kamera im Innenraum angeordnet und so ausgerichtet, dass zumindest ein Überwachungsabschnitt, also ein Teil, des Strahlkegels, in den die bzw. eine Person eintreten kann bzw. könnte, im Blickfeld der Kamera liegt.
  • Die Kamera nimmt dann ein Kamerabild auf. Aus dem Kamerabild wird dann vermittels maschineller Personenerkennung ermittelt, ob sich zumindest ein Teil der Person im Strahlkegel bzw. im Überwachungsabschnitt befindet. Für den Fall, dass sich zumindest der Teil der Person im Strahlkegel bzw. Überwachungsabschnitt befindet, wird zumindest derjenige Bereich des Strahlkegels, in dem sich der Teil der Person befindet, blendfrei geschaltet.
  • Das Verfahren bezieht sich auf Personen, die sich im Innenraum des Fahrzeuges befinden und potentiell in den Strahlkegel eintreten können und somit Gefahr laufen, von der Lichtquelle geblendet zu werden. Die Lichtquelle ist insbesondere ein Projektor. Die Lichtquelle ist insbesondere im Innenraum montiert.
  • Der Strahlkegel beschreibt den Raumbereich, in dem die Lichtquelle potentiell Licht abstrahlen kann. Je nach Lichtquelle und Betriebszustand findet dann eine eventuelle tatsächliche Abstrahlung von Licht ganz oder teilweise innerhalb des Strahlkegels statt. Ein „Kegel“ ist hierbei im weiten mathematischen Sinne als Körper mit einer beliebig geformten Grundfläche zu verstehen, der Kegel weist dabei insbesondere eine rechteckige Grundfläche auf, die dem auf einer Zielfläche dargestellten maximalen Bildinhalt eines Projektors als Lichtquelle entspricht.
  • Dank des Verfahrens gelingt es, mit Hilfe maschineller Personenerkennung zu erkennen, ob sich eine Person im Strahlkegel der Lichtquelle befindet und somit bei Normalbetrieb der Lichtquelle geblendet würde. Die tatsächliche Blendung wird dann jedoch vermieden, indem der Strahlkegel entsprechend zumindest am Ort der Person, zumindest dessen Kopfes, zumindest dessen Augen, blendfrei geschaltet wird.
  • „Blendfrei schalten“ bedeutet, dass das Licht der Lichtquelle in seiner Intensität auf ein Maximum begrenzt wird, das von der Person nicht mehr als „Blendung“ empfunden wird. Dabei kann z.B. von einem durchschnittlichen Empfinden ausgegangen werden. Ein entsprechend reduziertes Helligkeitsmaß kann dabei je nach Eigenschaften der Lichtquelle, Einbausituation, bestimmungsgemäß minimalem Abstand eventueller Personen zu Lichtquelle usw. individuell ermittelt werden, zum Beispiel durch Versuche, Abschätzungen etc. Die Lichtintensität kann dabei z.B. im Bereich von kleiner 3, höchstens 4, höchstens 5, höchstens 6 oder höchstens 7 oder höchstens 8 oder höchstens 9 der De-Boer-Skala gewählt werden (siehe unter anderem: „Blendung - Theoretischer Hintergrund, Informationen des Instituts für Arbeitsschutz der DGUV“, IFA Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung, Mai 2010, Seite 9, Tabelle 1, abgerufen von „https://www.dguv.de/medien/ifa/de/factstrahl/pdf/blendung_theorie.pdf“ am 30.10.2018)
  • In einer bevorzugten Ausführungsform wird der gesamte Strahlkegel blendfrei geschaltet, wenn sich zumindest ein Teil der Person im Strahlkegel befindet. Dies ist besonders einfach, da der Strahlkegel als Ganzes bzw. die Lichtquelle für den gesamten Strahlkegel blendfrei wird. Ein selektiver Betrieb bzw. ein selektives Abschalten oder Abblenden der Lichtquelle für bestimmte Teile des Strahlkegels ist damit vermieden.
  • In einer bevorzugten Ausführungsform wird der Bereich des Strahlkegels dadurch blendfrei geschaltet, dass die Lichtquelle nur für den betreffenden Bereich blendfrei geschaltet oder ausgeschaltet wird. Der Bereich ist dann derjenige der Person, also z.B. deren Umriss, deren Kopf oder deren Augen. Die Helligkeit der Lichtquelle wird also lokal dort auf ein blendfreies Maß reduziert oder auf Null gesetzt. Eine entsprechende Blendfrei-Schaltung der Lichtquelle kann besonders einfach durchgeführt werden.
  • In einer bevorzugten Ausführungsform wird der Strahlkegel auf eine Zielfläche des Innenraums gerichtet, und die Kamera wird so ausgerichtet, dass zumindest ein Teilbereich der Zielfläche im Blickfeld der Kamera liegt. An der Zielfläche endet der Strahlkegel der Lichtquelle. In der Praxis sind viele Situationen denkbar, bei denen sich Personen bestimmungsgemäß potentiell eher im Bereich der Zielfläche als im Bereich der Lichtquelle aufhalten können und dabei blendgefährdet sind. Derartige Situationen können mit der vorliegenden Ausführungsform besonders effizient bewältigt werden.
  • Die Zielfläche ist insbesondere ein Gepäckfach (Bin) in einer Passagierkabine eines Flugzeuges. Dieses befindet sich in der Regel auf Kopfhöhe von erwachsenen Personen durchschnittlicher Größe. Die Blendgefahr ist daher hier besonders gegeben.
  • In einer bevorzugten Variante dieser Ausführungsform wird der von der Kamera erfasste Teilbereich der Zielfläche beim maschinellen Sehen nicht berücksichtigt. Insbesondere wird in einer weiteren Variante nicht der ganze, sondern nur ein Teilbereich der Zielfläche nicht berücksichtigt, und zwar ein solcher mit Personen und/oder Bewegungen als Teil des auf der Zielfläche von der Lichtquelle, insbesondere einem Projektor, dargestellten Bildinhaltes. Somit wird generell - oder in der Variante zielgerichtet - vermieden, dass Personen und/oder Bewegungen, die Teil des von der Lichtquelle erzeugten Bildinhalts sind, eben nicht fälschlicherweise als blendgefährdete Teile von Personen erkannt werden. Insbesondere kann hierbei die gesamte von der Lichtquelle bestrahlte Zielfläche beim maschinellen Sehen nicht berücksichtigt werden. Dies ist besonders einfach zu bewerkstelligen.
  • Alternativ werden nur diejenigen Teile der Zielfläche, auf denen entsprechende Bildinhalte dargestellt sind, vom maschinellen Sehen ausgeschlossen. Damit können aber weiterhin reale Personen detektiert werden, die sich im Strahlkegel der Lichtquelle befinden. Insbesondere wird also hier der auf der Zielfläche durch die Lichtquelle dargestellte Teil einer Person als Teil des Bildinhalts erkannt und der Strahlkegel in diesem Fall nicht blendfrei geschaltet.
  • In einer bevorzugten Ausführungsform wird die Kamera so ausgerichtet, dass auch eine (an den Strahlkegel anschließende) Umgebung des Strahlkegels im Blickfeld der Kamera liegt. Somit können Personen auch bereits detektiert werden, wenn sich diese dem Strahlkegel nähern. So kann der Strahlkegel bereits vorsorglich blind freigeschaltet werden, bevor die Person in diesen Eintritt. Eine Blendung kann somit jederzeit verhindert werden. Auch kann so eine in den Strahlkegel eintretende Person in diesen hinein extrapoliert werden, wenn die Zielfläche (z.B. wegen wiedergegebener Bildinhalte usw., siehe oben) von der Personendetektion ausgeschlossen ist.
  • In einer bevorzugten Ausführungsform wird die Kamera neben der Lichtquelle platziert. Diese Montageposition für eine Kamera ist besonders günstig, da so der Strahlkegel und/oder gegebenenfalls auch die Zielfläche bzw. der von der Lichtquelle beleuchtete Teil der Zielfläche vollständig oder möglichst vollständig durch die Kamera erfassbar ist.
  • In einer bevorzugten Ausführungsform wird im Rahmen der maschinellen Personenerkennung ein maschinelles Sehen und/oder eine Gesichtserkennung und/oder eine Texturerkennung und/oder eine Bewegungserkennung durchgeführt. Die entsprechenden Verfahren sind für die maschinelle Personenerkennung besonders geeignet.
  • Die Aufgabe wird auch gelöst durch eine Verwendung gemäß Anspruch 10 der maschinellen Personenerkennung in einem Verfahren nach einem der vorhergehenden Ansprüche. Die Verwendung und zumindest ein Teil deren Ausführungsformen sowie die jeweiligen Vorteile wurden sinngemäß bereits im Zusammenhang mit dem erfindungsgemäßen Verfahren erläutert.
  • Die Erfindung beruht auf folgenden Erkenntnissen, Beobachtungen bzw. Überlegungen und weist noch die nachfolgenden Ausführungsformen auf. Die Ausführungsformen werden dabei teils vereinfachend auch „die Erfindung“ genannt. Die Ausführungsformen können hierbei auch Teile oder Kombinationen der oben genannten Ausführungsformen enthalten oder diesen entsprechen und/oder gegebenenfalls auch bisher nicht erwähnte Ausführungsformen einschließen.
  • Die Erfindung beruht auf der Idee, Lichtquellen (Projektoren) in der Flugzeugkabine zu integrieren, um Licht (Bilder) an eine Zielfläche (die Oberflächen von z.B. Gepäckfächern oder Monumenten) zu projizieren. In vielen Integrationsszenarien lässt es dabei nicht vermeiden, dass sich Passagiere in dem Lichtstrahl des Projektors bewegen und so potentiell geblendet werden können (Line Of Sight Situation). Um diese Integrationsszenarien trotzdem nutzen zu können ohne den Passagier negativ zu beeinflussen, schlägt die Erfindung ein Verfahren vor, welches den Lichtstrahl situationsbedingt abschaltet oder abblendet, wenn ein Passagier in den Blend-Bereich eindringt. Unter „Abblenden“ kann hierbei insbesondere auch verstanden werden, den Lichtstrahl nur bei einer Gesichtserkennung lokal im Bereich des Gesichts abzuschalten.
  • Die Erfindung beruht auf der Überlegung, dass diese über ein reines Vermeiden der Blend-Situation, d.h. durch entsprechende Integration der Projektoren, hinausgehen sollte.
  • Die Erfindung beruht auf der Idee, die Aufgabe durch den Einsatz von maschinellem Sehen zu lösen. Dazu wird zusätzlich zum System Projektor-Zielfläche eine Kamera installiert, welche den Bereich des projizierten Bildes und dessen nähere Umgebung erfassen kann. Anhand verschiedener Verfahren wie z.B. Gesichtserkennung, Texturerkennung oder Bewegungserkennung wird dabei ermittelt, ob sich eine Person im blendungsgefährdeten Bereich (insbesondere im Strahlkegel) befindet. Daraufhin kann je nach Verfahren die gesamte Lichtquelle deaktiviert oder der relevante Bildbereich ausgeblendet werden, welcher eine Blendung verursachen würde. Dabei kann auch berücksichtigt werden, dass Personen oder Bewegungen, welche im projizierten Bildinhalt existieren, nicht fälschlicherweise als Blend-Situation erkannt werden und zur Abschaltung der Lichtquelle führen.
  • Der Vorteil des Verfahrens liegt darin, dass mit dem beschriebenen Verfahren auch Zielflächen bzw. Projektionsflächen bzw. Integrationsszenarien (im Allgemeinen Beleuchtungssituationen) genutzt werden können, die sonst zu einer Blendung der Passagiere führen würden.
  • Die Erfindung weist zwei Kernaspekte auf: Erstens Verwendung von Computer Vision zur Vermeidung von Blendung bei Projektions- bzw. Lichtsystemen in der Flugzeugkabine. Zweitens Vermeidung von Fehldetektionen, welche durch menschenähnliche Elemente im projizierten Bildinhalt entstehen könnten.
  • Gemäß der Erfindung wurde im Bereich der Projektionssystem-Steuerung eine Funktionalität entwickelt, um per Kamera zu erkennen, ob eine Person durch den Projektor geblendet wird. Im Falle einer Blendung soll dann der Projektor deaktiviert oder der entsprechende Bereich im Bild ausgeblendet werden. Die Erfindung beschreibt damit eine Kamera-geregelte Vermeidung von Personenblendung.
  • Gemäß der Erfindung ergibt sich die Vermeidung von Passagierblendung durch maschinelle Personenerkennung. Eine mögliche Blendung der Passagiere durch Projektoren/Lichtquellen in der Flugzeugkabine wird durch maschinelle Personenerkennung, insbesondere durch maschinelles Sehen (Computer Vision) vermieden bzw. verringert.
  • Weitere Merkmale, Wirkungen und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung sowie der beigefügten Figuren. Dabei zeigen, jeweils in einer schematischen Prinzipskizze:
    • 1 Faltungsmasken gemäß Stand der Technik (Viola & Jones, 2001),
    • 2 eine Kaskade der Klassifizierer gemäß Stand der Technik (Viola & Jones, 2001),
    • 3 ein Schema eines Versuchsaufbaus gemäß der Erfindung,
    • 4 eine räumliche Ansicht des Versuchsaufbaus auf 1,
    • 5 eine Darstellung von Matches,
    • 6 ein Differenzbild in Projektion,
    • 7 ein Differenzbild um Projektion,
    • 8 ein Merkmalsbild,
    • 9 ein Strukturbild,
    • 10 eine Gesichtserkennung.
  • Gemäß der Erfindung erkennt ein System, wenn sich eine Person zwischen einem Projektor und der von diesem Projektor projizierten Fläche befindet. Dies ist zielführend, wenn man vermeiden möchte, dass die Person unangenehm geblendet wird. Daher wird das Ziel verfolgt, in einem solchen Fall den Projektor auszuschalten beziehungsweise in einer weiteren Version die Bereiche des Projektors auszuschalten, in denen sich die Person befindet.
  • Dabei werden mehrere Ansätze verfolgt, welche jeweils unterschiedlich den Bedingungen in der Flugzeugkabine gerecht werden, denn durch Erschütterungen und Helligkeitsänderungen gibt es viele Einschränkungen in der Bildverarbeitung.
  • Zunächst werden die theoretischen Grundlagen der Bildverarbeitung zu den verschiedenen Ansätzen vermittelt. Anschließend wird ein Versuchsaufbau mit verwendeten Komponenten und Software beschrieben. Darauf aufbauend werden fünf Ansätze „Detektieren in der Projektion“, „Detektieren um die Projektion“ mit Differenzbild, Merkmals- und Strukturerkennung und „Detektieren mittels Gesichtserkennung“ erläutert. Abschließend werden die Ergebnisse der einzelnen Ansätze evaluiert.
  • Grundlagen:
  • Merkmalserkennung:
  • Ziel der Merkmalserkennung ist es, ein gegebenes Bildmerkmal in einem anderen Bild wiederzufinden. Dabei sollte das Wiederfinden unabhängig von Translation, Rotation und Skalierung sein. Daher werden Interessenpunkten in beiden Bildern gesucht und miteinander verglichen, sodass ein Wiederfinden möglich ist.
  • KAZE:
  • KAZE ist ein von Pablo F. Alcantarilla, Jesus Nuevo und Adrien Bartoli entwickelter Algorithmus zur Merkmalserkennung. Dieser nutzt zum Detektieren der Interessenpunkte die Hesse-Matrix. Dabei wird nach Positionen gesucht, an denen die Determinante der Hesse-Matrix ein lokales Maximum erreicht. Diese Punkte sind grundsätzlich interessant, da sie ausreichend Struktur enthalten, damit sie im Vergleichsbild wiedergefunden werden. Weiterhin wird ein Skalenraum erzeugt, um eine Skalierungsinvarianz zu ermöglichen. Skalenraum bedeutet, dass das Ausgangsbild mehrfach mit unterschiedlichen Filtergrößen gefiltert wird und somit das Bild in mehreren Skalierungen vorhanden ist. Damit ein Wiederfinden im Vergleichsbild gewährleistet ist, benötigt man eine Beschreibung dieser Interessenpunkte. Dies geschieht mit einem 64-dimensionalen Merkmalsvektor, der sich aus Helligkeits- und Gradienteninformationen zusammensetzt und invariant gegenüber Skalierung, Drehung und Verschiebung ist. Nun wird mittels Suchalgorithmus eine Korrespondenz zwischen Ausgangs- und Vergleichsbild hergestellt. (Alcantarilla, Nuevo, & Bartoli, 2012).
  • Ransac:
  • Um Fehlzuordnungen zu minimieren, wird das RANSAC-Verfahren angewendet. Dabei wählt man aus allen Zuordnungen eine zufällige Untermenge aus und bestimmt die Anzahl der Zuordnungen, die zu dieser Lösung passen. Hat man eine Untermenge gefunden, die keine Ausreißer enthält, ist diese Menge besonders groß. (Kunz, Bildverarbeitung SS 2016 Kapitel 20, 2016)
  • Differenzbild:
  • Beim Differenzbild findet eine pixelweise Subtraktion von zwei Bildern miteinander statt. Dazu sind Grauwertbilder nötig. g ' ( x , y ) = g 1 ( x , y ) g 2 ( x , y )
    Figure DE102018010099A1_0001
    mit g1(x,y), g2(x,y) = Eingangsbild und g'(x,y) = Ausgangsbild.
  • Mit dieser Methode ist es möglich, die Unterschiede zwischen zwei Bildern herauszufinden. Da Bewegung in der Bildverarbeitung eine Änderung der Grauwerte ist, kann mit diesem Verfahren auch Bewegung erkannt werden. Nimmt man also für g1(x,y) das Bild mit der Person und für g2(x,y) ein Bild ohne die Person bedeutet dies, dass alle Pixelwerte ungleich Null eine Veränderung aufweisen (Erhardt, 2008). Setzt man nun noch einen Schwellwert und binarisiert das neu erzeugte Ausgangsbild hat man eine Schwarz-Weiß-Maske die nur die Veränderungen wiedergibt.
  • Da eine Veränderung der Helligkeit sowie Bewegung der Kamera auch eine Veränderung des Grauwertes bedeutet, ist dieses Verfahren nicht robust gegen Helligkeitsänderungen und Bewegungen der Kamera.
  • Mixture of Gaussian:
  • Um Veränderungen im Hintergrundbild und Erschütterungen entgegen zu wirken, kann man das Hintergrundmodell lernfähig machen. OpenCV stellt dafür das erweiterte Differenzbildverfahren „Mixture of Gaussian“ (MOG) zur Verfügung. Es basiert auf dem Paper von Chris Stauffer und W.E.L Grimson (Chris Stauffer, 1999). Dieses Verfahren eignet sich sehr gut bei ständigen Veränderungen des Hintergrundes durch Helligkeitsänderungen oder Bewegungen, wie beispielsweise bei Aufnahmen von Bäumen die im Wind wehen oder Wellenbewegungen im Meer.
  • Bei diesem Verfahren wird die Häufigkeit der Werte jedes einzelnen Pixels aus den vorangegangenen Bildern bei der Berechnung eines Hintergrundmodells mit einbezogen. Diese bereits aufgenommenen Werte werden als normalverteilte Zufallsvariable betrachtet und als Gaußverteilung dargestellt. Dabei bekommen die unterschiedlichen Werte eines Pixels verschiedene Gaußverteilungen. Die Wahrscheinlichkeit, ob ein Pixel beobachtet werden soll, berechnet sich mit: P ( X t ) = i = 1 K ω i , t * η ( X t , μ i , t , Σ i , t )
    Figure DE102018010099A1_0002
    Dabei ist K die Anzahl der Verteilungen, ωi, die Gewichtung und η(X , µi,t , Σi,t) die Gaußsche Wahrscheinlichkeitsdichtefunktion. Neue Pixelwerte werden nun permanent mit den Gaußverteilungen verglichen bis ein Treffer gefunden wurde. Ein Treffer ist als Pixelwert innerhalb der Standardabweichung von 2,5 definiert. Wird kein Treffer gefunden, wird die am geringsten passende Verteilung mit der aktuellen Verteilung ersetzt und die Gewichtung angepasst. Somit können Veränderungen, wie Licht oder Erschütterungen, in das Hintergrundmodell eingerechnet werden.
  • Um zu klassifizieren, ob ein Pixel zum Vorder- oder Hintergrundbild gehört, werden die Gaußverteilungen nach ihrer Wahrscheinlichkeit sortiert. Die Verteilungen mit hoher Wahrscheinlichkeit, die sich über einem Schwellwert befinden, werden als Hintergrund angesehen und die darunter liegenden als Vordergrund.
  • Bildtexturen:
  • Als Grundlage zum Erkennen von Strukturen eignet sich „Laws Texture Energy Measurement“ (Laws, 1980). Es wurde entwickelt mit dem Ziel die Struktur in Bildern zu analysieren und anzugeben, wie viel Energie diese enthält. Dabei wird das Bild mit einer 5x5 Faltungsmaske gefaltet um Strukturen hervorzuheben. Für die Faltung eines Bildes verwendet man die folgende Faltungsformel: b k l = i = j = a i j h i k , j l
    Figure DE102018010099A1_0003
    Konkret betrachtet bedeutet eine Faltung, dass im Eingangsbild mit einer Faltungsmaske jeder Punkt k, angefahren wird. An jedem Punkt innerhalb der Maske wird das Produkt gebildet, dieses wird aufsummiert und anschließend im Ausgangsbild an die Stelle k, geschrieben.
  • Die bei Law verwendete Faltungsmaske errechnet sich aus unterschiedlichen Vektoren die sich jeweils für entsprechende Bildinhalte kombinieren lassen.
    L5 (Level) = [1 4 6 4 1]
    E5 (Edge) = [-1 - 2 0 2 1]
    S5 (Spot) = [-1 0 2 0 - 1]
    R5 (Ripple) = [1 - 4 6 - 4 1]
  • Der L5 Vektor errechnet den lokalen Mittelwert, E5 erkennt Kanten, S5 Punkte und R5 eignet sich für wellige Strukturen. Bildet man nun das Produkt aus zwei dieser Vektoren, erhält man eine zweidimensionale Faltungsmaske die ein Ausgangsbild entsprechend der jeweiligen Vektoreigenschaften faltet und man erhält nach anschließender Binarisierung ein Binärbild, welches nur die Strukturen im Bild aufzeigt.
  • Gesichtserkennung:
  • Bei der Gesichtserkennung (engl. face detection) werden digitale Bilder auf unterschiedliche Merkmale analysiert um Gesichter zu erkennen. Eines der gängigsten Verfahren ist die OpenCV Implementierung basierend auf einer Mustererkennung mit Trainingsdaten die in dem von Paul Viola und Michael Jones veröffentlichtem Paper „Rapid Object Detection using a Boosted Cascade of Simple Features“ beschrieben wird (Viola & Jones, 2001). Dieser Algorithmus ermöglicht eine schnelle Berechnung mit einer geringen Fehlerrate, sodass auch eine robuste Erkennung in nahezu Echtzeit möglich ist.
  • Bei der Mustererkennung für Gesichter nach Viola und Jones müssen zunächst Trainingsdaten erzeugt werden. Dabei werden sowohl positive Bilder, also Bilder die Gesichter zeigen, als auch negative Bilder, Bilder ohne Gesichter, verwendet. Zur Analyse wird eine Faltung mit Haar-Wavelets mit unterschiedlichen Skalierungen durchgeführt (Faltung siehe 0 Bildtexturen). Haar-Wavelets sind einfache Faltungsmasken die aus Rechteckfunktionen gebildet werden, siehe in 1 Faltungsmasken 40a,b (Viola & Jones, 2001) bei der Anwendung auf eine Abbildung einer Person 10. Bei der Faltung wird die Summe der schwarzen Rechtecke von der Summe der weißen Rechtecke in einen 24x24 Pixel großen Ausschnitt subtrahiert. Zur Optimierung dieses Vorgangs werden die Berechnungen mit einem Integralbild durchgeführt. Bei einem Integralbild werden die einzelnen Pixelwerte aufsummiert. Dadurch ist es möglich, die Summe der einzelnen Ausschnitte mit nur vier Rechenoperationen zu erhalten. Um aus der Vielzahl an errechneten Werten nur die Brauchbaren zu finden, verwenden Viola und Jones für das maschinelle Lernen den Adaboost Algorithmus. Dabei werden aus positiven und negativen Bildern und den darin errechneten Features Klassifizierer erstellt. In dem erweiterten adaptiven Verfahren werden weiterhin einfache Klassifizierer zu einem kombiniert.
  • Mit Hilfe der erzeugten Trainingsdaten können nun Gesichter detektiert werden. Dafür durchläuft der Bildausschnitt eine Kaskade von Klassifizierern (engl. Cascade of Classifiers) die anhand der errechneten Merkmalsdaten entscheiden, ob es sich um ein negatives („F“) oder positives Bild („T“) handelt. 2 zeigt eine Kaskade („1“, „2“, „3“) der Klassifizierer (Viola & Jones, 2001) mit Schritt A „All Sub-Windows“, Schritt B „Further Processing“ und Schritt C „Reject Sub-Window“.
  • Versuchsaufbau:
  • Entwicklungsumgebung:
  • Zur Implementierung des Systems wird die Programmiersprache C++ in der Entwicklungsumgebung Eclipse eingesetzt. Die Umsetzung der Bildverarbeitung wird durch das Framework OpenCV realisiert. Als Grundlage für das AKAZE- und Differenzbildverfahren dienen Tutorials aus der Dokumentation von OpenCV. (Alcantarilla, Nuevo, & Bartoli, 2012) (How to Use Background Subtraction Methods, 2017).
  • Aufbau:
  • Zum Testen des Systems wird ein Versuchsaufbau gemäß 3 (Prinzipbild) und 4 (Ansicht) verwendet. Diese enthält eine Zielfläche 2, hier einer Projektionsfläche auf einem Bin (Gepäckfach) bzw. Panel in einem Innenraum 20, hier einer Passagierkabine, eines Fahrzeugs 22, hier eines Flugzeuges. Der Aufbau enthält auch eine Kamera 4 in Form einer Webcam, eine Lichtquelle 6 in Form eines Projektors und einen Rechner 8, hier ein Notebook. Die Kamera 4 ist neben der Lichtquelle 6 bzw. dem Projektor platziert. Der Projektor erzeugt Licht 24 innerhalb eines Strahlkegels 26 und damit das (auf der Zielfläche 2 projizierte) Bild 14b. Dieses weist einen bestimmten Bildinhalt 15, hier eine Landschaft mit Himmel, auf. Die Kamera 4 erfasst das erzeugte Bild 14b (bzw. den gesamten auf die Zielfläche 2 treffenden Strahlkegel 26) und eine Umgebung 17, d.h. einen zusätzlichen größeren Auswertebereich. Die Kamera 4 erfasst damit mit ihrem Blickfeld 30 einen Überwachungsabschnitt 28 des Strahlkegels 26. Die Kamera 4 nimmt dazu ein Kamerabild 32 auf.
  • Der Rechner 8 steuert den Projektor und erzeugt das Videosignal und wertet das Kamerabild 32 vermittels maschineller Personenerkennung dahingehend aus, ob sich eine Person 10 oder ein Teil dieser im Strahlkegel 26 befindet. Testgeräte sind der LED-Projektor Optoma ML750ST und die Webcam Logitech C920. Diese werden mit Hilfe von zwei Stativen auf die Höhe eines Bins (Zielfläche 2) in einer Testanordnung gebracht und auf diesen ausgerichtet. Dabei ist zu beachten, dass der Autofokus der Kamera deaktiviert wird. Während der Entwicklungsphase werden Videos zum Testen aufgezeichnet. Dabei läuft (angedeutet durch den Pfeil 12) eine Person 10 durch die Projektion und währenddessen wird der Projektor 6 aus- und wieder eingeschaltet (ganz oder lokal) bzw. blendfrei geschaltet. Beim Testen des Systems wird der Projektor 6 als erweiterter Bildschirm und die Webcam 4 an einen Laptop (Rechner 8) angeschlossen, auf dem der Programmcode ausgeführt wird. Dabei wird das von OpenCV erzeugte Fenster für die Inhalte, die auf dem Projektor 6 dargestellt werden sollen, im Vollbildmodus auf dem erweiterten Bildschirm geöffnet.
  • Bei Erkennung eines Teils der Person 10 im Strahlkegel 26 wird dessen Bereich 18, in dem sich der Teil der Person 10 befindet, blendfrei geschaltet, hier ausgeschaltet. Dabei wird im entsprechenden Bereich 18 anstelle des Bildes 14a „schwarzer“ Bildinhalt der Helligkeit Null wiedergegeben.
  • Lösungsansätze:
  • Ansatz 1: Detektieren innerhalb des projizierten Bildes
  • Hierbei soll das Erkennen einer Person in der Projektion stattfinden, also nicht wenn die Person im Kamerabild zu sehen ist, sondern beim Eintritt in die Projektion. Zum Auslösen der Erkennung sollen mit Hilfe des AKAZE Merkmalsdeskriptors und -detektors Übereinstimmungen zwischen dem projizierten Bild durch die Kamera und dem digital vorhandenen Bild gefunden werden. 5 zeigt das digital vorhandene Bild 14a und das projizierte Bild 14b, sowie anhand von Pfeilen übereinstimmende Merkmale 16 (angedeutet durch Kreise) des Bildinhalts 15, hier der Landschaft mit Himmel.
  • Um die AKAZE Methode einzusetzen, muss zu Beginn ein Schwellwert mit der Anzahl der Übereinstimmungen gesetzt werden. Tritt nun eine Person in die Projektion, fällt die Anzahl der übereinstimmenden Merkmale unter den Schwellwert und der Projektor wird ausgeschaltet. Da nun kein Bild zum Vergleichen vorhanden ist, wird mit Hilfe der Differenzbildmethode überprüft, ob sich die Person noch in der Projektion befindet. 6 zeigt ein Differenzbild in der Projektion. Da das Bild schwarz ist, wenn sich keine Person im Bild befindet, wird einfach der Mittelwert des Differenzbildes berechnet und wenn dieser steigt, findet Bewegung statt. Das Hintergrundbild zum Erzeugen des Differenzbildes wird direkt nach dem Starten der Anwendung bei abgeschaltetem Projektor erstellt. Da der Bildausschnitt der Webcam über die projizierte Fläche hinausgeht muss zusätzlich eine Maske erstellt werden, sodass nur die Projektion berücksichtigt wird und nicht der Bereich außerhalb. Diese Maske wird mit Hilfe des Rahmens 42 in 5 des AKAZE Merkmalsvergleichs erstellt. Verlässt die Person nun diesen Bereich, wird die Projektion wieder aktiviert und wieder der Merkmalsvergleichsmodus aktiviert.
  • Ansatz 2: Detektieren außerhalb des projizierten Bildes
  • Bei diesem Ansatz soll versucht werden die Person außerhalb der Projektion zu erkennen, um den Projektor zu deaktivieren. Das hat den Vorteil, dass die Analyse unabhängig vom projizierten Bildinhalt abläuft und somit auch das Abspielen von bewegten Bildinhalten möglich ist. Dies soll mit einem Differenzbild, einer Merkmalserkennung -wie in Ansatz 1- und einer Filterung des Bildes mittels Filterkernen nach „Laws Texture Energy Measurement“ umgesetzt werden. Damit der Bildinhalt ausgeblendet wird, muss -genau wie in Ansatz 1-zu Beginn eine Maske mittels Merkmalserkennung erstellt werden. In diesem Falle allerdings mit dem Ziel den projizierten Bildinhalt zu verdecken.
  • Differenzbild:
  • Zunächst muss das leere Hintergrundbild aufgezeichnet werden, das von dem aktuellen Kamerabild subtrahiert werden soll. Dies geschieht im Anschluss an das Erstellen der Maske. Da das „Mixture of Gaussian“-Verfahren angewendet wird, werden mehrere Bilder verwendet, wodurch man robuster gegen leichte Schwankungen im Bildinhalt ist. Anschließend wird der Mittelwert des leeren Bildes berechnet, um einen Schwellwert für die Erkennung zu setzten. Nun wird dauerhaft der Mittelwert des Differenzbildes berechnet. Tritt nun eine Person in die Projektion, beziehungsweise in den Rahmen der Projektion, steigt der Mittelwert des gesamten Bildes über den Schwellwert und der Projektor wird deaktiviert. Daraus resultiert ein Differenzbild um die Projektion gemäß 7 (Differenzbildverfahren). In dieser Abbildung ist auch links und rechts neben der Projektion zu erkennen, dass durch Abschalten der Projektion die Helligkeit des Gesamtbildes verändert wird. Es wird versucht dies durch das Lernen des „Mixture of Gaussian“-Verfahren zu kompensieren, welches einfache Helligkeitsänderungen erkennen soll. Verlässt die Person das Bild, wird der Schwellwert unterschritten und der Projektor wieder aktiviert.
  • Die 7 bis 10 zeigen jeweils das gleiche Kamerabild 32, bewertet / bearbeitet durch verschiedene Verfahren. Die dargestellte Person 10 ist nicht Teil des Bildinhalts 15 des Bildes 14b, sondern befindet sich als tatsächliche Person 10 im Strahlkegel 26.
  • Merkmale:
  • Dieses Verfahren basiert auf der in Ansatz 1 verwendeten AKAZE Merkmalserkennung. Allerdings werden in diesem Fall die Merkmale außerhalb der Projektion gesucht. Auch hier wird zu Beginn ein Schwellwert im leeren Bild aus der Anzahl der Merkmale errechnet. Wenn jetzt eine Person in das Kamerabild tritt, ändert sich die Anzahl an Merkmalen. Zum einen werden Merkmale, die im leeren Bild gefunden wurden, verdeckt und zum anderen werden durch die Person mehr Merkmale erkannt.
  • Durch diese Veränderung der Merkmale gegenüber dem Schwellwert wird der Projektor deaktiviert. Dadurch, dass die Merkmalserkennung relativ robust gegenüber Helligkeitsveränderungen ist, nimmt die Schwankung der Helligkeit durch Abschalten des Projektors keinen großen Einfluss auf die Anzahl der Merkmale 16. Siehe hierzu das Merkmalsbild gemäß 8.
  • Struktur:
  • Bei der Strukturerkennung sollen mittels Faltung nach „Laws Texture Energy Measurement“ und anschließender Binarisierung nur die Strukturen im Bild hervorgehoben werden. Auch hier wird mit dem Bild ohne Person ein Mittelwert errechnet, der als Schwellwert dienen soll. Wird dieses Bild nun durch eine eintretende Person verändert, so wird durch Überschreiten des Schwellwertes der Projektor deaktiviert und beim Unterschreiten wieder aktiviert. Siehe das Strukturbild in 9 (Strukturbildverfahren).
  • Ansatz 3: Gesichtserkennung:
  • Mittels Gesichtserkennung soll die exakte Position der Person erkannt werden und somit, im Gegensatz zu den anderen Ansätzen nicht der gesamte Projektor deaktiviert werden, sondern nur der Bereich, in dem sich das Gesicht der Person befindet. Dies soll mit Hilfe des Algorithmus von Viola und Jones umgesetzt werden. Dabei wird ein Kaskade Klassifizierer mit Trainingsdaten basierend auf Haar Wavelets initialisiert. Dieser untersucht nun die Kamerabilder auf Gesichter. Wird ein Gesicht gefunden, wird dieses markiert und man erhält die Koordinaten der aktuellen Position.
  • Nun muss diese Position auf das projizierte Bild umgerechnet werden. Dazu benötigt man die Position der Projektion im Kamerabild. Diese wird zu Beginn mit einem projiziertem Testbild und der Merkmalserkennung berechnet, siehe 5. Mit der Position und Größe des Gesichtes, der Projektion und dem Verhältnis Projektionsbild zu Projektion im Kamerabild lassen sich nun die Koordinaten errechnen, an denen ein schwarzer Kreis erstellt werden soll.
    • //Position des Gesichtes
    • int FaceX = faces[i].x + faces[i].width*0.5;
    • int FaceY = faces[i].y + faces[i].height*0.5;
    • //Positionen Projektion
    • Point ProjectionLO = points[0][0];
    • Point ProjectionLU = points[0][3];
    • Point ProjectionRO = points[0][1];
    • Point ProjectionRU = points[0][2];
    • //Faktor für Skalierung des Kreises
    • float faktHori =(float)proje.cols/((float)ProjectionRO.x - (float)ProjectionLO.x);
    • float faktVert =(float)proje.rows/((float)ProjectionRU.y -(float) ProjectionRO.y);
    • //neue Koordinaten in Projektion
    • int FaceXnew = FaceX - ProjectionLO.x;
    • int FaceYnew = FaceY - ProjectionLO.y;
  • Mit diesen Koordinaten wird nun ein Kreis in dem projizierte Bild erstellt, dessen Position für jedes Einzelbild neu berechnet wird, um das Gesicht dauerhaft zu verfolgen und die Position in der Projektion zu aktualisieren. Das Ergebnis zeigt die Gesichtserkennung in 10.
  • Evaluation:
  • Beim Testen der unterschiedlichen Ansätze hat sich gezeigt, dass grundsätzlich das Ziel erfüllt wurde Personen in der Projektion zu erkennen, daraufhin den Projektor zu deaktivieren und schließlich wieder zu aktivieren, wenn die Person den Bereich verlässt. Bei der gewählten Merkmalserkennung, also bei dem Suchen von Merkmalen, dem Differenzbildverfahren, der Strukturerkennung, sowie bei der Gesichtserkennung, gibt es allerdings einige Einschränkungen.
  • Weiterhin wurde bei Tests festgestellt, dass durch Ein- und Ausschalten des Projektors die automatische Helligkeitsanpassung der Webcam sehr träge ist und im System berücksichtigt werden muss.
  • Ansatz 1: Detektieren innerhalb des projizierten Bildes:
  • Die AKAZE-Methode in der Projektion bietet nur mit großem Aufwand die Möglichkeit einen Merkmalsvergleich bei Bewegtbild durchzuführen, da bei jedem neuen Frame wieder ein neuer Schwellwert gesetzt werden und gleichzeigt überprüft werden müsste, ob sich eine Person in der Projektion befindet. Dies wäre ein enormer Rechenaufwand und ein permanenter Vergleich ist aufgrund von Latenz vermutlich schwierig. Weiterhin ist die AKAZE-Methode abhängig vom Bildinhalt. Die Merkmale werden mit Hilfe von im Bild vorhandenen Strukturen erzeugt. Hat man nun ein Bild mit wenig Struktur oder die Strukturen kommen nur in einem bestimmten Bereich vor, kann auch nur dort eine Erkennung stattfinden. Dieses Problem lässt sich anhand 5 erklären. Im Bild werden nur Übereinstimmungen im unteren Bildbereich (Landschaft) gefunden, nicht aber im oberen (Himmel). Ein großer Vorteil der AKAZE-Methode ist, dass sie invariant gegenüber Helligkeitsänderungen in der Flugzeugkabine ist.
  • Die Differenzbildmethode liefert grundsätzlich auch gute Ergebnisse. Allerdings ist diese Methode abhängig von Helligkeitsänderungen. Wenn sich also die Lichtverhältnisse in der Kabine gegenüber dem zu Beginn erzeugten Hintergrundbild ändern, funktioniert diese Methode nicht mehr. Allerdings ist dieses Hintergrundbild lernfähig und kann angepasst werden.
  • Ein Vorteil dieses Ansatzes ist, dass der Projektor erst bei Eintritt der Person in die Projektion deaktiviert wird.
  • Ansatz 2: Detektieren außerhalb des projizierten Bildes:
  • Auch beim Detektieren um das projizierte Bild wurde in allen drei Lösungsansätzen das Ziel erfüllt die Person nicht zu blenden. Weiterhin bietet dieser Ansatz die Möglichkeit mit geringem Aufwand Videos abzuspielen.
  • Differenzbild:
  • Die Lernrate ist zuverlässig und hat auch eine gute Reaktionszeit. Allerdings wird die Person im Stillstand mit in das Differenzbild kalkuliert und verschwindet somit. Dies wird versucht zu umgehen, indem die Lernrate zeitlich begrenzt wird, sowohl im eingeschalteten, als auch im ausgeschalteten Projektionsmodus. Dadurch ist ebenso das Problem gelöst, dass der Hintergrund zu „stark“ in das Hintergrundbild eingerechnet wird, wenn lange keine Person durch das Bild läuft, wodurch der Unterschied zwischen Hintergrund mit und ohne Person zu groß wäre und folglich der Projektor nicht wieder eingeschaltet wird. Weiterhin entstehen durch Schatten, die die Person wirft, als auch durch Helligkeitsänderungen beim Ein- und Ausschalten des Projektors, Einschränkungen, die das Differenzbild verfälschen. Auch Helligkeitsunterschiede bei den abgespielten Videoinhalten führen zu leichten Unterschieden im Kamerabild, die aber kompensiert werden können. Weiterhin führen starke Helligkeitsänderungen in der Flugzeugkabine zum Ausschalten des Projektors, da der Unterschied zum Differenzbild zu groß wird. Dieses Problem könnte entweder durch eine Verknüpfung von Licht- und Projektionssystem, damit das Projektionssystem im Falle einer Lichtänderung informiert werden kann, oder einer Anpassung des Lernalgorithmus, sodass dieser die Unterschiedlichen Lichtsituationen kennt, gelöst werden. Weiterhin ist die Rechenleistung bei diesem Verfahren relativ gering.
  • Merkmale:
  • Die Merkmalserkennung arbeitet weniger zuverlässig als das Differenzbild, liefert aber das gewünschte Ergebnis. Allerdings ist die Erkennung stark abhängig von den Strukturen der Person, die das Bild durchläuft. Trägt sie Beispielsweise ein einfarbiges Oberteil, werden weitaus weniger Merkmale gefunden, als bei einem Oberteil mit Logo oder mit viel Struktur. Somit ist es schwer einen sinnvollen Schwellwert zu finden und es hat sich gezeigt, dass manche Personen nicht erkannt werden. Weiterhin ist die Unabhängigkeit gegenüber Helligkeitsänderungen nicht so gut wie erhofft.
  • Durch die Änderung der Helligkeit entstehen an strukturreichen Bildbereichen neue Merkmale, beziehungsweise gehen verloren. Gegenüber dem Differenzbild sind allerdings homogene Flächen gleichbleibend. Bei einer Messung der gefundenen Merkmale unter den Bedingungen wie in 8 wurden ohne Person etwa 100 Merkmale gefunden und mit Person in etwa 200. Bei anderen Personen kann dieser Wert schwanken. Die Rechenleistung bei diesem Verfahren ist verhältnismäßig hoch.
  • Struktur:
  • Die Strukturerkennung liefert das gewünschte Ergebnis nur stark eingeschränkt. Die Veränderung zwischen leerem und Bild mit Person ist nicht groß genug. Die Messung des Mittelwertes des Binärbildes dieser beiden Zustände ergab, mit Person einen Wert von circa 30 und ohne Person um 29. Bei Werten von 0 bis 255 ist dieser Unterschied für eine zuverlässige Erkennung zu gering.
  • Ansatz 3: Gesichtserkennung:
  • Bei der Gesichtserkennung wurde für das frontale Gesicht ein sehr gutes Ergebnis erzielt. Der Algorithmus von Viola und Jones arbeitet sehr zuverlässig und erkennt selbst das Gesicht, wenn es sich in der Projektion befindet. Allerdings konnten keine brauchbaren Trainingsdaten für das Erkennen von Gesichtern im Profil gefunden werden. Auch das Ausblenden von Bildbereichen arbeitet zuverlässig, sodass die Wiedergabe des Videos fortgesetzt werden kann und Bereiche noch sichtbar sind. Allerdings ist die Berechnung etwas intensiver, sodass eine gewisse Latenz zwischen der realen Kopfposition und der errechneten Position des schwarzen Kreises in der Projektion entsteht. Daher kann es bei schnellen Bewegungen des Kopfes dazu kommen, dass die Person geblendet wird, da der schwarze Kreis nicht direkt an die Position des Kopfes verschoben wird. Die daraus resultierende optische Veränderung durch die Projektion im Gesicht kann dazu führen, dass kurzzeitig kein Gesicht erkannt wird. Ein Problem bei diesem Ansatz ergibt sich allerdings, wenn der projizierten Bildinhalt Gesichter enthält. Diese würden erkannt und ausgeblendet werden, ohne dass eine Person in der Projektion ist. Dieses Problem könnte entweder durch eine zusätzliche Analyse des projizierten Bildinhaltes oder durch eine Kombination mit anderen Ansätzen, wie beispielsweise dem Differenzbild, gelöst werden.
  • Übersicht der Ergebnisse:
  • Ansatz Rechenaufwand Stabilität/ Erkennungsrate Helligkeitsinvarianz Optimierungsansätze
    1 Innerhalb Bild + + - Permanente Schwellwertberechnung
    - Lernfähiges Differenzbild
    2.1 Außerhalb Differenzbild - ++ - - Lernfähiges Differenzbild verknüpft mit Beleuchtung
    2.2 Außerhalb Merkmale + -
    2.3 Außerhalb Struktur - - -
    3 Facedetection + + + + - Besserer Algorithmus
    - Voranalyse des Bildmaterials auf Gesichter
    - Kombination mit Differenzbild
  • Das beste Ergebnis würde eine Kombination aus der Gesichtserkennung und Differenzbildverfahren innerhalb der Projektion liefern. Dadurch würde die Gesichtserkennung nur aktiviert werden, wenn sich wirklich eine Person in der Projektion befindet. Das hierbei verwendete Differenzbildverfahren müsste lernfähig sein, für eine Invarianz gegen Helligkeitsänderungen.
  • Literaturverzeichnis:
    • - AKAZE and ORB planar tracking . (04. 09 2016). Abgerufen am 07. 11 2017 von https:l/gregorkovalcik.github.io/opencv_contrib/tutorial_akaze_tracking.html
    • - Alcantarilla, P. F., Nuevo, J., & Bartoli, A. (10 2012). KAZE FEATURES. Abgerufen am 24. 10 2017 von http://robesafe.com/personal/pablo.alcantarilla/kaze.html
    • - Chris Stauffer, W. G. (1999). Adaptive background mixture models for real-time tracking. Cambridge.
    • - Erhardt, A. (2008). Einführung in die Digitale Bildverarbeitung. Vieweg+Teubner.
    • - How to Use Background Subtraction Methods . (7. 11 2017). Abgerufen am 8. 11 2017 von https://docs.opencv.org/master/d1/dc5/tutorial_background_subtraction.html
    • - Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 20. TH Köln.
    • - Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 5. TH Köln.
    • - Laws, K. I. (1980). Rapid Texture Identification.
    • - Melton, B. (2015). Presentation on theme: Segmentation Using Texture. Abgerufen am 22. 11 2017 von http://slideplayer.com/slide/6920161/
    • - Viola, P., & Jones, M. (2001). Rapid Object Detection using a Boosted Cascade of Simple. Cambridge.
  • Bezugszeichenliste
  • 2
    Zielfläche
    4
    Kamera
    6
    Lichtquelle
    8
    Rechner
    10
    Person
    12
    Pfeil
    14a,b
    Bild
    15
    Bildinhalt
    16
    Merkmal
    17
    Umgebung
    18
    Bereich
    20
    Innenraum
    22
    Fahrzeug
    24
    Licht
    26
    Strahlkegel
    28
    Überwachungsabschnitt
    30
    Blickfeld
    32
    Kamerabild
    40a,b
    Faltungsmaske
    42
    Rahmen
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016006703 A1 [0002]
  • Zitierte Nicht-Patentliteratur
    • Alcantarilla, P. F., Nuevo, J., & Bartoli, A. (10 2012). KAZE FEATURES. Abgerufen am 24. 10 2017 [0074]
    • Chris Stauffer, W. G. (1999). Adaptive background mixture models for real-time tracking. Cambridge [0074]
    • Erhardt, A. (2008). Einführung in die Digitale Bildverarbeitung. Vieweg+Teubner [0074]
    • Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 20 [0074]
    • Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 5 [0074]
    • Laws, K. I. (1980). Rapid Texture Identification [0074]
    • Melton, B. (2015). Presentation on theme: Segmentation Using Texture. Abgerufen am 22. 11 2017 [0074]
    • Viola, P., & Jones, M. (2001). Rapid Object Detection using a Boosted Cascade of Simple. Cambridge [0074]

Claims (10)

  1. Verfahren zur Vermeidung einer Blendung einer Person (10) durch eine Lichtquelle (6), die in einem Innenraum (20) eines Fahrzeuges (22) angeordnet ist, wobei die Lichtquelle (6) im Betrieb Licht (24) innerhalb eines Strahlkegels (26) abstrahlt, bei dem: - eine Kamera (4) im Innenraum (20) angeordnet und so ausgerichtet wird, dass zumindest ein Überwachungsabschnitt (28) des Strahlkegels (26), in den die Person (10) eintreten kann, im Blickfeld (30) der Kamera (4) liegt, - die Kamera (4) ein Kamerabild (32) aufnimmt, - aus dem Kamerabild (32) vermittels maschineller Personenerkennung ermittelt wird, ob sich zumindest ein Teil der Person (10) im Strahlkegel (26) befindet, - für diesen Fall zumindest derjenige Bereich (18) des Strahlkegels (26), in dem sich der Teil der Person (10) befindet, blendfrei geschaltet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der gesamte Strahlkegel (26) blendfrei geschaltet wird, wenn sich zumindest ein Teil der Person (10) im Strahlkegel (26) befindet.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bereich (18) des Strahlkegels (26) dadurch blendfrei geschaltet wird, dass die Lichtquelle (6) für den Bereich (18) blendfrei geschaltet oder ausgeschaltet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Strahlkegel (26) auf eine Zielfläche (2) des Innenraums (20) gerichtet wird, und die Kamera (4) so ausgerichtet wird, dass zumindest ein Teilbereich der Zielfläche (2) im Blickfeld (30) der Kamera (4) liegt.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der von der Kamera (4) erfasste Teilbereich der Zielfläche (2) beim maschinellen Sehen nicht berücksichtigt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der von der Kamera (4) erfasste Teilbereich der Zielfläche (2) nur bezüglich von der Lichtquelle (6) erzeugter Bildinhalte (15) in Form von Personen und/oder Bewegungen und/oder menschenähnlichen Bildelementen beim maschinellen Sehen nicht berücksichtigt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (4) so ausgerichtet wird, dass auch eine Umgebung (17) des Strahlkegels (26) im Blickfeld (30) der Kamera (4) liegt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (4) neben der Lichtquelle (6) platziert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass im Rahmen der maschinellen Personenerkennung ein maschinelles Sehen und/oder eine Gesichtserkennung und/oder eine Texturerkennung und/oder eine Bewegungserkennung durchgeführt wird.
  10. Verwendung der maschinellen Personenerkennung in einem Verfahren nach einem der vorhergehenden Ansprüche.
DE102018010099.6A 2018-12-21 2018-12-21 Vermeiden der Blendung von Personen durch eine Lichtquelle Active DE102018010099B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102018010099.6A DE102018010099B4 (de) 2018-12-21 2018-12-21 Vermeiden der Blendung von Personen durch eine Lichtquelle
CA3059405A CA3059405A1 (en) 2018-12-21 2019-10-21 Avoiding dazzling of persons by a light source
BR102019024585A BR102019024585A8 (pt) 2018-12-21 2019-11-22 Evitar o ofuscamento das pessoas através de uma fonte de luz
CN201911162022.7A CN111355940A (zh) 2018-12-21 2019-11-25 避免光源致人眩晕
US16/716,928 US10858105B2 (en) 2018-12-21 2019-12-17 Avoiding dazzling of persons by a light source
FR1914579A FR3090522B1 (fr) 2018-12-21 2019-12-17 Procédé pour éviter l’éblouissement de personne(s) par une source lumineuse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018010099.6A DE102018010099B4 (de) 2018-12-21 2018-12-21 Vermeiden der Blendung von Personen durch eine Lichtquelle

Publications (2)

Publication Number Publication Date
DE102018010099A1 true DE102018010099A1 (de) 2020-06-25
DE102018010099B4 DE102018010099B4 (de) 2021-12-02

Family

ID=70969093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018010099.6A Active DE102018010099B4 (de) 2018-12-21 2018-12-21 Vermeiden der Blendung von Personen durch eine Lichtquelle

Country Status (6)

Country Link
US (1) US10858105B2 (de)
CN (1) CN111355940A (de)
BR (1) BR102019024585A8 (de)
CA (1) CA3059405A1 (de)
DE (1) DE102018010099B4 (de)
FR (1) FR3090522B1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365871B2 (en) 2020-04-06 2022-06-21 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015332A1 (de) * 2005-04-04 2006-11-16 Denso Corp., Kariya Gastservice-System für Fahrzeugnutzer
DE102006030300C5 (de) * 2006-06-30 2014-06-18 Audi Ag Kraftfahrzeug umfassend mehrere im Innenraum verteilt angeordnete Leuchteinrichtungen enthaltend wenigstens ein Leuchtmittel zur Beleuchtung des Fahrzeuginnenraums
DE102013223145A1 (de) * 2013-11-13 2015-05-13 Volkswagen Aktiengesellschaft Fahrzeug mit einer Vorrichtung und Verfahren zur Beleuchtung eines Innenraums des Fahrzeugs
DE102015215371A1 (de) * 2014-12-16 2016-06-16 Hyundai Motor Company Fahrzeugbeleuchtungssteuersystem unter verwendung einer tragbaren brille und verfahren zum steuern desselben
DE102008006973B4 (de) * 2007-02-02 2017-03-02 Denso Corporation Projektor und Bildaufnahmevorrichtung
DE102016006703A1 (de) 2016-06-01 2017-12-07 Diehl Aerospace Gmbh Beleuchtungsanordnung für einen Innenraum eines Fahrzeugs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011140264A (ja) * 2010-01-07 2011-07-21 Jamco Corp 航空機の客室照明装置
US20150102998A1 (en) * 2012-06-15 2015-04-16 Nec Corporation Projection-type projector, anti-glare method, and program for anti-glare
DE102013207062A1 (de) * 2013-04-18 2014-10-23 Airbus Operations Gmbh Fahrzeugkabinenanordnung mit einer Beleuchtungseinrichtung
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
WO2016134732A1 (en) * 2015-02-23 2016-09-01 Coelux S.R.L. Seat illuminating system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015332A1 (de) * 2005-04-04 2006-11-16 Denso Corp., Kariya Gastservice-System für Fahrzeugnutzer
DE102006030300C5 (de) * 2006-06-30 2014-06-18 Audi Ag Kraftfahrzeug umfassend mehrere im Innenraum verteilt angeordnete Leuchteinrichtungen enthaltend wenigstens ein Leuchtmittel zur Beleuchtung des Fahrzeuginnenraums
DE102008006973B4 (de) * 2007-02-02 2017-03-02 Denso Corporation Projektor und Bildaufnahmevorrichtung
DE102013223145A1 (de) * 2013-11-13 2015-05-13 Volkswagen Aktiengesellschaft Fahrzeug mit einer Vorrichtung und Verfahren zur Beleuchtung eines Innenraums des Fahrzeugs
DE102015215371A1 (de) * 2014-12-16 2016-06-16 Hyundai Motor Company Fahrzeugbeleuchtungssteuersystem unter verwendung einer tragbaren brille und verfahren zum steuern desselben
DE102016006703A1 (de) 2016-06-01 2017-12-07 Diehl Aerospace Gmbh Beleuchtungsanordnung für einen Innenraum eines Fahrzeugs

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Alcantarilla, P. F., Nuevo, J., & Bartoli, A. (10 2012). KAZE FEATURES. Abgerufen am 24. 10 2017
Chris Stauffer, W. G. (1999). Adaptive background mixture models for real-time tracking. Cambridge
Erhardt, A. (2008). Einführung in die Digitale Bildverarbeitung. Vieweg+Teubner
Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 20
Kunz, D. (2016). Bildverarbeitung SS 2016 Kapitel 5
Laws, K. I. (1980). Rapid Texture Identification
Melton, B. (2015). Presentation on theme: Segmentation Using Texture. Abgerufen am 22. 11 2017
Viola, P., & Jones, M. (2001). Rapid Object Detection using a Boosted Cascade of Simple. Cambridge

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365871B2 (en) 2020-04-06 2022-06-21 Robert Bosch Gmbh Human tracking to produce improved jobsite lighting

Also Published As

Publication number Publication date
CA3059405A1 (en) 2020-06-21
US10858105B2 (en) 2020-12-08
DE102018010099B4 (de) 2021-12-02
US20200198784A1 (en) 2020-06-25
BR102019024585A2 (pt) 2020-11-03
FR3090522B1 (fr) 2022-07-22
BR102019024585A8 (pt) 2022-08-09
FR3090522A1 (fr) 2020-06-26
CN111355940A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE102015121339B4 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE60030377T2 (de) Kennzeichenschilderkennung mit einer intelligenten Kamera
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE102006010607A1 (de) Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
DE112011101939T5 (de) Detektion von Objekten in einem Bild unter Verwendung von Selbstähnlichkeiten
DE112015006385T5 (de) Bildgebende vorrichtung und bildgebendes verfahren, bedienungsvorrichtung und -verfahren und programm und aufzeichnungsmedium
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE102014111748A1 (de) Gesichtsdetektion
DE112018005191T5 (de) System und Verfahren zur Verbesserung des Signal-Rausch-Verhältnisses bei der Objektverfolgung unter schlechten Lichtbedingungen
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
DE102014117102A1 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102021203020A1 (de) Generative-adversarial-network-modelle zur detektion kleiner strassenobjekte
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
DE102017124600A1 (de) Semantische Segmentierung eines Objekts in einem Bild
DE102018010099B4 (de) Vermeiden der Blendung von Personen durch eine Lichtquelle
DE112019006414T5 (de) Vorrichtung und Verfahren zur Detektion von Menschen
DE102013210771A1 (de) Detektion eines komplexen objekts unter verwendung einer kaskade von klassifizierungseinrichtungen
DE102018100315A1 (de) Erzeugen von Eingabedaten für ein konvolutionelles neuronales Netzwerk
DE102019129029A1 (de) System und verfahren zur objektdetektion
DE102013224382A1 (de) Beschleunigte Objekterkennung in einem Bild
DE102015200434A1 (de) Verfahren und Vorrichtung zur Verbesserung der Objekterkennung bei unterschiedlichenBeleuchtungssituationen
EP4046595A1 (de) Verfahren zur festlegung einer zahnfarbe

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60Q0003180000

Ipc: B60Q0003200000

R018 Grant decision by examination section/examining division
R020 Patent grant now final