DE102014209039A1 - Verfahren und System zur Präsenzortung - Google Patents

Verfahren und System zur Präsenzortung Download PDF

Info

Publication number
DE102014209039A1
DE102014209039A1 DE102014209039.3A DE102014209039A DE102014209039A1 DE 102014209039 A1 DE102014209039 A1 DE 102014209039A1 DE 102014209039 A DE102014209039 A DE 102014209039A DE 102014209039 A1 DE102014209039 A1 DE 102014209039A1
Authority
DE
Germany
Prior art keywords
pixels
image
interest
pixel
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014209039.3A
Other languages
English (en)
Inventor
Saptarshi DAS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osram GmbH
Original Assignee
Osram GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osram GmbH filed Critical Osram GmbH
Publication of DE102014209039A1 publication Critical patent/DE102014209039A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/026Control of working procedures of a pyrometer, other than calibration; Bandwidth calculation; Gain control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0831Masks; Aperture plates; Spatial light modulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)

Abstract

Ein Verfahren zur Präsenzortung umfasst die Schritte Erfassen eines räumlich kodierten Bilds einer Szene, Identifizieren eines interessierenden Gebiets in dem Bild, Erzeugen eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet und Klassifizieren von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex.

Description

  • ERFINDUNGSGEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Präsenzortung, vorzugsweise auf effiziente Weise. Insbesondere betrifft die vorliegende Erfindung Präsenzortung in einem definierten Bereich.
  • HINTERGRUND DER ERFINDUNG
  • Energieeinsparung ist eine der wichtigsten Anforderungen der heutigen elektronischen Ära. Menschen sind zur Automatisierung übergegangen und verlassen sich zur Durchführung ihrer täglichen Aufgaben hauptsächlich auf automatisierte elektronische/mechanische Systeme verschiedener Art. Eine der Arten derartiger automatisierter Systeme sind Systeme zur Steuerung von elektronischen Einrichtungen, Beleuchtungsquellen oder anderen energieverbrauchenden Einrichtungen usw. in einem Raum (oder einem definierten Bereich). Derartige Systeme sind dazu konfiguriert, die Beleuchtungsquellen und/oder andere energieverbrauchende Einrichtungen auf der Basis der Präsenz im Raum (oder im definierten Bereich) zu steuern. Im Allgemeinen umfassen die Systeme Sensoren zur Detektion der Präsenz im Raum und aktivieren/deaktivieren die elektronischen Einrichtungen aufgrund der Präsenz ohne jeglichen manuellen Eingriff, wodurch eine Energieverschwendung verhindert wird.
  • Präsenzdetektionssysteme bestehen im Wesentlichen aus Sensoren und einem Controller, der über ein Netzwerk mit den Sensoren verbunden ist, um Beleuchtungsquellen und andere energieverbrauchende Einrichtungen aufgrund der Präsenz in einem Raum (oder einem definierten Bereich) zu steuern. Die Sensoren detektieren, ob der Raum (oder der definierte Bereich) leer oder belegt ist, und geben die Informationen an den Controller weiter, der schließlich die Beleuchtung durch Beleuchtungseinrichtungen und die Leistung anderer energieverbrauchender Einrichtungen steuert.
  • Bei derartigen Systemen sinkt die Effizienz bei einem größeren Bereich, wie zum Beispiel bei großen Räumen, Konferenzräumen, Büroräumen, Tagungsstätten usw., da die meiste Zeit nur ein kleiner Abschnitt des Raums belegt ist. In derartigen Situationen sollte die optimale Energiesparstrategie darin liegen, die Beleuchtungen (oder andere energieverbrauchende Einrichtungen) in dem nicht belegten Bereich langsam zu dimmen (oder auszuschalten). Derartige offenbarte Systeme können jedoch aufgrund mangelnder optimierter Funktionalität des Systems in Bezug auf Präsenzortung im definierten Bereich die erwünschten Funktionen nicht durchführen.
  • Um die obigen Mängel typischer Präsenzdetektionssysteme zu überwinden, wurden mittlerweile Präsenzortungssysteme entwickelt. Bei derartigen Systemen wurden zur Präsenzortung Sensormessungen mit herkömmlichen Hochauflösungsvideokameras und Ressourcen mit hohem Rechenaufwand verwendet. Somit waren diese Systeme nicht kosteneffektiv und benötigen Wartung.
  • Weiterhin werden herkömmliche Präsenzortungssysteme aufgerüstet, indem Coded-Aperture-Kameras (Kameras mit kodierter Maske) statt klassischer Kameras auf Linsenbasis verwendet werden. Coded-Aperture-Kameras sind wesentlich billiger, haben ein größeres Gesichtsfeld und benötigen keine Wartung. Coded-Aperture-Kameras mit einer reduzierten Anzahl von Photosensoren, auch bekannt als Compressive-Coded-Aperture-Kameras, sind wesentlich billiger und haben mehrere wünschenswerte Eigenschaften. Die Messungen aus der Coded-Aperture-Kamera benötigen jedoch im Vergleich zu Kameras auf Linsenbasis eine kompliziertere Verarbeitung.
  • Allgemein ähnelt die Coded-Aperture-Kamera einer Lochkamera, obwohl die Apertur der Compressive-Coded-Aperture-Kamera aus mehreren Löchern besteht. Somit weist die Coded-Aperture-Kamera im Vergleich zur klassischen Lochkamera ein besseres Signal-Rausch-Verhältnis auf.
  • Obwohl die Coded-Aperture-Kamera Vorteile gegenüber der herkömmlichen Kamera auf Linsenbasis und der Lochkamera aufweist, benötigen die Photosensormessungen, die mit der Coded-Aperture-Kamera erhalten werden, eine umfassende Nachverarbeitung, um das Bild zu rekonstruieren. Da Compressive-Coded-Aperture-Kameras eine geringere Anzahl von Sensoren verwenden als die Anzahl von Pixeln im Bild, ist die benötigte Nachverarbeitung noch umfassender.
  • In Bezug auf Coded-Aperture-Kameras gibt es verschiedene Erfindungen. Was es jedoch nicht gibt sind praktische Verfahren im Stand der Technik, die zur Präsenzortung mit einer Compressive-Coded-Aperture-Kamera zur Verfügung stehen. Ferner sind diese Verfahren nicht für Echtzeit-Implementierung mittels Mikrocontroller geeignet. Einige davon werden im Folgenden erörtert:
    In Bezugsdokument [1] (R. F. Marcia und R. M. Willett. Compressive coded aperture superresolution image reconstruction. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International Conference, Seiten 833–836, IEEE, 2008) ist eine spezielle Apertur für eine Compressive-Coded-Aperture-Kamera ausgeführt und es wird ein bekannter Algorithmus zur Kompressionserfassung zur Rekonstruktion des Szenebilds verwendet. Das in Bezugsdokument [1] dargestellte Verfahren benötigt jedoch eine spezielle Aperturausführung und der Rechenaufwand ist für eine Implementierung in einem Mikrocontroller zu hoch.
    In Bezugsdokument [2] (R. Marcia, Z. Harmany und R. Willett. Compressive coded aperture imaging. In Proc. SPIE Symp. Elec. Imaging: Computer Imaging, San Jose, CA, 2009) wurde ein spezieller optischer Aufbau mittels einer Compressive-Coded-Aperture-Kamera vorgenommen, um Bilder mit Superauflösung zu erhalten. Das in Bezugsdokument [2] beschriebene Verfahren benötigt jedoch einen speziellen optischen Aufbau, und der Rechenaufwand ist für eine Implementierung in einem Mikrocontroller zu hoch.
    In Bezugsdokument [3] (N. Jacobs, S. Schuh und R. Pless. Compressive sensing and differential image-motion estimation. In Acoustics, Speech and Signal Processing (ICASSP), 2010. IEEE International Conference, Seiten 718–836, IEEE, 2010) ist ein Verfahren zur Verarbeitung von Sensormessungen einer Compressive-Coded-Aperture-Kamera zur Detektion einer Bewegung oder Präsenz beschrieben. Das in Bezugsdokument [3] beschriebene Verfahren benötigt jedoch ein genaues Bewegungsmodell. Der Bedarf an einem genauen Bewegungsmodell macht das Verfahren nach Bezugsdokument [3] unpraktisch.
  • Um die oben identifizierten Einschränkungen des bestehenden Stands der Technik zu überwinden, besteht ein Bedarf an einer Lösung, die ein praktisches und kostengünstiges Präsenzortungssystem bereitstellt, das sehr schnelle und speichereffiziente Verarbeitung von Daten verwendet, bei der die Sensormessungen aus einer Compressive-Coded-Aperture-Kamera vorzugsweise unter Verwendung eines 20–50 MHz Mikrocontrollers verwendet werden.
  • AUFGABE DER ERFINDUNG
  • Die Aufgabe der vorliegenden Erfindung besteht darin, eine Lösung für die oben erwähnten Mängel des bestehenden Stands der Technik bereitzustellen, indem ein neues Verfahren und ein System zur Präsenzortung bereitgestellt werden.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein schnelles und speichereffizientes Verfahren und System zur Präsenzortung bereitzustellen.
  • Die weitere Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren und ein System bereitzustellen, das ein Bild nicht aus den Messungen einer Compressive-Coded-Aperture-Kamera rückgewinnt, sondern nur die belegten Positionen identifiziert, wodurch die Komplexität des Systems reduziert wird.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die Aufgabe der vorliegenden Erfindung wird durch ein Verfahren zur Präsenzortung erreicht, das die Schritte Erfassen eines räumlich codierten Bilds einer Szene und Identifizieren eines interessierenden Gebiets im Bild umfasst. Danach Erzeugen eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet und Klassifizieren von Pixeln in Bezug auf die Belegung als Reaktion auf den Pixelplausibilitätsindex.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst der Schritt des Erfassens des räumlich codierten Bilds eine Berechnung von Sensormessungen einer Compressive-Coded-Aperture-Kamera für einen aktuellen Rahmen des Bilds und Hintergrundsensormessungen des Bilds.
  • Vorzugsweise umfasst das interessierende Gebiet in dem Bild alle Mx×Nx-Pixel des Bilds, falls alle Pixel des Bilds getestet werden sollen, wobei Mx×Nx die Abmessung des Bilds ist. Ansonsten eine Teilmenge aller Mx×Nx-Pixel des Bilds, falls nur die Pixel in einem bestimmten Gebiet des Bilds getestet werden müssen.
  • Gemäß einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst der Schritt des Identifizierens des interessierenden Gebiets in dem Bild einen Schritt des Erzeugens einer Liste von interessierenden Pixeln in dem Bild.
  • Vorzugsweise umfasst der Schritt des Erzeugens der Liste von interessierenden Pixeln in dem Bild weiterhin ein Erzeugen einer Liste bei der Erwägung, dass sich eine anwesende Person nicht um mehr als ein Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann.
  • Gemäß noch einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst der Schritt des Erzeugens der Liste von interessierenden Pixeln in dem Bild weiterhin ein Erzeugen einer Liste während der Erwägung zweiter Nachbarpixel der schon belegten Pixel in dem Bild.
  • Bevorzugt umfasst die Liste von interessierenden Pixeln in dem Bild Pixel an der Grenze des interessierenden Gebiets, Pixel, die in einem letzten Rahmen belegt waren, und Pixel, die sich an der Grenzfläche der derzeit belegten Pixel befinden.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst der Schritt des Erzeugens eines Pixelplausibilitätsindexes ein Berechnen eines Pixelplausibilitätsindexes gemäß einer linearen Beziehung y = Φx + η wobei y die MyNy×1 vektorisierte Sensormessung ist, wobei My×Ny ein Array aus Photosensoren ist, Φ eine optische Übertragungsmatrix ist, die die Szene mit der Sensormessung in Beziehung setzt, die eine MyNy×MxNx-Matrix ist, x eine MxNx×1 vektorisierte Form der Szene ist und η der Rauschterm ist, der für den Messfehler und Modellfehler steht.
  • Gemäß einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst der Schritt des Klassifizierens von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex vorzugsweise ein Klassifizieren der Pixel auf der Basis einer festgelegten Grenzschwelle des Pixelplausibilitätsindexes, wobei Pixel mit einem Plausibilitätsindex über der festgelegten Grenzschwelle als belegt klassifiziert sind und Pixel mit einem Plausibilitätsindex unter der festgelegten Grenzschwelle als nicht belegt klassifiziert sind.
  • Die Aufgabe der vorliegenden Erfindung kann außerdem durch ein System für Präsenzortung erreicht werden. Das System umfasst Mittel zur Erfassung eines räumlich codierten Bilds einer Szene, Mittel zur Identifizierung eines interessierenden Gebiets in dem Bild, Mittel zur Erzeugung eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet und Mittel zur Klassifizierung von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung ist das System für eine Compressive-Coded-Aperture-Kamera ausgelegt, die eine günstige Kamera ist, die wenig Wartung benötigt. Ferner ist es derart konfiguriert, dass es mit einem 20-MHz-Mikrocontroller arbeiten kann.
  • Vorzugsweise umfasst das Mittel zur Erfassung des räumlich codierten Bilds eine Compressive-Coded-Aperture-Kamera.
  • Ferner ist das Mittel zur Erfassung des räumlich codierten Bilds zur Berechnung von Sensormessungen einer Compressive-Coded-Aktion-Kamera für einen aktuellen Rahmen des Bilds und von Hintergrundsensormessungen des Bilds konfiguriert.
  • Gemäß noch einer weiteren Ausführungsform der vorliegenden Erfindung ist das Mittel zur Identifizierung des interessierenden Gebiets in dem Bild zur Erzeugung einer Liste von interessierenden Pixeln in dem Bild konfiguriert. Die Liste von interessierenden Pixeln in dem Bild wird erzeugt bei einer Erwägung, dass sich eine anwesende Person nicht um mehr als ein Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann.
  • Gemäß einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung wird die Liste von interessierenden Pixeln in dem Bild bei Erwägung von zweiten Nachbarpixeln der schon belegten Pixel in dem Bild erzeugt.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung ist das Mittel zur Erzeugung des Pixelplausibilitätsindexes zur Berechnung eines Pixelplausibilitätsindexes gemäß einer linearen Beziehung y = Φx + η konfiguriert, wobei y die MyNy×1 eine vektorisierte Sensormessung ist, wobei My×Ny ein Array aus Photosensoren ist, Φ eine optische Übertragungsmatrix ist, die die Szene mit der Sensormessung in Beziehung setzt, die eine MyNy×MxNx-Matrix ist, x eine MxNx×1 vektorisierte Form der Szene ist und η der Rauschterm ist, der für den Messfehler und Modellfehler steht.
  • Vorzugsweise ist das Mittel zur Klassifizierung von Pixeln in Bezug auf Belegung als Reaktion auf den Pixelplausibilitätsindex dazu konfiguriert, die Pixel auf der Basis einer festgelegten Grenzschwelle des Pixelplausibilitätsindexes zu klassifizieren, wobei Pixel mit einem Plausibilitätsindex über der festgelegten Grenzschwelle als belegt klassifiziert werden und Pixel mit einem Plausibilitätsindex unter der festgelegten Grenzschwelle als nicht belegt klassifiziert werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die begleitenden Zeichnungen bilden einen Teil der Beschreibung und dienen zum besseren Verständnis der vorliegenden Erfindung. Derartige begleitenden Zeichnungen stellen die Ausführungsformen der vorliegenden Erfindung dar, die zur Beschreibung der Prinzipien der vorliegenden Erfindung zusammen mit der Beschreibung dienen. In den begleitenden Zeichnungen sind gleiche Komponenten mit den gleichen Bezugszeichen bezeichnet. In den Zeichnungen zeigen:
  • 1 ein Blockschaltbild des Systems zur Präsenzortung gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung.
  • 2 ein Fließschema des Verfahrens zur Präsenzortung gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung.
  • 3 eine schematische Ansicht der zu betrachtenden Szene, während eine Liste von interessierenden Pixeln in dem Bild unter Betrachtung erzeugt wird, welche drei Typen von Pixeln gemäß der einen der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst.
  • AUSFÜHRLICHE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird im Folgenden durch verschiedene Ausführungsformen mit Bezug auf die begleitenden Zeichnungen beschrieben, wobei in den begleitenden Zeichnungen verwendete Bezugszahlen gleichen Elementen in der gesamten Beschreibung entsprechen. Um eine volle Beschreibung und Erklärung zu erhalten, werden spezielle Einzelheiten erwähnt, um ein gründliches und umfassendes Verständnis verschiedener Ausführungsformen der vorliegenden Erfindung zu vermitteln. Die Ausführungsformen können jedoch ohne derartige spezielle Einzelheiten und auf verschiedenen anderen, hier breit abgedeckten Wegen verwendet werden. Bekannte Merkmale und Einrichtungen wurden der Kürze halber in Form von Blockschaltbildern gezeigt, um Redundanz zu verhindern. Ferner wurden die Blockschaltbilder einbezogen, um die Beschreibung einer oder mehrerer Ausführungsformen zu erleichtern.
  • 1 zeigt ein Blockschaltbild des Systems zur Präsenzortung gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung. Das offenbarte System (100) umfasst ein Mittel zur Erfassung (102) eines räumlich codierten Bilds einer Szene, ein Mittel zur Identifizierung (104) eines interessierenden Gebiets in dem Bild, ein Mittel zur Erzeugung (106) eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet und ein Mittel zur Klassifizierung (108) von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst das Mittel zur Erfassung (102) eines räumlich codierten Bilds der Szene unter anderem eine Compressive-Coded-Aperture-Kamera. Das Mittel zur Erfassung (102) umfasst weiterhin einen Mikroprozessor, der mit der Compressive-Coded-Aperture-Kamera verbunden ist. Der Mikroprozessor berechnet die Sensormessungen der Compressive-Coded-Aperture-Kamera für einen aktuellen Rahmen des Bilds und Hintergrundsensormessungen des Bilds.
  • Vorzugsweise ist die Compressive-Coded-Aperture-Kamera ausgerüstet mit einem My×Ny-Array aus Photosensoren, wobei y die MyNy×1 vektorisierte Sensormessung ist. Ferner ist Mx×Nx die Abmessungen der zugrundeliegenden Szene und x ist die MxNx×1 vektorisierte Form der Szene. Die optische Übertragungsmatrix, die die Szene mit den Sensormessungen in Beziehung setzt, ist durch Φ bezeichnet, was eine MyNy×MxNx-Matrix ist. Somit sind die Sensormessungen und die Szene durch die folgende Beziehung in Beziehung gesetzt: y = Φx (1)
  • Im Zusammenhang einer Compressive-Coded-Aperture-Kamera ist MyNy < MxNx.
  • Gemäß einer noch weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst das Mittel zur Identifizierung (104) des interessierenden Gebiets in dem Bild einen Mikrocontroller, der dazu konfiguriert ist, eine Liste von interessierenden Pixeln in dem Bild zu erzeugen.
  • Vorzugsweise zieht der Mikrocontroller in Erwägung, dass sich eine anwesende Person nicht um mehr als einen Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann. Falls diese Annahme jedoch verletzt wird, zieht er die zweiten Nachbarpixel der schon belegten Pixel zur Erzeugung der Liste von interessierenden Pixeln in dem Bild in Erwägung. Weiterhin zieht der Mikrocontroller unter anderem drei Typen von Pixeln bei der Erzeugung der Liste von interessierenden Pixeln in dem Bild in Erwägung, wie zum Beispiel Pixel an der Grenze des interessierenden Gebiets, Pixel, die in einem letzten Rahmen belegt waren, und Pixel, die sich an der Grenzfläche der aktuell belegten Pixel befinden.
  • Gemäß einer noch weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst das Mittel zur Erzeugung (106) des Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet einen Prozessor, der dazu konfiguriert ist, den Pixelplausibilitätsindex bei der Erwägung der hintergrundkorrigierten Messungen der Compressive-Coded-Aperture-Kamerasensoren und der optischen Übertragungsmatrix (Φ) zu berechnen. Die ausführlichen Informationen in Bezug auf das Berechnen des Pixelplausibilitätsindexes werden im Folgenden unter der ausführlichen Beschreibung der 2 ausgeführt.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst das Mittel zur Klassifizierung (108) von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex einen Klassifikator (wie zum Beispiel ein Bandpassfilter), der die Pixel auf der Basis einer festgelegten Grenzschwelle als belegt oder nicht belegt klassifiziert. Es ist hier zu beachten, dass das Bandpassfilter lediglich beispielhaft erwähnt wurde und ein beliebiger Typ von Filter oder Prozessor als Klassifikator zur Bereitstellung der gewünschten Resultate zusammen mit der Anwendung eines anderen Verfahrens zur Klassifizierung von Pixeln verwendet werden kann.
  • Gemäß einer noch weiteren bevorzugten Ausführungsform der vorliegenden Erfindung umfasst das System (100) ein Display oder eine Anzeige, das bzw. die dazu konfiguriert ist, die Resultate der Funktion der oben genannten Komponenten des Systems (100) anzuzeigen oder anzugeben.
  • 2 zeigt ein Fließschema des Verfahrens zur Präsenzortung gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung. Das offenbarte Verfahren rekonstruiert nicht das gesamte Bild der Szene, sondern identifiziert die Positionen, an denen sich das Bild der Szene erheblich von dem Hintergrund unterscheidet, und ortet anwesende Personen. In der offenbarten bevorzugten Ausführungsform, wie sie in 2 gezeigt ist, wird der Prozess der Präsenzortung durch Verwendung von Sensormessungen der Compressive-Coded-Aperture-Kamera wie folgt ausgeführt:
    Im Schritt 202 wird ein räumlich codiertes Bild einer Szene erfasst. Dieser Schritt enthält eine Initialisierung von Variablen, einer Liste usw. Zum Beispiel sollte gleich am Anfang die Liste von Objekten auf leer eingestellt werden. Eine der binären Variablen allPixels, die die Informationen bezüglich dessen behält, ob alle Szenenpixel für Objektdetektion in Erwägung gezogen werden sollen oder nicht. Die Variable allPixels sollte gleich am Anfang auf NEIN eingestellt werden. Beliebige andere Variablen, die eine geeignete Initialisierung benötigen, sollten in diesem Schritt initialisiert werden.
  • Ferner umfasst der Schritt 202 einen Schritt des Berechnens von Sensormessungen der Compressive-Coded-Aperture-Kamera für den aktuellen Rahmen (Y) des Bilds zusammen mit den Hintergrundsensorabmessungen (B) des Bilds. Danach wird der aktuelle Rahmen des Bilds mittels der Hintergrundsensorbildmessungen des Bilds korrigiert, wie zum Beispiel unter anderem durch Durchführung einer einfachen punktweisen Subtraktion (Y = Y – B).
  • In Schritt 204 wird ein interessierendes Gebiet in dem Bild identifiziert. Das interessierende Gebiet in dem Bild hängt von der Entscheidung eines Fachmanns, der den offenbarten Prozess durchführt, ab, ob er alle Mx×Nx-Pixel des Bilds testen möchte oder eine Teilmenge aller Nx×Nx-Pixel des Bilds. Mit anderen Worten sollten, falls zu der Entscheidungsfrage Sind alle Pixel nötig die Entscheidung JA ist, alle Mx×Nx-Pixel getestet werden, und falls die Entscheidung NEIN ist, sollten nur die Pixel (d. h. eine Teilmenge aller Mx×Nx-Pixel) in dem interessierenden Gebiet in dem Bild getestet werden.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung enthält der Schritt 204 ein Erzeugen der Liste von interessierenden Pixel in dem Bild, wobei die Liste von interessierenden Pixeln unter anderem aus den folgenden drei Typen von Pixeln besteht:
    • • Pixel an der Grenze des interessierenden Gebiets in dem Bild;
    • • Pixel, die in einem letzten Rahmen belegt waren, und
    • • Pixel, die sich an der Grenzfläche der aktuell belegten Pixel befinden.
  • Bei der Erwägung von Pixeln an der Grenze des interessierenden Gebiets in dem Bild wird vorzugsweise angenommen, dass neue anwesende Personen nur durch Durchqueren dieser Pixel eintreten können. Zur Erwägung von Pixeln, die in dem letzten Rahmen belegt waren, werden weiterhin Informationen aus einer Objektliste benötigt. Die Objektliste besteht unter anderem aus einer Datenbank von Objekten und besteht aus Informationen bezüglich ihrer Positionen und/oder Bewegung. Außerdem wird für Pixel, die sich an der Grenzfläche der aktuell belegten Pixel befinden, angenommen, dass dies die Pixel sind, die durch die Bewegung der anwesenden Personen des vorherigen Rahmens belegt sein können. Diese drei Typen von Pixeln wurden in 3 der Übersicht und Erklärung halber gezeigt.
  • Ferner enthält der Schritt 204 ein Erzeugen der Liste von interessierenden Pixeln in dem Bild bei der Erwägung, dass sich eine neue anwesende Person nicht um mehr als ein Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann. Die Erwägung zeigt sich als vernünftig und trifft in den meisten praktischen Fällen zu; falls aber die Erwägung verletzt wird, werden die zweiten Nachbarpixel der schon belegten Pixel zur Erzeugung der Liste von interessierenden Pixeln in dem Bild in Erwägung gezogen.
  • Bei Schritt 206 wird ein Pixelplausibilitätsindex für jedes Bildpixel in dem interessierenden Gebiet erzeugt. Mit anderen Worten wird die Plausibilität für jedes Pixel als Teil einer anwesenden Person berechnet. Dies ist der kritischste Schritt des offenbarten Prozesses und das Ziel des beanspruchten Prozesses ist es, dass er mit eingeschränkten Computer- und Speicherressourcen durchgeführt werden soll.
  • Gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung kann der Pixelplausibilitätsindex durch Verwendung der hintergrundkorrigierten Messungen der Compressive-Coded-Aperture-Kamerasensoren und der optischen Übertragungsmatrix geschätzt werden. Zusätzlich zu diesen Parametern wurden auch Rauschmessungen in den letzten Berechnungen in Erwägung gezogen. Die Gleichung 2 unten wird verwendet: y = Φx + η (2) wobei η der Rauschterm zur Einbeziehung des Messfehlers und Modellfehlers ist.
  • Das reduzierte System von Gleichungen zwischen den beobachteten Sensormessungen und den interessierenden Pixeln ist gegeben durch: y = ΦIxI + η (3) wobei I den Index der Liste von Pixeln in dem interessierenden Gebiet bezeichnet, xI den auf den Index I begrenzten Bildpixelwert bezeichnet und ΦI die optische Übertragungsmatrix Φ begrenzt auf den Index I bezeichnet, d. h. ΦI besteht aus den Spalten für entsprechend der Indexmenge I.
  • Vorzugsweise kann der Plausibilitätsindex durch grobe Lösung der Gleichung (3) und der Erwägung des Betrags der Lösung als Plausibilitätsindex geschätzt werden. Eine Richtlinie zur Lösung der Gleichung (3) kann wie folgt aussehen:
    Figure DE102014209039A1_0002
  • Die Strafterme
    Figure DE102014209039A1_0003
    in Bezug auf die Gesamtvariation der Szene werden aus den folgenden zwei Gründen verwendet: zuerst im Fall einer Compressive-Coded-Aperture-Kamera, wobei die Matrix ΦI unterbestimmt sein kann; zweitens handelt es sich bei der Glätte um eine praktische a-priori-Information für Bilder, und die Gesamtvariationsstrafe bedingt die Glätte. Das obige Optimierungsproblem (4) kann auch als ein Optimierungsproblem mit Nebenbedingungen aufgestellt werden, und die Gleichung (4) wird die entsprechende Lagrangeform aufweisen.
  • In (4) können verschiedene Werte für p und q verwendet werden. Für eine robuste Lösung wird jedoch in (4) p = q = 1 verwendet. Bei Erwägung von p = q = 1 in der Gleichung (4) kann die Gleichung (4) wie folgt umgeschrieben werden:
    Figure DE102014209039A1_0004
  • Das Problem in Gleichung (5) ist in der kanonischen Form der Regressionen mit der kleinsten absoluten Abweichung und kann auf verschiedene Arten gelöst werden. Ein iteratives neugewichtetes kleinstes Quadrat von (5) wird dazu verwendet, es teilweise zu lösen, d. h. um ein Zwischenergebnis mittels nur einiger weniger Schritte zu erreichen, wie durch die Rechenressourcen erlaubt ist. Das Verfahren mit den neugewichteten kleinsten Quadraten wird durch Einstellen der Gewichte gleich Eins für alle Variablen gestartet. Nach jeder der Iterationen der iterativen neugewichteten kleinsten Quadrate wird das Gewicht als Inverse des Rests neu eingeschätzt. Mit jeder Iteration des iterativen neugewichteten kleinsten Quadrats werden die folgenden kleinsten Quadrate zur Lösung benötigt:
    Figure DE102014209039A1_0005
    wobei W die Gewichtsmatrix ist. Das Problem (6) ist ein kanonisches Problem des kleinsten Quadrats. Aufgrund der Einschränkung der Computereinschränkungen wird statt das Teilproblem zu lösen das Gewicht für die nächste Iteration aktualisiert. Die Lösung kann durch Verwendung von einem Verfahren vom Konjugierten-Gradienten-Typ erreicht werden, insbesondere Kopplung von Iterationen von LSQR- und LSMR-Algorithmen. Um in nur wenigen Schritten näher an die Lösung zu geraten, können Vorvoraussetzungen wie Jacobi-Vorvorvaussetzungen verwendet werden.
  • Bei Schritt 208 wurden Pixel in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex klassifiziert. Mit anderen Worten wird der Plausibilitätsindex der Pixel zur Klassifizierung von Pixeln als belegt oder nicht belegt verwendet. Für die Klassifizierung von Pixeln auf Basis des Plausibilitätsindexes gibt es verschiedene Verfahren. Eines der bevorzugten Verfahren ist jedoch durch Verwendung einer festgelegten Grenze, d. h. Pixel mit einem Plausibilitätsindex über der festgelegten Grenzschwelle werden als belegt klassifiziert und Pixel mit einem Plausibilitätsindex unter der Schwelle werden als nicht belegt klassifiziert. Ferner kann eine bessere Klassifizierung mittels einfacher statistischer Techniken für jeden Cluster belegter Pixel erreicht werden.
  • Gemäß einer weiteren bevorzugten Ausführungsform der vorliegenden Erfindung kann zusätzlich zu den oben erörterten Schritten 202208 der Prozess der Präsenzortung unter anderem die folgenden (nicht gezeigten) Schritte aufweisen:
    Die Ergebnisse des Klassifizierungsschritts 208 wurden analysiert und, falls die Ergebnisse nicht akzeptabel sind, falls zum Beispiel eine anwesende Person plötzlich verschwindet, oder sich vom Umfang her erheblich verkleinert, sollten die Ergebnisse nicht akzeptiert werden. Falls die Ergebnisse akzeptierbar sind und die Belegung nicht über einer zuvor festgelegten Schwelle liegt, dann sollte die letzte Objektliste aktualisiert werden und die Variable allPixels sollte als NEIN eingestellt werden. Falls die Objektliste des vorhergehenden Rahmens jedoch leer ist, muss eine neue Objektliste geschaffen werden. Falls das Ergebnis nicht akzeptierbar ist oder falls die Belegung über einer vorgeschriebenen Schwelle liegt, wird auch die letzte Objektliste verworfen. Nach Verwerfen der letzten Objektliste ist es nicht möglich, die interessierenden Pixel mittels Schritt 204 zu erzeugen. Somit wird die Variable allPixels auf JA eingestellt, so dass für den nächsten Rahmen alle Pixel für die Plausibilität in Erwägung gezogen werden.
  • 3 zeigt eine schematische Ansicht der in Erwägung zu ziehenden Szene (300), während die Erzeugung einer Liste von interessierenden Pixeln in dem Bild unter Betrachtung drei Typen von Pixeln gemäß einer der bevorzugten Ausführungsformen der vorliegenden Erfindung umfasst. In 3 besteht das interessierende Gebiet aus den schwarzen Pixeln (302), die die belegten Pixel bezeichnen. Die Pixel (304) entlang der Grenzfläche der aktuell belegten Pixel und die Pixel (306) liegen an der Grenzfläche des Raums oder Bereichs unter Betrachtung. Bei der Erzeugung einer Liste von interessierenden Pixeln in dem Bild bei Schritt 204 von 2 besteht die Liste von interessierenden Pixeln vorzugsweise aus Pixeln in dem Gebiet 302, 304 und 306, wie in 3 gezeigt.
  • Das oben offenbarte Verfahren und System zur Präsenzortung hat verschiedene Anwendungen, der Kürze halber sind einige davon, ohne Beschränkung darauf, wie folgt:
    Herkömmliche Belegungs-(oder Bewegungs-)Sensorschätzung, ob ein Raum leer ist oder nicht. Statt zu versuchen, die genauen belegten Positionen des Raums mittels Sensormessungen einer Compressive-Coded-Aperture-Kamera zu schätzen, kann eine Schätzung bezüglich der belegten Positionen eines Raums oder eines vordefinierten Bereichs bei der geeigneten Beleuchtung des Raums helfen. Zum Beispiel können das oben erörterte Verfahren und System bei der Beleuchtung der Positionen im Raum mit anwesenden Personen helfen, und das Licht an leeren Positionen langsam dimmen oder ausschalten. Abgesehen von einer Beleuchtungssteuerung kann das Resultat des offenbarten Verfahrens und Systems bei der Steuerung anderer energiesparender Einrichtungen, wie zum Beispiel Klimaanlagen, nützlich sein.
  • Abgesehen von einer Belegungsdetektion zur Energieeinsparung kann das offenbarte Verfahren außerdem zu Überwachungszwecken, wie Einbruchmeldung, verwendet werden.
  • Derzeit wird eine Compressive-Coded-Aperture-Kamera entwickelt, bei der LEDs mit Nahinfrarot- oder Infrarotwellenlängen zur Beleuchtung der Szene verwendet werden. Das offenbarte Verfahren kann zusammen mit der oben erwähnten Compressive-Coded-Aperture-Kamera verwendet werden. Ferner ist das offenbarte Verfahren und System von der Art der Beleuchtungstechnik unabhängig, und somit können auch andere Beleuchtungstechniken in Zusammenhang mit dem vorgeschlagenen Verfahren und System verwendet werden.
  • Dem Fachmann werden aus der Beschreibung und den vorliegenden Zeichnungen verschiedene Modifizierungen der Ausführungsformen offensichtlich sein. Die mit den verschiedenen Ausführungsformen assoziierten vorliegend definierten Prinzipien können auf andere Ausführungsformen angewendet werden. Somit soll die Beschreibung nicht auf die mit den begleitenden Zeichnungen gezeigten Ausführungsformen beschränkt sein, sondern soll im breitesten Umfang gemäß den Prinzipien und vorliegend beschriebenen/offenbarten oder vorgeschlagenen neuen und erfinderischen Merkmalen bereitgestellt werden. Jegliche Modifizierungen, äquivalente Substitutionen, Verbesserungen usw. innerhalb des Gedankens und Prinzips der vorliegenden Erfindung sollen im Schutzumfang der vorliegenden Erfindung enthalten sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • R. F. Marcia und R. M. Willett. Compressive coded aperture superresolution image reconstruction. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International Conference, Seiten 833–836, IEEE, 2008 [0009]
    • R. Marcia, Z. Harmany und R. Willett. Compressive coded aperture imaging. In Proc. SPIE Symp. Elec. Imaging: Computer Imaging, San Jose, CA, 2009 [0009]
    • N. Jacobs, S. Schuh und R. Pless. Compressive sensing and differential image-motion estimation. In Acoustics, Speech and Signal Processing (ICASSP), 2010. IEEE International Conference, Seiten 718–836, IEEE, 2010 [0009]

Claims (19)

  1. Verfahren zur Präsenzortung, das die folgenden Schritte umfasst: Erfassen eines räumlich kodierten Bilds einer Szene, Identifizieren eines interessierenden Gebiets in dem Bild, Erzeugen eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet, und Klassifizieren von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Erfassens des räumlich kodierten Bilds den Schritt des Berechnens von Sensormessungen der Compressive-Coded-Aperture-Kamera für den aktuellen Rahmen des Bilds zusammen mit den Hintergrundsensorabmessungen des Bilds umfasst.
  3. Verfahren nach Anspruch 1, wobei das interessierende Gebiet in dem Bild Folgendes umfasst: alle Mx×Nx-Pixel des Bilds, falls alle Pixel des Bilds getestet werden sollen, ansonsten eine Teilmenge aller Mx×Nx-Pixel des Bilds, falls nur die Pixel in einem bestimmten Gebiet des Bilds getestet werden müssen; wobei Mx×Nx die Abmessung des Bilds ist.
  4. Verfahren nach Anspruch 1, wobei der Schritt des Identifizierens des interessierenden Gebiets in dem Bild einen Schritt des Erzeugens einer Liste von interessierenden Pixeln in dem Bild umfasst.
  5. Verfahren nach Anspruch 4, wobei der Schritt des Erzeugens der Liste von interessierenden Pixeln in dem Bild ferner das Erzeugen der Liste bei der Erwägung, dass sich eine anwesende Person nicht um mehr als ein Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann, umfasst.
  6. Verfahren nach Anspruch 4, wobei der Schritt des Erzeugens der Liste von interessierenden Pixeln in dem Bild weiterhin ein Erzeugen einer Liste während der Erwägung zweiter Nachbarpixel der schon belegten Pixel in dem Bild umfasst.
  7. Verfahren nach Anspruch 4, wobei die Liste von interessierenden Pixeln in dem Bild die folgenden Typen von Pixel umfasst: • Pixel an der Grenze des interessierenden Gebiets, • Pixel, die in einem letzten Rahmen belegt waren, und • Pixel, die sich an der Grenzfläche der derzeit belegten Pixel befinden.
  8. Verfahren nach Anspruch 1, wobei der Schritt des Erzeugens eines Pixelplausibilitätsindexes ein Berechnen eines Pixelplausibilitätsindexes gemäß einer linearen Beziehung y = Φx + η umfasst, wobei y die MyNy×1 vektorisierte Sensormessung ist, wobei My×Ny ein Array aus Photosensoren ist, Φ eine optische Übertragungsmatrix ist, die die Szene mit der Sensormessung in Beziehung setzt, die eine MyNy×MxNx-Matrix ist, x eine MxNx×1 vektorisierte Form der Szene ist und η der Rauschterm ist, der für den Messfehler und Modellfehler steht.
  9. Verfahren nach Anspruch 1, wobei der Schritt des Klassifizierens von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex ein Klassifizieren der Pixel auf der Basis einer festgelegten Grenzschwelle des Pixelplausibilitätsindexes umfasst, wobei • Pixel mit einem Plausibilitätsindex über der festgelegten Grenzschwelle als belegt klassifiziert sind und • Pixel mit einem Plausibilitätsindex unter der festgelegten Grenzschwelle als nicht belegt klassifiziert sind.
  10. System zur Präsenzortung, wobei das System Folgendes umfasst: Mittel zur Erfassung eines räumlich kodierten Bilds einer Szene, Mittel zur Identifizierung eines interessierenden Gebiets in dem Bild, Mittel zur Erzeugung eines Pixelplausibilitätsindexes für jedes Bildpixel in dem interessierenden Gebiet, und Mittel zur Klassifizierung von Pixeln in Bezug auf die Belegung als Reaktion auf den Pixelplausibilitätsindex.
  11. System nach Anspruch 10, wobei Mittel zur Erfassung des räumlich kodierten Bilds ferner eine Compressive-Coded-Aperture-Kamera umfassen.
  12. System nach Anspruch 11, wobei Mittel zur Erfassung des räumlich kodierten Bilds dazu konfiguriert sind, Sensormessungen der Compressive-Coded-Aperture-Kamera für einen aktuellen Rahmen des Bilds und Hintergrundsensormessungen des Bilds zu berechnen.
  13. System nach Anspruch 10, wobei das interessierende Gebiet in dem Bild Folgendes umfasst: alle Mx×Nx-Pixel des Bilds, falls alle Pixel des Bilds getestet werden sollen, ansonsten eine Teilmenge aller Mx×Nx-Pixel des Bilds, falls nur die Pixel in einem bestimmten Gebiet des Bilds getestet werden müssen; wobei Mx×Nx die Abmessung des Bilds ist.
  14. System nach Anspruch 10, wobei die Mittel zur Identifizierung eines interessierenden Gebiets in dem Bild zur Erzeugung einer Liste von interessierenden Pixeln in dem Bild konfiguriert ist.
  15. System nach Anspruch 14, das ferner umfasst, dass eine Liste von interessierenden Pixeln in dem Bild erzeugt wird bei Erwägung, dass sich eine anwesende Person um nicht mehr als ein Pixel zwischen zwei aufeinanderfolgenden Rahmen des Bilds bewegen kann.
  16. System nach Anspruch 14, das ferner umfasst, dass eine Liste von interessierenden Pixeln in dem Bild bei Erwägung von zweiten Nachbarpixeln der schon belegten Pixel in dem Bild erzeugt wird.
  17. System nach Anspruch 14, wobei die Liste von interessierenden Pixeln in dem Bild die folgenden Typen von Pixeln umfasst: a. Pixel an der Grenze des interessierenden Gebiets, b. Pixel, die in einem letzten Rahmen belegt waren, und c. Pixel, die sich an der Grenzfläche der derzeit belegten Pixel befinden.
  18. System nach Anspruch 10, wobei die Mittel zur Erzeugung des Pixelplausibilitätsindexes zur Berechnung eines Pixelplausibilitätsindexes gemäß einer linearen Beziehung y = Φx + η konfiguriert sind, wobei y die MyNy×1 vektorisierte Sensormessung ist, wobei My×Ny ein Array aus Photosensoren ist, Φ eine optische Übertragungsmatrix ist, die die Szene mit der Sensormessung in Beziehung setzt, die eine MyNy×MxNx-Matrix ist, x eine MxNx×1 vektorisierte Form der Szene ist und η der Rauschterm ist, der für den Messfehler und Modellfehler steht.
  19. System nach Anspruch 10, wobei das Mittel zur Klassifizierung von Pixeln in Bezug auf eine Belegung als Reaktion auf den Pixelplausibilitätsindex zur Klassifizierung der Pixel auf der Basis einer festgelegten Grenzschwelle des Pixelplausibilitätsindexes ausgelegt ist, wobei • Pixel mit einem Plausibilitätsindex über der festgelegten Grenzschwelle als belegt klassifiziert sind und • Pixel mit einem Plausibilitätsindex unter der festgelegten Grenzschwelle als nicht belegt klassifiziert sind.
DE102014209039.3A 2013-05-22 2014-05-13 Verfahren und System zur Präsenzortung Withdrawn DE102014209039A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN2242CH2013 2013-05-22
IN2242/CHE/2013 2013-05-22

Publications (1)

Publication Number Publication Date
DE102014209039A1 true DE102014209039A1 (de) 2014-11-27

Family

ID=51863369

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014209039.3A Withdrawn DE102014209039A1 (de) 2013-05-22 2014-05-13 Verfahren und System zur Präsenzortung

Country Status (2)

Country Link
US (1) US9336445B2 (de)
DE (1) DE102014209039A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014222972A1 (de) * 2014-11-11 2016-05-12 Osram Gmbh Verfahren zur Bildverarbeitung, Präsenzdetektor und Beleuchtungssystem
WO2017139216A1 (en) * 2016-02-11 2017-08-17 Carrier Corporation Compressive sensing detector

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893999B (zh) * 2016-03-31 2019-12-13 北京奇艺世纪科技有限公司 一种感兴趣区域提取方法及装置
CN107358204B (zh) * 2017-07-13 2020-11-03 西安电子科技大学 基于再编码和深度融合卷积网络的多光谱图像分类方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US7796780B2 (en) * 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
GB2434936A (en) * 2006-02-06 2007-08-08 Qinetiq Ltd Imaging system having plural distinct coded aperture arrays at different mask locations
US8331674B2 (en) * 2007-04-06 2012-12-11 International Business Machines Corporation Rule-based combination of a hierarchy of classifiers for occlusion detection
FR2928809B1 (fr) * 2008-03-17 2012-06-29 Antoine Doublet Systeme interactif et procede de commande d'eclairages et/ou de diffusion d'images
US8768073B2 (en) * 2011-07-05 2014-07-01 Texas Instruments Incorporated Method, system and computer program product for coding a region of interest within an image of multiple views
US20130011051A1 (en) * 2011-07-07 2013-01-10 Lockheed Martin Corporation Coded aperture imaging
US20130156261A1 (en) * 2011-12-16 2013-06-20 Alcatel-Lucent Usa Inc. Method and apparatus for object detection using compressive sensing
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
N. Jacobs, S. Schuh und R. Pless. Compressive sensing and differential image-motion estimation. In Acoustics, Speech and Signal Processing (ICASSP), 2010. IEEE International Conference, Seiten 718-836, IEEE, 2010
R. F. Marcia und R. M. Willett. Compressive coded aperture superresolution image reconstruction. In Acoustics, Speech and Signal Processing, 2008. ICASSP 2008. IEEE International Conference, Seiten 833-836, IEEE, 2008
R. Marcia, Z. Harmany und R. Willett. Compressive coded aperture imaging. In Proc. SPIE Symp. Elec. Imaging: Computer Imaging, San Jose, CA, 2009

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014222972A1 (de) * 2014-11-11 2016-05-12 Osram Gmbh Verfahren zur Bildverarbeitung, Präsenzdetektor und Beleuchtungssystem
WO2017139216A1 (en) * 2016-02-11 2017-08-17 Carrier Corporation Compressive sensing detector
US10928252B2 (en) 2016-02-11 2021-02-23 Carrier Corporation Compressive sensing detector

Also Published As

Publication number Publication date
US20140348386A1 (en) 2014-11-27
US9336445B2 (en) 2016-05-10

Similar Documents

Publication Publication Date Title
DE602005005583T2 (de) Videoüberwachungssysteme im allgemeinen und speziell eine Vorrichtung und Verfahren zur automatischen Echtzeiterfassung abnormaler Bewegung in Videoströmen
EP3058556B1 (de) Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE602004005358T2 (de) Objektdetektion in bildern
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
DE112018001819B4 (de) Messen eines menschenstroms durch türdurchgänge unter verwendung von leicht installierbaren ir-arraysensoren
CN105976383A (zh) 一种基于极限学习机图像识别的输电设备故障诊断方法
DE112019001909T5 (de) System zum überwachen einer belegung und aktivität in einem raum
DE102011088393A1 (de) Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird
DE102012206078A1 (de) Bestimmung einer Anzahl von Objekten in einem IR-Bild
DE102014209039A1 (de) Verfahren und System zur Präsenzortung
DE102011054658A1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE102008001076A1 (de) Verfahren, Vorrichtung sowie Computerprogramm zur Auflösungsreduktion eines Eingangsbilds
DE102016122649B3 (de) Biometrisches Verfahren
DE102016216795A1 (de) Verfahren zur Ermittlung von Ergebnisbilddaten
DE102017124600A1 (de) Semantische Segmentierung eines Objekts in einem Bild
DE102019220171A1 (de) Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgangs-Bilddaten
DE102010002312A1 (de) Verfahren und Vorrichtung zur Analyse eines Bildes einer Bilderfassungseinrichtung für ein Fahrzeug
Ding et al. Sparse codes fusion for context enhancement of night video surveillance
WO2012110654A1 (de) Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem
WO2016087202A1 (de) Bildverarbeitung mittels kreuzkorrelation
EP3493171A1 (de) Detektion von aggressivem verhalten in öffentlichen transportmitteln
DE102009009572B3 (de) Verfahren zur entropiebasierten Bestimmung von Objektrandkurven
DE102017126553A1 (de) Erfassungssystem

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee