DE112017001044T5 - Präsenzmelder - Google Patents

Präsenzmelder Download PDF

Info

Publication number
DE112017001044T5
DE112017001044T5 DE112017001044.6T DE112017001044T DE112017001044T5 DE 112017001044 T5 DE112017001044 T5 DE 112017001044T5 DE 112017001044 T DE112017001044 T DE 112017001044T DE 112017001044 T5 DE112017001044 T5 DE 112017001044T5
Authority
DE
Germany
Prior art keywords
classifier
technique
camera
foreground object
proximity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017001044.6T
Other languages
English (en)
Inventor
Akshayakumar Haribhatt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analog Devices International ULC
Original Assignee
Analog Devices Global ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analog Devices Global ULC filed Critical Analog Devices Global ULC
Publication of DE112017001044T5 publication Critical patent/DE112017001044T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)

Abstract

System und Techniken für einen Präsenzmelder werden hierin beschrieben. Bilder einer Kamera können erhalten werden. Dabei weist die Kamera ein bestimmtes Sichtfeld auf. Ein Näherungsindikator von einem Näherungsdetektor kann erhalten werden, wenn ein Objekt in das Sichtfeld gelangt. Die Bilder von der Kamera werden verarbeitet, um eine Präsenzangabe bereitzustellen. Bei Fehlen des Näherungsindikators wird eine erste Technik für die Präsenzangabe verwendet und anderenfalls wird eine zweite Technik verwendet.

Description

  • PRIORITÄTSANSPRUCH
  • Diese Patentanmeldung beansprucht den Vorteil der Priorität gegenüber der United States-Anmeldung Nr. 15/056,560 , eingereicht am 29. Februar 2016 unter dem Titel „OCCUPANCY SENSOR“, deren Gesamtheit hiermit durch Bezugnahme hierin aufgenommen wird.
  • TECHNISCHES GEBIET
  • Hierin beschriebene Ausführungsformen beziehen sich allgemein auf Anlagenautomatisierung und genauer auf einen Präsenzmelder.
  • HINTERGRUND
  • Präsenzerkennung ist ein wichtiger Aspekt verschiedener Systeme, wie z. B. Anlagenautomatisierung (z. B. Beleuchtung eines Bereichs bei Anwesenheit von Personen), Sicherheit, Stadtverwaltung etc. Präsenzerkennung im Freien kann zum Beispiel intelligente Straßenbeleuchtungen für Smart Cities oder Verkehrsüberwachung auf Straßen unter anderen Anwendungen ermöglichen. Manche Präsenzmelder können zum Treffen von Präsenzentscheidungen einen Videosensor, Infrarot-(IR)-Sensor oder Tiefensensor sowie andere Sensoren verwenden.
  • Figurenliste
  • In den Zeichnungen, die nicht notwendigerweise maßstabsgetreu gezeichnet sind, können gleichartige Bezugszeichen ähnliche Komponenten in unterschiedlichen Ansichten beschreiben. Gleichartige Bezugszeichen mit unterschiedlichen Buchstaben-Suffixen können verschiedene Instanzen ähnlicher Komponenten darstellen. Die Zeichnungen veranschaulichen im Allgemeinen beispielhaft, aber nicht einschränkend, verschiedene Ausführungsformen, die im vorliegenden Dokument erörtert werden.
    • 1 ist ein Blockdiagramm eines Beispiels einer Umgebung mit einem Präsenzmelder gemäß einer Ausführungsform.
    • 2 veranschaulicht ein Bild aus einer Kameraperspektive gemäß einer Ausführungsform.
    • 3 ist ein Ablaufdiagramm eines Beispiels eines Verfahrens für einen Präsenzmelder gemäß einer Ausführungsform.
    • 4 ist ein Blockdiagramm, das ein Beispiel einer Maschine, auf der eine oder mehrere Ausführungsformen implementiert werden können, veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG
  • Gängige Präsenzmelder verwenden verschiedene Techniken. Ein Sensor kann zum Beispiel mittels einer videobasierten Technik nach Unterschieden zwischen Bildern suchen, um Bewegung in einem Sichtfeld nachzuweisen. Manche Techniken werden kombiniert, wie z. B. Einschalten der Videokamera zum Verarbeiten von Bewegung, nachdem ein Laser-, Sonar-, Radarsensor oder ein anderer Sensor einen Lesevorgang auslöst.
  • Eine Vielzahl von Techniken kann für videobasierte Bewegungserkennung genutzt werden. Eine derartige Technik verwendet einen Differenzvergleich zwischen früheren Bildern und einem aktuellen Bild. Ein derartiger Differenzvergleich ist die Gaußsche Mischmodell-(GMM)-Technik. Allgemein identifizieren diese Techniken Vordergrundobjekte (z. B. bewegende Objekte) aus dem Hintergrund (z. B. stationäre Objekte) durch Subtrahieren eines aktuellen Bilds von einem oder mehreren früheren Bildern. Die verbleibenden Pixel sind beispielsweise die Vordergrundobjekte. Diese Pixel können in Blobs gruppiert werden, wobei ein Blob ein Vordergrundobjekt ist. Möchte man die Präsenz von Menschen erkennen, könnte man das Volumen eines Blobs mit einem erwarteten Volumen eines Menschen vergleichen, um zum Beispiel zwischen einem Menschen und einem Hund zu unterscheiden.
  • Andere Techniken können eine Vielzahl von Technologien der Künstlichen Intelligenz (AI), wie z. B. Neuronennetzklassifikatoren oder dergleichen, verwenden. Allgemein können AI-Techniken besser zwischen beobachteten Gegenständen unterscheiden (z. B. ob es sich bei einem bewegenden Objekt um einen Menschen oder einen Hund handelt), sie sind aber rechenintensiv, was zu einer höheren Leistungsaufnahme führt. Differenztechniken, wie GMM, sind hingegen schnell und leistungseffizient. Daher wird bei vielen Implementierungen eine Form von Differenztechnik verwendet.
  • Obwohl Differenztechniken effizient sind, gibt es Situationen, die von diesen Techniken schlecht gehandhabt werden. Bei Installation im Freien kann die Kameraperspektive zum Beispiel Abfall (z. B. eine herumfliegende Tüte) oder ein kleines Tier wie einen Vogel oder ein Insekt (wegen der Bewegung) als Vordergrundblob mit einem die Auslöseschwelle überschreitenden Volumen bildend ergeben. In solchen Fällen kann eine einfache Anwendung der Differenztechnik zu falschen positiven Erkennungen führen. In einem Beispiel, in dem der Präsenzmelder zum Einschalten einer Straßenleuchte verwendet wird, würde die Leuchte unnötig eingeschaltet und Leistung verschwendet werden. Erforderlich ist ein Präsenzmelder, der Vorfälle des Eindringens in das Sichtfeld der Kamera, die wahrscheinlich derartige Falschmeldungen verursachen, erkennen und zwischen erwünschten Vordergrundobjekten und unerwünschten Vordergrundobjekten unterscheiden kann, um falsche positive Ergebnisse zu vermeiden.
  • Der hierin beschriebene Präsenzmelder fügt zur Kamera einen Näherungsdetektor hinzu. Der Näherungsdetektor ist so angeordnet, dass er alarmiert, wenn sich ein Objekt innerhalb eines vorbestimmten Abstands innerhalb des Sichtfelds der Kamera befindet. Wenn der Näherungsdetektor nicht alarmiert (z. B. wenn sich kein Objekt innerhalb des vorbestimmten Abstands befindet) verarbeitet der Präsenzmelder sein Video mithilfe einer effizienten differenzbasierten Technik, wie z. B. GMM. Wenn der Näherungsdetektor jedoch alarmiert, ändert der Präsenzmelder seine Abtasttechnik, indem er einen Klassifikator zum Unterscheiden zwischen Vordergrundobjekten einschließt, sodass eine Präsenzangabe ausgelöst wird, wenn der Klassifikator angibt, dass ein Zielvordergrundobjekt beobachtet wird. So kann der Präsenzmelder unter Vermeidung falscher positiver Ergebnisse auf effiziente Weise arbeiten. Weitere Einzelheiten, Beispiele und Ausführungsformen sind unten beschrieben.
  • 1 ist ein Blockdiagramm eines Beispiels einer Umgebung mit einem Präsenzmelder 100 gemäß einer Ausführungsform. Der Präsenzmelder 100 schließt eine Kamera 105, einen Näherungsdetektor 110 und einen Controller 115 ein. Diese Komponenten sind in Hardware implementiert, einschließlich der unten unter Bezugnahme auf 4 beschriebenen Schaltungsanordnung. Die Kamera 105 und der Näherungsdetektor 110 sind so positioniert, dass sich ein Erkennungsbereich 120 für den Näherungsdetektor 110 mit einem Sichtfeld 125 für die Kamera 105 überlappt. Der Controller 115 ist dazu eingerichtet, bei Betrieb des Präsenzmelders 100 kommunikativ mit der Kamera 105 und dem Näherungsdetektor 110 gekoppelt zu werden, kann jedoch direkt verbunden sein (z. B. über einen Bus, eine Zwischenverbindung, übliche Input-Output-Pins, eine Buchse etc.), kann verbunden sein über ein Netzwerk (z. B. drahtgebunden oder drahtlos) oder kann in einem einzigen Gehäuse oder einer einzigen Halterung enthalten sein.
  • 1 veranschaulicht eine problematische Außenumgebung. Insgesamt sind ein Vogel 135, ein Hund 140 und ein Auto 130 im Sichtfeld 125 der Kamera. Wie oben erwähnt, kann die Näherung des Vogels 135 an die Kamera 105 zu einem großen Blob führen. Bei anderen Systemen kann ein derartig großes Blob eine falsche positive Präsenzangabe auslösen, wenn ein großes Objekt, wie z. B. das Auto 130, erwünscht ist. Der Hund 140 hingegen würde wegen seiner kleinen Größe im Verhältnis zum Auto 130 und ihrer ähnlichen Position innerhalb des Sichtfelds 125 wahrscheinlich ignoriert werden. 2 veranschaulicht ein Beispiel dieses Prinzips. Wie in 1 gezeigt, befindet sich der Vogel 135 aber innerhalb des Erkennungsbereichs 120 des Näherungsdetektors, sodass eine verbesserte Technik zum Unterscheiden zwischen dem Auto 130 und dem Vogel 135 ausgelöst wird.
  • Der Näherungsdetektor 110 kann von einem beliebigen Typ sein, der einen Näherungsindikator bereitstellt, wenn sich ein Objekt innerhalb eines Schwellenabstands befindet. Beispielsweise kann es sich beim Näherungsdetektor um einen schallbasierten (z. B. hypersonischen) Detektor oder um einen aktiven IR-Sensor, der Energie in die Umgebung abgibt und die Reflexion dieser Energie misst, handeln. In einem Beispiel weist der Näherungsdetektor 110 einen festen Schwellenabstand auf. In diesem Beispiel stellt der Näherungsdetektor 110 den Näherungsindikator bereit, wenn sich ein Objekt ausreichender Größe (z. B. so groß, dass es vom Sensor erkannt wird) in den Erkennungsbereich 120 bewegt. In einem Beispiel kann der feste Schwellenabstand bei der Einrichtung eingestellt werden, oder später durch eine externe Entität, wie z. B. eine Wartungsperson, etc.
  • In einem Beispiel wird der Näherungsindikator als negativ betrachtet, wenn keine Kommunikation mit dem Näherungsdetektor 110 besteht, anderenfalls als positiv. In einem Beispiel ist der Näherungsindikator eine Kommunikation, die positiv (etwas hat den Näherungsdetektor 110 ausgelöst) oder negativ (nichts hat den Näherungsdetektor 110 ausgelöst) angibt. In einem Beispiel ist der Näherungsindikator binär (z. B. ein oder aus). In einem Beispiel ist der Näherungsindikator ein Abstand. Der Näherungsindikator ist jedoch kein Tiefensensor, der ein Tiefenbild von Objekten bereitstellt.
  • Die Kamera 105 erzeugt Bilder aus Licht. In einem Beispiel ist die Kamera 105 eine zweidimensionale Kamera, die zweidimensionale Bilder erzeugt. In einem Beispiel ist die Kamera 105 eine Multiwellenlängenkamera (z. B. eine Mehrfarbkamera).
  • Der Controller 115 enthält Verarbeitungsschaltungsanordnung (z. B. einen digitalen Signalprozessor oder dergleichen) und Kommunikationsschnittstellen zur Kamera 105 und zum Näherungsdetektor 110. Der Controller 115 ist somit zum Empfangen von Bildern von der Kamera 105 vorgesehen. Der Controller 115 ist auch zum Empfangen des Näherungsindikators vom Näherungsdetektor 110 vorgesehen.
  • Der Controller 115 ist auch dazu vorgesehen, die Bilder von der Kamera 105 zu verarbeiten, um eine Präsenzangabe bereitzustellen. Eine Präsenzangabe ist ein Ausgangssignal (z. B. auf einer Leitung, in einer Meldung etc.), das angibt, dass ein beobachteter Bereich von einem bewegenden Zielobjekt belegt ist. Um das Präsenzsignal von der Kamera 105 bereitzustellen, verarbeitet der Controller 115 die Bilder mithilfe einer ersten Technik bei Fehlen des Näherungsindikators. Fehlen schließt hier auch Empfangen eines negativen Näherungsindikators ein. In beiden Fällen hat der Näherungsdetektor 110 kein Objekt innerhalb des festen Schwellenabstands erkannt. Wenn der Näherungsindikator angibt, dass sich ein Objekt innerhalb des Schwellenabstands befindet, wendet der Controller 115 eine zweite Technik zum Verarbeiten der Bilder für die Präsenzangabe an.
  • In einem Beispiel ist die erste Technik eine Technik mit geringer Leistungsaufnahme. In einem Beispiel schließt die erste Technik Identifizieren eines Vordergrundobjekts ein. Wie oben erwähnt, sind Vordergrundobjekte bewegende Objekte, während Hintergrundobjekte stationär sind. Eine Vielzahl von Filtertechniken kann jedoch angewendet werden, um Bewegung durch Hintergrundobjekte zu eliminieren, wie z. B. das Wiegen von Bäumen. Diese Techniken können Verfolgen und Ignorieren zyklischer Bewegungen einschließen. In einem Beispiel können Vordergrundobjekte über eine Differenztechnik identifiziert werden, wobei ein aktuelles Bild durch ein früheres Bild subtrahiert wird. Die verbleibenden Pixel beziehen sich auf Bewegung zwischen den Bildern. Durch Einbeziehen einer längerfristigen Ansicht des früheren Bilds kann eine Anzahl früherer Bilder zum Bestimmen der Referenz des Hintergrunds verwendet werden. Eine Gaußsche Mischmodell-(GMM)-Technik kann verwendet werden, um das Referenzbild zu erzeugen und die Pixel zu bestimmen, die mit Bewegung im aktuellen Bild verbunden sind.
  • Nachdem die Gruppe von Pixeln (z. B. ein Blob) für Vordergrundobjekte identifiziert ist, wird die Präsenzangabe ausgelöst, wenn das Blob die Schwellengröße überschreitet. Eine derartige Berechnung ist relativ effizient und ermöglicht Ausführen der ersten Technik mit geringer Leistungsaufnahme ohne beispielsweise die Präsenzangabe bei unerwünschten Zielen auszulösen. Wenn das Zielobjekt zum Beispiel das Auto 130 ist, möchte man, um beispielsweise ein Licht einzuschalten, gegenüber dem Hund 140 unterscheiden. Da sich beide bewegen, bietet Verwenden der Blobgröße eine unkomplizierte Weise zum Unterscheiden zwischen dem Auto 130 und dem Hund 140. Ein Beispiel ist unten unter Bezugnahme auf 2 erörtert.
  • Die zweite Technik stellt genauere Einzelheiten hinsichtlich der Art des beobachteten Vordergrundobjekts bereit. In einem Beispiel schließt die zweite Technik Anwendung eines Klassifikators zum Unterscheiden zwischen Zielen ein. Wie hierin verwendet, ist ein Klassifikator eine Implementierung einer Familie von AI-Techniken zum Verarbeiten von Bildern und zum Klassifizieren oder Benennen eines darin gefundenen Objekts. Klassifikatoren können auch statistische Lernverfahren genannt werden und betreffen allgemein eine gewisse Form von Mustererkennung zum Ausgeben eines Ergebnisses bezüglich des Bilds. Ein Klassifikator kann zum Beispiel dazu trainiert werden, eine Katze in einem Bild zu erkennen. Wird einem derartigen Klassifikator ein Bild geboten, so bestimmt er zum Beispiel, ob eine Katze vorhanden ist, eine Katzenart oder eine Position der Katze im Bild. Klassifikatoren können auf vielfältige Weise implementiert sein, wie z. B. unter anderem über neuronale Netze, Kernel-Verfahren wie die Support Vector Machines, den k-nächsten-Nachbarn-Algorithmus, das Gaußsche Mischmodell, naive Bayes-Klassifikatoren und Entscheidungsbäume.
  • In einem Beispiel wird der Klassifikator auf die Bilder angewendet. In einem Beispiel wird der Klassifikator auf Teile des Bilds, die den über die erste Technik identifizierten Vordergrundobjektblobs entsprechen, angewendet. In einem Beispiel wird der Klassifikator auf die Blobs selbst angewendet, die zuerst durch Anwenden der ersten Technik identifiziert worden sind. In einem Beispiel wird der Klassifikator nur auf solche Blobs angewendet, die die Schwellengröße überschreiten. So wird der Klassifikator zum Beispiel nicht auf das Hund 140-Blob angewendet, wird aber auf das Vogel 135-Blob und das Auto 130-Blob angewendet.
  • Der Controller 115 stellt die Präsenzangabe basierend auf dem Ergebnis des Klassifikators bereit. In einem Beispiel wird der Klassifikator zum Identifizieren eines Einschlussobjekts trainiert. In diesem Beispiel wird die Präsenzangabe bereitgestellt, wenn der Klassifikator das Vordergrundobjekt identifiziert. Ein derartiger Ansatz kann den Vorteil eines einfacheren Klassifikators aufweisen, wenn, zum Beispiel, die Form eines Einschlussobjekts beschränkt ist, wie z. B. ein begrenzter Satz von Fahrzeugen. In einem Beispiel wird der Klassifikator zum Identifizieren eines Ausschlussobjekts trainiert. In diesem Beispiel wird die Präsenzangabe bereitgestellt, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert. In einem Beispiel ist das Ausschlussobjekt ein fliegendes Tier (z. B. Vogel, Insekt etc.) oder Debris (z. B. Baumzweige, Staub, Schnee, Papier etc.).
  • Der Präsenzmelder 100 bietet eine elegante Lösung für die Probleme, mit denen Präsenzmelder zu kämpfen hatten, einschließlich Reduzieren falscher positiver Präsenzangaben bei konstant leistungseffizientem Betrieb. Die Hinzufügung des Näherungsdetektors 110 ist eine kostengünstige und leicht zu integrierende Modifikation für videobasierte Präsenzmelder, welche die Komplexität von Dingen wie Tiefenkameras, Millimeterwellenradar und dergleichen vermeidet. Außerdem, durch sparsamen Einsatz von visueller AI-Klassifikation, wenn ein Objekt den Näherungsdetektor 110 auslöst, ermöglicht es der Controller 115, leistungseffiziente visuelle Präsenztechniken zu verwenden, wenn kein derartiges auslösendes Objekt vorhanden ist.
  • 2 veranschaulicht ein Bild 200 aus einer Kameraperspektive gemäß einer Ausführungsform. Das Bild 200 schließt ein Vogelblob 205, ein Autoblob 220 und ein Hundblob 225 ein, die jeweils dem Vogel 135, Auto 130 und Hund 140, wie in 1 veranschaulicht, entsprechen. Wie oben erwähnt, handelt es sich bei den Blobs um Sammlungen von Pixeln, die über ihre Änderung zwischen einem aktuellen Bild und einem oder mehreren früheren Bildern für Vordergrundobjekte gehalten werden.
  • Als eine einfache veranschaulichende Technik wird eine schwellenbestimmende Größe auf die Blobs angewendet, wie oben erwähnt, um zwischen Zielvordergrundobjekten und solchen Objekten, die keine Präsenz auslösen sollten, zu unterscheiden. Beispielsweise ist das Autoblob 220 größer als das Schwellenobjekt 215 und stellt somit ein Zielvordergrundobjekt dar, während das Hundblob 225 kleiner als das Schwellenobjekt 230 ist und somit kein Zielvordergrundobjekt darstellt. Dies setzt voraus, dass Präsenz für Autos erwünscht ist. Das Gegenteil kann wahr sein, wenn man zum Beispiel Autos zugunsten kleinerer Objekte ignorieren möchte.
  • Das Vogelblob 205 veranschaulicht jedoch das durch den Präsenzmelder 100 angegangene Problem. Das Vogelblob 205 ist größer als das Schwellenobjekt 210, während der Vogel 130 in Wirklichkeit recht klein ist. Der Fehler kommt wegen der Nähe des Vogels 130 zur Kamera 105 und der Kameraperspektive zustande. Daher würde der Vogel 130, wie oben erwähnt, fälschlicherweise eine Präsenzangabe auslösen. Wie in 1 gezeigt, befindet sich der Vogel 130 aber innerhalb des Erkennungsbereichs 135 und würde auch den Näherungsdetektor 110 zum Bereitstellen des Näherungsindikators (z. B. eines positiven Näherungsindikators) auslösen. Daher würde sich der Controller 115 in dieser Situation nicht auf die einfache Schwellenbestimmung von Blobs verlassen, sondern würde den Klassifikator aufrufen. Beispielsweise würde der Klassifikator, falls er zum Erkennen von Autos trainiert ist, das Vogelblob 205 ablehnen. Das verbleibende Autoblob 220 würde hingegen die Präsenzangabe auslösen.
  • 3 ist ein Ablaufdiagramm eines Beispiels eines Verfahrens 300 für einen Präsenzmelder gemäß einer Ausführungsform. Die Operationen des Verfahrens 300 werden von Computer-Hardware ausgeführt, wie z. B. von der oben unter Bezugnahme auf 1 oder der unten unter Bezugnahme auf 4 beschriebenen (z. B. Prozessoren, Schaltungsanordnung etc.).
  • Bei Operation 305 werden Bilder einer Kamera erhalten. Die Bilder können gezogen (z. B. angefordert) oder geschoben (z. B. von der Kamera gesendet) werden. Die Bilder stammen von einer Szene, auf die die Kamera gerichtet ist, wobei die Szene durch das Sichtfeld der Kamera definiert ist. In einem Beispiel handelt es sich bei den Bildern um zweidimensionale Bilder im Gegensatz zu Tiefenbildem oder dreidimensionalen Bildern.
  • Bei Operation 310 wird ein Näherungsindikator von einem Näherungsdetektor erhalten. Der Näherungsdetektor ist so angeordnet, dass er ein Objekt innerhalb des Sichtfelds der Kamera heraus bis zu einem Schwellenabstand erkennt. In einem Beispiel ist der Schwellenabstand während Betriebs festgelegt, kann aber im Zuge der Einrichtung oder Wartung eingestellt werden. In einem Beispiel handelt es sich beim Näherungsdetektor um ein aktives IR-Gerät. In einem Beispiel handelt es sich beim Näherungsdetektor um ein laserbasiertes Gerät.
  • Bei Entscheidung 315 wird bestimmt, ob der Näherungsindikator aktiv ist. In einem Beispiel ist der Näherungsindikator aktiv, wenn er erhalten wird, zum Beispiel über einen oder mehrere Pins an einen üblichen I/O-Port. In einem Beispiel ist der Näherungsindikator aktiv, wenn er eine Meldung oder Nutzlast einschließt, die angibt, dass er aktiv ist. In einem Beispiel ist der Näherungssensor aktiv, wenn er einen Abstand innerhalb eines annehmbaren Bereichs (z. B. innerhalb eines Meters, zwischen 100 Zentimetern und zwei Metern etc.) einschließt.
  • Bei Operation 320, wenn der Näherungsindikator nicht aktiv ist, werden die Bilder unter Verwendung einer ersten Technik auf Präsenz hin verarbeitet. In einem Beispiel handelt es sich bei der ersten Technik um eine leistungseffiziente Technik. Anwenden der ersten Technik schließt in einem Beispiel Identifizieren eines Vordergrundobjekts ein. In einem Beispiel wird die GMM-Technik zum Identifizieren des Vordergrundobjekts aus einer Sequenz der Bilder verwendet.
  • Anwenden der ersten Technik schließt in einem Beispiel Schwellenbestimmung gefundener Vordergrundobjekte gegenüber einem Größenmodell ein. Wenn das Vordergrundobjekt kleiner ist als eine untere Schwelle, geht das Verfahren 300 nicht zu Operation 330 über. Wenn das Objekt hingegen kleiner ist als eine obere Schwelle, fährt das Verfahren 300 mit Operation 330 fort.
  • Bei Operation 325, wenn der Näherungsindikator nicht aktiv ist, werden die Bilder unter Verwendung einer ersten Technik auf Präsenz hin verarbeitet. In einem Beispiel schließt die zweite Technik Anwenden eines Klassifikators auf ein Vordergrundobjekt ein. In einem Beispiel wird der Klassifikator auf das Vordergrundobjekt angewendet, wenn das Vordergrundobjekt die Schwellengröße überschreitet. Wie oben erwähnt, kann der Klassifikator auch auf das aktuelle Bild, eine Sequenz von Bildern, Teile des aktuellen Bilds, die dem Vordergrundobjekt entsprechen, oder einen Pixelblob des Vordergrundobjekts angewendet werden.
  • In einem Beispiel wird der Klassifikator zum Identifizieren eines Ausschlussobjekts trainiert. In diesem Beispiel geht das Verfahren 300 zu Operation 330 über, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert. Das heißt, das Vordergrundobjekt ist nicht auszuschließen, weil der Klassifikator es nicht erkannt hat. In einem Beispiel schließt ein Ausschlussobjekt wenigstens eines von einem fliegenden Tier oder Debris ein. In einem Beispiel wird der Klassifikator zum Identifizieren eines Einschlussobjekts trainiert. In diesem Beispiel geht das Verfahren zu Operation 330 über, wenn der Klassifikator das Vordergrundobjekt identifiziert. In einem Beispiel schließt ein Vordergrundobjekt wenigstens eines von einem Menschen oder einem Fahrzeug ein.
  • Bei Operation 330 wird eine Präsenzangabe basierend auf der verwendeten Technik bereitgestellt. So, wie in Operationen 320 und 330 erwähnt, gelangt das Verfahren 330 in Abhängigkeit von den Ergebnissen der Technik zu dieser Operation zum Ausgeben einer Präsenzangabe. In einem Beispiel schließt die Präsenzangabe eine Zählung gefilterter Vordergrundobjekte ein. In einem Beispiel schließt die Präsenzangabe eine übersetzte Position der Vordergrundobjekte ein. In diesem Beispiel wird die Position des Objekts in der realen Welt von der Position des Objekts im Bild und bekannten Werten für die Montage der Kamera (z. B. Höhe, Ausrichtung, Pitch etc.) sowie optischen Eigenschaften übersetzt. In einem Beispiel schließt die Präsenzangabe nur eine binäre Angabe, ob ein Vordergrundobjekt von Interesse vorhanden ist, ein.
  • 4 veranschaulicht ein Blockdiagramm einer beispielhaften Maschine 400, auf der eine oder mehrere der hierin erörterten Techniken (z. B. Methodologien) ablaufen können. Bei alternativen Ausführungsformen kann die Maschine 400 als eine selbständige Vorrichtung arbeiten oder sie kann mit anderen Maschinen verbunden (z. B. vernetzt) werden. Bei einem vernetzten Einsatz kann die Maschine 400 in der Kapazität einer Server-Maschine, einer Client-Maschine oder in Server-Client-Netzwerkumgebungen arbeiten. In einem Beispiel kann die Maschine 400 als eine Peer-Maschine in einer Peer-to-Peer (P2P)-Netzwerkumgebung (oder einer anderen verteilten Netzwerkumgebung) arbeiten. Die Maschine 400 kann ein Personal Computer (PC), ein Tablet PC, eine Set-Top-Box (STB), ein Personal Digital Assistant (PDA), ein Mobiltelefon, eine Web-Vorrichtung, ein Netzrouter, Switch, eine Bridge oder eine beliebige Maschine sein, die in der Lage sind, Anweisungen (sequenziell oder anderweitig) auszuführen, die von dieser Maschine zu ergreifende Aktionen vorgeben. Ferner, obwohl nur eine einzelne Maschine dargestellt ist, soll der Begriff „Maschine“ auch so verstanden werden, dass er eine beliebige Sammlung von Maschinen einschließt, die einzeln oder gemeinsam einen Satz (oder mehrere Sätze) von Anweisungen ausführen, um eine oder mehrere der hierin erörterten Methodologien durchzuführen, wie z. B. Cloud Computing, Software as a Service (SaaS) und andere Computerclusterkonfigurationen.
  • Beispiele, wie hierin beschrieben, können Logik oder eine Zahl von Komponenten oder Mechanismen einschließen oder damit arbeiten. Schaltungsanordnung ist eine Sammlung von Schaltungen, implementiert in materiellen Entitäten, die Hardware einschließen (z. B. einfache Schaltungen, Gatter, Logik etc.). Schaltungsanordnungszugehörigkeit kann im Laufe der Zeit flexibel sein und Hardware-Variabilität unterliegen. Schaltungsanordnungen schließen Elemente ein, die selbständig oder in Kombination bei Betrieb vorgegebene Operationen durchführen. In einem Beispiel kann Hardware der Schaltungsanordnung unabänderlich zum Ausführen einer spezifischen Operation konstruiert sein (z. B. verdrahtet). In einem Beispiel kann die Hardware der Schaltungsanordnung variabel verbundene physische Komponenten (z. B. Ausführungseinheiten, Transistoren, einfache Schaltungen etc.) einschließlich eines zum Kodieren von Anweisungen der spezifischen Operation physisch modifizierten (z. B. magnetisch, elektrisch, verschiebbare Platzierung von Partikeln invarianter Masse etc.) computerlesbaren Mediums einschließen. Beim Verbinden der physischen Komponenten werden die zugrunde liegenden elektrischen Eigenschaften eines Hardware-Bestandteils geändert, zum Beispiel, von einem Isolator zu einem Leiter oder umgekehrt. Die Anweisungen ermöglichen es eingebetteter Hardware (z. B. den Ausführungseinheiten oder einem Lademechanismus), Elemente der Schaltungsanordnung in Hardware über die variablen Verbindungen zu erzeugen, um bei Betrieb Teile der spezifischen Operation auszuführen. Dementsprechend ist das computerlesbare Medium bei Betrieb der Vorrichtung kommunikativ mit den anderen Komponenten der Schaltungsanordnung gekoppelt. In einem Beispiel können beliebige der physischen Komponenten in mehr als einem Element von mehr als einer Schaltungsanordnung verwendet werden. Beispielsweise können Ausführungseinheiten bei Betrieb zu einem gegebenen Zeitpunkt in einer ersten Schaltung einer ersten Schaltungsanordnung verwendet werden und von einer zweiten Schaltung in der ersten Schaltungsanordnung oder von einer dritten Schaltung in einer zweiten Schaltungsanordnung zu einem anderen Zeitpunkt erneut verwendet werden.
  • Die Maschine (z. B. Computersystem) 400 kann einen Hardwareprozessor 402 (z. B. eine Zentraleinheit (Central Processing Unit, CPU), eine Grafikverarbeitungseinheit (Graphics Processing Unit, GPU), einen Hardwareprozessorkern oder eine beliebige Kombination davon), einen Hauptspeicher 404 und einen statischen Speicher 406 einschließen, wovon einige oder alle über eine Zwischenverbindung (z. B. Bus) 408 miteinander kommunizieren. Die Maschine 400 kann ferner eine Anzeigeeinheit 410, ein alphanumerisches Eingabegerät 412 (z. B. eine Tastatur) und ein Benutzerschnittstellen-Navigationsgerät (User Interface (UI)-Navigationsgerät) 414 (z. B. eine Maus) einschließen. In einem Beispiel können das Anzeigeeinheit 410, Eingabegerät 412 und UI-Navigationsgerät 414 eine Touchscreen-Anzeige sein. Die Maschine 400 kann zusätzlich einen Speichergerät (z. B. ein Laufwerk) 416, ein Signalerzeugungsgerät 418 (z. B. einen Lautsprecher), ein Netzwerkschnittstellengerät 420 und einen oder mehrere Sensoren 421, wie z. B. einen Sensor des globalen Positionsbestimmungssystems (Global Positioning System, GPS), Kompass, Beschleunigungsmesser oder einen anderen Sensor, einschließen. Die Maschine 400 kann einen Ausgabecontroller 428, wie z. B. eine serielle (z. B. Universal Serial Bus (USB), parallele oder andere verdrahtete oder drahtlose (z. B. Infrarot (IR), Nahfeldkommunikation (Near Field Communication, NFC) etc.) Verbindung zum Kommunizieren mit oder Steuern von einem oder mehreren Peripheriegeräten (z. B. Drucker, Kartenleser etc.) einschließen.
  • Das Speichergerät 416 kann ein maschinenlesbares Medium 422 einschließen, auf dem ein oder mehrere Sätze von Datenstrukturen oder Anweisungen 424 (z. B. Software) gespeichert sind, die eine oder mehrere beliebige der hierin beschriebenen Techniken oder Funktionen verkörpern oder durch solche verwendet werden. Die Anweisungen 424 können auch vollständig oder wenigstens teilweise innerhalb des Hauptspeichers 404, innerhalb des statischen Speichers 406 oder innerhalb des Hardwareprozessors 402 während derer Ausführung durch die Maschine 400 liegen. In einem Beispiel können eine einzelne oder eine beliebige Kombination des Hardwareprozessors 402, des Hauptspeichers 404, des statischen Speichers 406 oder des Speichergeräts 416 maschinenlesbare Medien bilden.
  • Obwohl das maschinenlesbare Medium 422 als ein einzelnes Medium dargestellt ist, kann der Begriff „maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien einschließen (z. B. eine zentralisierte oder verteilte Datenbank und/oder zugehörige Caches und Server), die zum Speichern der einen oder mehreren Anweisungen 424 konfiguriert sind.
  • Der Begriff „maschinenlesbares Medium“ kann ein beliebiges Medium einschließen, das in der Lage ist, Anweisungen für Ausführung durch die Maschine 400 zu speichern, zu kodieren oder zu befördern, welche die Maschine 400 veranlassen, eine oder mehrere der Techniken der vorliegenden Offenbarung durchzuführen, oder das in der Lage ist, Datenstrukturen, die von solchen Anweisungen verwendet werden oder mit diesen verbunden sind, zu speichern, zu kodieren oder zu befördern. Nicht einschränkende Beispiele für maschinenlesbare Medien schließen Festkörperspeicher und optische sowie magnetische Medien ein. In einem Beispiel weist ein massives maschinenlesbares Medium ein maschinenlesbares Medium mit einer Vielzahl von Partikeln mit invarianter Masse (z. B. Ruhemasse) auf. Dementsprechend sind massive maschinenlesbare Medien nicht transitorische propagierende Signale. Konkrete Beispiele für massive maschinenlesbare Medien können einschließen: nichtflüchtigen Speicher, wie z. B. Halbleiterspeichergeräte (z. B. elektrisch programmierbaren Nur-Lese-Speicher (Electrically Programmable Read-Only Memory, EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (Electrically Erasable Programmable Read-Only Memory, EEPROM) und Flash-Speichergeräte, Magnetplatten, wie z. B. interne Festplatten und Wechselplatten, magneto-optische Platten und CD-ROM- sowie DVD-ROM-Scheiben.
  • Anweisungen 424 können ferner über ein Kommunikationsnetzwerk 426 mittels eines Übertragungsmediums über das Netzwerkschnittstellengerät 420 unter Verwendung eines beliebigen einer Zahl von Übertragungsprotokollen (z. B. Rahmenvermittlung (Frame Relay), Internetprotokoll (IP), Übertragungssteuerungsprotokoll (Transmission Control Protocol, TCP), Benutzer-Datagramm-Protokoll (User Datagram Protocol, UDP), Hypertext-Übertragungsprotokoll (Hypertext Transfer Protocol, HTTP) etc.) gesendet oder empfangen werden. Beispielhafte Kommunikationsnetzwerke können unter anderem ein lokales Netzwerk (Local Area Network, LAN), ein Weitverkehrsnetz (Wide Area Network, WAN), ein paketvermitteltes Datennetz (z. B. das Internet), Mobilfunknetze (z. B. Zellularnetze), einfache Telefonverbindungen (Plain Old Telephone Service, POTS) und drahtlose Datennetzwerke (z. B. die Institute of Electrical and Electronics Engineers (IEEE) 802.11-Normenreihe, bekannt als Wi-Fi®, die IEEE 802.16-Normenreihe, bekannt als WiMax®), die IEEE 802.15.4-Normenreihe und Peer-to-Peer (P2P)-Netzwerke) einschließen. In einem Beispiel kann das Netzwerkschnittstellengerät 420 eine oder mehrere physische Buchsen (z. B. Ethernet-, Koaxial- oder Telefonbuchsen) oder eine oder mehrere Antennen zum Verbinden mit dem Kommunikationsnetzwerk 426 einschließen. In einem Beispiel kann das Netzwerkschnittstellengerät 420 eine Vielzahl von Antennen zum drahtlosen Kommunizieren unter Verwendung wenigstens einer der Techniken von Single-Input Multiple-Output (SIMO), Multiple-Input Multiple-Output (MIMO) und Multiple-Input Single-Output (MISO) einschließen. Der Begriff „Übertragungsmedium“ soll so verstanden werden, dass ein beliebiges immaterielles Medium einbezogen ist, das in der Lage ist, Anweisungen für Ausführung durch die Maschine 400 zu speichern, zu kodieren oder zu befördern, und schließt digitale oder analoge Kommunikationssignale oder ein anderes immaterielles Medium zum Erleichtern der Kommunikation derartiger Software ein.
  • Zusätzliche Hinweise und Beispiele
  • Beispiel 1 ist eine Vorrichtung, aufweisend: eine Kamera mit einem Sichtfeld; einen zum Erkennen eines Objekts im Sichtfeld angeordneten Näherungsdetektor; und einen Controller zum: Erhalten von Bildern von der Kamera; Erhalten eines Näherungsindikators vom Näherungsdetektor; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
  • In Beispiel 2 schließt der Erfindungsinhalt von Beispiel 1 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
  • In Beispiel 3 schließt der Erfindungsinhalt von Beispiel 2 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
  • In Beispiel 4 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 1-3 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
  • In Beispiel 5 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 1-4 optional ein, wobei die erste Technik den Controller einschließt zum: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
  • In Beispiel 6 schließt der Erfindungsinhalt von Beispiel 5 optional ein, wobei der Controller zum Identifizieren des Vordergrundobjekts für Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder konzipiert ist.
  • In Beispiel 7 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 5-6 optional ein, wobei die zweite Technik den Controller einschließt zum: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
  • In Beispiel 8 schließt der Erfindungsinhalt von Beispiel 7 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
  • In Beispiel 9 schließt der Erfindungsinhalt von Beispiel 8 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
  • In Beispiel 10 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 7-9 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
  • Beispiel 11 ist ein maschinenlesbares Medium einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, Operationen durchzuführen, aufweisend: Erhalten von Bildern einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
  • In Beispiel 12 schließt der Erfindungsinhalt von Beispiel 11 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
  • In Beispiel 13 schließt der Erfindungsinhalt von Beispiel 12 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
  • In Beispiel 14 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 11-13 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
  • In Beispiel 15 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 11-14 optional ein, wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
  • In Beispiel 16 schließt der Erfindungsinhalt von Beispiel 15 optional ein, wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt.
  • In Beispiel 17 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 15-16 optional ein, wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
  • In Beispiel 18 schließt der Erfindungsinhalt von Beispiel 17 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
  • In Beispiel 19 schließt der Erfindungsinhalt von Beispiel 18 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
  • In Beispiel 20 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 17-19 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
  • Beispiel 21 ist ein Verfahren aufweisend: Erhalten von Bildern von einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
  • In Beispiel 22 schließt der Erfindungsinhalt von Beispiel 21 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
  • In Beispiel 23 schließt der Erfindungsinhalt von Beispiel 22 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
  • In Beispiel 24 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 21-23 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
  • In Beispiel 25 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 21-24 optional ein, wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
  • In Beispiel 26 schließt der Erfindungsinhalt von Beispiel 25 optional ein, wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt.
  • In Beispiel 27 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 25-26 optional ein, wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
  • In Beispiel 28 schließt der Erfindungsinhalt von Beispiel 27 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
  • In Beispiel 29 schließt der Erfindungsinhalt von Beispiel 28 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
  • In Beispiel 30 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 27-29 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
  • Beispiel 31 ist ein System aufweisend Mittel zum Implementieren beliebiger der Verfahren der Beispiele 21-30.
  • Beispiel 32 ist ein maschinenlesbares Medium einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, beliebige der Verfahren von Beispielen 21-30 zu implementieren.
  • Die obige detaillierte Beschreibung enthält Verweise auf die begleitenden Zeichnungen, die einen Teil der detaillierten Beschreibung bilden. Die Zeichnungen zeigen durch Veranschaulichung spezifische Ausführungsformen, die ausgeübt werden können. Diese Ausführungsformen werden hierin auch als „Beispiele“ bezeichnet. Derartige Beispiele können Elemente zusätzlich zu gezeigten oder beschriebenen einschließen. Die vorliegende Erfindung berücksichtigt jedoch auch Beispiele, in denen nur die gezeigten oder beschriebenen Elemente bereitgestellt sind. Außerdem berücksichtigt die vorliegende Erfindung auch Beispiele unter Verwendung einer beliebigen Kombination oder Permutation der gezeigten oder beschriebenen Elemente (oder eines oder mehrerer Aspekte davon), entweder in Bezug auf ein bestimmtes Beispiel (oder einen oder mehrere Aspekte davon) oder in Bezug auf andere Beispiele (oder einen oder mehrere Aspekte davon), die hierin gezeigt oder beschrieben sind.
  • Alle Veröffentlichungen, Patente und Patentdokumente, auf die in diesem Dokument Bezug genommen wird, sind hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen, als ob sie einzeln durch Bezugnahme aufgenommen wären. Im Falle von inkonsistenter Verwendungen zwischen diesem Dokument und den so durch Bezugnahme aufgenommenen Dokumenten, sollte die Verwendung in der (den) aufgenommenen Referenz(en) als zu der dieses Dokuments ergänzend betrachtet werden; bei unvereinbaren Inkonsistenzen ist die Verwendung in diesem Dokument bestimmend.
  • In diesem Dokument sind, wie in Patentdokumenten üblich, die Ausdrücke „ein“, „eine“ oder „einer“ so zu verstehen, dass ein Element oder mehr Elemente als ein Element eingeschlossen sind, unabhängig von beliebigen anderen Instanzen oder Gebräuchen von „wenigstens ein“ oder „ein oder mehrere“. Der Begriff „oder“, wie in diesem Dokument verwendet, bezieht sich auf ein nicht-exklusives „oder“, sodass „A oder B“ „A, aber nicht B“ „B, aber nicht A“ und „A und B“ einschließt, sofern nicht anderweitig angegeben. In den angefügten Ansprüchen werden die Ausdrücke „einschließlich“ und „in denen“ als Äquivalente in einfacher Sprache für die jeweiligen Ausdrücke „umfassend“ und „wobei“ verwendet. Ferner sind in den folgenden Ansprüchen die Ausdrücke „einschließlich“ und „umfassend“ offen-beendet, das heißt, dass ein System, eine Vorrichtung, ein Gegenstand oder Prozess, der/die/das Elemente zusätzlich zu den nach einem derartigen Ausdruck in einem Anspruch aufgeführten Elementen einschließt, dennoch als innerhalb des Umfangs dieses Anspruches liegend betrachtet wird. Außerdem werden in den folgenden Ansprüchen die Ausdrücke „erster“, „zweiter“ und „dritter“ nur als Bezeichnungen verwendet und sind nicht dazu gedacht, den Objekten, die sie bezeichnen, numerische Anforderungen aufzuerlegen.
  • Die obige Beschreibung soll veranschaulichend und nicht einschränkend sein. Beispielsweise können die oben beschriebenen Beispiele (oder ein oder mehrere Aspekte davon) in Kombination miteinander verwendet werden. Andere Ausführungsformen können verwendet werden, wie zum Beispiel dem Durchschnittsfachmann angesichts der obigen Beschreibung ersichtlich wird. Die Zusammenfassung soll dem Leser einen schnellen Überblick über die Natur der technischen Offenbarung vermitteln und wird mit dem Verständnis vorgelegt, dass sie nicht dazu verwendet wird, den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder einzuschränken. Ferner können in der obigen detaillierten Beschreibung verschiedene Merkmale gruppiert sein, um die Offenbarung zu rationalisieren. Dies ist nicht so zu interpretieren, als dass ein unbeanspruchtes offenbartes Merkmal wesentlich für einen beliebigen Anspruch ist. Vielmehr kann ein erfinderischer Gegenstand in weniger als allen Merkmalen einer bestimmten offenbarten Ausführungsform vorliegen. Somit werden die folgenden Ansprüche hierdurch in die Detaillierte Beschreibung aufgenommen, wobei jeder Anspruch für sich genommen als eine gesonderte Ausführungsform gilt. Der Umfang der Ausführungsformen sollte bezugnehmend auf die angefügten Ansprüche zusammen mit dem gesamten Umfang von Äquivalenten, zu denen derartige Ansprüche berechtigt sind, bestimmt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15056560 [0001]

Claims (15)

  1. Vorrichtung, aufweisend: eine Kamera mit einem Sichtfeld; einen zum Erkennen eines Objekts im Sichtfeld angeordneten Näherungsdetektor; und einen Controller zum: Erhalten von Bildern von der Kamera; Erhalten eines Näherungsindikators vom Näherungsdetektor; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
  2. Vorrichtung nach Anspruch 1, wobei die erste Technik den Controller einschließt zum: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
  3. Vorrichtung nach Anspruch 2, wobei die zweite Technik den Controller einschließt zum: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
  4. Verfahren, aufweisend: Erhalten von Bildern von einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
  5. Verfahren nach Anspruch 4, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
  6. Verfahren nach Anspruch 5, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
  7. Verfahren nach einem beliebigen der Ansprüche 4-6, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
  8. Verfahren nach einem beliebigen der Ansprüche 4-7, wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
  9. Verfahren nach Anspruch 8, wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt.
  10. Verfahren nach einem beliebigen der Ansprüche 8-9, wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
  11. Verfahren nach Anspruch 10, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
  12. Verfahren nach Anspruch 11, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
  13. Verfahren nach einem beliebigen der Ansprüche 10-12, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
  14. System, aufweisend Mittel zum Implementieren beliebiger der Verfahren der Ansprüche 4-13.
  15. Ein maschinenlesbares Medium, einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, beliebige der Verfahren der Ansprüche 4-13 zu implementieren.
DE112017001044.6T 2016-02-29 2017-02-27 Präsenzmelder Pending DE112017001044T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/056,560 2016-02-29
US15/056,560 US10290194B2 (en) 2016-02-29 2016-02-29 Occupancy sensor
PCT/IB2017/000250 WO2017149386A1 (en) 2016-02-29 2017-02-27 Parking space occupancy sensor

Publications (1)

Publication Number Publication Date
DE112017001044T5 true DE112017001044T5 (de) 2019-01-03

Family

ID=58632532

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017001044.6T Pending DE112017001044T5 (de) 2016-02-29 2017-02-27 Präsenzmelder

Country Status (4)

Country Link
US (1) US10290194B2 (de)
CN (1) CN108885688B (de)
DE (1) DE112017001044T5 (de)
WO (1) WO2017149386A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290194B2 (en) 2016-02-29 2019-05-14 Analog Devices Global Occupancy sensor
CN108629856B (zh) * 2018-05-11 2020-12-22 北京易创智慧科技集团有限公司 一种停车场智能停车收费方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6050369A (en) 1994-10-07 2000-04-18 Toc Holding Company Of New York, Inc. Elevator shaftway intrusion device using optical imaging processing
US6163257A (en) 1996-10-31 2000-12-19 Detection Systems, Inc. Security system having event detectors and keypads with integral monitor
US6107930A (en) 1997-10-29 2000-08-22 Behlke; George Eric Security system keypad illuminated by proximate motion
DE59914523D1 (de) 1999-12-17 2007-11-22 Siemens Schweiz Ag Präsenzmelder und dessen Verwendung
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US7026954B2 (en) 2003-06-10 2006-04-11 Bellsouth Intellectual Property Corporation Automated parking director systems and related methods
US8184154B2 (en) 2006-02-27 2012-05-22 Texas Instruments Incorporated Video surveillance correlating detected moving objects and RF signals
US8379926B2 (en) * 2007-12-13 2013-02-19 Clemson University Vision based real time traffic monitoring
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20120087573A1 (en) 2010-10-11 2012-04-12 Vinay Sharma Eliminating Clutter in Video Using Depth Information
US9648284B2 (en) * 2011-05-15 2017-05-09 Lighting Science Group Corporation Occupancy sensor and associated methods
SE537427C2 (sv) * 2012-08-20 2015-04-28 Mindmancer AB Metod och datorprogramprodukt för övervakningssystem och övervakningssystem
US9679465B2 (en) * 2013-07-18 2017-06-13 Google Inc. Systems and methods for processing ultrasonic inputs
US20150117705A1 (en) 2013-10-25 2015-04-30 Chengdu Haicun Ip Technology Llc Hybrid Parking Detection
CN105339061B (zh) * 2014-04-25 2017-05-10 株式会社小松制作所 周边监视系统、作业车辆以及周边监视方法
US20160180175A1 (en) * 2014-12-18 2016-06-23 Pointgrab Ltd. Method and system for determining occupancy
CN104573727B (zh) * 2015-01-16 2017-11-07 山东师范大学 一种手写体数字图像降维方法
US9619985B2 (en) * 2015-04-08 2017-04-11 Vivint, Inc. Home automation communication system
US10477647B2 (en) * 2015-05-01 2019-11-12 Hubbell Incorporated Adaptive visual intelligence outdoor motion/occupancy and luminance detection system
CN105225523B (zh) * 2015-10-15 2018-01-02 浙江宇视科技有限公司 一种车位状态检测方法及装置
US10290194B2 (en) 2016-02-29 2019-05-14 Analog Devices Global Occupancy sensor

Also Published As

Publication number Publication date
CN108885688A (zh) 2018-11-23
CN108885688B (zh) 2021-12-10
WO2017149386A1 (en) 2017-09-08
US20170249820A1 (en) 2017-08-31
US10290194B2 (en) 2019-05-14

Similar Documents

Publication Publication Date Title
DE102014210820B4 (de) Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras
DE102015109270B4 (de) Verfahren zum Ermitteln eines Straßenbelagszustands für ein Fahrzeug
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102013205810B4 (de) System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen
EP2368216B1 (de) Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung
DE112017000231T5 (de) Detektion der Lebendigkeit für die Gesichtserkennung mit Täuschungsverhinderung
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE102018125629A1 (de) DEEP-Learning-basierte Echtzeit-Detektion und -Korrektur von kompromittierten Sensoren in autonomen Maschinen
DE112018000899T5 (de) Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion
DE112017001049T5 (de) Fahrzeugparkplatzbelegungs-Sichtsensor
DE102015121339A1 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE112019004488B4 (de) Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung
DE112015002837T5 (de) Fusion von Daten aus heterogenen Quellen
EP3657386A1 (de) Verfahren und system zum unterstützen eines automatisiert fahrenden fahrzeugs
DE102015102679A1 (de) Effiziente freiraumfingererkennung
DE102018127802A1 (de) Hybrider klassifikator eines gepulsten neuronalen netzwerks und einer support-vektor-maschine
DE102020102823A1 (de) Fahrzeugkapselnetzwerke
DE112022002858T5 (de) Bildbasierte anomalieerkennung basierend auf einer maschinellen lernanalyse eines objekts
DE102018220892A1 (de) Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
DE102022102934A1 (de) Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung
DE102015207047A1 (de) Verfahren und System automatisierten Sequenzieren von Fahrzeugen in nebeneinander angeordneten Durchfahrtskonfigurationen über eine bildbasierte Einstufung
DE112017001044T5 (de) Präsenzmelder
Shukla et al. A computer vision framework for detecting and preventing human-elephant collisions
DE102013226725A1 (de) Verfahren und system für das erkennen einer handgeste, wobei selektive beleuchtung benutzt wird
DE102020215729A1 (de) System und verfahren zum detektieren von abnormalem passagierverhalten in autonomen fahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, IE

Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL, HAMILTON, BM

Owner name: ANALOG DEVICES GLOBAL UNLIMITED COMPANY, BM

Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL, HAMILTON, BM

R082 Change of representative

Representative=s name: WITHERS & ROGERS LLP, DE

Representative=s name: FLEUCHAUS & GALLO PARTNERSCHAFT MBB PATENTANWA, DE

Representative=s name: FLEUCHAUS & GALLO PARTNERSCHAFT MBB, DE

R082 Change of representative

Representative=s name: WITHERS & ROGERS LLP, DE

R081 Change of applicant/patentee

Owner name: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, IE

Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL UNLIMITED COMPANY, HAMILTON, BM

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000