DE112017001044T5 - Präsenzmelder - Google Patents
Präsenzmelder Download PDFInfo
- Publication number
- DE112017001044T5 DE112017001044T5 DE112017001044.6T DE112017001044T DE112017001044T5 DE 112017001044 T5 DE112017001044 T5 DE 112017001044T5 DE 112017001044 T DE112017001044 T DE 112017001044T DE 112017001044 T5 DE112017001044 T5 DE 112017001044T5
- Authority
- DE
- Germany
- Prior art keywords
- classifier
- technique
- camera
- foreground object
- proximity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Abstract
Description
- PRIORITÄTSANSPRUCH
- Diese Patentanmeldung beansprucht den Vorteil der Priorität gegenüber der
United States-Anmeldung Nr. 15/056,560 - TECHNISCHES GEBIET
- Hierin beschriebene Ausführungsformen beziehen sich allgemein auf Anlagenautomatisierung und genauer auf einen Präsenzmelder.
- HINTERGRUND
- Präsenzerkennung ist ein wichtiger Aspekt verschiedener Systeme, wie z. B. Anlagenautomatisierung (z. B. Beleuchtung eines Bereichs bei Anwesenheit von Personen), Sicherheit, Stadtverwaltung etc. Präsenzerkennung im Freien kann zum Beispiel intelligente Straßenbeleuchtungen für Smart Cities oder Verkehrsüberwachung auf Straßen unter anderen Anwendungen ermöglichen. Manche Präsenzmelder können zum Treffen von Präsenzentscheidungen einen Videosensor, Infrarot-(IR)-Sensor oder Tiefensensor sowie andere Sensoren verwenden.
- Figurenliste
- In den Zeichnungen, die nicht notwendigerweise maßstabsgetreu gezeichnet sind, können gleichartige Bezugszeichen ähnliche Komponenten in unterschiedlichen Ansichten beschreiben. Gleichartige Bezugszeichen mit unterschiedlichen Buchstaben-Suffixen können verschiedene Instanzen ähnlicher Komponenten darstellen. Die Zeichnungen veranschaulichen im Allgemeinen beispielhaft, aber nicht einschränkend, verschiedene Ausführungsformen, die im vorliegenden Dokument erörtert werden.
-
1 ist ein Blockdiagramm eines Beispiels einer Umgebung mit einem Präsenzmelder gemäß einer Ausführungsform. -
2 veranschaulicht ein Bild aus einer Kameraperspektive gemäß einer Ausführungsform. -
3 ist ein Ablaufdiagramm eines Beispiels eines Verfahrens für einen Präsenzmelder gemäß einer Ausführungsform. -
4 ist ein Blockdiagramm, das ein Beispiel einer Maschine, auf der eine oder mehrere Ausführungsformen implementiert werden können, veranschaulicht. - DETAILLIERTE BESCHREIBUNG
- Gängige Präsenzmelder verwenden verschiedene Techniken. Ein Sensor kann zum Beispiel mittels einer videobasierten Technik nach Unterschieden zwischen Bildern suchen, um Bewegung in einem Sichtfeld nachzuweisen. Manche Techniken werden kombiniert, wie z. B. Einschalten der Videokamera zum Verarbeiten von Bewegung, nachdem ein Laser-, Sonar-, Radarsensor oder ein anderer Sensor einen Lesevorgang auslöst.
- Eine Vielzahl von Techniken kann für videobasierte Bewegungserkennung genutzt werden. Eine derartige Technik verwendet einen Differenzvergleich zwischen früheren Bildern und einem aktuellen Bild. Ein derartiger Differenzvergleich ist die Gaußsche Mischmodell-(GMM)-Technik. Allgemein identifizieren diese Techniken Vordergrundobjekte (z. B. bewegende Objekte) aus dem Hintergrund (z. B. stationäre Objekte) durch Subtrahieren eines aktuellen Bilds von einem oder mehreren früheren Bildern. Die verbleibenden Pixel sind beispielsweise die Vordergrundobjekte. Diese Pixel können in Blobs gruppiert werden, wobei ein Blob ein Vordergrundobjekt ist. Möchte man die Präsenz von Menschen erkennen, könnte man das Volumen eines Blobs mit einem erwarteten Volumen eines Menschen vergleichen, um zum Beispiel zwischen einem Menschen und einem Hund zu unterscheiden.
- Andere Techniken können eine Vielzahl von Technologien der Künstlichen Intelligenz (AI), wie z. B. Neuronennetzklassifikatoren oder dergleichen, verwenden. Allgemein können AI-Techniken besser zwischen beobachteten Gegenständen unterscheiden (z. B. ob es sich bei einem bewegenden Objekt um einen Menschen oder einen Hund handelt), sie sind aber rechenintensiv, was zu einer höheren Leistungsaufnahme führt. Differenztechniken, wie GMM, sind hingegen schnell und leistungseffizient. Daher wird bei vielen Implementierungen eine Form von Differenztechnik verwendet.
- Obwohl Differenztechniken effizient sind, gibt es Situationen, die von diesen Techniken schlecht gehandhabt werden. Bei Installation im Freien kann die Kameraperspektive zum Beispiel Abfall (z. B. eine herumfliegende Tüte) oder ein kleines Tier wie einen Vogel oder ein Insekt (wegen der Bewegung) als Vordergrundblob mit einem die Auslöseschwelle überschreitenden Volumen bildend ergeben. In solchen Fällen kann eine einfache Anwendung der Differenztechnik zu falschen positiven Erkennungen führen. In einem Beispiel, in dem der Präsenzmelder zum Einschalten einer Straßenleuchte verwendet wird, würde die Leuchte unnötig eingeschaltet und Leistung verschwendet werden. Erforderlich ist ein Präsenzmelder, der Vorfälle des Eindringens in das Sichtfeld der Kamera, die wahrscheinlich derartige Falschmeldungen verursachen, erkennen und zwischen erwünschten Vordergrundobjekten und unerwünschten Vordergrundobjekten unterscheiden kann, um falsche positive Ergebnisse zu vermeiden.
- Der hierin beschriebene Präsenzmelder fügt zur Kamera einen Näherungsdetektor hinzu. Der Näherungsdetektor ist so angeordnet, dass er alarmiert, wenn sich ein Objekt innerhalb eines vorbestimmten Abstands innerhalb des Sichtfelds der Kamera befindet. Wenn der Näherungsdetektor nicht alarmiert (z. B. wenn sich kein Objekt innerhalb des vorbestimmten Abstands befindet) verarbeitet der Präsenzmelder sein Video mithilfe einer effizienten differenzbasierten Technik, wie z. B. GMM. Wenn der Näherungsdetektor jedoch alarmiert, ändert der Präsenzmelder seine Abtasttechnik, indem er einen Klassifikator zum Unterscheiden zwischen Vordergrundobjekten einschließt, sodass eine Präsenzangabe ausgelöst wird, wenn der Klassifikator angibt, dass ein Zielvordergrundobjekt beobachtet wird. So kann der Präsenzmelder unter Vermeidung falscher positiver Ergebnisse auf effiziente Weise arbeiten. Weitere Einzelheiten, Beispiele und Ausführungsformen sind unten beschrieben.
-
1 ist ein Blockdiagramm eines Beispiels einer Umgebung mit einem Präsenzmelder 100 gemäß einer Ausführungsform. Der Präsenzmelder 100 schließt eine Kamera105 , einen Näherungsdetektor110 und einen Controller115 ein. Diese Komponenten sind in Hardware implementiert, einschließlich der unten unter Bezugnahme auf4 beschriebenen Schaltungsanordnung. Die Kamera105 und der Näherungsdetektor110 sind so positioniert, dass sich ein Erkennungsbereich120 für den Näherungsdetektor110 mit einem Sichtfeld125 für die Kamera105 überlappt. Der Controller115 ist dazu eingerichtet, bei Betrieb des Präsenzmelders 100 kommunikativ mit der Kamera105 und dem Näherungsdetektor110 gekoppelt zu werden, kann jedoch direkt verbunden sein (z. B. über einen Bus, eine Zwischenverbindung, übliche Input-Output-Pins, eine Buchse etc.), kann verbunden sein über ein Netzwerk (z. B. drahtgebunden oder drahtlos) oder kann in einem einzigen Gehäuse oder einer einzigen Halterung enthalten sein. -
1 veranschaulicht eine problematische Außenumgebung. Insgesamt sind ein Vogel135 , ein Hund140 und ein Auto130 im Sichtfeld125 der Kamera. Wie oben erwähnt, kann die Näherung des Vogels135 an die Kamera105 zu einem großen Blob führen. Bei anderen Systemen kann ein derartig großes Blob eine falsche positive Präsenzangabe auslösen, wenn ein großes Objekt, wie z. B. das Auto130 , erwünscht ist. Der Hund140 hingegen würde wegen seiner kleinen Größe im Verhältnis zum Auto130 und ihrer ähnlichen Position innerhalb des Sichtfelds125 wahrscheinlich ignoriert werden.2 veranschaulicht ein Beispiel dieses Prinzips. Wie in1 gezeigt, befindet sich der Vogel135 aber innerhalb des Erkennungsbereichs120 des Näherungsdetektors, sodass eine verbesserte Technik zum Unterscheiden zwischen dem Auto130 und dem Vogel135 ausgelöst wird. - Der Näherungsdetektor
110 kann von einem beliebigen Typ sein, der einen Näherungsindikator bereitstellt, wenn sich ein Objekt innerhalb eines Schwellenabstands befindet. Beispielsweise kann es sich beim Näherungsdetektor um einen schallbasierten (z. B. hypersonischen) Detektor oder um einen aktiven IR-Sensor, der Energie in die Umgebung abgibt und die Reflexion dieser Energie misst, handeln. In einem Beispiel weist der Näherungsdetektor110 einen festen Schwellenabstand auf. In diesem Beispiel stellt der Näherungsdetektor110 den Näherungsindikator bereit, wenn sich ein Objekt ausreichender Größe (z. B. so groß, dass es vom Sensor erkannt wird) in den Erkennungsbereich120 bewegt. In einem Beispiel kann der feste Schwellenabstand bei der Einrichtung eingestellt werden, oder später durch eine externe Entität, wie z. B. eine Wartungsperson, etc. - In einem Beispiel wird der Näherungsindikator als negativ betrachtet, wenn keine Kommunikation mit dem Näherungsdetektor
110 besteht, anderenfalls als positiv. In einem Beispiel ist der Näherungsindikator eine Kommunikation, die positiv (etwas hat den Näherungsdetektor110 ausgelöst) oder negativ (nichts hat den Näherungsdetektor110 ausgelöst) angibt. In einem Beispiel ist der Näherungsindikator binär (z. B. ein oder aus). In einem Beispiel ist der Näherungsindikator ein Abstand. Der Näherungsindikator ist jedoch kein Tiefensensor, der ein Tiefenbild von Objekten bereitstellt. - Die Kamera
105 erzeugt Bilder aus Licht. In einem Beispiel ist die Kamera105 eine zweidimensionale Kamera, die zweidimensionale Bilder erzeugt. In einem Beispiel ist die Kamera105 eine Multiwellenlängenkamera (z. B. eine Mehrfarbkamera). - Der Controller
115 enthält Verarbeitungsschaltungsanordnung (z. B. einen digitalen Signalprozessor oder dergleichen) und Kommunikationsschnittstellen zur Kamera105 und zum Näherungsdetektor110 . Der Controller115 ist somit zum Empfangen von Bildern von der Kamera105 vorgesehen. Der Controller115 ist auch zum Empfangen des Näherungsindikators vom Näherungsdetektor110 vorgesehen. - Der Controller
115 ist auch dazu vorgesehen, die Bilder von der Kamera105 zu verarbeiten, um eine Präsenzangabe bereitzustellen. Eine Präsenzangabe ist ein Ausgangssignal (z. B. auf einer Leitung, in einer Meldung etc.), das angibt, dass ein beobachteter Bereich von einem bewegenden Zielobjekt belegt ist. Um das Präsenzsignal von der Kamera105 bereitzustellen, verarbeitet der Controller115 die Bilder mithilfe einer ersten Technik bei Fehlen des Näherungsindikators. Fehlen schließt hier auch Empfangen eines negativen Näherungsindikators ein. In beiden Fällen hat der Näherungsdetektor110 kein Objekt innerhalb des festen Schwellenabstands erkannt. Wenn der Näherungsindikator angibt, dass sich ein Objekt innerhalb des Schwellenabstands befindet, wendet der Controller115 eine zweite Technik zum Verarbeiten der Bilder für die Präsenzangabe an. - In einem Beispiel ist die erste Technik eine Technik mit geringer Leistungsaufnahme. In einem Beispiel schließt die erste Technik Identifizieren eines Vordergrundobjekts ein. Wie oben erwähnt, sind Vordergrundobjekte bewegende Objekte, während Hintergrundobjekte stationär sind. Eine Vielzahl von Filtertechniken kann jedoch angewendet werden, um Bewegung durch Hintergrundobjekte zu eliminieren, wie z. B. das Wiegen von Bäumen. Diese Techniken können Verfolgen und Ignorieren zyklischer Bewegungen einschließen. In einem Beispiel können Vordergrundobjekte über eine Differenztechnik identifiziert werden, wobei ein aktuelles Bild durch ein früheres Bild subtrahiert wird. Die verbleibenden Pixel beziehen sich auf Bewegung zwischen den Bildern. Durch Einbeziehen einer längerfristigen Ansicht des früheren Bilds kann eine Anzahl früherer Bilder zum Bestimmen der Referenz des Hintergrunds verwendet werden. Eine Gaußsche Mischmodell-(GMM)-Technik kann verwendet werden, um das Referenzbild zu erzeugen und die Pixel zu bestimmen, die mit Bewegung im aktuellen Bild verbunden sind.
- Nachdem die Gruppe von Pixeln (z. B. ein Blob) für Vordergrundobjekte identifiziert ist, wird die Präsenzangabe ausgelöst, wenn das Blob die Schwellengröße überschreitet. Eine derartige Berechnung ist relativ effizient und ermöglicht Ausführen der ersten Technik mit geringer Leistungsaufnahme ohne beispielsweise die Präsenzangabe bei unerwünschten Zielen auszulösen. Wenn das Zielobjekt zum Beispiel das Auto
130 ist, möchte man, um beispielsweise ein Licht einzuschalten, gegenüber dem Hund140 unterscheiden. Da sich beide bewegen, bietet Verwenden der Blobgröße eine unkomplizierte Weise zum Unterscheiden zwischen dem Auto130 und dem Hund140 . Ein Beispiel ist unten unter Bezugnahme auf2 erörtert. - Die zweite Technik stellt genauere Einzelheiten hinsichtlich der Art des beobachteten Vordergrundobjekts bereit. In einem Beispiel schließt die zweite Technik Anwendung eines Klassifikators zum Unterscheiden zwischen Zielen ein. Wie hierin verwendet, ist ein Klassifikator eine Implementierung einer Familie von AI-Techniken zum Verarbeiten von Bildern und zum Klassifizieren oder Benennen eines darin gefundenen Objekts. Klassifikatoren können auch statistische Lernverfahren genannt werden und betreffen allgemein eine gewisse Form von Mustererkennung zum Ausgeben eines Ergebnisses bezüglich des Bilds. Ein Klassifikator kann zum Beispiel dazu trainiert werden, eine Katze in einem Bild zu erkennen. Wird einem derartigen Klassifikator ein Bild geboten, so bestimmt er zum Beispiel, ob eine Katze vorhanden ist, eine Katzenart oder eine Position der Katze im Bild. Klassifikatoren können auf vielfältige Weise implementiert sein, wie z. B. unter anderem über neuronale Netze, Kernel-Verfahren wie die Support Vector Machines, den k-nächsten-Nachbarn-Algorithmus, das Gaußsche Mischmodell, naive Bayes-Klassifikatoren und Entscheidungsbäume.
- In einem Beispiel wird der Klassifikator auf die Bilder angewendet. In einem Beispiel wird der Klassifikator auf Teile des Bilds, die den über die erste Technik identifizierten Vordergrundobjektblobs entsprechen, angewendet. In einem Beispiel wird der Klassifikator auf die Blobs selbst angewendet, die zuerst durch Anwenden der ersten Technik identifiziert worden sind. In einem Beispiel wird der Klassifikator nur auf solche Blobs angewendet, die die Schwellengröße überschreiten. So wird der Klassifikator zum Beispiel nicht auf das Hund 140-Blob angewendet, wird aber auf das Vogel 135-Blob und das Auto 130-Blob angewendet.
- Der Controller
115 stellt die Präsenzangabe basierend auf dem Ergebnis des Klassifikators bereit. In einem Beispiel wird der Klassifikator zum Identifizieren eines Einschlussobjekts trainiert. In diesem Beispiel wird die Präsenzangabe bereitgestellt, wenn der Klassifikator das Vordergrundobjekt identifiziert. Ein derartiger Ansatz kann den Vorteil eines einfacheren Klassifikators aufweisen, wenn, zum Beispiel, die Form eines Einschlussobjekts beschränkt ist, wie z. B. ein begrenzter Satz von Fahrzeugen. In einem Beispiel wird der Klassifikator zum Identifizieren eines Ausschlussobjekts trainiert. In diesem Beispiel wird die Präsenzangabe bereitgestellt, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert. In einem Beispiel ist das Ausschlussobjekt ein fliegendes Tier (z. B. Vogel, Insekt etc.) oder Debris (z. B. Baumzweige, Staub, Schnee, Papier etc.). - Der Präsenzmelder
100 bietet eine elegante Lösung für die Probleme, mit denen Präsenzmelder zu kämpfen hatten, einschließlich Reduzieren falscher positiver Präsenzangaben bei konstant leistungseffizientem Betrieb. Die Hinzufügung des Näherungsdetektors110 ist eine kostengünstige und leicht zu integrierende Modifikation für videobasierte Präsenzmelder, welche die Komplexität von Dingen wie Tiefenkameras, Millimeterwellenradar und dergleichen vermeidet. Außerdem, durch sparsamen Einsatz von visueller AI-Klassifikation, wenn ein Objekt den Näherungsdetektor110 auslöst, ermöglicht es der Controller115 , leistungseffiziente visuelle Präsenztechniken zu verwenden, wenn kein derartiges auslösendes Objekt vorhanden ist. -
2 veranschaulicht ein Bild200 aus einer Kameraperspektive gemäß einer Ausführungsform. Das Bild200 schließt ein Vogelblob205 , ein Autoblob220 und ein Hundblob225 ein, die jeweils dem Vogel135 , Auto130 und Hund140 , wie in1 veranschaulicht, entsprechen. Wie oben erwähnt, handelt es sich bei den Blobs um Sammlungen von Pixeln, die über ihre Änderung zwischen einem aktuellen Bild und einem oder mehreren früheren Bildern für Vordergrundobjekte gehalten werden. - Als eine einfache veranschaulichende Technik wird eine schwellenbestimmende Größe auf die Blobs angewendet, wie oben erwähnt, um zwischen Zielvordergrundobjekten und solchen Objekten, die keine Präsenz auslösen sollten, zu unterscheiden. Beispielsweise ist das Autoblob
220 größer als das Schwellenobjekt215 und stellt somit ein Zielvordergrundobjekt dar, während das Hundblob225 kleiner als das Schwellenobjekt230 ist und somit kein Zielvordergrundobjekt darstellt. Dies setzt voraus, dass Präsenz für Autos erwünscht ist. Das Gegenteil kann wahr sein, wenn man zum Beispiel Autos zugunsten kleinerer Objekte ignorieren möchte. - Das Vogelblob
205 veranschaulicht jedoch das durch den Präsenzmelder 100 angegangene Problem. Das Vogelblob205 ist größer als das Schwellenobjekt210 , während der Vogel130 in Wirklichkeit recht klein ist. Der Fehler kommt wegen der Nähe des Vogels130 zur Kamera105 und der Kameraperspektive zustande. Daher würde der Vogel130 , wie oben erwähnt, fälschlicherweise eine Präsenzangabe auslösen. Wie in1 gezeigt, befindet sich der Vogel130 aber innerhalb des Erkennungsbereichs135 und würde auch den Näherungsdetektor110 zum Bereitstellen des Näherungsindikators (z. B. eines positiven Näherungsindikators) auslösen. Daher würde sich der Controller115 in dieser Situation nicht auf die einfache Schwellenbestimmung von Blobs verlassen, sondern würde den Klassifikator aufrufen. Beispielsweise würde der Klassifikator, falls er zum Erkennen von Autos trainiert ist, das Vogelblob205 ablehnen. Das verbleibende Autoblob220 würde hingegen die Präsenzangabe auslösen. -
3 ist ein Ablaufdiagramm eines Beispiels eines Verfahrens300 für einen Präsenzmelder gemäß einer Ausführungsform. Die Operationen des Verfahrens300 werden von Computer-Hardware ausgeführt, wie z. B. von der oben unter Bezugnahme auf1 oder der unten unter Bezugnahme auf4 beschriebenen (z. B. Prozessoren, Schaltungsanordnung etc.). - Bei Operation
305 werden Bilder einer Kamera erhalten. Die Bilder können gezogen (z. B. angefordert) oder geschoben (z. B. von der Kamera gesendet) werden. Die Bilder stammen von einer Szene, auf die die Kamera gerichtet ist, wobei die Szene durch das Sichtfeld der Kamera definiert ist. In einem Beispiel handelt es sich bei den Bildern um zweidimensionale Bilder im Gegensatz zu Tiefenbildem oder dreidimensionalen Bildern. - Bei Operation
310 wird ein Näherungsindikator von einem Näherungsdetektor erhalten. Der Näherungsdetektor ist so angeordnet, dass er ein Objekt innerhalb des Sichtfelds der Kamera heraus bis zu einem Schwellenabstand erkennt. In einem Beispiel ist der Schwellenabstand während Betriebs festgelegt, kann aber im Zuge der Einrichtung oder Wartung eingestellt werden. In einem Beispiel handelt es sich beim Näherungsdetektor um ein aktives IR-Gerät. In einem Beispiel handelt es sich beim Näherungsdetektor um ein laserbasiertes Gerät. - Bei Entscheidung
315 wird bestimmt, ob der Näherungsindikator aktiv ist. In einem Beispiel ist der Näherungsindikator aktiv, wenn er erhalten wird, zum Beispiel über einen oder mehrere Pins an einen üblichen I/O-Port. In einem Beispiel ist der Näherungsindikator aktiv, wenn er eine Meldung oder Nutzlast einschließt, die angibt, dass er aktiv ist. In einem Beispiel ist der Näherungssensor aktiv, wenn er einen Abstand innerhalb eines annehmbaren Bereichs (z. B. innerhalb eines Meters, zwischen100 Zentimetern und zwei Metern etc.) einschließt. - Bei Operation
320 , wenn der Näherungsindikator nicht aktiv ist, werden die Bilder unter Verwendung einer ersten Technik auf Präsenz hin verarbeitet. In einem Beispiel handelt es sich bei der ersten Technik um eine leistungseffiziente Technik. Anwenden der ersten Technik schließt in einem Beispiel Identifizieren eines Vordergrundobjekts ein. In einem Beispiel wird die GMM-Technik zum Identifizieren des Vordergrundobjekts aus einer Sequenz der Bilder verwendet. - Anwenden der ersten Technik schließt in einem Beispiel Schwellenbestimmung gefundener Vordergrundobjekte gegenüber einem Größenmodell ein. Wenn das Vordergrundobjekt kleiner ist als eine untere Schwelle, geht das Verfahren
300 nicht zu Operation330 über. Wenn das Objekt hingegen kleiner ist als eine obere Schwelle, fährt das Verfahren300 mit Operation330 fort. - Bei Operation
325 , wenn der Näherungsindikator nicht aktiv ist, werden die Bilder unter Verwendung einer ersten Technik auf Präsenz hin verarbeitet. In einem Beispiel schließt die zweite Technik Anwenden eines Klassifikators auf ein Vordergrundobjekt ein. In einem Beispiel wird der Klassifikator auf das Vordergrundobjekt angewendet, wenn das Vordergrundobjekt die Schwellengröße überschreitet. Wie oben erwähnt, kann der Klassifikator auch auf das aktuelle Bild, eine Sequenz von Bildern, Teile des aktuellen Bilds, die dem Vordergrundobjekt entsprechen, oder einen Pixelblob des Vordergrundobjekts angewendet werden. - In einem Beispiel wird der Klassifikator zum Identifizieren eines Ausschlussobjekts trainiert. In diesem Beispiel geht das Verfahren
300 zu Operation330 über, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert. Das heißt, das Vordergrundobjekt ist nicht auszuschließen, weil der Klassifikator es nicht erkannt hat. In einem Beispiel schließt ein Ausschlussobjekt wenigstens eines von einem fliegenden Tier oder Debris ein. In einem Beispiel wird der Klassifikator zum Identifizieren eines Einschlussobjekts trainiert. In diesem Beispiel geht das Verfahren zu Operation330 über, wenn der Klassifikator das Vordergrundobjekt identifiziert. In einem Beispiel schließt ein Vordergrundobjekt wenigstens eines von einem Menschen oder einem Fahrzeug ein. - Bei Operation
330 wird eine Präsenzangabe basierend auf der verwendeten Technik bereitgestellt. So, wie in Operationen320 und330 erwähnt, gelangt das Verfahren330 in Abhängigkeit von den Ergebnissen der Technik zu dieser Operation zum Ausgeben einer Präsenzangabe. In einem Beispiel schließt die Präsenzangabe eine Zählung gefilterter Vordergrundobjekte ein. In einem Beispiel schließt die Präsenzangabe eine übersetzte Position der Vordergrundobjekte ein. In diesem Beispiel wird die Position des Objekts in der realen Welt von der Position des Objekts im Bild und bekannten Werten für die Montage der Kamera (z. B. Höhe, Ausrichtung, Pitch etc.) sowie optischen Eigenschaften übersetzt. In einem Beispiel schließt die Präsenzangabe nur eine binäre Angabe, ob ein Vordergrundobjekt von Interesse vorhanden ist, ein. -
4 veranschaulicht ein Blockdiagramm einer beispielhaften Maschine400 , auf der eine oder mehrere der hierin erörterten Techniken (z. B. Methodologien) ablaufen können. Bei alternativen Ausführungsformen kann die Maschine400 als eine selbständige Vorrichtung arbeiten oder sie kann mit anderen Maschinen verbunden (z. B. vernetzt) werden. Bei einem vernetzten Einsatz kann die Maschine400 in der Kapazität einer Server-Maschine, einer Client-Maschine oder in Server-Client-Netzwerkumgebungen arbeiten. In einem Beispiel kann die Maschine400 als eine Peer-Maschine in einer Peer-to-Peer (P2P)-Netzwerkumgebung (oder einer anderen verteilten Netzwerkumgebung) arbeiten. Die Maschine400 kann ein Personal Computer (PC), ein Tablet PC, eine Set-Top-Box (STB), ein Personal Digital Assistant (PDA), ein Mobiltelefon, eine Web-Vorrichtung, ein Netzrouter, Switch, eine Bridge oder eine beliebige Maschine sein, die in der Lage sind, Anweisungen (sequenziell oder anderweitig) auszuführen, die von dieser Maschine zu ergreifende Aktionen vorgeben. Ferner, obwohl nur eine einzelne Maschine dargestellt ist, soll der Begriff „Maschine“ auch so verstanden werden, dass er eine beliebige Sammlung von Maschinen einschließt, die einzeln oder gemeinsam einen Satz (oder mehrere Sätze) von Anweisungen ausführen, um eine oder mehrere der hierin erörterten Methodologien durchzuführen, wie z. B. Cloud Computing, Software as a Service (SaaS) und andere Computerclusterkonfigurationen. - Beispiele, wie hierin beschrieben, können Logik oder eine Zahl von Komponenten oder Mechanismen einschließen oder damit arbeiten. Schaltungsanordnung ist eine Sammlung von Schaltungen, implementiert in materiellen Entitäten, die Hardware einschließen (z. B. einfache Schaltungen, Gatter, Logik etc.). Schaltungsanordnungszugehörigkeit kann im Laufe der Zeit flexibel sein und Hardware-Variabilität unterliegen. Schaltungsanordnungen schließen Elemente ein, die selbständig oder in Kombination bei Betrieb vorgegebene Operationen durchführen. In einem Beispiel kann Hardware der Schaltungsanordnung unabänderlich zum Ausführen einer spezifischen Operation konstruiert sein (z. B. verdrahtet). In einem Beispiel kann die Hardware der Schaltungsanordnung variabel verbundene physische Komponenten (z. B. Ausführungseinheiten, Transistoren, einfache Schaltungen etc.) einschließlich eines zum Kodieren von Anweisungen der spezifischen Operation physisch modifizierten (z. B. magnetisch, elektrisch, verschiebbare Platzierung von Partikeln invarianter Masse etc.) computerlesbaren Mediums einschließen. Beim Verbinden der physischen Komponenten werden die zugrunde liegenden elektrischen Eigenschaften eines Hardware-Bestandteils geändert, zum Beispiel, von einem Isolator zu einem Leiter oder umgekehrt. Die Anweisungen ermöglichen es eingebetteter Hardware (z. B. den Ausführungseinheiten oder einem Lademechanismus), Elemente der Schaltungsanordnung in Hardware über die variablen Verbindungen zu erzeugen, um bei Betrieb Teile der spezifischen Operation auszuführen. Dementsprechend ist das computerlesbare Medium bei Betrieb der Vorrichtung kommunikativ mit den anderen Komponenten der Schaltungsanordnung gekoppelt. In einem Beispiel können beliebige der physischen Komponenten in mehr als einem Element von mehr als einer Schaltungsanordnung verwendet werden. Beispielsweise können Ausführungseinheiten bei Betrieb zu einem gegebenen Zeitpunkt in einer ersten Schaltung einer ersten Schaltungsanordnung verwendet werden und von einer zweiten Schaltung in der ersten Schaltungsanordnung oder von einer dritten Schaltung in einer zweiten Schaltungsanordnung zu einem anderen Zeitpunkt erneut verwendet werden.
- Die Maschine (z. B. Computersystem)
400 kann einen Hardwareprozessor402 (z. B. eine Zentraleinheit (Central Processing Unit, CPU), eine Grafikverarbeitungseinheit (Graphics Processing Unit, GPU), einen Hardwareprozessorkern oder eine beliebige Kombination davon), einen Hauptspeicher404 und einen statischen Speicher406 einschließen, wovon einige oder alle über eine Zwischenverbindung (z. B. Bus)408 miteinander kommunizieren. Die Maschine400 kann ferner eine Anzeigeeinheit410 , ein alphanumerisches Eingabegerät412 (z. B. eine Tastatur) und ein Benutzerschnittstellen-Navigationsgerät (User Interface (UI)-Navigationsgerät)414 (z. B. eine Maus) einschließen. In einem Beispiel können das Anzeigeeinheit410 , Eingabegerät412 und UI-Navigationsgerät414 eine Touchscreen-Anzeige sein. Die Maschine400 kann zusätzlich einen Speichergerät (z. B. ein Laufwerk)416 , ein Signalerzeugungsgerät418 (z. B. einen Lautsprecher), ein Netzwerkschnittstellengerät420 und einen oder mehrere Sensoren421 , wie z. B. einen Sensor des globalen Positionsbestimmungssystems (Global Positioning System, GPS), Kompass, Beschleunigungsmesser oder einen anderen Sensor, einschließen. Die Maschine400 kann einen Ausgabecontroller428 , wie z. B. eine serielle (z. B. Universal Serial Bus (USB), parallele oder andere verdrahtete oder drahtlose (z. B. Infrarot (IR), Nahfeldkommunikation (Near Field Communication, NFC) etc.) Verbindung zum Kommunizieren mit oder Steuern von einem oder mehreren Peripheriegeräten (z. B. Drucker, Kartenleser etc.) einschließen. - Das Speichergerät
416 kann ein maschinenlesbares Medium422 einschließen, auf dem ein oder mehrere Sätze von Datenstrukturen oder Anweisungen424 (z. B. Software) gespeichert sind, die eine oder mehrere beliebige der hierin beschriebenen Techniken oder Funktionen verkörpern oder durch solche verwendet werden. Die Anweisungen424 können auch vollständig oder wenigstens teilweise innerhalb des Hauptspeichers404 , innerhalb des statischen Speichers406 oder innerhalb des Hardwareprozessors402 während derer Ausführung durch die Maschine400 liegen. In einem Beispiel können eine einzelne oder eine beliebige Kombination des Hardwareprozessors402 , des Hauptspeichers404 , des statischen Speichers406 oder des Speichergeräts416 maschinenlesbare Medien bilden. - Obwohl das maschinenlesbare Medium
422 als ein einzelnes Medium dargestellt ist, kann der Begriff „maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien einschließen (z. B. eine zentralisierte oder verteilte Datenbank und/oder zugehörige Caches und Server), die zum Speichern der einen oder mehreren Anweisungen424 konfiguriert sind. - Der Begriff „maschinenlesbares Medium“ kann ein beliebiges Medium einschließen, das in der Lage ist, Anweisungen für Ausführung durch die Maschine
400 zu speichern, zu kodieren oder zu befördern, welche die Maschine400 veranlassen, eine oder mehrere der Techniken der vorliegenden Offenbarung durchzuführen, oder das in der Lage ist, Datenstrukturen, die von solchen Anweisungen verwendet werden oder mit diesen verbunden sind, zu speichern, zu kodieren oder zu befördern. Nicht einschränkende Beispiele für maschinenlesbare Medien schließen Festkörperspeicher und optische sowie magnetische Medien ein. In einem Beispiel weist ein massives maschinenlesbares Medium ein maschinenlesbares Medium mit einer Vielzahl von Partikeln mit invarianter Masse (z. B. Ruhemasse) auf. Dementsprechend sind massive maschinenlesbare Medien nicht transitorische propagierende Signale. Konkrete Beispiele für massive maschinenlesbare Medien können einschließen: nichtflüchtigen Speicher, wie z. B. Halbleiterspeichergeräte (z. B. elektrisch programmierbaren Nur-Lese-Speicher (Electrically Programmable Read-Only Memory, EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (Electrically Erasable Programmable Read-Only Memory, EEPROM) und Flash-Speichergeräte, Magnetplatten, wie z. B. interne Festplatten und Wechselplatten, magneto-optische Platten und CD-ROM- sowie DVD-ROM-Scheiben. - Anweisungen
424 können ferner über ein Kommunikationsnetzwerk426 mittels eines Übertragungsmediums über das Netzwerkschnittstellengerät 420 unter Verwendung eines beliebigen einer Zahl von Übertragungsprotokollen (z. B. Rahmenvermittlung (Frame Relay), Internetprotokoll (IP), Übertragungssteuerungsprotokoll (Transmission Control Protocol, TCP), Benutzer-Datagramm-Protokoll (User Datagram Protocol, UDP), Hypertext-Übertragungsprotokoll (Hypertext Transfer Protocol, HTTP) etc.) gesendet oder empfangen werden. Beispielhafte Kommunikationsnetzwerke können unter anderem ein lokales Netzwerk (Local Area Network, LAN), ein Weitverkehrsnetz (Wide Area Network, WAN), ein paketvermitteltes Datennetz (z. B. das Internet), Mobilfunknetze (z. B. Zellularnetze), einfache Telefonverbindungen (Plain Old Telephone Service, POTS) und drahtlose Datennetzwerke (z. B. die Institute of Electrical and Electronics Engineers (IEEE) 802.11-Normenreihe, bekannt als Wi-Fi®, die IEEE 802.16-Normenreihe, bekannt als WiMax®), die IEEE 802.15.4-Normenreihe und Peer-to-Peer (P2P)-Netzwerke) einschließen. In einem Beispiel kann das Netzwerkschnittstellengerät 420 eine oder mehrere physische Buchsen (z. B. Ethernet-, Koaxial- oder Telefonbuchsen) oder eine oder mehrere Antennen zum Verbinden mit dem Kommunikationsnetzwerk426 einschließen. In einem Beispiel kann das Netzwerkschnittstellengerät 420 eine Vielzahl von Antennen zum drahtlosen Kommunizieren unter Verwendung wenigstens einer der Techniken von Single-Input Multiple-Output (SIMO), Multiple-Input Multiple-Output (MIMO) und Multiple-Input Single-Output (MISO) einschließen. Der Begriff „Übertragungsmedium“ soll so verstanden werden, dass ein beliebiges immaterielles Medium einbezogen ist, das in der Lage ist, Anweisungen für Ausführung durch die Maschine400 zu speichern, zu kodieren oder zu befördern, und schließt digitale oder analoge Kommunikationssignale oder ein anderes immaterielles Medium zum Erleichtern der Kommunikation derartiger Software ein. - Zusätzliche Hinweise und Beispiele
- Beispiel 1 ist eine Vorrichtung, aufweisend: eine Kamera mit einem Sichtfeld; einen zum Erkennen eines Objekts im Sichtfeld angeordneten Näherungsdetektor; und einen Controller zum: Erhalten von Bildern von der Kamera; Erhalten eines Näherungsindikators vom Näherungsdetektor; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
- In Beispiel 2 schließt der Erfindungsinhalt von Beispiel 1 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
- In Beispiel 3 schließt der Erfindungsinhalt von Beispiel 2 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
- In Beispiel 4 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 1-3 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
- In Beispiel 5 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 1-4 optional ein, wobei die erste Technik den Controller einschließt zum: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
- In Beispiel 6 schließt der Erfindungsinhalt von Beispiel 5 optional ein, wobei der Controller zum Identifizieren des Vordergrundobjekts für Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder konzipiert ist.
- In Beispiel 7 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 5-6 optional ein, wobei die zweite Technik den Controller einschließt zum: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
- In Beispiel 8 schließt der Erfindungsinhalt von Beispiel 7 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
- In Beispiel 9 schließt der Erfindungsinhalt von Beispiel 8 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
- In Beispiel 10 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 7-9 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
- Beispiel 11 ist ein maschinenlesbares Medium einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, Operationen durchzuführen, aufweisend: Erhalten von Bildern einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
- In Beispiel 12 schließt der Erfindungsinhalt von Beispiel 11 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
- In Beispiel 13 schließt der Erfindungsinhalt von Beispiel 12 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
- In Beispiel 14 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 11-13 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
- In Beispiel 15 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 11-14 optional ein, wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
- In Beispiel 16 schließt der Erfindungsinhalt von Beispiel 15 optional ein, wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt.
- In Beispiel 17 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 15-16 optional ein, wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
- In Beispiel 18 schließt der Erfindungsinhalt von Beispiel 17 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
- In Beispiel 19 schließt der Erfindungsinhalt von Beispiel 18 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
- In Beispiel 20 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 17-19 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
- Beispiel 21 ist ein Verfahren aufweisend: Erhalten von Bildern von einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
- In Beispiel 22 schließt der Erfindungsinhalt von Beispiel 21 optional ein, wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt.
- In Beispiel 23 schließt der Erfindungsinhalt von Beispiel 22 optional ein, wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt.
- In Beispiel 24 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 21-23 optional ein, wobei es sich bei den Bildern um zweidimensionale Bilder handelt.
- In Beispiel 25 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 21-24 optional ein, wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet.
- In Beispiel 26 schließt der Erfindungsinhalt von Beispiel 25 optional ein, wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt.
- In Beispiel 27 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 25-26 optional ein, wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators.
- In Beispiel 28 schließt der Erfindungsinhalt von Beispiel 27 optional ein, wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert.
- In Beispiel 29 schließt der Erfindungsinhalt von Beispiel 28 optional ein, wobei ein Ausschlussobjekt ein fliegendes Tier einschließt.
- In Beispiel 30 schließt der Erfindungsinhalt von einem oder mehreren beliebigen der Beispiele 27-29 optional ein, wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert.
- Beispiel 31 ist ein System aufweisend Mittel zum Implementieren beliebiger der Verfahren der Beispiele 21-30.
- Beispiel 32 ist ein maschinenlesbares Medium einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, beliebige der Verfahren von Beispielen 21-30 zu implementieren.
- Die obige detaillierte Beschreibung enthält Verweise auf die begleitenden Zeichnungen, die einen Teil der detaillierten Beschreibung bilden. Die Zeichnungen zeigen durch Veranschaulichung spezifische Ausführungsformen, die ausgeübt werden können. Diese Ausführungsformen werden hierin auch als „Beispiele“ bezeichnet. Derartige Beispiele können Elemente zusätzlich zu gezeigten oder beschriebenen einschließen. Die vorliegende Erfindung berücksichtigt jedoch auch Beispiele, in denen nur die gezeigten oder beschriebenen Elemente bereitgestellt sind. Außerdem berücksichtigt die vorliegende Erfindung auch Beispiele unter Verwendung einer beliebigen Kombination oder Permutation der gezeigten oder beschriebenen Elemente (oder eines oder mehrerer Aspekte davon), entweder in Bezug auf ein bestimmtes Beispiel (oder einen oder mehrere Aspekte davon) oder in Bezug auf andere Beispiele (oder einen oder mehrere Aspekte davon), die hierin gezeigt oder beschrieben sind.
- Alle Veröffentlichungen, Patente und Patentdokumente, auf die in diesem Dokument Bezug genommen wird, sind hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen, als ob sie einzeln durch Bezugnahme aufgenommen wären. Im Falle von inkonsistenter Verwendungen zwischen diesem Dokument und den so durch Bezugnahme aufgenommenen Dokumenten, sollte die Verwendung in der (den) aufgenommenen Referenz(en) als zu der dieses Dokuments ergänzend betrachtet werden; bei unvereinbaren Inkonsistenzen ist die Verwendung in diesem Dokument bestimmend.
- In diesem Dokument sind, wie in Patentdokumenten üblich, die Ausdrücke „ein“, „eine“ oder „einer“ so zu verstehen, dass ein Element oder mehr Elemente als ein Element eingeschlossen sind, unabhängig von beliebigen anderen Instanzen oder Gebräuchen von „wenigstens ein“ oder „ein oder mehrere“. Der Begriff „oder“, wie in diesem Dokument verwendet, bezieht sich auf ein nicht-exklusives „oder“, sodass „A oder B“ „A, aber nicht B“ „B, aber nicht A“ und „A und B“ einschließt, sofern nicht anderweitig angegeben. In den angefügten Ansprüchen werden die Ausdrücke „einschließlich“ und „in denen“ als Äquivalente in einfacher Sprache für die jeweiligen Ausdrücke „umfassend“ und „wobei“ verwendet. Ferner sind in den folgenden Ansprüchen die Ausdrücke „einschließlich“ und „umfassend“ offen-beendet, das heißt, dass ein System, eine Vorrichtung, ein Gegenstand oder Prozess, der/die/das Elemente zusätzlich zu den nach einem derartigen Ausdruck in einem Anspruch aufgeführten Elementen einschließt, dennoch als innerhalb des Umfangs dieses Anspruches liegend betrachtet wird. Außerdem werden in den folgenden Ansprüchen die Ausdrücke „erster“, „zweiter“ und „dritter“ nur als Bezeichnungen verwendet und sind nicht dazu gedacht, den Objekten, die sie bezeichnen, numerische Anforderungen aufzuerlegen.
- Die obige Beschreibung soll veranschaulichend und nicht einschränkend sein. Beispielsweise können die oben beschriebenen Beispiele (oder ein oder mehrere Aspekte davon) in Kombination miteinander verwendet werden. Andere Ausführungsformen können verwendet werden, wie zum Beispiel dem Durchschnittsfachmann angesichts der obigen Beschreibung ersichtlich wird. Die Zusammenfassung soll dem Leser einen schnellen Überblick über die Natur der technischen Offenbarung vermitteln und wird mit dem Verständnis vorgelegt, dass sie nicht dazu verwendet wird, den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder einzuschränken. Ferner können in der obigen detaillierten Beschreibung verschiedene Merkmale gruppiert sein, um die Offenbarung zu rationalisieren. Dies ist nicht so zu interpretieren, als dass ein unbeanspruchtes offenbartes Merkmal wesentlich für einen beliebigen Anspruch ist. Vielmehr kann ein erfinderischer Gegenstand in weniger als allen Merkmalen einer bestimmten offenbarten Ausführungsform vorliegen. Somit werden die folgenden Ansprüche hierdurch in die Detaillierte Beschreibung aufgenommen, wobei jeder Anspruch für sich genommen als eine gesonderte Ausführungsform gilt. Der Umfang der Ausführungsformen sollte bezugnehmend auf die angefügten Ansprüche zusammen mit dem gesamten Umfang von Äquivalenten, zu denen derartige Ansprüche berechtigt sind, bestimmt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 15056560 [0001]
Claims (15)
- Vorrichtung, aufweisend: eine Kamera mit einem Sichtfeld; einen zum Erkennen eines Objekts im Sichtfeld angeordneten Näherungsdetektor; und einen Controller zum: Erhalten von Bildern von der Kamera; Erhalten eines Näherungsindikators vom Näherungsdetektor; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
- Vorrichtung nach
Anspruch 1 , wobei die erste Technik den Controller einschließt zum: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet. - Vorrichtung nach
Anspruch 2 , wobei die zweite Technik den Controller einschließt zum: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators. - Verfahren, aufweisend: Erhalten von Bildern von einer Kamera, wobei die Kamera ein Sichtfeld aufweist; Erhalten eines Näherungsindikators von einem Näherungsdetektor, wobei der Näherungsdetektor zum Erkennen eines Objekts im Sichtfeld angeordnet ist; und Verarbeiten der Bilder von der Kamera zum Bereitstellen einer Präsenzangabe, wobei bei Fehlen des Näherungsindikators eine erste Technik verwendet wird und anderenfalls eine zweite Technik verwendet wird.
- Verfahren nach
Anspruch 4 , wobei der Näherungsdetektor einen festen Schwellenabstand aufweist und den Näherungsindikator als Reaktion auf Erkennen eines Objekts innerhalb des festen Schwellenabstands bereitstellt. - Verfahren nach
Anspruch 5 , wobei es sich beim Näherungsdetektor um einen aktiven Infrarot-(IR)-Näherungsdetektor handelt. - Verfahren nach einem beliebigen der
Ansprüche 4 -6 , wobei es sich bei den Bildern um zweidimensionale Bilder handelt. - Verfahren nach einem beliebigen der
Ansprüche 4 -7 , wobei die erste Technik einschließt: Identifizieren eines Vordergrundobjekts; und Bereitstellen der Präsenzangabe, wenn das Vordergrundobjekt eine Schwellengröße überschreitet. - Verfahren nach
Anspruch 8 , wobei Identifizieren des Vordergrundobjekts Anwenden einer Gaußschen Mischmodell-Technik auf eine Sequenz der Bilder einschließt. - Verfahren nach einem beliebigen der
Ansprüche 8 -9 , wobei die zweite Technik einschließt: Anwenden eines Klassifikators auf das Vordergrundobjekt, wenn das Vordergrundobjekt die Schwellengröße überschreitet; und Bereitstellen der Präsenzangabe basierend auf dem Ergebnis des Klassifikators. - Verfahren nach
Anspruch 10 , wobei der Klassifikator dazu trainiert ist, ein Ausschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt nicht identifiziert. - Verfahren nach
Anspruch 11 , wobei ein Ausschlussobjekt ein fliegendes Tier einschließt. - Verfahren nach einem beliebigen der
Ansprüche 10 -12 , wobei der Klassifikator dazu trainiert ist, ein Einschlussobjekt zu identifizieren, und wobei die Präsenzangabe bereitgestellt wird, wenn der Klassifikator das Vordergrundobjekt identifiziert. - System, aufweisend Mittel zum Implementieren beliebiger der Verfahren der
Ansprüche 4 -13 . - Ein maschinenlesbares Medium, einschließend Anweisungen, die bei Ausführung durch eine Maschine die Maschine dazu veranlassen, beliebige der Verfahren der
Ansprüche 4 -13 zu implementieren.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/056,560 | 2016-02-29 | ||
US15/056,560 US10290194B2 (en) | 2016-02-29 | 2016-02-29 | Occupancy sensor |
PCT/IB2017/000250 WO2017149386A1 (en) | 2016-02-29 | 2017-02-27 | Parking space occupancy sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112017001044T5 true DE112017001044T5 (de) | 2019-01-03 |
Family
ID=58632532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112017001044.6T Pending DE112017001044T5 (de) | 2016-02-29 | 2017-02-27 | Präsenzmelder |
Country Status (4)
Country | Link |
---|---|
US (1) | US10290194B2 (de) |
CN (1) | CN108885688B (de) |
DE (1) | DE112017001044T5 (de) |
WO (1) | WO2017149386A1 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10290194B2 (en) | 2016-02-29 | 2019-05-14 | Analog Devices Global | Occupancy sensor |
CN108629856B (zh) * | 2018-05-11 | 2020-12-22 | 北京易创智慧科技集团有限公司 | 一种停车场智能停车收费方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6050369A (en) | 1994-10-07 | 2000-04-18 | Toc Holding Company Of New York, Inc. | Elevator shaftway intrusion device using optical imaging processing |
US6163257A (en) | 1996-10-31 | 2000-12-19 | Detection Systems, Inc. | Security system having event detectors and keypads with integral monitor |
US6107930A (en) | 1997-10-29 | 2000-08-22 | Behlke; George Eric | Security system keypad illuminated by proximate motion |
DE59914523D1 (de) | 1999-12-17 | 2007-11-22 | Siemens Schweiz Ag | Präsenzmelder und dessen Verwendung |
US7868912B2 (en) | 2000-10-24 | 2011-01-11 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US7026954B2 (en) | 2003-06-10 | 2006-04-11 | Bellsouth Intellectual Property Corporation | Automated parking director systems and related methods |
US8184154B2 (en) | 2006-02-27 | 2012-05-22 | Texas Instruments Incorporated | Video surveillance correlating detected moving objects and RF signals |
US8379926B2 (en) * | 2007-12-13 | 2013-02-19 | Clemson University | Vision based real time traffic monitoring |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US20120087573A1 (en) | 2010-10-11 | 2012-04-12 | Vinay Sharma | Eliminating Clutter in Video Using Depth Information |
US9648284B2 (en) * | 2011-05-15 | 2017-05-09 | Lighting Science Group Corporation | Occupancy sensor and associated methods |
SE537427C2 (sv) * | 2012-08-20 | 2015-04-28 | Mindmancer AB | Metod och datorprogramprodukt för övervakningssystem och övervakningssystem |
US9679465B2 (en) * | 2013-07-18 | 2017-06-13 | Google Inc. | Systems and methods for processing ultrasonic inputs |
US20150117705A1 (en) | 2013-10-25 | 2015-04-30 | Chengdu Haicun Ip Technology Llc | Hybrid Parking Detection |
CN105339061B (zh) * | 2014-04-25 | 2017-05-10 | 株式会社小松制作所 | 周边监视系统、作业车辆以及周边监视方法 |
US20160180175A1 (en) * | 2014-12-18 | 2016-06-23 | Pointgrab Ltd. | Method and system for determining occupancy |
CN104573727B (zh) * | 2015-01-16 | 2017-11-07 | 山东师范大学 | 一种手写体数字图像降维方法 |
US9619985B2 (en) * | 2015-04-08 | 2017-04-11 | Vivint, Inc. | Home automation communication system |
US10477647B2 (en) * | 2015-05-01 | 2019-11-12 | Hubbell Incorporated | Adaptive visual intelligence outdoor motion/occupancy and luminance detection system |
CN105225523B (zh) * | 2015-10-15 | 2018-01-02 | 浙江宇视科技有限公司 | 一种车位状态检测方法及装置 |
US10290194B2 (en) | 2016-02-29 | 2019-05-14 | Analog Devices Global | Occupancy sensor |
-
2016
- 2016-02-29 US US15/056,560 patent/US10290194B2/en active Active
-
2017
- 2017-02-27 CN CN201780013543.9A patent/CN108885688B/zh active Active
- 2017-02-27 DE DE112017001044.6T patent/DE112017001044T5/de active Pending
- 2017-02-27 WO PCT/IB2017/000250 patent/WO2017149386A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN108885688A (zh) | 2018-11-23 |
CN108885688B (zh) | 2021-12-10 |
WO2017149386A1 (en) | 2017-09-08 |
US20170249820A1 (en) | 2017-08-31 |
US10290194B2 (en) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014210820B4 (de) | Verfahren zum Nachweis von großen und Passagierfahrzeugen von festen Kameras | |
DE102015109270B4 (de) | Verfahren zum Ermitteln eines Straßenbelagszustands für ein Fahrzeug | |
DE102018102285A1 (de) | System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs | |
DE102013205810B4 (de) | System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen | |
EP2368216B1 (de) | Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung | |
DE112017000231T5 (de) | Detektion der Lebendigkeit für die Gesichtserkennung mit Täuschungsverhinderung | |
DE112017001311T5 (de) | System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen | |
DE102018125629A1 (de) | DEEP-Learning-basierte Echtzeit-Detektion und -Korrektur von kompromittierten Sensoren in autonomen Maschinen | |
DE112018000899T5 (de) | Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion | |
DE112017001049T5 (de) | Fahrzeugparkplatzbelegungs-Sichtsensor | |
DE102015121339A1 (de) | Systeme und verfahren zum ermitteln eines zustands einer fahrbahn | |
DE112019004488B4 (de) | Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung | |
DE112015002837T5 (de) | Fusion von Daten aus heterogenen Quellen | |
EP3657386A1 (de) | Verfahren und system zum unterstützen eines automatisiert fahrenden fahrzeugs | |
DE102015102679A1 (de) | Effiziente freiraumfingererkennung | |
DE102018127802A1 (de) | Hybrider klassifikator eines gepulsten neuronalen netzwerks und einer support-vektor-maschine | |
DE102020102823A1 (de) | Fahrzeugkapselnetzwerke | |
DE112022002858T5 (de) | Bildbasierte anomalieerkennung basierend auf einer maschinellen lernanalyse eines objekts | |
DE102018220892A1 (de) | Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs | |
DE102022102934A1 (de) | Ereignisbasierte fahrzeugposenschätzung unter verwendung monochromatischer bildgebung | |
DE102015207047A1 (de) | Verfahren und System automatisierten Sequenzieren von Fahrzeugen in nebeneinander angeordneten Durchfahrtskonfigurationen über eine bildbasierte Einstufung | |
DE112017001044T5 (de) | Präsenzmelder | |
Shukla et al. | A computer vision framework for detecting and preventing human-elephant collisions | |
DE102013226725A1 (de) | Verfahren und system für das erkennen einer handgeste, wobei selektive beleuchtung benutzt wird | |
DE102020215729A1 (de) | System und verfahren zum detektieren von abnormalem passagierverhalten in autonomen fahrzeugen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, IE Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL, HAMILTON, BM Owner name: ANALOG DEVICES GLOBAL UNLIMITED COMPANY, BM Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL, HAMILTON, BM |
|
R082 | Change of representative |
Representative=s name: WITHERS & ROGERS LLP, DE Representative=s name: FLEUCHAUS & GALLO PARTNERSCHAFT MBB PATENTANWA, DE Representative=s name: FLEUCHAUS & GALLO PARTNERSCHAFT MBB, DE |
|
R082 | Change of representative |
Representative=s name: WITHERS & ROGERS LLP, DE |
|
R081 | Change of applicant/patentee |
Owner name: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, IE Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL UNLIMITED COMPANY, HAMILTON, BM |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009000000 Ipc: G06V0010000000 |