DE102013019488A1 - Bilderfassung mit schutz der privatsphäre - Google Patents

Bilderfassung mit schutz der privatsphäre Download PDF

Info

Publication number
DE102013019488A1
DE102013019488A1 DE102013019488.1A DE102013019488A DE102013019488A1 DE 102013019488 A1 DE102013019488 A1 DE 102013019488A1 DE 102013019488 A DE102013019488 A DE 102013019488A DE 102013019488 A1 DE102013019488 A1 DE 102013019488A1
Authority
DE
Germany
Prior art keywords
image data
data
target
database
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013019488.1A
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of DE102013019488A1 publication Critical patent/DE102013019488A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

Eine Überwachungsvorrichtung, ein Überwachungssystem und ein Verfahren zum Vorsehen von Überwachungsbilddaten sind beschrieben. Die Überwachungsvorrichtung umfasst eine Kommunikationsvorrichtung, die geeignet ist zum Empfangen von Bilddaten und Identifikationsdaten eines Targets, das in den Bilddaten sichtbar ist, und einen Prozessor der geeignet ist zum Empfangen der Bilddaten, zum Empfangen einer Präferenzeinstellung, die den Identifikationsdaten entspricht und zum selektiven Modifizieren eines Teils der Bilddaten, die dem Target entsprechen, und zwar gemäß der Präferenzeinstellung. Das Überwachungssystem umfasst eine Bilderfassungsvorrichtung, die geeignet ist zum Erzeugen von Bilddaten einer Szene, eine Datenbank die geeignet ist zum Speichern einer oder mehrerer Präferenzeinstellung(en), und eine Überwachungsvorrichtung obigen Typs. Das Verfahren umfasst das Empfangen von Bilddaten, die ein Bild eines Targets aufweisen, das Empfangen einer Präferenzeinstellung, die dem Target entspricht, und das selektive Modifizieren eines Teils der Bilddaten, die dem Bild des Targets entsprechen, und zwar gemäß der Präferenzeinstellung, um die Überwachungsbilddaten bereitzustellen.

Description

  • VERWEIS ZU VERWANDTEN ANMELDUNGEN
  • Diese nicht vorläufige Anmeldung beansprucht den Vorteil der US-Provisional Patentanmeldung mit der Seriennummer 61/727,899, eingereicht am 19. November 2012 mit dem Titel „Image Capture with Privacy Protection” und der US Provisional Patentanmeldung mit der Seriennummer 61/774,722, eingereicht am 8. März 2013 mit dem Titel „Image Capture with Privacy Protection”, die jeweils vollständig hier durch Bezugnahme aufgenommen sind.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf Bilderfassungssysteme und Verfahren und insbesondere auf solche, die auf Eingaben ansprechen, um selektiv Bereiche jener Ausgänge bzw. Ausgangssignale zu maskieren.
  • HINTERGRUND
  • Die entfernte Überwachung ist üblich für Sicherheits-, Polizei-, Geheimdienst- und Militäraufgaben. Zum Beispiel besitzen Einkaufzentren, Polizeistationen und andere Einrichtungen, welche der Öffentlichkeit zugänglich sind häufig Kameras eines Videoüberwachungssystems (Closed-Circuit Television = CCTV) oder andere Einrichtungen, welche Mitglieder der Öffentlichkeit in der Einrichtung überwachen. Bei einem weiteren Beispiel wurden in der Vergangenheit an Masten angebrachte Kameras zur Verkehrsüberwachung und Durchsetzung der Verkehrsregeln eingesetzt. Eine Art der Überwachung, die immer weiter zunimmt, ist die Überwachung per Drohne. Nicht bemannte Luftfahrzeuge (UAV = Unmanned Areal Vehicles, die auch als „Drohne” bekannt sind) sind Luftfahrzeuge, die keine menschlichen Piloten oder Passagiere befördern und die üblicherweise zur Überwachung und zu Kampfzwecken eingesetzt werden. Drohnen können als Luftfahrzeuge mit festen Flügeln, als Helikopter oder als andere Arten von Luftfahrzeugen konfiguriert sein. Ein menschlicher Pilot kontrolliert üblicherweise eine Drohne unter Verwendung einer drahtlosen Verbindung von einer oder mehreren Bodenstationen. Drohnen können aber auch autonome Systeme umfassen, welche Funktionen durchführen, die üblicherweise von einem Piloten durchgeführt werden. Drohnen dienen dazu Sensoren zu tragen und sie erlauben es den Sensoren mit der Umgebung zu interagieren, um Daten zu sammeln. Drohnen können zum Beispiel eingesetzt werden zur Durchführung von Überwachungs- oder Informationssammelmissionen unter Verwendung einer Vielzahl von optischen oder anderen Sensoren, zum Transport von Gütern oder Passagieren oder zum Lokalisieren und Ansprechen auf Bedrohungen.
  • Es gibt unterschiedliche Software zum Detektieren von sich bewegenden Objekten oder zum Erkennen von Gesichtern beim Erfassen von Bilddaten und zum Anzeigen eines Indikators der Erkennung. Es besteht auch unterschiedliche Software zum Verfolgen solcher detektierten Bildmerkmale während sie sich bewegen. Darüber hinaus werden unterschiedliche Techniken verwendet zum Verbessern der Sichtbarkeit von Objekten in erfassten Bilddaten. Zum Beispiel tragen Militärkräfte in Kampfgebieten Infrarot(IR)Beacons oder Kennzeichen. Diese IR Beacons blinken mit Infrarotwellen. Hierdurch werden freundliche Kräfte in einer IR Kamerasicht sichtbar, was die Wahrscheinlichkeit von Verletzten oder Toten während Freundfeuer reduziert.
  • Drohnen können sich hinsichtlich ihrer Größe stark unterscheiden zum Beispiel zwischen kleinen Einheiten, die einige Gramm wiegen, über Flugzeuge mit Flügelspannweiten mit über zehn Fuß, bis hin zu Flugzeugen von der Größe von beispielsweise Bombern. Insbesondere mit kleineren Einheiten können Drohnen die geheime Überwachung von Personen in der Öffentlichkeit erlauben. Zum Beispiel kann ein Drohnenflugzeug mit einer Flügelspannweite von ungefähr 3,05 m (10 Fuß), das entsprechend angestrichen ist und einen Elektroantrieb besitzt, für Personen am Boden selbst bei einer geringen Höhe von 152,4 m (500 Fuß) über dem Boden (AGL = Above Ground Level) effektiv unsichtbar und unhörbar sein. Es gibt daher die Notwendigkeit, das Recht der Menschen, nicht ohne Grund überwacht zu werden, wie zum Beispiel das Recht der Privatsphäre und das Recht auf Rechtstaatlichkeit, zu implementieren, insbesondere, wenn die Überwachung durch eine kleine unauffällige Drohne durchgeführt wird. Diese Notwendigkeit kann sich auch auf die Überwachung beziehen, die durch feste Kameras, wie zum Beispiel Sicherheits- oder Verkehrskameras durchgeführt wird.
  • KURZE BESCHREIBUNG
  • Gemäß unterschiedlichen Aspekten ist eine Überwachungsvorrichtung vorgesehen, die folgendes aufweist: eine Kommunikationseinrichtung, die geeignet ist zum Empfangen von Bilddaten und von Identifikationsdaten eines Ziels oder Targets, das in den Bilddaten sichtbar ist; und einen Prozessor der geeignet ist zum Empfangen der Bilddaten, zum Empfangen einer Präferenzeinstellung, die den Identifikationsdaten entspricht, und zum selektiven Modifizieren wenigstens eines Teils der Bilddaten, der dem Target entspricht, und zwar gemäß der Präferenzeinstellung.
  • Optional kann der Prozessor geeignet sein zum Modifizieren der Bilddaten, um das Target in den Bilddaten zu Maskieren oder zu Verschleiern, und zwar ansprechend auf eine Präferenzeinstellung, die Privatsphäre einfordert. Der Prozessor kann geeignet sein zum Modifizieren der Bilddaten, um das Target in den Bilddaten hervorzuheben, und zwar ansprechend auf eine Präferenzeinstellung, die erhöhte Sichtbarkeit fordert. Die Vorrichtung kann ferner ein Ausgabesystem umfassen, das zum Ausgeben der modifizierten Bilddaten geeignet ist. Die Kommunikationseinrichtung kann einen Netzwerk-Transceiver aufweisen und der Prozessor kann zum Empfangen der Präferenzeinstellung über den Netzwerk-Transceiver geeignet sein. Die Identifikationsdaten können eine eindeutige Identifikation oder Kennung eines Ziels oder Targets oder eines Ortes eines Targets umfassen. Die Identifikationsdaten können eine eindeutige Kennung umfassen, die mit einer kryptographischen Signatur oder einer Gültigkeitsperiode assoziiert ist, die wie oben beschrieben zum Beispiel für eine Überprüfung der Gültigkeitsperiode oder für eine Signaturvalidierung. Gültigkeitsperioden und Signaturen können kombiniert werden.
  • Gemäß unterschiedlichen Aspekten ist eine Überwachungsvorrichtung vorgesehen, die einen Prozessor aufweist, der geeignet ist zum Empfangen von Bilddaten, entsprechend den Identifikationsdaten eines Ziels oder Targets, das in den Bilddaten sichtbar ist, und einer Präferenzeinstellung für die Identifikationsdaten, und zum selektiven Modifizieren wenigstens eines Teils der Bilddaten, der dem Target entspricht, und zwar gemäß der Präferenzeinstellung. Optionale Merkmale, die oben beschrieben wurden, können auch in Kombination mit der Überwachungsvorrichtung verwendet werden, wie zum Beispiel das Maskieren oder Verschleiern des Targets in den Bilddaten, das Vorsehen der modifizierten Bilddaten unter Verwendung eines Ausgabe- oder Liefersystems, das Empfangen der Präferenzeinstellung über einen Netzwerk-Transceiver oder das Merkmal, das die Identifikationsdaten eine eindeutige Kennung oder einen Ort eines Targets umfassen. Die Identifikationsdaten können eine eindeutige Kennung umfassen, die mit einer kryptographischen Signatur oder einer Gültigkeitsperiode assoziiert ist.
  • Gemäß unterschiedlichen Aspekten ist ein Überwachungssystem vorgesehen, das folgendes aufweist: eine Bilderfassungsvorrichtung, die in der Lage ist, Bilddaten einer Szene zu erzeugen; eine Datenbank, die geeignet ist, eine oder mehrere Präferenzeinstellungen zu speichern; und eine Überwachungsvorrichtung, wie sie oben beschrieben wurde.
  • Optional kann die Überwachungsvorrichtung in dem Überwachungssystem in der Lage sein, die Bilddaten von der Bilderfassungsvorrichtung zu empfangen. Der Prozessor, der Überwachungsvorrichtung kann in der Lage sein, die Identifikationsdaten zu empfangen und eine Anfrage an die Datenbank zu übertragen, wobei die Anfrage die Identifikationsdaten enthalten kann, und die Datenbank kann in der Lage sein, die Anfrage von dem Prozessor zu erhalten und eine entsprechende gespeicherte Präferenzeinstellung an dem Prozessor zu übertragen. Die Bilderfassungsvorrichtung kann ferner in der Lage sein, die assoziierten Daten, die einen Sichtbereich der Bilderfassungsvorrichtung anzeigen, die Datenbank kann ferner in der Lage sein, die jeweilige Präferenzeinstellungen von einer oder mehreren Targets und jeweiligen Standorte dieser Targets zu speichern und auf die Anfrage mit der Präferenzeinstellung und dem Standort eines Targets innerhalb des Sichtbereichs anzusprechen, und der Prozessor kann ferner in der Lage sein, den wenigstens einen Teil der Bilddaten, die dem Sichtbereich und dem Standort entsprechen zu modifizieren, und zwar nur dann, wenn die Präferenzeinstellung anzeigt, dass eine solche Modifikation durchgeführt werden soll. Die Datenbank kann ferner in der Lage sein, eine Bedienereingabe und eine eindeutige Kennung des Targets zu empfangen und die Bedienereingabe als die Präferenzeinstellung, die der eindeutigen Kennung entspricht zu speichern. Die Datenbank kann ferner in der Lage sein, die eindeutige Kennung und den Standort des Targets zu empfangen und den empfangenen Standort in Assoziation mit der empfangenen eindeutigen Kennung zu speichern, so dass die Datenbank auf die Anfrage anspricht durch Bestimmen von einer oder mehreren Kennungen mit Standorten innerhalb des Sichtbereichs. Das Überwachungssystem kann einen Standortbestimmer umfassen, der geeignet ist periodisch den Standort des Targets an die Datenbank auszugeben. Die Identifikationsdaten können eine eindeutige Kennung aufweisen, die mit einer kryptographischen Signatur oder einer Gültigkeitsperiode assoziiert ist und die Datenbank kann ferner in der Lage sein, Information zu speichern, die sich auf die kryptographische Signatur oder die Gültigkeitsperiode bezieht.
  • Gemäß unterschiedlichen Aspekten ist ein Verfahren zum Vorsehen von Überwachungsbilddaten vorgesehen, das folgendes aufweist: Empfangen von Bilddaten, welche ein Bild eines Ziels oder Targets aufweisen kann, Empfangen einer Präferenzeinstellung für das Target; und selektives Modifizieren wenigstens eines Teils der Bilddaten, die dem Target entsprechen, und zwar gemäß der Präferenzeinstellung zum Vorsehen der Überwachungsbilddaten.
  • Optional kann das Verfahren ferner die Abfrage der Datenbank aufweisen, um zu bestimmen, ob ein Target sich im Sichtbereich befindet und es kann den Modifizierschritt dann durchführen, wenn das Target vorhanden ist oder bezüglich des Targets, das als vorhanden bestimmt wurde. Die Abfrage zur Bestimmung, ob ein Target vorhanden ist, kann das Vorsehen von Koordinaten eines Sichtpolygons, das dem Sichtbereich entspricht, an die Datenbank vorsehen. Der Modifizierungsschritt kann das Maskieren wenigstens eines Teils der Bilddaten ansprechend auf eine Präferenzeinstellung, die Privatsphäre anfordert, aufweisen. Das Verfahren kann ferner das Empfangen der Präferenzeinstellung und einer Identität des Targets und das Speichern der empfangenen Einstellung und Identität in der Datenbank aufweisen. Das Verfahren kann ferner das Erfassen der Bilddaten und das Abfragen einer Datenbank zum Erhalten der Präferenzeinstellung umfassen. Das Verfahren kann ferner das Empfangen einer Kennung des Targets und einer Gültigkeitsinformation der Kennung und eine Bestimmung, ob eine Verwendung der Kennung die Gültigkeitsinformation erfüllt umfassen. Unterschiedliche hier beschriebene Aspekte sehen in vorteilhafter Weise Systeme für und Wege der Bestimmung einer Person oder eines anderen Objektes vor, das nicht durch eine Drohne oder eine andere optoelektronische Überwachungs- oder Beobachtungseinheit beobachtet werden soll und zum Blockieren der Daten, die durch solche Drohnen oder Einheiten aufgenommen wurden. Unterschiedliche Aspekte sehen vor, dass eine Person oder ein anderes Objekt bei der Überwachungsbildgebung sichtbarer oder hervorgehoben wird. Unterschiedliche Aspekte erlauben in vorteilhafter Weise, dass Individuen den Grad der Privatsphäre, den sie wünschen, auswählen können, und zwar über Systeme, die hier beschrieben sind, oder Systeme, welche hier beschriebene Verfahren implementieren. Unterschiedliche Aspekte arbeiten unter Verwendung von Geräten zum Beispiel Mobiltelefonen, die der Nutzer schon besitzt. Unterschiedliche Aspekte verwenden nicht persönliche identifizierbare Information, so dass die Identität einer Person, die Privatsphäre anfordert, nicht gespeichert wird. Unterschiedliche Aspekte umfassen die Speicherung von Präferenzen hinsichtlich der Privatsphäre in einer Datenbank. Unterschiedliche Aspekte umfassen das Speichern von Präferenzen hinsichtlich der Privatsphäre in einem Speicher in einer Kennungseinheit oder einem Tag oder die Codierung dieser Präferenzen in der Struktur, Form oder Farbe einer Kennungseinheit oder eines Tags oder in einem detektierbaren (zum Beispiel für den Menschen oder Maschinen sichtbaren) Muster, das auf der Oberfläche der Kennungseinheit oder des Tags angeordnet ist.
  • Gemäß unterschiedlichen Aspekten kann auch ein Verfahren zum Vorsehen von Verschleierungs- oder Maskierungsdaten vorgesehen sein, das folgendes aufweist: Empfangen von Bilddaten, die ein Bild eines Ziels oder Targets umfassen, Empfangen einer Präferenzeinstellung, die sich auf das Target bezieht, und Bestimmen der Maskierungsdaten wenigstens eines Teils der Bilddaten, die sich auf das Target beziehen, unter Verwendung der empfangenen Präferenzeinstellung.
  • Optional können die Maskierungsdaten ferner unter Verwendung der empfangenen Bilddaten bestimmt werden. Der wenigstens eine Teil kann dem Bild des Targets entsprechen. Das Verfahren kann das selektive Modifizieren der empfangenen Bilddaten gemäß den bestimmten Maskierungsdaten modifizieren, um ein Überwachungsbild vorzusehen. Der Bestimmungsschritt kann umfassen, dass bestimmt wird, dass wenigstens ein Teil der Bilddaten ansprechend auf eine Präferenzeinstellung, die Privatsphäre einfordert, maskiert wird, und der Modifizierungsschritt umfasst das Maskieren des bestimmten wenigstens einen Teils der Bilddaten. Der Bestimmungsschritt kann umfassen, dass bestimmt wird, dass wenigstens ein Teil des Bildes ansprechend auf eine Präferenzeinstellung, die erhöhte Sichtbarkeit des Targets einfordert hervorgehoben oder angezeigt wird, und der Modifizierungsschritt kann das Modifizieren des bestimmten wenigstens einen Teils der Bilddaten umfassen, um Daten eines sichtbaren Indikators aufzunehmen. Das Verfahren kann ferner das Empfangen einer eindeutigen Kennung des Targets umfassen. Der Schritt des Empfangens einer Präferenzeinstellung kann das Übertragen der empfangenen eindeutigen Kennung an eine Datenbank umfassen, sowie das Empfangen von der Datenbank der Präferenzeinstellung, die der eindeutigen Kennung entspricht. Die Bilddaten können einem Sichtbereich entsprechen und der Schritt des Empfangens eine Präferenzeinstellung kann das Übertragen von Daten des Sichtbereichs an eine Datenbank umfassen, um zu bestimmen, ob das Target in dem Sichtbereich vorhanden ist, sowie das Empfangen von der Datenbank der Präferenzeinstellung oder einer Anzeige, dass das Target nicht in dem Sichtbereich ist. Das Verfahren kann ferner das Übertragen eines Zeitstempels an eine Datenbank umfassen, der sich auf die Bilddaten bezieht. Das Verfahren kann ferner das Speichern der bestimmten Maskierungsdaten in einer Speichervorrichtung umfassen. Die Speichervorrichtung kann eine manipulationssichere Speichervorrichtung sein. Das Target kann aus der Gruppe bestehend aus einer Person, einem Gebäude, einem Fahrzeug oder einem Tier ausgewählt sein, wobei der Bestimmungsschritt die Bestimmung einer Größe des wenigstens einen Teils der Bilddaten unter Verwendung der empfangenen Bilddaten umfassen. Das Verfahren kann ferner den Empfang einer Gültigkeitsperiode der einzigartigen Kennung aufweisen und das Bestimmen, dass der wenigstens eine Teil der Bilddaten maskiert werden sollte nur dann, wenn ein derzeitiges Datum oder ein derzeitiger Zeitpunkt innerhalb der Gültigkeitsperiode liegt oder die eindeutige Kennung bezüglich ausgewählter Autoritätsdaten authentifiziert ist. Die Autoritätsdaten können einen kryptographischen Schlüssel umfassen und der Authentifizierungsschritt kann das Validieren der eindeutigen Kennung unter Verwendung des kryptographischen Schlüssels und einer digitalen Signatur der eindeutigen Kennung aufweisen.
  • Gemäß unterschiedlichen Aspekten ist auch ein Verfahren zum Vorsehen von Überwachungsbilddaten vorgesehen, wobei das Verfahren folgendes aufweist: Erfassen oder Aufnehmen von Bilddaten, die ein Bild eines Ziels oder Targets aufweisen können, Abfragen einer Datenbank zum Empfangen einer Präferenzeinstellung, die dem Target entspricht, Bestimmen von Maskierungs- oder Verschleierungsdaten für wenigstens einen Teil der Bilddaten, die dem Target entsprechen unter Verwendung der empfangenen Präferenzeinstellung, und selektives Modifizieren der Bilddaten gemäß den bestimmten Maskierungsdaten zum Vorsehen der Überwachungsbilddaten.
  • Optional können die Maskierungsdaten bestimmt werden unter weiterer Verwendung der empfangenen Bilddaten der wenigstens eine Teil kann dem Bild des Targets entsprechen. Die Bilddaten können einem Sichtbereich entsprechen. Der Abfrageschritt kann die Abfrage der Datenbank basierend auf dem Sichtbereich umfassen, um zu bestimmen, ob ein Target in dem Sichtbereich vorhanden ist, und die Bestimmung und Modifizierungsschritte für das Target, das als vorhanden bestimmt wurde, können durchgeführt werden. Der Abfrageschritt kann aufweisen, dass an die Datenbank Koordinaten eines Sichtpolygons, das dem Sichtbereich entspricht, ausgegeben werden. Der Abfrageschritt kann das Empfangen von der Datenbank von Daten einer Maskierungsschicht umfassen, welche einen oder mehrere Bereich(e) repräsentiert, der/die maskiert werden soll(en), und der Bestimmungsschritt kann das Bestimmen von Koordinaten in den Bilddaten entsprechend dem/der Bereiche) umfassen. Das Verfahren kann ferner das Empfangen einer Identität des Targets und das Speichern der empfangenen Identität in Assoziation mit der Präferenzeinstellung in der Datenbank umfassen. Mehrere Sätze von Präferenzeinstellungen und Targetidentitäten können in der Datenbank empfangen und gespeichert werden. Das Verfahren kann ferner das Empfangen einer eindeutigen Kennung, die dem Target entspricht, aufweisen, wobei der Abfrageschritt das Übertragen der eindeutigen Kennung an die Datenbank aufweisen kann. Der Schritt des Empfangs der Kennung kann das Übertragen eines Hochfrequenz(HF)-abfragesignals und das Empfangen eines HF-Identifikationssignals ansprechend hierauf aufweisen, das HF-Identifikationssignal kann Daten der eindeutigen Kennung aufweisen. Der Schritt des Empfangs der Kennung kann den Empfang der eindeutigen Kennung von einem Standort-Provider aufweisen. Das Verfahren kann ferner das Lokalisieren einer Kennungseinheit oder eines Tags des Targets in den Bilddaten und das Decodieren einer Targetkennung des Tags aufweisen, wobei die Targetkennung visuell in den Bilddaten dargestellt ist. Der Abfrageschritt kann das Übertragen der decodierten Targetkennung an die Datenbank aufweisen. Der Bestimmungsschritt kann das Bestimmen der Maskierungsdaten aufweisen unter Verwendung der empfangenen Bilddaten und der empfangenen Präferenzeinstellung. Das Verfahren kann ferner folgendes aufweisen: Empfangen einer Gültigkeitsperiode der eindeutigen Kennung und Bestimmen, dass der wenigstens eine Teil der Bilddaten nur dann maskiert wird, wenn ein derzeitiges Datum oder ein derzeitiger Zeitpunkt innerhalb der Gültigkeitsperiode liegt oder wenn die eindeutige Kennung bezüglich ausgewählter Autoritätsdaten authentifiziert wird. Die Autoritätsdaten können einen kryptographischen Schlüssel aufweisen und der Authentifizierungsschritt kann das Validieren der eindeutigen Kennung unter Verwendung des kryptographischen Schlüssels und einer digitalen Signatur der eindeutigen Kennung aufweisen.
  • Kurze Beschreibung der Zeichnungen
  • Die obigen und weiteren Ziele, Merkmale und Vorteile der vorliegenden Erfindung ergeben sich noch deutlicher in Zusammenschau mit der folgenden Beschreibung und den Zeichnungen, wobei identische Bezugszeichen verwendet wurden, wo dies möglich war, um identische Merkmale, die in den Figuren gleich sind zu bezeichnen, in den Zeichnungen zeigt:
  • 1 eine Abbildungsplattform und ein Abbildungssystem gemäß unterschiedlichen Aspekten;
  • 2 einen beispielhaften Videorahmen, der durch ein Erfassungssystem erfasst wurde;
  • 3 und 4 einen beispielhaften Videorahmen, der durch ein Erfassungssystem gemäß unterschiedlichen Aspekten erfasst wurde;
  • 5 einen beispielhaften Videorahmen und eine Abbildungsplattform gemäß unterschiedlichen Aspekten;
  • 6 eine beispielhafte axonometrische Ansicht eines Wohngebietes;
  • 7 eine beispielhafte Maskierungslage gemäß 6;
  • 8 ein Beispiel des Ergebnisses des Anlegens der Maskierungslage gemäß 7 an die Ansicht gemäß 6;
  • 9 ein Übersichtsdiagramm, dass die Komponenten eines beispielhaften Datenverarbeitungssystems zeigt;
  • 10 bis 12 unterschiedliche Beispiele des Betriebs eines Abbildungssystems 190, eines Empfängers 130 und hiermit in Beziehung stehender Komponenten;
  • 13 einen beispielhaften Videorahmen und eine Abbildungsplattform gemäß unterschiedlichen Aspekten;
  • 14 ein Flussdiagramm beispielhafter Systeme zum Erzeugen maskierter Bilddaten;
  • 15 ein Flussdiagramm, das beispielhafte Verfahren zum Vorsehen von Maskierungsdaten darstellt; und
  • 16 ein Flussdiagramm, das beispielhafte Verfahren zum Vorsehen von Überwachungsbilddaten darstellt.
  • Die beigefügten Zeichnungen dienen der Darstellung und sind nicht notwendigerweise maßstabsgetreu.
  • Detaillierte Beschreibung
  • In der folgenden Beschreibung werden einige Aspekte derart beschrieben, dass sie üblicherweise als Softwareprogramme implementiert werden. Der Fachmann wird leicht erkennen, dass das Äquivalent einer solchen Software auch in Hardware, Firmware oder Mikro-Code aufgebaut sein kann. Da Bildmanipulationsalgorithmen und -systeme bekannt sind, richtet sich die vorliegende Beschreibung insbesondere auf Algorithmen und Systeme, welche einen Teil von Systemen und Verfahren, die hier beschrieben werden, bilden, oder direkt mit diesen kooperieren. Andere Aspekte solcher Algorithmen und Systeme und Hardware oder Software zum Erzeugen und auf sonstige Weise verarbeiten der Bildsignale, die damit involviert sind und die nicht speziell hier gezeigt oder beschrieben sind, werden aus solchen Systemen, Algorithmen, Komponenten und Elementen ausgewählt, die in der Technik bekannt sind. Nimmt man die Systeme und Verfahren, die hier beschrieben sind, so ist Software, die nicht speziell dargestellt, vorgeschlagen oder hier beschrieben ist, welche für die Implementierung irgendwelche Aspekte nützlich ist, herkömmlich und liegt im normalen Rahmen der jeweiligen Technik.
  • Unterschiedliche Aspekte verwenden ein Mobiltelefon als einen Transponder durch Registrieren des Standorts des Telefons in einer Registratur oder Datenbank. Dies kann unter Verwendung einer App, die auf dem Mobiltelefon läuft, durchgeführt werden und diese kann die Registratur oder Datenbank periodisch aktualisieren, wie es hier beschrieben ist. Unterschiedliche Aspekte, die hier beschrieben werden, testen in vorteilhafter Weise identifizierte Targets mit der Datenbank. Targets, die blockiert werden sollten, werden durch einen Konus (oder andere Formen), die eine Beobachtung ausschließen, maskiert, welche den Bilddaten hinzugefügt werden oder sie werden auf andere Weise aus der Sicht ausgenommen bzw. blockiert. Gemäß unterschiedlichen Aspekten werden Eigenschaften oder Einstellungen zum Beispiel Nutzerpräferenzen mit dem Standort in der Registratur gespeichert.
  • Unterschiedliche Aspekte verwenden Materialien einer bestimmten Form oder Farben mit einem bestimmten Muster, um anonym Targets zu identifizieren, die aus der Sicht ausgenommen werden sollen. Einige dieser Aspekte verwenden kein Telefon als einen Transponder und sie verwenden auch keine Registratur. Bereiche mit einem bedeutungsvollen Muster oder einer Farbe in den Bilddaten werden in vorteilhafter Weise maskiert, sowie Bilddatenmerkmale um diese herum. Unterschiedliche Aspekte verwahren sowohl die unmodifizierten Bilddaten als auch die modifizierten Bilddaten, die sich aus der Maskierung oder dem Ausnehmen bzw. Blockieren von Targets ergeben. Unterschiedliche Aspekte sehen Indikatoren vor, welche das Bild eines Targets oder eines anderen Objektes verbessern oder herausheben, um die Sichtbarkeit zu verbessern, oder zum Erfassen anderer Eigenschaften des Targets, wie beispielsweise eine Identifikation oder eine Bewegungsrichtung.
  • 1 zeigt eine Abbildungsplattform und ein Abbildungssystem gemäß unterschiedlichen Aspekten. Die Abbildungsplattform 100 weist zum Beispiel eine Drohne, wie beispielsweise ein Flugzeug UAV auf. Die Abbildungsplattform 100 kann auch irgendeine andere Art von Drohne oder eine feststehende Kamera, zum Beispiel eine Einkaufszentrum-Sicherheitskamera, eine Brückeninspektionskamera oder ein Ampelkamera aufweisen. Die Abbildungsplattform 100 kann auch eine tragbare Überwachungsvorrichtung aufweisen, zum Beispiel GOOGLE GLASS oder eine andere am Kopf angebrachte Bilderfassungsvorrichtung, eine Videokamera oder eine andere handgehaltene Bilderfassungsvorrichtung oder eine andere elektronische Bilderfassungsvorrichtung, und zwar unabhängig davon, ob sie geeignet ist im sichtbaren Lichtbereich von ungefähr 400 bis 700 nm zu arbeiten oder nicht. Gemäß unterschiedlichen Aspekten ist die Abbildungsplattform 100 autonom, so dass ein Prozessor 187 die Betriebsfunktionen der Abbildungsplattform 100 steuert. Gemäß anderen Aspekten wird die Abbildungsplattform 100 von einer Bodenstation aus gesteuert. Die Abbildungsplattform 100 kann ein Modul sein, das mit einem anderen System wie beispielsweise einem Passagierflugzeug verbunden ist und ähnlichem. Die Abbildungsplattform 100 kann ein Gesamtgewicht von zum Beispiel 2 bis 5 amerikanische Pfund oder mehrere Gramm aufweisen. Die Abbildungsplattform kann eine maximale Länge von beispielsweise 2 bis 3 Zoll aufweisen. Die Abbildungsplattform 100 kann ein Flugzeug, wie beispielsweise eine Drohne, ein Passagierflugzeug (Rotor- oder Düsenflugzeug), ein Militärflugzeug (zum Beispiel ein Kampfflugzeug, ein Bomber, ein Überwachungsflugzeug oder Kombinationen davon, ein Mikroleichtflugzeug wie beispielsweise eine Drohne mit der Größe eines Insekts, ein Luftschiff, ein freier Ballon, oder mit einer anderen Konfiguration) sein. Die Abbildungsplattform 100 kann einen Helikopter, ein Roboter oder eine Rakete aufweisen. Die Abbildungsplattform 100 kann ein Erdfahrzeug, ein Wasserfahrzeug oder ein Unterwasserfahrzeug, zum Beispiel ein Auto, ein Schiff oder ein U-Boot, aufweisen, oder ein Raumfahrzeug oder einen Satelliten. Die Abbildungsplattform 100 kann ferngesteuert (nicht autonom), autonom oder halbautonom sein. Zum Beispiel kann eine halbautonome Drohne unter Verwendung von an Bord befindlichen Sensoren und Computern entlang einer Sequenz von Wegpunkten, die durch einen am Boden befindlichen Controller vorgegeben werden, navigieren. Gemäß einem weiteren Beispiel kann, wenn der Kontakt mit dem Controller am Boden verloren geht, eine halb-autonome Drohne ein Haltemuster an ihrem derzeitigen Ort oder einem ausgewählten Ort fliegen oder sie kann einem vorbestimmten Pfad zu einem Landefeld folgen. Gemäß einem weiteren Beispiel ist die Drohne ein Luftschiff mit einer Antriebseinheit und wenn der Kontakt mit dem Controller am Boden verloren geht, kann die Drohne die Antriebseinheit verwenden, um im Wesentlichen stationär zu bleiben.
  • Die Abbildungsplattform 100 weist eine Bilderfassungsvorrichtung 110 auf, zum Beispiel eine optoelektronische Vorrichtung wie zum Beispiel einen CMOS oder CCD-Bildsensor, oder ein Spektrophotometer oder ein Spektroradiometer. Die Bilderfassungsvorrichtung 110 liefert das erfasste Bild an den Prozessor 186. Die Bilderfassungsvorrichtung 110 kann optische oder digitale Zoom-Einheiten aufweisen. Der Prozessor 186 kann auch Daten von einem optionalen Sensor 120 empfangen, zum Beispiel einem HF-Sensor, wie nachfolgend noch erläutert wird. Der Sensor 120 kann Übertragungselektronik aufweisen, die durch den Prozessor 186 gesteuert wird. In dem dargestellten Beispiel sind die Bilderfassungsvorrichtung 110 und der Sensor 120 in Tragflächengondeln, die an einer Flugzeugdrohne angebracht sind, untergebracht die Bilderfassungsvorrichtung 110 oder andere Sensoren, zum Beispiel der Sensor 120, können an der Unterseite oder der Oberseite oder auch an einem anderen Ort, oder sie können am Rumpf, am Heck oder an anderen Stellen einer Flugzeugdrohne oder einer anderen Abbildungsplattform 100 angebracht sein.
  • Der Prozessor 186 überträgt das empfangene Bild von der Bilderfassungsvorrichtung 110 über die Kommunikationsvorrichtung 187. In dem dargestellten Beispiel weist die Kommunikationsvorrichtung 187 eine Antenne auf, sie kann aber auch einen drahtgebundenen Transceiver, zum Beispiel einen Ethernet-Transceiver aufweisen. Das empfangene Bild wird über die Datenverbindung 188 zur Kommunikationsvorrichtung 137 übertragen. Bei diesem Beispiel ist die Datenverbindung 188 drahtlos, zum Beispiel über GSM, WiFi, Freiraumlaser, oder INS (INS = local news service) Informationsradio auf dem 800 MHz- oder 900 MHz-Band oder einem anderen UHF oder VHF-Band, und die Kommunikationsvorrichtung 137 weist eine Antenne auf. Die Datenverbindung 188 kann auch ein Kabel oder eine Glasfaser aufweisen und die Kommunikationsvorrichtung 137 einen Transceiver. Die Datenverbindung 188 kann eine Kommunikationsverbindung aufweisen, die einen körperlichen Verbinder aufweist, wie beispielsweise einen optoelektronischen Kommunikationsdraht oder sie kann einen nicht-körperlichen Verbinder aufweisen, wie beispielsweise eine Drahtlosverbindung, zum Beispiel eine Hochfrequenz- oder Mikrowellenverbindung. Die Datenverbindung 188 kann verschlüsselt sein, oder Daten, welche über die Datenverbindung 188 gesendet werden, können verschlüsselt sein (zum Beispiel unter Verwendung der Secure Sockets Layer, SSL, Internetprotokoll oder andere sichere Übertragungsprotokolle), oder beides.
  • Der Empfänger 130 empfängt die Bilddaten von der Kommunikationsvorrichtung 137. Der Empfänger 130 kann zum Beispiel eine Bodenstation für eine Drohne oder ein Steuerterminal für ein Sicherheitssystem aufweisen. Der Empfänger 130 kann die empfangenen Bilddaten an einen Speicher 131 senden (zum Beispiel eine Harddisk oder einen beschreibbaren optischen Speicher), an eine Anzeige 132 (zum Beispiel eine OLED- oder CRT-Anzeige), oder andere Vorrichtungen (zum Beispiel andere Prozessoren, Controller oder Drohnen). Das Senden kann über andere Netzwerkverbindungen durchgeführt werden. Der Empfänger 130 kann einen PC öder ein eingebettetes System aufweisen. Der Empfänger 130 kann durch ein Individuum gesteuert werden, zum Beispiel Person 222 (in 5) oder dem Bediener der Abbildungsplattform 100. Die Bilderfassungsvorrichtung 110, der optische Sensor 120, der Prozessor 186, die Kommunikationsvorrichtung 187, die Datenverbindung 188, die Kommunikationsvorrichtung 137 und der Empfänger 130 bilden zusammen Abbildungssystem 190. Das Abbildungssystem 190 liefert erfasste Bilder an gewünschte Ausgänge, zum Beispiel einen Speicher 131 oder eine Anzeige 132. Zum Beispiel kann der Empfänger 130 eine Bodenstation für die Drohen aufweisen, und es kann ein PC 136 über das Internet oder ein anderes Netzwerk mit dem Empfänger 130 verbunden sein, um einer Person oder einem Computersystem zu ermöglichen, auf Daten von dem Abbildungssystem 190 zuzugreifen. Das Ausgabesystem 139 kann Bilddaten senden und kann ein Speicher- oder Anzeigeinterface, eine Netzwerkverbindung, eine Internetverbindung oder eine andere Vorrichtung zum Verbinden mit einer Vorrichtung, welche die gesendeten Daten erhalten soll, aufweisen. Die Abbildungsplattform 100 kann Komponenten aufweisen, die nicht Teil des Abbildungssystems 190 sind, zum Beispiel ein Antriebssystem.
  • Das Abbildungssystem 190 kann Verarbeitungskomponenten aufweisen. Der Prozessor 186 oder der Empfänger 130 oder andere Komponenten des Abbildungssystems 190 können Bilddaten modifizieren, bevor sie versendet werden, oder sie können zusätzliche Ausgänge erzeugen, die über die Bilddaten gelegt sind, die zusammen mit den Bilddaten angezeigt werden, oder die mit den Bilddaten versendet werden. Der Begriff ”Verarbeitungskomponente” bezieht sich auf jeden Prozessor, Controller, Micro-Controller, Firmware, Hardware oder programmierbare Logik in dem Abbildungssystem 190, der in der Lage ist, die hier beschriebenen Betriebsschritte durchzuführen. Der Begriff ”Prozessor” kann mehrere solche Vorrichtungen aufweisen, die durch eine Datenverbindung miteinander verbunden sind, und die zusammenarbeiten, um eine hier beschriebene Funktion durchzuführen.
  • 2 zeigt einen beispielhaften Videorahmen 200, der durch ein Erfassungssystem erfasst wurde. Alles, was hier unter Bezug auf Videorahmen beschrieben wird, ist auch auf Einzelbilder übertragbar und umgekehrt. Es sind Personen 221, 222, 223, 224 abgebildet, die auf einer Oberfläche 210 (zum Beispiel einem Bürgersteig) gehen. Der Empfänger 130 oder andere Komponenten des Abbildungssystems 190 verarbeiten Bilddaten für das Bild unter Verwendung von Analyseroutinen in Hardware, Firmware, Software oder einer Kombination derselben. Die Analyseroutinen haben bei diesem Beispiel bestimmt, dass die Personen 222 und 223 von Interesse sind, wie nachfolgend beschrieben wird. Über den Videorahmen sind Anzeigen 232, 233 gelegt. Diese können wie Ovale, Rechtecke oder andere Formen geformt sein und können gleichbleibend gefärbt, aufscheinend, blinkend, rauschend (zum Beispiel ähnlich zu dem ”Schnee” oder ”Statikbild”, das auf einem NTSC-Farbfernsehen sichtbar ist, der auf einen toten Kanal gelegt ist) oder sich auf eine andere Weise visuell von den Bilddaten unterscheiden. Die Personen 221 und 224 sind nicht von Interesse, so dass für diese keine Anzeigen gezeigt sind. Die Analyseroutine kann die Größe der Anzeigen 232, 233 durch Untersuchung der Bilddaten bestimmen, zum Beispiel kann bestimmt werden, welcher Teil/welche Teile der Bilddaten sich bewegen und sich nicht in der Farbe von dem Hintergrund (Oberfläche 210) unterscheiden.
  • Gemäß unterschiedlichen Aspekten können der Prozessor 186, der Empfänger 130 oder andere Komponenten des Abbildungssystems 190, die erfassten Bilddaten analysieren, um Personen von Interesse oder andere Objekte oder Merkmale von Interesse zu lokalisieren und sie können Ausgangsdaten liefern, die dazu führen, dass Indikatoren oder Hervorhebungen 232, 233 im Speicher 131 gespeichert oder auf der Anzeige 132 (alle 1) angezeigt werden. Software von ESRI oder anderen Anbietern kann verwendet werden, um Merkmale von Interesse in einem Rahmen zu detektieren, und zwar basierend auf Farbe. Bei der Videoerfassung können benachbarte Rahmen verglichen werden, und Merkmale von sich bewegenden Bilddaten können evaluiert werden, um zu bestimmen, ob sie von Interesse sind. Der Vergleich aufeinanderfolgender Bildrahmen kann auch verwendet werden, um die Größe des Gegenstandes der potentiell von Interesse ist zu schätzen. Die bestimmte Größe des Objekts von Interesse kann verwendet werden, um die Größe der Hervorhebungen 232, 233 zu bestimmen. Diese Aspekte können mit Aspekten, welche eine Kennungseinheit oder ein Tag 542, 543 verwenden, kombiniert werden, wie nachfolgend beschrieben wird.
  • 3 zeigt einen beispielhaften Videorahmen 300, der durch ein Erfassungssystem gemäß unterschiedlichen Aspekten erfasst wurde. In 2 sind eine Oberfläche 210 und Personen 221, 222, 223, 224 sowie eine Hervorhebung bzw. ein Indikator 233 gezeigt. Jedoch trägt die Person 222 ein Tag 342. Das Tag 342 ist in den Bilddaten, die durch das Abbildungssystem 190 erfasst wurden sichtbar und zeigt dem Erfassungssystem an, dass die Bilddaten des Trägers des Tags 342 für die Verwendung nicht verfügbar sein sollten. Eine Maskierung 332 wird über der Person 222 angezeigt. Die Maskierung 332 kann vollschwarz, farbig, scheinend, blinkend sein oder sich auch auf andere Weise visuell von den Bilddaten unterscheiden. Die Maskierung 332 kann zum Beispiel ein Oval, ein Rechteck oder eine andere Form sein, zum Beispiel mit derselben Form und Größe wie der Indikator 232 (2). Die Maskierung 332 kann die Bilddaten modifizieren durch Überlagern von Bildinhalten, wie zuvor beschrieben, oder durch Verschleiern, Verschmieren oder anderweitige Verzerrung der Bilddaten der Person 222, um sie unerkennbar zu machen. Der Effekt jeder Maskierung, die in dieser Offenbarung beschrieben wird, liegt darin, die Bilddaten, die schlussendlich einer Person angezeigt werden, welche das Überwachungsvideo anschaut, in irgendeiner Art und Weise so zu modifizieren, dass die Person 222 nicht ohne weiteres, aus dem Video, das durch die anschauende Person angeschaut wird, identifizierbar ist. Die Personen 221 und 224 sind nicht von Interesse, so dass keine Kennzeichnung gezeigt ist. Die Maskierung 332 kann durch irgendeine Verarbeitungskomponente des Abbildungssystems 190 vorgesehen werden, zum Beispiel Prozessor 186 oder den Empfänger 130. Die Maskierung 332 kann auch durch die Anzeige 132 vorgesehen werden, und zwar ansprechend auf Daten, die durch das Abbildungssystem 190 angezeigt werden, und die die Größe und Position der Maskierung 332 anzeigen.
  • Die Maskierung 332 ist hier gestrichelt gezeigt, so dass das Tag 342 sichtbar ist. Die Maskierung 332 kann auch undurchsichtig sein, so dass keine der Bilddaten, die hierdurch maskiert werden, gezeigt sind. Solange das Tag 342 in den Bilddaten der Bilderfassungsvorrichtung 110 sichtbar ist, wird eine ausgewählte Komponente des Abbildungssystems 190 die Maskierung 332 anlegen bzw. vorsehen. Dies kann vorteilhafterweise durchgeführt werden, ohne dass irgendeine Datenbank oder Information über das Objekt oder die Person von Interesse erforderlich ist. Die Person 222 ist somit gegenüber einer Überwachung, die ohne einen Suchbefehl durchgeführt wird, geschützt, in dem die Person das Tag 342 trägt. Die Person 222 muss sich nicht bei irgendeiner Datenbank oder Behörde registrieren und sie muss nichts weiter tun als das Tag 342 tragen, um die Privatsphäre zu erhöhen. Gemäß einigen Aspekten wird der Videorahmen 300, der die Maskierung 332 umfasst gespeichert, so dass keine Daten bezüglich der Person 222, gespeichert werden. Gemäß anderen Aspekten wird der Rahmen 300 gespeichert und Daten, welche der Maskierung 332 entsprechen, werden separat gespeichert. Dies erlaubt eine normale Anzeige des Rahmens 300, in der die Person 222 nicht sichtbar ist. Dies erlaubt aber auch die Anzeige des gespeicherten Rahmens 300 ohne die Maskierung 332, zum Beispiel, wenn eine entsprechende gerichtliche Anordnung besteht.
  • Die Kennungseinheit oder das Tag 342 umfasst Material einer bestimmten Farbe oder sie imitiert oder reflektiert eine bestimmte Wellenlänge des Lichtes. Das Tag 342 kann auch mit einem bestimmten Muster, zum Beispiel einem ID- oder 2D-Barcode, wie beispielsweise einem QR-Code markiert sein. Die Person 222 kann das Tag 342 als eine Marke an einem Schlüsselband um den Nacken oder befestigt an einer Gürtelschleife tragen. Das Tag 342 kann die Größe einer Kredit-, Geschäfts- oder Schlüsselkarte besitzen. Die Person 222 kann das Tag 342 als einen Anstecker tragen oder als eine Markierung, die angeclipst oder auf andere Weise an einem Bekleidungsstück, zum Beispiel einem Hut oder einem Revers angebracht ist. Das Tag 342 kann zum Beispiel ungefähr 1 Zoll × 1 Zoll groß sein. Das Tag 342 kann ein integraler Teil eines Kleidungsstücks sein. Zum Beispiel ist es möglich, dass die Person 222 wie zum Beispiel Jäger eine jägerorangefarbige Kleidung tragen, einen Hut, ein Hemd oder ein anderes Kleidungsstück tragen, das eine spezielle Farbe besitzt oder das einen Bereich mit einer speziellen Farbe aufweist. Je größer das Tag 342, desto größer ist die Entfernung, bei dem das Bild des Tags 342, das durch die Bilderfassungsvorrichtung 110 erfasst wurde wenigstens die Größe eines Pixels aufweist oder auf andere Weise durch den Prozessor 186 oder eine andere Prozessorvorrichtung detektierbar ist. Das Abbildungssystem 190 kann nicht auf das Tag 342 ansprechen, wenn das Tag 342 nicht in einem vorgegebenen Videorahmen 200 detektierbar ist, aufgrund der Größe des Tags 342, der Auflösung der Bilderfassungsvorrichtung 110 und dem Abstand zwischen Bilderfassungsvorrichtung 110 und Tag 342. Gemäß einem Beispiel kann eine an einem Helikopter angebrachte Bilderfassungsvorrichtung 110 eine Auflösung von wenigstens 1280 × 720 über eine Fläche von einem Yard im Quadrat bei einer Entfernung von ungefähr 15 Meilen aufweisen. Bei einem anderen Beispiel kann eine Bilderfassungsvorrichtung 110 an einer Drohne einen visuellen Bereich von ungefähr 9 Meilen besitzen, wenn die Drohne auf ungefähr 15.000 Fuß Höhe (ungefähr 4,572 km) über dem Boden (AGL) fliegt. Gemäß unterschiedlichen Aspekten trägt das Tag 342 andere codierte Information, zum Beispiel die Hecknummer eines Flugzeugs oder die Fahrzeugnummer eines Polizeifahrzeugs. Das Abbildungssystem 190 kann diese zusätzliche Information erkennen und decodieren und sie an den Empfänger 130, Datenbank 599 (5) oder andere Komponenten senden, und zwar mit den Bilddaten oder Maskierungsdaten, oder sie kann sie separat von dieser Art Daten versenden. Zum Beispiel kann das Abbildungssystem 190, die eindeutigen Idee-Werte von Mobiltelefonen in seinem Sichtfeld bestimmten, alle der bestimmten Idee-Werte an den Empfänger 130 kommunizieren und nur solche Bereiche maskieren oder anzeigen, welche sich um Mobiltelefone herum befinden, die Targets entsprechen, welche eine Präferenz (zum Beispiel in der Datenbank 599) bezüglich der Überwachung ausgedrückt haben.
  • Gemäß unterschiedlichen Aspekten spricht das Abbildungssystem 190 auf das Tag 342 an, solange die Farbe des Tags 342 wenigstens ein Pixel abdeckt oder einen ausreichenden Bereich mehrerer benachbarter Pixel abdeckt, um unterscheidbar zu sein. Gemäß unterschiedlichen Aspekten blinkt oder pulsiert das Tag 342 mit einer Wellenlänge, die für die Bilderfassungsvorrichtung 110 sichtbar ist, wobei die Wellenlänge für Menschen sichtbar sein kann oder auch nicht. 4 zeigt einen beispielhaften Videorahmen 400. Dieser ist ähnlich wie der Videorahmen 300, aber die Maskierung 332 ist völlig undurchsichtig. Demgemäß ist die Person 222, die das Tag 342 trägt nicht für eine Person, die den Videorahmen 400 auf einer Anzeige 132, sichtbar. Gemäß einiger Aspekte empfängt der Speicher 131 den Videorahmen 400, der die Maskierung 332 aufweist, so dass keine Daten hinsichtlich der Person 222 gespeichert werden. Gemäß anderen Aspekten speichert der Speicher 131 den Rahmen 200 und speichert separat Daten, welche der Maskierung 332 entsprechen. Dies erlaubt eine normale Anzeige des Rahmens 400, in der die Person 222 nicht sichtbar ist. Dies erlaubt auch die Anzeige des gespeicherten Rahmens 200 ohne Maskierung 332, zum Beispiel, wenn eine gerichtliche Anordnung vorliegt.
  • Gemäß unterschiedlichen Aspekten können unterschiedliche Farben oder Muster des Tags 342 unterschiedliche Bedeutungen haben. Gemäß einem Beispiel kann eine Farbe oder ein Muster die Bedeutung besitzen ”verfolge mich nicht” wie in den 3 bis 4 dargestellt ist. Eine weitere Farbe kann bedeuten ”bitte verfolge mich”. Eine andere Farbe kann ein Hilfssignal sein. Das Tag 342 kann zwei Seiten oder Konfigurationen aufweisen. Die Person 222 kann daher die Konfiguration des Tags 342 einstellen oder das Tag 342 umdrehen, um aus dem ”verfolge mich nicht” zu den ”bitte hilf mir”-Modus zu wechseln. Das Abbildungssystem 190 zeigt an, dass das Tag 342 mit einer Hilfe- oder ”bitte helfen”-Farbe eine Person von Interesse anzeigt und sie wird einen Indikator bzw. eine Hervorhebung vorsehen, ähnlich dem Indikator 233. Gemäß einem Beispiel können Polizisten oder Sicherheitsleute Tags 342 einer bestimmten Farbe tragen, die sich von der ”nicht verfolgen”-Farbe unterscheidet. Dies ermöglicht, das leichte Lokalisieren derselben in erfassten Bildern. Wenn zum Beispiel Sicherheitsleute bei einem Sportevent, zum Beispiel einem Baseballspiel Tags 342 einer bestimmten Farbe oder eines bestimmten Musters tragen, dann kann das Abbildungssystem 190 sie leicht in den erfassten Bildern lokalisieren, selbst dann, wenn eine Gesichtserkennungstechnik durch die Anzahl der Gesichter in großer Nähe in dem Bild überfordert wäre.
  • Die Tags 342 können an Objekte, Pflanzen oder Tiere zusätzlich zu Personen platziert werden. Die Tags 342 können zum Beispiel an ein Gebäude oder ein Fahrzeug angebracht werden. Gemäß unterschiedlichen Aspekten sind Daten des Abbildungssystems 190 für eine Person, die einen PC 136 verwendet, verfügbar, zum Beispiel unter Verwendung eines Datenbankklienten, wie beispielsweise eines SQL-Klienten oder einen Webbrowser, zum Beispiel Firefox. Die Person kann ein ”bitte verfolgen”-Tag an sein/ihr Haus anbringen, um zu bewirken, dass das Abbildungssystem 190 Daten über das gekennzeichnete Haus jedes Mal dann aufzeichnet, wenn die Abbildungsplattform 100 ein Bild des gekennzeichneten Hauses erfasst. Dies ermöglicht es der Person, die Anzahl und Frequenz von Drohnenbesuchen zu bestimmen.
  • 5 zeigt einen Videorahmen 500 und eine Abbildungsplattform 100 gemäß unterschiedlichen Aspekten. Die Abbildungsplattform ist dieselbe wie in 1 und umfasst einen Sensor 120. Der Videorahmen 500 ist ähnlich wie der Rahmen 300 (3) mit der Ausnahme wie gezeigt und hier beschrieben. Datenverbindungen sind zur besseren Verständlichkeit gestrichelt dargestellt.
  • Die Person 222 trägt auf irgendeine Weise eine Kennungseinheit oder ein Tag 542, zum Beispiel befestigt an oder als ein Teil eines Kleidungsstücks oder in einer Tasche, Geldbörse, Handtasche, einem Aktenkoffer oder einem anderen Gepäckstück. Die Kennungseinheit oder das Tag 542 kann für die Bilderfassungsvorrichtung 110 sichtbar sein, aber dies ist nicht erforderlich. Gemäß unterschiedlichen Aspekten ist das Tag 542 für die Bilderfassungsvorrichtung 110 nicht sichtbar. Die Kennungseinheit oder das Tag 542 kann einen Datenterminal (”DT”) aufweisen, zum Beispiel ein Mobiltelefon oder ein Ortungsgerät.
  • Das Tag 542 kommuniziert periodisch mit der Datenbank 599, zum Beispiel jede Sekunde, 10 Sekunden, 30 Sekunden, 1 Minute, 2 Minuten, 5 Minuten oder mit einem anderen Intervall. Das Intervall kann durch einen Nutzer, zum Beispiel Person 222 konfiguriert sein. Der Nutzer kann das Intervall konfigurieren basierend auf seiner Geschwindigkeit und gewünschter Batterielebenszeit. Wenn sich der Nutzer rasch bewegt, zum Beispiel auf einem Motorrad kann ein kürzeres Intervall vorgesehen werden, welches eine verbesserte Privatsphäre vorsieht, da die Maskierung 332 enger dem Ort der Person 222 folgt. Jedoch können raschere Aktualisierungen eine Batterie des Tags 542 rascher entleeren als weniger häufige Aktualisierungen. Das Tag 542 kann ein Userinterface aufweisen, zum Beispiel einen berührungsempfindlichen Bildschirm, auch touch screen genannt oder ein Auswahlrad, welches der Person 222 erlaubt, das Intervall zu verändern. Das Tag 542 kann auch mit einem World Wide Web(WWW)-Server oder einer Smart Phone App interagieren, welche einem Befehl von dem Nutzer an das Tag 542 überträgt, um das Intervall zu verändern. Gemäß Aspekten, bei denen das Tag 542 ein Smart Phone umfasst, kann eine Intervall-Änderungs-App auf dem Tag 542 laufen.
  • Gemäß unterschiedlichen Aspekten umfasst das Tag 542 eine eindeutige Kennung, zum Beispiel eine SIM-Kartennummer oder eine MAC-Adresse. Die eindeutige Kennung des Tags 542 kann mit der Identität der Person 222 korrelieren (wie es zum Beispiel bei einer Mobiltelefonnummer der Fall wäre) oder auch nicht, zum Beispiel bei einer universellen eindeutigen Kennung, UUID, oder einer globalen eindeutigen Kennung, GUID, die eindeutig für das Tag erzeugt wird und nicht mit irgendeiner Datenbank mit einer Information über die Person 222 korreliert). Das Tag 542 umfasst auch eine Ortserkennungsvorrichtung, zum Beispiel einen GPS-Empfänger oder -Antenne (zum Beispiel einen Mobilfunkturm oder einen WiFi-Hotspot) Triangulator. Gemäß unterschiedlichen Aspekten bestimmt das Tag 542 periodisch seinen Standort und aktualisiert die Datenbank 599 mit dem so bestimmten Standort und der eindeutigen Kennung. Gemäß anderen Aspekten aktualisiert ein Serviceprovider die Datenbank 599 mit dem Standort des Tags 542. Bei einem Beispiel umfasst das Tag 542 ein Mobiltelefon oder eine andere Vorrichtung, die über ein zelluläres Netzwerk kommuniziert. Der Provider bzw. Anbieter des zellulären Dienstes trianguliert periodisch den Standort des Tags 542 unter Verwendung multipler Basisstationsantennen und aktualisiert die Datenbank 599 mit dem triangulierten Standort und der eindeutigen Kennung (zum Beispiel der Telefonnummer oder SIM-Kartennummer des Tags 542). Dies kann automatisch durch einen Prozessor durchgeführt werden, der von einem Dienstanbieter betrieben wird. Antennen oder andere Erkennungseinheiten, die nicht Teil der Abbildungsplattform 100 sind, und die geeignet sind zum Triangulieren oder eine andere Art der Bestimmung des Standorts des Tags 542 sind graphisch als Standorterkennungseinheit 555 dargestellt.
  • Die Datenbank 599 weist auch eine Nicht-Verfolgen-Flagge bzw. einen Merker für jede eindeutige Kennung auf. Die Datenbank 599 kann andere Flaggen für jede eindeutige Kennung aufweisen und kann für eine rasche Suche nach Standorten organisiert sein. ”Flaggen oder Merker” können binäre Werte (an, angelegt oder eingestellt gegenüber ausgestellt, nicht angelegt, oder frei), ganze Zahlen, Ketten oder Strings oder andere Datentypen sein. Zum Beispiel zeigt das Einstellen oder Anlegen des Nicht-Verfolgen-Merkers den Wunsch an, nicht aufgenommen bzw. verfolgt zu werden. Das Löschen des Merkers zeigt entsprechendes Desinteresse an, aber zeigt nicht notwendigerweise einen positiven Wunsch an, verfolgt zu werden. Ein solcher Wunsch kann durch einen Bitte-Verfolgen-Merker angezeigt werden. Gemäß unterschiedlichen Aspekten können jedoch binäre Merker verwendet werden, um positive Wünsche anzuzeigen. Zum Beispiel kann ein ”Verfolgen”-Merker eingestellt werden, um den Wunsch anzuzeigen, verfolgt zu werden und er kann gelöscht werden um anzuzeigen, dass kein Wunsch besteht verfolgt zu werden.
  • Gemäß unterschiedlichen Aspekten kann statt des Tags 542 eine entferntdetektierbare biometrische oder physikalische Eigenschaft dazu dienen, Targets zu identifizieren. Zum Beispiel können Menschen durch Gesichtserkennung erkannt werden, Tiere können durch eine automatische Erkennung von Fellmustern erkannt werden, und Gebäude können durch automatische Erkennung ihrer Form und ihres Farbschemas erkannt werden. Viele Gebäude, wie beispielsweise das Empire State Building in New York City, das Sydney Opernhaus, die Esplanade Konzerthalle (das ”Big Durian”) in Singapur besitzen einzigartige und erkennbare Formen. Genauso wie die Tags 342, 542 anhand ihrer Form oder Farbe erkannt werden und Information aus dem erfassten Bild eines Tags 342, 542 decodiert werden kann, können Targets durch ihre Form oder ihre Farbe erkannt werden und es kann Information aus den erfassten Bildern dieser Targets decodiert werden. Zusätzlich zu oder statt einer eindeutigen ID, wie beispielsweise einer Telefonnummer, können Daten, die das Gesicht einer Person oder andere visuelle unterscheidbare (für den Mensch oder die Maschine) Charakteristika eines Targets z. B. Form oder Farbe des Targets oder eines Tags an dem Target als eine eindeutige ID verwendet werden, um die Datenbank hinsichtlich einer Präferenzeinstellung, die dem Target entspricht, abzufragen.
  • Während die Abbildungsplattform 100 arbeitet, kommuniziert sie über eine Verbindung (z. B. eine Drahtlosverbindung über Kommunikationsvorrichtung 187) mit der Datenbank 599. Die Abbildungsplattform 100 teilt der Datenbank 599 periodisch den Standort bzw. die Standorte mit, die sich im Sichtbereich der Bilderfassungsvorrichtung 110 befinden. Zum Beispiel kann der Prozessor 186 die Datenbank bezüglich eines Sichtbereichs der Bilderfassungsvorrichtung 110 abfragen, d. h. des Bereichs, den die Bilderfassungsvorrichtung 110 sieht. Der Sichtbereich kann als ein Sichtpolygon mitgeteilt werden, wobei jeder Knoten bzw. Eckpunkt an spezifischen (z. B.) WGS84 Längen- und Breitengradwerten (und optional Höhenwerten) liegt. Orte innerhalb des Sichtpolygons sind in dem Bild, das durch die Bilderfassungsvorrichtung 110 erfasst wird, sichtbar. Das Sichtpolygon kann quadratisch oder konisch sein. Das Sichtpolygon kann gebogene bzw. bogenförmige Segmente aufweisen, die entweder exakt angegeben oder mit einer Vielzahl von Punkten bzw. Knotenpunkten angegeben werden.
  • Die Datenbank 599 reagiert auf die Sichtpolygonanfrage von dem Prozessor 186 mit den Koordinaten jedes Tags, das in dem Sichtpolygon angeordnet ist, und mit der Information für welche ein Nicht-Verfolgen-Merker angelegt wurde. In dem dargestellten Beispiel liefert die Datenbank 599 die Koordinaten des Tags 542 an den Prozessor 186. Der Prozessor 186 modifiziert dann die Bilddaten oder erzeugt entsprechende Daten, um eine Maskierung 332 vorzusehen. Die Maskierung 332 kann eine generische Form (und Größe) besitzen, eine Form oder Größe basierend auf dem Abstand zwischen Bilderfassungsvorrichtung 110 und Tag 542, eine Form oder Größe, die in der Datenbank 599 gespeichert ist oder eine Kombination derselben. Der Prozessor 186 kann die Maskierungsdaten oder modifizierte Bilddaten z. B. über die Kommunikationsvorrichtung 187 senden oder sie kann die Maskierungsdaten oder modifizierten Bilddaten für ein späteres Herunterladen oder eine spätere Verarbeitung speichern.
  • Gemäß unterschiedlichen Aspekten kann die Person 222 einen PC 586 verwenden, um den Nicht-Verfolgen-Merker oder andere Merker oder Information in der Datenbank 599 zu setzen oder zu entfernen. Die Datenbank 599 kann daher eine Registratur für Privatsphäre-Information sein.
  • Gemäß anderen Aspekten kann die Abbildungsplattform 100 Standorte und eindeutige IDs von Targets in ihrem Sichtfeld z. B. unter Verwendung des Sensors 120 bestimmen. Die Abbildungsplattform 100 kann dann die Datenbank 599 mit den IDs abfragen und zwar anstelle oder zusätzlich zur Abfrage der Datenbank bezüglich eines Sichtpolygons. Das Ergebnis einer Abfrage kann eine Präferenzeinstellung sein und die Abbildungsplattform 100 kann Maskierungsdaten oder modifizierte Bilddaten entsprechend der empfangenen Präferenzeinstellungen und der bestimmten Standorte vorsehen. Gemäß anderen Beispielen sendet die Abbildungsplattform 100 die eindeutigen IDs und Standorte oder die Präferenzeinstellungen und Standorte an den Empfänger 130 oder andere Komponenten des Abbildungssystems 190, wobei die Komponente welche die Information empfängt die Maskierungsdaten oder modifizierte Bilddaten vorsehen kann.
  • Gemäß unterschiedlichen Aspekten wird die Datenbank 599 nicht eingesetzt. Stattdessen untersucht die Abbildungsplattform 100 die Bereiche innerhalb des Sichtpolygons unter Verwendung des Sensors 120, der einen Transceiver aufweisen kann. Das Tag 542 detektiert ein Abfragesignal vom Sensor 120 und antwortet mit seinen Koordinaten und Einstellungen hinsichtlich eines Nicht-Verfolgen-Merkers. Gemäß unterschiedlicher Beispiele antwortet das Tag 542 nur wenn der Nicht-Verfolgen-Merker eingestellt wurde; gemäß anderer Beispiele antwortet das Tag 542 unabhängig davon, ob der Merker eingestellt wurde oder nicht. Der Prozessor 186 empfängt Daten des Tags 542 vom Sensor 120 und legt eine Maskierung 332 an (oder erzeugt entsprechende Daten) und zwar entsprechend dem gesendeten Standort des Tags 542.
  • Gemäß unterschiedlichen Aspekten weist das Tag 542 einen Transponder auf. Das Tag 542 antwortet auf das Abfragesignal vom Sensor 120 mit seiner eindeutigen ID. Der Prozessor 186 fragt die Datenbank 599 bezüglich der empfangenen eindeutigen ID ab. Wenn der Nicht-Verfolgen-Merker für die eindeutige ID gesetzt wurde, wird eine Maskierung 332 angelegt (oder entsprechende Daten erzeugt). Die Datenbank 599 kann aktualisiert werden, um anzuzeigen, dass das Tag 542 an einem bestimmten Ort und zu einer bestimmten Zeit durch eine bestimmte Abbildungsplattform 100 beobachtet wurde. Jede Beobachtungsplattform 100 kann eine eindeutige ID (z. B. für Luftfahrzeuge, die Hecknummer; oder im allgemeinen eine GUID oder andere eindeutige ID) aufweisen. Gemäß unterschiedlichen Aspekten weist der Sensor 120 ein Radargerät auf, das Transponder innerhalb seines Bereichs abfragen kann.
  • Gemäß unterschiedlichen Aspekten weist das Tag 542 ein RFID-Tag auf und der Sensor 120 weist einen RFID-Leser auf, der in der Lage ist, das Tag 542 zu lesen. Gemäß unterschiedlichen Aspekten überträgt der Transponder im Tag 542 den Standort des Tags 542. Gemäß unterschiedlichen Aspekten schätzt der Sensor 120 den Standort des Tags 542, wie hier beschrieben wird. Gemäß unterschiedlichen Aspekten können mehrere Abbildungsplattformen 100 Ergebnisse des Sensors 120 kombinieren, um Standorte von Tags 542 zu schätzen. Zum Beispiel können drei Abbildungsplattformen 100, die jeweils mit einem GPS oder einer anderen Vorrichtung ausgerüstet sind, welche den Standort der Abbildungsplattform 100 an den jeweiligen Prozessor 186 liefert, miteinander kommunizieren, um den Standort eines Tags 542 innerhalb des Detektionsbereichs derselben zu triangulieren.
  • Gemäß anderen Aspekten überträgt das Tag 542 seinen Standort, seinen Nicht-Verfolgen-Status und optional seine eindeutige ID, und zwar periodisch, intermittierend oder kontinuierlich. Der Prozessor 186 horcht nach solchen Übertragungen unter Verwendung des Sensors 120 und legt eine Maskierung an oder sieht Daten vor, welche sich auf eine Maskierung beziehen. Der Prozessor 186 kann zusätzlich oder alternativ einen internen Datenspeicher aktualisieren und zwar bezüglich der empfangenen Standorte von Tags 542 in dem Sichtpolygon und kann Maskierungen oder Maskierungsdaten erzeugen unter Verwendung der Information in dem Datenspeicher. Der Inhalt des Datenspeichers kann innerhalb des Abbildungssystems 190 übertragen werden. Jede Prozessorkomponente des Abbildungssystems 190, z. B. Prozessor 186, kann eine Bewegung zwischen aufeinanderfolgenden Übertragungen von einem jeweiligen Tag 542 interpolieren, um zu schätzen, wo die Maskierung zu jedem Zeitpunkt angeordnet sein sollte. Alternativ kann die Maskierung fest an der zuletzt empfangenen Position verbleiben.
  • Beispiele bei denen die Tags 542 übertragen oder auf den Sensor 120 ansprechen, und zwar ausschließlich mit ihrem Standort und ihrem Merker und ohne ihre eindeutige Kennung, reduzieren vorteilhafterweise die Notwendigkeit persönlich identifizierbare Information über die Bewegungen von der Person 222 zu speichern. Einige Aspekte der Verwendung der Datenbank 599 können der Person 222 vorteilhafterweise erlauben, Drohnenaktivität je nach Wunsch einzustellen, und zwar durch Aktualisieren der Datenbank. Dies kann die Verwendung eines einfachen, robusten Tags 542 ohne User-Interface erlauben.
  • Gemäß unterschiedlichen Beispielen spioniert der Sensor 120 Signale von Mobiltelefonen oder anderen portablen elektronischen Geräten in der Nähe der Abbildungsplattform 100 aus, oder fragt solche Vorrichtungen ab, z. B. unter Verwendung einer Basisstation, die in der Abbildungsplattform 100 umfasst ist. Der Sensor 120 bestimmt den Standort jeder lokalisierten Vorrichtung, z. B. durch Rastern einer Richtantenne über das Sichtfeld der Bilderfassungsvorrichtung 110. Die Abbildungsplattform 100 (oder z. B. der Empfänger 130) holt sich dann die Präferenzeinstellung für die bestimmte eindeutige ID aus der Datenbank. Bei diesen Beispielen kann die Datenbank 599 Targetstandorte speichern oder auch nicht und bei einigen Beispielen enthält die Datenbank 599 keine Standortdaten. Der Prozessor 186 oder z. B. der Empfänger 130 erzeugt dann Maskierungsdaten oder modifizierte Bilddaten.
  • Gemäß unterschiedlichen Beispielen aktualisieren solche Vorrichtungen, z. B. Tags 542, Standorte in der Datenbank 599. Die Abbildungsplattform 100, z. B. eine Drohne, fragt die Datenbank 599 bezüglich des Sichtbereichs oder anderer Sichtbereichsdaten ab, und die Datenbank 599 antwortet mit den Standorten, die maskiert oder angezeigt werden sollen. Dies ermöglicht den Aufbau einer Drohne mit einer einfacheren, möglicherweise weniger teuren Elektronik. Bei diesen und anderen Beispielen kann die Datenbank 599 durchgängig die Standorte von nicht gekennzeichneten Targets aufweisen, die maskiert oder angezeigt werden sollen. Targets müssen nicht getaggt sein, solange sie in der Datenbank enthalten sind. Solche nicht getaggten Targets können Gebäude oder andere fixe Strukturen oder Bereiche sein oder sie können sich bewegende Targets aufweisen, welche periodisch die Datenbank 599 aktualisieren, z. B. unter Verwendung einer Smart Phone App, wie nachfolgend beschrieben wird.
  • Gemäß unterschiedlichen Beispielen kann die Datenbank 599 anzeigen, dass die Person 222, die ein Tag 542 trägt, wissen möchte, wann eine Drohne zum letzten Mal das Tag 542 observiert hat. Information bezüglich der letzten Observationszeit kann durch den Prozessor 186 in der Datenbank 599 gespeichert werden, während die Abbildungsplattform 100 arbeitet und kann durch die Person 222 unter Verwendung eines PCs 586 herausgezogen werden. Die letzte Observationszeit kann durch einen Befehl von dem Prozessor gespeichert werden oder autonom durch die Datenbank 599, z. B. unter Verwendung eines Triggers bei Abfragen hinsichtlich Merker für das Tag 542. Tags 542 können auch anderweitig, d. h. nicht an Menschen, angebracht werden, wie oben beschrieben. Gemäß einigen Aspekten kann die Datenbank 599 dahingehend abgefragt werden, wann die Abbildungsplattform 100 zum letzten Mal ein Haus observiert hat, das ein Tag Zeichne-Besuchszeit-Auf trägt. Merker innerhalb der Datenbank 599 können auch bewirken, dass der Prozessor 186 die Datenbank 599 mit Information bezüglich des Standorts aktualisiert, an dem das Tag 542 zuletzt observiert wurde, oder mit einem Foto des Trägers des Tags 542 zum Zeitpunkt der Observation (ein Ausschnitt aus dem erfassten Bild). Der Zeitstempel kann eine gewünschte Feinheit, z. B. Jahr, Monat, Tag, Minute, Sekunde oder Millisekunde, aufweisen. Der Zeitstempel kann z. B. den Bilddaten entsprechen, welche durch die Drohne oder eine andere Abbildungsplattform 100 erfasst wurden, die das Tag 542 observiert haben.
  • Gemäß den hier beschriebenen Aspekten können Daten im Speicher 131 oder in der Datenbank 599 für eine auswählbare Zeitdauer, z. B. 180 Tage, gespeichert werden. Die Datenbank 599 kann Merker aufweisen die anweisen, dass Daten länger gespeichert werden. Beim Herausziehen von erfassten Bildern aus der Datenbank 599 oder dem Speicher 131 können die Merker in der Datenbank 599 konsultiert werden, um die Suche rasch auf eindeutige IDs mit gesetzten Verfolgungsfeldern einzuschränken. Gemäß einem Beispiel können Eltern das Verfolgungsfeld für Tags, welche ihre Kinder tragen, setzen, so dass sie eine Aufzeichnung über die Bewegungen ihrer Kinder erhalten.
  • Wie zuvor beschrieben, speichert der Speicher 131 gemäß einigen Aspekten den Rahmen 200 und Daten welche der Maskierung 332 entsprechen, separat. Normalerweise werden Bilddaten nur mit der Maskierung 332 an seinem Platz vorgesehen. Gemäß unterschiedlichen Aspekten speichert der Speicher 131 die eindeutige ID, die mit einer bestimmten Maskierung 332 assoziiert ist. Ein Interface (nicht gezeigt) empfängt eine Bedienereingabe die anzeigt, dass der Bediener freiwillig auf eine Blockierung der eindeutigen ID seines Tags an einem speziellen Ort oder zu einer speziellen Zeit oder innerhalb eines bestimmten Bereichs von Orten oder bestimmter Zeiten oder im allgemeinen verzichtet. Der Speicher 131 liefert dann Bilddaten ohne Maskierung 332 an den gewünschten Ort oder zu der gewünschten Zeit oder eines Bereichs derselben. Das Abbildungssystem 190 kann diese Funktionen auch aufweisen. Der Empfänger 130 kann die Bedienereingabe empfangen und an die Anzeige 132 Bilddaten liefern, in denen die Maskierung 332 vorhanden ist, mit der Ausnahme an bestimmten Orten oder zu bestimmten Zeiten.
  • Gemäß unterschiedlichen Aspekten weist der Videorahmen 500 Verfolgen-Merkmale von Interesse oder sowohl Verfolgen- und Nichtverfolgen-Merkmale von Interesse auf. In dem gezeigten Beispiel trägt die Person 223 ein Verfolgen-Tag 543 und ist daher mit einem Indikator 233 hervorgehoben. Wenn sich die Maskierung 332 und der Indikator 233 überlappen, kann die Maskierung 332 überlappende Teile des Indikators 233 ausschalten, der Indikator 233 kann überlappende Teile der Maskierung 332 ausschalten, der überlappende Bereich kann zweigeteilt werden, um die Größe sowohl der Maskierung 332 als auch des Indikators 233 zu reduzieren, oder es kann an einen Bediener des Abbildungssystems 190 eine Auswahl hinsichtlich der durchzuführenden Aktion gegeben werden. Gemäß unterschiedlichen Aspekten kann die Bestimmung darauf basierend gemacht werden, ob die Person 222 oder die Person 223 näher an der Bilderfassungsvorrichtung 110 ist. Wenn z. B. die Person 222 näher ist, werden die Bilddaten für die Person 222 die Person 223 in natürlicher Weise abdecken bzw. maskieren. In dieser Situation kann die Auswahl getroffen werden, dass der Indikator 233 die überlappenden Teile der Maskierung 332 ausschalten kann. Infolgedessen wird ein Teil der Person 222 sichtbar aber ein Großteil der Person 222 wird in der Ansicht durch den Körper der Person 223 blockiert. Dies sieht für die Person 222 eine größere Privatsphäre vor, als wenn sie kein Tag 542 hätte und ermöglicht trotzdem die Verfolgung welche die Person 223 wünscht.
  • Gemäß unterschiedlichen Aspekten sendet das Tag 542 eine Vorhandenanzeige oder ein oder mehrere Merker aus bzw. antwortet sie mit solchen statt einem Standort. Gemäß einem Beispiel ist das Tag 542 ein RFID-Tag ohne eine Standortempfangsschaltung. Der Sensor 120 kann eine Richtantenne oder eine Flugzeitmessungseinheit aufweisen, um eine Schrägentfernung bis zum Tag 542 zu bestimmen. Der Sensor 120 kann mehrere räumlich getrennte Antennen aufweisen um ein Triangulieren des Standortes des Tags 542 zu erlauben, oder um die Genauigkeit einer Schätzung der Position des Tags 542 zu verbessern. Der Sensor 120 oder der Prozessor 186 kann Triangulierungs-Bodenstationen abfragen, z. B. Mobiltelefon-Basisstationen, um den Standort des Tags 542 zu bestimmen. Wenn der Sensor 120 eine Antwort von einem solchen Tag 542 detektiert oder empfängt, folgert der Prozessor 186 dass es ein Objekt in dem Sichtpolygon gibt. Wenn das Tag 542 nur eine Anwesenheitsanzeige liefert, kann der Prozessor 186 einen Vorgabezustand der Merker, z. B. Nicht-Verfolgen gesetzt, annehmen. Das Tag 542 kann auch einen oder mehrere Merker, welche durch die Person 222 konfigurierbar sind, z. B. unter Verwendung von DIP-Schaltern am Tag 542 zurückgeben. Der Prozessor 186 leitet eine Größe und Form für die Maskierung 332 (oder einen Indikator) ab, und zwar basierend auf Information, die von dem Sensor 120 über den Standort des Tags 542 empfangen wurde. Bei einem Beispiel deckt die Maskierung 332 die Gesamtheit eines Rahmens der erfassten Bilddaten ab, welche ein RFID-Nicht-Verfolgen-Tag 542 enthalten. Bei einem anderen Beispiel scannt der Sensor 122 den Azimut und Höhenwinkel des Tags 542 bezüglich des Sensors 120 ab, oder bestimmt diese und der Prozessor 186 maskiert oder erzeugt Maskierungsdaten nur für einen Teil des Bildes, der in dieser Richtung bezüglich des Sensors 120 liegt. Der Prozessor 186 kann die Winkel einstellen, wenn dies notwendig ist, um für unterschiedliche Standorte der Bilderfassungsvorrichtung 110 und des Sensors 120 zu kompensieren.
  • Die 68 zeigen den Betrieb gemäß anderen Aspekten. 6 ist eine axonometrische Ansicht eines Wohngebiets. Das gezeigte Wohngebiet besitzt Häuser 611, 612, 613 und 614 auf jeder Seite der Straße 620. Diese Ansicht ist repräsentativ für ein schräges perspektivisches Bild des Wohngebiets, das durch eine beispielhafte Drohne erfasst wurde.
  • Die Gitterlinien in 6 repräsentieren Koordinaten. Perspektivische Bilder können geo-referenziert oder geo-rektifiziert sein, so dass der Breitengrad und der Längengrad jedes Punktes in der Ansicht leicht bestimmt werden können. Ein Geo-Referenzieren umfasst eine Winkelkorrektur, so dass Koordinaten für Bilder von oben oder schräge Bilder bestimmt werden können. Die Gitterlinien können parallel zu den Breitengrad- und Längengradlinien innerhalb von Datenlinien sein, welche die Nachbarschaft abdecken. Die Gitterlinien können in einem erfassten Bild vorhanden sein oder sie können hinzugefügt werden oder auch nicht. Daten, welche das Gitter repräsentieren, können separat gespeichert werden. Das Haus 612 ist in dem Gitterquadrat 5490 angeordnet.
  • 7 zeigt eine Maskierungslage auf demselben Gitter wie 6. Dies ist repräsentativ für eine Lage, die in einem GIS (geographical information system) verwendet wird. Das Bild, das dem Nutzer eine GIS angezeigt wird, ist eine Überlagerung von unterschiedlichen Lagen, ausgehend von einer Grundkarte. Gemäß den unterschiedlichen Aspekten wird eine geo-referenzierte Maskierungslage, die in 7 dargestellt ist, über das in 6 dargestellte Bild gelegt.
  • 8 zeigt das Ergebnis einer solchen Überlagerung. Die Ansicht ist dieselbe wie in 6 mit der Ausnahme, dass die Daten für das Gitterquadrat 5490 einschließlich des Hauses 612 durch eine Maskierung 632 maskiert wurden. Die Form und Größe der Maskierung sind in einem Beispiel dargestellt. Die Maskierung kann die Form und Größe des Gitterquadrats 5490 oder des Hauses 613 besitzen oder sie kann irgendeine andere Größe oder Form besitzen, die wie oben beschrieben, bestimmt wurde.
  • Die Maskierungslage gemäß 7 kann in einer Datenbank gespeichert werden, z. B. der Datenbank 599. Während die Abbildungsplattform 100 arbeitet, kann sie die Datenbank 599 bezüglich des Sichtpolygons abfragen, um geeignete Maskierungslagen aus der Datenbank herauszuziehen. Der Prozessor 186 kann Maskierungen oder Maskierungsdaten unter Verwendung der herausgezogenen Maskierungslagen erzeugen. Andere Verarbeitungskomponenten des Abbildungssystems 190 oder des Speichers 131 können auch die Maskierungen oder die Maskierungsdaten erzeugen. Die Maskierungslagen in der Datenbank 599 können periodisch aktualisiert werden, z. B. monatlich oder vierteljährlich. Gemäß unterschiedlichen Beispielen umfassen die Maskierungslagen Daten, welche spezielle Grundstücke maskieren. Das heißt, stattdessen oder zusätzlich zu den Gitterquadraten umfassen die Maskierungslagen Formen, welche den Formen und Positionen von speziellen Grundstücken oder speziellen festen Positionen von Objekten oder Bereichen entsprechen.
  • Gemäß unterschiedlichen Aspekten kann die Maskierungslage auch Daten aufweisen, welche andere Merker spezifizieren oder es können andere Lagen verwendet werden. Zum Beispiel kann eine separate Lage Bitte-Verfolgen-Merker analog zu den oben für die Tags 542 beschriebene aufweisen.
  • In unterschiedlichen Beispielen werden Kombinationen von hier beschriebenen Aspekten verwendet. Zum Beispiel kann ein Haus oder Gebäude einer Person als ”bitte verfolgen” markiert sein. Dies erlaubt es der Person, auf Daten zuzugreifen, wann das Haus durch eine Abbildungsplattform 100 abgebildet wurde. Der Bitte-Verfolgen-Merker kann gesetzt werden durch ein Bitte-Verfolgen-Tag, wie oben unter Bezugnahme auf 5 beschrieben wurde, oder durch eine Bitte-Verfolgen-Lage, wie sie unter Bezugnahme auf 7 beschrieben wurde. Die Person kann jedoch ein Nicht-Verfolgen-Tag 342, 542 (z. B. einen Sender oder ein Ortungsgerät) tragen, wie unter Bezugnahme auf 3 oder 5 beschrieben wurde. Infolgedessen wird eine Drohne, welche ein Bild des Hauses erfasst, die Person maskieren, wenn sie sich im Garten befindet. Andere Kombinationen von Verfolgen und Nicht-Verfolgen können verwendet werden.
  • Gemäß unterschiedlichen Beispielen kann ein Nutzer die eindeutige ID eines Tags 542 oder die Koordinaten einer Parzelle oder eines Grundstücks mit der Datenbank 599 registrieren und anzeigen, dass der Nicht-Verfolgen-Merker gesetzt werden sollte. Der Prozessor 186 fragt während des Betriebs der Abbildungsplattform 100 die Datenbank 599 ab, um Nicht-Verfolgen-Bereiche in dem Sichtpolygon zu lokalisieren. Der Prozessor 186 erzeugt Maskierungen (z. B. Maskierung 332) oder Daten, welche anzeigen, wo Maskierungen vorgesehen werden sollten. Bei dem ersten Beispiel wird das modifizierte Bild an den Empfänger 130 übertragen. Bei der zuletzt genannten Situation werden das unmodifizierte Bild und die Maskierungsdaten an den Empfänger 130 übertragen.
  • Maskierungen und Indikatoren können durch irgendeine Prozessorkomponente bzw. Prozessorkomponenten des Abbildungssystems 190, z. B. Prozessor 186 an der Abbildungsplattform 100, oder durch eine nachfolgende Komponente, wie z. B. dem Speicher 131, hinzugefügt werden. Der Begriff ”Target” bezieht sich auf Personen, Häuser, andere Gebäude, Türen oder Fenster von Strukturen, Pflanzen, Tiere, Objekte oder andere Gegenstände oder Volumen, welche mit einem Merker unter Verwendung der hier beschriebenen Verfahren assoziiert werden können. Targets können identifiziert werden, z. B. indem sie Tags 342 oder 542 tragen, oder indem ihre Standorte in der Datenbank 599 gespeichert sind.
  • 9 ist ein Übersichtsdiagramm, welches die Komponenten eines Datenverarbeitungssystems zum Analysieren von Bilddaten und für die Durchführung anderer hier beschriebener Analysen, zeigt. Das System umfasst ein Datenverarbeitungssystem 910, ein Peripheriesystem 920, ein Nutzerschnittstellensystem 930 und ein Datenspeichersystem 940. Das Peripheriesystem 920, das Nutzerschnittstellensystem 930 und das Datenspeichersystem 940 sind kommunikativ mit dem Datenverarbeitungssystem 910 verbunden. Der Prozessor 186 und der Empfänger 130 können jeweils eines oder mehrere der Systeme 910, 920, 930, 940 aufweisen.
  • Das Datenverarbeitungssystem 910 weist eine oder mehrere Datenverarbeitungsvorrichtungen auf, welche die Prozesse gemäß unterschiedlichen Aspekten implementieren, einschließlich beispielhafter Prozesse, wie sie hier beschrieben werden, wie beispielsweise solche, die in den 15 und 16 gezeigt sind. Der Begriff ”Datenverarbeitungsvorrichtung” oder ”Datenprozessor” soll alle Datenverarbeitungsgeräte oder -einrichtungen aufweisen, wie beispielsweise eine zentrale Prozessoreinheit (”CPU”), einen Desktop-Computer, einen Laptop-Computer, einen Mainframe-Computer, einen persönlichen digitalen Assistenten, einen BlackberryTM, eine Digitalkamera, ein Mobiltelefon oder irgendeine andere Vorrichtung zum Verarbeiten von Daten, Managen von Daten oder für die Handhabung von Daten, unabhängig davon ob sie mit elektrischen, magnetischen, optischen, biologischen Komponenten oder auf andere Weise implementiert sind.
  • Das Datenspeichersystem 940 umfasst einen oder mehrere Speicher auf die durch einen Prozessor zugegriffen werden kann, und der konfiguriert ist zum Speichern von Information einschließlich der Information die notwendig ist zum Ausführen der Prozesse gemäß der unterschiedlichen Aspekte einschließlich der hier beschriebenen beispielhaften Prozesse. Das Datenspeichersystem 940 kann ein verteiltes Speichersystem sein auf das ein Prozessor zugreifen kann, einschließlich mehrerer Speicher auf die ein Prozessor zugreifen kann, die kommunikativ mit dem Datenverarbeitungssystem 910 verbunden sind, über eine Vielzahl von Computern oder Geräten. Andererseits muss das Datenspeichersystem 940 nicht ein verteiltes Speichersystem sein, auf das ein Prozessor zugreifen kann und konsequenterweise kann es einen oder mehrere Speicher aufweisen, auf die ein Prozessor zugreifen kann, die innerhalb eines einzelnen Datenprozessors oder einer Vorrichtung angeordnet sind.
  • Der Begriff ”Speicher auf den ein Prozessor zugreifen kann” soll jegliche Datenspeichervorrichtung aufweisen, auf die ein Prozessor zugreifen kann und zwar unabhängig davon, ob sie flüchtig oder nicht-flüchtig, elektronisch, magnetisch, optisch oder auf andere Weise funktioniert, und zwar einschließlich aber nicht limitierend Register, Floppy Discs, Hard Discs, Compact Discs, DVDs, Flash-Speicher, ROMS und RAMs.
  • Der Begriff ”kommunikativ verbunden” soll jeglichen Verbindungstyp umfassen, unabhängig davon ob drahtgebunden oder drahtlos, und zwar zwischen Geräten oder Vorrichtungen, Datenprozessoren oder Programmen über die Daten kommuniziert werden können. Der Begriff ”kommunikativ verbunden” soll eine Verbindung zwischen Geräten oder Programmen innerhalb eines einzelnen Datenprozessors umfassen, eine Verbindung zwischen Geräten oder Programmen, die in unterschiedlichen Datenprozessoren angeordnet sind und eine Verbindung zwischen Geräten, die nicht in Datenprozessoren angeordnet sind. Diesbezüglich wird der Fachmann verstehen, dass obwohl das Datenspeichersystem 940 getrennt von dem Datenverarbeitungssystem 910 dargestellt ist, dass das Datenspeichersystem 940 vollständig oder teilweise innerhalb des Datenverarbeitungssystems 910 aufgenommen sein kann. Ferner wird der Fachmann verstehen, dass obwohl das Peripheriesystem 920 und das Bedienerinterfacesystem 930 separat von dem Datenverarbeitungssystem 910 dargestellt sind, dass eines oder beide dieser Systeme vollständig oder partiell innerhalb des Datenverarbeitungssystems 910 aufgenommen sein kann.
  • Das Peripheriesystem 920 kann eine oder mehrere Vorrichtungen aufweisen, die konfiguriert ist/sind zum Vorsehen digitalen Inhalts an das Datenverarbeitungssystem 910. Zum Beispiel kann das Peripheriesystem 920 digitale Bildkameras, digitale Videokameras, Mobiltelefone oder andere Datenprozessoren aufweisen. Das Datenverarbeitungssystem 910 kann ansprechend auf den Empfang von digitalem Inhalt von einer Vorrichtung in dem Peripheriesystem 920 einen solchen digitalen Inhalt in dem Datenspeichersystem 940 speichern.
  • Das Nutzer-Interfacesystem 930 kann eine Maus, eine Tastatur, einen anderen Computer oder irgendein Gerät oder eine Kombination von Geräten aufweisen, über die Daten in das Datenverarbeitungssystem 910 eingegeben werden. Diesbezüglich sei bemerkt, dass obwohl das Peripheriesystem 920 separat von dem Nutzer-Interfacesystem 930 gezeigt ist, das Peripheriesystem 920 als ein Teil des Nutzer-Interfacesystems 930 enthalten sein kann.
  • Das Nutzer-Interfacesystem 930 kann auch eine Anzeigevorrichtung aufweisen, einen Speicher auf den ein Prozessor zugreifen kann, oder irgendein Gerät oder eine Kombination von Geräten oder Einheiten, an die durch das Datenverarbeitungssystem 910 Daten ausgegeben werden. Diesbezüglich sei bemerkt, dass wenn das Nutzer-Interfacesystem 930 einen Speicher aufweist, auf den ein Prozessor zugreifen kann, ein solcher Speicher Teil des Datenspeichersystems 940 sein kann, obwohl das Nutzer-Interfacesystem 930 und das Datenspeichersystem 940 in 9 separat dargestellt sind.
  • In Anbetracht der obigen Ausführungen sehen Aspekte der Erfindung eine verbesserte Kontrolle durch eine Person vor, und zwar hinsichtlich Daten, die durch Überwachungssysteme erfasst werden, und die sich auf diese Person beziehen. Ein technischer Effekt liegt im Vorsehen eines Überwachungsvideostromes, der in vorteilhafter Weise Personen maskiert, welche nicht auf Video erfasst werden wollen. Ein weiterer technischer Effekt liegt gemäß unterschiedlichen Aspekten im Vorsehen eines Überwachungsvideostroms bei dem, da Teile maskiert sind, nicht-maskierte Teile für das menschliche Auge sichtbarer werden, oder für einen menschlichen Beobachter deutlicher hervorstehen.
  • Wie der Fachmann erkennen kann, können Aspekte der vorliegenden Erfindung als ein System, ein Verfahren oder ein Computer-Programmprodukt ausgeführt werden. Demgemäß können Aspekte der Erfindung vollständig die Form eines Hardware-Aspektes, vollständig eines Software-Aspektes (einschließlich firmware, resident software, micro-code etc.) oder einen Aspekt, der Software- und Hardware-Aspekte kombiniert einnehmen, die alle hier allgemein als ein ”Service”, ”Schaltung”, ”Schaltkreis”, ”Modul” oder ”System” bezeichnet werden können. Ferner können Aspekte der Erfindung die Form eines Computer-Programmproduktes einnehmen, das auf einem oder mehreren computer-lesbaren Medium/Medien mit einem computer-lesbaren Programmcode darauf einnehmen.
  • Ein Computer-Programmprodukt kann ein oder mehrere Speichermedium/-medien aufweisen, z. B. ein magnetisches Speichermedium, wie beispielsweise eine Magnet Disc (z. B. eine Floppy Disc) oder Magnetband, ein optisches Speichermedium, wie beispielsweise eine optische Disc, ein optisches Tape oder maschinenlesbaren Barcode; eine solid-state elektronische Speichervorrichtung, wie beispielsweise einem Random Access Memory (RAM), oder Read-Only Memory (ROM); oder irgendeine andere physikalische Vorrichtung oder ein Medium, das verwendet wird zum Speichern eines Computer-Programms mit Instruktionen zum Steuern von einem oder mehreren Computern zum Durchführen eines oder mehrerer Verfahren gemäß eines oder mehrerer Aspekte.
  • Jede Kombination aus einem oder mehreren computerlesbaren Medium/Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, eine Vorrichtung oder eine Einheit oder irgendeine geeignete Kombination der vorhergehenden sein, ohne jedoch hierauf beschränkt zu sein. Spezifischere Beispiele (eine nicht abschließende Liste) von computerlesbaren Speichermedien würde die folgenden aufweisen: eine elektrische Verbindung mit einem oder mehreren Drähten, eine portable Computerdiskette, eine Harddisk, ein Random-Access-Memory (RAM), ein Read-only-Memory (ROM), einen löschbaren programmierbaren Read-only-Memory (EPROM oder Flash memory), ein Lichtleiter, eine portables Kompaktdisk-Read-only-Memory (CD-ROM), eine optische Speichereinheit, eine magnetische Speichereinheit, oder irgendeine geeignete Kombination der vorgenannten. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium jedes materielle Medium sein, das ein Programm enthält oder speichert zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Ausführung einer Instruktion.
  • Programmcode oder ausführbare Instruktionen, die auf einem computerlesbaren Medium enthalten sind, können übertragen werden unter Verwendung eines geeigneten Mediums, einschließlich aber nicht beschränkt auf Drahtlos, Drahtgebunden, Lichtleiterkabel, Hochfrequenz (HF) oder irgendeine geeignete Kombination von geeigneten Medien.
  • Computerprogrammcode zur Ausführung von Operationen und für Aspekte der vorliegenden Erfindung kann in irgendeiner Kombination aus einer oder mehreren Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf dem Computer(einheit) des Nutzers ausgeführt werden, er kann teilweise auf dem Computer des Nutzers ausgeführt werden, er kann als ein Stand-Alone-Softwarepaket ausgeführt werden, teilweise auf dem Computer des Nutzers und teilweise auf einem entfernten Computer oder er kann vollständig auf dem entfernten Computer oder einem Server ausgeführt werden. Bei der letzten Ausführungsart kann der entfernte Computer mit dem Computer des Nutzers über irgendeine Art von Netzwerk verbunden sein, einschließlich eines lokalen Bereichsnetzwerks (LAN = local area network) oder eines Weitenbereichsnetzwerks (WAN = wide area network) oder die Verbindung kann zu einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internetserviceproviders).
  • Computerprogramminstruktionen können auf einem computerlesbaren Medium gespeichert sein, welche einem Computer andere programmierbare Datenverarbeitungsvorrichtungen, oder andere Einheiten oder Geräte anweisen kann in einer bestimmten Art und Weise zu arbeiten. Die Computerprogramminstruktionen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung, oder andere Geräte oder Einheiten geladen werden, um zu bewirken, dass eine Serie von Betriebsschritten auf dem Computer der anderen programmierbaren Vorrichtung oder dem anderen Gerät oder der Einheit ausgeführt werden, um einen computerimplementierten Prozess zu erzeugen, so dass die Instruktionen, welche auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Prozesse zum Implementieren der hier spezifizierten Funktionen/Handlungen vorsehen.
  • Die 10 bis 12 zeigen unterschiedliche Beispiele des Betriebs des Abbildungssystems 190, des Empfängers 130 und hiermit in Beziehung stehende Komponenten. Das Abbildungssystem 190, ist dasselbe wie in 1 gezeigt. 10 zeigt eine Bilderfassungsvorrichtung 110 und einen optionalen Sensor 120, welche Daten an den Prozessor 186 liefern. Der Prozessor 186 überträgt Bilddaten und optional hiermit assoziierte Daten über die Datenverbindung 188 an den Empfänger 130. Der Empfänger 130 sieht einen Datenspeicher 131 oder eine Anzeige 132 vor. Die assoziierten Daten können Daten über Targets oder Maskierungen, zum Beispiel Formen, Lagen, Regionen, Masken oder Polygone, welche Bereiche des Bildes, die Targets enthalten oder die maskiert werden sollten, definieren. Gemäß unterschiedlichen Aspekten gehen Daten zu und aus dem Speicher durch eine Sicherheitseinheit 1056. Die Sicherheitseinheit 1056 kann eine Zugriffskontrolle auf den Speicher 131 vorsehen, zum Beispiel kann sie den Zugriff auf den Speicher 131 auf autorisierte Nutzer einschränken. Die Sicherheitseinheit 1056 kann auch Datenintegrität, Checks oder Nachweisbarkeitsinformation vorsehen. Zum Beispiel können Daten im Speicher 131 mit Checksummen, sicheren Prüfsummen oder kryptographischen Signaturen (zum Beispiel RSA, PGP oder anderen Public-Key-Signaturen, oder Private-Key-Signaturen gespeichert werden, welche ermöglichen, dass Änderungen an den gespeicherten Daten detektierbar sind. Die Sicherheitseinheit 1056 kann Zeitstempel oder Zugriffsaufzeichnungen für den Speicher 131 führen. Gemäß unterschiedlichen Aspekten sehen die Sicherheitseinheit 1056 und der Speicher 131 eine fälschungssichere Speicherung von Daten vor. Dies ermöglicht, dass Menschen, welche die Daten nutzen, sich auf Daten verlassen, die gefälscht wurden, was zum Beispiel durch einen Checksummenfehler auffallen würde. Die Sicherheitseinheit 1056 kann auch bei den Beispielen gemäß 11 und 12 und in den anderen hier genannten Beispielen verwendet werden.
  • 11 zeigt ein Beispiel einer Maskierung, die durch den Prozessor 186 der Abbildungsplattform 100 durchgeführt wird. Der Prozessor 186 empfängt Bilddaten von der Bilderfassungsvorrichtung und empfängt Daten über die Standorte von Targets vom Sensor 120 der Datenbank 599 oder beiden. Der Prozessor 186 legt eine bzw. mehrere Maskierung(en) an, zum Beispiel Maskierung 332 und liefert maskierte Bilddaten an den Empfänger 130. In den 11 bis 12 repräsentieren leere Kreise Operationen, welche durch die Komponente durchgeführt werden, in der der Kreis dargestellt ist, wobei die Eingänge und Ausgänge der Operationen durch die Pfeile repräsentiert sind, die mit den leeren Kreisen verbunden sind.
  • 12 zeigt ein Beispiel, bei dem der Prozessor 186 die Maskierung bestimmt und der Empfänger 130 die Maskierung anlegt. Der Prozessor 186 liefert die Bilddaten von der Bilderfassungsvorrichtung 110 an den Empfänger 130, ohne diese zu maskieren. Der Prozessor 186 kann die Bilddaten auf andere Weise modifizieren, zum Beispiel durch Georeferenzieren oder Einstellen der Auflösung, Kontrast und der Farbe). Der Prozessor 186 erzeugt Maskierungsdaten unter Verwendung der Eingänge vom Sensor 120 oder der Datenbank 599 oder von beidem oder sendet die Maskierungsdaten separat an den Empfänger 130. Bilddaten und Maskierungsdaten können über separate Datenverbindung übertragen werden oder sie können auf einer Datenverbindung gemultiplext werden. Der Empfänger 130 liefert Bilddaten und Maskierungsdaten an den Speicher 131. Der Empfänger 130 kombiniert die Bilddaten und die Maskierungsdaten zum Anlegen der Maskierung an das Bild. Die maskierten Bilddaten werden dann an die Anzeige 132 geliefert unter Verwendung des Liefersystems 139 (wie oben unter Bezugnahme auf 1 beschrieben). Auf diese Art und Weise sind ohne einen Gerichtsbeschluss oder einer andere menschliche Entscheidung nur maskierte Daten sichtbar. Mit einem solchen Beschluss oder einer Entscheidung können nicht-maskierte Bilddaten aus dem Speicher 131 abgerufen werden. Gemäß unterschiedlichen Aspekten speichert der Speicher 131 keine Maskierungsdaten.
  • 13 zeigt einen beispielhaften Videorahmen 1300 und eine Abbildungsplattform 100 gemäß unterschiedlichen Aspekten. Die Abbildungsplattform 100 umfasst zum Beispiel eine Drohne wie zum Beispiel ein Luftfahrzeug UAV. Die Abbildungsplattform 100 kann auch irgendeine andere Art von Drohne oder eine feststehende Kamera, zum Beispiel eine Einkaufszentrum-Sicherheitskamera, eine Brückeninspektionskamera oder eine Ampelkamera aufweisen. Die Abbildungsplattform 100 kann ferngesteuert sein (nicht autonom), autonom oder halbautonom, wie oben beschrieben.
  • Die Abbildungsplattform 100 umfasst Bilderfassungsvorrichtung 110 zum Beispiel eine optoelektronische Vorrichtung wie zum Beispiel ein CMOS oder CCD-Bildsensor oder ein Spektrofotometer oder Spektroradiometer. Die Bilderfassungsvorrichtung 110 liefert das erfasste Bild einem Prozessor 186. Die Bilderfassungsvorrichtung 110 kann optische oder digitale Zoomvorrichtungen aufweisen. Die Bilderfassungsvorrichtung 110 oder andere Sensoren können am Boden oder der Oberseite oder auch an einem anderen Ort des Rumpfs einer Flugzeugdrohnenabbildungsplattform 100 angebracht sein.
  • Der Prozessor 186 überträgt das empfangene Bild von der Bilderfassungsvorrichtung 110 über die Kommunikationsvorrichtung 187, die wie oben beschrieben aufgebaut sein kann. Der Empfänger 130 empfängt die Bilddaten von der Kommunikationsvorrichtung 137, wie oben beschrieben.
  • Die Bildertassungsvorrichtung 110, der Prozessor 186, die Kommunikationsvorrichtung 187, die Datenverbindung 188, die Kommunikationsvorrichtung 137 und der Empfänger 130 bilden zusammen ein Abbildungssystem, wie oben beschrieben. Gemäß unterschiedlichen Aspekten ist die Abbildungsplattform 100 eine ”dumme Drohne”, das heißt ein System, das keine Bildverarbeitung anlegt, um Maskierungen oder Indikatoren vorzusehen, wie nachfolgend beschrieben. Gemäß unterschiedlichen Aspekten umfasst die Datenverbindung 188 zwei parallele Datenströme: Roh-Bilddaten in einem Strom und den Standort der Abbildungsplattform 100 oder den Standort sichtbarer Merkmale in dem anderen Strom.
  • Gemäß unterschiedlichen Aspekten empfängt der Empfänger 130 Bilddaten von der Abbildungsplattform 100 über die Datenverbindung 188 und erzeugt einen Videorahmen 500. Der Empfänger 130 kann auch mit der Datenbank 599 kommunizieren, wie nachfolgend beschrieben. Gemäß unterschiedlichen Beispielen ist die Datenverbindung 188 eine Einwegedatenverbindung von der Abbildungsplattform 100 zu dem Empfänger 130. Dies reduziert vorteilhafterweise die Komplexität der Abbildungsplattform 100, was es diesen Beispielen zum Beispiel erlaubt, leicht mit zum Beispiel Microlight-Drohnen oder passiven Überwachungskameras, wie beispielsweise closed-circuit television(CCTV)-Kameras zu arbeiten.
  • Der Videorahmen 1300 ist ein beispielhafter Videorahmen, der durch das Abbildungssystem gemäß unterschiedlichen Aspekten erzeugt wurde. Die Oberfläche 210, die Personen 221, 222, 223, 224 und andere Merkmale sind dieselben wie bei dem oben unter Bezugnahme auf den Videorahmen 500 (5) beschriebenen. Bei diesem Beispiel sind die Personen 222 und 223 von Interesse. Über dem Videorahmen sind eine Maskierung 332 und ein Indikator 233 gelegt, wie oben unter Bezugnahme auf 5 beschrieben. Die Maskierung 332 kann wie oben unter Bezugnahme auf 3 beschrieben die Bilddaten modifizieren. Die Personen 222 und 224 sind nicht von Interesse, so dass keine Indikatoren oder Maskierungen oder andere Kennzeichen oder Hervorhebungen für sie dargestellt sind. Die Analyseroutinen können die jeweiligen Größen der Maskierung 332 oder des Indikators 233 bestimmen, und zwar durch Untersuchung der Bilddaten, wie oben beschrieben.
  • Der Empfänger 130 oder eine andere Komponente des Abbildungssystems kann die erfassten Bilddaten analysieren und Ausgangssignale wie oben unter Bezugnahme auf 5 beschrieben, vorsehen. Die Analyse der Bilddaten kann zusammen mit einer Analyse oder einer Verarbeitung basierend auf den Tags 542, 543 verwendet werden.
  • Bezugnehmend auf 13 ist die Maskierung 332 graphisch mit einem Schraffurmuster dargestellt, um die Beziehung zwischen der Person 222, Tag 542 und Maskierung 332 zu zeigen. Gemäß unterschiedlichen Beispielen kann die Maskierung 332 schraffiert sein oder sie kann undurchsichtig sein, so dass keine Bilddaten erkenntlich sind, die durch die Maskierung maskiert werden.
  • Kennungseinheiten oder Tags 542, 543 können an Objekte, Pflanzen oder Tiere zusätzlich zu Personen platziert werden. Tags 542, 543 können zum Beispiel an ein Haus oder ein Auto angebracht werden. Gemäß unterschiedlichen Aspekten können unterschiedliche Tags 542, 543 oder Konfigurationen von Tags unterschiedliche Bedeutungen aufweisen, wie nachfolgend beschrieben. In einem Beispiel kann ein Tag ”nicht verfolgen” bedeuten, zum Beispiel das Tag 542. Ein weiteres Tag kann ”bitte verfolgen” bedeuten, wie beispielsweise das Tag 543. Ein anderes Tag kann ein Hilfe-Signal sein. Das Tag 542 kann für die Bilderfassungsvorrichtung 110 sichtbar sein, dies ist aber nicht notwendig. Gemäß unterschiedlichen Aspekten ist das Tag 542 für die Bilderfassungsvorrichtung 110 nicht sichtbar. Das Tag 542 kann einen Datenterminal (”DT”) aufweisen, zum Beispiel ein Mobiltelefon oder einen anderen aktiven Sender bzw. beacon.
  • Gemäß unterschiedlichen Aspekten umfasst das Tag 542 ein Ortungssystem, das geeignet ist, den Standort des Tags 542 in einem ausgewählten Referenzrahmen zu bestimmen. Das Ortungssystem kann eine GPS oder GLONASS-Empfänger, einen Triangulator, der eine Datenbank bekannter Standorte von in der Nähe befindlichen Funkquellen abfragt (zum Beispiel Mobiltelefontürme oder WiFi-Notspots) aufweisen. Das Ortungssystem kann auch einen Transceiver aufweisen, der mit zum Beispiel einem Radar kommuniziert, um Standortinformation zu empfangen, die durch das Radar bestimmt wurde. Gemäß einem Beispiel gingt das Radar das Tag 542 an, um den Azimut, die Schrägentfernung und optional eine Höhenangabe zu bestimmen, umwandelt diese dann in einen Standort in dem ausgewählten Referenzrahmen um und sendet diesen zurück zum Tag 542. In einem Beispiel umfasst das Tag 542 ein Mobiltelefon mit Hardware zur Standortbestimmung und Software zum Berichten des Standorts an eine Registratur, wie beispielsweise die Datenbank 599.
  • Gemäß anderen Aspekten wird der Standort des Tags 542 außerhalb des Tags 542 bestimmt. Zum Beispiel kann das Tag 542 ein Mobiltelefon oder eine andere Vorrichtung umfassen, die über ein Mobilfunknetzwerk kommunizieren. Der Provider des mobilen Dienstes trianguliert periodisch den Standort des Tags 542 unter Verwendung mehrerer Basisstationsantennen. Dies kann automatisch durch einen Prozessor durchgeführt werden, der durch den Serviceprovider betrieben wird. Eine Ausrüstung, die nicht Teil des Tags 542 ist zum Detektieren des Standorts des Tags 542 ist graphisch als eine optionale Ortungseinheit 555 dargestellt. Die Einheit 555 kann Antennen oder andere Detektionseinheiten aufweisen, die nicht Teil der Abbildungsplattform 100 sind und die nötig sind zum Triangulieren oder auf sonstige Art und Weise zum Bestimmen des Standorts des Tags 542. Gemäß unterschiedlichen Aspekten beeinflusst die Einheit 555 die eingebaute enhanced 911(E911)-Standortbestimmungseinheit, welche den Standort des Tags 542 bestimmen kann. Die Verwendung einer E911 und hiermit in Beziehung stehender Standortbestimmungstechnologie (zum Beispiel Triangulation, global positioning system, GPS, assisted GPS, aGPS, oder Standortbestimmung unter Verwendung bekannter Standorte von WiFi-Routern oder anderen HF-Signalquellen), Mobiltelefonträger oder anderer Kommunikations-Dienstleister kann Standortinformation für das Tag 542 vorsehen, ohne die Notwendigkeit einer Nutzerintervention oder Aktion, zum Beispiel ohne, dass eine spezialisierte Smartphone-App läuft. Gemäß unterschiedlichen Aspekten empfängt die Einheit 555 (zum Beispiel eine Mobiltelefonbasisstation) eine Präferenzeingabe von dem Nutzer (zum Beispiel von der Datenbank 599 oder einer anderen Datenbank). Der Nutzer kann die Präferenzeingabe einstellen, um zu bestimmen, ob der Standort des Tags 542 berichtet werden soll oder nicht.
  • Bei dieser Offenbarung wird das System, das den Standort des Tags 542 bestimmt als der ”Standort-Provider” bezeichnet. Der Standort Provider kann Teil des Tags 542 sein, oder auch nicht, wie oben beschrieben.
  • Der Standortprovider kommuniziert periodisch oder a-periodisch mit der Datenbank 599 zum Beispiel mit Intervallen wie oben beschrieben. Das Intervall kann durch einen Nutzer konfiguriert sein, zum Beispiel die Person 222. Der Nutzer kann das Intervall konfigurieren basierend auf seiner Geschwindigkeit und gewünschter Batterielebenszeit. Das Tag 542 oder der Standortprovider kann ein Nutzerinterface aufweisen, zum Beispiel ein Touchscreen oder ein Scroll-Rad, welches es der Person 222 ermöglicht, das Intervall zu verändern. Das Tag 542 oder der Standortprovider kann auch mit einem world wide web (www) server oder einer Smartphone-App interagieren, welche einen Befehl von dem User zum Tag 542 überträgt, um das Intervall zu verändern.
  • Gemäß unterschiedlichen Aspekten umfasst das Tag 542 eine eindeutige Kennung wie oben beschrieben. Der Standortprovider bestimmt den Standort des Tags 542 und aktualisiert die Datenbank 599 mit dem bestimmten Standort und der eindeutigen Kennung.
  • Gemäß unterschiedlicher Aspekte speichert die Datenbank 599 eindeutige IDs und Standorte, die von Standortprovidern empfangen wurden. Die Datenbank 599 speichert auch einen Nicht-Verfolgen-Merker für jede eindeutige Kennung. Die Datenbank 599 kann andere Merker für jede eindeutige Kennung speichern und sie kann für rasche Suche nach einem Standort organisiert sein (zum Beispiel unter Verwendung einer Quadtree-Unterteilung hinsichtlich Breitengrad und Längengradkoordinaten). Die Merker können des oben beschriebenen Typs sein. Wenn die Abbildungsplattform 100 arbeitet, kommuniziert sie über eine Verbindung (zum Beispiel eine Drahtlosverbindung über die Kommunikationsvorrichtung 187) mit dem Empfänger 130. Die Abbildungsplattform 100 kommuniziert periodisch an den Empfänger 130 seinen Standort oder einen Standort bzw. Standorte, die sich im Sichtbereich der Bilderfassungsvorrichtung 110 befinden. Zum Beispiel kann der Prozessor 186 an den Empfänger 130 einen Sichtbereich der Bilderfassungsvorrichtung 110 liefern, das heißt den Bereich, den die Bilderfassungsvorrichtung 110 sehen kann. Der Sichtbereich kann als ein Sichtpolygon kommuniziert werden, wie oben beschrieben.
  • Der Empfänger 130 fragt dann die Datenbank 599 mit dem Sichtpolygon ab. Die Datenbank 599 antwortet auf die Sichtpolygonabfrage vom Empfänger 130 mit den Koordinaten jedes Tags, das in dem Sichtpolygon angeordnet ist und für den Nicht-Verfolgten-Merker gesetzt wurde. In dem dargestellten Beispiel liefert die Datenbank 599 die Koordinaten des Tags 542 an den Empfänger 130. Der Empfänger 130 modifiziert dann die Bilddaten oder erzeugt geeignete Daten zum Vorsehen der Maskierung 332. Die Maskierung 332 kann eine generische Form (und Größe) besitzen, eine Form oder Größe basierend auf dem Abstand zwischen Bilderfassungsvorrichtung 110 und Tag 542, eine Form oder Größe, die in der Datenbank 599 gespeichert ist, oder irgendeine Kombination derselben. Gemäß unterschiedlichen Aspekten fragt der Prozessor 186 die Datenbank 599 mit dem Sichtpolygon ab. Der Prozessor 186 kann dann die Maskierungsdaten erzeugen oder die Bilddaten modifizieren, um Maskierung 332 vorzusehen. Gemäß unterschiedlichen Aspekten fragt der Empfänger 130 die Datenbank 599 mit der eindeutigen ID eines Tags 542 ab, das zum Beispiel unter Verwendung des Sensors 120 (5) detektiert wurde.
  • Gemäß jedem der hier beschriebenen Aspekte können die Daten in der Datenbank 599 für eine auswahlbare Zeitdauer, zum Beispiel 180 Tage gespeichert werden. Die Datenbank 599 kann Merker umfassen, welche angeben, dass die Daten länger gespeichert werden. Beim Abrufen von erfassten Bildern von der Datenbank 599 oder dem Speicher 131 können die Merker in der Datenbank 599 konsultiert werden, um die Suche rasch einzuengen auf eindeutige ID's mit gesetzten Verfolgenfeldern. In einem Beispiel können Eltern die Verfolgenfelder an Tags setzen, welche durch ihre Kinder getragen werden, so dass sie eine Aufzeichnung über die Bewegungen der Kinder besitzen. Gemäß unterschiedlichen Aspekten weist der Videorahmen 500 Verfolgenmerkmale von Interesse oder sowohl Verfolgen- und Nicht-Verfolgen-Merkmale von Interesse auf. In dem dargestellten Beispiel trägt die Person 223 ein Verfolgen-Tag 543 und ist daher mit dem Indikator 233 hervorgehoben. Die Hervorhebung wird durch den Empfänger 130 durchgeführt. Gemäß unterschiedlichen Aspekten antwortet die Datenbank 599, wenn der Empfänger 130 die Datenbank 599 abfragt mit den Standorten aller Tags in dem Sichtpolygon und mit den entsprechenden Merkern. Der Empfänger 130 untersucht die Merker und erzeugt entweder Maskierungen oder Indikatoren an den korrekten Standorten innerhalb des Videorahmens 500. Die Abbildungsplattform 100 oder der Empfänger 130 kann Pixelorte in einem Ort von der Bilderfassungsvorrichtung 110 mit dem Sichtpolygon georeferenzieren oder auf sonstige Weise korrelieren, um zu bestimmen, wo bestimmte Koordinaten in dem Videorahmen 500 erscheinen.
  • Gemäß unterschiedlichen Beispielen registriert ein Nutzer die eindeutige ID des Tags 542 oder die Koordinaten einer Parzelle oder eines Grundstücks in der Datenbank 599 und zeigt an, ob der Nicht-Verfolgen-Merker gesetzt werden sollte.
  • Der Empfänger 130 fragt während des Betriebs der Abbildungsplattform 100 die Datenbank 599 ab, zum Lokalisieren von Nicht-Verfolgen-Bereichen in dem Sichtpolygon. Der Empfänger 130 erzeugt Maskierungen, zum Beispiel Maskierung 332 oder Daten, welche anzeigen, wo Maskierungen vorgesehen werden sollten.
  • Maskierungen und Indikatoren können durch irgendeine Prozessorkomponente oder mehrere Prozessorkomponenten des Abbildungssystems hinzugefügt werden, zum Beispiel dem Prozessor 186 an der Abbildungsplattform 100 oder den Empfänger 130 oder durch eine nachfolgende Komponente, wie beispielsweise eine Speichereinheit.
  • 14 ist ein Flussdiagramm von Systemen zum Erzeugen von maskierten Bilddaten gemäß unterschiedlichen Aspekten. Die Bilderfassungsvorrichtung 110 liefert Bilddaten an den Prozessor 186. Ein optionaler Erfassungsortprovider 255 liefert einen Ort, dem das Bild entspricht, zum Beispiel die GPS-Koordinaten und die Orientierung (den Rollwinkel, den Nickwinkel und den Gierwinkel) der Bilderfassungsvorrichtung 110 zu dem Zeitpunkt, zu dem das Bild erfasst wurde (Orientierung kann unter Verwendung von Beschleunigungsmessern bestimmt werden). Gemäß unterschiedlichen Aspekten erzeugt der Prozessor 186 keine Maskierungen kann aber die Bilddaten in anderer Art und Weise modifizieren, zum Beispiel durch Georeferenzieren oder das Einstellen der Auflösung, des Kontrastes oder der Farbe. Der Prozessor 186 überträgt Bilddaten 1488 und optional assoziierte Daten 1489, zum Beispiel den Erfassungsort vom Provider 255, und zwar über die Datenverbindung 188 an den Empfänger 130. Leere Kreise repräsentieren Operationen, welche durch die Komponente durchgeführt werden, in der der Kreis dargestellt ist, wobei die Eingänge und Ausgänge der Operationen durch die Pfeile repräsentiert sind, welche mit den leeren Kreisen verbunden sind.
  • Gemäß unterschiedlichen Aspekten liefert der Empfänger 130 die Bilddaten und separat oder separierbar die assoziierten Daten an den Speicher 131. Der Empfänger 130 bestimmt auch eine Maskierung oder einen Indikator bzw. mehrere Markierungen oder Indikatoren und legt diese an. Der Empfänger 130 fragt die Datenbank 599 mit den assoziierten Daten oder mit Sichtpolygoninformation ab, die aus den empfangenen Bilddaten extrahiert wurden (zum Beispiel Orte von Orientierungspunkten in dem Bild). Wie oben beschrieben kann die Datenbank 599 auch mit der eindeutigen ID eines Tags abgefragt werden. Die assoziierten Daten können somit Identifikationsdaten des Tags 542 umfassen. Der Empfänger 130 verarbeitet die Bilddaten gemäß den Abfrageergebnissen 1459 zum Vorsehen maskierter Bilddaten 1490. Der Begriff ”maskierte Bilddaten” umfasst Bilder, an die nur Indikatoren angelegt wurden. Die maskierten Bilddaten werden an die Anzeige 132 geliefert und können im Speicher 131 gespeichert werden. Auf diese Art und Weise sind, ohne einen Gerichtsbeschluss oder eine andere menschliche Entscheidung nur die maskierten Daten sichtbar. Mit einem solchen Beschluss oder einer solchen Entscheidung können nicht maskierte Bilddaten aus dem Speicher 131 abgerufen werden. Gemäß unterschiedlichen Aspekten speichert der Speicher 131 keine Maskierungsdaten. Wie oben, zum Beispiel unter Bezugnahme auf 2 beschrieben, können Indikatoren zu den maskierten Bilddaten hinzugefügt werden, und zwar an Stelle oder zusätzlich zu Maskierungen.
  • Gemäß unterschiedlichen Aspekten umfasst der Speicher 131 eine oder mehrere Datenspeichervorrichtung(en), zum Beispiel Harddrives, welche sowohl unmaskierte Bilddaten als auch Maskierungsdaten speichern. Gemäß unterschiedlichen Aspekten umfasst der Datenspeicher 131 eine oder mehrere Datenspeichervorrichtung(en), die unmaskierte Bilddaten speichern und eine oder mehrere separate Datenspeichervorrichtung(en), die Maskierungsdaten speichern. Der Speicher 131 kann auch maskierte Bilddaten auf einer oder mehrerer Datenspeichervorrichtung(en) speichern, die nicht maskierte Bilddaten oder Maskierungsdaten tragen oder auch einer oder mehrerer separater Datenspeichervorrichtung(en).
  • Gemäß unterschiedlichen Aspekten kann ein kryptographischer oder sonstiger Schutz vorgesehen werden, so dass nicht maskierte Bilddaten in einer fälschungssicheren Art und Weise in dem Speicher 131 gespeichert werden. Der Empfänger 130 liefert maskierte Video oder Bilder an der Anzeige 132, aber die Rohdaten sind vom Speicher 131 verfügbar, und zwar auf einen Gerichtsbeschluss hin oder in anderen angebrachten Fällen.
  • Gemäß unterschiedlichen Aspekten erfasst die Abbildungsplattform 100 Bilder von Parkplätzen oder anderen Bereichen mit einer begrenzten Anzahl von zuweisbaren Bereichen (z. B. Parkplätzen auf einem Parkplatz, Campingplätzen in einem Park oder in einem Zeltplatz oder Anschlüsse in einem Wohnwagenpark). Der Prozessor 186, der Empfänger 130 oder eine oder mehrere andere Komponente(en) des Abbildungssystems analysieren die Bilddaten zum Bestimmen der Orte von verfügbaren zuweisbaren Bereichen. Diese Orte oder Richtungen zu diesen Orten von dem Standort eines Nutzers aus (z. B. dem Standort des Tags 542, das ein Smart Phone umfasst) werden dem Nutzer über das Tag 542 oder ein anderes Interface präsentiert. Gemäß einem Beispiel präsentiert eine Smart Phone App Richtungen zu dem nächsten verfügbaren zuweisbaren Bereich. Gemäß unterschiedlichen Aspekten präsentiert die Smart Phone App Bilddaten mit Indikatoren z. B. wie in 13 gezeigt, wenn der nächste verfügbare, zuweisbare Bereich in Sicht ist. Gemäß unterschiedlichen Beispielen liefert der Empfänger 130 Richtungen und Bilder mit Indikatoren an das Smart Phone 585 oder das Tag 542. Gemäß unterschiedlichen Beispielen ist das Telefon 585 Teil des Empfängers 130 und empfängt direkt Bilddaten von der Abbildungsplattform 100. Bei diesen zuletzt genannten Beispielen verarbeitet das Telefon 585 Daten zum Bestimmen der Standorte von Indikatoren und präsentiert diese Indikatoren auf dem Bildschirm des Telefons 585.
  • Gemäß unterschiedlichen Beispielen identifiziert der Empfänger 130 Targets in Bilddaten, die von der Bilderfassungsvorrichtung 110 empfangen wurden. Diese Targets werden identifiziert unter Verwendung von Standortinformation, die durch die Targets selbst (über Tag 542) in der Datenbank 599 gespeichert wurden. Bei bekannten Schemata sperren Nutzer Standortfunktionen an ihren Smart Phones, um die Privatsphäre zu erhöhen. Gemäß unterschiedlichen erfinderischen Aspekten, die hier beschrieben wurden, geben Nutzer diese Standortfunktionen frei und berichten ihre Standorte regelmäßig an die Datenbank 599 um ihre Privatsphäre zu erhöhen. Gemäß unterschiedlichen Beispielen geben Nutzer Standortfunktionen frei und berichten ihre Standorte um bemerkt zu werden, z. B. zum Vorsehen eines erhöhten Gefühls persönlicher Sicherheit. Hier beschriebene Aspekte erlauben es dem Nutzer auszuwählen, ob er durch eine Drohne ”bemerkt” und verfolgt werden will oder ob er nicht observierbar oder durch Drohnen nicht observiert werden will. Jede Einstellung besitzt jeweilige Vorteile und Anwendungen. Gemäß unterschiedlichen Aspekten liefert Drohnenbildgebung eine visuelle Bestätigung darüber bei wem ein verfolgtes Telefon oder ein anderer Transponder ist, in welcher Art Fahrzeug das Telefon transportiert wird, oder andere visuell erkennbare Daten, die mit dem Standort oder den Umständen bzw. der Umgebung des Transponders in Beziehung stehen.
  • 15 zeigt ein Flussdiagramm, das beispielhafte Verfahren zeigt zum Vorsehen von Maskierungsdaten. Die Schritte können in jeglicher Reihenfolge durchgeführt werden, es sei denn, es ist etwas anderes angegeben oder wenn Daten von einem früheren Schritt in einem späteren Schritt verwendet werden. In wenigstens einem Beispiel beginnt der Prozess mit dem Schritt 510 oder mit dem Schritt 532. Zur Vereinfachung der Erklärung wird hier auf unterschiedliche Komponenten, die in den 114 dargestellt sind, Bezug genommen, welche die Schritte des beispielhaften Verfahrens ausführen können, oder an diesem teilhaben können. Es sei jedoch bemerkt, dass andere Komponenten verwendet werden können, d. h. das bzw. die in 15 gezeigte(n) Verfahren ist/sind nicht darauf limitiert durch die identifizierten Komponenten durchgeführt zu werden.
  • Der Schritt 1510 umfasst das Empfangen von Bilddaten einschließlich eines Bildes eines Targets z. B. wie oben unter Bezugnahme auf die Bilderfassungsvorrichtung 110 beschrieben. Targets können Menschen, Gebäude oder andere Merkmale umfassen, wie oben beschrieben.
  • Der Schritt 1520 umfasst das Empfangen einer Präferenzeinstellung, die dem Target entspricht, z. B. von der Datenbank 599 oder direkt von einem Tag 342, 542 oder 543, wie oben beschrieben. Der Schritt 1520 oder andere Schritte, die in 15 gezeigt sind, können auch das Übertragen eines Zeitstempels, der den Bilddaten entspricht, an die Datenbank 599 aufweisen, z. B. zum Einloggen der Zeiten einer Observation durch eine Drohne, wie oben beschrieben.
  • Der Schritt 1530 umfasst das Bestimmen von Maskierungsdaten für wenigstens einen Teil der Bilddaten, welche dem Bild des Targets entsprechen, und zwar unter Verwendung der empfangenen Präferenzeinstellung und optional der empfangenen Bilddaten. Dies kann wie hier beschrieben erfolgen. Maskierungsdaten können Daten umfassen, die Hervorhebungen oder Indikatoren definieren, sowie grafische Strukturen zum Schutz der Privatsphäre. Gemäß unterschiedlichen Aspekten ist das Target ausgewählt aus der Gruppe bestehend aus einer Person, einem Gebäude oder einem Tier. Gemäß unterschiedlichen Aspekten umfasst der Bestimmungsschritt 1530 das Bestimmen einer Größe des Teils der Bilddaten unter Verwendung der empfangenen Bilddaten, z. B. durch Detektieren von Bildpixeln, die dem Target entsprechen, und zwar unter Verwendung von z. B. Gesichts- oder Formerkennungs-Algorithmen.
  • Gemäß unterschiedlichen Aspekten umfasst der Schritt 1540 das selektive Modifizieren der empfangenen Bilddaten gemäß den bestimmten Maskierungsdaten zum Vorsehen eines Überwachungsbildes. Die Modifikation (z. B. Anlegen von Maskierungen oder Indikatoren) kann z. B. durchgeführt werden durch den Prozessor 186 oder den Empfänger 130. Gemäß unterschiedlichen Beispielen umfasst der Schritt 1530 das Bestimmen wenigstens eines Teils der Bilddaten, die maskiert werden sollen, ansprechend auf eine Präferenzeinstellung, die Privatsphäre einfordert und der Schritt 1540 umfasst das Maskieren des bestimmten wenigstens einen Teils der Bilddaten. Gemäß unterschiedlichen Beispielen umfasst der Schritt 1530 das Bestimmen wenigstens eines Teils der Bilder zum Hervorheben bzw. Anzeigen, und zwar ansprechend auf eine Präferenzeinstellung, die erhöhte Sichtbarkeit des Targets einfordert und der Schritt 1540 umfasst das Modifizieren des bestimmten wenigstens einen Teils der Bilddaten um Daten eines sichtbaren Indikators vorzusehen.
  • Gemäß unterschiedlichen Aspekten umfasst der Schritt 1532 das Empfangen einer eindeutigen Kennung des Targets, z. B. einer GUID. Der Schritt 1520 umfasst den Schritt 1534 des Übertragens der empfangenen eindeutigen Kennung an eine Datenbank und den Schritt 1536 des Empfangens von der Datenbank der Präferenzeinstellung, die der eindeutigen Kennung entspricht.
  • Gemäß unterschiedlichen Aspekten entsprechen die Bilddaten einem Sichtbereich, wie oben beschrieben. Der Schritt 1520 umfasst den Schritt 1538 des Übertragens von Daten (z. B. eines Sichtpolygons) des Sichtbereichs an eine Datenbank zum Bestimmen ob das Target sich in dem Sichtbereich befindet. Der Schritt 1536 umfasst das Empfangen von der Datenbank der Präferenzeinstellung oder einer Anzeige, dass das Target nicht in dem Sichtbereich ist. Wenn das Target nicht vorhanden ist, können die Schritte 1530 und 1540 weggelassen werden.
  • Unterschiedliche Aspekte umfassen den Schritt 1538 oder das Speichern der bestimmten Maskierungsdaten in einer Speichervorrichtung. Die Speichervorrichtung kann eine fälschungssichere Speichervorrichtung sein, z. B. Speicher 131 mit Sicherheitseinheit 1056.
  • 16 zeigt ein Flussdiagramm, das beispielhafte Verfahren zum Vorsehen von Überwachungsbilddaten zeigt. Wie oben beschrieben, ist die Reihenfolge der dargestellten Schritte und der genannten Komponenten nicht einschränkend. Gemäß unterschiedlichen Beispielen beginnt der Prozess mit einem der Schritte 1602, 1610, 1631 oder 1632.
  • Der Schritt 1610 umfasst das Erfassen von Bilddaten einschließlich eines Bildes eines Targets. Der Schritt 1620 umfasst die Abfrage der Datenbank 599 zum Empfangen einer Präferenzeinstellung, die dem Target entspricht. Der Schritt 1630 umfasst das Bestimmen von Maskierungsdaten von wenigstens einem Teil der Bilddaten, die dem Target entsprechen oder des Bildes des Targets unter Verwendung der empfangenen Präferenzeinstellung und optional der empfangenen Bilddaten, wie z. B. wie hier beschrieben. Der Schritt 1640 umfasst das selektive Modifizieren der empfangenen Bilddaten gemäß den bestimmten Maskierungsdaten zum Vorsehen der Überwachungsbilddaten. Dies kann, wie oben beschrieben, durchgeführt werden.
  • Gemäß unterschiedlichen Aspekten entsprechen die Bilddaten einem Sichtbereich. Der Abfrageschritt 1620 umfasst den Entscheidungsschritt 1625, der Abfrage der Datenbank mit dem Sichtbereich um zu bestimmen, ob ein Target in dem Sichtbereich vorhanden ist oder nicht. Wenn das Target vorhanden ist, werden die Bestimmungs- und Modifizierungsschritte 1630, 1640 durchgeführt. Der Abfrageschritt 1620 kann den Schritt 1638 des Lieferns von Koordinaten eines Sichtpolygons, das dem Sichtbereich entspricht, an die Datenbank aufweisen. Dies kann, wie oben beschrieben, durchgeführt werden.
  • Gemäß unterschiedlichen Aspekten umfasst der Abfrageschritt 1620 das Empfangen einer Maskierungslage von der Datenbank, welche einen oder mehrere Bereich(e) repräsentiert, die maskiert werden sollen, z. B. wie oben unter Bezugnahme auf die 68 beschrieben. Der Bestimmungsschritt 1630 umfasst das Bestimmen von Koordinaten in Bilddaten, die dem/der Bereich(e) entsprechen.
  • Gemäß unterschiedlichen Aspekten gehen die Schritte 1602 und 1604 dem Schritt 1620 voran. Im Schritt 1602 werden die Präferenzeinstellung und eine Identität des Targets empfangen. Im Schritt 1604 werden die empfangene Einstellung und die Identität in der Datenbank 599 gespeichert. Dies kann, wie oben beschrieben, durchgeführt werden, z. B. durch Vorsehen eines Web oder Telefoninterfaces, das ein Nutzer verwenden kann, um eine Präferenz bezüglich einer Maskierung einer Anzeige bzw. Hervorhebung zu registrieren.
  • Gemäß unterschiedlichen Aspekten umfasst der Schritt 1632 das Empfangen einer eindeutigen Kennung, die dem Target entspricht, z. B. vom Sensor 120, einem Standortprovider (z. B. einem Mobiltelefon-Serviceprovider) oder durch Analyse der Bilddaten des Tags. Gemäß unterschiedlichen Aspekten umfasst der Schritt 1632 das Übertragen eines Hochfrequenz(HF)-Abfragesignals und das Empfangen eines HF-Identifikationssignals ansprechend darauf, wobei das HF-Identifikationssignal Daten der eindeutigen Kennung umfasst. Der Abfrageschritt 1620 umfasst den Schritt 1634 des Übertragens der eindeutigen Kennung an die Datenbank.
  • Unterschiedliche Aspekte der Bildanalyse, die in dem vorherigen Absatz beschrieben wurden umfassen das Lokalisieren eines Tags des Targets in den Bilddaten, z. B. wie oben beschrieben, und das Decodieren einer Targetkennung des Tags. Diese Aspekte sind nützlich mit Tags, die so konfiguriert sind, dass die Targetkennung visuell in den Bilddaten repräsentiert ist. Der Abfrageschritt 1620 umfasst das Übertragen der decodierten Targetkennung an die Datenbank 599. Gemäß anderen Aspekten zeigt der Barcode eine Präferenzeinstellung oder eine Gruppe von Menschen an, die eine gemeinsame Präferenzeinstellung teilen. Gemäß unterschiedlichen hier beschriebenen Aspekten kann eine eindeutige Kennung eine Gruppe von Menschen oder Targets identifizieren. Der Barcode oder eine andere visuelle Darstellung kann Instruktionen an die Drohne umfassen. In einem Beispiel entspricht die Information in der Darstellung einer Richtlinien- oder Regeleinstellung, die in der Datenbank 599 gespeichert ist, wie beispielsweise einer Gültigkeitsperiode. Zum Beispiel kann ein Barcode mit den Daten ”42” einer Aufzeichnung entsprechen, die anzeigt, dass Privatsphäre gegenüber Drohnen während bestimmter Tageszeiten oder bestimmter Tage des Jahres oder in bestimmten Orten erlaubt ist. Die Nummer ”42” kann z. B. als ein Barcode durch eine Anzahl von Personen getragen werden. Die Daten ”42” können verschlüsselt, signiert oder beides sein. ”42” kann ein Datenbankschlüssel sein. Alle Personen, die denselben Code tragen, werden in derselben Art und Weise durch die Abbildungsplattform 100 behandelt. Tags können auch Sicherheitsschlüsseln entsprechen. In einem Beispiel besitzen Polizeifahrzeuge spezifische Tags für jeden Tag. Die Daten in einem Barcode können kryptografisch signiert sein, um sie gegenüber der Datenbank 599 zu authentifizieren oder gegenüber einer anderen zentralen Autorität. Digitale Signaturen können gespeichert und übertragen werden als Teil der eindeutigen ID oder sie können separat gespeichert und übertragen werden als Teil der eindeutigen ID oder sie können separat gespeichert oder übertragen werden. All diese Aspekte, die in diesem Absatz beschrieben sind, gelten für nicht sichtbare Tag-IDs, wie z. B. HF-übertragene Gruppen oder Richtlinien-IDs. All die Aspekte, die in diesem Absatz beschrieben werden, gelten für Individuen sowie für Gruppen. Gruppencodes bieten in vorteilhafter Weise eine gewisse Anonymität der Individuen, selbst wenn die Gruppenmitgliedschaft verfolgt werden kann. Die Gruppenmitgliedschaft kann aufgezeichnet werden mit Präferenzeinstellungen oder auch separat von Präferenzeinstellungen. Gültigkeitsperioden und kryptografische Signaturen können kombiniert werden, z. B. um sicher zu stellen, dass Gültigkeitsperioden nicht gefälscht werden. Daten, welche die Gültigkeitsperiode oder andere Regeleinstellungen anzeigen und kryptografische Signaturen, die diesen Einstellungen entsprechen, können auf dem Tag 542 gespeichert werden, in der Datenbank 599 oder in anderen Datenspeichersystemen 940. Zum Beispiel kann das Tag kryptografisch signierte Daten seiner Gültigkeitsperiode umfassen. Annullierungslisten, wie sie in der Technik bekannt sind, können verwendet werden, um anzeigen, dass ein ausgewähltes Tag oder eine eindeutige ID nicht als gültig angesehen wird, selbst wenn die ID korrekt signiert ist. Gemäß unterschiedlichen Beispielen kann die Kennung mit einer Gültigkeitsinformation assoziiert sein, z. B. einer Gültigkeitsperiode, Signatur oder einer ausstellenden Autorität bzw. Behörde. Verfahren, wie sie hier beschrieben sind, z. B. anhand der 15 und 16, können ferner das Empfangen einer Kennung des Targets und einer Gültigkeitsinformation der Kennung umfassen und das Bestimmen ob die Verwendung der Kennung die Gültigkeitsinformation erfüllt, z. B. durch Testen des Datums oder einer Signatur, wie oben beschrieben. Gemäß unterschiedlichen Beispielen liefert ein Bilderfassungssystem Bilddaten an einen Prozessor. Der Prozessor bestimmt Maskierungsdaten und liefert die Maskierungsdaten an das Bilderfassungssystem. Das Bilderfassungssystem modifiziert dann die Bilddaten gemäß den Maskierungsdaten zum Vorsehen der Überwachungsbilddaten.
  • Gemäß unterschiedlichen Beispielen wird eine Kopie der Daten aus der Datenbank 599 in ein Datenspeichersystem 940 in der Abbildungsplattform 100 geladen. Dies ermöglicht der Abbildungsplattform 100 in unterschiedlichen Beispielen ohne Übertragung irgendeines HF-Signals zu arbeiten, welches einen Kriminellen hinsichtlich der Gegenwart einer Überwachungsvorrichtung warnen könnte. Die Abbildungsplattform 100 kann autonom arbeiten, und intern Bilddaten und Maskierungsdaten für einen späteren Abruf aufzeichnen. In unterschiedlichen Beispielen puscht die Datenbank 599 Daten zu der Abbildungsplattform 100 (oder den Empfänger 130 und zwar durchgängig in diesem Absatz). Die Abbildungsplattform 100 kann sich in der Datenbank 599 registrieren, um relevante Aktualisierungen zu erhalten, z. B. hinsichtlich eines bestimmten geographischen Bereichs (oder Targettyps, z. B. Menschen oder Häuser; oder eines eindeutigen ID-Bereichs oder anderer Merkmale; oder hinsichtlich aller Daten, die der Datenbank bekannt sind), und die Datenbank 599 kann eindeutige IDs, Koordinaten, Maskierungsdaten, Präferenzeinstellungen oder andere Informationen an die Abbildungsplattform 100 übertragen, z. B. während sich Targets in den geografischen Bereich hinein und aus diesem heraus bewegen (oder hinsichtlich anderer registrierter Kategorien). Die Datenbank 599 kann Aktualisierungen in Gruppen von einer oder mehrerer Aufzeichnungen pro Übertragung vorsehen. Die Datenbank 599 kann Daten pushen oder die Abbildungsplattform 100 kann Daten ziehen, und zwar gemäß einem Plan oder bei Bedarf bzw. bei Nachfrage. Gemäß unterschiedlichen Beispielen umfasst die Abbildungsplattform 100 ein Sicherheitssystem, z. B. für ein Bürogebäude, ein Einkaufscenter oder einen anderen Raum mit kontrolliertem Zugang zu einem oder mehreren Bereich(en). Angestellte oder andere autorisierte Personen können Nicht-Verfolgen-Tags bekommen und Targets können aufgezeichnet werden, wenn sie nicht getaggt sind oder Besucher oder andere Personen, die nicht autorisiert sind, können Verfolgen-Tags bekommen und Targets werden nicht aufgezeichnet, es sei denn sie sind getaggt. In einer anderen Situation (oder anderen Kombinationen) wird die Privatsphäre von autorisierten Personen geschützt und die Aktivitäten von anderen (z. B. Mitgliedern der allgemeinen Öffentlichkeit) werden aufgezeichnet.
  • Gemäß unterschiedlichen oben beschriebenen Beispielen besitzt das Tag einen sichtbare Barcode oder eine andere visuelle Darstellung einer eindeutigen ID. Die Abbildungsplattform 100 (oder Empfänger 130) kann den Barcode in den Bilddaten erkennen, den Barcode decodieren zum Bestimmen der eindeutigen ID und die eindeutige ID der Datenbank 599 nachschauen oder eine andere Prozessierung vornehmen, wie oben beschrieben.
  • Ein Überwachungssystem kann Folgendes aufweisen: ein Speichersystem, das eine Kennung eines Targets und eine entsprechende Präferenzeinstellung speichert; eine Bilderfassungsvorrichtung, die Bilddaten einer Szene erzeugt; eine Target-Erkennungsvorrichtung zum Lokalisieren eines Targets in den Bilddaten und wenn ein Target lokalisiert wurde, zum Liefern einer Kennung des lokalisierten Targets; und einen Prozessor, der die Bilddaten von der Bilderfassungsvorrichtung und die gelieferte Kennung von der Target-Erkennungsvorrichtung empfängt, wobei der Prozessor konfiguriert ist zum Abrufen von dem Speichersystem der Präferenzeinstellung, die der gelieferten Kennung entspricht, und zum selektiven Modifizieren wenigstens eines Teils der Bilddaten, die dem lokalisierten Target entsprechen und zwar basierend auf der Präferenzeinstellung.
  • Die Target-Erkennungsvorrichtung kann den Prozessor umfassen. Das System kann eine Anzeige umfassen, die konfiguriert ist zum Empfangen und Anzeigen der modifizierten Bilddaten von dem Prozessor. Der Prozessor kann konfiguriert sein zum Maskieren des wenigstens einen Teils der Bilddaten, ansprechend auf eine Präferenzeinstellung, die Privatsphäre anfordert. Das System kann ein Nutzer-Interface oder eine andere Vorrichtung umfassen zum Empfangen der Präferenzeinstellung von einem Nutzer und zum Speichern der Kennung des Targets und der empfangenen Präferenzeinstellung in dem Speichersystem. Das Nutzer-Interface kann einen Prozessor umfassen, der konfiguriert ist zum Übertragen der Kennung des Targets und der empfangenen Präferenzeinstellung an das Speichersystem, und zwar über ein Netzwerk.
  • Ein Tag kann konfiguriert sein zum Vorsehen der Kennung des lokalisierten Targets. Das Tag kann eine sichtbare Anzeige der Kennung des lokalisierten Targets umfassen, und die Target-Erkennungsvorrichtung kann konfiguriert sein zum Lokalisieren der visuellen Anzeige in den Bilddaten und zum Bestimmen der Kennung des lokalisierten Targets unter Verwendung der Bilddaten, die der sichtbaren Anzeige entsprechen. Die Target-Erkennungsvorrichtung kann konfiguriert sein zum Lokalisieren spezifischer Farben, Formen oder anderer visueller Merkmale in den Bilddaten eines Rahmens. Das Tag kann einen Transponder umfassen, der konfiguriert ist zum Vorsehen eines Hochfrequenz(HF)-Identifikationssignals der Kennung des lokalisierten Targets und die Target-Erkennungsvorrichtung kann einen HF-Empfänger umfassen, der konfiguriert ist zum Empfangen des HF-Identifikationssignals. Die Target-Erkennungsvorrichtung kann Übertragungselektronik umfassen, die konfiguriert ist zum Vorsehen eines HF-Abfragesignals an das Tag, wobei das Tag konfiguriert ist zum Übertragen des HF-Identifikationssignals als Antwort auf das HF-Abfragesignal. Die Target-Erkennungsvorrichtung kann konfiguriert sein zum Bestimmen wenigstens eines Teils der Bilddaten, die dem lokalisierten Target entsprechen durch Messen des HF-Identifikationssignals und durch Detektieren eines Standorts des Tags bezüglich der Bilderfassungsvorrichtung unter Verwendung der Messungen.
  • Das System kann einen Standortprovider umfassen, der konfiguriert ist zum Vorsehen von Standortdaten des Tags. Das Speichersystem kann ferner konfiguriert sein zum Speichern der Standortdaten in Assoziation mit der Kennung des Targets. Die Bilderfassungsvorrichtung kann konfiguriert sein zum Vorsehen von Sichtdaten eines räumlichen Bereichs, der der Szene entspricht, z. B. eines Sichtpolygons. Die Target-Erkennungsvorrichtung kann konfiguriert sein zum Liefern der Sichtdaten an das Speichersystem und zum Abrufen aus dem Speichersystem der Kennung des Targets, wenn sich das Target in dem räumlichen Bereich befinden kann.
  • Gemäß unterschiedlichen Beispielen kann der Punkt angezeigt werden durch den gespeicherten Standort anstelle der Verwendung der Bilddaten. Zum Beispiel kann die Target-Erkennungsvorrichtung ferner konfiguriert sein zum Abrufen der gespeicherten Standortdaten des Targets, wenn sich das Target innerhalb des räumlichen Bereichs befindet. Der Prozessor kann ferner konfiguriert sein zum Bestimmen des wenigstens einen Teils der Bilddaten unter Verwendung der abgefragten Standortdaten und der Sichtdaten, z. B. um die Koordinaten auf das Sichtpolygon zu mappen und auf das Bild zu projizieren, wie es in der 3D-Graphik-Verarbeitung bekannt ist.
  • Das Tag kann den Standortprovider umfassen, und kann konfiguriert sein zum Übertragen der Standortdaten und der Kennung des lokalisierten Targets an das Speichersystem. Das Tag kann ein Mobiltelefon umfassen, auf dem z. B. eine App läuft. Das Tag kann einen Transponder umfassen, der konfiguriert ist zum Vorsehen eines Hochfrequenz(HF)-Identifikationssignals der Kennung des lokalisierten Targets und der Standortprovider kann einen oder mehrere HF-Empfänger umfassen, der/die konfiguriert ist/sind zum Empfangen des HF-Identifikationssignals und zum Bestimmen des Standorts des Tags. Zum Beispiel umfasst das Tag ein Mobiltelefon oder ein anderes Drahtlos-Kommunikationsgerät, wobei ein Netzwerkprovider, der eine Verbindung für das Gerät vorsieht, eine Triangolation oder andere Techniken verwenden kann, um das Gerät im Raum zu lokalisieren. Das Target kann eine Person oder ein Gebäude sein.
  • Gemäß unterschiedlichen Beispielen wird das Maskieren oder Anzeigen an der Abbildungsplattform 100 durchgeführt. Die Plattform umfasst eine optoelektronische Bilderfassungsvorrichtung 110, die Bilddaten einer Szene und Sichtdaten eines räumlichen Bereichs entsprechend der Szene produziert, z. B. ein Sichtpolygon. Ein Tag-Sensor 120 ist konfiguriert zum Detektieren von einem oder mehreren Tag(s) in dem räumlichen Bereich und zum Detektieren jeweiliger eindeutiger Kennungen (UIDs) des/der detektierten Tag(s). Ein Kommunikationsinterface ist konfiguriert zum Kommunizieren mit einem Speichersystem. Ein Prozessor ist geeignet, die Bilddaten und die UID(s) zu empfangen, jeweilige Präferenzeinstellung(en) für die UID(s) aus dem Speichersystem abzufragen über das Kommunikationsinterface und zum selektiven Modifizieren eines bzw. mehrerer Teil(e) der Bilddaten, entsprechend dem/der detektierten Tag(s), ansprechend auf die jeweilige(n) Präferenzeinstellung(en).
  • Gemäß unterschiedlichen Beispielen wird das Maskieren oder Anzeigen durchgeführt unter Verwendung von Information, die durch die Plattform 100 geliefert wird. Bei einigen Beispielen umfasst die Abbildungsplattform 100 eine optoelektronische Bilderfassungsvorrichtung 110, die Bilddaten einer Szene und Sichtdaten eines räumlichen Bereichs entsprechend der Szene, z. B. ein Sichtpolygon, erzeugt. Ein Tag-Sensor 120 detektiert einen oder mehrere Tag(s) in dem räumlichen Bereich und detektiert entsprechende eindeutige Kennung(en) (UIDs) des/der detektierten Tag(s). Ein Kommunikationsinterface ist konfiguriert zum Vorsehen der Bilddaten und der UIDs der Tags an einen Empfänger. Der Tag-Sensor kann ferner konfiguriert sein zum Detektieren eines oder mehrerer jeweiliger Standort(e) eines oder mehrerer Tag(s) und das Kommunikationsinterface kann ferner konfiguriert sein zum Vorsehen des/der Standort(e) an den Empfänger.
  • Gemäß unterschiedlichen Beispielen kann ein Abbildungssystem zum Vorsehen eines Bildes eine Datenbank 599 umfassen, die Information darüber speichert, ob Bilddaten, die einem Target entsprechen, zu modifizieren sind. Eine optoelektronische Bilderfassungsvorrichtung kann Bilddaten erzeugen. Ein Prozessor kann die Bilddaten empfangen und das Bild liefern. Eine Target-Erkennungsvorrichtung kann bestimmen, dass ein Target in einem Rahmen der Bilddaten, die durch die Bilderfassungsvorrichtung erfasst wurden, vorhanden ist. Dies kann z. B. durch Gesichtserkennung oder Merkmalserkennung oder andere Techniken, die oben beschrieben wurden, erfolgen. Der Prozessor spricht in einigen Beispielen auf die Target-Erkennungsvorrichtung an, um dann wenn das Target in dem Rahmen vorhanden ist, die Datenbank abzufragen, um zu bestimmen, ob die Bilddaten für ein bestimmtes Target zu modifizieren sind. Die Datenbank sieht eine Anfrage-Antwort vor, die eine Präferenzeinstellung umfasst, wenn das Target vorhanden ist, und der Prozessor modifiziert die Bilddaten nur dann, wenn die Präferenzeinstellung anzeigt, dass eine solche Modifikation durchgeführt werden soll. (Es sei bemerkt, dass das Maskieren einiger Daten automatisch die nicht maskierten Daten hervorhebt, für die sich ein Beobachter interessieren könnte, wie oben beschrieben). Der Prozessor modifiziert selektiv wenigstens einen Teil der Bilddaten des Rahmens, die dem detektierten Target entsprechen und zwar basierend auf dem Anfrageergebnis.
  • Unterschiedliche Kombinationen der obigen Vorgehensweise können eingesetzt werden. Zum Beispiel kann die Bestimmung einer Anfrage für die Datenbank, die Durchführung der Datenbankanfrage, das Erzeugen von Maskierungsdaten und das Modifizieren des Bildes gemäß den Anfrageergebnissen und der detektierten Target(s) in irgendeiner Reihenfolge durchgeführt werden, wobei sich natürlich Einschränkungen daraus ergeben, dass bei einem Vorgang Daten eingehen, die aus einem anderen Vorgang stammen. Die Schritte oder Teile der Schritte können durch jede Komponente des Abbildungssystems 190 ausgeführt werden, wie oben beschrieben. Daten können in beide Richtungen zwischen den Komponenten ausgetauscht werden, z. B. hin und her zwischen der Plattform 100 und dem Empfänger 130 oder Prozessoren (z. B. Prozessor 186) innerhalb dieser Komponenten. Der Prozessor 186 kann die Datenbank abfragen und die Präferenzeinstellung kann den Empfänger 130 liefern. Der Prozessor 186 kann Maskierungsdaten vorsehen. Der Prozessor 186 kann Tags detektieren und Kennungen an den Empfänger 130 liefern, der wiederum die Datenbank abfragen kann. Der Prozessor 186 kann keine Information über die Bilddaten hinaus an den Empfänger 130 liefern. Gemäß unterschiedlichen Beispielen umfasst das durch die Abbildungsplattform 100 erfasste Bild Bilddaten bekannter Objekte oder Orientierungspunkte und der Empfänger 130 lokalisiert diese Bilddaten, bestimmt die Position der Abbildungsplattform 100 zum Zeitpunkt des Erfassens des Bildes durch Projizieren der Bilddaten auf die bekannten Koordinaten der Orientierungspunkte und bestimmt ein Sichtpolygon aus der bestimmten Position oder den Positionen der Orientierungspunkte. Gemäß unterschiedlichen Beispielen umfasst das Bild von der Abbildungsplattform 100 Bilder von Tags, z. B. Tag 342 und der Empfänger 130 lokalisiert die Tags in den Bildern, bestimmt die eindeutigen Kennungen und fragt die Datenbank ab.
  • In unterschiedlichen Beispielen produziert der Sensor 120 ein Sensorbild mit einer bekannten Beziehung zu den Bilddaten (z. B. ein für die Menschen sichtbares Bild), das durch die Bilderfassungsvorrichtung 110 erfasst wurde. Zum Beispiel kann der Sensor 120 eine Infrarot(IR)-Kamera oder eine Richtantenne aufweisen und das Sensorbild kann Intensität einer IR- oder HF-Emission darstellen. Der Prozessor 186 oder der Empfänger 130 können die Standorte von Identifikationen von Tags bestimmen, unter Verwendung des Sensorbildes und dann Maskierungen an die Bilddaten anlegen. Herkömmliche Bildverarbeitungstechniken, wie beispielsweise Projektion und affine Abbildungen bzw. Transformationen können verwendet werden um Pixelstandorte in dem Sensorbild auf Pixelstandort in den Bilddaten zu mappen.
  • Gemäß unterschiedlichen Beispielen erzeugt die Bilderfassungsvorrichtung 110 ein Fehlfarbenbild, z. B. aus infrarotem oder ultraviolettem Licht, Röntgenstrahlen, Magnetresonanzbildern, berechneten Tomografiebildern oder anderen Strahlungs- oder Energiebildern. Die Bilddaten repräsentieren somit eine Sicht von einem oder mehreren Target(s), das anders ist als zusätzlich zu einer Ansicht im sehbaren Lichtbereich. Maskierungen oder Indikatoren können diesem Bild zugefügt werden, und zwar in derselben Art und Weise wie für ein sichtbares Bild oben beschrieben.
  • Gemäß unterschiedlichen Beispielen ist eine Überwachungsvorrichtung oder ein Überwachungssystem über eine drahtgebundene oder drahtlose Verbindung mit einer Monitorkonsole verbunden. Die Überwachungsvorrichtung überträgt Bilddaten an die Monitorkonsole. Die Überwachungsvorrichtung kann auch Standortdaten übertragen, z. B. darüber, in welche Richtung die Kamera der Überwachungsvorrichtung weist, oder was die Kamera derzeitig betrachtet. Die Überwachungsvorrichtung kann auch Daten von Teilen der Szene (z. B. Breitengrad und Längengrad, oder Referenzen zu stationären oder anderen Merkmalen, die in dem Bild sichtbar sind, z. B. Bildmarken oder Gebäude oder Säulen innerhalb eines Gebäudes) oder Teile des Bildes (z. B. x- und y-Koordinaten) übertragen, die auf der Monitorkonsole mit variierten graphischen Erscheinungen repräsentiert werden sollen, z. B. überlagert mit einem Merkmal, um ein Subjekt, das in den Bilddaten sichtbar ist, mehr oder weniger sichtbar zu machen. Die Überwachungsvorrichtung kann auch Bilddaten mit solchen angelegten Variationen übertragen. Die Monitorkonsole kann alternativ diese Verarbeitung durchführen, oder die Monitorkonsole und die Überwachungsvorrichtung können die Verarbeitung teilen.
  • Die Monitorkonsole oder die Überwachungsvorrichtung können Subjekte von Interesse oder potentiellem Interesse in den Bilddaten oder im Sichtfeld der Kamera lokalisieren. Alternativ kann eine separate Lokalisierungsvorrichtung, Schaltung oder ein Programm Subjekte von Interesse oder potentiellem Interesse lokalisieren.
  • Gemäß unterschiedlichen Beispielen ist die Überwachungsvorrichtung- oder das System ein Beispiel einer Abbildungsplattform 100 oder eines Abbildungssystems 190. Die Monitorkonsole ist ein Beispiel eines Empfängers. Die variierte Grafikerscheinung ist ein Beispiel einer Maskierung oder Hervorhebung. Das Subjekt ist ein Beispiel eines Targets.
  • Die Erfindung umfasst Kombinationen der hier beschriebenen Aspekte. Referenzen zu ”einem bestimmten Aspekt” und ähnlichem beziehen sich auf Merkmale, die in wenigstens einem Aspekt der Erfindung enthalten sind. Separate Referenzen zu ”einem Aspekt” oder ”bestimmten Aspekten” oder ähnlichem beziehen sich nicht notwendigerweise auf denselben Aspekt oder dieselben Aspekte; jedoch schließen sich solche Aspekte nicht gegenseitig aus, es sei denn, dass es angezeigt ist oder sich für den Fachmann leicht ergibt. Die Verwendung des Singulars oder Plurals bei der Bezugnahme auf ”Verfahren” und ähnlichem ist nicht einschränkend. Das Wort ”oder” ist in diese Offenbarung in einem nicht ausschließenden Sinn gebraucht, es sei denn es ist in anderer Weise explizit angezeigt.
  • Die Erfindung wurde im Detail unter bestimmter Bezugnahme auf bestimmte bevorzugte Aspekte derselben beschrieben, aber es sei bemerkt, dass Variationen, Kombinationen und Modifikationen durch einen Fachmann durchgeführt werden können, welche innerhalb des Wesens und Umfangs der Erfindung liegen.

Claims (15)

  1. Eine Überwachungsvorrichtung (130), die Folgendes aufweist: eine Kommunikationsvorrichtung (137), die geeignet ist zum Empfangen von Bilddaten (1488) und von Identifikationsdaten (1489) eines Targets, das in den Bilddaten sichtbar ist; und ein Prozessor (910) der geeignet ist zum Empfangen der Bilddaten, zum Empfangen einer Präferenzeinstellung, die den Identifikationsdaten entspricht, und zum selektiven Modifizieren wenigstens eines Teils der Bilddaten, die dem Target entsprechen, und zwar gemäß der Präferenzeinstellung.
  2. Überwachungsvorrichtung nach Anspruch 1, wobei der Prozessor (910) geeignet ist zum Modifizieren der Bilddaten zum Maskieren des Targets in den Bilddaten und zwar ansprechend auf eine Präferenzeinstellung, die Privatsphäre einfordert.
  3. Überwachungsvorrichtung nach einem der vorhergehenden Ansprüche, die ferner ein Ausgabesystem (139) aufweist, das geeignet ist zum Vorsehen bzw. Liefern der modifizierten Bilddaten.
  4. Überwachungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Kommunikationsvorrichtung (137) einen Netzwerk-Transceiver aufweist, und der Prozessor (910) geeignet ist zum Empfangen der Präferenzeinstellung über den Netzwerk-Transceiver.
  5. Überwachungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Identifikationsdaten eine eindeutige Kennung eines Targets oder einen Standort eines Targets aufweisen.
  6. Überwachungsvorrichtung nach einem der vorhergehenden Ansprüche, wobei die Identifikationsdaten eine eindeutige Kennung aufweisen, die mit einer kryptographischen Signatur oder einer Gültigkeitsperiode assoziiert ist.
  7. Überwachungssystem, das Folgendes aufweist: eine Bilderfassungsvorrichtung (110), die geeignet ist zum Erzeugen von Bilddaten (1488) einer Szene; eine Datenbank (599), die geeignet ist zum Speichern einer oder mehrerer Präferenzeinstellung(en); und eine Überwachungsvorrichtung (130) nach einem der vorhergehenden Ansprüche.
  8. Überwachungssystem nach einem der vorhergehenden Ansprüche, wobei die Überwachungsvorrichtung (130) geeignet ist zum Empfangen der Bilddaten von der Bilderfassungsvorrichtung (110), wobei der Prozessor (910) der Überwachungsvorrichtung (130) geeignet ist zum Empfangen der Identifikationsdaten und zum Übertragen einer Abfrage an die Datenbank (599), wobei die Abfrage die Identifikationsdaten (1489) aufweist, und wobei die Datenbank (599) geeignet ist zum Empfangen der Abfrage von dem Prozessor (910) und zum Übertragen einer entsprechend gespeicherten Präferenzeinstellung an den Prozessor (910).
  9. Überwachungssystem nach einem der vorhergehenden Ansprüche, wobei die Bilderfassungsvorrichtung (110) ferner geeignet ist zum Erzeugen der assoziierten Daten (1489), die einen Sichtbereich der Bilderfassungsvorrichtung (110) anzeigen, wobei die Datenbank (599) ferner geeignet ist zum Speichern der jeweiligen Präferenzeinstellungen von einem oder mehreren Target(s) und eines jeweiligen Standorts des/dieser Target(s) und zum Antworten auf die Abfrage mit der Präferenzeinstellung und dem Standort eines Targets innerhalb des Sichtbereichs, und wobei der Prozessor ferner geeignet ist, zum Modifizieren des Teils der Bilddaten, welche dem Sichtbereich und dem Standort entsprechen nur dann, wenn die Präferenzeinstellung anzeigt, dass eine solche Modifikation durchgeführt werden soll.
  10. Überwachungssystem nach einem der vorhergehenden Ansprüche, das ferner einen Standortprovider (555) aufweist, der geeignet ist zum periodischen Vorsehen des Standorts des Targets an die Datenbank (599).
  11. Überwachungssystem nach einem der vorhergehenden Ansprüche, wobei die Identifikationsdaten eine eindeutige Kennung aufweisen, die mit einer kryptographischen Signatur oder einer Gültigkeitsperiode assoziiert ist, und wobei die Datenbank (599) ferner geeignet ist zum Speichern von Information, die sich auf die kryptographische Signatur oder die Gültigkeitsperiode bezieht.
  12. Ein Verfahren zum Vorsehen von Überwachungsbilddaten, das Folgendes aufweist: Empfangen von Bilddaten (1300), die ein Bild eines Targets aufweisen; Empfangen einer Präferenzeinstellung, die dem Target entspricht; und selektives Modifizieren wenigstens eines Teils der Bilddaten, die dem Target entsprechen, und zwar gemäß der Präferenzeinstellung zum Vorsehen der Überwachungsbilddaten.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Modifizierungsschritt das Maskieren des wenigstens einen Teils der Bilddaten ansprechend auf eine Präferenzeinstellung, die Privatsphäre einfordert, aufweist.
  14. Verfahren nach einem der vorhergehenden Ansprüche, das ferner das Erfassen der Bilddaten (1300) und das Abfragen einer Datenbank (599) zum Empfangen der Präferenzeinstellung aufweist.
  15. Verfahren nach einem der vorhergehenden Ansprüche, das ferner das Empfangen einer Kennung des Targets und einer Gültigkeitsinformation der Kennung aufweist, sowie das Bestimmen ob eine Verwendung der Kennung die Gültigkeitsinformation erfüllt.
DE102013019488.1A 2012-11-19 2013-11-19 Bilderfassung mit schutz der privatsphäre Withdrawn DE102013019488A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261727899P 2012-11-19 2012-11-19
US61/727,899 2012-11-19
US201361774722P 2013-03-08 2013-03-08
US61/774,722 2013-03-08

Publications (1)

Publication Number Publication Date
DE102013019488A1 true DE102013019488A1 (de) 2014-10-09

Family

ID=50727993

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013019488.1A Withdrawn DE102013019488A1 (de) 2012-11-19 2013-11-19 Bilderfassung mit schutz der privatsphäre

Country Status (2)

Country Link
US (1) US20140140575A1 (de)
DE (1) DE102013019488A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105956A1 (de) 2017-03-20 2018-09-20 Riedel Communications International GmbH Fluggerät, Funknetzwerk und Verfahren zur Übertragung von Informationen
US11346938B2 (en) 2019-03-15 2022-05-31 Msa Technology, Llc Safety device for providing output to an individual associated with a hazardous environment
EP4036777A1 (de) 2021-01-29 2022-08-03 Daniel Nikola Vorrichtung und verfahren zur erhebung wenigstens eines bildes unter wahrung der anonymität einer jeweils erfassten person

Families Citing this family (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658091B1 (en) 2002-02-01 2003-12-02 @Security Broadband Corp. LIfestyle multimedia security system
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US8635350B2 (en) 2006-06-12 2014-01-21 Icontrol Networks, Inc. IP device discovery systems and methods
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US8988221B2 (en) 2005-03-16 2015-03-24 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
EP1738540B1 (de) 2004-03-16 2017-10-04 Icontrol Networks, Inc. Gebäudeverwaltungssystem
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US9609003B1 (en) 2007-06-12 2017-03-28 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US10375253B2 (en) 2008-08-25 2019-08-06 Icontrol Networks, Inc. Security system with networked touchscreen and gateway
US10444964B2 (en) 2007-06-12 2019-10-15 Icontrol Networks, Inc. Control system user interface
US9191228B2 (en) 2005-03-16 2015-11-17 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US8963713B2 (en) 2005-03-16 2015-02-24 Icontrol Networks, Inc. Integrated security network with security alarm signaling system
US10313303B2 (en) 2007-06-12 2019-06-04 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10382452B1 (en) 2007-06-12 2019-08-13 Icontrol Networks, Inc. Communication protocols in integrated systems
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US8520069B2 (en) 2005-09-16 2013-08-27 Digital Ally, Inc. Vehicle-mounted video system with distributed processing
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US10616075B2 (en) 2007-06-12 2020-04-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US10051078B2 (en) 2007-06-12 2018-08-14 Icontrol Networks, Inc. WiFi-to-serial encapsulation in systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10666523B2 (en) 2007-06-12 2020-05-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US10423309B2 (en) 2007-06-12 2019-09-24 Icontrol Networks, Inc. Device integration framework
US10498830B2 (en) 2007-06-12 2019-12-03 Icontrol Networks, Inc. Wi-Fi-to-serial encapsulation in systems
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US10389736B2 (en) 2007-06-12 2019-08-20 Icontrol Networks, Inc. Communication protocols in integrated systems
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11258625B2 (en) 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US8503972B2 (en) 2008-10-30 2013-08-06 Digital Ally, Inc. Multi-functional remote monitoring system
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
WO2011143273A1 (en) 2010-05-10 2011-11-17 Icontrol Networks, Inc Control system user interface
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
US9019431B2 (en) 2012-09-28 2015-04-28 Digital Ally, Inc. Portable video and imaging system
US10272848B2 (en) 2012-09-28 2019-04-30 Digital Ally, Inc. Mobile video and imaging system
US20140129670A1 (en) * 2012-11-07 2014-05-08 Nokia Corporation Method and apparatus for modifying unique identifiers associated with a web browser
US9313399B2 (en) * 2013-06-14 2016-04-12 Qualcomm Incorporated System and method for identifying people in an image
US10075681B2 (en) 2013-08-14 2018-09-11 Digital Ally, Inc. Dual lens camera unit
US9253452B2 (en) 2013-08-14 2016-02-02 Digital Ally, Inc. Computer program, method, and system for managing multiple data recording devices
US10390732B2 (en) 2013-08-14 2019-08-27 Digital Ally, Inc. Breath analyzer, system, and computer program for authenticating, preserving, and presenting breath analysis data
US9159371B2 (en) 2013-08-14 2015-10-13 Digital Ally, Inc. Forensic video recording with presence detection
US9799036B2 (en) 2013-10-10 2017-10-24 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy indicators
US20150106195A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for handling inserted data into captured images
US10346624B2 (en) 2013-10-10 2019-07-09 Elwha Llc Methods, systems, and devices for obscuring entities depicted in captured images
US10289863B2 (en) 2013-10-10 2019-05-14 Elwha Llc Devices, methods, and systems for managing representations of entities through use of privacy beacons
US10013564B2 (en) 2013-10-10 2018-07-03 Elwha Llc Methods, systems, and devices for handling image capture devices and captured images
US20150106628A1 (en) * 2013-10-10 2015-04-16 Elwha Llc Devices, methods, and systems for analyzing captured image data and privacy data
US20150104004A1 (en) 2013-10-10 2015-04-16 Elwha Llc Methods, systems, and devices for delivering image data from captured images to devices
US9165339B2 (en) * 2013-11-22 2015-10-20 Google Inc. Blending map data with additional imagery
US9900177B2 (en) 2013-12-11 2018-02-20 Echostar Technologies International Corporation Maintaining up-to-date home automation models
US9769522B2 (en) 2013-12-16 2017-09-19 Echostar Technologies L.L.C. Methods and systems for location specific operations
US20150242638A1 (en) * 2014-02-21 2015-08-27 Microsoft Technology Licensing, Llc Privacy control for multimedia content
US20150242980A1 (en) * 2014-02-21 2015-08-27 DoNotGeoTrack, Inc. Processes to Enable Individuals to Opt Out (or be Opted Out) of Various Facial Recognition and other Schemes and Enable Businesses and other Entities to Comply with Such Decisions
US11146637B2 (en) * 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US9268005B2 (en) * 2014-05-23 2016-02-23 Jon Patrik Horvath Image recording system with relational tracking
US9712761B2 (en) * 2014-05-28 2017-07-18 Qualcomm Incorporated Method for embedding product information in video using radio frequencey information
JP6650936B2 (ja) 2014-07-07 2020-02-19 ルイ ディップDIEP, Louis カメラ制御および画像ストリーミング
KR102094509B1 (ko) * 2014-07-31 2020-03-27 삼성전자주식회사 촬영 제한 요소를 포함하는 영상을 수정하는 방법, 이를 수행하기 위한 디바이스 및 시스템
CN109002052A (zh) * 2014-07-31 2018-12-14 深圳市大疆创新科技有限公司 使用无人飞行器实现的虚拟观光系统及方法
US9989507B2 (en) 2014-09-25 2018-06-05 Echostar Technologies International Corporation Detection and prevention of toxic gas
US9846921B2 (en) * 2014-09-29 2017-12-19 The Boeing Company Dynamic image masking system and method
EP3207501A4 (de) * 2014-10-17 2018-06-06 Digital Ally Inc. Forensische videoaufzeichnung mit präsenzerfassung
WO2016065314A1 (en) * 2014-10-23 2016-04-28 Automaton, Inc. Systems and methods for rfid tag locating using constructive interference
US9511259B2 (en) 2014-10-30 2016-12-06 Echostar Uk Holdings Limited Fitness overlay and incorporation for home automation system
US9655034B2 (en) 2014-10-31 2017-05-16 At&T Intellectual Property I, L.P. Transaction sensitive access network discovery and selection
US9629076B2 (en) 2014-11-20 2017-04-18 At&T Intellectual Property I, L.P. Network edge based access network discovery and selection
US9711035B2 (en) 2014-11-26 2017-07-18 Elwha Llc Systems and methods for reporting visibility to ground based imaging
US9318014B1 (en) * 2014-11-26 2016-04-19 Elwha Llc Systems and methods for reporting visibility to drones
CN111506109B (zh) * 2014-12-31 2023-08-25 深圳市大疆创新科技有限公司 传感器数据的选择性处理
US10489603B2 (en) 2015-03-19 2019-11-26 Kbytes Solutions Private Limited Method and apparatus for image privacy protection
US9505494B1 (en) 2015-04-30 2016-11-29 Allstate Insurance Company Enhanced unmanned aerial vehicles for damage inspection
US10102586B1 (en) 2015-04-30 2018-10-16 Allstate Insurance Company Enhanced unmanned aerial vehicles for damage inspection
US9948477B2 (en) 2015-05-12 2018-04-17 Echostar Technologies International Corporation Home automation weather detection
CN106303397B (zh) * 2015-05-12 2019-03-22 杭州海康威视数字技术股份有限公司 图像采集方法及系统、视频监控方法及系统
US10139279B2 (en) * 2015-05-12 2018-11-27 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
US9841259B2 (en) 2015-05-26 2017-12-12 Digital Ally, Inc. Wirelessly conducted electronic weapon
US10129706B2 (en) 2015-06-05 2018-11-13 At&T Intellectual Property I, L.P. Context sensitive communication augmentation
US10162351B2 (en) * 2015-06-05 2018-12-25 At&T Intellectual Property I, L.P. Remote provisioning of a drone resource
US10013883B2 (en) 2015-06-22 2018-07-03 Digital Ally, Inc. Tracking and analysis of drivers within a fleet of vehicles
US9819911B2 (en) * 2015-07-13 2017-11-14 Honeywell International Inc. Home, office security, surveillance system using micro mobile drones and IP cameras
KR101695697B1 (ko) * 2015-07-29 2017-01-12 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9824275B2 (en) * 2015-07-31 2017-11-21 Hon Hai Precision Industry Co., Ltd. Unmanned aerial vehicle detection method and unmanned aerial vehicle using same
US20170039387A1 (en) * 2015-08-03 2017-02-09 Agt International Gmbh Method and system for differentiated privacy protection
US9960980B2 (en) 2015-08-21 2018-05-01 Echostar Technologies International Corporation Location monitor and device cloning
US10523639B2 (en) * 2015-10-30 2019-12-31 International Business Machines Corporation Privacy preserving wearable computing device
US9996066B2 (en) 2015-11-25 2018-06-12 Echostar Technologies International Corporation System and method for HVAC health monitoring using a television receiver
US10101717B2 (en) 2015-12-15 2018-10-16 Echostar Technologies International Corporation Home automation data storage system and methods
US10579863B2 (en) 2015-12-16 2020-03-03 Global Tel*Link Corporation Unmanned aerial vehicle with biometric verification
US20170187993A1 (en) * 2015-12-29 2017-06-29 Echostar Technologies L.L.C. Unmanned aerial vehicle integration with home automation systems
US10091017B2 (en) 2015-12-30 2018-10-02 Echostar Technologies International Corporation Personalized home automation control based on individualized profiling
US10073428B2 (en) 2015-12-31 2018-09-11 Echostar Technologies International Corporation Methods and systems for control of home automation activity based on user characteristics
US10060644B2 (en) 2015-12-31 2018-08-28 Echostar Technologies International Corporation Methods and systems for control of home automation activity based on user preferences
US10904474B2 (en) 2016-02-05 2021-01-26 Digital Ally, Inc. Comprehensive video collection and storage
US20180025649A1 (en) 2016-02-08 2018-01-25 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls
JP6988146B2 (ja) * 2016-05-25 2022-01-05 ソニーグループ株式会社 演算処理装置及び演算処理方法
WO2017211614A1 (en) * 2016-06-07 2017-12-14 Koninklijke Philips N.V. Sensor privacy setting control
US11242143B2 (en) 2016-06-13 2022-02-08 Skydio, Inc. Unmanned aerial vehicle beyond visual line of sight control
US10294600B2 (en) 2016-08-05 2019-05-21 Echostar Technologies International Corporation Remote detection of washer/dryer operation/fault condition
US10049515B2 (en) 2016-08-24 2018-08-14 Echostar Technologies International Corporation Trusted user identification and management for home automation systems
US10853942B1 (en) * 2016-08-29 2020-12-01 Amazon Technologies, Inc. Camera calibration in a mobile environment
US10521675B2 (en) 2016-09-19 2019-12-31 Digital Ally, Inc. Systems and methods of legibly capturing vehicle markings
KR102614012B1 (ko) * 2016-11-08 2023-12-14 한화비전 주식회사 영상처리장치 및 그의 영상제공방법
US10470241B2 (en) 2016-11-15 2019-11-05 At&T Intellectual Property I, L.P. Multiple mesh drone communication
US10911725B2 (en) 2017-03-09 2021-02-02 Digital Ally, Inc. System for automatically triggering a recording
US10762353B2 (en) 2017-04-14 2020-09-01 Global Tel*Link Corporation Inmate tracking system in a controlled environment
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10949940B2 (en) 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
GB2560393B (en) * 2017-07-31 2019-01-30 Matthew Russell Iain Unmanned aerial vehicles
US10354720B2 (en) 2017-12-12 2019-07-16 Oracle International Corporation Full-swing dual-rail SRAM sense amplifier
US10922431B2 (en) * 2017-12-27 2021-02-16 Honeywell International Inc. Systems and methods for dynamically masking video and images captured by a drone device camera
US10699126B2 (en) * 2018-01-09 2020-06-30 Qualcomm Incorporated Adaptive object detection and recognition
US11201974B2 (en) 2018-02-26 2021-12-14 HLFIP Holding, Inc. Systems and methods for processing requests to send private postal mail to an inmate
GB2575282A (en) * 2018-07-04 2020-01-08 Arm Ip Ltd Event entity monitoring network and method
US11615134B2 (en) 2018-07-16 2023-03-28 Maris Jacob Ensing Systems and methods for generating targeted media content
US10831817B2 (en) 2018-07-16 2020-11-10 Maris Jacob Ensing Systems and methods for generating targeted media content
US11024137B2 (en) 2018-08-08 2021-06-01 Digital Ally, Inc. Remote video triggering and tagging
US10685504B2 (en) * 2018-09-27 2020-06-16 Intel Corporation Systems, devices, and methods for vehicular communication
CN109816700B (zh) * 2019-01-11 2023-02-24 佰路得信息技术(上海)有限公司 一种基于目标识别的信息统计方法
CN109993207B (zh) * 2019-03-01 2022-10-25 华南理工大学 一种基于目标检测的图像隐私保护方法和系统
US10762607B2 (en) 2019-04-10 2020-09-01 Alibaba Group Holding Limited Method and device for sensitive data masking based on image recognition
EP3751851A1 (de) * 2019-06-14 2020-12-16 Axis AB Verfahren zum hervorheben eines objekts von interesse in einem bild oder video
US10992921B1 (en) 2019-08-28 2021-04-27 Amazon Technologies, Inc. Self-calibrating stereo camera pairs provided aboard aerial vehicles
CN112104407A (zh) * 2020-09-07 2020-12-18 西安电子科技大学 基于隐私保护的无人机群通信网络异常检测及溯源方法
WO2022203113A1 (ko) * 2021-03-25 2022-09-29 주식회사 뷰메진 드론으로부터의 사생활 보호 및 정보 보안을 위한 영상의 자동 마스킹 방법, 시스템 및 비일시성 판독 가능 기록 매체
US20230143934A1 (en) * 2021-11-10 2023-05-11 Honeywell International Inc. Selective video analytics based on capture location of video
US11950017B2 (en) 2022-05-17 2024-04-02 Digital Ally, Inc. Redundant mobile video recording
EP4304228A1 (de) * 2022-07-04 2024-01-10 Deutsche Telekom AG Techniken zur einhaltung von persönlichkeitsrechten bei fotoaufnahmen oder videoaufnahmen von personen

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343628B2 (en) * 2003-05-28 2008-03-11 Sap Ag Authorization data model
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7366359B1 (en) * 2004-07-08 2008-04-29 Grandeye, Ltd. Image processing of regions in a wide angle video camera
US7804981B2 (en) * 2005-01-13 2010-09-28 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
JP4197048B2 (ja) * 2005-04-25 2008-12-17 パナソニック株式会社 監視カメラシステム、撮影装置および映像表示装置
JP4975272B2 (ja) * 2005-05-30 2012-07-11 京セラ株式会社 ユーザ端末
US20070046439A1 (en) * 2005-09-01 2007-03-01 Yoshitsugu Takaku Radio frequency identification system with device for protecting privacy and method of operation
US8281389B2 (en) * 2006-12-21 2012-10-02 Seagate Technology Llc System and method for tamper evident certification
US20090138402A1 (en) * 2007-11-27 2009-05-28 International Business Machines Corporation Presenting protected content in a virtual world
US7814061B2 (en) * 2008-01-24 2010-10-12 Eastman Kodak Company Method for preserving privacy with image capture
DE102008007199A1 (de) * 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
CN102028482B (zh) * 2009-09-30 2012-11-14 同方威视技术股份有限公司 人体检查图像处理方法和人体检查设备
JP5709367B2 (ja) * 2009-10-23 2015-04-30 キヤノン株式会社 画像処理装置、および画像処理方法
US8668136B2 (en) * 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
KR20130126800A (ko) * 2012-04-23 2013-11-21 한국전자통신연구원 캡춰 영상의 프라이버시 보호를 위한 이미지 처리 방법 및 이미지 처리 장치
US9336444B2 (en) * 2013-03-26 2016-05-10 Urjagreen Technologies Pvt. Ltd. System and method for occupancy detection using differential image sensing and optical markers
EP2801958B1 (de) * 2013-05-08 2016-09-14 Axis AB Überwachungsverfahren und Kamera
US9523772B2 (en) * 2013-06-14 2016-12-20 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
US9460340B2 (en) * 2014-01-31 2016-10-04 Google Inc. Self-initiated change of appearance for subjects in video and images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105956A1 (de) 2017-03-20 2018-09-20 Riedel Communications International GmbH Fluggerät, Funknetzwerk und Verfahren zur Übertragung von Informationen
US11346938B2 (en) 2019-03-15 2022-05-31 Msa Technology, Llc Safety device for providing output to an individual associated with a hazardous environment
EP4036777A1 (de) 2021-01-29 2022-08-03 Daniel Nikola Vorrichtung und verfahren zur erhebung wenigstens eines bildes unter wahrung der anonymität einer jeweils erfassten person

Also Published As

Publication number Publication date
US20140140575A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
US11908184B2 (en) Image capture with privacy protection
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
Barmpoutis et al. A review on early forest fire detection systems using optical remote sensing
Schedl et al. An autonomous drone for search and rescue in forests using airborne optical sectioning
BE1023995B1 (nl) Platform voor Coördinatie van Operaties op Zeer Laag Niveau
Laliberte et al. UAS remote sensing missions for rangeland applications
US20170372617A1 (en) Process and System to Register and Regulate Unmanned Aerial Vehicle Operations
DE112018006501T5 (de) Verfahren, vorrichtung und system zum adaptiven trainieren von maschinenlernmodellen über erfasste ereigniskontextsensorvorkommnisse und assoziiertes lokalisiertes und wiedergewonnenes digitales audio- und/oder video-imaging
DE112018006556T5 (de) Trainieren eines maschinenlernmodells mit digitalem audio und/oder video
Tiwari et al. Unmanned aerial vehicle and geospatial technology pushing the limits of development
Tuśnio et al. The efficiency of drones usage for safety and rescue operations in an open area: A case from Poland
DE112017006500T5 (de) Vorrichtung, Verfahren und System zum elektronischen Erfassen einer Außerhalbgrenzbedingung für eine kriminelle Organisation
Qayyum et al. Object Detection and Fuzzy-Based Classification Using UAV Data.
DE102020209054A1 (de) Vorrichtung und verfahren zur personenerkennung, -verfolgung und -identifizierung unter verwendung drahtloser signale und bilder
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
Coulter et al. Near real-time change detection for border monitoring
KR20230045146A (ko) 무인 비행 패턴 추적을 통한 목적 판별 및 불법행위 추적 분석/피드백 모니터링 시스템
Niedzielski et al. The nested k‐means method: A new approach for detecting lost persons in aerial images acquired by unmanned aerial vehicles
Refaai et al. An enhanced drone technology for detecting the human object in the dense areas using a deep learning model
Olivares-Mendez et al. The NOAH project: Giving a chance to threatened species in Africa with UAVs
DE112017007169T5 (de) Verfahren und vorrichtung zum sammeln von visuellen daten unter verwendung einer augmented-reality-anwendung
Römer et al. Airborne near-real-time monitoring of assembly and parking areas in case of large-scale public events and natural disasters
Linchant et al. WIMUAS: Developing a tool to review wildlife data from various UAS flight plans
Zhang Native vegetation classification using remote sensing techniques: A case study of dairy flat regrowth bush by using the AUT unmanned aerial vehicle
Bolakis et al. Foldout: A through foliage surveillance system for border security

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee