DE112016007236T5 - System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes - Google Patents

System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes Download PDF

Info

Publication number
DE112016007236T5
DE112016007236T5 DE112016007236.8T DE112016007236T DE112016007236T5 DE 112016007236 T5 DE112016007236 T5 DE 112016007236T5 DE 112016007236 T DE112016007236 T DE 112016007236T DE 112016007236 T5 DE112016007236 T5 DE 112016007236T5
Authority
DE
Germany
Prior art keywords
camera
detected
unmanned mobile
interest
security
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016007236.8T
Other languages
English (en)
Inventor
Wojciech Jan Kucharski
Pawel Jurzak
Grzegorz Kaplita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112016007236T5 publication Critical patent/DE112016007236T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Offenbart ist ein Prozess für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilen Vorrichtung, um eine Identifizierung eines Objektes von Interesse zu verbessern. Ein erster Blickwinkel (POV) eines erfassten Objektes wird erhalten und es wird bestimmt, mit einem ersten Sicherheitsniveau, dass das erfasste erste POV des Objektes mit einem gespeicherten Objekt von Interesse übereinstimmt. Dann werden ein oder mehrere kamerabestückte unbemannte mobile Vehikel in einer bestimmten Reiserichtung des ersten erfassten Objektes identifiziert, und eine Versendeinstruktion und eine Abfanginformation wird dann an die einen oder mehreren kamerabestückten unbemannten mobilen Vehikel übertragen. Anschließend wird ein erfasster zweiter POV des ersten erfassten Objektes über die einen oder mehreren kamerabestückten unbemannten mobilen Vehikel empfangen. Das erfasste zweite POV des erfassten Objektes wird verwendet, um mit einem zweiten Sicherheitsniveau zu bestimmen, dass das erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Da die Zahl der verfügbaren und zugänglichen feststehenden Kameras in städtischen und vorstädtischen Gebieten („urban and suburban areas“) ansteigt, steigt auch die Möglichkeit und Fähigkeit, Objekte gegenüber Objekten von Interesse in Echtzeit zu identifizieren entsprechend an. Unter Verwendung digitaler Bildverarbeitung können bestimmte Objekte gegenüber Objekten von Interesse mit einem zugehörigen Sicherheits- oder Vertrauensniveau identifiziert werden. In Situationen, in denen das Sicherheitsniveau relativ hoch ist, dass ein bildlich erfasstes Objekt mit einem Objekt von Interesse übereinstimmt, beispielsweise neunzig bis einhundert Prozent, wird es relativ einfach, zugehörige Entscheidungen basierend auf der Grundlage der Übereinstimmung zu treffen. In ähnlicher Weise wird es in Situationen, in denen das Sicherheitsniveau relativ gering ist, beispielsweise null bis zehn Prozent, relativ einfach, basierend auf der mangelnden Übereinstimmung von zugehörigen Entscheidungen abzusehen. Jedoch gibt es einen Bereich zwischen den relativ hohen und relativ niedrigen Sicherheitsniveaus, beispielsweise zwischen zehn und neunzig Prozent oder zwanzig und achtzig Prozent Sicherheit, in denen es schwieriger wird, zugehörige Entscheidungen basierend auf einem solchen dazwischen liegenden Sicherheitsniveau, dass ein bildlich erfasstes Objekt mit einem Objekt von Interesse übereinstimmt, zu treffen.
  • Daher besteht Bedarf für ein verbessertes technisches Verfahren, eine Vorrichtung und ein System zur Verbesserung des Sicherheitsniveaus einer Objekterkennung von durch feststehende Kameras aufgenommene Objekte durch intelligente Versendung und Koordination zwischen den feststehenden Kameras und einem oder mehreren kamerabestückten unbemannten mobilen Vehikeln.
  • Figurenliste
  • Die beigefügten Abbildungen, in denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist eine Systemskizze, welche eine exemplarische Betriebsumgebung zur Verbesserung der Objekterkennungssicherheit von Objekten, die von feststehenden Kameras abgebildet werden, durch intelligente Versendung und Koordinierung zwischen feststehenden Kameras und kamerabestückten unbemannten mobilen Vehikeln, gemäß einer Ausführungsform.
    • 2 ist eine Plandarstellung eines geografischen Gebietes, das das Positionieren und Koordinieren einer feststehenden Kamera und eines kamerabestückten unbemannten mobilen Vehikels schematisch illustriert, gemäß einer Ausführungsform.
    • 3 ist eine Vorrichtungsskizze, die eine Vorrichtungsstruktur einer Datenverarbeitungsvorrichtung zur Verbesserung der Objekterkennungssicherheit von Objekten von Interesse zeigt, die durch feststehende Kameras abgebildet werden, durch intelligente Versendung und Koordinierung zwischen feststehenden Kameras und kamerabestückten unbemannten mobilen Vehikeln, gemäß einer Ausführungsform.
    • 4 veranschaulicht ein Flussdiagramm, welches Prozessschritte zum Betreiben einer Datenverarbeitungsvorrichtung von 3 darstellt, um die Objekterkennungssicherheit von Objekten zu verbessern, die von feststehenden Kameras abgebildet werden, durch intelligente Versendung und Koordinierung zwischen feststehenden Kameras und kamerabestückten unbemannten mobilen Vehikeln, gemäß einer Ausführungsform.
    • 5 veranschaulicht ein Flussdiagramm, welches Prozessschritte zum Betreiben eines verteilten Systems von feststehenden Kameras und kamerabestückten unbemannten mobilen Vehikeln darstellt, um die Objekterkennungssicherheit von Objekten zu verbessern, die durch feststehende Kameras abgebildet werden, gemäß einer Ausführungsform.
    • 6 ist eine Skizze, die mehrere verschiedene mögliche Blickwinkel zum Erfassen und Vergleichen eines Gesichts einer Person als ein erfasstes Objekt zum Vergleich mit dem Gesicht einer anderen erfassten Person als Objekt von Interesse darstellt, gemäß einer Ausführungsform.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Offenbart ist ein verbessertes technisches Verfahren, eine Vorrichtung und ein System zum Verbessern der Objekterkennungssicherheit von durch feststehende Kameras abgebildeten Objekten durch intelligente Versendung und Koordinierung zwischen feststehenden Kameras und identifizierten kamerabestückten unbemannten mobilen Vehikeln.
  • In einer Ausführungsform beinhaltet ein Prozess für eine Zusammenarbeit von einer feststehenden Kamera und einer unbemannten mobilen Vorrichtung, zur Verbesserung einer Identifizierung eines Objektes von Interesse: ein Empfangen, an einer elektronischen Datenverarbeitungsvorrichtung von einer feststehenden Kamera, eines erfassten ersten Blickwinkels eines ersten erfassten Objektes und Bestimmen, mit einem ersten Sicherheitsniveau in einem vorbestimmten Bereich von Sicherheitsniveaus, dass der erfasste erste Blickwinkel des ersten Objektes mit einem ersten gespeicherten Objekt von Interesse übereinstimmt; ein Identifizieren, durch die elektronische Datenverarbeitungsvorrichtung, eines oder mehrerer kamerabestückter unbemannter mobiler Vehikel in einer bestimmten Reiserichtung des ersten erfassen Objektes; ein Übertragen, durch die elektronische Datenverarbeitungsvorrichtung an die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, einer Versendeinstruktion und einer Abfanginformation, wobei die Abfanginformation die bestimmte Reiserichtung des ersten erfassten Objektes, Information ausreichend, um entweder das erste erfasste Objekt oder ein Fahrzeug, in dem das erste erfasste Objekt reist, zu identifizieren, und Information, die einen gewünschten zweiten Blickwinkel des ersten erfassten Objektes identifiziert, der verschieden von dem ersten Blickwinkel ist, beinhaltet; ein Empfangen, durch die elektronische Datenverarbeitungsvorrichtung, über die identifizierten einen oder mehreren kamerabestückten unbemannten mobilen Vehikel, eines erfassten zweiten Blickwinkels des ersten erfassten Objektes; und ein Verwenden, durch die elektronische Datenverarbeitungsvorrichtung, des erfassten zweiten Blickwinkels des ersten erfassten Objektes, um mit einem zweiten Sicherheitsniveau zu bestimmen, dass das erste erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.
  • In einer weiteren Ausführungsform beinhaltet eine elektronische Datenverarbeitungsvorrichtung zur Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilen Vorrichtung zur Verbesserung der Identifizierung eines Objektes von Interesse: eine Schnittstelle für eine feststehende Kamera; eine Schnittstelle für eine unbemannte mobile Vorrichtung; einen Speicher; einen Transceiver; und einen oder mehrere Prozessoren, die eingerichtet sind zum: Empfangen, über die Schnittstelle für eine feststehende Kamera und von einer feststehenden Kamera, eines erfassten ersten Blickwinkels eines ersten erfassten Objektes und Bestimmen, mit einem ersten Sicherheitsniveau in einem vorbestimmten Bereich eines Sicherheitsniveaus, das der erfasste erste Blickwinkel des ersten Objektes mit einem ersten gespeicherten Objekt von Interesse übereinstimmt; Identifizieren eines oder mehrerer kamerabestückter unbemannter mobiler Vehikel in einer bestimmten Reiserichtung des ersten erfassten Objektes; Übertragen, über den Transceiver an die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, einer Versendeinstruktion und einer Abfanginformation, wobei die Abfanginformation, die bestimmte Reiserichtung des ersten erfassten Objektes, Information ausreichend zum Identifizieren entweder des ersten erfassten Objektes oder eines Fahrzeugs in dem das erste erfasste Objekt reist, und Information, die einen gewünschten zweiten Blickwinkel des ersten erfassten Objektes identifiziert, der von dem ersten Blickwinkel verschieden ist, beinhaltet; Empfangen, über den Transceiver und über die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, eines erfassten zweiten Blickwinkels des ersten erfassten Objektes; und Verwenden des erfassten zweiten Blickwinkels des ersten erfassten Objektes zum Bestimmen, mit einem zweiten Sicherheitsniveau, dass das erste erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.
  • Jede der vorstehend erwähnten Ausführungsformen wird im Folgenden detaillierter erläutert, beginnend mit einem beispielhaften Kommunikationssystem und Vorrichtungsarchitekturen des Systems, in denen die Ausführungsformen ausgeübt werden können, gefolgt von einer Darstellung von Verarbeitungsschritten zum Erreichen eines verbesserten Verfahrens, Vorrichtung und eines Systems zur verbesserten Objekterkennungssicherheit von Objekten, die durch feststehende Kameras abgebildet werden, durch intelligentes Versenden und Koordinierung zwischen feststehenden Kameras und identifizierten kamerabestückten unbemannten mobilen Vehikeln. Weitere Vorteile und Merkmale, die mit dieser Offenbarung konsistent sind, werden in der folgenden detaillierten Beschreibung unter Bezugnahme auf die Figuren dargelegt.
  • Kommunikationssystem und Vorrichtungsstrukturen
  • Nunmehr bezugnehmend auf die Zeichnungen und insbesondere 1, eine beispielhafte Kommunikationssystemskizze veranschaulicht ein System 100, das eine erste feststehende Videokamera 102, ein erstes kamerabestücktes unbemanntes mobiles Vehikel 104 und ein erstes zu erfassendes Objekt 106 in einem ersten Fahrzeug 108 beinhaltet. Jede der beiden, die erste feststehende Videokamera 102 und das erste kamerabestückte unbemannte mobile Vehikel 104 können in der Lage sein, direkt drahtlos über eine Direktmodusverbindung („direct-mode wireless link“) 142 oder eine kabelgebundene Verbindung zu kommunizieren, und/oder können in der Lage sein, drahtlos über ein drahtloses Infrastruktur-Funkzugangs-Netzwerk („wireless infrastructure radio access network“ (RAN)) 152 oder entsprechende drahtlose Infrastruktur-Verbindungen 140, 144 zu kommunizieren.
  • Die feststehende Videokamera 102 kann jedes Bildaufnahmegerät sein, das in der Lage ist, Stand- oder Bewegtbildaufnahmen in einem zugehörigen Gebiet von Interesse aufzunehmen, das in 1 als Straße dargestellt ist, aber in anderen Ausführungsformen auch einen Gebäudeeingangsweg, eine Brücke, einen Bürgersteig oder ein anderes Gebiet von Interesse beinhalten kann. Die feststehende Videokamera 102 ist in dem Sinne feststehend, dass sie sich nicht selbst physisch in irgendeine wesentliche Richtung bewegen kann (zum Beispiel mehr als einen Fuß oder ein Inch in irgendeine horizontale oder vertikale Richtung). Dies bedeutet jedoch nicht, dass sie sich nicht an ihrer feststehenden Position schwenken, neigen, oder zoomen kann, um ein größeres Gebiet von Interesse abzudecken als ohne ein derartiges schwenken, neigen oder zoomen. Die feststehende Videokamera 102 kann durchgehend eingeschaltet sein, kann periodisch Bilder in einer regelmäßigen Kadenz aufnehmen oder kann ausgelöst werden, um das Erfassen von Bildern und/oder Video als Ergebnis einer anderen Aktion zu beginnen, wie beispielsweise das Detektieren einer Bewegung in dem zugehörigen Gebiet von Interesse durch einen separaten Bewegungsmelder, der kommunikativ mit der feststehenden Videokamera 102 gekoppelt ist. Die feststehende Videokamera 102 kann einen CMOS- oder CCD-Imager beinhalten, zum Beispiel zum digitalen Erfassen von Bildern und/oder Video eines zugehörigen Gebiets von Interesse. Bilder und/oder Video, das mit der feststehenden Videokamera 102 erfasst wurde, kann in der feststehenden Videokamera 102 selbst gespeichert werden und/oder kann über eine drahtlose Direktmodusverbindung 142 und/oder RAN 152 an eine separate Speicher- oder Verarbeitungsvorrichtung übertragen werden. Während die feststehende Videokamera 102 in 1 als an einer Straßenleuchte oder einem Straßenmast befestigt dargestellt ist, kann die feststehende Videokamera 102 in anderen Ausführungsformen an einem Gebäude, einer Ampel, einem Straßenschild oder einer anderen Struktur befestigt sein.
  • Das erste kamerabestückte unbemannte mobile Vehikel 104 kann eine kamerabestückte flugfähige luftgestützte Drohne sein, mit einem elektromechanischen Antriebselement, einer bildaufnehmenden Kamera und einem Mikroprozessor, der fähig ist, unter eigener Kontrolle, unter Kontrolle eines entfernten Bedieners oder eine Kombination davon zu fliegen und vor, während oder nach dem Flug Bilder und/oder Video eines Bereiches von Interesse aufzunehmen. Die an dem unbemannten mobilen Vehikel 104 befestigte bildaufnehmende Kamera kann in ihrer Ausrichtung feststehend sein (und dementsprechend zur Kamerapositionierung auf eine Neupositionierung des mobilen Vehikels 104 angewiesen sein, an dem sie befestigt ist) oder kann einen Schwenk-, Neigungs- oder Zoommotor zum unabhängigen Steuern von Schwenk-, Neigungs- und Zoomfunktionen der bildaufnehmenden Kamera beinhalten. Das erste kamerabestückte unbemannte mobile Vehikel 104 könnte zusätzlich oder alternativ, unter vielen anderen Möglichkeiten, ein bodengestütztes oder wassergestütztes mobiles Vehikel sein, obwohl es in 1 als luftgestützte Drohne dargestellt ist. Die an dem unbemannten mobilen Vehikel 104 angebrachte bildaufnehmende Kamera kann dauerhaft eingeschaltet sein, kann periodisch in einer regelmäßigen Kadenz Bilder aufnehmen oder kann ausgelöst werden, um mit dem Erfassen von Bildern und/oder Video zu beginnen, als Ergebnis einer anderen Aktion, wie beispielsweise, dass das unbemannte mobile Vehikel 104 in ein bestimmtes Gebiet von Interesse entsendet ist oder mit Instruktionen zum Abfangen einer bestimmten Art von Person, Fahrzeug oder Objekt entsendet ist. Die bildaufnehmende Kamera kann einen CMOS- oder CCD-Imager beinhalten, beispielsweise zum digitalen Erfassen von Bildern und/oder Video des zugehörigen Bereichs von Interesse, einer Person, einem Fahrzeug oder einem Objekt von Interesse. Bilder und/oder Video, die an der bildaufnehmenden Kamera erfasst wurden, können bei dem unbemannten mobilen Vehikel 104 selbst gespeichert werden und/oder über eine drahtlose Direktverbindung 142 und/oder RAN 152 an eine separate Speicher- oder Verarbeitungsvorrichtung übertragen werden. Obwohl das unbemannte mobile Vehikel 104 in 1 als vorübergehend an einer Straßenleuchte oder einem Straßenmast positioniert (möglicherweise als eine Ladestation zum Laden einer Batterie in dem unbemannten mobilen Vehikel 104 wirkend, während es nicht fliegt) dargestellt ist, kann das unbemannte mobile Vehikel 104 in anderen Ausführungsformen auf einem Gebäude, auf einer Ampel oder einer anderen Struktur positioniert sein.
  • Die Infrastruktur RAN 152 kann über drahtlose Verbindungen 140, 144 einen konventionellen oder gebündelten Landfunkgeräte („Land Mobile Radio“ (LMR))-Standard oder -Protokoll implementieren, wie zum Bespiel ETSI Digital Mobile Radio (DMR), einem Projekt 25 (P25)-Standard definiert durch die Association of Public Safety Communications Officials International (APCO), terrestrischem Bündelfunk (TETRA) oder andere LMR-Funkprotokolle oder Standards. In anderen Ausführungsformen kann die Infrastruktur RAN 152 zusätzlich oder alternativ über drahtlose Verbindungen 140, 144 ein Long Term Evolution (LTE)-Protokoll implementieren, einschließlich Multimedia Broadcast Multicast Services (MBMS), einem open mobile alliance (OMA) Push to Talk (PTT) over cellular (OMA-PoC)-Standard, einem Voice over IP (VolP)-Standard oder einem PTT over IP (PoIP)-Standard. In noch weiteren Ausführungsformen kann die Infrastruktur RAN 152 zusätzlich oder alternativ über drahtlose Verbindungen 140, 144 ein Wi-Fi-Protokoll, vielleicht gemäß einem IEEE 802.11 Standard (zum Beispiel 802.11 a, 802.11b, 802.11 g), oder ein WiMAX-Protokoll vielleicht betrieben gemäß einem IEEE 802.16 Standard, implementieren. Andere Arten von drahtlosen Protokollen könnten ebenfalls implementiert sein. Das Infrastruktur RAN 152 ist in 1 als über ein einzelnes feststehendes Terminal 154, das mit einem Controller 156 (zum Beispiel einem Funkcontroller, einem Rufcontroller, einem PTT-Server, einem Zonencontroller, einem MME, einem BSC, einem MSC, einem Standortcontroller, einem Push-To-Talk-Controller oder einem anderen Netzwerkgerät) verbunden ist, Abdeckung für die feststehende Kamera 102 und das unbemannte mobile Vehikel 104 bereitstellend dargestellt und kann eine Versendekonsole 158 beinhalten, die von einem Versender betrieben wird. In anderen Ausführungsformen können mehr oder andere Arten von feststehenden Terminals RAN-Dienste für die feststehende Kamera 102 und das unbemannte mobile Vehikel 104 bereitstellen und können einen separaten Controller 156 und/oder eine Versendekonsole 158 beinhalten oder auch nicht.
  • Das erste zu erfassende Objekt 106 ist in 1 als ein Gesichtsprofil eines Fahrers eines Fahrzeuges 108 dargestellt. Die feststehende Kamera 102 kann eine erste Bild- und/oder Videoerfassung des ersten Objektes 106 erhalten, während das Fahrzeug 108 an der feststehenden Kamera 102 vorbeifährt. Die erste Bild- und/oder Videoerfassung kann jedoch nur ein Blickwinkel („Point of View“ (POV), beispielsweise ein Profil, eine Frontalansicht, oder ein Dreiviertelprofil) sein oder kann nur eine Teilerfassung sein (zum Beispiel aufgrund von störenden Objekten, wie zum Beispiel anderen Autos, Personen oder Verkehrsgegenständen, oder aufgrund von Reflektionen oder Wetter, neben anderen möglichen Störungen). Die Beschränkungen können dazu führen, dass eine Datenverarbeitungsvorrichtung, die die erste Bild- oder Videoerfassung verarbeitet und versucht, ein Objekt in der ersten Bild- und/oder Videoerfassung mit einem ersten gespeicherten Objekt von Interesse mit einem geringeren Sicherheitsniveau als absoluter Gewissheit abgleicht (zum Beispiel weniger als 100 %, weniger als 90 %, weniger als 80 oder 70 % oder 60 %). Darüber hinaus kann die Datenverarbeitungsvorrichtung, die die erste Bild- und/oder Videoerfassung verarbeitet, das erste Objekt in der ersten Bild- und/oder Videoerfassung mit dem ersten gespeicherten Objekt von Interesse mit einem höheren Sicherheitsniveau als absoluter Unsicherheit zuordnen (beispielsweise größer als 0 %, oder größer als 10 % oder 20 %, oder größer als 30 % oder 40 %). Innerhalb dieser verschiedenen Bereiche von weniger als absoluter Sicherheit und mehr als absoluter Unsicherheit wäre es hilfreich, einen zweiten POV oder weniger versperrten POV des ersten Objektes über Koordinierung und Zusammenarbeit mit dem unbemannten mobilen Vehikel 104 zu erhalten, um mit einem höheren Sicherheitsniveau zu bestimmen, ob das erste Objekt mit dem Objekt von Interesse übereinstimmt.
  • Vorzugsweise, und in Übereinstimmung mit den 3 und 4, können die feststehende Kamera 102 und das unbemannte mobile Vehikel 104 (neben anderen potentiell kamerabestückten mobilen Vehikeln, die in 1 nicht dargestellt sind) zusammenarbeiten oder sich koordinieren, um einen zweiten POV einer Bild- und/oder Videoerfassung des Objektes zu erhalten und eine zugehörige zweite Sicherheit für eine Übereinstimmung zu erhalten.
  • Nunmehr Bezug nehmend auf 2, ein beispielhaftes Übersichtsdiagramm 200 illustriert das Positionieren und Koordinieren einer feststehenden Kamera 202 und eines kamerabestückten unbemannten mobilen Vehikels 204 zur Erfassung eines zweiten Objektes 206 in einem zweiten Fahrzeug 208 in Bezug auf eine darunter liegende kartografische Straßenkarte. Die feststehende Kamera 202 kann die gleiche oder eine ähnliche Kamera sein, wie die feststehende Kamera 102, die in Bezug auf 1 oben beschrieben ist, und das unbemannte mobile Vehikel 204 kann das gleiche oder ein ähnliches Vehikel sein, wie das unbemannte mobile Vehikel 104, das oben in Bezug auf 1 beschrieben ist. Das Fahrzeug 208 ist in 2 als entlang einer Straße 209 nach Westen reisend dargestellt, wenn die feststehende Kamera 202 ein erstes Bild und/oder Video des zweiten Objektes 206 in dem zweiten Fahrzeug 208 erfasst und mit einer ersten Sicherheit, die geringer als eine absolute Sicherheit ist, aber größer als eine absolute Sicherheit ist, mit einem gespeicherten Objekt von Interesse zuordnet. So kann beispielsweise das erste Bild oder Video des zweiten Objektes 206 eine Erfassung eines Gesichtsbildes eines Fahrers in einem Seitenprofil sein. Die erste Sicherheit kann eine Sicherheit sein von weniger als 90 % oder weniger als 80 oder 70 %, aber größer als 10 %, oder größer als 20 %, 30 % oder 40 %.
  • In einigen Ausführungsformen kann der Bereich des Sicherheitsniveaus, innerhalb dessen die hierin beschriebene Zusammenarbeit oder Koordination ausgelöst werden kann, auf der Grundlage von Metadaten variieren, die mit dem Objekt von Interesse assoziiert sind und das Objekt von Interesse begleitend gespeichert sind oder von einer anderen Datenbank separat erhalten werden können, aber mit dem Objekt von Interesse verknüpft sind. Beispielsweise kann ein Gesichtsbild als Objekt von Interesse, das mit einer Person assoziiert ist, die wegen einer Straftat angeklagt oder verurteilt ist, einen assoziierten Bereich des Sicherheitsniveaus von 10 % (oder 20 %) bis 80 % (oder 70 %) haben, um die hierin beschriebenen Zusammenarbeits- oder Koordinierungsprozesse auszulösen, während ein Gesichtsbild als Objekt von Interesse, das mit einer Person assoziiert ist, die wegen einer Ordnungswidrigkeit angeklagt oder verurteilt ist, einen assoziierten Bereich des Sicherheitsniveaus von 35 % (oder 45 %) bis 85 % (oder 75 %) haben kann. In einigen Ausführungsformen können die beschriebenen technischen Prozesse nur für gewisse Arten von Vergehen angewandt werden, zum Beispiel Straftaten, und nicht für alle anderen Arten von Vergehen, zum Beispiel Ordnungswidrigkeiten.
  • Wenn eine Übereinstimmung mit einer Sicherheit gemacht wurde, die über der oberen Grenze der vorstehend genannten Bereiche liegt, kann ein Polizist oder anderer Responder automatisch entsendet werden. Um das Entsenden eines Polizisten oder eine anderweitige Alarmierung von Strafverfolgungsbehörden oder anderen Respondern bei einer unsicheren Übereinstimmung zu vermeiden, aber weil eine höhere als eine absolute Unsicherheit für eine Übereinstimmung besteht (0 %), können die feststehende Kamera 202 oder einige andere Datenverarbeitungsvorrichtungen, die das erste Bild und/oder Video verarbeiten, veranlassen, dass ein in der Nähe befindliches kamerabestücktes unbemanntes mobiles Vehikel 204 ausgesendet wird, um einen zweiten Blickwinkel als Bilderfassung des zweiten Objektes 206 Fahrer aufzunehmen (vorzugsweise verschieden von der ersten, wie zum Beispiel eine Dreiviertelprofilansicht oder ein Frontalprofil oder vielleicht ein unverstelltes Seitenprofil verglichen mit einem gestörten ersten Bild oder Video). Wie in 2 dargestellt, kann die Datenverarbeitungsvorrichtung auf eine kartografische Datenbank von Straßen zugreifen und basierend auf einer detektierten Bewegungsrichtung aus dem ersten Bild und/oder Video oder wie von einem anderen Sensor als der feststehenden Kamera 202 berichtet, einen oder mehrere mögliche zukünftige Wege 210, 212 identifizieren, die das zweite Objekt 206 (und/oder das Fahrzeug 208, das das zweite Objekt 206 trägt) wahrscheinlich nehmen wird. In einem Beispiel kann die Datenverarbeitungsvorrichtung alle möglichen Wege identifizieren und über einen Transceiver eine Versendeinstruktion übertragen (die das unbemannte mobile Vehikel anweist, sich so zu positionieren, dass es eine zweite Bild-/Videoerfassung des zweiten Objektes von Interesse macht, einschließlich eines notwendigen Hochfahrens und/oder Bewegens von seiner temporären Ladeplattform) und eine Abfanginformation (einschließlich Information, die ausreichend ist, das zweite Objekt 206 und/oder das Fahrzeug 208, in dem das zweite Objekt 206 reist, zu identifizieren, wie zum Beispiel ohne darauf beschränkt zu sein, das erste Bild und/oder Video des zweiten Objektes, ein Ort der feststehenden Kamera 202, eine Marke, ein Model und/oder eine Farbe des Fahrzeugs, in dem das zweite Objekt reist, ein mit dem Fahrzeug assoziiertes Nummernschild, in dem das zweite Objekt reist, eine Straße, in der das Fahrzeug reist, ein Status aller erfassten Blinker, die mit dem Fahrzeug assoziiert sind, eine gewünschte Art des zweiten Blickwinkels (zum Beispiel Frontal, Dreiviertelprofil und/oder Profil) und/oder andere Information, die zur Identifizierung des zweiten Objektes 206 und/oder des Fahrzeugs 208 notwendig ist oder dabei helfen).
  • In einigen Ausführungsformen kann eine Datenverarbeitungsvorrichtung in der feststehenden Kamera 202 oder eine Datenverarbeitungsvorrichtung in dem RAN 152 aus 1 (in 2 nicht dargestellt) aus allen möglichen zukünftigen Wegen unter Verwendung von Abfanginformation, die von der feststehenden Kamera bereitgestellt werden, wie beispielsweise einer aktuellen Fahrspur oder einem Blinker des Fahrzeugs 208 vorauswählen und weniger als alle unbemannten mobilen Vehikel 204 zum Versenden vorauszuwählen. Beispielsweise, wenn der linke Blinker des Fahrzeugs 208 eingeschaltet ist, kann die Datenverarbeitungsvorrichtung die Versendeinstruktion und die Abfanginformation nur zu dem in 2 unteren unbemannten mobilen Vehikel 204 übertragen und nicht zu dem oberen unbemannten mobilen Vehikel 204.
  • In noch weiteren Ausführungsformen kann eine in der feststehenden Kamera 202 angeordnete oder mit dieser gekoppelte Datenverarbeitungsvorrichtung die Versendeinstruktion und die Abfanginformation drahtlos aussenden zum direkten drahtlosen Empfangen durch ein oder mehrere der unbemannten mobilen Vehikel 204 innerhalb der Sendereichweite der feststehenden Kamera 202. Diese unbemannten mobilen Vehikel 204, die die Versendeinstruktion und die Abfanginformation empfangen, können dann individuell oder als Gruppe bestimmen, ob und welche das zweite Objekt und/oder Fahrzeug abfangen können und können eine Bestätigung und Antwort an die feststehende Kamera übertragen einschließlich ihrer aktuellen Position und/oder Bildparameter ihrer assoziierten Kameras (zum Beispiel Auflösung, Sichtfeld, Brennweite, Lichtempfindlichkeit, und so weiter). Die Datenverarbeitungsvorrichtung könnte dann bestimmen, welchem, oder möglicherweise allen, der bestätigenden unbemannten mobilen Vehikel das Versenden zum Abfangen bestätigt wird, zum Aufnehmen eines zweiten Bildes und/oder Videos des zweiten Objektes basierend auf, unter anderen Möglichkeiten, der geografischen Nähe (vorzugsweise näher an der Reiserichtung des zweiten Objektes und/oder des zweiten Fahrzeugs) und/oder Abbildungsparametern (vorzugsweise verbesserte/höhere Abbildungsparameter).
  • Nunmehr Bezug nehmend auf 3, eine schematische Skizze veranschaulicht eine Datenverarbeitungsvorrichtung 300 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. Die Datenverarbeitungsvorrichtung 300 kann zum Beispiel in die feststehende Videokamera 102, in eine Verarbeitungseinheit angrenzend an die feststehende Videokamera 102 aber kommunikativ mit der feststehenden Videokamera 102 gekoppelt, an einer entfernten Server-Vorrichtung in dem RAN 152 (wie beispielsweise bei dem Controller 156), der der feststehenden Videokamera 102 und dem unbemannten mobilen Vehikel 104 über das RAN 152 zugänglich ist, an dem unbemannten mobilen Vehikel 104 oder an irgendeinem anderen Netzwerkort eingebettet sein. Wie in 3 dargestellt, beinhaltet die Datenverarbeitungsvorrichtung 300 eine Kommunikationseinheit 302, die mit einem allgemeinen Daten- und Adressbus 317 einer Verarbeitungseinheit 303 gekoppelt ist. In einigen Ausführungsformen kann die Datenverarbeitungsvorrichtung 300 auch eine Eingabeeinheit (zum Beispiel eine Tastatur, eine Zeigevorrichtung, eine berührungsempfindliche Oberfläche, und so weiter) 306 und einen Bildschirm 305 beinhalten, die jeweils derart gekoppelt sind, dass sie mit der Verarbeitungsvorrichtung 303 in Kommunikation stehen.
  • Ein Mikrofon 320 kann zum Erfassen von Audio zur gleichen Zeit wie ein Bild oder Video vorhanden sein, das von der Verarbeitungseinheit 303 weiter codiert wird, und als Audio/Video-Stream-Daten durch die Kommunikationseinheit 302 zu anderen Vorrichtungen übertragen wird. Ein Kommunikationslautsprecher 322 kann zum Reproduzieren von Audio vorhanden sein, das zu der Datenverarbeitungsvorrichtung 300 über die Kommunikationseinheit 302 gesendet wird, oder kann verwendet werden, um Alarmtöne oder andere Arten von vorab aufgenommenem Audio abzuspielen, wenn eine Übereinstimmung mit einem Objekt von Interesse gefunden wurde, um in der Nähe befindliche Polizisten zu alarmieren.
  • Die Verarbeitungseinheit 303 kann einen Code Read Only Memory (ROM) 312 beinhalten, der mit dem allgemeinen Daten- und Adressbus 317 gekoppelt ist, zum Speichern von Daten zum Initialisieren von Systemkomponenten. Die Verarbeitungseinheit 303 kann ferner einen Mikroprozessor 313 beinhalten, der durch den allgemeinen Daten- und Adressbus 317 an einem Random Access Memory (RAM) 304 und einen statischen Speicher 316 gekoppelt ist.
  • Die Kommunikationseinheit 302 kann einen oder mehrere drahtgebundene oder drahtlose Eingabe/Ausgabe (I/O)-Schnittstellen 309 beinhalten, die konfigurierbar sind, um mit anderen Vorrichtungen zu kommunizieren, wie zum Beispiel einem tragbaren Funkgerät, einem Tablett, drahtlosen RAN und/oder Fahrzeugtransceivern.
  • Die Kommunikationseinheit 302 kann einen oder mehrere drahtlose Transceiver 308 beinhalten, wie zum Beispiel einen DMR-Transceiver, einen P25-Transceiver, einen Bluetooth-Transceiver, einen Wi-Fi-Transceiver, der möglicherweise gemäß einen IEEE 802.11 Standard arbeitet (zum Beispiel 802.11 a, 802.11b, 802.11 g), einen LTE-Transceiver, einen WiMAX-Transceiver, der möglicherweise gemäß einem IEEE 802.16 Standard arbeitet und /oder ähnliche Arten von drahtlosen Transceivern, die konfigurierbar sind, um über ein drahtloses Funknetzwerk zu kommunizieren. Die Kommunikationseinheit 302 kann zusätzlich oder alternativ einen oder mehrere drahtgebundene Transceiver 308 beinhalten, wie zum Beispiel einen Ethernet-Transceiver, einen Universal Serial Bus (USB)-Transceiver, oder ähnliche Transceiver, die konfigurierbar sind, um über eine Twisted-Pair-Leitung, ein Koaxialkabel, eine Glasfaserverbindung oder eine ähnliche physische Verbindung mit einem drahtgebundenen Netzwerk zu kommunizieren. Der Transceiver 308 ist ferner mit einem kombinierten Modulator/Demodulator 310 verbunden.
  • Der Mikroprozessor 313 hat Anschlüsse zum Verbinden mit der Eingangseinheit 306 und der Mikrofoneinheit 320 und zu dem Bildschirm 305 und dem Lautsprecher 322. Der statische Speicher 316 kann Betriebscode 325 für den Mikroprozessor 313 speichern, der, wenn ausgeführt, eine oder mehrere der Datenverarbeitungsvorrichtungsschritte durchführt, die in 4 und dem begleitenden Text und/oder 5 und dem begleitenden Text dargelegt sind.
  • Der statische Speicher 316 kann beispielsweise eine Festplatte (HDD), ein optisches Laufwerk, wie zum Bespiel ein CD-Laufwerk oder ein DVD-Laufwerk, ein Solid-State-Laufwerk (SSD), ein Bandlaufwerk, ein Flash-Speicher-Laufwerk oder ein Bandlaufwerk umfassen, um einige zu nennen.
  • Prozesse zur Verbesserung der Objekterkennungssicherheit von Objekten im Vergleich zu Objekten von Interesse durch Koordinierung von feststehenden und kamerabestückten unbemannten mobilen Vehikeln
  • Nun zu den 4 und 5, die Flussdiagramme veranschaulichen Verfahren 400 und 500 zur Verbesserung des Sicherheitsniveaus der Objekterkennung von Objekten verglichen mit Objekten von Interesse durch Koordinierung von feststehenden und kamerabestückten unbemannten mobilen Vehikeln. Während eine bestimmte Reihenfolge von Verarbeitungsschritten, Nachrichtenempfängen und/oder Nachrichtenübertragungen in den 4 und 5 für exemplarische Zwecke angegeben ist, können Timing und Reihenfolge dieser Schritte, Empfänge und Übertragungen gegebenenfalls variieren ohne den Zweck und die Vorteile der im weiteren Verlauf dieser Offenbarung ausführlich dargelegten Beispiele zu negieren. Eine zugehörige Datenverarbeitungsvorrichtung, wie beispielsweise die in 3 vorstehend beschriebene, kann das Verfahren 400 und/oder 500 beim Einschalten, einen vorbestimmten Zeitraum danach, als Reaktion auf ein lokal an der Vorrichtung über einen internen Prozess ausgelösten Trigger oder als Reaktion auf einen Trigger, der extern von der Datenverarbeitungsvorrichtung erzeugt und über eine Eingabeschnittstelle empfangen wird, unter anderen Möglichkeiten ausführen. Insbesondere beschreibt das Verfahren 400 einen Prozess zum Verbessern der Sicherheit der Objekterkennung von Objekten im Vergleich zu Objekten von Interesse durch Koordinierung von unbeweglichen und kamerabestückten und unbemannten mobilen Vehikeln aus der Perspektive einer zentralisierten Datenverarbeitungsvorrichtung, während das Verfahren 500 einen ähnlichen Prozess zum Verbessern der Sicherheit der Objekterkennung von Objekten verglichen mit Objekten von Interesse durch Koordinierung von feststehenden und kamerabestückten unbemannten mobilen Vehikeln aus der Perspektive eines verteilten drahtlosen Netzwerks von Vorrichtungen beschreibt.
  • Das Verfahren 400 beginnt bei Schritt 402, in welchem eine Datenverarbeitungsvorrichtung, die kommunikativ mit einer ersten feststehenden Kamera verbunden ist, einen ersten Blickwinkel (POV) eines Bildes und/oder Videos eines ersten Objektes von der feststehenden Kamera empfängt. Die feststehende Kamera kann beispielsweise eine feststehende Kamera sein, die mit einem Strommast verbunden ist, eine an einem Geldautomaten ausgerüstete Kamera, eine mit einer Ampel verbundene Kamera oder irgendeine andere feststehende Kamera mit einem Sichtfeld, welche das erste Objekt abdeckt.
  • Bei Schritt 404 vergleicht die Datenverarbeitungsvorrichtung den ersten POV des ersten Objektes mit einem Objekt des Interesses, welches bei der Datenverarbeitungsvorrichtung gespeichert ist oder entfernt von der Datenverarbeitungsvorrichtung gespeichert, aber für die Datenverarbeitungsvorrichtung zugänglich gemacht ist. Beispielsweise kann das gespeicherte Objekt von Interesse ein Bild einer Person von Interesse (innerhalb oder außerhalb eines Fahrzeugs und beispielsweise eine Gesichtserfassung der Person von Interesse oder besondere Merkmale, wie zum Beispiel eine Tätowierung oder eine Narbe der Person von Interesse) oder ein Fahrzeug sein (beispielsweise ein Bild des Fahrzeugs, eine bestimmte Marke und Modell des Fahrzeugs oder ein bestimmtes Nummernschild des Fahrzeugs) oder kann ein Bild eines anderen Objektes sein (wie zum Beispiel eine bestimmte Art von Schusswaffe, ein bestimmtes Wort oder eine bestimmte Phrase auf einem Autoaufkleber, ein bestimmter von einer Person getragener Hut, ein bestimmter Warnaufkleber, der mit einer brennbaren, explosiven oder biologischen Substanz assoziiert ist, und/oder anderen Arten von Objekten von Interesse).
  • Die Datenverarbeitungsvorrichtung kann bestimmen, ob der erste POV des Bildes und/oder Videos des ersten Objektes mit einem Objekt von Interesse mit einem ersten bestimmten Sicherheitsniveau innerhalb eines vorbestimmten Bereichs des Sicherheitsniveaus übereinstimmt. Wie vorstehend dargelegt erstreckt sich dieser vorbestimmte Bereich des Sicherheitsniveaus unterhalb der absoluten Sicherheit (beispielsweise weniger als 100 %, weniger als 90 %, oder weniger als 80 %, 70 %, oder 60 %) und oberhalb der absoluten Unsicherheit (beispielsweise größer als 0 %, größer als 10 %, größer als 20 %, oder größer als 30 % oder 40 %) und kann basierend auf einer Identität oder Kategorie, die mit dem Objekt von Interesse assoziiert ist, variieren (beispielsweise ein größerer Bereich aber möglicherweise insgesamt nach unten verschoben, wie zum Beispiel 10 % bis 60 % Sicherheit für ernstere oder gefährliche Objekte von Interesse, wie zum Beispiel Personen, die für Straftaten verurteilt sind, oder Grafiken, die mit biologischen Gefahren assoziiert sind, und ein kleinerer Bereich, aber möglicherweise insgesamt nach oben verschoben, wie zum Beispiel 40 bis 70 % für weniger ernste oder gefährliche Objekte von Interesse, wie zum Beispiel Personen, die für Ordnungswidrigkeiten verurteilt sind, oder Grafiken, die mit kriminellen Organisationen assoziiert sind). Für erste bestimmte Sicherheitsniveaus, die über der oberen Grenze des vorbestimmten Bereichs des Sicherheitsniveaus liegen, wie zum Beispiel 60 % für ernstere oder gefährlichere Objekte von Interesse, kann beispielsweise immer ein Responder versendet werden und die offenbarten Prozesse zum Bestätigen der Sicherheit werden nicht ausgeführt.
  • Verschiedene Text-, Bild- und/oder Objekterkennungsalgorithmen können verwendet werden, um das erfasste POV des ersten Objektes mit dem gespeicherten Objekt von Interesse zu vergleichen, einschließlich, aber nicht darauf beschränkt, geometrisches Hashing, Kantenerkennung, skaleninvariable Merkmalstransformation (SIFT), beschleunigte robuste Merkmale („speeded-up robust features“ (SURF)), neuronale Netzwerke, Deep Learning, genetische, optische Zeichenerkennung (OCR), gradientenbasierte und ableitungsbasierte Übereinstimmungsansätze, Viola-Jones-Algorithmus, Vorlagenübereinstimmung oder Bildsegmentierung und Blob-Analyse. Die Sicherheit einer Übereinstimmung wird durch den Übereinstimmungsalgorithmus bereitgestellt und stellt eine numerische Repräsentation dar, wie sicher und vertrauend der Algorithmus ist, dass das erste Objekt (aus dem ersten erfassten Bild und/oder Video des ersten POV) mit dem Objekt von Interesse übereinstimmt. Diese nummerische Repräsentation kann ein Prozentwert (zwischen 0 und 100 %, wie oben beschrieben), ein Dezimalwert (zwischen 0 und 1) oder irgendein anderer vorgegebener nummerischer Bereichswert mit einer oberen und unteren Grenze sein. Ein oder mehrere zusätzliche Blickwinkel des ersten Objektes können notwendig sein, damit der Algorithmus sicherer oder vertrauender wird, dass eine Übereinstimmung zwischen dem ersten Objekt und dem Objekt von Interesse, das in einem Text, einem Bild, oder einer Objektdatenbank gespeichert ist, besteht. Wenn die Übereinstimmung bei Schritt 404 nicht in den vorbestimmten Bereich des Sicherheitsniveaus fällt, geht die Verarbeitung wieder zu Schritt 404 zurück und das erste Objekt wird mit einem anderen gespeicherten Objekt von Interesse verglichen. Sobald alle Objekte von Interesse verglichen wurden, kann das Verfahren 400 stoppen und das System kann letztendlich davon absehen, einen ersten Responder zu versenden oder in anderer Weise Maßnahmen das erste Objekt betreffend zu ergreifen.
  • Andererseits und unter der Annahme, dass der erste POV des ersten Objektes mit einem gespeicherten Objekt von Interesse mit einem ersten bestimmten Sicherheitsniveau in dem vorbestimmten Bereich des Sicherheitsniveaus übereinstimmt, fährt das Verarbeiten bei Schritt 406 fort, wo die Datenverarbeitungsvorrichtung ein oder mehr kamerabestückte unbemannte mobile Vehikel in einer Reiserichtung des ersten Objektes identifiziert. Die Datenverarbeitungsvorrichtung kann eine vorbestimmte Liste von kamerabestückten unbemannten mobilen Vehikel-Standorten führen oder eine geführte Liste von kamerabestückten unbemannten mobilen Vehikelstandorten dynamisch updaten, während sie ihre aktuellen Standorte melden. Jedes kamerabestückte unbemannte mobile Vehikel in der Liste kann über eine eindeutige alphanummerische Kennung identifiziert werden und kann auch mit einem Status assoziiert sein, zum Beispiel ob es zum Versenden verfügbar ist, seinen Niveaus der Batterieladung, seinen geschätzten Flugzeiten basierend auf dem verbleibenden Energieniveau, Abbildungseigenschaften, die mit der Kamera des unbemannten Vehikels assoziiert sind, und andere Informationen, die nützlich sind, um durch die Datenverarbeitungsvorrichtung zu bestimmen, welches oder welche kamerabestückten unbemannten mobilen Vehikel versendet werden sollen, um das erste Objekt für zusätzliche Bilderfassungszwecke abzufangen. Beispielswiese kann die Datenverarbeitungsvorrichtung ein verfügbares kamerabestücktes unbemanntes mobiles Vehikel aus der Liste auswählen, mit einer Position, die einem erwarteten Abfangpunkt des ersten Objektes (oder des Fahrzeugs, das das erste Objekt trägt) am nächsten liegt, unter Berücksichtigung von Geschwindigkeit, Richtung, Fahrspur, und/oder kartografischen Informationen von Straßen und/oder anderen Wegen, auf denen das erste Objekt oder Fahrzeug reist, ein kamerabestücktes unbemanntes mobiles Vehikel mit einem höchsten Bilderfassungsparameter relativ zu dem ersten Objekt (zum Beispiel das Bevorzugen einer besseren Verschlusszeit, wenn das erste Objekt/Fahrzeug mit einer hohen Geschwindigkeit reist, das Bevorzugen einer höheren Auflösung, wenn das erste Objekt/Fahrzeug mit einer niedrigen/nominalen Geschwindigkeit reist unter, zum Beispiel, 25 oder 35 Meilen pro Stunde, das Bevorzugen einer höheren Zoomfähigkeit und/oder optischen Bildstabilisierungsfähigkeit, wenn das Objekt von Interesse relativ klein ist, zum Beispiel weniger als 25 cm2 in der Fläche oder 25 cm3 im Volumen, wobei ein luftgestütztes mobiles Vehikel oder ein landgestütztes mobiles Vehikel in Abhängigkeit von einer Höhe, in der das erste Objekt existiert, und einem gewünschten zweiten POV des ersten Objektes, oder einer Kombination der vorstehenden). Parameter, wie die vorstehenden können in der an dem Datenverarbeitungsgerät geführten Liste vorausgefüllt oder dem Datenverarbeitungsgerät zugänglich gemacht werden oder können der Datenverarbeitungsanlage von jedem kamerabestückten unbemannten mobilen Vehikel übertagen werden und in der Liste gespeichert werden. In einigen Fällen kann die Datenverarbeitungsvorrichtung nur ein einzelnes bestes oder leistungsfähigstes kamerabestücktes unbemanntes mobiles Vehikel bei Schritt 406 identifizieren, während in anderen Ausführungsformen die Datenverarbeitungsvorrichtung bei Schritt 406 unter Verwendung eines oder mehrere der vorstehenden Parametersätze zwei oder mehr kamerabestückte unbemannte mobile Vehikel identifizieren kann.
  • Sobald die Datenverarbeitungsvorrichtung ein oder mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel bei Schritt 406 identifiziert hat, überträgt sie bei Schritt 408 über einen Transceiver eine Versendeinstruktion und Abfanginformation an das identifizierte eine oder mehrere kamerabestückte unbemannte mobile Vehikel. Die Versendeinstruktion und Abfanginformation kann an das eine oder mehrere kamerabestückte unbemannte mobile Vehikel über ein RAN, wie das RAN 152 und die drahtlose Infrastrukturverbindung 140, 144 wie in 1 dargestellt, oder über drahtlose Direktmodusverbindungen, wie beispielsweise die in 1 dargestellte drahtlose Verbindung 142, übertragen werden. In noch weiteren Beispielen kann eine drahtgebundene Verbindung verwendet werden, um die Datenverarbeitungsvorrichtung kommunikativ mit den identifizierten einen oder mehreren kamerabestückten unbemannten mobilen Vehikeln zu verbinden, um letztlich die identifizierten einen oder mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel über eine Nahfeld- oder drahtgebundene Kopplung an einem Ladepunkt, bei dem das mobile Vehikel ruht, zu erreichen.
  • Die Versendeinstruktion kann in die Abfanginformationsnachricht integriert sein oder als eine separate Nachricht gesendet werden, die fordert, dass die empfangenden identifizierten einen oder mehreren bevorzugten kamerabestückten unbemannten mobilen Vehikel Maßnahmen ergreifen, um das erste Objekt abzufangen und einen zweiten POV des Bildes und/oder Videos des ersten Objektes aufzunehmen, um eine Sicherheit, dass das erste Objekt mit dem Objekt von Interesse übereinstimmt, zu verbessern, allein oder in Kombination mit dem ersten POV des ersten erfassten Objektes von der feststehenden Kamera, das bei Schritt 402 erhalten wurde.
  • Die Abfanginformation beinhaltet Information, die ausreichend ist, für das identifizierte eine oder mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel das erste Objekt zu identifizieren und einen zweiten POV der Bild-/Videoerfassung des ersten Objektes aufzunehmen. Beispielsweise kann die Abfanginformation eine Kopie des erfassten ersten POV des Bildes und/oder Videos des ersten Objektes beinhalten, das von der feststehenden Kamera bei Schritt 402 aufgenommen wurde, den das identifizierte eine oder mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel nutzen kann, um einen Bereich um sich herum auf das erste sich ihm nähernde Objekt zu überwachen. In anderen Ausführungsformen kann die Abfanginformation Information beinhalten, die ein Fahrzeug identifiziert, in welchem das erste Objekt reist (was in dem ersten POV des Bildes und/oder Videos, der von der feststehenden Kamera bereitgestellt wird, enthalten sein kann oder auch nicht, was aber separat abgebildet und/oder durch die feststehende Kamera verarbeitet worden sein kann) wie beispielsweise Marke und Modell eines Fahrzeugs auf oder in dem das erste Objekt reist oder ein Nummernschild eines Fahrzeugs auf oder in dem das erste Objekt reist. Zusätzlich oder alternativ kann die Abfanginformation Information enthalten, die eine Richtung und/oder eine Reisegeschwindigkeit des ersten Objektes oder Fahrzeugs auf oder in welchem das erste Objekt reist identifiziert, sie kann auch eine Fahrspur beinhalten aus einer Vielzahl von verfügbaren Fahrspuren, in welcher das Fahrzeug reist, und kann auch einen Status eines Abbiegesignals beinhalten, wie zum Beispiel ein Blinksignal oder eine Handgeste, die eine bevorstehende Wendung des Fahrzeugs anzeigt. Darüber hinaus kann die Abfanginformation eine Position der feststehenden Kamera und einen Zeitpunkt, bei dem das erste Objekt durch die festsehende Kamera erfasst wurde, beinhalten. Andere Informationen können ebenfalls aufgenommen werden. Diese Information kann dann genutzt werden von dem empfangenen identifizierten einem oder mehreren bevorzugten kamerabestückten unbemannten mobilen Vehikel um schneller und präziser das erste Objekt zu lokalisieren.
  • In einigen Ausführungsformen kann die Versendeinstruktion oder Abfanginformation auch Information beinhalten, die ausreichend ist, ein gewünschtes POV des ersten Objektes zu identifizieren, die eine Verbesserung der Sicherheit maximieren würde. Beispielsweise und wie in 6 dargestellt, wenn das erste Objekt ein Gesicht eines Fahrers in einem Fahrzeug ist, das durch die feststehende Kamera in einem ersten POV einer Profilansicht 604 oder einer Dreiviertelprofilansicht 606 erfasst wurde, entweder aufgrund von Hindernissen, Abbildungscharakteristiken der feststehenden Kamera oder der Charakteristiken der Profilansicht/Dreiviertelprofilansicht selbst, kann eine Sicherheit einer Übereinstimmung zwischen dem ersten POV der Profilansicht 604/Dreiviertelprofilansicht 606 und einem gespeicherten Objekt von Interesse (vielleicht eine gespeicherte Frontalansicht 602 eines bestimmten Verdächtigen, der per Haftbefehl oder aus einem anderen Grund gesucht wird) 60 % sein und kann in einen vorbestimmten Bereich des Sicherheitsniveaus fallen, wo es nicht vollständig sicher ist, dass es eine Übereinstimmung gibt, es aber auch nicht vollständig sicher ist, dass es keine Übereinstimmung gibt. Dementsprechend kann die Datenverarbeitungsvorrichtung einen bestimmten gewünschten POV identifizieren als Funktion des ersten bereits bereitgestellten POV, der eine Verbesserung des POV verglichen mit dem ersten POV und/oder komplementär zu dem ersten POV ist, um ein zweites Sicherheitsniveau zu maximieren, wie zum Beispiel eine Frontalansicht 602 des ersten Objektes, das die Datenverarbeitungsvorrichtung von den identifizierten einen oder mehreren bevorzugten kamerabestückten unbemannten mobilen Vehikeln empfangen möchte, und kann solch ein Verlangen oder Anweisung in der Versendeinstruktion oder Abfanginformation übertragen. Das empfangende identifizierte eine oder mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel kann dann diese zusätzliche Information nutzen, um sich selbst zu positionieren, um die bestimmte erwünschte POV des ersten Objektes zu erhalten.
  • Bei Schritt 410 empfängt die Datenverarbeitungsvorrichtung als Reaktion auf das Veranlassen der Übertragung der Versendeinstruktion und der Abfanginformation an die identifizierten einen oder mehreren bevorzugten kamerabestückten unbemannten mobilen Vehikel bei Schritt 408 einen erfassten zweiten POV des Bildes und/oder Videos des ersten Objektes. Der zweite POV des Bildes und/oder Videos kann aus dem gleichen oder einem anderen POV als der erste POV des Bildes und/oder Videos des ersten Objektes aufgenommen sein, kann aus dem gleichen oder einem anderen Abstand als der erste POV des Bildes und/oder Videos aufgenommen sein oder kann unter Verwendung einer Kamera mit anderen, vorzugsweise höheren, Abbildungsparametern als der erste POV des Bildes und/oder Videos aufgenommen sein. In einigen Fällen, in denen die Versendeinstruktion und die Abfanginformation an mehrere bevorzugte kamerabestückte unbemannte mobile Vehikel bei Schritt 408 übertragen werden, können mehrere erfasste zweite POV der Bilder und/oder Videos des ersten Objektes von der Datenverarbeitungsvorrichtung bei Schritt 410 empfangen werden.
  • Bei Schritt 412 wird der erfasste zweite POV des Bildes und/oder Videos (oder Bilder und/oder Videos falls mehrere vorhanden sind) in den gleichen oder einen ähnlichen Objektidentifizierungs-/Übereinstimmungsalgorithmus wie vorstehend oben in Schritt 404 beschrieben zurück geführt, begleitet von oder auch nicht dem ersten POV des Bildes und/oder Videos, und ein zweites Sicherheitsniveau, dass das erste Objekt mit dem Objekt von Interesse aus Schritt 404 übereinstimmt wird bestimmt. In den meisten Fällen wird das bestimmte zweite Sicherheitsniveau verschieden sein von dem ersten bestimmten Sicherheitsniveau und vorzugsweise wird es deutlich größer sein als das erste bestimmte Sicherheitsniveau (zum Beispiel zwanzig Prozentpunkte oder mehr, dass eine Übereinstimmung vorliegt, und in einigen Ausführungsformen über der oberen Grenze des vorbestimmten Bereichs des Sicherheitsniveaus, was bedeutet, dass der zweite POV des ersten Objektes geholfen hat, zu bestätigen, dass das erste Objekt mit dem Objekt von Interesse übereinstimmt) oder signifikant geringer als das erste bestimmte Sicherheitsniveau (zum Beispiel zwanzig Prozentpunkte oder mehr niedriger, dass eine Übereinstimmung vorliegt, und in einigen Ausführungsformen niedriger als die untere Grenze des vorbestimmten Bereichs des Sicherheitsniveaus, was bedeutet, dass der zweite POV des ersten Objektes geholfen hat, zu bestätigen, dass das erste Objekt nicht mit dem Objekt von Interesse übereinstimmt).
  • In einigen Ausführungsformen und als Ergebnis des Findens einer Übereinstimmung mit einem höheren zweiten Sicherheitsniveau, das über der oberen Grenze des vorbestimmten Sicherheitsbereichs ist, beispielsweise größer als 60 %, 70%, 80 % oder 90 %, kann die Datenverarbeitungsvorrichtung bewirken, dass ein Alarm übertragen wird zu einer Versendekonsole und/oder einer mobilen Datenverarbeitungsvorrichtung deren Position in einem Bereich innerhalb einer Schwellenwertdistanz zu den einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikeln bestimmt ist, beispielsweise 0,5, 1 oder 2 Meilen. In einigen Ausführungsformen kann der Alarm die erfassten ersten und/oder zweiten POV der Bilder und/oder Videos des ersten Objektes, oder Links dazu, und/oder einen oder beide der bestimmten ersten und zweiten Sicherheitsniveaus beinhalten. Der Alarm kann ferner eine aktuelle Position (oder Positionen) der einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel beinhalten, falls sie das erste Objekt immer noch verfolgen und/oder Positionen der feststehenden Kamera und der einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel beinhalten, als die ersten und zweiten POV der Bilder und/oder Videos aufgenommen wurden. In noch weiteren Beispielen kann ein Live-Video-Stream (oder Streams) von den einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikeln des ersten Objektes (vorausgesetzt, das erste Objekt wird immer noch verfolgt) nach dem Alarm oder als Reaktion auf ein empfangendes Gerät, das einen Link in dem Alarm aktiviert, der solch einen Live-Video-Stream anfordert, bereitgestellt werden.
  • Die Art des bereitgestellten Alarms kann von dem zweiten Sicherheitsniveau und/oder einer Identität oder Kategorie, die mit dem Objekt von Interesse assoziiert ist, abhängen (zum Beispiel ein auffälligerer Alarm, wie zum Beispiel ein haptischer Alarm und/oder eine blinkende visuelle Vollbildalarmmeldung für ernstere oder gefährlichere Objekte von Interesse, wie zum Beispiel Personen, die wegen Straftaten verurteilt wurden, oder Grafiken, die mit biologischen Gefährdungen assoziiert sind, und einen subtileren Alarm, wie zum Beispiel einem Audio-Ton oder einer Textnachricht für weniger ernste oder gefährliche Objekte von Interesse, wie zum Beispiel Personen, die wegen einer Ordnungswidrigkeit verurteilt wurden, oder Grafiken, die mit bekannten kriminellen Organisationen assoziiert sind).
  • Nun zu 5, das Verfahren 500 beschreibt einen ähnlichen Prozess zur Verbesserung der Sicherheit der Objekterkennung von Objekten verglichen mit Objekten von Interesse durch feststehende und kamerabestückte unbemannte mobile Vehikel aus der Perspektive eines verteilten drahtlosen Netzwerks von Vorrichtungen. Wo ähnliche Schritte und Prozesse in 5 wie in 4 dargestellt sind, werden die bereits dargestellten Beschreibungen von 4 durch Bezugnahme aufgenommen, ohne sie hier ipsis verbis zu wiederholen.
  • Das Verfahren 500 beginnt bei Schritt 502 ähnlich zum Schritt 402 von 4, wo eine zweite Datenverarbeitungsvorrichtung einen ersten Blickwinkel (POV) eines zweiten Objektes von einer feststehenden Kamera empfängt. Die zweite Datenverarbeitungsvorrichtung vergleicht den ersten POV des zweiten Objektes mit einem Objekt von Interesse, welches bei der zweiten Datenverarbeitungsvorrichtung gespeichert ist oder entfernt von der zweiten Datenverarbeitungsvorrichtung gespeichert, aber der zweiten Datenverarbeitungsvorrichtung zugänglich gemacht ist.
  • Bei Schritt 504 und ähnlich zu Schritt 404 von 4 bestimmt die zweite Datenverarbeitungsvorrichtung, ob der erste POV des Bildes und/oder Videos des zweiten Objektes mit einem Objekt von Interesse mit einem ersten bestimmten Sicherheitsniveau innerhalb eines vorbestimmten Bereichs des Sicherheitsniveaus übereinstimmt.
  • Wenn die Übereinstimmung bei Schritt 504 nicht in den vorgegebenen Bereich des Sicherheitsniveaus fällt, geht das Verarbeiten wieder zu Schritt 504 zurück und das zweite Objekt wird mit einem anderen gespeicherten Objekt von Interesse verglichen. Sobald alle Objekte von Interesse verglichen wurden, kann das Verfahren 500 stoppen und das System kann letztlich davon absehen, einen ersten Responder anzufordern oder irgendeine andere Maßnahme bezüglich des zweiten Objektes zu ergreifen.
  • Andererseits und unter der Annahme, dass der erste POV des zweiten Objektes mit einem gespeicherten Objekt von Interesse mit einem ersten bestimmten Sicherheitsniveau in dem vorbestimmten Bereich des Sicherheitsniveaus übereinstimmt, fährt das Verarbeiten mit Schritt 508 fort, ähnlich zum Schritt 408 von 4, wo die zweite Datenverarbeitungsvorrichtung dieses Mal eine Übertragung, über den Transceiver, einer Versendeinstruktion und einer Abfanginformation verursacht, die drahtlos übertragen wird zum Empfang durch ein oder mehrere kamerabestückte unbemannte mobile Vehikel in einer Umgebung (zum Beispiel einer drahtlosen Direktmodusübertragungsreichweite) der zweiten Datenverarbeitungsvorrichtung und/oder des Transceivers. Die Versendeinstruktion und Abfanginformation kann in einer Weise ausgebildet sein, die dieselbe oder eine ähnliche Information enthält, wie bereits vorstehend im Zusammenhang mit Schritt 408 von 4 dargelegt ist.
  • In einigen Ausführungsformen kann die zweite Datenverarbeitungsvorrichtung sich auf das Empfangen einer oder mehrerer kamerabestückter unbemannter mobiler Vehikel verlassen, zum Bestimmen, individuell oder über zusätzliche drahtlose Kommunikationen zwischen diesen, welche der einen oder mehreren kamerabestückten unbemannten mobilen Vehikel, die die Sendung empfangen, tatsächlich ausgesendet werden sollen, um das zweite Objekt abzufangen und einen zweiten POV der Bilder und/oder Videos des zweiten Objektes aufzunehmen. Die Individual- oder Gruppen-Bestimmung kann unter Verwendung ähnlicher Entscheidungsbäume und Parameter erfolgen, wie sie bereits vorstehend im Zusammenhang mit den 1 und 4 dargelegt sind.
  • In alternativen Ausführungsformen und nach dem Veranlassen der drahtlosen Ausstrahlung der Versendeinstruktion und Abfanginformation, kann die zweite Datenverarbeitungsvorrichtung drahtlos, über den Transceiver von einer oder mehreren kamerabestückten unbemannten mobilen Vehikeln, die die Sendung(en) empfangen, jeweilige Empfangsbestätigungen der Versendeinstruktion und Abfanginformation und jeweilige kamerabestückte unbemannte mobile Vehikelparameterinformation beinhaltend empfangen, wobei die kamerabestückte unbemannte mobile Vehikelparameterinformation eines oder mehrere beinhaltet aus: Positionsinformation, Batterieniveauinformation, Flugfähigkeiten (wie zum Beispiel Geschwindigkeit, Beschleunigung, Flugobergrenze) und Kameraabbildungsparameterinformation. Die zweite Datenverarbeitungsvorrichtung kann dann die jeweils empfangene Parameterinformation der kamerabestückten unbemannten mobilen Vehikel verwenden, um ein bestimmtes der zwei oder mehr kamerabestückten unbemannten mobilen Vehikel zum Erfassen des zweiten POV des Bildes und/oder Videos des zweiten Objektes zu identifizieren, in ähnlicher Weise zu dem bereits vorstehend dargestellten (zum Beispiel Bevorzugen einer Position die am nächsten an einem erwarteten Abfangpunkt des ersten Objektes ist, und/oder Bevorzugen von Bildparametem der Kamera des mobilen Vehikels und/oderBevorzugen eines Typs von mobilen Vehikeln). Sobald das eine bestimmte identifiziert ist, kann die zweite Datenverarbeitungsvorrichtung ein Aussenden einer zusätzlichen elektronischen Instruktion verursachen oder direkt an das bestimmte eine der zwei oder mehr kamerabestückten unbemannten mobilen Vehikel übertragen, die das bestimmte eine der zwei oder mehr kamerabestückten unbemannten mobilen Vehikel weiter anweist, den zweiten POV des Bildes und/oder Videos des zweiten Objektes zu erfassen. Andere der zwei oder mehr kamerabestückten unbemannten mobilen Vehikel, die die weitere Instruktion von der zweiten Datenverarbeitungsvorrichtung nicht empfangen (oder die die Sendung empfangen aber bestimmen, dass sie nicht ausgewählt sind als das bestimmte eine der zwei oder mehr kamerabestückten unbemannten mobilen Vehikel, um das zweite Objekt abzufangen) unterlassen das Abfangen des zweiten Objektes zur zusätzlichen Bild- und/oder Videoerfassung. In einigen Fällen kann die zweite Datenverarbeitungsvorrichtung nur ein einzelnes, bestes oder leistungsfähigstes bestimmtes eines der kamerabestückten unbemannten mobilen Vehikel identifizieren, während in anderen Ausführungsformen die zweite Datenverarbeitungsvorrichtung zwei oder mehr kamerabestückte unbemannte mobile Vehikel unter Verwendung eines oder mehrerer der oben dargestellten Parameter identifizieren kann.
  • Bei Schritt 510 und irgendwie ähnlich zu Schritt 410 von 4, empfängt die zweite Datenverarbeitungsvorrichtung als Reaktion auf das Verursachen der Sendung der Versendeinstruktion und Abfanginformation an das eine oder mehrere kamerabestückte unbemannte mobile Vehikel bei Schritt 508, einen erfassten zweiten POV des Bildes und/oder Videos des ersten Objektes. In einigen Fällen, in denen mehrere kamerabestückte unbemannte mobile Vehikel die Sendung bei Schritt 508 empfangen und einen zweiten POV des zweiten Objektes erfasst haben, können von der zweiten Datenverarbeitungsvorrichtung bei Schritt 510 mehrere erfasste zweite POV der Bilder und/oder Videos des zweiten Objektes empfangen werden.
  • Bei Schritt 512 und in ähnlicher Weise zu Schritt 412 von 4, wird der erfasste zweite POV des Bildes und/oder Videos (oder Bilder und/oder Videos falls mehrere vorhanden sind) in den gleichen oder einen ähnlichen Objektidentifizierungs-/Übereinstimmungsalgorithmus, wie oben in Schritt 504 beschrieben, zurückgeführt, begleitet von dem ersten POV des Bildes und/oder Videos oder auch nicht, und ein zweites Sicherheitsniveau, das das zweite Objekt mit dem Objekt von Interesse aus Schritt 504 übereinstimmt wird bestimmt.
  • In einigen Ausführungsformen und als Ergebnis des Findens einer Übereinstimmung mit einem höheren zweiten Sicherheitsniveau, das höher ist als die obere Grenze des vorbestimmten Bereichs des Sicherheitsniveaus, beispielsweise größer als 60 %, 70 %, 80 %, oder 90 %, kann die zweite Datenverarbeitungsvorrichtung bewirken, dass ein Alarm an eine Versendekonsole oder eine mobile Datenverarbeitungsvorrichtung gesendet wird, die lokalisiert ist in einem Bereich innerhalb einer Schwellenwertdistanz, wie beispielsweise 0,5, 1, der 2 Meilen, von dem einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikeln. In einigen Ausführungsformen kann der Alarm die erfassten ersten und/oder zweiten POV der Bilder und/oder Videos des zweiten Objektes, oder Links dazu, und/oder eines oder beide der bestimmten ersten und zweiten Sicherheitsniveaus beinhalten. Der Alarm kann ferner eine aktuelle Position (oder Positionen) der einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel beinhalten, wenn diese das zweite Objekt immer noch verfolgen (und Standortinformation zurücksenden an die zweite Datenverarbeitungsvorrichtung) und/oder Positionen der feststehenden Kamera und der einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, wenn die ersten und zweiten POV der Bilder und/oder Videos aufgenommen werden. In noch weiteren Beispielen kann ein Live-Video-Stream (oder Streams) der einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel des zweiten Objektes (angenommen das zweite Objekt wird immer noch verfolgt) bereitgestellt werden im Anschluss an den Alarm oder als Reaktion auf eine empfangene Vorrichtung, die einen Link in dem Alarm aktiviert.
  • Zusammenfassung
  • In Übereinstimmung mit dem Vorstehenden wird eine verbesserte Vorrichtung, ein Verfahren und ein System offenbart zur Verbesserung der Sicherheit der Objekterkennung von Objekten, die von feststehenden Kameras abgebildet werden, durch intelligente Zusammenarbeit und Koordinierung zwischen den feststehenden Kameras und einem oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikeln. Als Folge des Vorstehenden können falsche Positive und falsche Negative erheblich reduziert und/oder eliminiert werden, was die Verlässlichkeit der Abbildungssysteme verbessert und die Anzahl der unnötig versendeten Polizisten oder andere Arten von Respondern reduziert, um einfach nur ein anfänglich niedriges oder mittleres Sicherheitsniveau der Übereinstimmung zu bestätigen.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein. Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist. Auch die Ausdrücke „Luftschnittstelle“ und „drahtlose Verbindung“ sollen als austauschbar betrachtet werden.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen. Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (20)

  1. Vorrichtung zur Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilen Vorrichtung zur Verbesserung einer Identifizierung eines Objektes von Interesse, wobei das Verfahren umfasst: Empfangen, an einer elektronischen Datenverarbeitungsvorrichtung von einer feststehenden Kamera, eines erfassten ersten Blickwinkels eines ersten erfassten Objektes und Bestimmen, mit einem ersten Sicherheitsniveau in einem vorbestimmten Bereich von Sicherheitsniveaus, dass der erfasste erste Blickwinkel des ersten Objektes mit einem ersten gespeicherten Objekt von Interesse übereinstimmt; Identifizieren, durch die elektronische Datenverarbeitungsvorrichtung, eines oder mehrerer kamerabestückter unbemannter mobiler Vehikel in einer bestimmten Reiserichtung des ersten erfassen Objektes; Übertragen, durch die elektronische Datenverarbeitungsvorrichtung an die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, einer Versendeinstruktion und einer Abfanginformation, wobei die Abfanginformation die bestimmte Reiserichtung des ersten erfassten Objektes, Information ausreichend um entweder das erste erfasste Objekt oder ein Fahrzeug, in dem das erste erfasst Objekt reist zu identifizieren, und Information, die einen gewünschten zweiten Blickwinkel des ersten erfassten Objektes identifiziert, der verschieden von dem ersten Blickwinkel ist, beinhaltet; Empfangen, durch die elektronische Datenverarbeitungsvorrichtung, über die identifizierten einen oder mehreren kamerabestückten unbemannten mobilen Vehikel, eines erfassten zweiten Blickwinkels des ersten erfassten Objektes; und Verwenden, durch die elektronische Datenverarbeitungsvorrichtung, des erfassten zweiten Blickwinkels des ersten erfassten Objektes, um mit einem zweiten Sicherheitsniveau zu bestimmen, dass das erste erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.
  2. Verfahren gemäß Anspruch 1 ferner umfassend, das Verwenden, durch die elektronische Datenverarbeitungsvorrichtung, des erfassten ersten Blickwinkels des ersten erfassten Objektes und des erfassten zweiten Blickwinkels des ersten erfassten Objektes, um mit dem zweiten Sicherheitsniveau zu bestimmen, ob das erste erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.
  3. Verfahren gemäß Anspruch 1, wobei der vorbestimmte Bereich des Sicherheitsniveaus unter 70 % ist.
  4. Verfahren gemäß Anspruch 1, wobei das erste gespeicherte Objekt von Interesse eine Person von Interesse ist, der erste Blickwinkel ein seitlicher Blickwinkel der Person von Interesse ist und der zweite Blickwinkel ein frontaler Blickwinkel der Person von Interesse ist.
  5. Verfahren gemäß Anspruch 4, wobei die Person von Interesse in einem Kraftfahrzeug reist.
  6. Verfahren gemäß Anspruch 5, wobei die Abfanginformation Information beinhaltet, die ausreichend ist, um das Kraftfahrzeug zu identifizieren.
  7. Verfahren gemäß Anspruch 6, wobei die Abfanginformation ferner eine bestimmte Fahrspur aus einer Vielzahl von verfügbaren Fahrspuren in der bestimmten Reiserichtung beinhaltet, die das Kraftfahrzeug zu dem Zeitpunkt hatte, in dem der erste Blickwinkel erfasst wurde.
  8. Verfahren gemäß Anspruch 7, wobei das Identifizieren eines oder mehrerer kamerabestückter unbemannter mobiler Vehikel in einer bestimmten Reiserichtung des ersten erfassten Objektes das Identifizieren, durch die elektronische Datenverarbeitungsvorrichtung, einer Vielzahl von kamerabestückter unbemannter mobiler Vehikel basierend auf der bestimmten Reiserichtung des ersten erfassten Objektes und das Identifizieren einer Vielzahl von möglichen Navigationswegen unter Verwendung kartografischer Navigationsinformation, die von einer kartografischen Datenbank erlangt wird, umfasst, wobei jedes der Vielzahl von kamerabestückten unbemannten mobilen Vehikeln, die mit einem der Vielzahl der möglichen Navigationswege assoziiert ist.
  9. Verfahren gemäß Anspruch 8, wobei eine Anzahl der identifizierten Vielzahl von möglichen Navigationswegen größer ist als eine verfügbare Anzahl der identifizierten Vielzahl von kamerabestückten unbemannten mobilen Vehikeln, und das Verfahren ferner das Verwenden, durch die elektronische Datenverarbeitungsvorrichtung, der bestimmten Fahrspur, die in der Abfanginformation enthalten ist, umfasst, um eine Teilmenge der Vielzahl der möglichen Navigationswege auszuwählen, um die Vielzahl der kamerabestückten unbemannten mobilen Vehikel zuzuweisen.
  10. Verfahren gemäß Anspruch 1, wobei der gewünschte zweite Blickwinkel gewählt ist, um das zweite Sicherheitsniveau zu maximieren, und das zweite Sicherheitsniveau höher ist als das erste Sicherheitsniveau.
  11. Verfahren gemäß Anspruch 1, wobei der vorbestimmte Bereich des Sicherheitsniveaus größer ist als eine minimale positive Schwelle des Sicherheitsniveaus, die ungleich null ist.
  12. Verfahren gemäß Anspruch 11, wobei die minimale positive Schwelle des Sicherheitsniveaus, die ungleich null ist, größer ist als 15 %.
  13. Verfahren gemäß Anspruch 11, wobei der vorbestimmte Bereich des Sicherheitsniveaus unter einer maximalen Schwelle des Sicherheitsniveaus ist, die selbst unter einem Sicherheitsniveau von 100 % ist.
  14. Verfahren gemäß Anspruch 13, wobei die maximale Schwelle des Sicherheitsniveaus unter 85 % ist.
  15. Verfahren gemäß Anspruch 1, wobei die feststehende Kamera einen niedrigen relativen Bildaufnahmeparameter hat, der bewirkt, dass das erste Sicherheitsniveau niedriger als gewünscht ist, und wobei die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel einen höheren relativen Bildaufnahmeparameter haben, der bewirkt, dass das zweite Sicherheitsniveau höher als das erste Sicherheitsniveau ist.
  16. Verfahren gemäß Anspruch 1, wobei die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel mobile Luftfahrzeuge und/oder landgestützte motorisierte Vehikel umfassen.
  17. Verfahren gemäß Anspruch 1, wobei das Verfahren ferner umfasst, wenn das zweite Sicherheitsniveau oberhalb einer zweiten Schwelle des Sicherheitsniveaus ist, Bewirken, durch die elektronische Datenverarbeitungsvorrichtung, dass ein Alarm an eine Versendekonsole und/oder ein mobiles Datenverarbeitungsgerät übertragen wird, die so bestimmt sind, dass sie sich in einem Bereich innerhalb einer Schwellendistanz von den einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikeln befinden.
  18. Verfahren gemäß Anspruch 17, wobei der Alarm den erfassten ersten und zweiten Blickwinkel oder Links auf sie und das erste und/oder das zweite Sicherheitsniveau beinhaltet.
  19. Verfahren gemäß Anspruch 17, wobei die zweite Schwelle des Sicherheitsniveaus größer als 60 % ist.
  20. Elektronische Datenverarbeitungsvorrichtung zur Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilen Vorrichtung zur Verbesserung der Identifizierung eines Objektes von Interesse, wobei die Vorrichtung umfasst: eine Schnittstelle für eine feststehende Kamera; eine Schnittstelle für eine unbemannte mobile Vorrichtung; einen Speicher; einen Transceiver; und einen oder mehrere Prozessoren, die eingerichtet sind zum: Empfangen, über die Schnittstelle für eine feststehende Kamera und von einer feststehenden Kamera, eines erfassten ersten Blickwinkels eines ersten erfassten Objektes und Bestimmen, mit einem ersten Sicherheitsniveau in einem vorbestimmten Bereich eines Sicherheitsniveaus, das der erfasste erste Blickwinkel des ersten Objektes mit einem ersten gespeicherten Objekt von Interesse übereinstimmt; Identifizieren eines oder mehrerer kamerabestückter unbemannter mobiler Vehikel in einer bestimmten Reiserichtung des ersten erfassten Objektes; Übertragen, über den Transceiver an die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, einer Versendeinstruktion und einer Abfanginformation, wobei die Abfanginformation, die bestimmte Reiserichtung des ersten erfassten Objektes, Information ausreichend zum Identifizieren entweder des ersten erfassten Objektes oder eines Fahrzeugs in dem das erste erfasste Objekt reist, und Information, die einen gewünschten zweiten Blickwinkel des ersten erfassten Objektes identifiziert, der von dem ersten Blickwinkel verschieden ist, beinhaltet; Empfangen, über den Transceiver und über die einen oder mehreren identifizierten kamerabestückten unbemannten mobilen Vehikel, eines erfassten zweiten Blickwinkels des ersten erfassten Objektes; und Verwenden des erfassten zweiten Blickwinkels des ersten erfassten Objektes zum Bestimmen, mit einem zweiten Sicherheitsniveau, dass das erste erfasste Objekt mit dem gespeicherten Objekt von Interesse übereinstimmt.
DE112016007236.8T 2016-09-16 2016-09-16 System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes Pending DE112016007236T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/PL2016/050039 WO2018052322A1 (en) 2016-09-16 2016-09-16 System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object

Publications (1)

Publication Number Publication Date
DE112016007236T5 true DE112016007236T5 (de) 2019-07-04

Family

ID=57227058

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016007236.8T Pending DE112016007236T5 (de) 2016-09-16 2016-09-16 System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes

Country Status (4)

Country Link
US (1) US10902267B2 (de)
DE (1) DE112016007236T5 (de)
GB (1) GB2567587B (de)
WO (1) WO2018052322A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220238112A1 (en) * 2017-03-14 2022-07-28 Google Llc Query endpointing based on lip detection

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052323A1 (en) * 2016-09-16 2018-03-22 Motorola Solutions, Inc. System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
US10555152B2 (en) * 2017-09-28 2020-02-04 At&T Intellectual Property I, L.P. Drone-to-drone information exchange
US10691968B2 (en) 2018-02-08 2020-06-23 Genetec Inc. Systems and methods for locating a retroreflective object in a digital image
US10649459B2 (en) 2018-04-26 2020-05-12 Zoox, Inc. Data segmentation using masks
US20200361452A1 (en) * 2019-05-13 2020-11-19 Toyota Research Institute, Inc. Vehicles and methods for performing tasks based on confidence in accuracy of module output
AU2019454248B2 (en) 2019-06-25 2023-07-20 Motorola Solutions, Inc System and method for saving bandwidth in performing facial recognition
US11188776B2 (en) * 2019-10-26 2021-11-30 Genetec Inc. Automated license plate recognition system and related method
CN113408364B (zh) * 2021-05-26 2022-11-11 深圳市捷顺科技实业股份有限公司 一种临时车牌识别方法、系统、装置及存储介质
US11743580B1 (en) 2022-05-16 2023-08-29 Motorola Solutions, Inc. Method and system for controlling operation of a fixed position camera

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346184B1 (en) 2000-05-02 2008-03-18 Digimarc Corporation Processing methods combining multiple frames of image data
CN101414348A (zh) 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
US9930298B2 (en) 2011-04-19 2018-03-27 JoeBen Bevirt Tracking of dynamic object of interest and active stabilization of an autonomous airborne platform mounted camera
TW201249713A (en) 2011-06-02 2012-12-16 Hon Hai Prec Ind Co Ltd Unmanned aerial vehicle control system and method
US9471838B2 (en) 2012-09-05 2016-10-18 Motorola Solutions, Inc. Method, apparatus and system for performing facial recognition
US9488492B2 (en) * 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
US9165369B1 (en) 2013-03-14 2015-10-20 Hrl Laboratories, Llc Multi-object detection and recognition using exclusive non-maximum suppression (eNMS) and classification in cluttered scenes
US9237307B1 (en) * 2015-01-30 2016-01-12 Ringcentral, Inc. System and method for dynamically selecting networked cameras in a video conference
US10088549B2 (en) * 2015-06-25 2018-10-02 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
US11147257B2 (en) * 2018-10-11 2021-10-19 Kenneth T. Warren, JR. Software process for tending crops using a UAV
US10005555B2 (en) * 2016-05-02 2018-06-26 Qualcomm Incorporated Imaging using multiple unmanned aerial vehicles
KR20180020043A (ko) * 2016-08-17 2018-02-27 삼성전자주식회사 다시점 영상 제어 방법 및 이를 지원하는 전자 장치
US10989791B2 (en) * 2016-12-05 2021-04-27 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
KR102700830B1 (ko) * 2016-12-26 2024-09-02 삼성전자주식회사 무인 이동체를 제어하기 위한 방법 및 전자 장치
US10529241B2 (en) * 2017-01-23 2020-01-07 Digital Global Systems, Inc. Unmanned vehicle recognition and threat management
US11064184B2 (en) * 2017-08-25 2021-07-13 Aurora Flight Sciences Corporation Aerial vehicle imaging and targeting system
US10356307B2 (en) * 2017-09-13 2019-07-16 Trw Automotive U.S. Llc Vehicle camera system
ES2955538T3 (es) * 2018-02-06 2023-12-04 Phenix Real Time Solutions Inc Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo
US11472550B2 (en) * 2018-10-03 2022-10-18 Sarcos Corp. Close proximity countermeasures for neutralizing target aerial vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220238112A1 (en) * 2017-03-14 2022-07-28 Google Llc Query endpointing based on lip detection

Also Published As

Publication number Publication date
GB201902085D0 (en) 2019-04-03
GB2567587A (en) 2019-04-17
GB2567587B (en) 2021-12-29
WO2018052322A1 (en) 2018-03-22
US10902267B2 (en) 2021-01-26
US20200311435A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
DE112016007236T5 (de) System und Verfahren für die Zusammenarbeit einer feststehenden Kamera und einer unbemannten mobilenVorrichtung zur Verbesserung der Identifikationssicherheit eines Objektes
US11170223B2 (en) System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
DE102017121076B4 (de) Verfahren zum Identifizieren eines Zielfahrzeugs unter Verwendung von Anwendungssoftware auf einer mobilen Vorrichtung
DE102019117618A1 (de) Fahrzeugklassifizierungssystem
DE112017006672T5 (de) Erfassung von Verkehrsdynamik und Strassenveränderungen beim autonomen Fahren
DE112018006556T5 (de) Trainieren eines maschinenlernmodells mit digitalem audio und/oder video
DE102018119469A1 (de) System und verfahren zur verbesserten hinderniserkennung unter verwendung eines v2x-kommunikationssystems
DE112017006500T5 (de) Vorrichtung, Verfahren und System zum elektronischen Erfassen einer Außerhalbgrenzbedingung für eine kriminelle Organisation
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
CN107079088A (zh) 停车和交通分析
DE102018101366A1 (de) Fahrzeuge in schlechten lichtverhältnissen
DE112018006658T5 (de) Vorrichtung, system und verfahren zur autonomen taktischen fahrzeugsteuerung
DE102017105585A1 (de) Systeme und Verfahren zum Verbessern des Sichtfelds an Kreuzungen
DE112019004065T5 (de) Informationsverarbeitungsvorrichtung, endgerät,informationsverarbeitungsverfahren, und informationsverarbeitungsprogramm
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
DE102020113417A1 (de) Systeme und verfahren zur automatisierten multimodalen zustellung
DE112016007416T5 (de) Wächtersystem in einem Netzwerk zur Verbesserung der Situationserkennung bei einem Vorfall
DE112018003827T5 (de) Parkunterstützungssystem und Parkunterstützungsverfahren
DE102022132266A1 (de) Systeme und verfahren zum bereitstellen eines überwachungsdienstes für einen fussgänger
DE112021005624T5 (de) Ersatzdaten für autonome Fahrzeuge
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102020115356A1 (de) Systeme und verfahren zur netzknotenkommunikation unter verwendung dynamisch konfigurierbarer interaktionsmodi
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE112021001660T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund computerprogramm
DE102021127118A1 (de) Identifizieren von Objekten mit LiDAR

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000