DE212017000227U1 - Systeme zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs - Google Patents

Systeme zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs Download PDF

Info

Publication number
DE212017000227U1
DE212017000227U1 DE212017000227.1U DE212017000227U DE212017000227U1 DE 212017000227 U1 DE212017000227 U1 DE 212017000227U1 DE 212017000227 U DE212017000227 U DE 212017000227U DE 212017000227 U1 DE212017000227 U1 DE 212017000227U1
Authority
DE
Germany
Prior art keywords
user
trajectory
selected location
risk
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212017000227.1U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GoPro Inc
Original Assignee
GoPro Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GoPro Inc filed Critical GoPro Inc
Publication of DE212017000227U1 publication Critical patent/DE212017000227U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

System zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs, wobei das System aufweist:
einen oder mehrere physische Prozessoren, die durch maschinenlesbare Anweisungen so konfiguriert sind, dass diese:
eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes erhalten, wobei die dreidimensionale Darstellung aus Tiefenkarten des vom Nutzer gewählten Standortes hergeleitet ist, die bei früheren unbemannten Luftflügen erzeugt wurden, wobei die dreidimensionale Darstellung das Vorliegen von Objekten und Objekt-Existenz-Genauigkeiten für die individuellen Objekte widerspiegelt, wobei die Objekt-Existenz-Genauigkeiten für die individuellen Objekte Informationen über die Genauigkeit der Existenz der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen;
eine vom Nutzer erstellte Flugbahn für einen zukünftigen unbemannten Luftflug innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standortes erhalten; und
das prognostizierte Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts bestimmen.

Description

  • Gebiet
  • Die Offenbarung betrifft eine Technologie zum Bestimmen des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs bzw. einer Drohne.
  • Hintergrund
  • Unbemannte Luftfahrzeuge oder UAVs können mit einer automatischen Flugsteuerung, einer Fernflugsteuerung, einer programmierbaren Flugsteuerung, anderen Typen der Flugsteuerung und/oder Kombinationen davon ausgestattet sein. Einige UAVs können Sensoren mit Bildsensoren umfassen, welche konfiguriert sind, um Bildinformationen zu erfassen, diese sind jedoch nicht darauf beschränkt. UAVs können verwendet werden, um besondere Momente, Sportveranstaltungen, Konzerte usw. aufzunehmen. UAVs können mit bestimmten Flugsteuerungseinstellungen vorkonfiguriert sein. Die vorkonfigurierten Flugsteuerungseinstellungen können basierend auf bekannten Objekten innerhalb eines geographischen Standortes nicht individualisiert sein.
  • Kurzfassung
  • Die Offenbarung betrifft die Bestimmung eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs bzw. einer Drohne („UAV“) basierend auf einer dreidimensionalen Darstellung eines geographischen Standortes gemäß einer oder mehreren Implementierungen. Eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes kann erhalten werden. Die dreidimensionale Darstellung kann aus Tiefenkarten des vom Nutzer gewählten Standorts hergeleitet werden, die bei früheren unbemannten Luftflügen erstellt wurden. Die dreidimensionale Darstellung kann ein Vorhandensein von Objekten und Objekt-Existenz-Genauigkeiten für die individuellen Objekte widerspiegeln. Die Objekt-Existenz-Genauigkeiten für die individuellen Objekte können Informationen über die Genauigkeit der Existenz der individuellen Objekte und/oder die Genauigkeit der Existenz von Grenzen der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen. Für einen zukünftigen unbemannten Luftflug kann eine vom Nutzer erstellte Flugbahn innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standortes erhalten werden. Ein prognostiziertes Risiko kann für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts bestimmt werden.
  • Bei einigen Implementierungen kann ein System, welches derart konfiguriert ist, dass dieses das prognostizierte Risiko für eine Flugbahn eines unbemannten Luftfahrzeugs bestimmt, einen oder mehrere Server umfassen. Der/die Server können derart konfiguriert sein, dass dieser/diese mit einer oder mehreren Client-Computerplattformen gemäß einer Client/Server-Architektur kommunizieren. Die Nutzer des Systems können über die Client-Computerplattform(en) auf das System zugreifen. Der/die Server können derart konfiguriert sein, dass dieser/diese eine oder mehrere Computerprogrammkomponenten ausführen. Die Computerprogrammkomponenten können eine oder mehrere Komponenten aus einer Darstellungskomponente, einer Flugbahnkomponente, einer Risikokomponente und/oder anderen Komponenten umfassen.
  • Die Darstellungskomponente kann konfiguriert sein, um eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes zu erhalten. Die Darstellungskomponente kann konfiguriert sein, um den vom Nutzer gewählten Standort über einen aktuellen Standort des UAV, einen aktuellen Standort des Nutzers, einen aktuellen Standort einer oder mehrerer Client-Computerplattformen, eine Nutzereingabe, die von einer oder mehreren Client-Computerplattformen empfangen wird, und/oder andere Mittel zu erhalten. Die Darstellungskomponente kann konfiguriert sein, um den vom Nutzer gewählten Standort basierend auf einem Standort einer oder mehrerer Client-Computerplattformen über ein GPS und/oder ein anderes Ortungsverfolgungssystem, das einer oder mehreren Client-Computerplattformen zugeordnet ist, automatisch zu bestimmen. Die Darstellungskomponente kann konfiguriert sein, um den vom Nutzer gewählten Standort basierend auf einem Standort des UAV über ein GPS und/oder ein anderes Ortungsverfolgungssystem, das dem UAV zugeordnet ist, automatisch zu bestimmen.
  • Eine Ablage von Tiefenkarten kann über das System verfügbar sein. Die Tiefenkarten können bei früheren unbemannten Luftflügen erstellt worden sein. Die früheren unbemannten Luftflüge können dem Nutzer zugeordnet sein und/oder diese können anderen Nutzern zugeordnet sein. Die Tiefenkarten können eine Tiefendarstellung einer Umgebung um das UAV herum während des Fluges umfassen. Die Tiefendarstellung kann Objekte umfassen, die während des Fluges in der Umgebung um das UAV herum vorhanden waren. Die Darstellungskomponente kann konfiguriert sein, um eine oder mehrere Tiefenkarten abzurufen, welche den vom Nutzer gewählten Standort umfassen, und/oder eine zuvor gespeicherte dreidimensionale Darstellung des vom Nutzer gewählten Standorts basierend auf den Tiefenkarten zu erhalten.
  • Individuelle Objekte, die in der dreidimensionalen Darstellung umfasst sind, können mit einer oder mehreren Objekt-Existenz-Genauigkeiten verbunden sein. Die Objekt-Existenz-Genauigkeit für die individuellen Objekte kann Informationen über die Genauigkeit der Existenz der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen. Die Objekt-Existenz-Genauigkeit für die individuellen Objekte kann Informationen über die Genauigkeit von Grenzen der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen.
  • Die Flugbahnkomponente kann konfiguriert sein, um eine vom Nutzer erstellte Flugbahn für einen zukünftigen unbemannten Luftflug innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts zu erhalten. Die vom Nutzer erstellte Flugbahn für den zukünftigen unbemannten Luftflug kann über eine Nutzerschnittstelle erhalten werden, die einer oder mehreren Client-Computerplattformen zugeordnet ist. Der Nutzer kann eine Eingabevorrichtung verwenden, um die vom Nutzer erstellte Flugbahn innerhalb der dreidimensionalen Darstellung zu zeichnen. Der Nutzer kann über eine Eingabevorrichtung innerhalb der dreidimensionalen Darstellung Punkte auswählen. Die Flugbahnkomponente kann konfiguriert sein, um die vom Nutzer erstellte Flugbahn basierend auf den vom Nutzer gewählten Punkten innerhalb der dreidimensionalen Darstellung automatisch zu bestimmen. Beispielsweise kann die Flugbahnkomponente konfiguriert sein, um die vom Nutzer gewählten Punkte über Geraden oder gekrümmte Linien zu verbinden, um die vom Nutzer erstellte Flugbahn zu bestimmen. Die Flugbahnkomponente kann konfiguriert sein, um die vom Nutzer erstellte Flugbahn unter Verwendung von Koordinatenwerten, wie beispielsweise kartesischen Koordinatenwerten, zu definieren.
  • Das Erhalten der vom Nutzer erstellten Flugbahn kann das Erhalten von Flugsteuerungsinformationen umfassen, so dass das UAV für den zukünftigen unbemannten Luftflug autonom fliegen kann. Die Flugsteuerungsinformationen und/oder Flugsteuerungseinstellungen können eine oder mehrere Größen aus einer Flughöhe, einem Längengrad, einem Breitengrad, einer geographische Position, einem Kurs und/oder einer Geschwindigkeit umfassen, mit der das UAV während der vom Nutzer erstellten Flugbahn fliegen kann.
  • Das Erhalten der vom Nutzer erstellten Flugbahn kann das Erhalten von Sensorsteuerungsinformationen umfassen, so dass das UAV Anpassungen an einen oder mehrere Sensoren vornehmen kann, die von dem UAV während des zukünftigen unbemannten Luftflugs getragen werden. Ein Sensor kann konfiguriert sein, um ein Ausgangssignal zu erzeugen, das visuelle Informationen (z.B. ein Bild und/oder ein Videosegment) innerhalb eines Sichtfeldes des UAV übermittelt. Die visuellen Informationen können Videoinformationen, Audioinformationen, Geolokalisierungsinformationen, Orientierungs- und/oder Bewegungsinformationen, Tiefeninformationen und/oder andere Informationen umfassen. Der Sensor kann durch ein Sensorsteuerungssubsystem des UAV gesteuert werden. Das Sensorsteuerungssubsystem kann konfiguriert sein, um einen oder mehrere Sensoren über Anpassungen eines Blendentimings, einer Belichtung, einer Brennweite, eines Blickwinkels, einer Schärfentiefe, eines Fokus, einer Lichtmessung, eines Weißabgleichs, einer Auflösung, einer Bildrate, eines Fokusobjekts, eines Erfassungswinkels, eines Zoomparameters, eines Videoformats, eines Soundparameters, eines Kompressionsparameters und/oder anderer Sensorsteuerungen zu steuern.
  • Die Risikokomponente kann konfiguriert sein, um das prognostizierte Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts zu bestimmen. Ein erster Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, kann ein Punkt auf der vom Nutzer erstellten Flugbahn sein. Ein erster Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, kann eine Strecke der vom Nutzer erstellten Flugbahn sein.
  • Das prognostizierte Risiko für einen vorgegebenen Abschnitt der vom Nutzer erstellten Flugbahn kann die Wahrscheinlichkeit widerspiegeln, dass das unbemannte Luftfahrzeug eine Kollision mit einem oder mehreren Objekten an oder in der Nähe des vorgegebenen Abschnitts der vom Nutzer erstellten Flugbahn erfährt. Die Bestimmung des prognostizierten Risikos kann die Bestimmung einer Risiko-Konfidenzbewertung umfassen. Die Risiko-Konfidenzbewertung kann eine Wahrscheinlichkeit quantifizieren, dass das unbemannte Luftfahrzeug mit einem oder mehreren Objekten innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts kollidiert.
  • Die Bestimmung des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn kann auf Risikoparametern basieren. Die Risikoparameter können die Objekt-Existenz-Genauigkeit, einen Abstand zwischen dem UAV entlang der individuellen Abschnitte der vom Nutzer erstellten Flugbahn und dem Objekt innerhalb der dreidimensionalen Darstellung, frühere Kollisionsaufzeichnungen früherer UAVs, die mit dem einem oder mehreren Objekten innerhalb des vom Nutzer gewählten Standortes kollidieren, und/oder andere Risikoparameter umfassen.
  • Basierend auf dem ermittelten prognostizierten Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn kann die Risikokomponente konfiguriert sein, um eine Benachrichtigung zu erzeugen. Die Benachrichtigung kann das Vorsehen einer Benachrichtigung des Nutzers über eine oder mehrere Client-Computerplattformen über das prognostizierte Risiko für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn umfassen. Die Benachrichtigung kann eine graphische Benachrichtigung, eine akustische Benachrichtigung, eine sensorische Benachrichtigung und/oder andere Benachrichtigungen umfassen. Die Benachrichtigung kann beispielsweise eine Warnmeldung umfassen, die auf einer Anzeige angezeigt wird, die der/den Client-Computerplattform(en) zugeordnet ist. Die Benachrichtigung kann beispielsweise einen Warnton umfassen, der für den Nutzer hörbar ist. Eine exemplarische sensorische Benachrichtigung kann eine Vibrations- und/oder Lichtmeldung umfassen.
  • Sobald das UAV zu seinem unbemannten Luftflug basierend auf der vom Nutzer erstellten Flugbahn abhebt, kann das System konfiguriert sein, um die Position des UAV während des unbemannten Luftflugs zu verfolgen. Basierend auf der vom Nutzer erstellten Flugbahn kann das UAV in einer bestimmten Flughöhe, einem Längengrad, einem Breitengrad, einer geographische Position, einem Kurs und/oder einer Geschwindigkeit fliegen.
  • Die Risikokomponente kann konfiguriert sein, um ein aktualisiertes prognostiziertes Risiko basierend auf der verfolgten Position des UAV zu bestimmen. Das aktualisierte prognostizierte Risiko kann eine Wahrscheinlichkeit widerspiegeln, dass das UAV eine Kollision mit einem oder mehreren Objekten an oder in der Nähe der verfolgten Position des UAV erfährt. Das System kann konfiguriert sein, um Objekte an und/oder in der Nähe der verfolgten Position des UAV zu erfassen. Die Risikokomponente kann konfiguriert sein, um das aktualisierte prognostizierte Risiko basierend auf den erfassten Objekten an und/oder in der Nähe der verfolgten Position des UAV zu bestimmen.
  • Diese und weitere Aufgaben, Merkmale und Eigenschaften des hierin offenbarten Systems und/oder Verfahrens sowie die Funktionsweisen und Funktionen der zugehörigen Strukturelemente und die Kombination von Teilen und Vorteilen der Herstellung werden unter Berücksichtigung der folgenden Beschreibung und der beigefügten Ansprüche unter Bezugnahme auf die beigefügten Abbildungen, die alle einen Teil dieser Spezifikation bilden, ersichtlicher, wobei gleiche Bezugszeichen in den verschiedenen Abbildungen entsprechende Bauteile bezeichnen. Es ist jedoch ausdrücklich zu verstehen, dass die Abbildungen nur zur Veranschaulichung und Beschreibung dienen und nicht als eine Definition der Grenzen der Erfindung gedacht sind. Wie in der Spezifikation und in den Ansprüchen verwendet, umfasst die Singularform „ein/eine/eines“ und „der/die/das“ die Pluralformen, sofern der Kontext nichts klar anderes vorschreibt.
  • Figurenliste
    • 1 veranschaulicht ein System zum Bestimmen des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs gemäß einer oder mehrerer Implementierungen.
    • 2A veranschaulicht eine exemplarische Abbildung einer dreidimensionalen Darstellung eines vom Nutzer gewählten Standorts gemäß einer oder mehreren Implementierungen.
    • 2B veranschaulicht eine exemplarische Abbildung einer vom Nutzer erstellten Flugbahn gemäß einer oder mehreren Implementierungen.
    • 2C veranschaulicht eine exemplarische Abbildung einer Meldung des prognostizierten Risikos für eine vom Nutzer erstellte Flugbahn gemäß einer oder mehreren Implementierungen.
    • 3 veranschaulicht ein Verfahren zum Bestimmen des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs gemäß einer oder mehreren Implementierungen.
  • Detaillierte Beschreibung
  • Die Offenbarung betrifft die Bestimmung des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs („UAV“) basierend auf einer dreidimensionalen Darstellung eines geographischen Standortes gemäß einer oder mehreren Implementierungen. Eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes kann erhalten werden. Die dreidimensionale Darstellung kann aus Tiefenkarten des vom Nutzer gewählten Standorts hergeleitet werden, die während früheren unbemannten Luftflügen erstellt wurden. Die dreidimensionale Darstellung kann ein Vorliegen von Objekten und Objekt-Existenz-Genauigkeiten für die individuellen Objekte widerspiegeln. Die Objekt-Existenz-Genauigkeiten für die individuellen Objekte können Informationen über die Existenzgenauigkeit der individuellen Objekte und/oder die Existenzgenauigkeit von Grenzen der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen. Für einen zukünftigen unbemannten Luftflug kann eine vom Nutzer erstellte Flugbahn innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standortes erhalten werden. Das prognostizierte Risiko kann für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts bestimmt werden.
  • 1 veranschaulicht ein System 100 zum Bestimmen des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs gemäß einer oder mehrerer Implementierungen. Wie in 1 dargestellt ist, kann das System 100 einen oder mehrere Server 102 umfassen. Der/Die Server 102 können konfiguriert sein, um mit einer oder mehreren Client-Computerplattformen 104 gemäß einer Client/Server-Architektur zu kommunizieren. Die Nutzer des Systems 100 können über die Client-Computerplattform(en) 104 auf das System 100 zugreifen. Der/Die Server 102 können konfiguriert sein, um eine oder mehrere Computerprogrammkomponenten auszuführen. Die Computerprogrammkomponenten können eine oder mehrere einer Darstellungskomponente 106, einer Flugbahnkomponente 108, einer Risikokomponente 110 und/oder anderer Komponenten umfassen.
  • Die Darstellungskomponente 106 kann konfiguriert sein, um eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes zu erhalten. Die Darstellungskomponente 106 kann konfiguriert sein, um den vom Nutzer gewählten Standort über einen aktuellen Standort des UAV, einen aktuellen Standort des Nutzers, einen aktuellen Standort einer oder mehrerer Client-Computerplattformen 104, eine Nutzereingabe, die von einer oder mehreren Client-Computerplattformen 104 aufgenommen wird, und/oder weitere Mittel zu erhalten. Die Darstellungskomponente 106 kann konfiguriert sein, um den vom Nutzer gewählten Standort basierend auf einem Standort einer oder mehrerer Client-Computerplattformen 104 über ein GPS und/oder ein anderes Standortverfolgungssystem, das einer oder mehreren Client-Computerplattformen 104 zugeordnet ist, automatisch zu bestimmen. Die Client-Computerplattform(en) 104 kann bzw. können ein oder mehrere Elemente aus einem Mobiltelefon, einem Smartphone, einer Digitalkamera, einem Laptop, einem Tablet-Computer, einem Desktop-Computer, einer TV-Set-Top-Box, einem Smart-TV, einer Spielkonsole, einer Fernbedienung und/oder anderen Client-Computerplattformen umfassen. Die Darstellungskomponente 106 kann konfiguriert sein, um den vom Nutzer gewählten Standort basierend auf einem Standort des UAV über ein GPS und/oder ein anderes Ortungssystem, das dem UAV zugeordnet ist, automatisch zu bestimmen.
  • Der vom Nutzer gewählte Standort kann einen Namen des vom Nutzer gewählten Standorts und/oder Koordinaten des vom Nutzer gewählten Standorts umfassen. Der vom Nutzer gewählte Standort kann eine Adresse, eine Postleitzahl, eine Stadt, ein Bundesland, eine Straße, ein Gebäude und/oder einen anderen Standort umfassen. Der vom Nutzer gewählte Standort kann durch ein Koordinatensystem, wie das kartesische Koordinatensystem, definiert sein. Das kartesische Koordinatensystem kann einen Längengrad- und Breitengradwert umfassen. Folglich kann der vom Nutzer gewählte Standort mit Bezug auf die Geographie der Erde definiert sein.
  • Eine Ablage von Tiefenkarten kann über das System 100 verfügbar sein. Die Tiefenkarten können während früheren unbemannten Luftflügen erstellt worden sein. Die früheren unbemannten Luftflüge können dem Nutzer und/oder anderen Nutzern zugeordnet sein. Die Tiefenkarten können eine Tiefendarstellung einer Umgebung um das UAV während des Fluges umfassen. Die Tiefendarstellung kann Objekte umfassen, die während des Fluges in der Umgebung um das UAV herum vorhanden waren. Die Darstellungskomponente 106 kann konfiguriert sein, um eine oder mehrere Tiefenkarten abzurufen, die den vom Nutzer gewählten Standort umfassen, und/oder eine zuvor gespeicherte dreidimensionale Darstellung des vom Nutzer gewählten Standorts basierend auf den Tiefenkarten zu erhalten.
  • Bei einigen Ausführungsformen kann die Darstellungskomponente 106 konfiguriert sein, um die dreidimensionale Darstellung aus der einen oder den mehreren abgerufenen Tiefenkarten zu erzeugen, die den vom Nutzer gewählten Standort umfassen. Beispielsweise kann/können die eine oder die mehreren abgerufenen Tiefenkarten ein oder mehrere Objekte umfassen. Das eine oder die mehreren Objekte kann bzw. können ein stationäres Objekt oder ein sich bewegendes Objekt sein. Die dreidimensionale Darstellung kann aus der einen oder den mehreren abgerufenen Tiefenkarten hergeleitet werden, so dass die dreidimensionale Darstellung das eine oder die mehreren stationären Objekte und/oder sich bewegenden Objekte umfassen kann.
  • Die dreidimensionale Darstellung kann ein Vorhandensein von Objekten und die Objekt-Existenz-Genauigkeit für die individuellen Objekte widerspiegeln. Wie vorstehend erläutert, kann die dreidimensionale Darstellung das eine oder die mehreren Objekte umfassen, die aus der einen oder den mehreren Tiefenkarten erfasst wurden. Das eine oder die mehreren Objekte können als ein oder mehrere Objekttypen identifiziert werden. Ein Objekttyp kann sich auf eine oder mehrere Kategorien von Objekten beziehen, die eine oder mehrere gemeinsame Eigenschaften aufweisen. Eine gemeinsame Eigenschaft kann sich auf ein dauerhaftes oder vorübergehendes Merkmal eines Objekts mit Bezug auf die Gestalt, die Bewegung, das Verhalten und/oder andere Merkmale des Objekts beziehen. Gemeinsame Eigenschaften können sich auf ein ganzes Objekt oder einen oder mehrere Abschnitte des Objekts beziehen. Nicht beschränkende Beispiele für Objekttypen können eine Person, ein Kind, einen Erwachsenen, einen oder mehrere Teile einer Person (z.B. Arm, Hand, Kopf, Körper, Bein, Füße usw.), ein Tier, eine bestimmte Art eines Tieres, einen oder mehrere Teile eines Tieres, ein Fahrzeug, eine bestimmte Art von Fahrzeug, einen oder mehrere Teile eines Fahrzeugs (z.B. Rad, Tür, Motor, Kofferraum, Fenster, Flügel, Propeller, Rotor usw.), ein stationäres Objekt, einen oder mehrere Teile eines stationären Objekts (z.B. einen Baum, ein Gebäude, einen Laternenmasten usw.) und andere Objekttypen umfassen.
  • Individuelle Objekte, die in der dreidimensionalen Darstellung umfasst sind, können mit einer oder mehreren Objekt-Existenz-Genauigkeiten in Zusammenhang stehen. Die Objekt-Existenz-Genauigkeit für die individuellen Objekte kann Informationen über die Existenzgenauigkeit der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen. Die Objekt-Existenz-Genauigkeit für die individuellen Objekte kann Informationen über die Genauigkeit von Grenzen der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen.
  • Die Objekt-Existenz-Genauigkeiten können durch numerische Werte (z.B. 1, 2, ... n, wobei eine Zahl definieren kann, wie genau die Objektexistenz in der dreidimensionalen Darstellung ist), einen Prozentsatz der Genauigkeit (z.B. 100 % genau, 50 % genau usw.) und/oder verbale Stufen (z.B. sehr niedrig, niedrig, mittel, hoch, sehr hoch und/oder andere verbale Ebenen) definiert sein. Die Objekt-Existenz-Genauigkeiten können durch andere Werte und/oder Stufen quantifiziert und/oder definiert sein.
  • Beispielsweise kann sich in allen Tiefenkarten ein Baum an derselben Stelle in der Nähe des vom Nutzer gewählten Standortes befinden. Somit kann der Baum mit einer 100%igen Objekt-Existenz-Genauigkeit verknüpft sein. Die Äste des Baumes können sich jedoch mit dem Wind bewegen. Daher kann es schwierig sein, die Objekt-Existenz-Genauigkeit in Zusammenhang mit den Grenzen des Baums und/oder den einzelnen Ästen des Baums zu bestimmen. Beispielsweise kann eine Unsicherheit dahingehend bestehen, wie weit die Äste des Baumes reichen und/oder wo sich diese befinden können. Somit können einzelne Äste mit einer Objekt-Existenz-Genauigkeit von weniger als 50% verknüpft sein.
  • Die Darstellungskomponente 106 kann konfiguriert sein, um die Präsentation bzw. Darstellung der dreidimensionalen Darstellung, die den vom Nutzer gewählten Standort umfasst, über eine Anzeige, die einer oder mehreren Client-Computerplattformen 104 zugeordnet ist, zu erzielen. Die Anzeige der dreidimensionalen Darstellung, die den vom Nutzer gewählten Standort umfasst, kann einen Bereich um den vom Nutzer gewählten Standort umfassen. Die den vom Nutzer gewählten Standort umgebenden Bereiche, die angezeigt werden können, können einen dynamischen Radius einer bestimmten Länge umfassen, der geändert werden kann. Die Darstellungskomponente 106 kann es einem Nutzer ermöglichen, die dreidimensionale Darstellung in verschiedene Richtungen (z.B. links, rechts, nach oben und/oder nach unten) zu bewegen und/oder zu scrollen, um verschiedene Abschnitte der dreidimensionalen Darstellung anzuzeigen. Die Darstellungskomponente 106 kann es einem Nutzer ermöglichen, bei bestimmten Positionen und/oder Bereichen der dreidimensionalen Darstellung hinein- und/oder heraus zu zoomen, um die dreidimensionale Darstellung detaillierter oder weniger detailliert darzustellen.
  • Beispielhaft und unter Bezugnahme auf die 1 und 2A, ist in 2A eine dreidimensionale Darstellung 200 eines vom Nutzer gewählten Standortes dargestellt. Die dreidimensionale Darstellung 200 kann über eine Anzeige angezeigt werden, die einer oder mehreren Client-Computerplattformen zugeordnet ist. Die dreidimensionale Darstellung 200 kann das Vorliegen von Objekten 202, 204, 206 und 208 widerspiegeln. Die Objekte 202, 204, 206 und 208 können aus Tiefenkarten des vom Nutzer gewählten Standorts hergeleitet worden sein, die bei früheren unbemannten Luftflügen erzeugt wurden. Obwohl nicht gezeigt, kann die dreidimensionale Darstellung 200 die identifizierten Objekttypen und/oder die mit den Objekten 202, 204, 206 und 208 verbundenen Objekt-Existenz-Genauigkeiten und/oder die Grenzen der Objekte 202, 204, 206 und 208 umfassen.
  • Zurück zu 1 kann die Flugbahnkomponente 108 konfiguriert sein, um eine vom Nutzer erstellte Flugbahn für einen zukünftigen unbemannten Luftflug innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts zu erhalten. Die vom Nutzer erstellte Flugbahn für den zukünftigen unbemannten Luftflug kann über eine Nutzerschnittstelle, die einer oder mehreren Client-Computerplattformen 104 zugeordnet ist, erhalten werden. Der Nutzer kann eine Eingabevorrichtung verwenden, um die vom Nutzer erstellte Flugbahn innerhalb der dreidimensionalen Darstellung einzuzeichnen. Die Eingabevorrichtung kann den Finger des Nutzers, eine Maus, einen Stift und/oder andere Objekte umfassen, ist jedoch nicht darauf beschränkt Der Nutzer kann Punkte (z.B. über eine Eingabevorrichtung, wie den Finger des Nutzers, eine Maus, einen Stift und/oder andere Objekte) innerhalb der dreidimensionalen Darstellung auswählen. Die Flugbahnkomponente 108 kann konfiguriert sein, um die vom Nutzer erstellte Flugbahn basierend auf den vom Nutzer gewählten Punkten innerhalb der dreidimensionalen Darstellung automatisch zu bestimmen. Beispielsweise kann die Flugbahnkomponente 108 konfiguriert sein, um die vom Nutzer gewählten Punkte über Geraden oder gekrümmte Linien zu verbinden, um die vom Nutzer erstellte Flugbahn zu bestimmen. Die Flugbahnkomponente 108 kann konfiguriert sein, um die vom Nutzer erstellte Flugbahn unter Verwendung von Koordinatenwerten, wie kartesischen Koordinatenwerten, zu definieren, wie vorstehend erläutert ist.
  • Das Erhalten der vom Nutzer erstellten Flugbahn kann das Erhalten von Flugsteuerungsinformationen umfassen, so dass das UAV für den zukünftigen unbemannten Luftflug autonom fliegen kann. Die Flugsteuerungseinstellungen können Funktionen einschließlich des Fliegens des UAV in einer stabilen Art und Weise, des Verfolgens von Personen oder Objekten, des Vermeidens von Kollisionen und/oder andere Funktionen, die für das autonome Fliegen des UAV nützlich sind, umfassen, ist jedoch nicht darauf beschränkt. Bei einigen Implementierungen können Flugsteuerungsinformationen und/oder Flugsteuerungseinstellungen über die Nutzerschnittstelle empfangen werden, die einer oder mehreren Client-Computerplattformen zugeordnet ist. Die Flugsteuerungsinformationen und/oder Flugsteuerungseinstellungen können eine oder mehrere Größen aus einer Flughöhe, einem Längengrad, einem Breitengrad, einer geographischen Position, einem Kurs und/oder einer Geschwindigkeit umfassen, mit welchen sich das UAV während der vom Nutzer erstellten Flugbahn bewegen kann. Die Flugbahnkomponente 108 kann konfiguriert sein, um Nutzereingaben mit Bezug auf die Flugsteuerungsinformationen und/oder die Flugsteuerungseinstellungen zu erhalten. Die Flugsteuerungsinformationen und/oder Flugsteuerungseinstellungen können mit der vom Nutzer erstellten Flugbahn verknüpft sein. Unterschiedliche Abschnitte der vom Nutzer erstellten Flugbahn können mit unterschiedlichen Flugsteuerungseinstellungen verknüpft sein. Beispielsweise kann der Nutzer wünschen, dass das UAV für die ersten 50 Fuß der Fahrstrecke oder die ersten 30 Sekunden der Fahrzeit der vom Nutzer erstellten Flugbahn bei einer bestimmten Höhe oder einer bestimmten Geschwindigkeit fliegt, oder auch an einer bestimmten Stelle in einer bestimmten Höhe schwebt. Für die nächsten 100 Fuß der Fahrstrecke oder die nächsten 60 Sekunden der Fahrzeit kann der Nutzer wünschen, dass das UAV seine Geschwindigkeit erhöht und sich in einer Vorwärtsrichtung bewegt. Die Flugsteuerungsinformationen und/oder Flugsteuerungseinstellungen können das UAV umfassen, welches einen Kunstflugtrick durchführt, wie einen umgekehrten Flip, einen Spin, eine Rolle und/oder andere Kunstflugtricks. Bei einigen Implementierungen können die Flugsteuerungsinformationen von einem Fernsteuergerät übertragen werden. Die Flugsteuerungsinformationen können jederzeit überschrieben werden.
  • Das Erhalten der vom Nutzer erstellten Flugbahn kann das Erhalten von Sensorsteuerungsinformationen umfassen, so dass das UAV Anpassungen an einem oder mehreren Sensoren vornehmen kann, die von dem UAV während des zukünftigen unbemannten Luftflugs getragen werden. Ein Sensor kann konfiguriert sein, um ein Ausgangssignal zu erzeugen, das visuelle Informationen (z.B. ein Bild und/oder Videosegment) innerhalb eines Sichtfeldes des UAV übermittelt. Die visuellen Informationen können Videoinformationen, Audioinformationen, Geolokalisierungsinformationen, Orientierungs- und/oder Bewegungsinformationen, Tiefeninformationen und/oder andere Informationen umfassen. Der Sensor kann durch ein Sensorsteuerungssubsystem des UAV gesteuert werden. Das Sensorsteuerungssubsystem kann konfiguriert sein, um einen oder mehrere Sensoren über Anpassungen eines Blendentimings, einer Belichtung, einer Brennweite, eines Blickwinkels, einer Schärfentiefe, eines Fokus, einer Lichtmessung, eines Weißabgleichs, einer Auflösung, einer Bildrate, eines Fokusobjekts, eines Erfassungswinkels, eines Zoomparameters, eines Videoformats, eines Soundparameters, eines Kompressionsparameters und/oder andere Sensorsteuerungen zu steuern. Somit und ähnlich wie vorstehend erläutert, kann die Flugbahnkomponente 108 konfiguriert sein, um Nutzereingaben bezüglich der Sensorsteuerungsinformationen zu erhalten. Die Sensorsteuerungsinformationen können der vom Nutzer erstellten Flugbahn zugeordnet sein. Verschiedene Abschnitte der vom Nutzer erstellten Flugbahn können mit unterschiedlichen Sensorsteuerungsinformationen verknüpft sein. So kann der Nutzer beispielsweise wünschen, dass das UAV in einer bestimmten Höhe schwebt und an einer bestimmten Stelle hineinzoomt. Bei einigen Implementierungen können die Sensorsteuerungsinformationen durch ein Fernsteuergerät übertragen werden. Die Sensorsteuerungsinformationen können jederzeit überschrieben werden.
  • So kann beispielsweise die Flugbahnkomponente 108 unter Bezugnahme auf die 1 und 2B konfiguriert sein, um eine vom Nutzer erstellte Flugbahn 210 zu erhalten. Wie in 2B gezeigt ist, kann sich die vom Nutzer erstellte Flugbahn 210 um ein oder mehrere Objekte 202, 204, 206 und/oder 208 schlängeln und/oder um diese eine Schleife drehen. Die vom Nutzer erstellte Flugbahn 210 kann einen Punkt 212 umfassen. Der Punkt 212 kann eine Stelle entlang der vom Nutzer erstellten Flugbahn 210 darstellen, an welcher der Nutzer möchte, dass das UAV 5 Sekunden lang schwebt und an der vom Nutzer gewählten Stelle hineinzoomt, während ein Videosegment aufgenommen wird.
  • Die Flugbahnkomponente 108 kann konfiguriert sein, um die vom Nutzer erstellte Flugbahn in einem elektronischen Speicher 122 und/oder externen Speichervorrichtungen zu speichern. Der Nutzer kann die vom Nutzer erstellte Flugbahn jederzeit vor, während und/oder nach dem unbemannten Luftflug ansehen, bearbeiten und/oder ändern.
  • Unter Rückbezug auf 1 kann die Risikokomponente 110 konfiguriert sein, um das prognostizierte Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts zu bestimmen. Ein erster Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, kann einem Punkt auf der vom Nutzer erstellten Flugbahn entsprechen. Beispielsweise kann der erste Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, an einem bestimmten Punkt (z.B. Punkt A) liegen, der durch einen bestimmten Satz von Koordinatenwerten (z.B. Längen- und Breitengradwerte) definiert werden kann. Ein erster Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, kann einer Strecke der vom Nutzer erstellten Flugbahn entsprechen. Beispielsweise kann sich der erste Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, von einem ersten Punkt innerhalb der vom Nutzer erstellten Flugbahn (z.B. Punkt A) hin zu einem zweiten Punkt innerhalb der vom Nutzer erstellten Flugbahn (z.B. Punkt B) erstrecken. Die Punkte (z.B. Punkt A und Punkt B) können durch einen bestimmten Satz von Koordinatenwerten (z.B. Längen- und Breitengradwerte) definiert sein, so dass die Strecke der vom Nutzer erstellten Flugbahn durch die Strecke der Flugbahn zwischen den Koordinatenwerten von Punkt A und Punkt B definiert sein kann.
  • Das prognostizierte Risiko für einen bestimmten Abschnitt der vom Nutzer erstellten Flugbahn kann die Wahrscheinlichkeit widerspiegeln, dass das unbemannte Luftfahrzeug eine Kollision mit einem oder mehreren Objekten an oder in der Nähe des bestimmten Abschnitts der vom Nutzer erstellten Flugbahn erfährt. Die Bestimmung des prognostizierten Risikos kann das Bestimmen einer Risiko-Konfidenzbewertung umfassen. Die Risiko-Konfidenzbewertung kann eine Wahrscheinlichkeit quantifizieren, dass das unbemannte Luftfahrzeug mit dem einen oder den mehreren Objekten innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts kollidiert. Die Risiko-Konfidenzbewertung kann einer Gleitskala von numerischen Werten (z.B. 1, 2, .... n, wobei eine Zahl als niedrig und/oder hoch bestimmt werden kann) und/oder verbalen Ebenen bzw. Stufen (z.B. sehr niedrig, niedrig, mittel, hoch, sehr hoch und/oder andere verbale Stufen) entsprechen. Beispielsweise kann auf einer Gleitskala von 0-5, wobei 0 eine sehr geringe Kollisionswahrscheinlichkeit darstellt und 5 eine sehr hohe Kollisionswahrscheinlichkeit darstellt, die Risikokomponente 110 konfiguriert sein, um zu bestimmen, dass basierend auf der vom Nutzer erstellten Flugbahn die Risiko-Konfidenzbewertung des UAV, das während des ersten Abschnitts der vom Nutzer erstellten Flugbahn mit einem Objekt kollidiert (wobei der erste Abschnitt beispielsweise die ersten 2 Minuten der Flugzeit umfassen kann, in der mit 30 Meilen pro Stunde geflogen wird) 0 beträgt, bei 2 Minuten und etwa 5 Sekunden der Flugzeit innerhalb der vom Nutzer erstellten Flugbahn, die bei gleicher Geschwindigkeit zurückgelegt wird, die Risiko-Konfidenzbewertung des UAV, das mit einem Ast kollidiert, jedoch 3 beträgt.
  • Individuellen Abschnitten der vom Nutzer erstellten Flugbahn können eine oder mehrere Risiko-Konfidenzbewertungen zugeordnet sein. Unter Bezugnahme auf das vorstehende Beispiel kann die Risiko-Konfidenzbewertung des UAV, das bei 2 Minuten und 5 Sekunden der Flugzeit innerhalb der vom Nutzer erstellten Flugbahn, die mit der gleichen Geschwindigkeit zurückgelegt wird, mit dem Baumstamm kollidiert, als 0 bestimmt werden, die Risiko-Konfidenzbewertung des UAV, das bei 2 Minuten und 5 Sekunden der Flugzeit innerhalb der vom Nutzer erstellten Flugbahn, die mit der gleichen Geschwindigkeit zurückgelegt wird, mit einem der Äste kollidiert, kann jedoch als 3 bestimmt werden.
  • Das Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn kann auf Risikoparametern basieren. Die Risikoparameter können die Objekt-Existenz-Genauigkeit, einen Abstand zwischen dem UAV entlang der individuellen Abschnitte der vom Nutzer erstellten Flugbahn und dem Objekt innerhalb der dreidimensionalen Darstellung, frühere Kollisionsaufzeichnungen früherer UAVs, die mit dem einen oder mehreren Objekten innerhalb des vom Nutzer gewählten Standortes kollidieren, und/oder andere Risikoparameter umfassen. Die Risikokomponente 110 kann konfiguriert sein, um einen Algorithmus zum Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn basierend auf irgendeinem der Risikoparameter zu verwenden. Die Risiko-Konfidenzbewertungen können basierend auf irgendeinem der Risikoparameter variieren.
  • Das Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn kann auf einer oder mehreren Objekt-Existenz-Genauigkeiten basieren. Wie vorstehend erläutert ist, können Objekten innerhalb der dreidimensionalen Darstellung eine oder mehrere Objekt-Existenz-Genauigkeiten zugeordnet sein. Objekte können stationär oder in Bewegung sein. Stationäre Objekte können eine höhere Objekt-Existenz-Genauigkeit aufweisen als sich bewegende Objekte. Wie vorstehend erläutert ist, kann ein Baum jedoch ein stationäres Objekt sein, so dass der Baum in allen abgerufenen Tiefenkarten früherer unbemannter Luftflüge einschließlich des vom Nutzer gewählten Standorts umfasst sein kann, die Äste des Baums können jedoch schwingen und/oder sich bewegen. Somit kann den Grenzen des Baumes (z.B. den Astgrenzen) eine niedrigere Objekt-Existenz-Genauigkeit zugeordnet sein als dem Baum selbst.
  • Das Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn kann auf einem Abstand zwischen dem UAV entlang der individuellen Abschnitte der vom Nutzer erstellten Flugbahn und dem Objekt innerhalb der dreidimensionalen Darstellung basieren. Der Abstand zwischen dem UAV entlang der individuellen Abschnitte der vom Nutzer erstellten Flugbahn und dem Objekt innerhalb der dreidimensionalen Darstellung kann einen Bereich von Abständen und/oder eine Schwelle umfassen. Falls die vom Nutzer erstellte Flugbahn beispielsweise das UAV umfasst, welches sich einem Objekt mit einer hohen Objekt-Existenz-Genauigkeit innerhalb von 5 Fuß annähert, kann die Risikokomponente 110 dann konfiguriert sein, um zu bestimmen, dass das prognostizierte Risiko für das mit dem Objekt kollidierende UAV höher sein kann als in einem Fall, in dem das UAV 10 Fuß vom Objekt entfernt fliegen würde.
  • Das Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn kann auf früheren Kollisionsaufzeichnungen früherer UAVs beruhen, die mit dem einem oder mehreren Objekten innerhalb des vom Nutzer gewählten Standorts kollidierten. Frühere Kollisionen früherer unbemannter Luftflüge innerhalb des vom Nutzer gewählten Standortes können gespeichert sein. Die gespeicherten früheren Kollisionen können eine Stelle umfassen, an der das UAV mit dem Objekt kollidierte. Die gespeicherten früheren Kollisionen können das Objekt umfassen, mit dem das UAV kollidiert ist. Die Risikokomponente 110 kann konfiguriert sein, um diese Informationen zu verwenden, um die Wahrscheinlichkeit zu bestimmen, dass das UAV mit denselben, ähnlichen oder anderen Objekten in der Nähe der vom Nutzer erstellten Flugbahn kollidiert. Die Risikokomponente 110 kann konfiguriert sein, um frühere Risiko-Konfidenzbewertungen abzurufen, die dem Objekt(en) zugeordnet sind, mit dem das UAV zuvor kollidiert ist. Die Risikokomponente 110 kann konfiguriert sein, um das prognostizierte Risiko und/oder die Risiko-Konfidenzbewertung basierend auf den früheren Risiko-Konfidenzbewertungen, die dem Objekt(en) zugeordnet sind, mit dem das UAV zuvor an dem vom Nutzer gewählten Standort kollidiert ist, anzupassen.
  • Basierend auf dem bestimmten prognostizierten Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn kann die Risikokomponente 110 konfiguriert sein, um eine Benachrichtigung bzw. Meldung zu erzeugen. Die Benachrichtigung kann das Bereitstellen einer Benachrichtigung des Nutzers über eine oder mehrere Client-Computerplattform(en) 104 über das prognostizierte Risiko für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn umfassen. Die Benachrichtigung kann eine graphische Benachrichtigung, eine akustische Benachrichtigung, eine sensorische Benachrichtigung und/oder andere Benachrichtigungen umfassen. Die Benachrichtigung kann beispielsweise eine Warnmeldung umfassen, die in einer Anzeige angezeigt wird, die der/den Client-Computerplattform(en) 104 zugeordnet ist. Die Benachrichtigung kann beispielsweise einen Warnton umfassen, der für den Nutzer hörbar ist. Eine exemplarische sensorische Benachrichtigung kann eine Vibrations- und/oder Lichtbenachrichtigung umfassen.
  • Eine graphische Benachrichtigung kann innerhalb einer Anzeige erfolgen, die einer oder mehreren Client-Computerplattform(en) 104 zugeordnet ist. Eine akustische Benachrichtigung kann ein Benachrichtigungsgeräusch umfassen, das von einem Lautsprecher über einen oder mehrere Ohrhörer auf einer oder beiden Seiten von Kopfhörern ausgegeben wird, und/oder andere akustische Benachrichtigungen umfassen. Eine sensorische Benachrichtigung kann über die Client-Computerplattform(en) 104, eine oder mehrere Anzeigevorrichtungen, die den Client-Computerplattform(en) 104 zugeordnet sind, eine oder mehrere Steuerungsvorrichtungen (z.B. Nutzerschnittstellen), die den Client-Computerplattform(en) 104 zugeordnet sind, und/oder andere Vorrichtungen erfolgen.
  • Die Benachrichtigung kann Abschnitte der vom Nutzer erstellten Flugbahn angeben, die ein höheres prognostiziertes Risiko aufweisen als andere Abschnitte der vom Nutzer erstellten Flugbahn. Die Benachrichtigung kann einen Vorschlag bereitstellen, um eine Kollision mit dem einen oder den mehreren Objekten in der Nähe der vom Nutzer erstellten Flugbahn zu vermeiden. Beispielsweise können Abschnitte der vom Nutzer erstellten Flugbahn, die mit einem höheren prognostizierten Risiko behaftet sind als andere Abschnitte der vom Nutzer erstellten Flugbahn, in einer anderen Farbe (z.B. rot) dargestellt werden. Gleichermaßen können Abschnitte der vom Nutzer erstellten Flugbahn, die mit einem geringeren prognostizierten Risiko behaftet sind als andere Abschnitte der vom Nutzer erstellten Flugbahn, grün oder in einer anderen Farbe dargestellt werden, um diesen Abschnitt von den anderen Abschnitten zu unterscheiden. Die graphische Benachrichtigung kann einen Pfeil umfassen, der einem Abschnitt der vom Nutzer erstellten Flugbahn mit einem höheren zugeordneten prognostizierten Risiko als ein anderer Abschnitt zugeordnet ist, der in eine Richtung zeigt, in die der Nutzer diesen Abschnitt der vom Nutzer erstellten Flugbahn ändern und/oder bearbeiten möchte. Eine akustische Benachrichtigung kann beispielsweise eine gesprochene Nachricht „Hohes Kollisionsrisiko. Bewege dich um 2 Fuß nach Osten, um eine Kollisionen zu vermeiden“ umfassen. Bei dem rechten Ohr des Nutzers kann ein Geräusch bzw. Klang abgespielt werden, um dem Nutzer anzuzeigen, dass der Nutzer einen Abschnitt der vom Nutzer erstellten Flugbahn nach Osten verschieben möchte, um eine Kollision zu vermeiden. Das Geräusch kann beim linken Ohr des Nutzers abgespielt werden, um dem Nutzer anzuzeigen, dass der Nutzer einen Abschnitt der vom Nutzer erstellten Flugbahn nach Westen verschieben möchte, um eine Kollision zu vermeiden. Dies dient nur zu exemplarischen Zwecken und stellt keine Beschränkung dieser Offenbarung dar, da andere Benachrichtigungen und/oder Kombinationen von Benachrichtigungen erzeugt und/oder bereitgestellt werden können. Die Benachrichtigung kann dem Nutzer über eine oder mehrere Client-Computerplattform(en) 104 in Echtzeit und/oder nahezu in Echtzeit an die Flugbahnkomponente 108 bereitgestellt werden, welche die vom Nutzer erstellte Flugbahn erhält.
  • So kann beispielsweise unter Bezugnahme auf die 1 und 2C eine Benachrichtigung 214 innerhalb der dreidimensionalen Darstellung 200 angezeigt werden. Nehmen wir zum Beispiel an, dass das Objekt 204 ein Baum ist. Während die Risikokomponente 110 relativ sicher sein kann, dass der Baum (z.B. Objekt 204) an dem vom Nutzer gewählten Standort existiert, kann die Risikokomponente 110 die Grenzen des Baumes (z.B. die Äste des Baumes) mit geringerer Sicherheit bestimmen als den Baum (z.B. Objekt 204) selbst. Somit kann die Risikokomponente 110 bestimmen, dass das prognostizierte Risiko, das dem Abschnitt der vom Nutzer erstellten Flugbahn 210 zugeordnet ist, der sich dem Objekt 204 nähert (z.B. dem Baum), signifikant zunimmt, je näher die vom Nutzer erstellte Flugbahn 210 dem Objekt 204 kommt. Die Benachrichtigung 214 (z.B. ein Pfeil) kann angezeigt werden, um den Nutzer darüber zu informieren, den Abschnitt der vom Nutzer erstellten Flugbahn 210 in der Nähe des Objekts 204 in eine Richtung zu bewegen, die durch die Benachrichtigung bzw. Meldung 214 angegeben ist. Die Benachrichtigung 214 kann auf eine hohe Wahrscheinlichkeit hinweisen, dass das UAV mit dem Objekt 204 kollidieren kann. Die Benachrichtigung 214 kann darauf hinweisen, dass ein Bewegen der vom Nutzer erstellten Flugbahn 210 in die durch die Benachrichtigung 214 angegebene Richtung die Wahrscheinlichkeit einer Kollision des UAV mit dem Objekt 204 verringern kann. Dies dient nur zu exemplarischen Zwecken und stellt keine Beschränkung dieser Offenbarung dar.
  • Nach Abflug des UAV zu dessen unbemannten Luftflug basierend auf der vom Nutzer erstellten Flugbahn kann das System 100 konfiguriert sein, um die Position des UAV während des unbemannten Luftflugs zu verfolgen. Basierend auf der vom Nutzer erstellten Flugbahn kann das UAV bei einer bestimmten Flughöhe, Länge, Breite, geographischen Position, Kurs und/oder Geschwindigkeit fliegen. Das System 100 kann konfiguriert sein, um die Position des UAV basierend auf einem GPS und/oder einem anderen Ortungsverfolgungssystem, das dem UAV zugeordnet ist, zu verfolgen, um die Flughöhe, den Längengrad, den Breitengrad, die geographische Position, den Kurs und/oder die Geschwindigkeit des UAV zu bestimmen. Ein Nutzer kann die vom Nutzer erstellte Flugbahn über eine oder mehrere Client-Computerplattform(en) 104 (z.B. ein Fernsteuergerät usw.) manuell überschreiben.
  • Die Risikokomponente 110 kann konfiguriert sein, um ein aktualisiertes prognostiziertes Risiko basierend auf der verfolgten Position des UAV zu bestimmen. Das aktualisierte prognostizierte Risiko kann eine Wahrscheinlichkeit widerspiegeln, dass das UAV eine Kollision mit einem oder mehreren Objekten an oder in der Nähe der verfolgten Position des UAV erfährt. Falls der Nutzer die vom Nutzer erstellte Flugbahn manuell überschreibt und das UAV in eine andere Richtung dreht, kann die Risikokomponente 110 konfiguriert sein, um das aktualisierte prognostizierte Risiko für die verfolgte Position des UAV in ähnlicher Art und Weise wie vorstehend beschrieben zu bestimmen. Das System 100 kann beispielsweise konfiguriert sein, um eine neue Flugbahn für das UAV basierend auf der verfolgten Position des UAV vorherzusagen bzw. zu prognostizieren. Die Risikokomponente 110 kann konfiguriert sein, um das aktualisierte prognostizierte Risiko basierend auf einer dreidimensionalen Darstellung der verfolgten Position des UAV zu bestimmen. Das System 100 kann konfiguriert sein, um Objekte an und/oder in der Nähe der verfolgten Position des UAV zu erfassen. Die Risikokomponente 110 kann konfiguriert sein, um das aktualisierte prognostizierte Risiko basierend auf den erfassten Objekten an und/oder in der Nähe der verfolgten Position des UAV zu bestimmen. Der Nutzer kann in ähnlicher Art und Weise wie vorstehend beschrieben über das aktualisierte prognostizierte Risiko informiert werden.
  • Unter erneuter Bezugnahme auf 1 können bei einigen Implementierungen Server(s) 102, Client-Computerplattform(en) 104 und/oder externe Einrichtungen 120 über eine oder mehrere elektronische Kommunikationsverbindungen funktionsfähig verbunden sein. Beispielsweise können solche elektronische Kommunikationsverbindungen zumindest teilweise über ein Netzwerk, wie das Internet und/oder andere Netzwerke, geschaffen sein. Es wird erkannt, dass dies nicht als Beschränkung gedacht ist und dass der Schutzumfang dieser Offenbarung Implementierungen umfasst, bei denen Server(s) 102, Client-Computerplattform(en) 104 und/oder externe Einrichtungen 120 über einige andere Kommunikationsmedien funktionsfähig verbunden sein können.
  • Eine vorgegebene Client-Computerplattform 104 kann einen oder mehrere Prozessoren umfassen, die konfiguriert sind, um Computerprogrammkomponenten auszuführen. Die Computerprogrammkomponenten können konfiguriert sein, um es einem Hersteller und/oder Nutzer, welcher der vorgegebenen Client-Computerplattform 104 zugeordnet ist, zu ermöglichen, mit dem System 100 und/oder externen Einrichtungen 120 zu interagieren, und/oder andere Funktionen bereitzustellen, die hierin der Client-Computerplattform(en) 104 zugeordnet sind.
  • Externe Einrichtungen 120 können Informationsquellen, Hosts und/oder Anbieter von virtuellen Umgebungen außerhalb des Systems 100, externe Einheiten, die bei dem System 100 partizipieren, und/oder anderen Einrichtungen umfassen. In einigen Implementierungen kann ein Teil oder die gesamte Funktionalität, die hierin externen Einrichtungen 120 zugeordnet ist, durch Einrichtungen bereitgestellt werden, die in dem System 100 enthalten sind.
  • Server 102 können einen elektronischen Speicher 122, einen oder mehrere Prozessoren 124 und/oder andere Komponenten umfassen. Der/Die Server 102 können Kommunikationsleitungen oder Ports umfassen, um den Austausch von Informationen mit einem Netzwerk und/oder anderen Computer- bzw. Berechnungsplattformen zu ermöglichen. Die Darstellung des/der Server 102 in 1 soll keine Einschränkung darstellen. Der/Die Server 102 können eine Mehrzahl von Hardware-, Software- und/oder Firmwarekomponenten umfassen, die zusammenwirken, um die Funktionalität bereitzustellen, die hierin den Servern 102 zugewiesen ist. Beispielsweise können die Server 102 durch eine Cloud von Computerplattformen implementiert sein, die zusammen als Server 102 arbeiten.
  • Der elektronische Speicher 122 kann elektronische Speichermedien umfassen, die Informationen elektronisch speichern. Die elektronischen Speichermedien des elektronischen Speichers 122 können einen oder beide aus einem Systemspeicher, der integral (d.h. im Wesentlichen nicht entfernbar) mit einem Server(n) 102 vorgesehen ist, und/oder einem lösbaren Speicher, der mit dem Server(n) 102 beispielsweise über einen Port (z.B. einen USB-Port, Firewire-Port usw.) oder ein Laufwerk (z.B. Festplattenlaufwerk usw.) lösbar verbunden werden kann, umfassen. Der elektronische Speicher 122 kann eines oder mehrere optisch lesbare Speichermedien (z.B. optische Disketten usw.), magnetisch lesbare Speichermedien (z.B. ein Magnetband, eine magnetische Festplatte, ein Diskettenlaufwerk usw.), elektrische ladungsbasierte Speichermedien (z.B. EEPROM, RAM usw.), Festkörperspeichermedien (z.B. Flash-Laufwerk usw.) und/oder andere elektronisch lesbare Speichermedien umfassen. Der elektronische Speicher 122 kann eine oder mehrere virtuelle Speicherressourcen umfassen (z.B. Cloud-Speicher, ein virtuelles privates Netzwerk und/oder andere virtuelle Speicherressourcen). Der elektronische Speicher 122 kann Softwarealgorithmen, Informationen, die von dem Prozessor(en) 124 bestimmt werden, Informationen, die von dem Server(n) 102 empfangen werden, Informationen, die von der Client-Computerplattform(en) 104 empfangen werden, und/oder andere Informationen speichern, die es dem Server(n) 102 ermöglichen, wie hierin beschrieben zu arbeiten.
  • Der Prozessor(en) 124 kann konfiguriert sein, um Informationsverarbeitungsfähigkeiten bei dem Server(n) 102 bereitzustellen. Somit kann der Prozessor(en) 124 ein oder mehrere Elemente aus einem digitalen Prozessor, einem analogen Prozessor, einer digitalen Schaltung zur Verarbeitung von Informationen, einer analogen Schaltung zur Verarbeitung von Informationen, einer Zustandsmaschine und/oder anderen Mechanismen zur elektronischen Verarbeitung von Informationen umfassen. Obwohl der/die Prozessor(en) 124 in 1 als eine einzelne Einheit gezeigt ist/sind, dient dies nur zur Veranschaulichung. In einigen Implementierungen kann bzw. können die Prozessor(en) 124 eine Mehrzahl von Verarbeitungseinheiten umfassen. Diese Verarbeitungseinheiten können sich physisch innerhalb derselben Vorrichtung befinden, oder der/die Prozessor(en) 124 können eine Verarbeitungsfunktionalität einer Mehrzahl von Vorrichtungen darstellen, die koordiniert arbeiten. Der/die Prozessor(en) 124 können konfiguriert sein, um computerlesbare Befehlskomponenten 106, 108, 110 und/oder andere Komponenten auszuführen. Der/die Prozessor(en) 124 können konfiguriert sein, um die Komponenten 106, 108, 110 und/oder andere Komponenten durch Software, Hardware, Firmware, eine Kombination aus Software, Hardware und/oder Firmware und/oder andere Mechanismen zum Konfigurieren von Verarbeitungsfähigkeiten auf dem/den Prozessor(en) 124 auszuführen.
  • Es sollte erkannt werden, dass, obwohl die Komponenten 106, 108 und 110 in 1 so dargestellt sind, dass diese innerhalb einer einzelnen Verarbeitungseinheit zusammengelegt sind, bei Implementierungen, bei denen der/die Prozessor(en) 124 mehrere Verarbeitungseinheiten umfasst, eine oder mehrere der Komponenten 106, 108 und/oder 110 entfernt von den anderen Komponenten angeordnet sein kann/können. Die Beschreibung der Funktionalität, die von den verschiedenen hierin beschriebenen Komponenten 106, 108 und/oder 110 bereitgestellt ist, dient der Veranschaulichung und ist nicht als Beschränkung gedacht, da jede der Komponenten 106, 108 und/oder 110 mehr oder weniger Funktionalität als beschrieben bereitstellen kann. Beispielsweise kann eine oder mehrere der Komponenten 106, 108 und/oder 110 weggelassen werden, und ein Teil oder die gesamte Funktionalität kann durch andere der Komponenten 106, 108 und/oder 110 bereitgestellt werden. Als weiteres Beispiel kann/können Prozessor(en) 124 konfiguriert sein, um eine oder mehrere zusätzliche Komponenten auszuführen, die einen Teil oder die gesamte Funktionalität durchführen können, die hierin einer der Komponenten 106, 108 und/oder 110 zugeordnet ist.
  • 3 veranschaulicht ein Verfahren 300 zum Bestimmen des prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs gemäß einer oder mehrerer Implementierungen. Die im Folgenden dargestellten Vorgänge des Verfahrens 300 sollen zur Veranschaulichung dienen. In einigen Implementierungen kann das Verfahren 300 mit einem oder mehreren zusätzlichen, nicht beschriebenen Vorgängen und/oder ohne einen oder mehrere der beschriebenen Vorgänge erreicht werden. Darüber hinaus ist die Reihenfolge, in der die Vorgänge des Verfahrens 300 in 3 dargestellt und im Folgenden beschrieben sind, nicht als Beschränkung zu verstehen.
  • Bei einigen Implementierungen kann das Verfahren 300 in einer oder mehreren Verarbeitungsvorrichtungen implementiert werden (z.B. einem digitalen Prozessor, einem analogen Prozessor, einer digitalen Schaltung zur Verarbeitung von Informationen, einer analogen Schaltung zur Verarbeitung von Informationen, einer Zustandsmaschine und/oder anderen Mechanismen zur elektronischen Verarbeitung von Informationen). Die eine oder die mehreren Verarbeitungsvorrichtungen können eine oder mehrere Vorrichtungen umfassen, die einige oder alle Vorgänge des Verfahrens 300 im Ansprechen auf Anweisungen ausführen, die elektronisch auf einem elektronischen Speichermedium gespeichert sind. Die eine oder die mehreren Verarbeitungsvorrichtungen können eine oder mehrere Vorrichtungen umfassen, die durch Hardware, Firmware und/oder Software konfiguriert sind, die speziell für die Ausführung einer oder mehrerer der Vorgänge des Verfahrens 300 auszulegen sind.
  • Bei einem Vorgang 302 kann eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes erhalten werden. Die dreidimensionale Darstellung kann aus Tiefenkarten des vom Nutzer gewählten Standorts hergeleitet werden, die bei früheren unbemannten Luftflügen erstellt wurden. Die dreidimensionale Darstellung kann das Vorliegen von Objekten und Objekt-Existenz-Genauigkeiten für die individuellen Objekte widerspiegeln. Die Objekt-Existenz-Genauigkeiten für die individuellen Objekte können Informationen über die Existenzgenauigkeit der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen. Der Vorgang 302 kann gemäß einer oder mehreren Implementierungen von einer Darstellungskomponente durchgeführt werden, die gleich oder ähnlich der Darstellungskomponente 106 ist.
  • Bei einem Vorgang 304 kann eine vom Nutzer erstellte Flugbahn für einen zukünftigen unbemannten Luftflug innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts erhalten werden. Der Vorgang 304 kann gemäß einer oder mehreren Implementierungen von einer Flugbahnkomponente durchgeführt werden, die der Flugbahnkomponente 108 entspricht oder ähnlich zu dieser ist.
  • Bei einem Vorgang 306 kann ein prognostiziertes Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts bestimmt werden. Der Vorgang 306 kann gemäß einer oder mehreren Implementierungen von einer Risikokomponente durchgeführt werden, die der Risikokomponente 110 entspricht oder ähnlich zu dieser ist.
  • Obwohl das/die System(e) und/oder das/die Verfahren dieser Offenbarung zur Veranschaulichung basierend auf den Implementierungen detailliert beschrieben wurden, die derzeit als am praktischsten und am meisten bevorzugt betrachtet werden, ist ersichtlich, dass dieses Detail ausschließlich diesem Zweck dient und dass die Offenlegung nicht auf die offenbarten Implementierungen beschränkt ist, sondern im Gegenteil dazu bestimmt ist, Modifikationen und äquivalente Anordnungen abzudecken, die in dem Grundgedanken und Schutzumfang der beigefügten Ansprüche liegen. So ist beispielsweise erkennbar, dass die vorliegende Offenbarung vorsieht, dass, soweit möglich, ein oder mehrere Merkmale irgendeiner Implementierung mit einem oder mehreren Merkmalen irgendeiner anderen Implementierung kombiniert werden kann/können.

Claims (10)

  1. System zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs, wobei das System aufweist: einen oder mehrere physische Prozessoren, die durch maschinenlesbare Anweisungen so konfiguriert sind, dass diese: eine zuvor gespeicherte dreidimensionale Darstellung eines vom Nutzer gewählten Standortes erhalten, wobei die dreidimensionale Darstellung aus Tiefenkarten des vom Nutzer gewählten Standortes hergeleitet ist, die bei früheren unbemannten Luftflügen erzeugt wurden, wobei die dreidimensionale Darstellung das Vorliegen von Objekten und Objekt-Existenz-Genauigkeiten für die individuellen Objekte widerspiegelt, wobei die Objekt-Existenz-Genauigkeiten für die individuellen Objekte Informationen über die Genauigkeit der Existenz der individuellen Objekte innerhalb des vom Nutzer gewählten Standortes bereitstellen; eine vom Nutzer erstellte Flugbahn für einen zukünftigen unbemannten Luftflug innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standortes erhalten; und das prognostizierte Risiko für individuelle Abschnitte der vom Nutzer erstellten Flugbahn basierend auf der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts bestimmen.
  2. System nach Anspruch 1, wobei ein erster Abschnitt der vom Nutzer erstellten Flugbahn, für den ein Risiko bestimmt wird, einem Punkt auf der vom Nutzer erstellten Flugbahn entspricht.
  3. System nach Anspruch 1, wobei die Informationen über die Genauigkeit der Existenz der individuellen Objekte innerhalb des vom Nutzer gewählten Standorts Informationen über die Genauigkeit von Grenzen der individuellen Objekte innerhalb des vom Nutzer gewählten Standorts umfassen.
  4. System nach Anspruch 1, wobei das prognostizierte Risiko für einen vorgegebenen Abschnitt der vom Nutzer erstellten Flugbahn die Wahrscheinlichkeit widerspiegelt, dass eine Kollision mit einem oder mehreren der Objekte an oder in der Nähe des vorgegebenen Abschnitts der vom Nutzer erstellten Flugbahn stattfindet.
  5. System nach Anspruch 4, wobei das Bestimmen des prognostizierten Risikos das Bestimmen einer Risiko-Konfidenzbewertung umfasst, wobei die Risiko-Konfidenzbewertung eine Wahrscheinlichkeit quantifiziert, dass das unbemannte Luftfahrzeug mit dem Objekt innerhalb der dreidimensionalen Darstellung des vom Nutzer gewählten Standorts kollidiert.
  6. System nach Anspruch 1, wobei das Bestimmen des prognostizierten Risikos für die individuellen Abschnitte der vom Nutzer erstellten Flugbahn auf Risikoparametern basiert.
  7. System nach Anspruch 6, wobei die Risikoparameter die Objektgenauigkeit, einen Abstand zwischen dem unbemannten Luftfahrzeug entlang der individuellen Abschnitte der vom Nutzer erstellten Flugbahn und dem Objekt innerhalb der dreidimensionalen Darstellung, und/oder frühere Kollisionsaufzeichnungen früherer unbemannter Luftfahrzeuge, die mit dem Objekt innerhalb des vom Nutzer gewählten Standortes kollidierten, umfassen.
  8. System nach Anspruch 1, wobei der eine oder die mehreren physischen Prozessoren ferner durch maschinenlesbare Anweisungen so konfiguriert sind, dass diese die Position des unbemannten Luftfahrzeugs während eines unbemannten Luftflugs verfolgen.
  9. System nach Anspruch 8, wobei der eine oder die mehreren physischen Computerprozessoren ferner durch computerlesbare Anweisungen so konfiguriert sind, dass diese ein aktualisiertes prognostiziertes Risiko basierend auf der verfolgten Position des unbemannten Luftfahrzeugs bestimmen.
  10. System nach Anspruch 9, wobei das aktualisierte prognostizierte Risiko eine Wahrscheinlichkeit einer Kollision mit einem oder mehreren Objekten an oder in der Nähe der verfolgten Position des unbemannten Luftfahrzeugs widerspiegelt.
DE212017000227.1U 2016-10-06 2017-09-27 Systeme zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs Active DE212017000227U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/287,710 US11106988B2 (en) 2016-10-06 2016-10-06 Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US15/287,710 2016-10-06
PCT/IB2017/055930 WO2018065857A1 (en) 2016-10-06 2017-09-27 Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle

Publications (1)

Publication Number Publication Date
DE212017000227U1 true DE212017000227U1 (de) 2019-05-08

Family

ID=61828971

Family Applications (1)

Application Number Title Priority Date Filing Date
DE212017000227.1U Active DE212017000227U1 (de) 2016-10-06 2017-09-27 Systeme zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs

Country Status (3)

Country Link
US (2) US11106988B2 (de)
DE (1) DE212017000227U1 (de)
WO (1) WO2018065857A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019136404A1 (en) 2018-01-05 2019-07-11 Todd Petersen Transportation systems and related methods
US11482124B2 (en) * 2019-09-27 2022-10-25 Jeffrey Brian Sassinsky Aerospace hazard detection, recognition, prioritization and warning device, system and associated methods
KR102267287B1 (ko) * 2020-02-28 2021-06-21 숭실대학교산학협력단 Lstm 기반 미래 위협 요소 예측 방법 및 장치
US20210382140A1 (en) * 2020-06-09 2021-12-09 Applied Signals Intelligence, Inc. Apparatus for and methods of controlling radar contact
USD1013717S1 (en) * 2021-01-08 2024-02-06 Sony Group Corporation Display screen or portion thereof with an animated graphical user interface
TWI781682B (zh) * 2021-07-09 2022-10-21 國立臺灣大學 無人機之風險評估裝置及其方法

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181966A (ja) 1995-12-22 1997-07-11 Olympus Optical Co Ltd 画像処理方法及び装置
US6633685B1 (en) 1998-08-05 2003-10-14 Canon Kabushiki Kaisha Method, apparatus, and storage media for image processing
US7047201B2 (en) 2001-05-04 2006-05-16 Ssi Corporation Real-time control of playback rates in presentations
US7970240B1 (en) 2001-12-17 2011-06-28 Google Inc. Method and apparatus for archiving and visualizing digital images
KR100866790B1 (ko) 2002-06-29 2008-11-04 삼성전자주식회사 인터렉티브 모드에서의 포커싱 방법 및 그 장치
JP4117616B2 (ja) 2003-07-28 2008-07-16 ソニー株式会社 編集システム、その制御方法及び編集装置
US20050108031A1 (en) 2003-11-17 2005-05-19 Grosvenor Edwin S. Method and system for transmitting, selling and brokering educational content in streamed video form
JP3915988B2 (ja) 2004-02-24 2007-05-16 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4125252B2 (ja) 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
US7512886B1 (en) 2004-04-15 2009-03-31 Magix Ag System and method of automatically aligning video scenes with an audio track
US8953908B2 (en) 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
JP2006053694A (ja) 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US20060080286A1 (en) 2004-08-31 2006-04-13 Flashpoint Technology, Inc. System and method for storing and accessing images based on position data associated therewith
US7194353B1 (en) * 2004-12-03 2007-03-20 Gestalt, Llc Method and system for route planning of aircraft using rule-based expert system and threat assessment
US8774560B2 (en) 2005-01-11 2014-07-08 University Of Central Florida Research Foundation, Inc. System for manipulation, modification and editing of images via remote device
US7735101B2 (en) 2006-03-28 2010-06-08 Cisco Technology, Inc. System allowing users to embed comments at specific points in time into media presentation
JP4565115B2 (ja) 2006-08-30 2010-10-20 独立行政法人産業技術総合研究所 多焦点撮像装置
US20080123976A1 (en) 2006-09-22 2008-05-29 Reuters Limited Remote Picture Editing
US7885426B2 (en) 2006-09-26 2011-02-08 Fuji Xerox Co., Ltd. Method and system for assessing copyright fees based on the content being copied
JP5007563B2 (ja) 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US20080183608A1 (en) 2007-01-26 2008-07-31 Andrew Gavin Payment system and method for web-based video editing system
US20090027499A1 (en) 2007-07-23 2009-01-29 David Henry Nicholl Portable multi-media surveillance device and method for delivering surveilled information
JP2009053748A (ja) 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
WO2009040538A1 (en) 2007-09-25 2009-04-02 British Telecommunications Public Limited Company Multimedia content assembling for viral marketing purposes
US20090088916A1 (en) 2007-09-28 2009-04-02 Honeywell International Inc. Method and system for automatic path planning and obstacle/collision avoidance of autonomous vehicles
JP2009117974A (ja) 2007-11-02 2009-05-28 Fujifilm Corp 興味情報作成方法、装置およびシステム
WO2009072466A1 (ja) 2007-12-03 2009-06-11 National University Corporation Hokkaido University 画像分類装置および画像分類プログラム
JP2009230822A (ja) 2008-03-24 2009-10-08 Sony Corp コンテンツ編集装置、コンテンツ編集方法及びプログラム
US8548727B2 (en) 2008-05-02 2013-10-01 Honeywell International Inc. Cognitive aircraft hazard advisory system (CAHAS)
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
AU2009295348A1 (en) 2008-09-25 2010-04-01 Igruuv Pty Ltd Video and audio content system
KR101499498B1 (ko) 2008-10-08 2015-03-06 삼성전자주식회사 초고해상도 비디오 처리 장치 및 방법
US20100161720A1 (en) 2008-12-23 2010-06-24 Palm, Inc. System and method for providing content to a mobile device
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
IT1394782B1 (it) 2009-03-03 2012-07-13 Alenia Aeronautica Spa Procedimento di predizione di collisioni tra un velivolo e un aeromobile
US8412729B2 (en) 2009-04-22 2013-04-02 Genarts, Inc. Sharing of presets for visual effects or other computer-implemented effects
US8516101B2 (en) 2009-06-15 2013-08-20 Qualcomm Incorporated Resource management for a wireless device
US20120210205A1 (en) 2011-02-11 2012-08-16 Greg Sherwood System and method for using an application on a mobile device to transfer internet media content
JP5549230B2 (ja) 2010-01-13 2014-07-16 株式会社リコー 測距装置、測距用モジュール及びこれを用いた撮像装置
US20110206351A1 (en) 2010-02-25 2011-08-25 Tal Givoli Video processing system and a method for editing a video asset
JP5565001B2 (ja) 2010-03-04 2014-08-06 株式会社Jvcケンウッド 立体映像撮像装置、立体映像処理装置および立体映像撮像方法
JP4787905B1 (ja) 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US8606073B2 (en) 2010-05-12 2013-12-10 Woodman Labs, Inc. Broadcast management system
JP4865068B1 (ja) 2010-07-30 2012-02-01 株式会社東芝 録再装置及び録再装置のタグリスト生成方法及び録再装置の制御装置
US8849879B2 (en) 2010-07-30 2014-09-30 Avaya Inc. System and method for aggregating and presenting tags
WO2012044297A1 (en) * 2010-09-30 2012-04-05 Empire Technology Development Llc Automatic flight control for uav based solid modeling
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US9213905B2 (en) 2010-10-25 2015-12-15 Trimble Navigation Limited Automatic obstacle location mapping
US8705866B2 (en) 2010-12-07 2014-04-22 Sony Corporation Region description and modeling for image subscene recognition
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US8954386B2 (en) 2011-03-22 2015-02-10 Microsoft Corporation Locally editing a remotely stored image
US20120283574A1 (en) 2011-05-06 2012-11-08 Park Sun Young Diagnosis Support System Providing Guidance to a User by Automated Retrieval of Similar Cancer Images with User Feedback
KR101797041B1 (ko) 2012-01-17 2017-12-13 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US20130239051A1 (en) 2012-03-06 2013-09-12 Apple Inc. Non-destructive editing for a media editing application
US8971623B2 (en) 2012-03-06 2015-03-03 Apple Inc. Overlaid user interface tools for applying effects to image
US20130330019A1 (en) 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd. Arrangement of image thumbnails in social image gallery
CN102768676B (zh) 2012-06-14 2014-03-12 腾讯科技(深圳)有限公司 一种格式未知文件的处理方法和装置
US9342376B2 (en) 2012-06-27 2016-05-17 Intel Corporation Method, system, and device for dynamic energy efficient job scheduling in a cloud computing environment
US20140152762A1 (en) 2012-06-28 2014-06-05 Nokia Corporation Method, apparatus and computer program product for processing media content
US20140018979A1 (en) * 2012-07-13 2014-01-16 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system
US20150156247A1 (en) 2012-09-13 2015-06-04 Google Inc. Client-Side Bulk Uploader
US8990328B1 (en) 2012-10-02 2015-03-24 Amazon Technologies, Inc. Facilitating media streaming with social interaction
JP2014106637A (ja) 2012-11-26 2014-06-09 Sony Corp 情報処理装置および方法、並びにプログラム
US9307269B2 (en) 2013-03-14 2016-04-05 Google Inc. Determining interest levels in videos
KR102161230B1 (ko) 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
US9542488B2 (en) 2013-08-02 2017-01-10 Google Inc. Associating audio tracks with video content
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
CN105981386B (zh) 2013-12-06 2019-02-26 华为技术有限公司 图像解码装置、图像编码装置及编码数据变换装置
ES2730404T3 (es) 2014-04-04 2019-11-11 Red Com Llc Videocámara con modos de captura
US9311760B2 (en) 2014-05-12 2016-04-12 Unmanned Innovation, Inc. Unmanned aerial vehicle authorization and geofence envelope determination
US9334052B2 (en) * 2014-05-20 2016-05-10 Verizon Patent And Licensing Inc. Unmanned aerial vehicle flight path determination, optimization, and management
US20170307733A1 (en) * 2014-07-03 2017-10-26 GM Global Technology Operations LLC Vehicle radar methods and systems
US10074013B2 (en) 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
JP6307383B2 (ja) * 2014-08-07 2018-04-04 日立オートモティブシステムズ株式会社 行動計画装置
JP2016037149A (ja) * 2014-08-07 2016-03-22 日立オートモティブシステムズ株式会社 車両制御システム、およびこれを備えた行動計画システム
US9418283B1 (en) 2014-08-20 2016-08-16 Amazon Technologies, Inc. Image processing using multiple aspect ratios
EP3428766B1 (de) * 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Abbildung von multisensorumgebungen
US20160094601A1 (en) 2014-09-30 2016-03-31 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US20160140851A1 (en) * 2014-11-18 2016-05-19 Ziv LEVY Systems and methods for drone navigation
US20160189752A1 (en) 2014-12-30 2016-06-30 Yaron Galant Constrained system real-time capture and editing of video
JP6455232B2 (ja) 2015-03-02 2019-01-23 株式会社リコー 画像処理システム、処理実行制御装置、画像形成出力制御装置、画像処理システムの制御プログラム、画像処理システムの制御方法
US10029804B1 (en) * 2015-05-14 2018-07-24 Near Earth Autonomy, Inc. On-board, computerized landing zone evaluation system for aircraft
DE102015209467A1 (de) * 2015-05-22 2016-11-24 Continental Teves Ag & Co. Ohg Verfahren zur Schätzung von Fahrstreifen
JP6803657B2 (ja) * 2015-08-31 2020-12-23 日立オートモティブシステムズ株式会社 車両制御装置および車両制御システム
US9785846B2 (en) * 2015-12-23 2017-10-10 Automotive Research & Test Center Method for quantifying classification confidence of obstructions
US9594372B1 (en) * 2016-01-21 2017-03-14 X Development Llc Methods and systems for providing feedback based on information received from an aerial vehicle

Also Published As

Publication number Publication date
WO2018065857A1 (en) 2018-04-12
US11106988B2 (en) 2021-08-31
US20180101782A1 (en) 2018-04-12
US20220027772A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
DE212017000227U1 (de) Systeme zum Bestimmen eines prognostizierten Risikos für eine Flugbahn eines unbemannten Luftfahrzeugs
DE102018121018A1 (de) Erweitern von realen sensoraufnahmen mit simuliertem sensordatenhintergrund
US10156855B2 (en) Heading generation method and system of unmanned aerial vehicle
DE112011105982T5 (de) Verstärkung von gespeicherten Inhalten mit lokalen Sensoren und AR-Kommunikation
DE69904492T3 (de) Computerspiel
DE102017101106A1 (de) Trainingsalgorithmus zur Kollisionsvermeidung
DE102018130115B4 (de) Vorrichtung und Verfahren zur kontextbasierten Unterdrückung und Verstärkung von Akustiksignalen in akustischen Umgebungen
DE112019001605T5 (de) Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen
JP2021530820A (ja) 車両を含む3次元拡張現実
EP2491530A1 (de) Verfahren zur bestimmung der pose einer kamera und zur erkennung eines objekts einer realen umgebung
DE102019113856A1 (de) Systeme, verfahren und steuerungen für ein autonomes fahrzeug, die autonome fahreragenten und fahrrichtlinienlernende implementieren, um richtlinien basierend auf kollektiven fahrerfahrungen der autonomen fahreragenten zu erstellen und zu verbessern
DE112016004640T5 (de) Filmische bearbeitung für virtuelle realität und erweiterte realität
US20190088025A1 (en) System and method for authoring and viewing augmented reality content with a drone
DE102017112992A1 (de) Trainingsalgorithmus zur kollisionsvermeidung unter verwenden von auditiven daten
JP6629019B2 (ja) 動的画像マスキングシステム及び方法
DE112018004847T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt
CN104118561B (zh) 一种基于无人机技术的大型濒危野生动物监测的方法
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
KR20220004754A (ko) 포토리얼리스틱 합성 데이터를 사용한 머리 포즈 및 응시 추정을 위한 신경망
JP2022529748A (ja) 時間変動音量予測システム
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
US20230087768A1 (en) Systems and methods for controlling an unmanned aerial vehicle
CN112995894B (zh) 无人机监控系统及方法
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE202016007909U1 (de) Systeme für den Übergang zwischen Perspektiven in einer dreidimensionalen Umgebung

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years