DE202022105718U1 - Semantische Lokalisierung eines unbemannten Luftfahrzeug - Google Patents

Semantische Lokalisierung eines unbemannten Luftfahrzeug Download PDF

Info

Publication number
DE202022105718U1
DE202022105718U1 DE202022105718.4U DE202022105718U DE202022105718U1 DE 202022105718 U1 DE202022105718 U1 DE 202022105718U1 DE 202022105718 U DE202022105718 U DE 202022105718U DE 202022105718 U1 DE202022105718 U1 DE 202022105718U1
Authority
DE
Germany
Prior art keywords
uav
environment
location
reference tiles
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202022105718.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wing Aviation LLC
Original Assignee
Wing Aviation LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wing Aviation LLC filed Critical Wing Aviation LLC
Publication of DE202022105718U1 publication Critical patent/DE202022105718U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/15Aircraft landing systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Unbemanntes Luftfahrzeug (UAV), umfassend:
eine Kamera; und
ein Steuerungssystem, das konfiguriert ist, Operationen durchzuführen, die umfassen:
Empfangen eines von der Kamera erfassten Bildes, wobei das Bild eine Umgebung unterhalb des UAV darstellt;
Erzeugen einer mit dem Bild assoziierten Merkmalsmaske mithilfe eines Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen.
Abrufen einer oder mehrerer Referenzkacheln, die mit der Umgebung assoziiert sind, wobei die eine oder die mehreren Referenzkacheln mit bestimmten geografischen Standorten assoziiert sind und semantisch gekennzeichnete Pixel angeben, die die geografischen Standorte darstellen; und
Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln, um einen geografischen Standort des UAV in der Umgebung zu ermitteln.

Description

  • HINTERGRUND
  • Ein unbemanntes Fahrzeug, auch als autonomes Fahrzeug bezeichnet, ist ein Fahrzeug, dass sich ohne einen physisch anwesenden Bediener fortbewegen kann. Ein unbemanntes Fahrzeug kann in einem Fernsteuerungsmodus, in einem autonomen Modus oder in einem teilweise autonomen Modus betrieben werden.
  • Wenn ein unbemanntes Fahrzeug in einem Fernsteuerungsmodus betrieben wird, kann ein an einem entfernten Standort befindlicher Pilot oder Fahrer das unbemannte Fahrzeug mithilfe von Befehlen steuern, die über eine drahtlose Verbindung an das unbemannte Fahrzeug gesendet werden. Wird das unbemannte Fahrzeug in dem autonomen Modus betrieben, bewegt sich das unbemannte Fahrzeug normalerweise basierend auf vorprogrammierten Navigationswegpunkten, dynamischen Automatisierungssystemen oder einer Kombination davon. Ferner können einige unbemannte Fahrzeuge sowohl in einem Fernsteuerungsmodus als auch in einem autonomen Modus betrieben werden, und in einigen Fällen sogar gleichzeitig. So kann beispielsweise ein entfernter Pilot oder Fahrer die Navigation einem autonomen System überlassen wollen, während er manuell eine andere Aufgabe durchführt, wie z. B. die Bedienung eines mechanischen Systems zum Aufnehmen von Objekten.
  • Für verschiedene Umgebungen existieren verschiedene Arten von unbemannten Fahrzeugen. So existieren beispielsweise unbemannte Fahrzeuge für den Betrieb in der Luft, am Boden, unter Wasser und im Weltraum. Beispiele beinhalten u. a. Quadcopter und Heckstarter-UAVs (Unmanned Aerial Vehicles, unbemannte Luftfahrzeuge). Unbemannte Fahrzeuge existieren auch für den Hybridbetrieb, bei dem ein Multiumgebungsbetrieb möglich ist. Beispiele für hybride unbemannte Fahrzeuge beinhalten ein Amphibienfahrzeug, das sowohl an Land als auch auf Wasser betrieben werden kann, oder ein Wasserflugzeug, das sowohl auf Wasser als auch an Land landen kann. Weitere Beispiele sind ebenfalls möglich.
  • KURZDARSTELLUNG
  • Hierin offenbart sind verschiedene Beispiele für UAVs und verschiedene Unterstützungssysteme, die zusammenwirken, um die Ermittlung des Standorts eines UAV basierend auf Bildern zu ermöglichen, die von einer Kamera des UAV erfasst werden. In einigen Beispielen werden diese Operationen aufgerufen, wenn das UAV keine Signale des Globalen Navigationssatellitensystems (GNSS) empfangen kann, was eine GNSS-basierte Standortermittlung unmöglich macht.
  • In einem ersten Aspekt umfasst ein computerimplementiertes Verfahren das Empfangen eines Bildes, das von einer Kamera an einem unbemannten Luftfahrzeug (UAV) erfasst wurde. Das Bild zeigt eine Umgebung unterhalb des UAV. Eine mit dem Bild assoziierte Merkmalsmaske wird mithilfe eines Maschinenlernmodells erzeugt, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Eine oder mehrere mit der Umgebung assoziierte Referenzkacheln werden abgerufen. Die Referenzkacheln sind mit bestimmten geografischen Standorten assoziiert und geben semantisch gekennzeichnete Pixel an, die die geografischen Standorte darstellen. Die semantisch gekennzeichneten Pixel der Merkmalsmaske werden mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln korreliert, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • In einem zweiten Aspekt umfasst ein unbemanntes Luftfahrzeug (UAV) eine Kamera und ein Steuerungssystem. Das Steuerungssystem ist so konfiguriert, dass es Operationen ausführt, die das Empfangen eines von der Kamera erfassten Bildes umfassen. Das Bild zeigt eine Umgebung unterhalb des UAV. Ein Steuerungssystem erzeugt eine mit dem Bild assoziierte Merkmalsmaske mithilfe eines Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Das Steuerungssystem ruft eine oder mehrere mit der Umgebung assoziierte Referenzkacheln ab. Die Referenzkacheln sind mit bestimmten geografischen Standorten assoziiert und geben semantisch gekennzeichnete Pixel an, die die geografischen Standorte darstellen. Das Steuerungssystem korreliert die semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • In einem dritten Aspekt umfasst ein nicht flüchtiges computerlesbares Medium Programmanweisungen, die von einem oder mehreren Prozessoren ausgeführt werden können, um Operationen durchzuführen, die das Empfangen eines Bildes, das von einer Kamera an einem unbemannten Luftfahrzeug (UAV) erfasst wurde, umfassen. Das Bild zeigt eine Umgebung unterhalb des UAV. Eine mit dem Bild assoziierte Merkmalsmaske wird mithilfe eines Maschinenlernmodells erzeugt, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Eine oder mehrere mit der Umgebung assoziierte Referenzkacheln werden abgerufen. Die Referenzkacheln sind mit bestimmten geografischen Standorten assoziiert und geben semantisch gekennzeichnete Pixel an, die die geografischen Standorte darstellen. Die semantisch gekennzeichneten Pixel der Merkmalsmaske werden mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln korreliert, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • Diese sowie andere Aspekte, Vorteile und Alternativen werden für Durchschnittsfachleute auf dem Gebiet durch das Lesen der folgenden ausführlichen Beschreibung unter Bezugnahme auf die begleitenden Zeichnungen ersichtlich. Es versteht sich ferner, dass die Beschreibung, die in diesem Kurzdarstellungs-Abschnitt und an anderer Stelle in diesem Dokument bereitgestellt wird, den beanspruchten Gegenstand beispielhaft und nicht einschränkend darstellen soll.
  • Figurenliste
    • 1A ist eine vereinfachte Darstellung eines unbemannten Luftfahrzeugs gemäß beispielhaften Ausführungsformen gemäß beispielhaften Ausführungsformen.
    • 1B ist eine vereinfachte Darstellung eines unbemannten Luftfahrzeugs gemäß beispielhaften Ausführungsformen gemäß beispielhaften Ausführungsformen.
    • 1C ist eine vereinfachte Darstellung eines unbemannten Luftfahrzeugs gemäß beispielhaften Ausführungsformen gemäß beispielhaften Ausführungsformen.
    • 1D ist eine vereinfachte Darstellung eines unbemannten Luftfahrzeugs gemäß beispielhaften Ausführungsformen gemäß beispielhaften Ausführungsformen.
    • 1E ist eine vereinfachte Darstellung eines unbemannten Luftfahrzeugs gemäß beispielhaften Ausführungsformen gemäß beispielhaften Ausführungsformen.
    • 2 ist ein vereinfachtes Blockdiagramm, das Komponenten eines unbemannten Luftfahrzeugs gemäß bespielhaften Ausführungsformen darstellt.
    • 3 ist ein vereinfachtes Blockdiagramm, das ein UAV-System gemäß beispielhaften Ausführungsformen darstellt.
    • 4 ist ein Diagramm, das Trainings- und Inferenzphasen eines Maschinenlernmodells gemäß beispielhaften Ausführungsformen darstellt.
    • 5 stellt Operationen dar, die von einem oder mehreren hierin beschriebenen Geräten gemäß beispielhaften Ausführungsformen durchgeführt werden.
    • 6 stellt Operationen dar, die von einem oder mehreren hierin beschriebenen Geräten gemäß beispielhaften Ausführungsformen durchgeführt werden.
    • 7A stellt eine Merkmalsmaske gemäß beispielhaften Ausführungsformen dar.
    • 7B stellt eine angepasste Merkmalsmaske gemäß beispielhaften Ausführungsformen dar.
    • 8A stellt empfangene Referenzkacheln gemäß beispielhaften Ausführungsformen dar.
    • 8B stellt kombinierte Referenzkacheln gemäß beispielhaften Ausführungsformen dar.
    • 9A stellt die Korrelation einer Merkmalsmaske mit den kombinierten Referenzkacheln gemäß beispielhaften Ausführungsformen dar.
    • 9B stellt die Korrelation einer Merkmalsmaske mit bestimmten Referenzkacheln gemäß beispielhaften Ausführungsformen dar.
    • 9C stellt ein Wahrscheinlichkeitsraster gemäß beispielhaften Ausführungsformen dar.
    • 10A stellt ein kumulatives Wahrscheinlichkeitsraster gemäß beispielhaften Ausführungsformen dar.
    • 10B stellt ein kumulatives Wahrscheinlichkeitsraster gemäß beispielhaften Ausführungsformen dar.
    • 11 stellt Operationen dar, die von einem oder mehreren hierin beschriebenen Geräten gemäß beispielhaften Ausführungsformen durchgeführt werden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es werden an dieser Stelle exemplarische Verfahren und Systeme beschrieben. Es versteht sich, dass das Wort „exemplarisch“ hierin im Sinne von „als Beispiel, Instanz oder Veranschaulichung dienend“ verwendet wird. Jede Implementierung oder jedes Merkmal, die/das hierin „exemplarisch“ oder „veranschaulichend“ beschrieben wird, ist nicht zwangsläufig als bevorzugt oder vorteilhaft gegenüber anderen Implementierungen oder Merkmalen zu verstehen. In den Figuren identifizieren gleiche Symbole normalerweise gleiche Komponenten, sofern der Kontext nichts anderes angibt. Die hier beschriebenen exemplarischen Implementierungen sind nicht als Einschränkung zu verstehen. Es versteht sich, dass die Aspekte der vorliegenden Offenbarung, wie sie im Allgemeinen hierin beschrieben und in den Figuren dargestellt sind, in all den verschiedensten hierin vorgesehenen Konfigurationen angeordnet, ausgetauscht, kombiniert, getrennt und konzipiert werden können.
  • I. Überblick
  • Hierin offenbart sind verschiedene Beispiele für UAVs und verschiedene Unterstützungssysteme, die zusammenwirken, um die Ermittlung des Standorts eines UAV basierend auf Bildern zu ermöglichen, die von einer Kamera des UAV erfasst werden. In einigen Beispielen werden diese Operationen aufgerufen, wenn das UAV keine Signale des Globalen Navigationssatellitensystems (GNSS) empfangen kann, was eine GNSS-basierte Standortermittlung unmöglich macht.
  • Insbesondere betreffen hierin beschriebene Beispiele eine semantische Lokalisierung in Form eines kamerabasierten Echtzeitalgorithmus, der an Bord des Luftfahrzeugs läuft und den semantischen Inhalt von Bildern verwendet, um eine Schätzung der absoluten Position bereitzustellen. Während das Luftfahrzeug seine Aufgabe durchführt, können Bilder durch ein semantisches Segmentierungsmodell geleitet werden, das versucht, jedes Pixel in einem Bild als zu einem Satz von Klassen gehörend zu kennzeichnen. Dieses gekennzeichnete Bild kann dann mit einem Satz von geolokalisierten semantisch gekennzeichneten Referenzbildern verglichen werden. Da die Pixel in den Referenzbildern geolokalisiert sind, kann eine Schätzung der Position des Luftfahrzeugs aus Klassen abgeleitet werden, die in dem von dem UAV erfassten Bild und denen in den Referenzbildern übereinstimmen.
  • In einigen hierin beschriebenen Beispielen ist das UAV konfiguriert, eine Merkmalsmaske zu erzeugen, die mit einem erfassten Bild assoziiert ist. In einigen Beispielen wird die Merkmalsmaske mithilfe eines Maschinenlernmodells erzeugt, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen (z. B. Kennzeichnung als Gebäude, Pflanzenbewuchs, Straßen, Einfahrten usw.). In einigen Beispielen wird die Merkmalsmaske zumindest teilweise basierend auf Merkmalsmaskeninformationen (z. B. Magnetanomaliekarten) erzeugt, die von anderen Quellen (z. B. einem Bodenleitstand) übermittelt werden. In einigen Beispielen werden die Merkmalsmaskeninformationen von anderen Sensoren des UAV oder Sensoren anderer UAVs abgeleitet.
  • Einige Beispiele des UAV rufen Referenzkacheln ab, die mit der Umgebung assoziiert sind. Die Referenzkacheln sind mit bestimmten geografischen Standorten assoziiert und geben semantisch gekennzeichnete Pixel an, die die geografischen Standorte darstellen. Das UAV korreliert die semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln der Referenzkacheln, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • In einigen Beispielen wird der mit der Merkmalsmaske assoziierte Kurs so ausgerichtet, dass er mit dem mit Referenzkacheln assoziierten Kurs übereinstimmt. Beispielsweise können die Merkmalsmaske und die Referenzkacheln beide nach Norden ausgerichtet sein. In einigen Beispielen wird die Größe der Merkmalsmaske so geändert, dass sie einen Maßstab aufweist, der mit dem Maßstab übereinstimmt, der mit den Referenzkacheln assoziiert ist.
  • In einigen Beispielen werden die abgerufenen Referenzkacheln kombiniert, und die Merkmale der Merkmalsmaske werden an einem Teil der kombinierten Referenzkacheln ausgerichtet, um den Standort des UAV in der Umgebung zu ermitteln. Diesbezüglich wird in einigen Beispielen ein Wahrscheinlichkeitsraster erzeugt, das mit den kombinierten Referenzkacheln assoziiert ist. Das Wahrscheinlichkeitsraster gibt relative Wahrscheinlichkeiten an, dass sich der Standort des UAV an bestimmten Standorten der kombinierten Referenzkacheln befindet.
  • Ferner wird in einigen Beispielen ein kumulatives Wahrscheinlichkeitsraster basierend auf einer Vielzahl von Wahrscheinlichkeitsrastern erzeugt, die mit einer entsprechenden Vielzahl von Bildern assoziiert sind, die aufeinanderfolgend erfasst werden, während sich das UAV durch die Umgebung bewegt. Das kumulative Wahrscheinlichkeitsraster kombiniert Informationen aus mehreren Wahrscheinlichkeitsrastern, um genauer relative Wahrscheinlichkeiten anzugeben, dass sich der Standort des UAV an bestimmten Standorten der kombinierten Referenzkacheln befindet. Wenn die relative Wahrscheinlichkeit, die mit einem bestimmten Standort der kombinierten Referenzkacheln assoziiert ist, eine Schwellenwahrscheinlichkeit überschreitet, kann der geografische Standort des UAV zumindest teilweise basierend auf dem bestimmten Standort ermittelt werden. In weiteren Beispielen kann eine Gültigkeitsprüfung an einem ermittelten Standort des UAV durch Auswertung eines oder mehrerer Wahrscheinlichkeitsdurchmesser in dem kumulativen Wahrscheinlichkeitsraster durchgeführt werden, um einen ausreichenden Vertrauensgrad in Bezug auf einen potentiellen Standort des UAV zu gewährleisten.
  • II. Beispielhafte unbemannte Fahrzeuge
  • Die Begriffe „unbemanntes Luftfahrzeug“ und „UAV“ beziehen sich dabei auf jedes autonome oder halbautonome Fahrzeug, das in der Lage ist, einige Funktionen ohne einen physisch anwesenden menschlichen Piloten auszuführen.
  • Ein UAV kann verschiedene Formen annehmen. Beispielsweise kann ein UAV u. a. als Festflügelflugzeug, als Gleitflugzeug, als Heckstarterflugzeug, als Strahlflugzeug, als Mantelpropellerflugzeug, als Traggas-Lenkkörper, wie z. B. ein Prallluftschiff oder ein lenkbarer Ballon, als Drehflügelflugzeug, wie z. B. ein Hubschrauber oder Multikopter und/oder als Ornithopter ausgebildet sein. Ferner können auch die Begriffe „Drohne“, „unbemanntes Luftfahrzeugsystem“ (Unmanned Aerial Vehicle System, UAVS) oder „unbemanntes Luftsystem“ (Unmanned Aerial System, UAS) verwendet werden, um sich auf ein UAV zu beziehen.
  • 1A ist eine isometrische Ansicht eines beispielhaften UAV 100. UAV 100 beinhaltet einen Flügel 102, Ausleger 104 und einen Rumpf 106. Die Flügel 102 können stationär sein und Auftrieb basierend auf der Flügelform und der Vorwärtsgeschwindigkeit des UAV erzeugen. Die beiden Flügel 102 können beispielsweise einen tragflächenförmigen Querschnitt haben, um eine aerodynamische Kraft zu erzeugen, die auf UAV 100 wirkt. In einigen Ausführungsformen kann der Flügel 102 horizontale Antriebseinheiten 108 tragen, und die Ausleger 104 können vertikale Antriebseinheiten 110 tragen. Im Betrieb kann Energie für die Antriebseinheiten von einem Batteriefach 112 des Rumpfs 106 bereitgestellt werden. In einigen Ausführungsformen beinhaltet der Rumpf 106 auch ein Avionikfach 114, ein zusätzliches Batteriefach (nicht dargestellt) und/oder eine Auslieferungseinheit (nicht dargestellt, z. B. ein Windensystem) zur Handhabung der Nutzlast. In einigen Ausführungsformen ist der Rumpf 106 modular, und zwei oder mehr Fächer (z. B. Batteriefach 112, Avionikfach 114, andere Nutzlast- und Auslieferungsfächer) können voneinander gelöst und aneinander befestigt werden (z. B. mechanisch, magnetisch oder anderweitig), um gemeinsam zumindest einen Teil des Rumpfs 106 zu bilden.
  • In einigen Ausführungsformen enden die Ausleger 104 in Rudern 116 zur verbesserten Giersteuerung von UAV 100. Ferner können die Flügel 102 in den Flügelspitzen 117 enden, um den Auftrieb des UAV besser zu steuern.
  • In der dargestellten Konfiguration beinhaltet UAV 100 einen strukturellen Rahmen. Der Strukturrahmen kann als „H-Strukturrahmen“ oder „H-Rahmen“ (nicht dargestellt) des UAV bezeichnet werden. Der H-Rahmen kann innerhalb der Flügel 102 einen Flügelholm (nicht dargestellt) und innerhalb der Ausleger 104 Auslegerträger (nicht dargestellt) beinhalten. In einigen Ausführungsformen können der Flügelholm und die Auslegerträger aus Kohlefaser, Hartkunststoff, Aluminium, Leichtmetalllegierungen oder anderen Materialien hergestellt sein. Der Flügelholm und die Auslegerträger können mit Klammern verbunden sein. Der Flügelholm kann vorgebohrte Löcher für horizontale Antriebseinheiten 108 beinhalten, und die Auslegerträger können vorgebohrte Löcher für vertikale Antriebseinheiten 110 beinhalten.
  • In einigen Ausführungsformen kann der Rumpf 106 entfernbar am H-Rahmen befestigt sein (z. B. durch Klammern am Flügelholm befestigt, die mit Nuten, Vorsprüngen oder anderen Merkmalen konfiguriert sind, die mit entsprechenden Merkmalen des H-Rahmens zusammenpassen usw.). In anderen Ausführungsformen kann der Rumpf 106 auf ähnliche Weise entfernbar an den Flügeln 102 befestigt sein. Die entfernbare Befestigung des Rumpfs 106 kann die Qualität und/oder Modularität des UAV 100 verbessern. Zum Beispiel können elektrische/mechanische Komponenten und/oder Untersysteme des Rumpfs 106 getrennt von dem H-Rahmen, und bevor sie an diesem befestigt werden, getestet werden. Auf ähnliche Weise können Leiterplatten (Printed Circuit Boards, PCBs) 118 getrennt von den Auslegerträgern, und bevor sie an diesen befestigt werden, getestet werden, sodass keine defekten Teile/Unterbaugruppen in dem UAV verbaut werden. So können beispielsweise Komponenten des Rumpfs 106 (z. B. Avionik, Batterieeinheit, Auslieferungseinheiten, ein zusätzliches Batteriefach usw.) elektrisch getestet werden, bevor der Rumpf 106 an dem H-Rahmen montiert wird. Ferner können die Motoren und die Elektronik der Leiterplatten 118 ebenfalls vor der Endmontage elektrisch getestet werden. Im Allgemeinen senkt die Identifizierung der defekten Teile und Unterbaugruppen frühzeitig im Montageprozess die Gesamtkosten und die Entwicklungszeit des UAV. Ferner können verschiedene Arten/Modelle des Rumpfs 106 an dem H-Rahmen angebracht werden, wodurch die Modularität des Designs verbessert wird. Diese Modularität erlaubt es, diese verschiedenen Teile des UAV 100 ohne wesentliche Überarbeitung des Herstellungsprozesses zu aktualisieren.
  • In einigen Ausführungsformen können eine Flügelschale und Auslegerschalen durch Klebeelemente (z. B. Klebeband, doppelseitiges Klebeband, Klebstoff usw.) an dem H-Rahmen befestigt werden. Daher können mehrere Schalen an dem H-Rahmen angebracht werden, anstatt einen zusammenhängenden Körper auf den H-Rahmen auszusprühen. In einigen Ausführungsformen verringert das Vorhandensein der mehreren Schalen die durch den thermischen Ausdehnungskoeffizienten des Strukturrahmens des UAV verursachte Belastung. Dadurch kann das UAV eine bessere Maßhaltigkeit und/oder eine verbesserte Zuverlässigkeit aufweisen.
  • Darüber hinaus kann in zumindest einigen Ausführungsformen derselbe H-Rahmen verwendet werden, während die Flügelschale und/oder die Auslegerschalen unterschiedliche Größen und/oder Ausführungen aufweisen, wodurch die Modularität und Vielseitigkeit der UAV-Konstruktionen verbessert wird. Die Flügelschale und/oder die Auslegerschalen können aus relativ leichten Polymeren (z. B. geschlossenzelligem Schaumstoff) hergestellt sein, die von den härteren, aber relativ dünnen Kunststoffhäuten bedeckt sind.
  • Der Strom und/oder die Steuersignale von dem Rumpf 106 können über Kabel, die durch den Rumpf 106, die Flügel 102 und die Ausleger 104 verlaufen, zu den PCBs 118 geleitet werden. In der dargestellten Ausführungsform weist das UAV 100 vier PCBs auf, jedoch sind auch andere Anzahlen an PCBs möglich. UAV 100 kann beispielsweise zwei PCBs beinhalten, eine pro Ausleger. Die PCBs tragen elektronische Komponenten 119, die beispielsweise Leistungswandler, Steuerungen, Speicher, passive Komponenten usw. beinhalten. Im Betrieb sind die Antriebseinheiten 108 und 110 des UAV 100 elektrisch mit den PCBs verbunden.
  • Viele Variationen des dargestellten UAV sind möglich. Zum Beispiel können Festflügel-UAVs mehr oder weniger Rotoreinheiten (vertikal oder horizontal) beinhalten und/oder einen Mantelpropeller oder mehrere Mantelpropeller zum Antrieb verwenden. Ferner sind auch UAVs mit mehr Flügeln (z. B. einer „X-Flügel“-Konfiguration mit vier Flügeln) möglich. Obwohl 1 zwei Flügel 102, zwei Ausleger 104, zwei horizontale Antriebseinheiten 108 und sechs vertikale Antriebseinheiten 110 pro Ausleger 104 darstellt, versteht es sich, dass andere Varianten von UAV 100 mit mehr oder weniger dieser Komponenten implementiert werden können. UAV 100 kann beispielsweise vier Flügel 102, vier Ausleger 104 und mehr oder weniger Antriebseinheiten (horizontal oder vertikal) umfassen.
  • Auf ähnliche Weise zeigt 1B ein weiteres Beispiel eines Festflügel-UAV 120. Das Festflügel-UAV 120 beinhaltet einen Rumpf 122, zwei Flügel 124 mit einem tragflächenförmigen Querschnitt, um Auftrieb für das UAV 120 bereitzustellen, einen vertikalen Stabilisator 126 (oder ein Leitwerk) zum Stabilisieren der Gierbewegung des Flugzeugs (Drehung nach links oder rechts), einen horizontalen Stabilisator 128 (auch als Höhenleitwerk oder Höhenruder bezeichnet) zum Stabilisieren der Nickbewegung (nach oben oder unten), ein Fahrwerk 130 und eine Antriebseinheit 132, die einen Motor, eine Welle und einen Propeller beinhalten kann.
  • 1C zeigt ein Beispiel eines UAV 140 mit einem Propeller in einer Druckpropelleranordnung. Unter dem Begriff „Druckpropeller“ ist zu verstehen, dass an der Rückseite des UAV eine Antriebseinheit 142 angebracht ist, die das Fahrzeug vorschiebt, anstatt dass die Antriebseinheit an der Vorderseite des UAV angebracht ist. Ähnlich der Beschreibung von 1A und 1B, bildet 1C gewöhnlich in einem Druckpropellerflugzeug verwendete Strukturen ab, einschließlich eines Rumpfs 144, zweier Flügel 146, vertikaler Stabilisatoren 148 und der Antriebseinheit 142, die einen Motor, eine Welle und einen Propeller beinhalten kann.
  • 1D zeigt ein Beispiel eines Heckstarter-UAVs 160. In dem dargestellten Beispiel weist das Heckstarter-UAV 160 feststehende Flügel 162 auf, um Auftrieb bereitzustellen und es dem UAV 160 zu ermöglichen, horizontal zu gleiten (z. B. entlang der x-Achse in einer Position, die ungefähr senkrecht zu der in 1D gezeigten). Die feststehenden Flügel 162 erlauben es dem Heckstarter-UAV 160 jedoch auch, eigenständig vertikal zu starten und zu landen.
  • Beispielsweise kann das Heckstarter-UAV 160 an einem Startplatz vertikal (wie dargestellt) positioniert werden, wobei seine Leitwerke 164 und/oder Flügel 162 auf dem Boden aufliegen und das UAV 160 in der vertikalen Position stabilisieren. Das Heckstarter-UAV 160 kann dann abheben, indem seine Propeller 166 so betrieben werden, dass sie einen Aufwärtsschub (z. B. einen Schub, der im Allgemeinen entlang der y-Achse verläuft) erzeugen. Sobald sich das Heckstarter-UAV 160 in einer geeigneten Höhe befindet, kann es seine Landeklappen 168 verwenden, um sich in eine horizontale Position umzurichten, sodass sein Rumpf 170 eher an der x-Achse als an der y-Achse ausgerichtet ist. Horizontal positioniert, können die Propeller 166 Vorwärtsschub bereitstellen, sodass das Heckstarter-UAV 160 auf ähnliche Weise wie ein typisches Flugzeug fliegen kann.
  • Viele Variationen des dargestellten Festflügel-UAVs sind möglich. Zum Beispiel können Festflügel-UAVs mehr oder weniger Propeller beinhalten und/oder einen Mantelpropeller oder mehrere Mantelpropeller zum Antrieb verwenden. Ferner sind auch UAVs mit mehr Flügeln (z. B. einer „X-Flügel“-Konfiguration mit vier Flügeln), weniger Flügeln oder sogar ohne Flügel möglich.
  • Wie zuvor festgestellt, können einige Ausführungsformen andere Arten von UAVs, zusätzlich zu oder alternativ zu Festflügel-UAVs, betreffen. 1E zeigt ein Beispiel eines Drehflügelflugzeugs, das allgemein als Multicopter 180 bezeichnet wird. Der Multicopter 180 kann auch als Quadcopter bezeichnet werden, da er vier Rotoren 182 beinhaltet. Es versteht sich, dass die beispielhaften Ausführungsformen ein Drehflügelflugzeug mit mehr oder weniger Rotoren als bei dem Multicopter 180 betreffen können. Beispielsweise weist ein Hubschrauber normalerweise zwei Rotoren auf. Auch andere Beispiele mit drei oder mehr Rotoren sind möglich. Hierin bezieht sich der Begriff „Multicopter“ auf jedes Drehflügelflugzeug mit mehr als zwei Rotoren, und der Begriff „Hubschrauber“ auf Drehflügelflugzeuge mit zwei Rotoren.
  • Unter genauerer Bezugnahme auf den Multicopter 180 stellen die vier Rotoren 182 Antrieb und Manövrierbarkeit für den Multicopter 180 bereit. Insbesondere beinhaltet jeder Rotor 182 Rotorblätter, die an einem Motor 184 befestigt sind. Derart konfiguriert können die Rotoren 182 es dem Multicopter 180 erlauben, vertikal zu starten und zu landen, in eine beliebige Richtung zu manövrieren und/oder zu schweben. Ferner kann die Neigung der Rotorblätter als Gruppe und/oder differenziell eingestellt werden und es dem Multicopter 180 erlauben, seine Neigung, Rollneigung, Gierrate und/oder Höhe zu steuern.
  • Es versteht sich, dass Bezugnahmen auf ein „unbemanntes“ Luftfahrzeug oder UAV hierin gleichermaßen auf autonome und halbautonome Luftfahrzeuge anwendbar sind. In einer autonomen Implementierung wird die gesamte Funktionalität des Luftfahrzeugs automatisiert, z. B. vorprogrammiert oder über eine Echtzeitcomputerfunktionalität gesteuert, die auf Eingaben von verschiedenen Sensoren und/oder vorbestimmte Informationen reagiert. Bei einer semiautonomen Implementierung können einige Funktionen eines Luftfahrzeugs von einem menschlichen Bediener gesteuert werden, während andere Funktionen autonom ausgeführt werden. Ferner kann ein UAV in einigen Ausführungsformen so konfiguriert sein, dass es einem entfernten Bediener ermöglicht, Funktionen zu übernehmen, die anderweitig autonom durch das UAV gesteuert werden können. Ferner kann eine bestimmte Art von Funktion auf einer Abstraktionsebene ferngesteuert und auf einer anderen Abstraktionsebene autonom durchgeführt werden. Beispielsweise könnte ein entfernter Bediener übergeordnete Navigationsentscheidungen für ein UAV steuern, beispielsweise durch Angeben, dass sich das UAV von einem Standort zu einem anderen fortbewegen soll (z. B. von einem Warenlager in einem Vorort zu einer Lieferadresse in einer nahegelegenen Stadt), während das Navigationssystem des UAV autonom detailliertere Navigationsentscheidungen steuert, wie z. B. die spezifische Route, die zwischen den beiden Standorten genutzt wird, spezifische Flugsteuerungen, um die Route umzusetzen und zur Vermeidung von Hindernissen währen der Navigation der Route, und so weiter.
  • Allgemeiner gefasst versteht es sich, dass die hierin beschriebenen beispielhaften UAVs nicht einschränkend aufgefasst werden sollen. Beispielhafte Ausführungsformen können sich auf jede Art von unbemanntem Luftfahrzeug beziehen, innerhalb desselben implementiert sein oder in Form von diesen ausgeführt sein.
  • III. Exemplarische UAV-Komponenten
  • 2 ist ein vereinfachtes Blockdiagramm, das Komponenten eines UAV 200 gemäß einer beispielhaften Ausführungsform darstellt. UAV 200 kann in der Form von einem der UAVs 100, 120, 140, 160 und 180, die unter Bezugnahme auf die 1A-1E beschrieben wurden, ausgeführt sein. UAV 200 kann jedoch auch andere Formen annehmen.
  • UAV 200 kann verschiedene Arten von Sensoren beinhalten und kann ein Computersystem beinhalten, das so konfiguriert ist, dass es die hierin beschriebene Funktionalität bereitstellt. In der dargestellten Ausführungsform beinhalten die Sensoren von UAV 200 eine Inertialmesseinheit (Inertial Measurement Unit, IMU) 202, Ultraschallsensor(en) 204 und ein GPS 206, neben anderen möglichen Sensoren und Sensorsystemen.
  • In der dargestellten Ausführungsform beinhaltet UAV 200 auch einen oder mehrere Prozessoren 208. Ein Prozessor 208 kann ein Universalprozessor oder ein Spezialprozessor (z. B. ein digitaler Signalprozessor, ein anwendungsspezifischer integrierter Schaltkreis usw.) sein. Der eine oder die mehreren Prozessoren 208 können so konfiguriert sein, dass sie computerlesbare Programmanweisungen 212, die in dem Datenspeicher 210 gespeichert und ausführbar sind, um die hierin beschriebene Funktionalität des UAV bereitzustellen, ausführen.
  • Der Datenspeicher 210 kann ein oder mehrere computerlesbare Speichermedien enthalten, die von zumindest einem Prozessor 208 gelesen werden können oder auf die er zugreifen kann, oder in einer entsprechenden Form ausgeführt sein. Das eine oder die mehreren computerlesbaren Speichermedien können flüchtige und/oder nichtflüchtige Speicherkomponenten, wie z. B. optische, magnetische, organische oder sonstige Speicher oder Plattenspeicher, beinhalten, die ganz oder teilweise in zumindest einen des einen oder der mehreren Prozessoren 208 integriert sein können. In einigen Ausführungsformen kann der Datenspeicher 210 unter Verwendung eines einzelnen physischen Geräts (z. B. einem optischen, magnetischen, organischen oder sonstigen Speicher oder einer Plattenspeichereinheit) implementiert sein, während in anderen Ausführungsformen der Datenspeicher 210 unter Verwendung von zwei oder mehr physischen Geräten implementiert sein kann.
  • Wie festgestellt, kann der Datenspeicher 210 computerlesbare Programmanweisungen 212 und möglicherweise zusätzliche Daten, wie z. B. Diagnosedaten des UAV 200, beinhalten. Daher kann der Datenspeicher 210 Programmanweisungen 212 beinhalten, um einen Teil oder die Gesamtheit der hierin beschriebenen UAV-Funktionalitäten auszuführen oder zu ermöglichen. In der dargestellten Ausführungsform beinhalten die Programmanweisungen 212 zum Beispiel ein Navigationsmodul 214 und ein Halteseilsteuerungsmodul 216.
  • A. Sensoren
  • In einer exemplarischen Ausführungsform kann IMU 202 sowohl einen Beschleunigungsmesser als auch ein Gyroskop beinhalten, die zusammen verwendet werden können, um eine Ausrichtung des UAV 200 zu ermitteln. Insbesondere kann der Beschleunigungsmesser die Ausrichtung des Fahrzeugs im Verhältnis zu der Erde messen, während das Gyroskop die Drehgeschwindigkeit um eine Achse misst. IMUs sind im Handel in kostengünstigen Paketen mit niedrigem Stromverbrauch erhältlich. Beispielsweise kann eine IMU 202 in der Form eines miniaturisierten MicroElectroMechanical System (MEMS) oder eines NanoElectroMechanical System (NEMS) ausgeführt sein oder dieses beinhalten. Es können auch andere Arten von IMUs eingesetzt werden.
  • Eine IMU 202 kann zusätzlich zu Beschleunigungsmessern und Gyroskopen weitere Sensoren beinhalten, die dazu beitragen können, die Position besser zu ermitteln und/oder die Autonomie des UAV 200 zu erhöhen. Zwei Beispiele für diese Sensoren sind Magnetometer und Drucksensoren. In einigen Ausführungsformen kann ein UAV ein digitales 3-Achsen-Magnetometer mit niedrigem Stromverbrauch beinhalten, das verwendet werden kann, um einen orientierungsunabhängigen elektronischen Kompass für genaue Kursinformationen umzusetzen. Es können jedoch auch andere Arten von Magnetometern verwendet werden. Weitere Beispiele sind ebenfalls möglich. Ferner ist zu beachten, dass ein UAV einige oder alle der zuvor beschriebenen Trägheitssensoren als von einer IMU separate Komponenten enthalten könnte.
  • UAV 200 kann auch einen Drucksensor oder ein Barometer beinhalten, mit dem die Höhe des UAV 200 bestimmt werden kann. Alternativ können andere Sensoren, wie z. B. Schallhöhenmesser oder Radarhöhenmesser, verwendet werden, um eine Höhenangabe bereitzustellen, was dazu beitragen kann, die Genauigkeit einer IMU zu verbessern und/oder ein Driften einer IMU zu verhindern.
  • In einem weiteren Aspekt kann UAV 200 einen oder mehrere Sensoren beinhalten, die es dem UAV ermöglichen, Objekte in der Umgebung zu erfassen. In der dargestellten Ausführungsform beinhaltet UAV 200 beispielsweise Ultraschallsensor(en) 204. Ultraschallsensor(en) 204 kann/können die Entfernung zu einem Objekt durch Erzeugen von Schallwellen und Ermitteln des Zeitintervalls zwischen der Übertragung der Welle und dem Empfangen des entsprechenden Echos von einem Objekt ermitteln. Typische Anwendungen eines Ultraschallsensors für unbemannte Fahrzeuge oder IMUs sind die bodennahe Höhensteuerung und die Hindernisvermeidung. Ein Ultraschallsensor kann auch für Fahrzeuge verwendet werden, die in einer bestimmten Höhe schweben müssen oder in der Lage sein müssen, Hindernisse zu erkennen. Andere Systeme können verwendet werden, um das Vorhandensein von Objekten in der Nähe zu ermitteln oder zu erfassen sowie entsprechende Abstände zu ermitteln, wie z. B. Lichterkennungs- und Abstandsmesssysteme (Light Detection and Ranging, LIDAR), Lasererkennungs- und Abstandsmesssysteme (Laser Detection and Ranging, LADAR) und/oder ein Infrarot- oder vorwärtsgerichtetes Infrarotsystem (Forward-Looking Infrared, FLIR), neben anderen Möglichkeiten.
  • In einigen Ausführungsformen kann UAV 200 auch ein oder mehrere Bildgebungssystem(e) beinhalten. Zum Beispiel können eine oder mehrere Standbild- und/oder Videokameras von UAV 200 verwendet werden, um Bilddaten von der Umgebung des UAV zu erfassen. Als konkretes Beispiel können bei unbemannten Fahrzeugen Kameras mit ladungsgekoppelten Geräten (Charge-Coupled Device, CCD) oder komplementäre Metalloxid-Halbleiter-(Complementary Metal-Oxide-Semiconductor, CMOS)-Kameras eingesetzt werden. Diese(r) bildgebende(n) Sensor(en) hat/haben zahlreiche Anwendungsmöglichkeiten, wie z. B. die Hindernisvermeidung, Lokalisierungstechniken, Bodenverfolgung für eine genauere Navigation (z. B. durch Anwenden optischer Flusstechniken auf Bilder), Videorückmeldung und/oder Bilderkennung und -verarbeitung, neben anderen Möglichkeiten.
  • UAV 200 kann auch einen GPS-Empfänger 206 beinhalten. Der GPS-Empfänger 206 kann so konfiguriert sein, dass er Daten bereitstellt, die für bekannte GPS-Systeme typisch sind, wie z. B. die GPS-Koordinaten des UAV 200. Diese GPS-Daten können von dem UAV 200 für verschiedene Funktionen genutzt werden. Daher kann das UAV seinen GPS-Empfänger 206 als Hilfsmittel für eine Navigation zu dem Standort des Anrufers verwenden, der zumindest teilweise durch die GPS-Koordinaten angegeben wird, die von seinem mobilen Gerät bereitgestellt werden. Weitere Beispiele sind ebenfalls möglich.
  • B. Navigation und Standortbestimmung
  • Das Navigationsmodul 214 kann eine Funktionalität bereitstellen, die es dem UAV 200 ermöglicht, sich z. B. in seiner Umgebung zu bewegen und einen gewünschten Standort zu erreichen. Zu diesem Zweck kann das Navigationsmodul 214 die Flughöhe und/oder die Flugrichtung durch die Steuerung der mechanischen Merkmale des UAV steuern, die den Flug beeinflussen (z. B. sein(e) Ruder, Höhenleitwerk(e), Querruder und/oder die Geschwindigkeit seine(s/r) Propeller(s)).
  • Um das UAV 200 zu einem Zielort zu navigieren, kann das Navigationsmodul 214 verschiedene Navigationstechniken implementieren, wie z. B. eine kartenbasierte Navigation und eine lokalisierungsbasierte Navigation. Bei einer kartenbasierten Navigation kann das UAV 200 mit einer Karte seiner Umgebung versehen sein, die dann verwendet werden kann, um zu einem bestimmten Standort auf der Karte zu navigieren. Bei der lokalisierungsbasierten Navigation kann das UAV 200 in der Lage sein, unter Nutzung von Lokalisierung in einer unbekannten Umgebung zu navigieren. Die lokalisierungsbasierte Navigation kann betreffen, dass das UAV 200 eine eigene Karte seiner Umgebung erstellt und seine Position auf der Karte und/oder die Position von Objekten in der Umgebung berechnet. Wenn sich beispielsweise ein UAV 200 in seiner Umgebung bewegt, kann das UAV 200 eine kontinuierliche Lokalisierung verwenden, um seine Umgebungskarte zu aktualisieren. Dieses kontinuierliche Kartierungsverfahren kann als simultane Lokalisierung und Kartierung (Simultaneous Localization and Mapping, SLAM) bezeichnet werden. Es können auch andere Navigationstechniken genutzt werden.
  • In einigen Ausführungsformen kann das Navigationsmodul 214 unter Nutzung einer Technik navigieren, die auf Wegpunkten beruht. Insbesondere sind Wegpunkte Sätze von Koordinaten, die Punkte im physischen Raum identifizieren. Beispielsweise kann ein Flug-Navigationswegpunkt durch eine bestimmte Breite, Länge und Höhe definiert werden. Dementsprechend kann das Navigationsmodul 214 das UAV 200 dazu veranlassen, sich von Wegpunkt zu Wegpunkt zu bewegen, um sich letztendlich zu einem endgültigen Ziel (z. B. einem endgültigen Wegpunkt in einer Sequenz von Wegpunkten) fortzubewegen.
  • In einem weiteren Aspekt können das Navigationsmodul 214 und/oder andere Komponenten und Systeme des UAV 200 für eine „Lokalisierung“ konfiguriert sein, um genauer zum Umfeld eines Zielorts zu navigieren. Insbesondere kann es in bestimmten Situationen wünschenswert sein, dass sich ein UAV innerhalb einer Schwellenentfernung von dem Zielort befindet, an dem eine Nutzlast 228 von einem UAV ausgeliefert wird (z. B. innerhalb weniger Fuß von dem Zielort). Zu diesem Zweck kann ein UAV einen zweistufigen Ansatz verwenden, bei dem es eine allgemeinere Standortbestimmungstechnik verwendet, um zu einem allgemeinen Gebiet zu navigieren, das mit dem Zielort assoziiert ist, und dann eine verfeinerte Standortbestimmungstechnik verwendet, um den Zielort innerhalb des allgemeinen Gebiets zu identifizieren und/oder dorthin zu navigieren.
  • Das UAV 200 kann zum Beispiel unter Nutzung von Wegpunkten und/oder einer kartenbasierten Navigation zu dem allgemeinen Gebiet eines Zielorts navigieren, wo eine Nutzlast 228 ausgeliefert wird. Das UAV kann dann in einen Modus übergehen, in dem es einen Lokalisierungsprozess verwendet, um einen bestimmten Standort zu lokalisieren und sich dorthin fortzubewegen. Wenn das UAV 200 beispielsweise eine Nutzlast zu dem Haus eines Benutzers liefern soll, muss sich das UAV 200 im Wesentlichen in der Nähe des Zielorts befinden, um die Auslieferung der Nutzlast in unerwünschten Gebieten (z. B. auf ein Dach, in einen Pool, auf ein Nachbargrundstück usw.) zu vermeiden. Ein GPS-Signal erfüllt diesen Zweck für das UAV 200 jedoch nur teilweise (z. B. innerhalb eines Blocks von dem Haus des Benutzers). Eine genauere Standortsbestimmungstechnik kann dann dazu verwendet werden, den spezifischen Zielort zu finden.
  • Verschiedene Arten von Standortbestimmungstechniken können verwendet werden, um eine Lokalisierung des Zielauslieferungsorts zu erzielen, sobald das UAV 200 zu dem allgemeinen Gebiet des Zielauslieferungsorts navigiert hat. Das UAV 200 kann zum Beispiel mit einem oder mehreren Sensorsystemen ausgestattet sein, wie z. B. Ultraschallsensoren 204, Infrarotsensoren (nicht dargestellt) und/oder anderen Sensoren, die Eingaben bereitstellen können, die das Navigationsmodul 214 verwendet, um autonom oder halbautonom zu dem spezifischen Zielort zu navigieren.
  • Als weiteres Beispiel kann das UAV 200, sobald das UAV 200 das allgemeine Gebiet des Zielauslieferungsorts (oder eines sich bewegenden Subjekts, wie z. B. einer Person oder ihres mobilen Geräts) erreicht, in einen elektronischen Flugsteuerungsmodus umschalten, in dem es zumindest teilweise von einem entfernten Bediener gesteuert wird, der das UAV 200 zu dem spezifischen Zielort navigieren kann. Zu diesem Zweck können Sensordaten von dem UAV 200 an den entfernten Bediener gesendet werden, um ihn bei dem Navigieren des UAV 200 zu dem spezifischen Standort zu unterstützen.
  • Als noch ein weiteres Beispiel kann das UAV 200 ein Modul beinhalten, das in der Lage ist, einem Passanten Signale zu übermitteln, um beim Erreichen des spezifischen Zielauslieferungsorts Unterstützung zu erhalten. Beispielsweise kann das UAV 200 eine visuelle Nachricht anzeigen, die eine derartige Unterstützung auf einer grafischen Anzeige anfordert, oder eine Audionachricht oder einen Ton über Lautsprecher abspielen, um die Notwendigkeit einer derartigen Unterstützung anzuzeigen, neben anderen Möglichkeiten. Eine derartige visuelle oder akustische Nachricht könnte angeben, dass Unterstützung bei der Auslieferung des UAV 200 an eine bestimmte Person oder an einen bestimmten Standort erforderlich ist, und Informationen bereitstellen, um den Passanten bei der Auslieferung des UAV 200 an die Person oder den Standort zu unterstützen (z. B. eine Beschreibung oder ein Bild der Person oder des Standortes und/oder den Namen der Person oder des Standortes), neben anderen Möglichkeiten. Dieses Merkmal kann in einem Szenario nützlich sein, in dem das UAV keine Sensorfunktionen oder eine andere Standortsbestimmungstechnik verwenden kann, um den spezifischen Zielort zu erreichen. Dieses Merkmal ist jedoch nicht auf diese Szenarien beschränkt.
  • In einigen Ausführungsformen kann das UAV 200, sobald es das allgemeine Gebiet eines Zielauslieferungsorts erreicht, eine Bake von dem entfernten Gerät eines Benutzers (z. B. dem Mobiltelefon des Benutzers) verwenden, um die Person zu lokalisieren. Diese Bake kann verschiedene Formen annehmen. Als Beispiel kann ein Szenario dienen, bei dem ein entferntes Gerät, wie z. B. das Mobiltelefon einer Person, die eine UAV-Lieferung angefordert hat, in der Lage ist, Richtungssignale (z. B. über ein HF-Signal, ein Lichtsignal und/oder ein Audiosignal) auszusenden. In diesem Szenario kann das UAV 200 so konfiguriert sein, dass es durch ein „Beschaffen“ dieser Richtungssignale navigiert, mit anderen Worten, durch ein Ermitteln, wo das Signal am stärksten ist, und entsprechendes Navigieren. Als weiteres Beispiel kann ein mobiles Gerät eine Frequenz entweder im menschlich wahrnehmbaren Bereich oder außerhalb des menschlich wahrnehmbaren Bereichs aussenden, und das UAV 200 kann diese Frequenz abhören und entsprechend navigieren. Als ein verwandtes Beispiel, könnte das UAV 200, wenn das UAV 200 gesprochene Befehle abhört, gesprochene Aussagen verwenden, wie z. B. „Ich bin hier drüben!“, um den spezifischen Standort der Person zu beziehen, die die Lieferung einer Nutzlast anfordert.
  • In einer alternativen Anordnung kann ein Navigationsmodul auf einem entfernten Computergerät implementiert sein, das drahtlos mit dem UAV 200 kommuniziert. Das entfernte Computergerät kann Daten, die den Betriebszustand des UAV 200 angeben, Sensordaten von dem UAV 200, die es ihm ermöglichen, die Umgebungsbedingungen zu beurteilen, denen UAV 200 ausgesetzt ist, und/oder Standortinformationen für das UAV 200 empfangen. Mit derartigen Informationen versehen, kann das entfernte Computergerät Breiten- und/oder Richtungsanpassungen ermitteln, die von dem UAV 200 vorgenommen werden sollten, und/oder ermitteln, wie das UAV 200 seine mechanischen Merkmale (z. B. sein(e) Ruder, Höhenleitwerk(e), Querruder und/oder die Geschwindigkeit seine(s/r) Propeller(s)) anpassen sollte, um diese Bewegungen zu bewirken. Das entfernte Computersystem kann dann diese Anpassungen daraufhin an das UAV 200 kommunizieren, sodass es sich auf die ermittelte Weise bewegen kann.
  • C. Kommunikationssysteme
  • In einem weiteren Aspekt beinhaltet das UAV 200 ein oder mehrere Kommunikationssysteme 218. Die Kommunikationssysteme 218 können eine oder mehrere drahtlose Schnittstellen und/oder eine oder mehrere drahtgebundene Schnittstellen beinhalten, die es dem UAV 200 ermöglichen, über ein oder mehrere Netzwerke zu kommunizieren. Diese drahtlosen Schnittstellen können Kommunikation im Rahmen eines oder mehrerer drahtloser Kommunikationsprotokolle bereitstellen, wie z. B. Bluetooth, WLAN (z. B. eines IEEE 802.11-Protokolls), Long-Term Evolution (LTE), WiMAX (z. B. eines IEEE 802.16-Standards), eines Radio-Frequency ID (RFID)-Protokolls, Nahfeldkommunikation (NFC) und/oder anderer drahtloser Kommunikationsprotokolle. Diese drahtgebundenen Schnittstellen können eine Ethernet-Schnittstelle, eine Universal Serial Bus (USB)-Schnittstelle oder eine ähnliche Schnittstelle beinhalten, um über einen Draht, verdrillte Drähte, ein Koaxialkabel, einen Lichtwellenleiter, eine LWL-Übertragungsleitung oder eine sonstige physische Verbindung mit einem drahtgebundenen Netzwerk zu kommunizieren.
  • In einigen Ausführungsformen kann ein UAV 200 Kommunikationssysteme 218 beinhalten, die sowohl eine Kurzstreckenkommunikation als auch eine Langstreckenkommunikation ermöglichen. Das UAV 200 kann zum Beispiel für Kurzstreckenkommunikationen unter Nutzung von Bluetooth und für Langstreckenkommunikationen im Rahmen eines CDMA-Protokolls konfiguriert sein. In einer derartigen Ausführungsform kann das UAV 200 konfiguriert sein, als ein „Hot-Spot“ zu funktionieren; oder mit anderen Worten als ein Gateway oder Proxy zwischen einem entfernten Unterstützungsgerät und einem oder mehreren Datennetzwerken, wie z. B. einem Mobilfunknetzwerk und/oder dem Internet. Derart konfiguriert kann das UAV 200 Datenkommunikationen ermöglichen, die das entfernte Unterstützungsgerät anderenfalls nicht selbständig durchführen kann.
  • Das UAV 200 kann zum Beispiel eine WLAN-Verbindung zu einem entfernten Gerät bereitstellen und als Proxy oder Gateway zu einem Datennetz eines Mobilfunkanbieters dienen, mit dem sich das UAV zum Beispiel im Rahmen eines LTE- oder 3G-Protokolls verbinden könnte. Das UAV 200 könnte unter anderem auch als Proxy oder Gateway für ein Hochhöhenballonnetzwerk, ein Satellitennetzwerk oder eine Kombination dieser Netzwerke dienen, auf die ein entferntes Gerät möglicherweise nicht anderweitig zugreifen kann.
  • D. Stromversorgungssysteme
  • In einem weiteren Aspekt kann das UAV 200 Stromversorgungssystem(e) 220 beinhalten. Das Stromversorgungssystem 220 kann eine oder mehrere Batterien zum Bereitstellen von Strom für das UAV 200 beinhalten. In einem Beispiel können die eine oder die mehreren Batterien wiederaufladbar sein, und jede Batterie kann über eine drahtgebundene Verbindung zwischen der Batterie und einer Stromversorgung und/oder über ein drahtloses Ladesystem, wie z. B. ein induktives Ladesystem, das ein externes zeitveränderliches Magnetfeld an eine interne Batterie anlegt, aufgeladen werden.
  • E. Nutzlastauslieferung
  • Das UAV 200 kann verschiedene Systeme und Konfigurationen verwenden, um eine Nutzlast 228 zu transportieren und auszuliefern. In einigen Implementierungen kann die Nutzlast 228 eines gegebenen UAV 200 ein „Pakets“ beinhalten oder in Form eines Pakets ausgeführt sein, das zum Transportieren verschiedener Waren zu einem Zielauslieferungsort ausgelegt ist. Das UAV 200 kann beispielsweise ein Fach beinhalten, in dem ein oder mehrere Artikel transportiert werden können. Ein derartiges Paket kann ein oder mehrere Lebensmittel, gekaufte Waren, Medizinprodukte oder einen anderen Gegenstand (andere Gegenstände) mit einer Größe und einem Gewicht beinhalten, die geeignet sind, um durch das UAV zwischen zwei Standorten transportiert zu werden. In anderen Ausführungsformen kann eine Nutzlast 228 einfach der eine oder die mehreren Artikel sein, die ausgeliefert werden (z. B. ohne ein Paket, das die Gegenstände enthält).
  • In einigen Ausführungsformen kann die Nutzlast 228 an dem UAV angebracht sein und sich während eines Teils des Flugs oder des gesamten Flugs des UAV im Wesentlichen außerhalb des UAV befinden. Das Paket kann beispielsweise während des Flugs zu einem Zielort unter dem UAV angebunden oder anderweitig lösbar befestigt werden. In einigen Ausführungsformen kann das Paket verschiedene Merkmale beinhalten, die seinen Inhalt vor der Umgebung schützen, den aerodynamischen Widerstand des Systems reduzieren und verhindern, dass sich der Inhalt des Pakets während des UAV-Flugs verschiebt. In anderen Ausführungsformen kann das Paket ein Standard-Postpaket sein, das nicht speziell für den UAV-Flug ausgelegt ist.
  • Um die Nutzlast auszuliefern, kann das UAV ein Windensystem 221 beinhalten, das durch das Halteseilsteuerungsmodul 216 gesteuert wird, um die Nutzlast 228 auf den Boden abzusenken, während das UAV darüber schwebt. Wie in 2 dargestellt, kann das Windensystem 221 ein Halteseil 224 beinhalten, und das Halteseil 224 kann durch ein Nutzlastrückholsystem 226 mit der Nutzlast 228 gekoppelt sein. Das Halteseil 224 kann auf eine Spule gewickelt sein, die mit einem Motor 222 des UAV gekoppelt ist. Der Motor 222 kann die Form eines Gleichstrommotors (z. B. eines Servomotors) annehmen, der aktiv durch einen Geschwindigkeitsregler gesteuert werden kann. Das Halteseilsteuerungsmodul 216 kann den Geschwindigkeitsregler steuern, um den Motor 222 zu veranlassen, die Spule zu drehen, wodurch das Halteseil 224 abgewickelt oder zurückgezogen wird und das Nutzlastrückholgerät 226 abgesenkt oder angehoben wird. In der Praxis kann der Geschwindigkeitsregler eine gewünschte Betriebsgeschwindigkeit (z. B. eine gewünschte Drehzahl) für die Spule ausgeben, die der Geschwindigkeit entsprechen kann, mit der das Halteseil 224 und die Nutzlast 228 zum Boden hin abgesenkt werden sollen. Der Motor 222 kann dann die Spule so drehen, dass sie die gewünschte Betriebsgeschwindigkeit beibehält.
  • Um den Motor 222 mithilfe des Geschwindigkeitsreglers zu steuern, kann das Halteseilsteuerungsmodul 216 Daten von einem Geschwindigkeitssensor (z. B. einem Encoder) empfangen, der so konfiguriert ist, dass er eine mechanische Position in ein entsprechendes analoges oder digitales Signal umwandelt. Insbesondere kann der Geschwindigkeitssensor einen Rotationsencoder beinhalten, der unter anderem Informationen, die die Drehposition (und/oder die Drehbewegung) einer Welle des Motors oder der Spule, die mit dem Motor gekoppelt sind, betreffen, bereitstellen kann. Ferner kann der Geschwindigkeitssensor unter anderem in Form eines Absolutencoders und/oder eines Inkrementalencoders ausgeführt sein. So kann in einer exemplarischen Implementierung ein Rotationsencoder verwendet werden, während der Motor 222 eine Drehung der Spule veranlasst, um diese Drehung zu messen. Dabei kann der Rotationsencoder verwendet werden, um eine Drehposition in ein analoges oder digitales elektronisches Signal, das von dem Halteseilsteuerungsmodul 216 verwendet wird, um den Betrag der Drehung der Spule gegenüber einem festen Referenzwinkel zu ermitteln, und/oder in ein analoges oder digitales elektronisches Signal, das eine neue Drehposition repräsentiert, umgewandelt wird, neben anderen Möglichkeiten. Weitere Beispiele sind ebenfalls möglich.
  • Basierend auf den Daten von dem Geschwindigkeitssensor kann das Halteseilsteuerungsmodul 216 eine Drehgeschwindigkeit des Motors 222 und/oder der Spule ermitteln und den Motor 222 reaktiv steuern (z. B. durch Erhöhen oder Verringern eines elektrischen Stroms, der dem Motor 222 zugeführt wird), um zu veranlassen, dass die Drehgeschwindigkeit des Motors 222 mit einer gewünschten Drehgeschwindigkeit übereinstimmt. Bei der Anpassung des Motorstroms kann das Ausmaß der Stromanpassung auf einer Proportional-Integral-Differential(PID)-Berechnung unter Nutzung der ermittelten und gewünschten Drehgeschwindigkeiten des Motors 222 basieren. Das Ausmaß der Stromanpassung kann beispielsweise auf einer aktuellen Differenz, einer vergangenen Differenz (basierend auf dem akkumulierten Fehler im Verlauf der Zeit) und einer zukünftigen Differenz (basierend auf den aktuellen Änderungsraten) zwischen den ermittelten und den gewünschten Drehgeschwindigkeiten der Spule basieren.
  • In einigen Ausführungsformen kann das Halteseilsteuerungsmodul 216 die Geschwindigkeit variieren, mit der das Halteseil 224 und die Nutzlast 228 zum Boden abgesenkt werden. Beispielsweise kann der Geschwindigkeitsregler die gewünschte Betriebsgeschwindigkeit gemäß einem variablen Abwicklungsgeschwindigkeitsprofil und/oder in Reaktion auf andere Faktoren ändern, um die Geschwindigkeit zu ändern, mit der die Nutzlast 228 zum Boden hin absinkt. Dazu kann das Halteseilsteuerungsmodul 216 eine Bremskraft oder ein Reibungsmaß anpassen, die/das auf das Halteseil 224 angewandt wird. Um beispielsweise die Halteseilabwicklungsgeschwindigkeit zu variieren, kann das UAV 200 Reibungskissen beinhalten, die einen variablen Druck auf das Halteseil 224 ausüben können. Als weiteres Beispiel kann das UAV 200 ein motorisiertes Bremssystem beinhalten, das die Geschwindigkeit variiert, mit der die Spule das Halteseil 224 abgibt. Ein derartiges Bremssystem kann in Form eines elektromechanischen Systems ausgeführt sein, bei dem der Motor 222 dazu betrieben wird, die Geschwindigkeit, mit der die Spule das Halteseil 224 abgibt, zu verringern. Ferner kann der Motor 222 den Betrag variieren, um den er die Geschwindigkeit (z. B. die Drehzahl) der Spule anpasst, und kann somit die Abwicklungsgeschwindigkeit des Halteseils 224 variieren. Weitere Beispiele sind ebenfalls möglich.
  • In einigen Ausführungsformen kann das Halteseilsteuerungsmodul 216 so konfiguriert sein, dass es den dem Motor 222 zugeführten Motorstrom auf einen Maximalwert begrenzt. Bei einer derartigen Begrenzung des Motorstroms kann es Situationen geben, in denen der Motor 222 nicht auf die Weise operieren kann, die durch den Geschwindigkeitsregler angegeben wird. So kann es beispielsweise, wie unten ausführlicher beschrieben, Situationen geben, in denen der Geschwindigkeitsregler eine gewünschte Betriebsgeschwindigkeit angibt, mit der der Motor 222 das Halteseil 224 in Richtung des UAV 200 zurückziehen sollte, der Motorstrom jedoch so begrenzt ist, dass eine ausreichend große, nach unten gerichtete Kraft auf das Halteseil 224 der Rückzugskraft des Motors 222 entgegenwirken würde und das Halteseil 224 stattdessen dazu veranlasst würde, sich abzuwickeln. Und wie nachstehend weiter erläutert, kann eine Begrenzung des Motorstroms in Abhängigkeit von einem Betriebszustand des UAV 200 vorgenommen und/oder verändert werden.
  • In einigen Ausführungsformen kann das Halteseilsteuerungsmodul 216 konfiguriert sein, einen Status des Halteseils 224 und/oder der Nutzlast 228 basierend auf der Strommenge zu ermitteln, die dem Motor 222 zugeführt wird. Wenn beispielsweise eine nach unten gerichtete Kraft auf das Halteseil 224 ausgeübt wird (z. B. wenn die Nutzlast 228 an dem Halteseil 224 befestigt ist oder wenn das Halteseil 224 beim Zurückziehen in Richtung des UAV 200 an einem Objekt hängenbleibt), kann es erforderlich sin, dass das Halteseilsteuerungsmodul 216 den Motorstrom erhöht, um zu veranlassen, dass die ermittelte Drehgeschwindigkeit des Motors 222 und/oder der Spule mit der gewünschten Geschwindigkeit übereinstimmt. Auf ähnliche Weise kann es erforderlich sein, dass das Halteseilsteuerungsmodul 216, wenn die nach unten gerichtete Kraft von dem Halteseil 224 entfernt wird (z. B. nach der Auslieferung der Nutzlast 228 oder dem Lösen eines hängengebliebenen Halteseils), den Motorstrom verringern muss, um zu veranlassen, dass die ermittelte Drehgeschwindigkeit des Motors 222 und/oder der Spule mit der gewünschten Geschwindigkeit übereinstimmt. Daher kann das Halteseilsteuerungsmodul 216 so konfiguriert sein, dass es den dem Motor 222 zugeführten Motorstrom überwacht. Das Halteseilsteuerungsmodul 216 könnte beispielsweise den Motorstrom basierend auf Sensordaten ermitteln, die von einem Stromsensor des Motors oder einem Stromsensor des Stromversorgungssystems 220 empfangen werden. In jedem Fall wird basierend auf dem Strom, der dem Motor 222 zugeführt wird, ermittelt, ob die Nutzlast 228 an dem Halteseil 224 befestigt ist, ob eine Person oder etwas an dem Halteseil 224 zieht, und/oder ob das Nutzlastrückholgerät 226 nach dem Zurückziehen des Halteseils 224 gegen das UAV 200 drückt. Andere Beispiele sind ebenfalls möglich.
  • Während der Auslieferung der Nutzlast 228 kann das Nutzlastrückholsystem 226 so konfiguriert sein, dass es die Nutzlast 228 sichert, während sie durch das Halteseil 224 von dem UAV abgesenkt wird, und ferner so konfiguriert sein, dass es die Nutzlast 228 bei Erreichen des Bodenniveaus freigibt. Das Nutzlastrückholsystem 226 kann dann durch das Aufwickeln des Halteseils 224 unter Verwendung des Motors 222 in das UAV zurückgezogen werden.
  • In einigen Implementierungen kann die Nutzlast 228 passiv freigegeben werden, sobald sie auf den Boden abgesenkt wurde. Ein passiver Freigabemechanismus kann beispielsweise einen oder mehrere Schwenkarme beinhalten, die so ausgelegt sind, dass sie sich in ein Gehäuse zurückziehen und aus diesem ausgefahren werden. Ein ausgefahrener Schwenkarm kann einen Haken bilden, an dem die Nutzlast 228 befestigt werden kann. Beim Absenken des Freigabemechanismus und der Nutzlast 228 auf den Boden mithilfe eines Halteseils können die Schwerkraft sowie eine nach unten gerichtete Trägheitskraft, die auf den Freigabemechanismus wirken, veranlassen, dass sich die Nutzlast 228 von dem Haken löst, sodass der Freigabemechanismus nach oben in Richtung des UAV angehoben werden kann. Der Auslösemechanismus kann ferner einen Federmechanismus beinhalten, der den Schwenkarm so vorspannt, dass er sich wieder in das Gehäuse zurückzieht, wenn keine anderen äußeren Kräfte auf den Schwenkarm wirken. Beispielsweise kann eine Feder eine Kraft auf den Schwenkarm ausüben, die den Schwenkarm in Richtung des Gehäuses drückt oder zieht, sodass sich der Schwenkarm in das Gehäuse zurückzieht, sobald das Gewicht der Nutzlast 228 nicht mehr erzwingt, dass der Schwenkarm aus dem Gehäuse ausgefahren wird. Das Zurückziehen des Schwenkarms in das Gehäuse kann die Wahrscheinlichkeit verringern, dass der Freigabemechanismus an der Nutzlast 228 oder anderen Objekten in der Nähe hängenbleibt, wenn der Freigabemechanismus nach Auslieferung der Nutzlast 228 in Richtung des UAV angehoben wird.
  • Auch aktive Nutzlastfreigabemechanismen sind möglich. Beispielsweise können Sensoren, wie z. B. ein luftdruckbasierter Höhenmesser und/oder Beschleunigungsmesser dazu beitragen, die Position des Freigabemechanismus (und der Nutzlast) relativ zum Boden zu erfassen. Daten von den Sensoren können über eine drahtlose Verbindung an das UAV und/oder ein Steuerungssystem zurück übermittelt werden und dazu verwendet werden, das Ermitteln, wann der Freigabemechanismus das Bodenniveau erreicht hat, zu unterstützen (z. B. durch Erkennen einer für den Bodenaufprall charakteristischen Messung mit dem Beschleunigungsmesser). In anderen Beispielen kann das UAV basierend darauf, dass ein Gewichtssensor einen unteren Schwellenwert für eine nach unten gerichtete Kraft, die auf das Halteseil wirkt, erkennt, und/oder basierend auf der Messung eines unteren Schwellenwerts für die bei dem Absenken der Nutzlast durch die Winde aufgewandten Kraft ermitteln, dass die Nutzlast den Boden erreicht hat.
  • Andere Systeme und Techniken zur Auslieferung einer Nutzlast sind zusätzlich oder alternativ zu einem Halteseilauslieferungssystem möglich. Ein UAV 200 könnte beispielsweise ein Airbag-Abwurfsystem oder ein Fallschirm-Abwurfsystem umfassen. Alternativ könnte ein UAV 200, das eine Nutzlast trägt, einfach an einem Lieferort auf dem Boden landen. Weitere Beispiele sind ebenfalls möglich.
  • IV. Exemplarische UAV-Einsatzsysteme
  • UAV-Systeme können implementiert werden, um verschiedene UAV-bezogene Dienste bereitzustellen. Insbesondere können UAVs an einer Anzahl an unterschiedlichen Startplätzen bereitgestellt werden, die mit regionalen und/oder zentralen Steuerungssystemen in Verbindung stehen können. Ein derartiges verteiltes UAV-System kann es ermöglichen, dass UAVs schnell eingesetzt werden, um Dienste über ein großes geografisches Gebiet hinweg bereitzustellen (das z. B. viel größer ist als die Flugreichweite eines einzelnen UAV). So können UAVs, die Nutzlasten tragen können, beispielsweise an einer Anzahl an Startplätzen über ein großes geografisches Gebiet hinweg (möglicherweise sogar über ein ganzes Land hinweg oder sogar weltweit) verteilt werden, um einen Transport auf Anfrage von verschiedenen Artikeln zu Standorten über das geografische Gebiet hinweg bereitzustellen. 3 ist ein vereinfachtes Blockdiagramm, das ein verteiltes UAV-System 300 gemäß einer beispielhaften Ausführungsform darstellt.
  • In dem exemplarischen UAV-System 300 kann ein Zugangssystem 302 eine Interaktion mit einem Netzwerk von UAVs 304, dessen Steuerung und/oder dessen Nutzung ermöglichen. In einigen Ausführungsformen kann ein Zugangssystem 302 ein Computersystem sein, das eine durch Menschen gesteuerte Entsendung von UAVs 304 ermöglicht. Daher kann das Steuerungssystem eine Benutzeroberfläche beinhalten oder anderweitig bereitstellen, über die ein Benutzer auf die UAVs 304 zugreifen und/oder diese steuern kann.
  • In einigen Ausführungsformen kann die Entsendung der UAVs 304 zusätzlich oder alternativ mithilfe eines oder mehrerer automatisierter Prozesse erfolgen. Das Zugangssystem 302 kann beispielsweise eines der UAVs 304 entsenden, um eine Nutzlast zu einem Zielort zu transportieren, und das UAV kann autonom zu dem Zielort navigieren, indem es verschiedene Bordsensoren, wie beispielsweise einen GPS-Empfänger und/oder andere verschiedene Navigationssensoren, verwendet.
  • Ferner kann das Zugangssystem 302 einen Fernbetrieb eines UAV bereitstellen. Das Zugangssystem 302 kann es beispielsweise einem Bediener ermöglichen, den Flug eines UAV über seine Benutzeroberfläche zu steuern. Als spezifisches Beispiel kann ein Bediener das Zugangssystem 302 verwenden, um ein UAV 304 an einen Zielort zu entsenden. Das UAV 304 kann dann autonom zu dem allgemeinen Gebiet des Zielorts navigieren. An diesem Punkt kann der Bediener das Zugangssystem 302 verwenden, um die Steuerung des UAV 304 zu übernehmen und das UAV zu dem Zielort zu navigieren (z. B. zu einer bestimmten Person, zu der eine Nutzlast transportiert wird). Andere Beispiele für den Fernbetrieb eines UAV sind ebenfalls möglich.
  • In einer exemplarischen Ausführungsform können die UAVs 304 in verschiedenen Formen ausgeführt sein. Zum Beispiel kann jedes der UAVs 304 ein UAV sein, wie z. B. die in 1A-1E beschriebenen. Das UAV-System 300 kann jedoch auch andere Arten von UAVs verwenden, ohne von dem Umfang der Erfindung abzuweichen. In einigen Implementierungen können alle UAVs 304 die gleiche oder eine ähnliche Konfiguration aufweisen. In anderen Implementierungen können die UAVs 304 jedoch eine Anzahl an verschiedenen Arten von UAVs beinhalten. Die UAVs 304 können zum Beispiel eine Anzahl an Arten von UAVs beinhalten, wobei jede Art von UAV für eine andere Art oder andere Arten von Nutzlastauslieferungsfähigkeiten konfiguriert ist.
  • Das UAV-System 300 kann ferner ein entferntes Gerät 306 beinhalten, das in verschiedenen Formen ausgeführt sein kann. Im Allgemeinen kann das entfernte Gerät 306 ein Gerät sein, über das eine direkte oder indirekte Anforderung zum Entsenden eines UAV erfolgen kann. (Zu beachten ist, dass eine indirekte Anfrage eine Kommunikation betreffen kann, die durch das Entsenden eines UAV beantwortet werden kann, wie z. B. das Anfordern einer Paketlieferung). In einer beispielhaften Ausführungsform kann das entfernte Gerät 306 ein Mobiltelefon, ein Tablet-Computer, ein Laptop-Computer, ein PersonalComputer oder ein netzwerkverbundenes Computergerät sein. Ferner ist das entfernte Gerät 306 in einigen Fällen möglicherweise kein Computergerät. Als Beispiel kann ein Standardtelefon, das die Kommunikation über eine Festnetzverbindung (Plain Old Telephone Service, POTS) ermöglicht, als das entfernte Gerät 306 dienen. Es sind auch andere Arten von entfernten Geräten möglich.
  • Ferner kann das entfernte Gerät 306 so konfiguriert sein, dass es über eine oder mehrere Arten von Kommunikationsnetzwerk(en) 308 mit dem Zugangssystem 302 kommuniziert. Das entfernte Gerät 306 kann zum Beispiel durch Kommunikation über ein POTS-Netzwerk, ein Mobilfunknetzwerk und/oder ein Datennetzwerk, wie z. B. das Internet, mit dem Zugangssystem 302 (oder einem menschlichen Bediener des Zugangssystems 302) kommunizieren. Es können auch andere Arten von Netzwerken verwendet werden.
  • In einigen Ausführungsformen kann das entfernte Gerät 306 so konfiguriert sein, dass sie es einem Benutzer ermöglicht, die Lieferung von einem oder mehreren Artikeln an einen gewünschten Standort anzufordern. Beispielsweise könnte ein Benutzer die UAV-Lieferung eines Pakets zu seinem Haus über sein Mobiltelefon, Tablet oder seinen Laptop anfordern. Als weiteres Beispiel könnte ein Benutzer eine dynamische Lieferung an den Standort anfordern, wo er sich zum Zeitpunkt der Lieferung befindet. Um eine derartige dynamische Lieferung bereitzustellen, kann das UAV-System 300 Standortinformationen (z. B. GPS-Koordinaten usw.) von dem Mobiltelefon des Benutzers oder einem anderen Gerät am Körper des Benutzers empfangen, sodass ein UAV zu dem Standort des Benutzers navigieren kann (wie durch sein Mobiltelefon angegeben).
  • In einer exemplarischen Anordnung kann das zentrale Einsatzsystem 310 ein Server oder eine Gruppe von Servern sein, die konfiguriert ist, um Entsendenachrichtenanforderungen und/oder Entsendeanweisungen von dem Zugangssystem 302 zu empfangen. Diese Entsendenachrichten können das zentrale Entsendesystem 310 auffordern oder anweisen, den Einsatz von UAVs zu verschiedenen Zielstandorten zu koordinieren. Das zentrale Entsendesystem 310 kann ferner so konfiguriert sein, dass es diese Anforderungen oder Anweisungen an ein oder mehrere lokale Entsendesysteme 312 weiterleitet. Um eine derartige Funktionalität bereitzustellen, kann das zentrale Entsendesystem 310 über ein Datennetzwerk, wie z. B. das Internet oder ein privates Netzwerk, das für Kommunikationen zwischen Zugangssystemen und automatisierten Entsendesystemen eingerichtet ist, mit dem Zugangssystem 302 kommunizieren.
  • In der dargestellten Konfiguration kann das zentrale Entsendesystem 310 so konfiguriert sein, dass es die Entsendung von UAVs 304 von einer Anzahl an verschiedenen lokalen Entsendesystemen 312 koordiniert. Daher kann das zentrale Entsendesystem 310 verfolgen, welche UAVs 304 sich an welchen lokalen Entsendesystemen 312 befinden, welche UAVs 304 zur Zeit für den Einsatz verfügbar sind, und/oder für welche Dienste oder Operationen jedes der UAVs 304 konfiguriert ist (für den Fall, dass eine UAV-Flotte mehrere Arten von UAVs umfasst, die für verschiedene Dienste und/oder Operationen konfiguriert sind). Zusätzlich oder alternativ kann jedes lokale Entsendesystem 312 konfiguriert sein, zu verfolgen, welche der assoziierten UAVs 304 zur Zeit für den Einsatz verfügbar sind und/oder zur Zeit dabei sind, einen Artikel zu transportieren.
  • In einigen Fällen kann das zentrale Entsendesystem 310, wenn das zentrale Entsendesystem 310 eine Anforderung für UAV-bezogenen Dienst (z. B. den Transport eines Artikels) von dem Zugangssystem 302 empfängt, ein spezifisches UAV 304 zum Entsenden auswählen. Das zentrale Entsendesystem 310 kann dementsprechend das lokale Entsendesystem 312, das mit dem ausgewählten UAV assoziiert ist, anweisen, das ausgewählte UAV abzusenden. Das lokale Entsendesystem 312 kann dann das assoziierte Einsatzsystem 314 so betreiben, dass es das ausgewählte UAV startet. In anderen Fällen kann das zentrale : Entsendesystem 310 eine Anforderung für einen UAV-bezogenen Dienst an ein lokales Entsendesystem 312 weiterleiten, das sich in der Nähe des Standorts befindet, an dem die Unterstützung angefordert wird, und die Auswahl eines bestimmten UAV 304 dem lokalen Entsendesystem 312 überlassen.
  • In einer beispielhaften Konfiguration kann das lokale Entsendesystem 312 als ein Computersystem an demselben Standort wie das/die Einsatzsystem(e) 314, das/die es steuert/steuern, implementiert werden. Das lokale Entsendesystem 312 kann zum Beispiel durch ein Computersystem implementiert werden, das in einem Gebäude installiert ist, wie z. B. einem Lager, in dem sich auch das/die Einsatzsystem(e) 314 und UAV(s) 304 befinden, die mit dem bestimmten lokalen Entsendesystem 312 assoziiert sind. In anderen Ausführungsformen kann das lokale Entsendesystem 312 an einem Standort implementiert werden, der entfernt von dem/den assoziierten Einsatzsystem(en) 314 und UAV(s) 304 ist.
  • Es sind zahlreiche Variationen und Alternativen zu der dargestellten Konfiguration des UAV-Systems 300 möglich. In einigen Ausführungsformen könnte beispielsweise ein Benutzer des entfernten Geräts 306 die Lieferung eines Pakets direkt von dem zentralen Entsendesystem 310 anfordern. Dazu kann eine Anwendung auf dem entfernten Gerät 306 implementiert werden, die es dem Benutzer ermöglicht, Informationen bezüglich einer angeforderten Lieferung bereitzustellen, und eine Datennachricht zu erzeugen und zu senden, um anzufordern, dass das UAV-System 300 die Lieferung bereitstellt. In einer derartigen Ausführungsform kann das zentrale Entsendesystem 310 eine automatisierte Funktionalität beinhalten, um Anforderungen zu bearbeiten, die durch eine derartige Anwendung erzeugt werden, diese Anforderungen auszuwerten und sich gegebenenfalls mit einem geeigneten lokalen Entsendesystem 312 zu koordinieren, um ein UAV einzusetzen.
  • Ferner können ein Teil oder die Gesamtheit der Funktionalität, die hierin dem zentralen Entsendesystem 310, dem/den lokalen Entsendesystem(en) 312, dem Zugangssystem 302 und/oder dem/den Einsatzsystem(en) 314 zugeordnet werden, in einem einzigen System kombiniert, in einem komplexeren System implementiert und/oder auf andere Weise zwischen dem zentralen Entsendesystem 310, dem/den lokalen Entsendesystem(en) 312, dem Zugangssystem 302 und/oder dem/den Einsatzsystem(en) 314 aufgeteilt werden.
  • Ferner kann, obwohl jedes lokale Entsendesystem 312 so dargestellt wird, dass es zwei assoziierte Einsatzsysteme 314 aufweist, ein bestimmtes lokales Entsendesystem 312 alternativ mehr oder weniger assoziierte Einsatzsysteme 314 aufweisen. Auf ähnlicher Weise kann, obwohl das zentrale Entsendesystem 310 so dargestellt wird, dass es mit zwei lokalen Entsendesystemen 312 in Kommunikation steht, das zentrale Entsendesystem 310 alternativ in Kommunikation mit mehr oder weniger lokalen Entsendesystemen 312 stehen.
  • In einem weiteren Aspekt können die Einsatzsysteme 314 in verschiedenen Formen ausgeführt sein. Im Allgemeinen können die Einsatzsysteme 314 in Form von Systemen zum physischen Starten eines oder mehrerer der UAVs 304 ausgeführt sein oder diese beinhalten. Diese Startsysteme können Merkmale, die einen automatisierten UAV-Start bereitstellen, und/oder Merkmale, die einen von Menschen unterstützten UAV-Start ermöglichen, beinhalten. Ferner können die Einsatzsysteme 314 jeweils so konfiguriert sein, dass sie ein bestimmtes UAV 304 oder mehrere UAVs 304 starten.
  • Die Einsatzsysteme 314 können ferner so konfiguriert sein, dass sie zusätzliche Funktionen bereitstellen, einschließlich beispielsweise diagnostischer Funktionen, wie z. B. des Verifizierens der Systemfunktionalität des UAV, des Verifizierens der Funktionalität von Geräten, die innerhalb eines UAV untergebracht sind (z. B. einer Nutzlastauslieferungsvorrichtung), und/oder der Wartung von Geräten oder anderen Elementen, die in dem UAV untergebracht sind (z. B. durch Überwachen eines Status einer Nutzlast, wie z. B. ihrer Temperatur, ihres Gewichts usw.).
  • In einigen Ausführungsformen können die Einsatzsysteme 314 und ihre entsprechenden UAVs 304 (und möglicherweise assoziierte lokale Entsendesysteme 312) strategisch über ein Gebiet, wie z. B. eine Stadt, verteilt sein. Die Einsatzsysteme 314 können zum Beispiel derart strategisch verteilt sein, dass sich jedes Einsatzsystem 314 in der Nähe eines oder mehrerer Nutzlastaufnahmestandorte (z. B. in der Nähe eines Restaurant, eines Geschäfts oder eines Lagers) befindet. Die Einsatzsysteme 314 (und möglicherweise die lokalen Entsendesysteme 312) können jedoch auf andere Weise verteilt sein, je nach der speziellen Implementierung. Als weiteres Beispiel können Kioske, die es Benutzern ermöglichen, Pakete mithilfe von UAVs zu transportieren, an verschiedenen Standorten installiert werden. Diese Kioske können neben anderen Möglichkeiten UAV-Startsysteme umfassen und es einem Benutzer ermöglichen, sein Paket zum Verladen auf ein UAV bereitzustellen und UAV-Versanddienste zu bezahlen. Weitere Beispiele sind ebenfalls möglich.
  • In einem weiteren Aspekt kann das UAV-System 300 eine Benutzerkontodatenbank 316 beinhalten oder auf diese Zugriff haben. Die Benutzerkontodatenbank 316 kann Daten für eine Anzahl an Benutzerkonten beinhalten, die jeweils mit einer oder mehreren Personen assoziiert sind. Für ein bestimmtes Benutzerkonto kann die Benutzerkontodatenbank 316 Daten beinhalten, die UAV-bezogene Dienste betreffen oder für diese von Nutzen sind. Normalerweise werden die mit dem jeweiligen Benutzerkonto assoziierten Benutzerdaten optional von einem assoziierten Benutzer bereitgestellt und/oder mit der Erlaubnis des assoziierten Benutzers erfasst.
  • Ferner kann es in einigen Ausführungsformen erforderlich sein, dass eine Person sich für ein Benutzerkonto bei dem UAV-System 300 registriert, wenn sie von dem UAV-System 300 UAV-bezogene Dienste durch die UAVs 304 erhalten möchte. Daher kann die Benutzerkontodatenbank 316 Berechtigungsinformationen für ein bestimmtes Benutzerkonto (z. B. einen Benutzernamen und ein Passwort) und/oder andere Informationen beinhalten, die verwendet werden können, um den Zugriff auf ein Benutzerkonto zu autorisieren.
  • In einigen Ausführungsformen kann eine Person eines oder mehrere ihrer Geräte mit ihrem Benutzerkonto assoziieren, sodass sie auf die Dienste des UAV-Systems 300 zugreifen kann. Wenn beispielsweise eine Person ein assoziiertes Mobiltelefon verwendet, z. B. um einen Anruf an einen Betreiber des Zugangssystems 302 durchzuführen oder eine Nachricht zu senden, die einen UAV-bezogenen Dienst von einem Entsendesystem anfordert, kann das Telefon mithilfe einer eindeutigen Geräteidentifikationsnummer identifiziert werden, und der Anruf oder die Nachricht kann dann dem assoziierten Benutzerkonto zugeordnet werden. Weitere Beispiele sind ebenfalls möglich.
  • V. Maschinenlernmodelle zur Erzeugung von Inferenzen/Vorhersagen
  • Ein UAV kann konfiguriert sein, ein oder mehrere Maschinenlernmodelle zu verwenden, um Wahrnehmung, Lokalisierung, Navigation und/oder andere UAV-Operationen zu ermöglichen. 4 zeigt ein Diagramm 400, das eine Trainingsphase 402 und eine Inferenzphase 404 des/der trainierten Maschinenlernmodell(s/e) 432 gemäß beispielhaften Ausführungsformen darstellt. Einige Maschinenlerntechniken betreffen das Trainieren eines oder mehrerer Maschinenlernalgorithmen anhand eines Eingabesatzes von Trainingsdaten, um Muster in den Trainingsdaten zu erkennen und Ausgabeinferenzen und/oder -vorhersagen über (Muster in den) Trainingsdaten bereitzustellen. Der resultierende trainierte Maschinenlernalgorithmus kann als trainiertes Maschinenlernmodell bezeichnet werden. 4 zeigt beispielsweise die Trainingsphase 402, in der ein oder mehrere Maschinenlernalgorithmen 420 anhand der Trainingsdaten 410 trainiert werden, um zum trainierten Maschinenlernmodell 432 zu werden. Dann kann das trainierte Maschinenlernmodell 432 während der Inferenzphase 404 Eingabedaten 430 und eine oder mehrere Inferenz-/Vorhersageanforderungen 440 empfangen (möglicherweise als Teil der Eingabedaten 430) und als Reaktion eine oder mehrere Inferenzen und/oder Vorhersagen 450 als Ausgabe bereitstellen.
  • Daher kann/können (ein) trainierte(s) Maschinenlernmodell(e) 432 ein oder mehrere Modelle eines oder mehrerer Maschinenlernalgorithmen 420 beinhalten. Der/die Maschinenlernalgorithmus/algorithmen 420 kann/können Folgendes beinhalten, sind aber nicht darauf beschränkt: ein künstliches neuronales Netzwerk (z. B. ein hierin beschriebenes faltendes neuronales Netzwerk, ein rekurrentes neuronales Netzwerk, ein Bayes'sches Netzwerk, ein Hidden-Markov-Modell, einen Markov-Entscheidungsprozess, eine logistische Regressionsfunktion, eine Support Vector Machine, einen geeigneten statistischen Maschinenlernalgorithmus und/oder ein heuristisches Maschinenlernsystem). Der/die Maschinenlernalgorithmus/algorithmen 420 kann/können überwacht oder nicht überwacht sein und kann/können eine geeignete Kombination von Online- und Offline-Lernen implementieren.
  • In einigen Beispielen kann/können der/die Maschinenlernalgorithmus/algorithmen 420 und/oder das/die trainierte(n) Maschinenlernmodell(e) 432 unter Nutzung von geräteinternen Coprozessoren, wie z. B. grafischen Verarbeitungseinheiten (Graphic Processing Units, GPUs), Tensorverarbeitungseinheiten (Tensor Processing Units, TPUs), digitalen Signalprozessoren (Digital Signal Processors, DSPs) und/oder anwendungsspezifischen integrierten Schaltungen (Application Specific Integrated Circuits, ASICs) beschleunigt werden. Diese geräteinternen Coprozessoren können verwendet werden, um den/die Maschinenlernalgorithmus/algorithmen 420 und/oder das/die trainierte(n) Maschinenlernmodell(e) 432 zu beschleunigen. In einigen Beispielen kann/können das/die trainierte(n) Maschinenlernmodell(e) 432 trainiert werden, eingebaut sein und ausgeführt werden, um Inferenzen hinsichtlich eines bestimmten UAV oder eines anderen Computergeräts bereitzustellen, und/oder auf andere Weise Inferenzen für das bestimmte UAV oder ein anderes Computergerät anstellen.
  • Während der Trainingsphase 402 kann/können der/die Maschinenlernalgorithmus/algorithmen 420 trainiert werden, indem unter Nutzung von nicht überwachten, überwachten, halbüberwachten und/oder bestärkenden Lerntechniken zumindest die Trainingsdaten 410 als Trainingseingabe bereitgestellt werden. Unüberwachtes Lernen betrifft das Bereitstellen eines Teils (oder der Gesamtheit) der Trainingsdaten 410 an den/die Maschinenlernalgorithmus/algorithmen 420 und das Ermitteln einer oder mehrerer Ausgabeinferenzen basierend auf dem bereitgestellten Teil (oder der Gesamtheit) der Trainingsdaten 410 durch den/die Maschinenlernalgorithmus/algorithmen 420. Überwachtes Lernen betrifft das Bereitstellen eines Teils der Trainingsdaten 410 an den/die Maschinenlernalgorithmus/algorithmen 420, wobei der/die Maschinenlernalgorithmus/algorithmen 420 eine oder mehrere Ausgabeinferenzen basierend auf dem bereitgestellten Teil der Trainingsdaten 410 ermittelt/ermitteln und die Ausgabeinferenzen entweder akzeptiert oder basierend auf korrekten Ergebnissen, die mit den Trainingsdaten 410 assoziiert sind, korrigiert werden. In einigen Beispielen kann das überwachte Lernen des/der Maschinenlernalgorithmus/algorithmen 420 einem Satz von Regeln und/oder einem Satz von Kennzeichnungen für die Trainingseingabe unterliegen, und der Satz von Regeln und/oder der Satz von Kennzeichnungen kann verwendet werden, um Inferenzen des/der Maschinenlernalgorithmus/algorithmen 420 zu korrigieren. Das überwachte Lernen des/der Maschinenlernalgorithmus/algorithmen 420 kann Trainingsdaten 410, die von menschlichen Bedienern bereitgestellt werden, und/oder einen vertrauenswürdigen Datensatz beinhalten, der in einigen Beispielen von einem Dritten bereitgestellt werden kann.
  • Halbüberwachtes Lernen betrifft, dass für einen Teil der Trainingsdaten 410, aber nicht für deren Gesamtheit, korrekte Ergebnisse vorliegen. Während des halbüberwachten Lernens wird überwachtes Lernen für einen Teil der Trainingsdaten 410 verwendet, der korrekte Ergebnisse aufweist, und unüberwachtes Lernen wird für einen Teil der Trainingsdaten 410 verwendet, der keine korrekten Ergebnisse aufweist. Bestärkendes Lernen betrifft, dass der/die Maschinenlernalgorithmus/algorithmen 420 ein Belohnungssignal in Bezug auf eine vorhergehende Inferenz erhält, wobei das Belohnungssignal ein numerischer Wert sein kann. Während des bestärkenden Lernens kann/können der/die Maschinenlernalgorithmus/algorithmen 420 eine Inferenz ausgeben und als Reaktion ein Belohnungssignal empfangen, wobei der/die Maschinenlernalgorithmus/algorithmen 420 konfiguriert ist/sind, zu versuchen, den numerischen Wert des Belohnungssignals zu maximieren. In einigen Beispielen verwendet das bestärkende Lernen auch eine Wertfunktion, die einen numerischen Wert bereitstellt, der eine erwartete Summe der numerischen Werte darstellt, die durch das Belohnungssignal im Verlauf der Zeit bereitgestellt werden. In einigen Beispielen kann/können der/die Maschinenlernalgorithmus/algorithmen 420 und/oder das/die trainierte(n) Maschinenlernmodell(e) 432 unter Nutzung anderer Maschinenlerntechniken trainiert werden, einschließlich u. a. inkrementellen Lernens und geplanten Lernens.
  • In einigen Beispielen können der/die Maschinenlernalgorithmus/algorithmen 420 und/oder das/die trainierte(n) Maschinenlernmodell(e) 432 Transferlerntechniken verwenden. Transferlerntechniken können beispielsweise betreffen, dass das/die trainierte(n) Maschinenlernmodell(e) 432 mithilfe eines Datensatzes vortrainiert ist/sind und zusätzlich unter Nutzung der Trainingsdaten 410 trainiert wird/werden. Insbesondere kann/können der/die Maschinenlernalgorithmus/algorithmen 420 mithilfe von Daten von einem oder mehreren Computergeräten vortrainiert werden, und ein resultierendes trainiertes Maschinenlernmodell einem UAV bereitgestellt werden, wobei das UAV das trainierte Maschinenlernmodell während der Inferenzphase 404 ausführen soll. Dann kann das vortrainierte Maschinenlernmodell während der Trainingsphase 402 zusätzlich unter Nutzung von Trainingsdaten 410 trainiert werden, wobei die Trainingsdaten 410 von dem UAV abgeleitet werden können. Dieses weitere Trainieren des/der Maschinenlernalgorithmus/algorithmen 420 und/oder des vortrainierten Maschinenlernmodells unter Nutzung von Trainingsdaten 410 aus den eigenen Daten des UAV kann entweder unter Nutzung von überwachtem oder unüberwachtem Lernen durchgeführt werden. Sobald der/die Maschinenlernalgorithmus/algorithmen 420 und/oder das vortrainierte Maschinenlernmodell zumindest an den Trainingsdaten 410 trainiert wurden, kann die Trainingsphase 402 abgeschlossen werden. Das resultierende trainierte Maschinenlernmodell kann als zumindest eines der trainierten Maschinenlernmodelle 432 verwendet werden.
  • Insbesondere kann/können das/die trainierte(n) Maschinenlernmodell(e) 432, wenn die Trainingsphase 402 abgeschlossen ist, einem UAV bereitgestellt werden, falls es/sie sich noch nicht auf dem UAV befinde(t/n). Die Inferenzphase 404 kann beginnen, nachdem das/die trainierte(n) Maschinenlernmodell(e) 432 dem UAV bereitgestellt wurde(n).
  • Während der Inferenzphase 404 kann/können das/die trainierte(n) Maschinenlernmodell(e) 432 Eingabedaten 430 empfangen und eine oder mehrere entsprechende Inferenzen und/oder Vorhersagen 450 über die Eingabedaten 430 erzeugen und ausgeben. Daher können die Eingabedaten 430 als eine Eingabe für (ein) trainierte(s) Maschinenlernmodell(e) 432 verwendet werden, um (eine) entsprechende Inferenz(en) und/oder Vorhersage(n) 450 für ein UAV bereitzustellen. Das/die trainierte(n) Maschinenlernmodell(e) 432 kann/können beispielsweise in Reaktion auf eine oder mehrere Inferenz-/Vorhersageanforderungen 440 (eine) Inferenz(en) und/oder (eine) Vorhersage(n) 450 erzeugen. Die Eingabedaten 430 können Daten von einem ersten UAV, das das/die trainierte(n) Maschinenlernmodell(e) 432 ausführt, und/oder Eingabedaten von einem oder mehreren anderen UAVs beinhalten.
  • In einigen Beispielen können die Eingabedaten 430 eine Sammlung von Bildern beinhalten, die von einer oder mehreren Quellen bereitgestellt werden. Die Sammlung von Bildern kann Standbilder, Videoeinzelbilder, Bilder, die sich auf einem UAV befinden, und/oder andere Bilder beinhalten. In einigen Beispielen können die Eingabedaten 430 ein oder mehrere zweidimensionale (2D-) Bilder beinhalten, die von einer bodenseitigen Kamera an einem UAV erfasst werden und eine Umgebung des UAV darstellen. Die Bilder der Umgebung können, neben anderen Möglichkeiten, ein Gelände unterhalb des UAV beinhalten, wenn das UAV von einem Startort zu einem Zielort navigiert. Die Bilder der Umgebung können auch eine Auslieferungszone beinhalten, für die das UAV die Aufgabe erhalten hat, eine Nutzlast auszuliefern. Es sind auch andere Arten von Eingabedaten möglich.
  • Die Inferenz(en) und/oder die Vorhersage(n) 450 können Ausgabebilder, Ausgabezwischenbilder, numerische Werte und/oder andere Ausgabedaten beinhalten, die von (einem) trainierten Maschinenlernmodell(en) 432 erzeugt werden, das/die mit Eingabedaten 430 (und Trainingsdaten 410) arbeite(t/n). In einigen Beispielen kann/können das/die trainierte(n) Maschinenlernmodell(e) 432 die Ausgabeinferenz(en) und/oder die Vorhersage(n) 450 als Eingaberückkopplung 460 verwenden. Das/die trainierte(n) Maschinenlernmodell(e) 432 kann/können auch auf vorhergehende Inferenzen als Eingaben zur Erzeugung neuer Inferenzen zurückgreifen.
  • In einigen Beispielen kann ein Ausgabebild, das in der/den Inferenz(en) und/oder der/den Vorhersage(n) 450 enthalten ist, ein semantisches Segmentierungsbild sein, das hierin auch als ein semantisches Bild oder ein Segmentierungsbild bezeichnet wird. Das semantische Segmentierungsbild kann semantische Kennzeichnungen umfassen, die hierin auch als semantische Klassifikationen bezeichnet werden können. Die semantischen Kennzeichnungen können aus einem vorbestimmten Satz von Kennzeichnungen ausgewählt sein. In einigen Beispielen kann der Satz von Kennzeichnungen Kennzeichnungen beinhalten, die Gebäude, Straßen, Vegetation, Fahrzeuge, Einfahrten, Rasenflächen und Gehwege darstellen. In weiteren Beispielen können andere Kennzeichnungen ebenfalls oder stattdessen in einem Satz von semantischen Kennzeichnungen enthalten sein.
  • In weiteren Beispielen kann ein Ausgabebild, das in der/den Inferenz(en) und/oder der/den Vorhersage(n) 450 enthalten ist, ein Tiefenbild sein. Jedes Pixel des Tiefenbilds kann die Tiefe oder den Abstand des Pixels zu einem Bildgebungsgerät darstellen, die das Bild erfasst hat. In Beispielen, in denen die Kamera eine 2D-Kamera ist, kann das durch ein Maschinenlernmodell erzeugte Tiefenbild als ein monokulares Tiefenbild bezeichnet werden.
  • Ausgabebilder, die in der/den Inferenz(en) und/oder der/den Vorhersage(n) 450 enthalten sind, können von einem UAV verwendet werden, um die Lokalisierung, Navigation, Nutzlastauslieferung und/oder andere Einsatzvorgänge des UAV zu ermöglichen. In weiteren Beispielen können die Inferenz(en) und/oder die Vorhersage(n) 450 andere Arten von Ausgabedaten beinhalten, die ebenfalls oder stattdessen verwendet werden können, um die gleichen oder andere UAV-Einsatzvorgänge zu ermöglichen.
  • VI. Beispielhafte Systeme und Verfahren zum Ermitteln des Standorts des UAV
  • 5 stellt Beispiele für Operationen 500 dar, die von einigen Beispielen der zuvor beschriebenen Geräte durchgeführt werden (z. B. dem UAV, den Einsatzsystemen 314, den lokalen Entsendesystemen 312, dem zentralen Entsendesystem 310 usw.), während das UAV sich fortbewegt (z. B. sich fortbewegt, um eine Nutzlast auszuliefern). In einigen Beispielen werden eine oder mehrere dieser Operationen mithilfe eines Befehlscodes implementiert, der in einem entsprechenden Datenspeicher dieser Geräte gespeichert ist. Die Ausführung des Anweisungscodes durch entsprechende Prozessoren der Geräte veranlasst, dass diese Geräte diese Operationen 500 allein oder in Kombination mit anderen Geräten durchführen.
  • Die Operationen bei Block 505 betreffen ein Ermitteln, ob ein GNSS-basierter Standort beispielsweise von einem Global Positioning System (GPS) des UAV empfangen wurde. In dieser Hinsicht empfangen einige Beispiele des UAV regelmäßige GNSS-basierte Standortaktualisierungen, die auf GNSS-Signalen basieren, die von dem UAV empfangen werden.
  • Wenn ein GNSS-basierter Standort empfangen wurde, werden die Operationen bei Block 510 ausgeführt. Diese Operationen betreffen ein Ermitteln des Standorts des UAV basierend auf dem GNSSbasierten Standort.
  • Wenn kein GNSS-basierter Standort empfangen wurde, werden die Operationen bei Block 515 ausgeführt. Diese Operationen betreffen ein Vorhersagen des Standortes des UAV basierend auf Bildern, die von dem UAV erfasst wurden. Diese Operationen werden nachfolgend näher beschrieben.
  • Die Operationen bei Block 520 betreffen ein Ermitteln, ob der vorhergesagte Standort gültig ist (z. B. ob die Vorhersage ein hohes Maß an Zuverlässigkeit bietet). Wenn der vorhergesagte Standort gültig ist, werden die Operationen bei Block 525 durchgeführt. Diese Operationen betreffen ein Ermitteln des Standorts des UAV basierend auf dem vorhergesagten Standort. Diese Operationen werden nachfolgend näher beschrieben.
  • Wenn der vorhergesagte Standort ungültig ist, werden die Operationen bei Block 530 durchgeführt. Diese Operationen betreffen ein Durchführen von Kontingenzoperationen. Einige Beispiele des UAV werden beispielsweise angewiesen, zu schweben oder sich für einen Zeitraum (z. B. 10 Minuten) in verschiedene Richtungen zu bewegen, bis GNSS-Signale empfangen werden oder bis eine bildbasierte Standortvorhersage erhalten werden kann. Einige Beispiele des UAV werden angewiesen, eine Landung zu versuchen.
  • In einigen Beispielen werden eine oder mehrere der zuvor beschriebenen Operationen durchgeführt, wenn GNSS-Signale verfügbar sind. In einigen Beispielen wird beispielsweise, wenn GNSS-Signale verfügbar sind, der basierend auf den von dem UAV erfassten Bildern vorhergesagte Standort verwendet, um den mithilfe der GNSS-Signale ermittelten Standort zu verfeinern und/oder gegenzuprüfen.
  • In einigen Beispielen wird der mithilfe der Bilder vorhergesagte Standort und/oder der mithilfe der GNSS-Signale ermittelte Standort an einen Kalman-Filter eines Steuerungssystems kommuniziert, das die Navigation des UAV steuert.
  • 6 stellt Beispiele für Operationen 600 dar, die das Vorhersagen eines Standortes basierend auf erfassten Bildern ermöglichen. Diese Operationen werden von einigen Beispielen der zuvor beschriebenen Geräte durchgeführt (z. B. dem UAV, den Einsatzsystemen 314, den lokalen Entsendesystemen 312, dem zentralen Entsendesystem 310 usw.). In einigen Beispielen werden eine oder mehrere dieser Operationen mithilfe eines Befehlscodes implementiert, der in einem entsprechenden Datenspeicher dieser Geräte gespeichert ist. Die Ausführung des Anweisungscodes durch entsprechende Prozessoren der Geräte veranlasst, dass diese Geräte diese Operationen 600 allein oder in Kombination mit anderen Geräten durchführen. Die Vorgänge 600 von 6 werden unter Bezugnahme auf 7A-10B besser nachvollziehbar.
  • Die Operationen bei Block 605 betreffen ein Empfangen eines Bildes. In einigen Beispielen wird das Bild von einer Kamera an dem UAV erfasst. Einige Beispiele des Bildes zeigen Oberflächenmerkmale der Umgebung unterhalb des UAV. Beispielsweise zeigen einige Beispiele des Bildes Straßen, Strukturen, Pflanzenbewuchs usw. in dem Gebiet unterhalb des UAV.
  • Die Operationen bei Block 610 betreffen ein Erzeugen einer Merkmalsmaske 700, die mit dem Bild assoziiert ist. 7A stellt ein Beispiel einer Merkmalsmaske 700 dar. Die Merkmalsmaske 700 umfasst Merkmalskonturen 705, die mit bestimmten Merkmalen assoziiert sind, die in dem Bild abgebildet sind, wie z. B. Strukturkonturen 705A, Pflanzenbewuchskonturen 705B, Straßenkonturen 705C, Einfahrtkonturen 705D usw. In einigen Beispielen ist jede Merkmalskontur 705 mit einer Kennzeichnung assoziiert, die das entsprechende Merkmal identifiziert (z. B. Struktur, Pflanzenbewuchs, Straße, Fahrbahn usw.). In einigen Beispielen stimmen die Abmessungen der Merkmalsmaske 700 (z. B. Breite und Höhe in Pixeln) mit den Abmessungen des erfassten Bildes überein.
  • In einigen Beispielen werden die Merkmalskonturen 705, die mit Merkmalen assoziiert sind, die in dem Bild abgebildet sind, durch eine Merkmalserkennungslogik ermittelt. Einige Beispiele der Merkmalserkennungslogik werden mithilfe der zuvor beschriebenen Maschinenlernlogik implementiert, die trainiert ist, um bestimmte Merkmale aus Bildern zu identifizieren. In einigen Beispielen versucht ein trainiertes Maschinenlernmodell, jedes Pixel innerhalb eines Bildes als zu einer bestimmten semantischen Klasse gehörend zu kennzeichnen. Einige Beispiele des UAV implementieren die Merkmalserkennungslogik (z. B. der Prozessor und/oder andere Subsysteme des UAV wirken zusammen, um die Merkmalserkennungslogik zu implementieren). In einigen Beispielen ist die Merkmalserkennungslogik durch ein oder mehrere Bodensteuerungssysteme in Kommunikation mit dem UAV implementiert (z. B. die Einsatzsysteme 314, die lokalen Entsendesysteme 312, das zentrale Entsendesystem 310 usw.). In dieser Hinsicht kommunizieren einige Beispiele des UAV das von dem UAV erfasste Bild an ein Bodensystem, das wiederum die Merkmalsmaske 700 ermittelt und die Merkmalsmaske 700 an das UAV kommuniziert.
  • In einigen Beispielen wird die Merkmalsmaske zumindest teilweise basierend auf Merkmalsmaskeninformationen (z. B. Magnetanomaliekarten) erzeugt, die von anderen Quellen (z. B. einem Bodenleitstand) übermittelt werden. In einigen Beispielen werden die Merkmalsmaskeninformationen von anderen Sensoren des UAV oder Sensoren anderer UAVs abgeleitet.
  • Die Operationen bei Block 615 betreffen ein Anpassen der Ausrichtung und/oder des Maßstabs der Merkmalsmaske 700. 7B stellt ein Beispiel einer angepassten Merkmalsmaske 700 dar. In einigen Beispielen wird die Merkmalsmaske 700 so angepasst, dass sie Aspekten der zuvor genannten Referenzkacheln entspricht.
  • In einigen Beispielen wird beispielsweise die Merkmalsmaske 700 gedreht, um die Merkmalsmaske 700 mit den Referenzkacheln nach Norden auszurichten. Das heißt, die Merkmalsmaske 760 wird so gedreht, dass der mit der Merkmalsmaske 700 assoziierte Kurs mit dem mit den Referenzkacheln assoziierten Kurs übereinstimmt. In dieser Hinsicht kann in einigen Beispielen der Drehbetrag auf dem Kurs des UAV basieren (z. B. mithilfe des zuvor genannten digitalen 3-Achsen-Magnetometers mit niedrigem Stromverbrauch). In einigen Beispielen werden Kurse, die mit Referenzkacheln assoziiert sind, zuvor ermittelt und mit den Referenzkacheln assoziiert (z. B. als Metadaten in den Referenzkacheln).
  • In einigen Beispielen wird die Größe der Merkmalsmaske 700 so geändert, dass sie mit dem Maßstab übereinstimmt, der mit den Referenzkacheln assoziiert ist. Zum Beispiel wird der Maßstab der Merkmalsmaske 700 bei Bedarf vergrößert oder verkleinert, sodass der mit dem Abstand zwischen den Pixeln der Merkmalsmaske 700 assoziierte geografische Abstand mit dem geografischen Abstand übereinstimmt, der mit dem Abstand zwischen Pixeln der Referenzkacheln assoziiert ist. In einigen Beispielen wird der aktuelle Maßstab der Merkmalsmaske 700 zumindest teilweise basierend auf der Höhe des UAV, der Vergrößerung der Kamera usw. ermittelt.
  • Die Operationen bei Block 620 betreffen das Empfangen von Referenzkacheln 805 und das Kombinieren der Referenzkacheln 805. 8A stellt Beispiele für empfangene Referenzkacheln 805 dar. Jede Referenzkachel 805 gibt gekennzeichnete Merkmalskonturen an, die mit einer bestimmten geografischen Region assoziiert sind (z. B. Struktur-, Pflanzenbewuchs-, Straßen-, Einfahrtkonturen usw., die sich an einer bestimmten Breite und Länge befinden). In einigen Beispielen wird der Maßstab der Referenzkacheln 805 zuvor ermittelt und mit den Referenzkacheln 805 assoziiert (z. B. als Metadaten in den Referenzkacheln). Semantische Kennzeichnungen bestimmter Pixel in den Referenzkacheln 805 können daher an entsprechenden Pixeln von Bildern ausgerichtet werden, die durch das UAV erfasst werden.
  • Wie in 8B dargestellt, werden in einigen Beispielen die empfangenen Referenzkacheln 805 miteinander kombiniert. Die kombinierten Referenzkacheln 850 bilden eine teilweise Darstellung der Merkmale (z. B. gekennzeichnete Merkmale), die mit einer geografischen Region assoziiert sind, die sich in der Nähe des UAV befindet. Beispielsweise definiert die geografische Region in einigen Beispielen einen Unsicherheitskegel (Cone of Uncertainty, CU) 815, der sich von einem Ursprung, der dem letzten bekannten geografischen Standort des UAV entspricht, und in einer Richtung erstreckt, die der Fortbewegungsrichtung des UAV entspricht. Der CU 815 definiert das geografische Gebiet, in dem sich das UAV basierend auf seinem letzten bekannten Standort und der Fortbewegungsrichtung am wahrscheinlichsten befindet. Wie zuvor erwähnt, werden in einigen Beispielen die Operationen von 6 durchgeführt, nachdem die GNSS-Kommunikation mit dem UAV abgerissen ist. In diesem Fall entspricht in einigen Beispielen der letzte vorhergesagte Standort des UAV dem geografischen Standort des UAV in der Nähe des Zeitpunkts, zu dem die GNSS-Kommunikation abgerissen ist. Darüber hinaus basiert die Fortbewegungsrichtung auf dem Kurs des UAV (z. B. mithilfe des zuvor genannten digitalen 3-Achsen-Magnetometers mit niedrigem Stromverbrauch ermittelt) und/oder auf den letzten bekannten Standorten des UAV.
  • Einige Beispiele des UAV kommunizieren Informationen, die ein Ermitteln der mit dem CU 815 assoziierten geografischen Region erleichtern, an ein Bodensteuerungssystem, das Referenzkacheln 805 speichert, die mit verschiedenen geografischen Regionen assoziiert sind. Das Bodensteuerungssystem ermittelt wiederum Referenzkacheln 805, die in den CU 815 fallen, und kommuniziert die Referenzkacheln 805 an das UAV. Einige Beispiele des UAV nutzen die mit der jeweiligen Referenzkachel 805 assoziierten geografischen Informationen (z. B. in den Metadaten der Referenzkachel 805 angegeben), um die Referenzkacheln 805 wie dargestellt zu kombinieren. Zusätzlich oder alternativ werden die Referenzkacheln in einigen Beispielen dem UAV vor einem Flug kommuniziert. In einigen Beispielen werden die Referenzkacheln beispielsweise basierend auf einem geplanten Flugpfad des UAV ausgewählt.
  • Die Operationen bei Block 625 betreffen das Korrelieren der Merkmalsmaske 700 mit den kombinierten Referenzkacheln 850. In einigen Beispielen betrifft die Korrelation das Vergleichen der semantischen Kennzeichnungen von Pixeln der Merkmale in der Merkmalsmaske 700 mit den semantischen Kennzeichnungen von Pixeln entsprechender Merkmale, die in den kombinierten Referenzkacheln 850 angegeben sind. Wie in 9A dargestellt, wird die Merkmalsmaske 700 beispielsweise mit Schritten von einem Pixel von links nach rechts und von oben nach unten bewegt, um die Merkmalsmaske 700 mit verschiedenen Regionen der kombinierten Referenzkacheln 850 zu korrelieren. Wie in 9B dargestellt, wird ermittelt, dass die Pixel korrelieren, wenn die semantischen Kennzeichnungen von Pixeln eines bestimmten Merkmals der Merkmalsmaske 700 mit den semantischen Kennzeichnungen von Pixeln desselben Merkmals in einer bestimmten Region der kombinierten Referenzkacheln 850 übereinstimmen. Wenn beispielsweise Pixel, die mit Strukturen der Merkmalsmaske 700 assoziiert sind, mit Pixeln übereinstimmen, die mit Strukturen in den kombinierten Referenzkacheln 850 assoziiert sind, wird eine Übereinstimmung ermittelt. Dieser Aspekt wird durch die Korrelationsmaske 905 von 9B dargestellt, die Pixel zeigt, die als übereinstimmend ermittelt wurden.
  • In einigen Beispielen wird ein Korrelationsergebnis zwischen der Merkmalsmaske 700 und jeder Region der kombinierten Referenzkacheln 850 ermittelt. Beispielsweise wird jedes Mal, wenn die Merkmalsmaske 700 um ein Pixel bewegt wird, ein Korrelationsergebnis ermittelt. Ein Beispiel für das Korrelationsergebnis entspricht einem Wert, der die Anzahl an übereinstimmenden Pixeln angibt (z. B. die Anzahl an Pixeln der Korrelationsmaske 905, die übereinstimmen). Beispielsweise gibt ein Wert von 500 während eines bestimmten Intervalls an, dass 500 Pixel übereinstimmen. In einigen Beispielen entspricht das Korrelationsergebnis dem Prozentsatz von Pixeln, die übereinstimmen. In einigen Beispielen werden übereinstimmende Pixel entsprechend der Art des Merkmals gewichtet, das mit den übereinstimmenden Pixeln assoziiert ist. Zum Beispiel erhalten Pixel, die mit Strukturen assoziiert sind, die übereinstimmen, ein höheres Gewicht als Pixel, die mit Pflanzenbewuchs verbunden sind.
  • In einigen Beispielen definieren die zuvor ermittelten Korrelationsergebnisse ein Wahrscheinlichkeitsraster oder eine Wärmekarte der geografischen Region, die mit den kombinierten Referenzkacheln assoziiert ist. 9C stellt ein Beispiel eines Wahrscheinlichkeitsrasters 950 dar. Die Regionen R1 des Wahrscheinlichkeitsrasters 950, die höhere Intensitätswerte aufweisen, werden als stärker mit der Merkmalsmaske 700 korreliert betrachtet als die Regionen R2 des Wahrscheinlichkeitsrasters 950, die niedrigere Intensitätswerte aufweisen.
  • Die Operationen bei Block 630 betreffen ein Aktualisieren eines kumulativen Wahrscheinlichkeitsrasters 1005 mit den Korrelationsergebnissen aus dem zuvor ermittelten Wahrscheinlichkeitsraster 950. 10A und 10B stellen Beispiele für ein kumulatives Wahrscheinlichkeitsraster 1005 dar. Einige Beispiele des kumulativen Wahrscheinlichkeitsrasters 1005 stellen das akkumulierte Ergebnis der Wahrscheinlichkeitsraster 950 dar, die wie zuvor beschrieben ermittelt wurden. Wenn sich beispielsweise das UAV fortbewegt und Bilder erfasst, werden entsprechende Wahrscheinlichkeitsraster 950 (z. B. die Wärmekarten, die die Korrelation zwischen bestimmten Merkmalsmasken 700 und den kombinierten Referenzkacheln 850 darstellen) zu dem kumulativen Wahrscheinlichkeitsraster 1005 hinzugefügt. In dieser Hinsicht entsprechen einige Beispiele des kumulativen Wahrscheinlichkeitsrasters 1005 einer Wärmekarte der geografischen Region, die mit den kombinierten Referenzkacheln 850 assoziiert ist. Regionen des kumulativen Wahrscheinlichkeitsrasters 1005, die höhere Intensitätswerte aufweisen, werden als wahrscheinlichere Standorte des UAV betrachtet als Regionen, die niedrigere Intensitätswerte aufweisen.
  • Die Operationen bei Block 635 betreffen ein Ermitteln, ob das kumulative Wahrscheinlichkeitsraster 1005 gültig ist. In einem Beispiel betrifft diese Ermittlung das Ermitteln, ob eine bestimmte Region des kumulativen Wahrscheinlichkeitsrasters 1005 eine Region beinhaltet, die mit hoher Wahrscheinlichkeit dem Standort des UAV entspricht. In dieser Hinsicht betrifft dies in einigen Beispielen das Ermitteln, ob der Durchmesser, der mit einer bestimmten Region des kumulativen Wahrscheinlichkeitsrasters 1005 assoziiert ist, unter einem Schwellenwert liegt. In 10A weisen die Regionen R1, R2, R3 und R4 des kumulativen Wahrscheinlichkeitsrasters 1005 jeweilige Durchmesser von D 1, D2, D3 und D4 auf. Die Durchmesser sind mit einem bestimmten Wahrscheinlichkeitsniveau assoziiert (z. B. ein Wahrscheinlichkeitsdurchmesser von 95 %, der mit einer Konturlinie assoziiert ist, die 95 % Zuverlässigkeit bei einer Positionsschätzung angibt). Wenn die Durchmesser einen bestimmten Gültigkeitsschwellenwert überschreiten (z. B. die Länge der Durchmesser 100 Pixel übersteigt), wird ermittelt, dass das kumulative Wahrscheinlichkeitsraster 1005 nicht gültig ist. Das heißt, dass das kumulative Wahrscheinlichkeitsraster 1005 keine Region angibt, die mit hoher Wahrscheinlichkeit dem Standort des UAV entspricht. Daher wird basierend auf dem Zustand des kumulativen Wahrscheinlichkeitsrasters 1005 keine Standortbestimmung durchgeführt, wie in 10A dargestellt, und die Operationen werden bei Block 605 fortgesetzt. Das heißt, dass das UAV weiterhin Bilder erfasst und entsprechende Wahrscheinlichkeitsraster 950 mit dem kumulativen Wahrscheinlichkeitsraster 1005 fusioniert/akkumuliert werden. In einigen Beispielen können mehrere Durchmesser für einen in Frage kommenden Standort ermittelt werden, die unterschiedlichen Wahrscheinlichkeitsniveaus entsprechen. Jeder dieser Durchmesser kann mit einer anderen Schwellenlänge verglichen werden. In einigen Beispielen kann beispielsweise sowohl ein Wahrscheinlichkeitsdurchmesser von 25 % als auch ein Wahrscheinlichkeitsdurchmesser von 95 % für jeden in Frage kommenden Standort des UAV ermittelt werden.
  • Während die Wahrscheinlichkeitsraster 950 mit dem kumulativen Wahrscheinlichkeitsraster 1005 akkumuliert werden, weichen die Durchmesser der jeweiligen Regionen voneinander ab. Wie beispielsweise in 10B dargestellt, nehmen die mit den Regionen R1, R2 und R4 assoziierten Durchmesser D1, D2 und D4 zu, und der mit der Region R3 assoziierte Durchmesser D3 nimmt ab. Wenn der Durchmesser, der mit einer bestimmten Region assoziiert ist, unter die Gültigkeitsschwelle sinkt, wird bei Block 640 der Standort, der mit der Region R3 assoziiert ist, als wahrscheinlicher Standort des UAV ausgegeben. Im Sinne des vorstehenden Beispiels wird ermittelt, dass das Wahrscheinlichkeitsraster 1005 gültig ist, wenn der mit Region R3 assoziierte Durchmesser auf 100 Pixel oder weniger abnimmt. Daraufhin kann zuverlässig ermittelt werden, dass der Standort des UAV dem mit Region R3 assoziierten geografischen Standort entspricht.
  • 11 stellt Beispiele für Operationen 1100 dar, die von einigen Beispielen der zuvor beschriebenen Geräte durchgeführt werden (z. B. dem UAV, den Einsatzsystemen 314, den lokalen Entsendesystemen 312, dem zentralen Entsendesystem 310 usw.), während das UAV sich fortbewegt (z. B. sich fortbewegt, um ein Paket auszuliefern). In einigen Beispielen werden eine oder mehrere dieser Operationen mithilfe eines Befehlscodes implementiert, der in einem entsprechenden Datenspeicher dieser Geräte gespeichert ist. Die Ausführung des Anweisungscodes durch entsprechende Prozessoren der Geräte veranlasst, dass diese Geräte diese Operationen 500 allein oder in Kombination mit anderen Geräten durchführen.
  • Die Operationen bei Block 1105 betreffen ein Empfangen eines Bildes, das von einer Kamera an einem unbemannten Luftfahrzeug (UAV) erfasst wurde, wobei das Bild eine Umgebung unterhalb des UAV darstellt. Die Operationen bei Block 1110 betreffen das Erzeugen einer mit dem Bild assoziierten Merkmalsmaske mithilfe eines Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Die Operationen bei Block 1115 betreffen ein Abrufen einer oder mehrerer Referenzkacheln, die mit der Umgebung assoziiert sind, wobei die eine oder die mehreren Referenzkacheln mit bestimmten geografischen Standorten assoziiert sind und semantisch gekennzeichnete Pixel angeben, die die geografischen Standorte darstellen. Die Operationen bei Block 1120 betreffen ein Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • Einige Beispiele der Operationen betreffen das Ändern der Größe der Merkmalsmaske, sodass sie einen Maßstab aufweist, der mit dem Maßstab übereinstimmt, der mit den Referenzkacheln assoziiert ist. Einige Beispiele der Operationen betreffen ein Ausrichten des mit der Merkmalsmaske assoziierten Kurses, sodass er mit dem mit der einen oder den mehreren Referenzkacheln assoziierten Kurs übereinstimmt.
  • Einige Beispiele der Operationen betreffen ein Kombinieren einer Vielzahl von der einen oder den mehreren Referenzkacheln und das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln eines Teils der kombinierten Referenzkacheln, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  • Einige Beispiele der Operationen betreffen ein Erzeugen eines Wahrscheinlichkeitsrasters, das relative Wahrscheinlichkeiten angibt, dass sich der Standort des UAV an bestimmten Standorten der einen oder der mehreren Referenzkacheln befindet. In dieser Hinsicht betreffen einige Beispiele der Operationen das Erzeugen, basierend auf einer Vielzahl von Wahrscheinlichkeitsrastern, die mit einer entsprechenden Vielzahl von Bildern assoziiert sind, die aufeinanderfolgend erfasst werden, während sich das UAV durch die Umgebung bewegt, eines kumulativen Wahrscheinlichkeitsrasters, das relative Wahrscheinlichkeiten angibt, dass sich der Standort des UAV an bestimmten Standorten der einen oder der mehreren Referenzkacheln befindet. Wenn die relative Wahrscheinlichkeit, die mit einem bestimmten Standort der einen oder der mehreren Referenzkacheln assoziiert ist, eine Schwellenwahrscheinlichkeit überschreitet, Ermitteln des geografischen Standorts des UAV zumindest teilweise basierend auf dem bestimmten Standort. Einige Beispiele der Operationen betreffen eine Validierung des ermittelten Standorts des UAV basierend auf einem oder mehreren Wahrscheinlichkeitsdurchmessern bei einem oder mehreren entsprechenden Wahrscheinlichkeitsniveaus in dem kumulativen Wahrscheinlichkeitsraster
  • In einigen Beispielen betrifft ein Ausrichten von semantischen Kennzeichnungen der einen oder der mehreren aus der einen oder den mehreren Referenzkacheln ein Ermitteln eines Korrelationsergebnisses zwischen der Merkmalsmaske und jeder Referenzkachel durch das Ermitteln einer Gesamtzahl an entsprechenden Pixeln zwischen der Merkmalsmaske und der Referenzkachel, die eine gemeinsame semantische Kennzeichnung aufweisen.
  • Einige Beispiele der Operationen betreffen das Steuern des UAV, damit es in der Umgebung navigiert, basierend auf dem ermittelten Standort des UAV in der Umgebung.
  • Einige Beispiele der Operationen betreffen ein Steuern des UAV, damit es in der Umgebung navigiert, unter Nutzung eines Globalen Navigationssatellitensystems (GNSS); Erkennen einer Störung des GNSS-System-Dienstes, wobei der geografische Standort des UAV in der Umgebung in Reaktion auf das Erkennen der Störung des GNSS-System-Dienstes ermittelt wird; und anschließend an das Erkennen der Störung des GNSS-System-Dienstes, Steuern des UAV, damit es in der Umgebung navigiert, basierend auf dem bestimmten Standort des UAV in der Umgebung.
  • Einige Beispiele der Operationen betreffen ein Steuern des UAV, damit es in der Umgebung navigiert, unter Nutzung eines GNSS-Systems und unter Nutzung des ermittelten Standorts des UAV in der Umgebung, um die Standortdaten von dem GNSS-System gegenzuprüfen. Einige Beispiele der Operationen betreffen ein Ermitteln eines GNSS-Standorts des UAV in der Umgebung unter Nutzung eines GNSS-Systems; Ermitteln eines verfeinerten Standorts des UAV in der Umgebung basierend auf dem GNSS-Standort des UAV in der Umgebung und dem ermittelten Standort des UAV in der Umgebung und Steuern des UAV, damit es in der Umgebung navigiert, basierend auf dem verfeinerten Standort des UAV in der Umgebung.
  • Einige Beispiele der Operationen betreffen ein Erzeugen einer Merkmalsmaske, die mit dem Bild assoziiert ist, mithilfe eines Maschinenlernmodells, das dazu trainiert ist, die Oberflächenmerkmale, die in dem Bild dargestellt sind, als zumindest einem der Folgenden entsprechend zu identifizieren und zu kennzeichnen: einem Gebäude, einer Straße, Vegetation, einem Fahrzeug, einer Einfahrt, einer Rasenfläche oder einem Gehweg.
  • Einige Beispiele der Operationen betreffen ein Abrufen der einen oder der mehreren Referenzkacheln vor einem Flug des UAV, wobei die eine oder die mehreren Referenzkacheln basierend auf einem geplanten Flugpfad des UAV ausgewählt werden.
  • Einige Beispiele der Operationen betreffen ein Anwenden eines Kalman-Filters auf den ermittelten Standort des UAV in der Umgebung, um die Navigation des UAV in der Umgebung zu steuern.
  • In einigen Beispielen wurde das Maschinenlernmodell basierend auf semantischen Ground-Truth-Daten trainiert, wobei die semantischen Ground-Truth-Daten darauf basieren, dass ein Bediener Bilder kennzeichnet, die von einem oder mehreren UAVs erfasst wurden.
  • VII. Schlussfolgerung
  • Die vorliegende Offenbarung soll in Bezug auf die in dieser Anmeldung beschriebenen besonderen Ausführungsformen, die als Veranschaulichungen verschiedener Aspekte bestimmt sind, nicht beschränkt werden. Es können zahlreiche Modifikationen und Variationen durchgeführt werden, ohne vom Grundgedanken und Schutzumfang der Erfindung abzuweichen, wie Fachleuten auf dem Gebiet ersichtlich sein wird. Im Umfang der Offenbarung werden Fachleuten auf dem Gebiet, zusätzlich zu den hierin aufgeführten, funktional äquivalente Verfahren und Vorrichtungen anhand der vorstehenden Beschreibung ersichtlich. Derartige Modifikationen und Variationen sollen in den Schutzumfang der beigefügten Ansprüche fallen.
  • Die vorstehende ausführliche Beschreibung beschreibt verschiedene Merkmale und Funktionen der offenbarten Systeme, Geräte und Verfahren unter Bezugnahme auf die zugehörigen Zeichnungen. In den Figuren identifizieren gleiche Symbole normalerweise gleiche Komponenten, sofern der Kontext nichts anderes angibt. Die hierin und in den Figuren beschriebenen exemplarischen Ausführungsformen sind nicht als Einschränkung zu verstehen. Andere Ausführungsformen können verwendet werden, und andere Änderungen können vorgenommen werden, ohne vom Erfindungsgedanken oder Umfang des hierin dargestellten Gegenstands abzuweichen. Es versteht sich natürlich, dass die Aspekte der vorliegenden Offenbarung, wie sie im Allgemeinen hierin beschrieben und in den Figuren dargestellt sind, in vielen verschiedenen unterschiedlichen Konfigurationen angeordnet, ausgetauscht, kombiniert, getrennt und konzipiert werden können, von denen hierin alle explizit vorgesehen sind.
  • Ein Block, der eine Verarbeitung von Informationen darstellt, kann Schaltungen entsprechen, die zur Durchführung der spezifischen logischen Funktionen eines hierin beschriebenen Verfahrens oder einer Technik konfiguriert sein können. Alternativ oder zusätzlich kann ein Block, der eine Verarbeitung von Informationen darstellt, einem Modul, einem Segment oder einem Teil eines Programmcodes (einschließlich zugehöriger Daten) entsprechen. Der Programmcode kann eine oder mehrere durch einen Prozessor ausführbare Anweisungen zur Implementierung spezifischer logischer Funktionen oder Aktionen in dem Verfahren oder der Technik beinhalten. Der Programmcode oder die zugehörigen Daten können auf jeder Art von computerlesbarem Medium, wie z. B. einem Speichergerät, das ein Laufwerk oder eine Festplatte beinhaltet, oder auf einem anderen Speichermedium gespeichert werden.
  • Das computerlesbare Medium kann auch nicht-flüchtige computerlesbare Medien, wie z. B. computerlesbare Medien, die Daten für kurze Zeiträume speichern, wie beispielsweise Registerspeicher, Prozessor-Zwischenspeicher und Direktzugriffsspeicher (RAM), beinhalten. Die computerlesbaren Speichermedien können auch nicht-flüchtige computerlesbare Medien beinhalten, die Programmcode oder Daten für längere Zeiträume speichern, wie z. B. einen sekundären oder persistenten Langzeitspeicher, wie beispielsweise Nur-Lese-Speicher (ROM), optische oder magnetische Datenträger Compact-Disc-Nur-Lese-Speicher (CD-ROM). Bei den computerlesbaren Medien kann es sich außerdem um beliebige andere flüchtige oder nicht-flüchtige Speichersysteme handeln. Ein computerlesbares Medium kann beispielsweise als computerlesbares Speichermedium oder als ein physisches Speichergerät betrachtet werden.
  • Darüber hinaus kann ein Block, der eine oder mehrere Informationsübermittlungen darstellt, Informationsübermittlungen zwischen Software- oder Hardwaremodulen in demselben physischen Gerät entsprechen. Es können jedoch auch andere Informationsübermittlungen zwischen Softwaremodulen oder Hardwaremodulen in verschiedenen physischen Geräten erfolgen.
  • Die bestimmten in den Figuren dargestellten Anordnungen sollten nicht als Einschränkung angesehen werden. Es versteht sich, dass andere Ausführungsformen mehr oder weniger der jeweiligen Elemente, die in einer gegebenen Figur dargestellt sind, beinhalten können. Des Weiteren können einige der dargestellten Elemente kombiniert oder weggelassen werden. Weiterhin kann eine exemplarische Ausführungsform Elemente beinhalten, die in den Figuren nicht dargestellt sind.
  • Obgleich hierin verschiedene Aspekte und Ausführungsformen offenbart wurden, sind erfahrenen Personen auf dem Fachgebiet auch andere Aspekte und Ausführungsformen ersichtlich. Die verschiedenen hierin offenbarten Aspekte und Ausführungsformen dienen der Veranschaulichung und sind nicht als einschränkend zu verstehen, wobei der wahre Umfang durch die folgenden Ansprüche angegeben wird.

Claims (18)

  1. Unbemanntes Luftfahrzeug (UAV), umfassend: eine Kamera; und ein Steuerungssystem, das konfiguriert ist, Operationen durchzuführen, die umfassen: Empfangen eines von der Kamera erfassten Bildes, wobei das Bild eine Umgebung unterhalb des UAV darstellt; Erzeugen einer mit dem Bild assoziierten Merkmalsmaske mithilfe eines Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Abrufen einer oder mehrerer Referenzkacheln, die mit der Umgebung assoziiert sind, wobei die eine oder die mehreren Referenzkacheln mit bestimmten geografischen Standorten assoziiert sind und semantisch gekennzeichnete Pixel angeben, die die geografischen Standorte darstellen; und Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln, um einen geografischen Standort des UAV in der Umgebung zu ermitteln.
  2. UAV nach Anspruch 1, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Ändern der Größe der Merkmalsmaske, sodass sie einen Maßstab aufweist, der mit dem Maßstab übereinstimmt, der mit den Referenzkacheln assoziiert ist.
  3. UAV nach einem der vorhergehenden Ansprüche, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Ausrichten des mit der Merkmalsmaske assoziierten Kurses, sodass er mit dem mit der einen oder den mehreren Referenzkacheln assoziierten Kurs übereinstimmt.
  4. UAV nach einem der vorhergehenden Ansprüche, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Kombinieren einer Vielzahl der einen oder der mehreren Referenzkacheln; und Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit semantisch gekennzeichneten Pixeln eines Teils der kombinierten Referenzkacheln, um einen geografischen Standort des UAV in der Umgebung zu ermitteln.
  5. UAV nach einem der vorhergehenden Ansprüche, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Kombinieren einer Vielzahl der einen oder der mehreren Referenzkacheln; und Ausrichten der semantischen Kennzeichnungen der Merkmalsmaske an einem Teil der kombinierten Referenzkacheln, um den geografischen Standort des UAV in der Umgebung zu ermitteln.
  6. UAV nach Anspruch 4 oder 5, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Erzeugen eines Wahrscheinlichkeitsrasters, das relative Wahrscheinlichkeiten angibt, dass sich der Standort des UAV an bestimmten Standorten der einen oder der mehreren Referenzkacheln befindet.
  7. UAV nach Anspruch 6, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Erzeugen, basierend auf einer Vielzahl von Wahrscheinlichkeitsrastern, die mit einer entsprechenden Vielzahl von Bildern assoziiert sind, die aufeinanderfolgend erfasst werden, während sich das UAV durch die Umgebung bewegt, eines kumulativen Wahrscheinlichkeitsrasters, das relative Wahrscheinlichkeiten angibt, dass sich der Standort des UAV an bestimmten Standorten der einen oder der mehreren Referenzkacheln befindet; und wenn die relative Wahrscheinlichkeit, die mit einem bestimmten Standort der einen oder der mehreren Referenzkacheln assoziiert ist, eine Schwellenwahrscheinlichkeit in dem kumulativen Wahrscheinlichkeitsraster überschreitet, Ermitteln des geografischen Standorts des UAV zumindest teilweise basierend auf dem bestimmten Standort.
  8. UAV nach Anspruch 7, wobei das Steuerungssystem ferner so konfiguriert ist, dass es den ermittelten Standort des UAV basierend auf einem oder mehreren Wahrscheinlichkeitsdurchmessern bei einem oder mehreren entsprechenden Wahrscheinlichkeitsniveaus in dem kumulativen Wahrscheinlichkeitsraster validiert.
  9. UAV nach einem der vorhergehenden Ansprüche, wobei das Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln umfasst: Ermitteln eines Korrelationsergebnisses zwischen der Merkmalsmaske und jeder Referenzkachel durch Ermitteln einer Gesamtzahl an entsprechenden Pixeln zwischen der Merkmalsmaske und der Referenzkachel, die eine gemeinsame semantische Kennzeichnung aufweisen.
  10. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner so konfiguriert ist, dass es das UAV so steuert, dass es basierend auf dem ermittelten Standort des UAV in der Umgebung in der Umgebung navigiert.
  11. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner konfiguriert ist zum: Steuern des UAV, damit es unter Nutzung eines Globalen Navigationssatellitensystems (GNSS) in der Umgebung navigiert; Erkennen einer Störung des GNSS-System-Dienstes, wobei der geografische Standort des UAV in der Umgebung in Reaktion auf das Erkennen der Störung des GNSS-System-Dienstes ermittelt wird; und nach dem Erkennen der Störung des GNSS-System-Dienstes, Steuern des UAV, damit es in der Umgebung navigiert, basierend auf dem ermittelten Standort des UAV in der Umgebung.
  12. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner konfiguriert ist zum: Steuern des UAV, damit es unter Nutzung eines GNSS-Systems in der Umgebung navigiert; und Verwenden des ermittelten Standorts des UAV in der Umgebung, um Standortdaten von dem GNSS-System gegenzuprüfen.
  13. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner konfiguriert ist zum: Ermitteln eines GNSS-Standorts des UAV in der Umgebung unter Nutzung eines GNSS-Systems; Ermitteln eines verfeinerten Standorts des UAV in der Umgebung basierend auf dem GNSS-Standort des UAV in der Umgebung und dem ermittelten Standort des UAV in der Umgebung; und Steuern des UAV, damit es in der Umgebung navigiert, basierend auf dem verfeinerten Standort des UAV in der Umgebung.
  14. UAV nach einem der vorhergehenden Ansprüche, wobei das Erzeugen der mit dem Bild assoziierten Merkmalsmaske mithilfe des Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen, umfasst: Erzeugen einer Merkmalsmaske, die mit dem Bild assoziiert ist, mithilfe eines Maschinenlernmodells, das dazu trainiert ist, die Pixel, die die Umgebung darstellen und in dem Bild dargestellt sind, als zumindest einem der Folgenden entsprechend zu identifizieren und zu kennzeichnen: einem Gebäude, einer Straße, Vegetation, einem Fahrzeug, einer Einfahrt, einer Rasenfläche oder einem Gehweg.
  15. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner so konfiguriert ist, dass es die eine oder die mehreren Referenzkacheln vor einem Flug des UAV abruft, wobei die eine oder die mehreren Referenzkacheln basierend auf einem geplanten Flugpfad des UAV ausgewählt werden.
  16. UAV nach einem der vorhergehenden Ansprüche, wobei das Steuerungssystem ferner so konfiguriert ist, dass es einen Kalman-Filter auf den ermittelten Standort des UAV in der Umgebung anwendet, um die Navigation des UAV in der Umgebung zu steuern.
  17. UAV nach einem der vorhergehenden Ansprüche, wobei das Maschinenlernmodell basierend auf semantischen Ground-Truth-Daten trainiert wurde, wobei die semantischen Ground-Truth-Daten darauf basieren, dass ein Bediener Bilder kennzeichnet, die von einem oder mehreren UAVs erfasst wurden.
  18. Nichtflüchtiges computerlesbares Medium, das Programmanweisungen umfasst, die durch einen oder mehrere Prozessoren ausführbar sind, um Operationen durchzuführen, wobei die Operationen umfassen: Empfangen eines von der Kamera erfassten Bildes, wobei das Bild eine Umgebung unterhalb des UAV darstellt; Erzeugen einer mit dem Bild assoziierten Merkmalsmaske mithilfe eines Maschinenlernmodells, das dazu trainiert ist, Pixel zu identifizieren und semantisch zu kennzeichnen, die die in dem Bild abgebildete Umgebung darstellen. Abrufen einer oder mehrerer Referenzkacheln, die mit der Umgebung assoziiert sind, wobei die eine oder die mehreren Referenzkacheln mit bestimmten geografischen Standorten assoziiert sind und semantisch gekennzeichnete Pixel angeben, die die geografischen Standorte darstellen; und Korrelieren der semantisch gekennzeichneten Pixel der Merkmalsmaske mit den semantisch gekennzeichneten Pixeln von zumindest einer von der einen oder den mehreren Referenzkacheln, um einen geografischen Standort des UAV in der Umgebung zu ermitteln.
DE202022105718.4U 2022-03-31 2022-10-11 Semantische Lokalisierung eines unbemannten Luftfahrzeug Active DE202022105718U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/710,516 2022-03-31
US17/710,516 US20230316741A1 (en) 2022-03-31 2022-03-31 Method for Semantic Localization of an Unmanned Aerial Vehicle

Publications (1)

Publication Number Publication Date
DE202022105718U1 true DE202022105718U1 (de) 2023-03-02

Family

ID=85705452

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202022105718.4U Active DE202022105718U1 (de) 2022-03-31 2022-10-11 Semantische Lokalisierung eines unbemannten Luftfahrzeug

Country Status (3)

Country Link
US (1) US20230316741A1 (de)
AU (1) AU2022252797A1 (de)
DE (1) DE202022105718U1 (de)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685229B2 (en) * 2017-12-21 2020-06-16 Wing Aviation Llc Image based localization for unmanned aerial vehicles, and associated systems and methods
US11100667B2 (en) * 2019-10-30 2021-08-24 Wing Aviation Llc Systems and methods for generating annotations of structured, static objects in aerial imagery using geometric transfer learning and probabilistic localization

Also Published As

Publication number Publication date
US20230316741A1 (en) 2023-10-05
AU2022252797A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US20220357753A1 (en) Drop-off location planning for delivery vehicle
US11163318B2 (en) Vehicle altitude restrictions and control
US20210191426A1 (en) Aircraft attitude control methods
EP3428766B1 (de) Abbildung von multisensorumgebungen
US9126693B1 (en) Assisted takeoff
EP3432108B1 (de) Verfahren und steuervorrichtung für ein autonomes und/oder teilautonomes transportfahrzeug
US20190310658A1 (en) Unmanned aerial vehicle
DE202022105778U1 (de) Semantischer Abbruch von unbemannten Luftfahrzeuglieferungen
DE202022105719U1 (de) Semantische Anpassung von Zustellpunken eines unbemannten Luftfahrzeugs
DE202022105718U1 (de) Semantische Lokalisierung eines unbemannten Luftfahrzeug
WO2023080954A1 (en) Improving performance of autonomous vehicle operation in varying conditions by using imagery generated with machine learning for simulations
DE202022105781U1 (de) Bewegungsbahnen für unbemannte Luftfahrzeuge zum Versetzen und Rückgängigmachen des Versetzens
GB2559185A (en) Surveillance apparatus
US20240020876A1 (en) Machine-Learned Monocular Depth Estimation and Semantic Segmentation for 6-DOF Absolute Localization of a Delivery Drone
AU2022203829B2 (en) Stereo abort of unmanned aerial vehicle deliveries
US20230316740A1 (en) Method for Controlling an Unmanned Aerial Vehicle to Avoid Obstacles
Khyasudeen et al. The development of a GPS-based autonomous quadcopter towards precision landing on moving platform
CN116724346A (zh) 基于收集的信息管理自主交通工具的机队
Lee Construction of 3D Spatial Information Using Unmanned Aerial System

Legal Events

Date Code Title Description
R207 Utility model specification