DE102018105544A1 - Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung - Google Patents

Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung Download PDF

Info

Publication number
DE102018105544A1
DE102018105544A1 DE102018105544.7A DE102018105544A DE102018105544A1 DE 102018105544 A1 DE102018105544 A1 DE 102018105544A1 DE 102018105544 A DE102018105544 A DE 102018105544A DE 102018105544 A1 DE102018105544 A1 DE 102018105544A1
Authority
DE
Germany
Prior art keywords
neural network
artificial neural
target object
polygon
tracking algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018105544.7A
Other languages
English (en)
Inventor
Christoph Schmitt
Johannes Both
Florian Kolb
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jena Optronik GmbH
Original Assignee
Jena Optronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jena Optronik GmbH filed Critical Jena Optronik GmbH
Priority to DE102018105544.7A priority Critical patent/DE102018105544A1/de
Priority to FR1902315A priority patent/FR3078803B1/fr
Priority to US16/296,820 priority patent/US11321852B2/en
Priority to CA3036241A priority patent/CA3036241A1/en
Publication of DE102018105544A1 publication Critical patent/DE102018105544A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte, wobei eine 3D-Punktewolke (104) des Zielobjekts erzeugt und iterativ mithilfe eines 3D-Modells (108) des Zielobjekts eine räumliche Lage des Zielobjekts bestimmt wird, wobei zunächst mithilfe eines künstlichen neuronalen Netzwerks (100) eine räumliche Lage des Zielobjekts erstbestimmt und nachfolgend mit einem Ergebnis dieser Erstbestimmung der Tracking-Algorithmus initialisiert wird, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks (100) zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte, wobei mithilfe eines Scanning-Verfahrens eine 3D-Punktewolke (104) des Zielobjekts erzeugt und iterativ mithilfe eines 3D-Modells (108) des Zielobjekts eine räumliche Lage des Zielobjekts bestimmt wird, wobei das künstliche neuronale Netzwerk (100) mithilfe von Trainingsdaten trainiert wird, um eine räumliche Lage des Zielobjekts zunächst erstzubestimmen und nachfolgend mit einem Ergebnis dieser Erstbestimmung den Tracking-Algorithmus zu initialisieren, sowie Computerprogrammprodukt, computerlesbares Speichermedium, Datenträgersignal, und Vorrichtung zur Ausführung derartiger Verfahren.

Description

  • Die Erfindung betrifft ein Verfahren zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte, wobei eine 3D-Punktewolke des Zielobjekts erzeugt und iterativ mithilfe eines 3D-Modells des Zielobjekts eine räumliche Lage des Zielobjekts bestimmt wird. Außerdem betrifft die Erfindung ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte. Außerdem betrifft die Erfindung ein Computerprogrammprodukt, ein computerlesbares Speichermedium und ein Datenträgersignal zur Ausführung eines derartigen Initialisierungsverfahrens und/oder eines derartigen Trainingsverfahrens. Außerdem betrifft die Erfindung eine Vorrichtung zur Datenverarbeitung.
  • Die Veröffentlichungen „Automatic Tracking Initialization from TriDAR data for Autonomous Rendezvous & Docking, S. Ruel1, Denis Quellet1, 2Timothy Johnson Luu, 2Denis Laurendeau, 1Neptec Design Group, 2¬Laval University“ und „Fast Initial Pose Estimation of Spacecraft from LiDAR Point Cloud Data, F. Rems1, J. A. Moreno Gonzales1, T. Boge1, S. Tuttas2, U. Stilla, 1DLR, 2TU München“ betreffen Erst-Initialisierungsverfahren für 6DOF-Tracking-Algorithmen mithilfe des Polygonal-Aspect-Hashing-Verfahrens (PAH).
  • Dazu wird aus einer 3D-Punktwolke wird zunächst ein einzelner Scan-Polygonzug extrahiert und nachfolgend mithilfe eines Algorithmus in einem a priori vorhandenen 3D-Referenzmodell eines Zielobjektes ein ähnliches korrespondierendes Match-Polygon ermittelt. Das Verfahren basiert auf einer Suche innerhalb einer Parametertabelle. Ausgehend von einzelnen Referenzpunkten innerhalb des 3D-Referenzmodells werden alle weiteren Modellpunkte nach beispielsweise Distanz und Raumrichtung sortiert. Basierend auf geometrischen Eigenschaften des Scan-Polygons wird nachfolgend innerhalb dieser Tabelle gesucht, bis ein geeigneter Match-Polygon Kandidat gefunden ist. Auf Basis beider Polygone wird nachfolgend eine relative Transformation berechnet. Über beispielsweise einen mittleren Fehler zwischen transformiertem Scan und Modell wird nachfolgend eine Aussage über einen Erfolg der Suche getroffen. Bei Erfolg, wird ein Iterative-Closest-Point-Algorithmus (ICP) mit dieser Lösung initialisiert. Bei Misserfolg, startet die Suche mit einem neuen Scan-Polygon oder mit anderen Ausgangs-Referenzpunkten in der Parametertabelle. Zusätzlich zu Distanzen und Raumrichtungen kann die Tabelle um weitere Eigenschaften erweitert werde, um die Suche zu optimieren.
  • Die Veröffentlichung „A model-based 3D template matching technique for pose acquisition of an uncooperative space object, R. Opromolla, G. Fasano, G. Rufino, M. Grassi, University of Naples“ betrifft ein Template-Matching-Verfahren zur Initialisierung eines ICP-Algorithmus. Es werden hierbei Modellansichten in Form von 3D Punktwolken des Referenzmodells erstellt. Diese stehen einem On-Board-Rechner zur Verfügung und können für einen point-to-point-ICP-Algorithmus genutzt werden, um einen mittleren Fehler zwischen 3D-Template und Scan zu berechnen. Als Positionsschätzung wird überwiegend der Mittelwert des Scans genutzt. Die Lage Information des Templates mit dem geringsten Fehler wird anschließend zur Initialisierung des 6DOF-Tracking-ICP-Algorithmus herangezogen.
  • Aus der Druckschrift EP 2 927 844 A1 ist ein Verfahren bekannt zur Positions- und Lagebestimmung von Objekten, insbesondere von unkooperativen Objekten, wobei ein 3D-Sensor Daten eines Zielobjektes liefert, die mit den in einer Modelldatenbank gespeicherten Daten des Zielobjektes verglichen werden und die für eine initiale Positions- und Lageschätzung sowie eine nachgeschaltete genauere Positions- und Lageschätzung des Zielobjektes verwendet werden.
  • Der Erfindung liegt die Aufgabe zugrunde, eingangs genannte Verfahren zu verbessern. Außerdem liegt der Erfindung die Aufgabe zugrunde, eingangs genannte Computerprogrammprodukte bereitzustellen. Außerdem liegt der Erfindung die Aufgabe zugrunde, eine eingangs genannte Vorrichtung baulich und/oder funktional zu verbessern.
  • Die Aufgabe wird gelöst mit einem Verfahren mit den Merkmalen des Anspruchs 1. Außerdem wird die Aufgabe gelöst mit einem Verfahren mit den Merkmalen des Anspruchs 8. Außerdem wird die Aufgabe gelöst mit einem Computerprogrammprodukt mit den Merkmalen des Anspruchs 13, mit einem computerlesbaren Speichermedium mit den Merkmalen des Anspruchs 14 und mit einem Datenträgersignal mit den Merkmalen des Anspruchs 15. Außerdem wird die Aufgabe gelöst mit einer Vorrichtung mit den Merkmalen des Anspruchs 16. Vorteilhafte Ausführungen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
  • Das Verfahren kann zur Durchführung in einem Raumflugkörper dienen. Der Raumflugkörper kann eine Raumstation, ein Raumfähre, ein Raumfahrzeug, eine Raumsonde oder ein Satellit sein. Das Verfahren kann zur Durchführung in einem Luftfahrzeug dienen. Das Luftfahrzeug kann ein Flugzeug sein. Das Verfahren kann während eines Betriebs des Raumflugkörpers oder des Luftfahrzeugs durchgeführt werden. Das Verfahren kann während in dem Raumflugkörper oder in dem Luftfahrzeug autonom durchgeführt werden. Das Verfahren kann ein computerimplementiertes Verfahren sein.
  • Der Tracking-Algorithmus kann zur Relativnavigation dienen. Der Tracking-Algorithmus kann zur Navigation eines Raumflugkörpers oder Luftfahrzeug relativ zu einem luft- und/oder raumfahrttechnischen Zielobjekt dienen. Der Tracking-Algorithmus kann zur Poseschätzung und/oder Poseverfolgung eines luft- und/oder raumfahrttechnischen Zielobjekts dienen. Die Poseschätzung kann eine Lageschätzung und/oder eine Positionsschätzung umfassen. Die Poseverfolgung kann eine Lageverfolgung und/oder eine Positionsverfolgung umfassen. Der Tracking-Algorithmus kann ein 6DOF-Tracking-Algorithmus sein. Der Tracking-Algorithmus kann Iterative-Closesd-Point-Algorithmen (ICP) nutzen. Der Tracking-Algorithmus kann von Scan zu Scan iterieren, wobei ein Scan jeweils mit einem Ergebnis eines vorangehenden Scans initialisiert werden kann.
  • Das luft- und/oder raumfahrttechnische Zielobjekt kann ein Raumflugkörper sein. Der Raumflugkörper kann eine Raumstation, ein Raumfähre, ein Raumfahrzeug, eine Raumsonde oder ein Satellit sein. Das luft- und/oder raumfahrttechnische Zielobjekt kann ein Luftfahrzeug sein. Das Luftfahrzeug kann ein Flugzeug sein. Das luft- und/oder raumfahrttechnische Zielobjekt kann wenigstens ein astronomisches Objekt sein. Das wenigstens eine astronomische Objekt kann eine Sonne, ein Planet oder ein Stern sein. Das luft- und/oder raumfahrttechnische Zielobjekt kann eine Konstellation mehrerer astronomischer Objekte sein. Das luft- und/oder raumfahrttechnische Zielobjekt kann unkooperativ sein. Das Zielobjekt kann sich bewegen. Das Zielobjekt kann taumeln. Das Zielobjekt kann um drei Achsen taumeln, Das Zielobjekt kann mit bis zu 2 bis 4 deg/s taumeln.
  • Die 3D-Punktwolken kann mithilfe eines Scanning-Verfahrens erzeugt werden. Das Scanning-Verfahren kann ein optisches Verfahren mit Laufzeitmessung sein. Das Scanning-Verfahren kann ein Laserscanning-Verfahren sein. Das Scanning-Verfahren kann ein Light-Detection-And-Ranging-Verfahren (LiDAR) sein. Das Scanning-Verfahren kann ein 3D-LiDAR-Verfahren sein. Das Scanning-Verfahren kann wiederholt durchgeführt werden. Mithilfe des Scanning-Verfahrens können wiederholt 3D-Punktwolken des Zielobjekts erzeugt werden. Die 3D-Punktwolken kann mithilfe eines Flash-LIDARs oder einer Stereo-Kamera erzeugt werden.
  • Die 3D-Punktwolke des Zielobjekts kann eine Menge von Punkten eines Vektorraums umfassen. Die Punkte können jeweils durch ihre Raumkoordinaten erfasst werden. Zu den Punkten können jeweils zusätzliche Attribute erfasst werden. Die 3D-Punktwolke des Zielobjekts kann während eines Betriebs des Raumflugkörpers oder des Luftfahrzeugs erzeugt werden. Die 3D-Punktwolke kann gespeichert werden.
  • Das 3D-Modell des Zielobjekts kann zuvor erstellt worden sein. Das 3D-Modell des Zielobjekts kann gespeichert sein. Das 3D-Modell des Zielobjekts kann in dem Raumflugkörper oder in dem Luftfahrzeug zur Verfügung stehen.
  • Die räumliche Lage des Zielobjekts kann in sechs Freiheitsgraden bestimmt werden. Die räumliche Lage des Zielobjekts kann durch Translation entlang dreier lotrechter Achsen und Rotation um die drei Achsen bestimmt werden.
  • Die Erstbestimmung kann dazu dienen eine räumliche Lage des Zielobjekts lösungsnah zu schätzen. Die Erstbestimmung kann dazu dienen eine räumliche Lage des Zielobjekts derart lösungsnah zu schätzen, dass bei einer Initialisierung des Tracking-Algorithmus mit einem Ergebnis der Erstbestimmung eine Konvergenz des Tracking-Algorithmus gewährleistet ist.
  • Zur Erstbestimmung kann aus der 3D-Punktewolke ein Scan-Polygon extrahiert werden. Das ermittelte Scan-Polygon kann an das künstliche neuronale Netzwerk übergeben werden. Mithilfe des künstlichen neuronalen Netzwerks kann aus dem 3D-Modell des Zielobjekts ein Match-Polygon ermittelt werden. Das Match-Polygon kann mit dem Scan-Polygon korrespondieren.
  • Mithilfe des künstlichen neuronalen Netzwerks können das Scan-Polygon und das Match-Polygon miteinander verglichen werden. Eine Zuordnung zwischen dem Scan-Polygon und dem Match-Polygon kann mithilfe des künstlichen neuronalen Netzwerks erfolgen. Eine Übereinstimmung zwischen dem Scan-Polygon und dem Match-Polygon kann qualitativ bewertet werden. Zur qualitativen Bewertung der Übereinstimmung kann eine relative Transformation zwischen dem Scan-Polygon und dem Match-Polygon ermittelt werden. Zur qualitativen Bewertung der Übereinstimmung kann ein Güteparameter verwendet werden. Als Güteparameter kann eine mittlere quadratische Abweichung (mean squared error, MSE) zwischen Scan und Modell dienen.
  • Der Tracking-Algorithmus kann mit dem Ergebnis der Erstbestimmung initialisiert werden, wenn die Übereinstimmung eine vorgegebene Mindestqualität aufweist. Andernfalls kann erneut aus der 3D-Punktewolke ein Scan-Polygon extrahiert werden. Das erneut ermittelte Scan-Polygon kann ebenfalls an das künstliche neuronale Netzwerk übergeben werden. Mithilfe des künstlichen neuronalen Netzwerks kann aus dem 3D-Modell des Zielobjekts erneut ein Match-Polygon ermittelt werden. Das Scan-Polygon und das Match-Polygon können erneut miteinander verglichen werden. Eine Übereinstimmung zwischen dem Scan-Polygon und dem Match-Polygon kann erneut qualitativ bewertet werden. Der Tracking-Algorithmus kann mit dem neuen Ergebnis der Erstbestimmung initialisiert werden, wenn die Übereinstimmung die vorgegebene Mindestqualität aufweist. Andernfalls kann der Vorgang wiederholt werden. Der Vorgang kann so oft wiederholt werden, bis ein Ergebnis der Erstbestimmung die vorgegebene Mindestqualität aufweist.
  • Als künstliches neuronales Netzwerk kann ein mehrschichtiges Feedforward-Netz verwendet werden. Als künstliches neuronales Netzwerk kann ein Netzwerk mit wenigstens zwei, insbesondere wenigstens drei, verdeckte Schichten verwendet werden. Als künstliches neuronales Netzwerk kann ein Netzwerk mit wenigstens 80, insbesondere wenigstens 100, Neuronen pro Schicht verwendet werden.
  • Mithilfe des Trainingsverfahrens kann das künstliche neuronale Netzwerk anhand der Trainingsdaten lernen. Gewichte zwischen einzelnen Neuronen können modifiziert werden. Lernregeln können die Art und Weise angeben, wie das künstliche neuronale Netzwerk Veränderungen vornimmt. Das Lernen kann als supervised learning (überwachtes bzw. beaufsichtigtes Lernen) erfolgen. Ein korrekter Output kann dann zum Optimieren der Gewichte vorgegeben werden. Das Lernen kann als unsupervised learning (nicht überwachtes bzw. unbeaufsichtigtes Lernen) erfolgen. Gewichtsveränderungen können dann in Abhängigkeit einer Ähnlichkeit der Gewichte mit Inputreizen ohne Vorgeben eines Outputs erfolgen.
  • Die Trainingsdaten können Scan-Polygone und Match-Polygone umfassen. Die Trainingsdaten mithilfe eines Trainingsdatengenerators erzeugt werden. Die Trainingsdaten können einen möglichen Parameterraum zur Ausführung eines nach wenigstens einem der Ansprüche 1 bis 7 repräsentieren.
  • Das künstliche neuronale Netzwerk kann getestet werden. Eine Leistungsfähigkeit des künstlichen neuronalen Netzwerks bewertet werden. Das künstliche neuronale Netzwerk kann trainiert werden, bis seine Leistungsfähigkeit ein vorgegebenes Mindestniveau aufweist.
  • Das Verfahren nach wenigstens einem der Ansprüche 1 bis 7 und/oder das Verfahren nach wenigstens einem der Ansprüche 8 bis 12 können/kann ein computerimplementiertes Verfahren sein.
  • Das Computerprogrammprodukt kann in installierbarer Form vorliegen. Das Computerprogrammprodukt kann auf einem Computer installiert sein. Das computerlesbare Speichermedium kann ein elektronisches, magnetisches, magneto-elektronisches, optisches oder opto-elektronisches Speichermedium sein. Das computerlesbare Speichermedium kann ein flüchtiger, nicht-flüchtiger semi-permanenter oder permanenter Speicher sein. Das computerlesbare Speichermedium kann ein, nicht rotierendes oder rotierendes Speichermedium sein. Das Datenträgersignal kann ein elektronisches, magnetisches, magneto-elektronisches, optisches oder opto-elektronisches Signal sein.
  • Mit „kann“ sind insbesondere optionale Merkmale der Erfindung bezeichnet. Demzufolge gibt es jeweils ein Ausführungsbeispiel der Erfindung, das das jeweilige Merkmal oder die jeweiligen Merkmale aufweist.
  • Mit der Erfindung wird eine zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte erforderliche Zeit verkürzt. Eine Berechnungsgeschwindigkeit wird erhöht. Eine Bestimmung einer räumlichen Lage des Zielobjekts wird mit einer derartigen Genauigkeit ermöglicht, dass ein Übergang vom Initialisieren zu einem stabilen 6DOF-Tracking gewährleistet ist. Eine Implementierbarkeit in einem FPGA wird ermöglicht oder verbessert. Eine Limitierung auf Prozessorstrukturen wird aufgehoben. Eine Komplexität und/oder ein Ressourcenbedarf werden/wird reduziert. Ein Speicherbedarf wird reduziert. Eine zu analysierende Datenmenge der 3D-Punktwolke wird reduziert. Eine Zuordnung über umfangreiche Parametertabellen entfällt. Ein Speicherungserfordernis umfangreicher Parametertabellen oder 2D/3D Templates entfällt. Eine Implementierung in FPGAs wird ermöglicht.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf Figuren näher beschrieben. Aus dieser Beschreibung ergeben sich weitere Merkmale und Vorteile. Konkrete Merkmale dieser Ausführungsbeispiele können allgemeine Merkmale der Erfindung darstellen. Mit anderen Merkmalen verbundene Merkmale dieser Ausführungsbeispiele können auch einzelne Merkmale der Erfindung darstellen.
  • Es zeigen schematisch und beispielhaft:
    • 1 ein künstliches neuronales Netzwerk zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte,
    • 2 einen Ablauf zum Trainieren eines künstlichen neuronalen Netzwerks zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte,
    • 3 einen Ablauf zum Trainieren eines künstlichen neuronalen Netzwerks zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte durch Backpropagation und
    • 4 einen Ablauf zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte.
  • 1 zeigt ein künstliches neuronales Netzwerk 100 mit Neuronen, wie 101, zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte. Die Neuronen sind in 1 auch mit N bezeichnet. Die Neuronen können auch als Units bezeichnet werden. Das künstliche neuronale Netzwerk 100 umfasst Input-Units, die von der Außenwelt Signale empfangen können, Output-Units, die Signale an die Außenwelt weitergeben können, und Hidden-Units, die sich zwischen Input- und Output-Units befinden und eine interne Repräsentation der Außenwelt beinhalten. Der Tracking-Algorithmus wird beispielsweise in einem Raumfahrzeug ausgeführt und dient zum Erfassen und autonomen Verfolgen eines Zielobjekts, um eine Relativnavigation zwischen Raumfahrzeugen mittels eines 3D-LiDAR zu ermöglichen.
  • Mithilfe des 3D-LiDAR werden 3D-Punktwolken des zu verfolgenden Zielobjekts generiert. Die Punktwolken werden anschließend mittels geeigneter Bildverarbeitungsalgorithmen ausgewertet und die aktuelle Lage und Position des Zielobjektes wird berechnet. Hierfür werden Iterative-Closest-Point-Algorithmen (ICP) genutzt. Der ICP-Algorithmus ermittelt dabei in einem iterativen Verfahren und unter Nutzung eines 3D-Modells des Zielobjektes dessen relative Lage und Position. Voraussetzung für eine Konvergenz des ICP-Algorithmus ist eine geeignete Initialisierung des Verfahrens mittels einer groben Schätzung in der Nähe der Lösung. Zum Tracking eines Zielobjekts von Scan zu Scan wird hierfür jeweils das Ergebnis des vorherigen Scans zur Initialisierung genutzt. Beispielsweise wird ein Zielobjekt, das sich mit bis zu 5°/s bewegt, von dem 3D-LiDAR mit einer Frequenz von 2 bis 4 Hz gescannt.
  • Vorliegend wird eine initiale Lage- und Positionsschätzung des Zielobjektes aus 3D-Punktwolken mithilfe des künstlichen neuronalen Netzwerks 100 ermittelt. Das Ergebnis wird im Folgenden genutzt, um einen 6DOF-ICP-Tracking-Algorithmus zu initialisieren. Zur initialen Lage- und Positionsschätzung werden Scan-Polygone korrespondierenden Match-Polygonen in einem 3D-Modell des Zielobjekts zugeordnet. Das 3D-Modell des Zielobjekts dient insofern als Referenzmodell. Die Zuordnung erfolgt mithilfe des künstlichen neuronalen Netzwerks 100.
  • Zunächst wird ein Scan-Polygon, wie 102, aus einer 3D-Punktwolke 104 extrahiert. Scan-Polygone sind in 1 auch mit S1 bis S9 bezeichnet. Anschließend wird das Scan-Polygon 102 dem künstlichen neuronalen Netzwerk 100 übergeben, welches ein korrespondierendes Match-Polygon, wie 106, in dem 3D-Modell 108 des Zielobjekts berechnet. Match-Polygone sind in 1 auch mit M1 bis M9 bezeichnet. Ein gefundener Polynom-Kandidat wird genutzt, um eine relative Transformation zwischen Scan-Polygon 102 und Match-Polygon 106 zu berechnen. Anschließend wird der ICP-Algorithmus mit der gefundenen Lösung initialisiert und die Lösung durch wenige Iterationen verfeinert. Anhand eines Güteparameters wird nun entschieden, ob die gefundene Lösung als ausreichend angesehen wird oder nicht. Genutzt werden kann hierfür beispielsweise der Mean-Squared-Error (MSE) zwischen Scan und Modell. Falls die Lösung das definierte Kriterium nicht erfüllt, wird ein neues Scan-Polygon, wie 110, extrahiert und somit eine neue Iteration initiiert.
  • 2 zeigt einen Ablauf 200 zum Trainieren eines künstlichen neuronalen Netzwerks, wie künstliches neuronales Netzwerk 100 gemäß 1, zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte.
  • Das Training des künstlichen neuronalen Netzwerks erfolgt mit geeigneten Trainingsdaten 202, sodass sich eine Leistungsfähigkeit des künstlichen neuronalen den über den trainierten Parameterraum erstreckt. Die Trainingsdaten 202 repräsentieren den möglichen Parameterraum, in dem das künstliche neuronale Netzwerk nach dem Training angewendet wird.
  • Die Trainingsdaten 202 werden mithilfe eines Trainingsdatengenerators 204 erzeugt und umfassen Scan-Polygone 206 zur Beaufschlagung der Input-Units des künstlichen neuronalen Netzwerks und entsprechende Match-Polygone 208, die als Signale der Output-Units des künstlichen neuronalen Netzwerks erwartet werden würden. Als Trainingsdatengenerator 204 dient beispielsweise ein virtuelles Testbed oder ein realer Sensor zur Erzeugung von 3D-Punktwolken anhand eines Modells.
  • Die erzeugten Trainingsdaten 202 werden zum Training 210 des künstlichen neuronalen Netzwerks verwendet. Nach erfolgreichem Training erfolgt eine Anwendung 212 des künstlichen neuronalen Netzwerks.
  • Das Training erfolgt mithilfe von Algorithmen basierend auf dem gemeinsamen Konzept der Backpropagation. Der Trainingsalgorithmus wird beendet, sobald das künstliche neuronale Netzwerk eine geforderte Performance Güte erreicht hat.
  • 3 zeigt einen Ablauf 300 zum Trainieren eines künstlichen neuronalen Netzwerks, wie künstliches neuronales Netzwerk 100 gemäß 1, zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte durch Backpropagation.
  • Zunächst erfolgt zunächst eine Anwendung der Trainingsdaten 302, indem in einem Schritt 304 die Input-Units des künstlichen neuronalen Netzwerks mit einem Scan-Polygon i beaufschlagt werden, in einem Schritt 306 das künstliche neuronale Netzwerk angewendet wird, in einem Schritt 308 ein Match-Polygon i, das als Signal der Output-Units des künstlichen neuronalen Netzwerks erwartet werden würden, herangezogen wird und damit in einem Schritt 310 ein Fehler der tatsächlichen Signale der Output-Units des künstlichen neuronalen Netzwerks ermittelt wird. Die Anwendung der Trainingsdaten 302 wird für eine vorbestimmte Anzahl i von Trainingsdaten wiederholt. Beispielsweise beträgt die Anzahl der ca. 600 bis ca. 1400 Scan-Match Polygon-Paare, insbesondere ca. 1000 Scan-Match Polygon-Paare. Eine Auswahl der Trainingsdaten erfolgte gleichmäßig verteilt über den erforderlichen Parameterraum.
  • Nachfolgend wird in einem Schritt 312 eine Summe der bei der wiederholten Anwendung der Trainingsdaten 302 ermittelten Fehler der tatsächlichen Signale der Output-Units des künstlichen neuronalen Netzwerks gebildet und in einem Schritt 314 mit einem Gütekriterium verglichen.
  • Wenn das Gütekriterium nicht erfüllt ist, erfolgt eine Fehler-Backpropagation 316, beispielsweise mithilfe des Levenberg-Marquardt-Algorithmus, indem in einem Schritt 318 ein Fehler der tatsächlichen Signale der Output-Units des künstlichen neuronalen Netzwerks zu einem Match-Polygon i, das als Signal der Output-Units des künstlichen neuronalen Netzwerks erwartet werden würde, herangezogen wird, dieser Fehler in einem Schritt 320 von einem Output-Layer des künstlichen neuronalen Netzwerks zu einem Input-Layer des künstlichen neuronalen Netzwerks zurückgeführt wird und in einem Schritt 322 die einzelnen Gewichte der Neuronen des künstlichen neuronalen Netzwerks basierend auf einem Fehlergradienten angepasst werden. Die Fehler-Backpropagation 316 wird für die vorbestimmte Anzahl i von Trainingsdaten wiederholt. Nachfolgend wird erfolgt wieder eine Anwendung der Trainingsdaten 302 und ein Vergleich der ermittelten Fehler der tatsächlichen Signale der Output-Units des künstlichen neuronalen Netzwerks mit dem Gütekriterium (Schritt 314). Wenn das Gütekriterium erfüllt ist, erfolgt in einem Schritt 324 ein Abschluss des Trainings, es liegt ein trainiertes künstliches neuronales Netzwerk vor. Das trainierte künstliche neuronale Netzwerk ist beispielsweise Voll-Vermascht und weist zwei bis vier Hidden Layer, insbesondere drei Hidden Layer, sowie ca. 60 bis ca. 140 Neuronen pro Layer, insbesondere ca. 100 Neuronen pro Layer, auf.
  • Das trainierte künstliche neuronale Netzwerk wird in den in 4 gezeigten Ablauf 400 zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte integriert.
  • Zum Initialisieren des Tracking-Algorithmus wird aus einer 3D-Punkwolke 402 ein Scan-Polygon 404 extrahiert und dem trainierten künstlichen neuronalen Netzwerk 406 zugeführt. Nachfolgend wird eine relative Transformation 408 zwischen dem Scan-Polygon 404 und einem ermittelten Match-Polygon 410 ermittelt, einem ICP-Algorithmus 412 zugeführt und es wird ein Güteparameter 414 ermittelt. Dies wird iterativ durchgeführt, bis der Güteparameter 414 ein vorgegebenes Kriterium 416 erfüllt und eine Lösung 418 erreicht ist.
  • Zum Analysieren einer Leistungsfähigkeit des trainierten künstlichen neuronalen Netzwerks werden die in dem Trainingsdatengenerator erzeugten 3D-Punkwolken verwendet. Beispielsweise wird eine Initialisierung alle 500ms basierend auf 2-Hz-LiDAR-Punktwolken über drei volle Rotationsperioden des Zielobjektes aus unterschiedlichen Entfernungen simuliert.
  • Das vorliegende Verfahren zum Initialisieren eines Tracking-Algorithmus kann beispielsweise zum Tracking von Raumfahrzeugen mittels eines 3D-LiDAR sowie im terrestrischen Bereich zum Betanken von Flugzeugen in der Luft eingesetzt werden. Der Algorithmus kann beispielsweise zum Analysieren von LiDAR Daten oder zum Initialisieren eines Stereo-Kamera Systems verwendet werden. Der Algorithmus kann beispielsweise zum Erkennen von Sternenkonstellationen im Bereich Star-Tracker eingesetzt werden, indem ein Polygon bestehende aus erkannten Sternen durch einen Star-Tracker erhalten und diesen dann IDs in einem Sternenkatalog zugeordnet werden.
  • Bezugszeichenliste
  • 100
    künstliches neuronales Netzwerk
    102
    Scan-Polygon
    104
    3D-Punktwolke
    106
    Match-Polygon
    108
    3D-Modell
    110
    Scan-Polygon
    200
    Ablauf
    202
    Trainingsdaten
    204
    Trainingsdatengenerator
    206
    Scan-Polygone
    208
    Match-Polygone
    210
    Training
    212
    Anwendung
    300
    Ablauf
    302
    Anwendung der Trainingsdaten
    304
    Schritt
    306
    Schritt
    308
    Schritt
    310
    Schritt
    312
    Schritt
    314
    Schritt
    316
    Fehler-Backpropagation
    318
    Schritt
    320
    Schritt
    322
    Schritt
    324
    Schritt
    400
    Ablauf
    401
    Neuron
    402
    3D-Punkwolke
    404
    Scan-Polygon
    406
    trainiertes künstliches neuronales Netzwerk
    408
    Transformation
    410
    Match-Polygon
    412
    ICP-Algorithmus
    414
    Güteparameter
    416
    Kriterium
    418
    Lösung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2927844 A1 [0005]

Claims (16)

  1. Verfahren zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte, wobei eine 3D-Punktewolke (104, 402) des Zielobjekts erzeugt und iterativ mithilfe eines 3D-Modells (108) des Zielobjekts eine räumliche Lage des Zielobjekts bestimmt wird, dadurch gekennzeichnet, dass zunächst mithilfe eines künstlichen neuronalen Netzwerks (100, 406) eine räumliche Lage des Zielobjekts erstbestimmt und nachfolgend mit einem Ergebnis dieser Erstbestimmung der Tracking-Algorithmus initialisiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Erstbestimmung aus der 3D-Punktewolke (104, 402) ein Scan-Polygon (102, 206, 404) extrahiert und mithilfe des künstlichen neuronalen Netzwerks (100, 406) aus dem 3D-Modell (108) des Zielobjekts ein mit dem Scan-Polygon (102, 206, 404) korrespondierendes Match-Polygon (106, 208, 410) ermittelt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Scan-Polygon (102, 206, 404) und das Match-Polygon (106, 208, 410) miteinander verglichen werden und eine Übereinstimmung zwischen dem Scan-Polygon (102, 206, 404) und dem Match-Polygon (106, 208, 410) qualitativ bewertet wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass zur qualitativen Bewertung der Übereinstimmung mithilfe des künstlichen neuronalen Netzwerks (100, 406) eine relative Transformation (408) zwischen dem Scan-Polygon (102, 206, 404) und dem Match-Polygon (106, 208, 410) ermittelt wird.
  5. Verfahren nach wenigstens einem der Ansprüche 3 bis 4, dadurch gekennzeichnet, dass der Tracking-Algorithmus mit dem Ergebnis der Erstbestimmung nur dann initialisiert wird, wenn die Übereinstimmung eine vorgegebene Mindestqualität aufweist.
  6. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als künstliches neuronales Netzwerk (100, 406) ein mehrschichtiges Feedforward-Netz verwendet wird.
  7. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als künstliches neuronales Netzwerk (100, 406) ein Netzwerk mit wenigstens zwei, insbesondere wenigstens drei, verdeckte Schichten und wenigstens 80, insbesondere wenigstens 100, Neuronen (101) pro Schicht verwendet wird.
  8. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks (100, 406) zum Initialisieren eines Tracking-Algorithmus für luft- und/oder raumfahrttechnische Zielobjekte, wobei mithilfe eines Scanning-Verfahrens eine 3D-Punktewolke (104, 402) des Zielobjekts erzeugt und iterativ mithilfe eines 3D-Modells (108) des Zielobjekts eine räumliche Lage des Zielobjekts bestimmt wird, dadurch gekennzeichnet, dass das künstliche neuronale Netzwerk (100, 406) mithilfe von Trainingsdaten (202) trainiert wird, um eine räumliche Lage des Zielobjekts zunächst erstzubestimmen und nachfolgend mit einem Ergebnis dieser Erstbestimmung den Tracking-Algorithmus zu initialisieren.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Trainingsdaten (202) Scan-Polygone (102, 206, 404) und Match-Polygone (106, 208, 410) umfassen.
  10. Verfahren nach wenigstens einem der Ansprüche 8 bis 9, dadurch gekennzeichnet, dass die Trainingsdaten (202) mithilfe eines Trainingsdatengenerators (204) erzeugt werden.
  11. Verfahren nach wenigstens einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass eine Leistungsfähigkeit des künstlichen neuronalen Netzwerks (100, 406) bewertet wird.
  12. Verfahren nach wenigstens einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass das künstliche neuronale Netzwerk (100, 406) trainiert wird, bis sein Leistungsfähigkeit ein vorgegebenes Mindestniveau aufweist.
  13. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, ein Verfahren nach wenigstens einem der Ansprüche 1 bis 7 und/oder ein Verfahren nach wenigstens einem der Ansprüche 8 bis 12 auszuführen.
  14. Computerlesbares Speichermedium, umfassend Befehle, die bei der Ausführung durch einen Computer diesen veranlassen, ein Verfahren nach wenigstens einem der Ansprüche 1 bis 7 und/oder ein Verfahren nach wenigstens einem der Ansprüche 8 bis 12 auszuführen.
  15. Datenträgersignal, das das Computerprogrammprodukt nach Anspruch 13 überträgt.
  16. Vorrichtung zur Datenverarbeitung, umfassend wenigstens ein Field Programmable Gate Array (FPGA), in dem das künstliche neuronale Netzwerk (100, 406) zur Ausführung des Verfahrens nach wenigstens einem der Ansprüche 1 bis 7 und/oder zur Ausführung des Verfahrens nach wenigstens einem der Ansprüche 8 bis 12 implementiert ist.
DE102018105544.7A 2018-03-09 2018-03-09 Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung Pending DE102018105544A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018105544.7A DE102018105544A1 (de) 2018-03-09 2018-03-09 Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung
FR1902315A FR3078803B1 (fr) 2018-03-09 2019-03-07 Procédé d’application d’un algorithme de suivi et moyens pour sa mise en œuvre
US16/296,820 US11321852B2 (en) 2018-03-09 2019-03-08 Method for initializing a tracking algorithm, method for training an artificial neural network, computer program product, computer-readable storage medium and data carrier signal for carrying out such methods, and device for data processing
CA3036241A CA3036241A1 (en) 2018-03-09 2019-03-08 Method for initializing a tracking algorithm, method for training an artificial neural network, computer program product, computer-readable storage medium, and data carrier signal for carrying out such methods and device for data processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018105544.7A DE102018105544A1 (de) 2018-03-09 2018-03-09 Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung

Publications (1)

Publication Number Publication Date
DE102018105544A1 true DE102018105544A1 (de) 2019-09-12

Family

ID=67701576

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018105544.7A Pending DE102018105544A1 (de) 2018-03-09 2018-03-09 Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung

Country Status (4)

Country Link
US (1) US11321852B2 (de)
CA (1) CA3036241A1 (de)
DE (1) DE102018105544A1 (de)
FR (1) FR3078803B1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294176B (zh) * 2022-09-27 2023-04-07 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种双光多模型长时间目标跟踪方法、系统及存储介质
CN117761704A (zh) * 2023-12-07 2024-03-26 上海交通大学 多机器人相对位置的估计方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2927844A1 (de) 2014-04-03 2015-10-07 Airbus DS GmbH Positions- und lagebestimmung von 3d objekten

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US10373380B2 (en) * 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
US11556777B2 (en) * 2017-11-15 2023-01-17 Uatc, Llc Continuous convolution and fusion in neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2927844A1 (de) 2014-04-03 2015-10-07 Airbus DS GmbH Positions- und lagebestimmung von 3d objekten
DE102014005181A1 (de) * 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
OPROMOLLA, R. [et al.]: A model-based 3D template matching technique for pose acquisition of an uncooperative space object. In: Sensors, 15. Jg., 2015, Nr. 3, S. 6360-6382. doi:10.3390/s150306360 *
RUEL, S. [et al.]: Target localization from 3D data for on-orbit autonomous rendezvous & docking. In: 2008 IEEE Aerospace Conference. IEEE, 2008. S. 1-11.URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4526516[recherchiert am 13.02.2019] *
TRASK, A. J.: Autonomous artificial neural network star tracker for spacecraft attitude determination. University of Illinois at Urbana-Champaign, 2002 (Doktorarbeit). *

Also Published As

Publication number Publication date
US11321852B2 (en) 2022-05-03
CA3036241A1 (en) 2019-09-09
US20190279375A1 (en) 2019-09-12
FR3078803B1 (fr) 2022-07-08
FR3078803A1 (fr) 2019-09-13

Similar Documents

Publication Publication Date Title
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
CN109344878B (zh) 一种基于ResNet的仿鹰脑特征整合小目标识别方法
DE112020005584T5 (de) Verdeckung berücksichtigende Innenraumszenenanalyse
DE102018105544A1 (de) Verfahren zum Initialisieren eines Tracking-Algorithmus, Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks, Computerprogrammprodukt, computerlesbares Speichermedium und Datenträgersignal zur Ausführung derartiger Verfahren und Vorrichtung zur Datenverarbeitung
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
CN114815881A (zh) 基于边缘计算与无人机巡检协同的智能巡检方法
Takeishi et al. Evaluation of interest-region detectors and descriptors for automatic landmark tracking on asteroids
Lu et al. Efficient deep-learning 4d automotive radar odometry method
Rathinam et al. On-orbit relative navigation near a known target using monocular vision and convolutional neural networks for pose estimation
CN107220589A (zh) 一种基于elm与hmm的序列飞机目标识别方法
Chen et al. A new pose estimation method for non-cooperative spacecraft based on point cloud
CN113313824A (zh) 一种三维语义地图构建方法
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
Gazani et al. Bag of views: An appearance-based approach to next-best-view planning for 3d reconstruction
DE102019216379A1 (de) Verfahren zum Trainieren eines neuronalen Faltungs-Netzwerkes zum Bestimmen einer Lokalisierungs-Pose
Eriş et al. Implementation of target tracking methods on images taken from unmanned aerial vehicles
DE102014108873B4 (de) Verfahren zum Bestimmen einer aktuellen Position einer Landeeinrichtung
Teng et al. Clickbait-v2: Training an object detector in real-time
Dolph et al. Towards explainability of uav-based convolutional neural networks for object classification
Dietsche et al. Visual loop closure detection for a future Mars science helicopter
Klionovska et al. Robust feature extraction pose estimation during fly-around and straight-line approach in close range.
Lunghi et al. A new experimental facility for testing of vision-based gnc algorithms for planetary landing
Dong et al. Research on enemy aircraft bank angle estimation for autonomous air combat
DE102019122189A1 (de) Verfahren zum Erkennen von Objekten
CN117710844B (zh) 基于无人机的建筑安全监视方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009660000

Ipc: G06V0030194000

R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court