DE102022208387A1 - Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen - Google Patents

Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen Download PDF

Info

Publication number
DE102022208387A1
DE102022208387A1 DE102022208387.3A DE102022208387A DE102022208387A1 DE 102022208387 A1 DE102022208387 A1 DE 102022208387A1 DE 102022208387 A DE102022208387 A DE 102022208387A DE 102022208387 A1 DE102022208387 A1 DE 102022208387A1
Authority
DE
Germany
Prior art keywords
vehicle
vehicles
information
positions
relative positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208387.3A
Other languages
English (en)
Inventor
Dotan di Castro
Yakov Miron
Yuval GOLDFRACHT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022208387.3A priority Critical patent/DE102022208387A1/de
Publication of DE102022208387A1 publication Critical patent/DE102022208387A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/648Performing a task within a working area or space, e.g. cleaning
    • G05D1/6484Performing a task within a working area or space, e.g. cleaning by taking into account parameters or characteristics of the working area or space, e.g. size or shape
    • G05D1/6486Performing a task within a working area or space, e.g. cleaning by taking into account parameters or characteristics of the working area or space, e.g. size or shape by taking into account surface condition, e.g. soiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/2054Fleet management
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/05Specific applications of the controlled vehicles for soil shifting, building, civil engineering or mining, e.g. excavators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/90Building sites; Civil engineering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/50Internal signals, i.e. from sensors located in the vehicle, e.g. from compasses or angular sensors
    • G05D2111/52Internal signals, i.e. from sensors located in the vehicle, e.g. from compasses or angular sensors generated by inertial navigation means, e.g. gyroscopes or accelerometers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mining & Mineral Resources (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Bestimmen der Position von mehreren Fahrzeugen beschrieben, das Folgendes umfasst: Durchführen, für jedes Fahrzeug, einer Messung mit einer Trägheitsmesseinheit und Schätzen der Position des Fahrzeugs anhand der Messung mit der Trägheitsmesseinheit, Durchführen einer oder mehrerer Messungen, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern, und Bereitstellen der geschätzten Positionen und der Informationen über die relativen Positionen der mehreren Fahrzeuge an ein Maschinenlernmodell, das darauf trainiert ist, eine Position für jedes Fahrzeug auszugeben, wenn es mit Positionsschätzungen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.

Description

  • Stand der Technik
  • Die vorliegende Offenbarung betrifft Vorrichtungen und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen.
  • In den letzten Jahren ist die Nachfrage nach Automatisierung auf Baustellen, die aus verschiedenen Gründen unter Arbeitskräftemangel leiden, gestiegen. Erstens kann die Automatisierung die Produktivität steigern, die in den letzten Jahrzehnten ziemlich stagniert hat, und die steigenden Kosten senken. Zweitens kann sie die Sicherheit der Arbeitskräfte verbessern, indem sie Maschinen die riskanten Aufgaben übernehmen lässt und so die Arbeitskräfte aus der Gefahrenzone heraushält. Drittens kann sie dazu beitragen, den Bedarf an manueller Arbeit der Arbeitskräfte zu verringern und so den Arbeitskräftemangel zu beheben.
  • Baustellen sind jedoch von Natur aus unvorhersehbare und unstrukturierte Umgebungen, in denen mehrere Maschinen gleichzeitig an verschiedensten anspruchsvollen Aufgaben arbeiten. Eine der Schwierigkeiten ist die Positionsbestimmung auf Baustellen, die einerseits genau sein muss, um z.B. Kollisionen von autonomen Baustellenfahrzeugen untereinander oder mit Hindernissen zu vermeiden, andererseits aber auch durch die unstrukturierte Umgebung und den unebenen Boden erschwert wird.
  • Daher sind genaue Ansätze zur Positionsbestimmung von mehreren Fahrzeugen in einer schwierigen Umgebung wie einer Baustelle wünschenswert.
  • Offenbarung der Erfindung
  • Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Bestimmen der Position von mehreren Fahrzeugen bereitgestellt, das umfasst: Durchführen, für jedes Fahrzeug, einer Messung mit einer Trägheitsmesseinheit und Schätzen der Position des Fahrzeugs anhand der Messung mit der Trägheitsmesseinheit, Durchführen einer oder mehrerer Messungen, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern, und Bereitstellen der geschätzten Positionen und der Informationen über die relativen Positionen der mehreren Fahrzeuge an ein Maschinenlernmodell, das darauf trainiert ist, eine Position für jedes Fahrzeug auszugeben, wenn es mit Positionsschätzungen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.
  • Das oben beschriebene Verfahren ermöglicht eine verbesserte Positionsbestimmung von Fahrzeugen durch Kombinieren von Positionsschätzungen, die auf der einzelnen (IMU-) Messung basieren, mit Informationen über deren relative Positionen. Um für jedes Fahrzeug die Position des Fahrzeugs anhand der IMU-Messungen zu schätzen, kann dem Maschinenlernmodell auch eine Startposition des Fahrzeugs (die das Fahrzeug beim Start der IMU-Messung einnimmt, was Messwerte über ein bestimmtes Zeitintervall umfassen kann) zugeführt werden.
  • Daher wird gemäß verschiedenen Ausführungsformen eine verbesserte Positionsbestimmung für ein Fahrzeug, insbesondere für ein Baufahrzeug auf einer Baustelle, bereitgestellt. Die Ergebnisse der Positionsbestimmung können die Entscheidungsfindung verbessern. In Kombination mit einem Entscheidungsfindungsschema, das Unsicherheiten berücksichtigt (oder robust gegenüber Unsicherheiten ist), die auch in den Ergebnissen der verbesserten Positionsbestimmung noch vorhanden sein können, lassen sich gute Steuerungsergebnisse erzielen.
  • Im Folgenden werden verschiedene Ausführungsformen beschrieben.
  • Ausführungsform 1 ist das Verfahren zum Bestimmen der Position von mehreren Fahrzeugen wie oben beschrieben.
  • Ausführungsform 2 ist das Verfahren von Ausführungsform 1, wobei die ein oder mehreren Messungen, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern, Entfernungsmessungen zwischen Paaren von Fahrzeugen der mehreren Fahrzeuge umfassen.
  • Beispielsweise können die Fahrzeuge ihren gegenseitigen Abstand mit Hilfe von Radar- und/oder Lidar-Messungen schätzen. Das Maschinenlernmodell kann dann diese Informationen über die gegenseitigen Abstände (d.h. die Informationen über die relativen Positionen der Fahrzeuge) mit den Positionsschätzungen (der einzelnen Fahrzeuge) kombinieren, um (bessere) Schätzungen über die Positionen der Fahrzeuge vorzunehmen.
  • Ausführungsform 3 ist das Verfahren von Ausführungsform 1 oder 2, wobei das Maschinenlernmodell ein neuronales Netz ist.
  • Das Maschinenlernmodell kann durch überwachtes Training für die Aufgabe trainiert werden, die einzelnen Positionsschätzungen mit den Informationen über die relativen Positionen zu kombinieren, indem Trainingseingaben von einzelnen Positionsschätzungen und Informationen über relative Positionen und Zielausgaben (d.h. (Ground Truth, Grundwahrheit)-Label), die die wahren Positionen der mehreren Fahrzeuge enthalten, bereitgestellt werden. Dies kann effizient durch den Einsatz eines neuronalen Netzes als Maschinenlernmodell geschehen, indem Rückwärtspropagierung verwendet und die Gewichte des neuronalen Netzes angepasst werden, um einen Verlust zwischen den vom neuronalen Netz ausgegebenen Positionen und den Zielausgaben zu reduzieren (typischerweise über Stapel von Trainingsdatenelementen (die jeweils eine Trainingseingabe und eine Zielausgabe für die Trainingseingabe enthalten)).
  • Ausführungsform 4 ist das Verfahren von einer der Ausführungsformen 1 bis 3, wobei die Fahrzeuge Baufahrzeuge sind und die Positionen Positionen auf einer Baustelle sind.
  • Insbesondere auf Baustellen ist die Schätzung von Position (und Pose) aufgrund des unebenen Bodens schwierig. Die Verwendung einzelner Schätzungen in Kombination mit Informationen über relative Positionen, um die Positionsbestimmung zu verbessern wie oben beschrieben, bietet eine Möglichkeit einer zuverlässigen Positionsbestimmung in einem solchen Szenario.
  • Ausführungsform 5 ist das Verfahren von einer der Ausführungsformen 1 bis 4, umfassend, für jedes Fahrzeug, das Schätzen der Pose des Fahrzeugs anhand der Messung mit der Trägheitsmesseinheit und Bereitstellen der geschätzten Posen und der Informationen über die relativen Posen der mehreren Fahrzeuge an ein Maschinenlernmodell, wobei das Maschinenlernmodell darauf trainiert ist, eine Pose für jedes Fahrzeug auszugeben, wenn es mit Posen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.
  • Das bedeutet, dass dem Maschinenlernmodell zusätzlich zu den Positionsschätzungen auch Orientierungsschätzungen zugeführt werden können, um die Positionsbestimmung weiter zu verbessern und eine vollständige Pose (d.h. Position plus Orientierung) auszugeben, die z.B. zum Steuern der Fahrzeuge (z.B. für autonomes Fahren oder (z.B. Baustellen-) Betrieb) verwendet werden kann.
  • Ausführungsform 6 ist eine Datenverarbeitungsanordnung, die dafür ausgelegt ist, ein Verfahren nach einer der Ausführungsformen 1 bis 5 durchzuführen.
  • Das Verfahren kann von einer Datenverarbeitungsvorrichtung durchgeführt werden, z.B. in einem der Fahrzeuge oder in einer zentralisierten Vorrichtung oder auf verteilte Weise. Beispielsweise kann jedes Fahrzeug seine eigene Position schätzen, und eine zentrale Einheit implementiert das Maschinenlernmodell und führt die Kombination der Positionsschätzungen und der Informationen über die relativen Positionen durch. Die (zusätzlichen) Informationen über die relativen Positionen können von wenigstens einigen der Fahrzeuge bestimmt und an die Zentraleinheit gesendet werden.
  • Ausführungsform 7 ist ein Computerprogramm, das Anweisungen umfasst, die bei Ausführung durch einen Computer bewirken, dass der Computer ein Verfahren gemäß einer der Ausführungsformen 1 bis 5 ausführt.
  • Ausführungsform 8 ist ein computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen Computer bewirken, dass der Computer ein Verfahren gemäß einer der Ausführungsformen 1 bis 5 ausführt.
  • In den Zeichnungen beziehen sich in allen verschiedenen Ansichten gleiche Bezugszeichen im Allgemeinen auf die gleichen Teile. Die Zeichnungen sind nicht unbedingt maßstabsgerecht, stattdessen wird im Allgemeinen das Augenmerk auf die Darstellung der Prinzipien der Erfindung gelegt. In der nachfolgenden Beschreibung werden verschiedene Aspekte unter Bezugnahme auf die folgenden Zeichnungen beschrieben; hierbei gilt:
    • 1 zeigt ein Steuerungsszenario gemäß einer Ausführungsform.
    • 2 veranschaulicht die Positionsbestimmung eines Fahrzeugs mit Hilfe eines neuronalen Netzes ohne Sensorfusion.
    • 3 veranschaulicht die Positionsbestimmung eines Fahrzeugs mit Hilfe eines neuronalen Netzes mit Sensorfusion.
    • 4 zeigt ein Beispiel mit vier Fahrzeugen auf einer Baustelle.
    • 5 zeigt ein Ablaufdiagramm, das ein Verfahren zum Bestimmen der Position von mehreren Fahrzeugen veranschaulicht.
  • Die folgende ausführliche Beschreibung bezieht sich auf die beigefügten Zeichnungen, die zu Veranschaulichungszwecken spezifische Einzelheiten und Aspekte der vorliegenden Offenbarung darstellen, in denen die Erfindung praktisch ausgeführt werden kann. Andere Aspekte können verwendet werden, und strukturelle, logische und elektrische Änderungen können vorgenommen werden, ohne den Schutzbereich der Erfindung zu verlassen. Die verschiedenen Aspekte der vorliegenden Offenbarung schließen sich nicht notwendigerweise gegenseitig aus, da einige Aspekte dieser Offenbarung mit einem oder mehreren anderen Aspekt(en) der Offenbarung kombiniert werden können, um neue Aspekte zu bilden.
  • Im Folgenden werden verschiedene Beispiele ausführlicher beschrieben.
  • 1 zeigt ein Steuerungsszenario in einer Baustellenumgebung 101.
  • Ein Baufahrzeug 100 befindet sich in der Umgebung 101. Das Fahrzeug 100 hat eine Startposition 102 und sollte zum Beispiel Sandhaufen 103 verräumen. Die Umgebung 101 kann auch Hindernisse 104 enthalten, die vom Fahrzeug 100 umfahren werden sollten. Sie dürfen beispielsweise vom Fahrzeug 100 nicht befahren werden (z.B. Mauern, Bäume oder Felsen) oder sollten gemieden werden, weil das Fahrzeug sie beschädigen oder verletzen (z.B. Arbeitskräfte) würde.
  • Das Fahrzeug 100 hat eine Steuerung 105 (die auch von dem Fahrzeug 100 entfernt sein kann, d.h. das Fahrzeug 100 kann ferngesteuert sein). Die Steuerung 105 kann betrachtet werden, dass sie einen Agenten implementiert, der das Fahrzeug 100 steuert. Die Begriffe „Steuerung“ und „Agent“ werden im Folgenden austauschbar verwendet. In dem beispielhaften Szenario von 1 besteht das Ziel darin, dass die Steuerung 105 das Fahrzeug 100 so steuert, dass es in der Umgebung 101 navigiert, um die Sandhaufen 103 zu verräumen, d.h. eine Planieraufgabe ausführt. In diesem Beispiel ist das Fahrzeug 100 eine autonome Planierraupe, es kann jedoch auch ein Fahrzeug mit Beinen oder Raupen oder einer anderen Art von Antriebssystem sein (etwa ein Tiefsee- oder Marsrover).
  • Die Steuerung (oder der Agent) 105 kann das Fahrzeug 100 steuern, z.B. um eine Aufgabe (etwa das Planieren) autonom durchzuführen. Beispielsweise kann sie das Fahrzeug 100 anhand von Beobachtungen steuern, d.h. sie empfängt eine Beobachtung (z.B. eine Höhenkarte, die eine Kamera 105 beobachtet), wählt eine oder mehrere Aktionen für die Beobachtung aus und steuert das Fahrzeug 100, um die ein oder mehreren Aktionen auszuführen (z.B. in eine bestimmte Richtung um eine bestimmte Entfernung zu verfahren).
  • Damit die richtigen Entscheidungen getroffen werden, muss das Fahrzeug 100 jedoch eine Positionsbestimmung durchführen, d.h. seine Position und/oder Orientierung in der Umgebung 101 bestimmen. Zu diesem Zweck ist das Fahrzeug 100 mit einem oder mehreren Sensoren, etwa einer Trägheitsmesseinheit (IMU, Inertial Measurement Unit), ausgestattet, mit deren Hilfe es seine Position bestimmen kann. Allerdings können Messungen Fehler enthalten, insbesondere in einer schwierigen Umgebung wie einer Baustelle, wo der Boden uneben ist, und andererseits können Fehler bei der Positionsbestimmung schwerwiegende Folgen haben (etwa dass ein Fahrzeug in eine Grube stürzt).
  • 2 veranschaulicht die Positionsbestimmung eines Fahrzeugs mit Hilfe eines neuronalen Netzes 201.
  • Eine IMU des Fahrzeugs stellt (rohe) IMU-Daten 202 an ein neuronales Netz 201 bereit. Das neuronale Netz 201 empfängt ferner eine Anfangsbedingung 203 (z.B. eine Anfangsposition) und leitet unter Verwendung der IMU-Daten 202 eine aktuelle Position des Fahrzeugs ab, d.h. es macht eine Vorhersage für die aktuelle Position des Fahrzeugs.
  • Um das neuronale Netz 201 für diese Vorhersage zu trainieren, können die Positionsvorhersagen durch das neuronale Netz 201 mit (Referenz-)Positionen 204 (die z.B. mit einem anderen Sensor bestimmt wurden) oder wahren Positionen, wenn das neuronale Netz 201 mit bekannten Positionen trainiert wird (z.B. in einer Simulation), als Labels verglichen werden, um einen Verlust 205 zu berechnen, wobei das neuronale Netz 201 so trainiert wird, dass der Verlust 205 reduziert wird.
  • Der Ansatz von 2 kann zwar gute Ergebnisse liefern, aber es ist zu beachten, dass er sich (bei der Inferenz) nur auf (IMU-)Messungen des Fahrzeugs selbst stützt.
  • Gemäß verschiedenen Ausführungsformen wird die Genauigkeit und Robustheit der Positionsbestimmung gegenüber dem Ansatz von 2 verbessert (und die Unsicherheit der Positionsbestimmung verringert), indem Informationen mehrerer Fahrzeuge und gegenseitige Informationen, etwa Informationen über räumliche Beziehungen der Fahrzeuge, z.B. mehrerer Baufahrzeuge auf einer Baustelle, verwendet werden. So wird insbesondere eine Sensorfusion durchgeführt (wobei die (IMU-) Sensoren, deren Daten fusioniert werden, die Sensoren mehrerer Fahrzeuge sind), um eine verbesserte Positionsbestimmung für jedes der Fahrzeuge zu erhalten (d.h. für jedes Fahrzeug, das an dem Sensorfusionsschema teilnimmt).
  • Die Sensorfusion kann nach der Schätzung durchgeführt werden, wobei jeder Sensor eine Positionsschätzung und eine Schätzung seiner Unsicherheit bereitstellt. In einer Nachverarbeitungsphase werden diese Schätzungen fusioniert, um eine zentralisierte integrative Lösung zu bilden, deren Zweck es ist, die Genauigkeit zu verbessern und die Unsicherheit der einzelnen Lösungen zu verringern, um eine sicherere Lösung zu erhalten. Die Sensorfusion kann auch auf der Ebene der Rohsensordaten durchgeführt werden, wobei eine zentralisierte Fusion die Rohsensordaten von jedem Sensor (oder Fahrzeug) übernimmt, damit eine Lösung viele Sensoren nutzen kann.
  • Gemäß verschiedenen Ausführungsformen werden Rohsensormesswerte (d.h. IMU-Messdaten) mit Zusatzinformationen (z.B. Reichweite, grobe Position usw.) in ein neuronales Netz (NN) eingespeist, um eine genauere Position auszugeben und die Unsicherheit für jedes der Fahrzeuge zu verringern. Zu den Zusatzinformationen gehören insbesondere Informationen über die relativen Positionen der Fahrzeuge, z.B. in Form von Entfernungsmessungen zwischen den Fahrzeugen oder in Form von globalen Informationen, die von einer zentralen Stelle über die Positionen der Fahrzeuge bereitgestellt werden.
  • 3 veranschaulicht die Positionsbestimmung eines Fahrzeugs mit Hilfe eines neuronalen Netzes 201.
  • Ein neuronales Netz (oder ein anderes (Maschinenlern-) Fusionsmodell, linear oder nicht-linear) 301 empfängt die (rohen) Sensordaten 302 von Sensoren (IMU-Messwerte) mehrerer Fahrzeuge. Die Rohsensordaten (IMU-Sensorwerte) der Sensoren der verschiedenen Fahrzeuge werden beispielsweise gestapelt, und der resultierende Stapel von Sensordaten 302 wird in das neuronale Netz 301 eingespeist. Das neuronale Netz 301 empfängt ferner eine Anfangsbedingung (Anfangsposition) 303 für jedes Fahrzeug sowie Zusatzinformationen 306. Die Ausgabe des neuronalen Netzes ist eine Vorhersage für die Position jedes der Fahrzeuge. Ähnlich wie das neuronale Netz 201 kann das neuronale Netz 301 unter Verwendung von Labels trainiert werden, die Referenzpositionen enthalten (wobei das Label für eine Trainingseingabe nun eine Referenzposition für jedes Fahrzeug enthält, d.h. das Label 305 ist ein Stapel von einzelnen Positionen), wobei ein Verlust 304 durch Vergleich der Labels mit den vorhergesagten Positionen berechnet wird. Das neuronale Netz 301 wird trainiert, um den Verlust zu verringern und so die Position jedes Fahrzeugs genauer vorherzusagen.
  • Die Zusatzinformationen 306 enthalten Informationen über die relativen Positionen der mehreren Fahrzeuge, die es dem neuronalen Netz 301 ermöglichen, die Sensordaten 302 als Sensordaten eines (pseudo-)starren Körpers zu behandeln.
  • 4 zeigt ein Beispiel mit vier Fahrzeugen 401 bis 404 auf einer Baustelle 400.
  • Ohne Sensorfusion, z.B. bei Verwendung des Ansatzes von 4, hat jedes Fahrzeug 401 bis 404 seine eigene Schätzung über seine Position und ein gewisses Maß an Unsicherheit. Mit dem Ansatz von 3 nutzt jedes Fahrzeug 401 bis 404 die Sensormessdaten aller (oder wenigstens einiger) anderen Fahrzeuge. Die Zusatzinformationen 306 umfassen in diesem Beispiel etwa, wie angegeben, den gegenseitigen Abstand 405 (z.B. durch eine Radarmessung gegeben) zwischen dem dritten Fahrzeug 403 und dem vierten Fahrzeug 404. Diese Zusatzinformationen sind ebenfalls mit Unsicherheiten behaftet, die bei der Positionsvorhersage berücksichtigt werden können (z.B. als Teil der Zusatzinformationen 306 und damit durch das neuronale Netz 301).
  • Der hier beschriebene Ansatz muss nicht notwendigerweise auf ein neuronales Netz angewandt werden, sondern kann auf jedes ML (Maschinenlern)-Modell oder jeden Algorithmus angewandt werden, das bzw. der die Eingaben von mehreren Sensoren zur Verbesserung der Genauigkeit nutzen kann. Wie oben beschrieben, gehören diese Sensoren zu mehreren Fahrzeugen (oder Agenten), d.h. mehreren Fahrzeugen, die sich auf derselben Baustelle befinden. Die Agenten können symmetrisch sein (d.h. vom gleichen Typ, z.B. mehrere Planierraupen, Kipper oder andere) oder nicht-symmetrisch (z.B. eine beliebige Kombination von Fahrzeugen, z.B. Planierraupen und Kipper, die zusammenarbeiten, wobei jedes seine Aufgabe hat, aber beide mit einem oder mehreren Sensoren ausgestattet sind, die Sensordaten für die Positionsbestimmung liefern (etwa eine IMU)). Der hier beschriebene Ansatz zur Positionsbestimmung kann in jedem Geländeszenario angewendet werden, in dem solche Sensoren zur Verfügung stehen und einige andere Hilfssensoren (die die Zusatzinformationen liefern) verwendet werden könnten. Beispiele für solche Zusatzsensoren sind GPS, Lidar, Entfernungsmessungen (z.B. Radar) oder jeder andere Sensor, der geometrische Informationen über die Beziehungen der Agenten zueinander bereitstellt (was indirekt durch die Angabe der Positionen der Agenten in einem gemeinsamen Referenzrahmen geschehen kann).
  • Zusammenfassend wird gemäß verschiedenen Ausführungsformen ein Verfahren bereitgestellt wie in 5 dargestellt.
  • 5 zeigt ein Ablaufdiagramm 500, das ein Verfahren zum Bestimmen der Position von mehreren Fahrzeugen veranschaulicht.
  • In 501 wird für jedes Fahrzeug eine Messung mit einer Trägheitsmesseinheit durchgeführt und wird die Position des Fahrzeugs anhand der Messung mit einer Trägheitsmesseinheit geschätzt.
  • In 502 werden eine oder mehrere Messungen durchgeführt, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern.
  • In 503 werden die geschätzten Positionen und die Informationen über die relativen Positionen der mehreren Fahrzeuge an ein Maschinenlernmodell bereitgestellt, das darauf trainiert ist, eine Position für jedes Fahrzeug auszugeben, wenn es mit Positionsschätzungen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.
  • Verschiedene Ausführungsformen können Bilddaten (d.h. digitale Bilder) von verschiedenen visuellen Sensoren (Kameras) wie etwa Video, Radar, LiDAR, Ultraschall, Wärmebild, Bewegung, Sonar usw. empfangen und verwenden, um die Informationen über die relativen Positionen zu bestimmen.
  • Gemäß einer Ausführungsform wird das Verfahren durch einen Computer implementiert.
  • Obwohl hier spezifische Ausführungsformen veranschaulicht und beschrieben wurden, ist für den Durchschnittsfachmann erkennbar, dass vielfältige alternative und/oder äquivalente Implementierungen die dargestellten und beschriebenen spezifischen Ausführungsformen ersetzen können, ohne vom Schutzbereich der vorliegenden Erfindung abzuweichen. Die vorliegende Anmeldung soll jegliche Anpassungen oder Varianten der hier besprochenen spezifischen Ausführungsformen abdecken. Deshalb ist es beabsichtigt, dass die vorliegende Erfindung nur durch die Ansprüche und ihre Äquivalente eingeschränkt wird.

Claims (8)

  1. Verfahren zum Bestimmen der Position von mehreren Fahrzeugen, umfassend: Durchführen, für jedes Fahrzeug, einer Messung mit einer Trägheitsmesseinheit und Schätzen der Position des Fahrzeugs anhand der Messung mit der Trägheitsmesseinheit; Durchführen einer oder mehrerer Messungen, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern; und Bereitstellen der geschätzten Positionen und der Informationen über die relativen Positionen der mehreren Fahrzeuge an ein Maschinenlernmodell, das darauf trainiert ist, eine Position für jedes Fahrzeug auszugeben, wenn es mit Positionsschätzungen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.
  2. Verfahren nach Anspruch 1, wobei die ein oder mehreren Messungen, die Informationen über die relativen Positionen der mehreren Fahrzeuge liefern, Entfernungsmessungen zwischen Paaren von Fahrzeugen der mehreren Fahrzeuge umfassen.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Maschinenlernmodell ein neuronales Netz ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Fahrzeuge Baufahrzeuge sind und die Positionen Positionen auf einer Baustelle sind.
  5. Verfahren nach einem der Ansprüche 1 bis 4, umfassend, für jedes Fahrzeug, Schätzen der Pose des Fahrzeugs anhand der Messung mit der Trägheitsmesseinheit und Bereitstellen der geschätzten Posen und der Informationen über die relativen Posen der mehreren Fahrzeuge an das Maschinenlernmodell, wobei das Maschinenlernmodell darauf trainiert ist, eine Pose für jedes Fahrzeug auszugeben, wenn es mit Posen für jedes Fahrzeug und Informationen über die relativen Positionen der Fahrzeuge versorgt wird.
  6. Datenverarbeitungsanordnung, die dafür ausgelegt ist, ein Verfahren nach einem der Ansprüche 1 bis 5 auszuführen.
  7. Computerprogramm, das Anweisungen umfasst, die bei Ausführung durch einen Computer bewirken, dass der Computer ein Verfahren gemäß einem der Ansprüche 1 bis 5 ausführt.
  8. Computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen Computer bewirken, dass der Computer ein Verfahren gemäß einem der Ansprüche 1 bis 5 ausführt.
DE102022208387.3A 2022-08-11 2022-08-11 Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen Pending DE102022208387A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022208387.3A DE102022208387A1 (de) 2022-08-11 2022-08-11 Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208387.3A DE102022208387A1 (de) 2022-08-11 2022-08-11 Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen

Publications (1)

Publication Number Publication Date
DE102022208387A1 true DE102022208387A1 (de) 2024-02-22

Family

ID=89808855

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208387.3A Pending DE102022208387A1 (de) 2022-08-11 2022-08-11 Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen

Country Status (1)

Country Link
DE (1) DE102022208387A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9606217B2 (en) 2012-05-01 2017-03-28 5D Robotics, Inc. Collaborative spatial positioning
US20220028263A1 (en) 2020-07-14 2022-01-27 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for distributed cooperative localization in a connected vehicular platform

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9606217B2 (en) 2012-05-01 2017-03-28 5D Robotics, Inc. Collaborative spatial positioning
US20220028263A1 (en) 2020-07-14 2022-01-27 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for distributed cooperative localization in a connected vehicular platform

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHEN, C. [et al.]: IONet: Learning to Cure the Curse of Drift in Inertial Odometry, arXiv:1802.02209v1, 30.01.2018.
FAYYAD, J. [et al.]: Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review. Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review. Sensors, Vol. 20, 4220, S. 1-35, 2020. [online]. DOI: https://doi.org/10.3390/s20154220
LIU, R. [et al.]: Cooperative relative positioning of mobile users by fusing IMU inertial and UWB ranging information. IEEE International Conference on Robotics and Automation (ICRA), Singapore, 2017, S. 5623-5629. IEEE Xplore [online]. DOI: 10.1109/ICRA.2017.7989660, In: IEEE
OLSSON, F. [et al.]: Cooperative localization using a foot-mounted inertial navigation system and ultrawideband ranging. International Conference on Indoor Positioning and Indoor Navigation (IPIN), Busan, Korea (South), 2014, S. 122-131, DOI: 10.1109/IPIN.2014.7275476, In: IEEE
SONG, S. [et al.]: Efficient Velocity Estimation and Location Prediction in Underwater Acoustic Sensor Networks. in IEEE Internet of Things Journal, Vol. 9, 2022, No. 4, S. 2984-2998. IEEE Xplore [online]. DOI: 10.1109/JIOT.2021.3094305, In: IEEE
WU, S. [et al.]: Distributed Multi-Sensor Fusion for Improved Collaborative GPS-Denied Navigation. Proceedings of the 2009 International Technical Meeting of The Institute of Navigation, Anaheim, CA, 2009, S. 109-123. [online]

Similar Documents

Publication Publication Date Title
DE102017008475B4 (de) Maschinenlernvorrichtung, robotersystem und maschinenlernverfahren zum erlernen eines roboter-betriebsprogramms
DE3686213T2 (de) Navigationseinrichtung.
DE102016009106A1 (de) Mit Steuerung ausgerüstete Bearbeitungsvorrichtung mit Bearbeitungszeit- Messfunktion und Messfunktion auf der Maschine
DE102016008994A1 (de) Werkzeugmaschine, simulationsvorrichtung und maschineneinlerngerät
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE112020000310T5 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Verfahren zur Erzeugung eines gelernten Modells und Datensatz zum Lernen
DE102019209736A1 (de) Verfahren zur Bewertung möglicher Trajektorien
WO2019192905A1 (de) Verfahren zur kalibrierung eines positionssensors in einem fahrzeug, computerprogramm, speichermittel, steuergerät und kalibrierstrecke
WO2018072793A1 (de) Verfahren und vorrichtung zur erzeugung einer fahrzeugumgebungsansicht bei einem fahrzeug
WO2014079632A1 (de) Autonomes Fortbewegungsgerät
DE102018200060B4 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
DE102022108656A1 (de) Neuronales quantilnetz
DE102018128535B4 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
EP3575912A1 (de) Mähroboter
DE102021004426A1 (de) Verfahren zum Trainieren einer autonomen Fahrfunktion
DE102022208387A1 (de) Vorrichtung und Verfahren zum Bestimmen der Position von mehreren Fahrzeugen
DE112020006315T5 (de) Robotersteuervorrichtung, robotersteuerverfahren und vorrichtung zur erzeugung von lernmodellen
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102019207410A1 (de) Verfahren und Vorrichtung für eine automatisierte Beeinflussung eines Aktuators
DE102017201886B3 (de) Verfahren zur Ermittlung einer Genauigkeitsinformation eines Positionsvektors
DE102021111114A1 (de) Fahrspurunbestimmtheitsmodellierung und -verfolgung in einem Fahrzeug
EP0207521A1 (de) Zielvermessungssystem
DE112019005057T5 (de) Bewegungssteuerungsverfahren, Bewegungssteuervorrichtung, Bewegungssteuersystem, Programm und Speichermedium für mehrere Fahrzeuge
DE102018109845A1 (de) Kartierungsverfahren

Legal Events

Date Code Title Description
R163 Identified publications notified