DE102022206305A1 - Verfahren zum Steuern einer Robotervorrichtung - Google Patents

Verfahren zum Steuern einer Robotervorrichtung Download PDF

Info

Publication number
DE102022206305A1
DE102022206305A1 DE102022206305.8A DE102022206305A DE102022206305A1 DE 102022206305 A1 DE102022206305 A1 DE 102022206305A1 DE 102022206305 A DE102022206305 A DE 102022206305A DE 102022206305 A1 DE102022206305 A1 DE 102022206305A1
Authority
DE
Germany
Prior art keywords
value
range
outside
controlling
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206305.8A
Other languages
English (en)
Inventor
Stephanie Abrecht
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022206305.8A priority Critical patent/DE102022206305A1/de
Priority to PCT/EP2023/062327 priority patent/WO2023247102A1/de
Publication of DE102022206305A1 publication Critical patent/DE102022206305A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Steuern einer Robotervorrichtung beschrieben, aufweisend Empfangen von Sensordaten, Verarbeiten der Sensordaten durch ein maschinelles Lernmodell zu einem Verarbeitungsergebnis für eine Steuerung der Robotervorrichtung, Ermitteln einer ersten Werts, der eine Konfidenz des maschinellen Lernmodells repräsentiert, dass das Verarbeitungsergebnis korrekt ist, Ermitteln eines zweiten Werts, der eine Abweichung der Sensordaten von Trainingsdaten, mittels denen das maschinelle Lernmodell trainiert wurde, repräsentiert, Ermitteln, ob der erste Wert außerhalb eines ersten Bereichs liegt, der eine vorgegebene Mindestkonfidenz repräsentiert, oder der zweite Wert außerhalb eines zweiten Bereichs liegt, der eine vorgegebene Höchstabweichung repräsentiert und Aktivieren mindestens einer Sicherheitsmaßnahme für die Steuerung der Robotervorrichtung, falls der erste Wert außerhalb des ersten Bereichs liegt oder der zweite Wert außerhalb des zweiten Bereichs liegt.

Description

  • Stand der Technik
  • Die vorliegende Offenbarung bezieht sich auf Verfahren zum Steuern einer Robotervorrichtung.
  • Autonome oder hochautomatisierte Systeme wie Robotervorrichtungen, z.B. Drohnen oder autonome Fahrzeuge, benötigen Wahrnehmungsfähigkeiten für die Umgebung, in der sie arbeiten bzw. sich bewegen. Ein typischer Ansatz hierfür ist die Verwendung von Algorithmen des maschinellen Lernens (ML) wie Objektdetektion oder semantische Segmentierung. Insbesondere bei tiefen neuronale Netzwerke (DNNs) in sicherheitskritischen Anwendungen gibt es jedoch Sicherheitsbedenken: ML-Algorithmen und damit auch DNNs basieren auf statistischen Methoden, bei denen ein Modell (wie ein DNN) lernt, aus einem gegebenen Datensatz während des Trainingsprozesses zu extrahieren. Da das Modell selbstlernend ist, sind bestimmte Entscheidungen des Modells bei der Extraktion, d.h. eines von dem Modell ausgegebenen (Wahrnehmungs)-Ergebnisses, nicht intuitiv zu verstehen. Sobald falsche Entscheidungen für ein Ergebnis getroffen werden, entstehen Risiken für die Sicherheit des Systems, für das es eingesetzt wird. Daher ist es wünschenswert, beurteilen zu können, wie vertrauenswürdig ein aktuelles Ergebnis ist. Bei einer unsicheren Vorhersage kann das System Funktionen einschränken oder sich auf redundante Wahrnehmungs- oder Steuerungsfunktionen stützen.
  • Die Veröffentlichung von D. Feng, L. Rosenbaum und K. Dietmayer, „Towards safe autonomous driving: Capture uncertainty in the deep neural network for lidar 3d vehicle detection,“ CoRR, vol. abs/1804.05132, 2018, , im Folgenden als Referenz 1 bezeichnet, beschreibt Ansätze zur Ermittlung der Konfidenz von Ergebnissen von neuronalen Netzwerken.
  • Jedoch kann der Fall auftreten, dass auch einer solchen Konfidenz nicht vertraut werden kann, nämlich in dem Fall, dass die Eingabe, auf der das Ergebnis und auch seine Konfidenz basiert, stark unterschiedlich ist von den Trainingsdaten (insbesondere der Testdaten), mit denen das neuronale Netzwerk trainiert wurde.
  • Es sind deshalb Ansätze wünschenswert, die bei der Steuerung einer Robotervorrichtung zuverlässig Information darüber einbeziehen, ob Ergebnissen eines neuronalen Netzwerks (oder allgemein eines maschinellen Lernmodells), die für die Steuerung verwendet werden sollen, vertraut werden kann.
  • Offenbarung der Erfindung
  • Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Steuern einer Robotervorrichtung bereitgestellt, aufweisend Empfangen von Sensordaten, Verarbeiten der Sensordaten durch ein maschinelles Lernmodell zu einem Verarbeitungsergebnis für eine Steuerung der Robotervorrichtung, Ermitteln einer ersten Werts, der eine Konfidenz des maschinellen Lernmodells repräsentiert, dass das Verarbeitungsergebnis korrekt ist, Ermitteln eines zweiten Werts, der eine Abweichung der Sensordaten von Trainingsdaten, mittels denen das maschinelle Lernmodell trainiert wurde, repräsentiert, Ermitteln, ob der erste Wert außerhalb eines ersten Bereichs liegt, der eine vorgegebene Mindestkonfidenz repräsentiert, oder der zweite Wert außerhalb eines zweiten Bereichs liegt, der eine vorgegebene Höchstabweichung repräsentiert und Aktivieren mindestens einer Sicherheitsmaßnahme für die Steuerung der Robotervorrichtung, falls der erste Wert außerhalb des ersten Bereichs liegt oder der zweite Wert außerhalb des zweiten Bereichs liegt.
  • Durch die Prüfung sowohl eines Wertes, der eine Konfidenz des Verarbeitungsergebnisses repräsentiert, und eines Wertes der repräsentiert, wie stark die jeweiligen Eingabedaten für das maschinelle Lernmodell von seinen Trainingsdaten abweichen, wird gewährleistet, dass wenn für ein Verarbeitungsergebnis eine hohe Konfidenz ermittelt wird, z.B. das maschinelle Lernmodell eine hohe Konfidenz ausgibt, auch sichergestellt wird, dass das maschinelle Lernmodell in einem Bereich arbeitet, für den dieser Konfidenz vertraut werden kann. In anderen Worten wird also nicht nur eine Konfidenz für das Ergebnis selbst, sondern auch für diese Konfidenz (in Form des zweiten Wertes) ermittelt und nur wenn beide Konfidenzen ausreichend hoch sind (d.h. eine Mindestkonfidenz erfüllt ist (oder äquivalent eine Höchstunsicherheit nicht überschritten wird) und eine Höchstabweichung nicht überschritten wird), wird das Verarbeitungsergebnis ohne weitere Maßnahmen für die Steuerung verwendet.
  • Die Trainingsdaten können die für das eigentliche Training verwendeten Daten, die Validierungsdaten und/oder die Testdaten sein oder beinhalten.
  • Im Folgenden werden verschiedene Ausführungsbeispiele angegeben.
  • Ausführungsbeispiel 1 ist ein Verfahren zum Steuern einer Robotervorrichtung, wie oben beschrieben.
  • Ausführungsbeispiel 2 ist ein Verfahren nach Ausführungsbeispiel 1, wobei die Sicherheitsmaßnahme aufweist, dass das Verarbeitungsergebnis für die Steuerung der Robotervorrichtung verworfen wird.
  • Damit wird vermieden, dass Ergebnisse des neuronalen Netzwerks, für die die Annahme nicht berechtigt ist, dass sie zuverlässig sind, die Steuerung der Robotervorrichtung negativ beeinflussen und z.B. zu Gefährdungen führen.
  • Ausführungsbeispiel 3 ist ein Verfahren nach Ausführungsbeispiel 1 oder 2, wobei die Sicherheitsmaßnahme aufweist, dass weitere Sensordaten beschafft werden und die Robotervorrichtung unter Verwendung der weiteren Sensordaten gesteuert wird.
  • Damit kann bei Sensordaten, die kein verlässliches Verarbeitungsergebnis des neuronalen Netzwerks ermöglichen, eine sichere Steuerung erreicht werden, indem die Sensordaten ergänzt werden.
  • Ausführungsbeispiel 4 ist ein Verfahren nach einem der Ausführungsbeispiele 1 bis 3, aufweisend Steuern der Robotervorrichtung unter Verwendung des Verarbeitungsergebnisses ohne die Aktivieren der Sicherheitsmaßnahme, falls der erste Wert nicht außerhalb eines ersten Bereichs liegt, und der zweite Wert nicht außerhalb des zweiten Bereichs liegt.
  • Damit wird eine effiziente Steuerung erreicht, sofern sowohl die Konfidenz in das Verarbeitungsergebnis ausreichend hoch ist und die Eingabe des maschinellen Lernmodells sich innerhalb des Bereichs befindet, für den das maschinelle Lernmodell trainiert wurde.
  • Ausführungsbeispiel 5 ist ein Verfahren nach einem der Ausführungsbeispiele 1 bis 4, wobei das maschinelle Lernmodell ein neuronales Netzwerk ist.
  • Ein neuronales Netzwerk ermöglicht eine effiziente Datenverarbeitung für Steuerungsaufgaben (z.B. für Wahrnehmungsaufgaben für eine Steuerung). Außerdem gibt es dafür effektive Ansätze, um eine Konfidenz dafür, das ein jeweiliges Verarbeitungsergebnis korrekt ist, sowie eine Abweichung der Eingabedaten (Sensordaten) von Trainingsdaten zu ermitteln.
  • Ausführungsbeispiel 6 ist ein Verfahren nach einem der Ausführungsbeispiele 1 bis 5, aufweisend Trainieren des maschinellen Lernmodells mit den Trainingsdaten.
  • Ausführungsbeispiel 7 ist eine Robotersteuereinrichtung, die eingerichtet ist, ein Verfahren nach einem der Ausführungsbeispiele 1 bis 6 durchzuführen.
  • Ausführungsbeispiel 8 ist ein Computerprogramm mit Befehlen, die, wenn sie durch einen Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren nach einem der Ausführungsbeispiele 1 bis 6 durchführt.
  • Ausführungsbeispiel 9 ist ein computerlesbares Medium, das Befehle speichert, die, wenn sie durch einen Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren nach einem der Ausführungsbeispiele 1 bis 6 durchführt.
  • In den Zeichnungen beziehen sich ähnliche Bezugszeichen im Allgemeinen auf dieselben Teile in den ganzen verschiedenen Ansichten. Die Zeichnungen sind nicht notwendigerweise maßstäblich, wobei die Betonung stattdessen im Allgemeinen auf die Darstellung der Prinzipien der Erfindung gelegt wird. In der folgenden Beschreibung werden verschiedene Aspekte mit Bezug auf die folgenden Zeichnungen beschrieben.
    • 1 zeigt ein Fahrzeug.
    • 2 veranschaulicht die Beurteilung einer Ausgabe eines neuronalen Netzwerks.
    • 3 zeigt ein Ablaufdiagramm, das ein Verfahren zum Steuern einer Robotervorrichtung darstellt.
  • Die folgende ausführliche Beschreibung bezieht sich auf die begleitenden Zeichnungen, die zur Erläuterung spezielle Details und Aspekte dieser Offenbarung zeigen, in denen die Erfindung ausgeführt werden kann. Andere Aspekte können verwendet werden und strukturelle, logische und elektrische Änderungen können durchgeführt werden, ohne vom Schutzbereich der Erfindung abzuweichen. Die verschiedenen Aspekte dieser Offenbarung schließen sich nicht notwendigerweise gegenseitig aus, da einige Aspekte dieser Offenbarung mit einem oder mehreren anderen Aspekten dieser Offenbarung kombiniert werden können, um neue Aspekte zu bilden.
  • Im Folgenden werden verschiedene Beispiele genauer beschrieben.
  • 1 zeigt ein Fahrzeug 101.
  • Das Fahrzeug 101, beispielsweise ein PKW oder LKW, ist mit einer Fahrzeugsteuereinrichtung 102 versehen.
  • Die Fahrzeugsteuereinrichtung 102 weist Datenverarbeitungskomponenten auf, z.B. einen Prozessor (z.B. eine CPU (Zentraleinheit)) 103 und einen Speicher 104 zum Speichern von Steuersoftware, gemäß der die Fahrzeugsteuereinrichtung 102 arbeitet, und Daten, die von dem Prozessor 103 verarbeitet werden.
  • Beispielsweise weist die gespeicherte Steuerungssoftware (Computerprogramm)-Anweisungen auf, die, wenn der Prozessor sie ausgeführt, bewirken, dass der Prozessor 103 ein neuronales Netzwerks 107 implementiert.
  • Die im Speicher 104 gespeicherten Daten können beispielsweise Bilddaten beinhalten, die von einer oder mehreren Kameras 105 erfasst werden. Die eine oder mehreren Kameras 105 können beispielsweise ein oder mehrere Graustufen- oder Farbfotos der Umgebung des Fahrzeugs 101 aufnehmen.
  • Die Fahrzeugsteuereinrichtung 102 kann basierend auf den Bilddaten ermitteln, ob und welche Objekte, z.B. feste Objekte wie Verkehrszeichen oder Straßenmarkierungen oder bewegliche Objekte wie Fußgänger, Tiere und andere Fahrzeuge in der Umgebung des Fahrzeugs 101 vorhanden sind, d.h. eine Objektdetektion durchführen.
  • Das Fahrzeug 101 kann dann von der Fahrzeugsteuereinrichtung 102 gemäß den Ergebnissen der Objektdetektion gesteuert werden. So kann die Fahrzeugsteuereinrichtung 102 beispielsweise einen Aktuator 106 (z.B. eine Bremse) steuern, um die Geschwindigkeit des Fahrzeugs zu steuern, z.B. um das Fahrzeug zu bremsen.
  • Ein falsches Ergebnis (z.B. Objektdetektion) eines neuronalen Netzwerks, wie das neuronale Netzwerk 107, das zur Wahrnehmung in einem hochautomatisierten System eingesetzt wird (z.B. im Fahrzeug 101), kann fatale Folgen haben. Daher sind zuverlässige Konfidenzwerte für die Ergebnisse wünschenswert. Diese können dann für eine Sicherheitszone für die Wahrnehmung dienen: Solange die Konfidenz für eine Ausgabe hoch ist, kann das System unter Verwendung der Ergebnisse des neuronalen Netzwerks arbeiten, aber sobald die Wahrnehmung unsicher ist, d.h. die Konfidenz unter einer Schwelle (bzw. außerhalb des Bereichs einer Mindestkonfidenz) ist, können Sicherheitsmaßnahmen ergriffen werden wie z.B. Funktionen des Systems eingeschränkt werden.
  • Eine grundlegende Schwäche von Ausgaben (d.h. Ergebnissen) neuronaler Netzwerke und deren Zuverlässigkeit ist, dass die Bewertung des neuronalen Netzwerks auf der Grundlage eines Test-Datensatzes nur unter bestimmten Annahmen auf neue und ungesehene Eingaben verallgemeinert werden kann. Diese Annahmen sind jedoch bei komplexen Anwendungen mit offenem Kontext wie dem automatisierten Fahren nicht berechtigt. Sobald jedoch Eingabedaten aus einer anderen Verteilung als der des Trainings-Datensatzes (inklusive TestDatensatz) stammen, kann einem Konfidenzmaß (d.h. einer Konfidenz einer Ausgabe des neuronalen Netzwerks) nicht mehr vertraut werden. So können (tiefe) neuronale Netzwerke insbesondere eine verteilungsfremde Eingabe (d.h. Eingaben außerhalb ihres Test- oder Trainingsdatensatzes) mit hoher Konfidenz (falsch) klassifizieren.
  • Ebenso können, auch wenn Konfidenzwerte für die Position eines Objekts berechnet werden können und die Kalibrierung des neuronalen Netzwerks auf dem Testdatensatz (d.h. für Eingaben innerhalb der Eingabedatenverteilung des Testdatensatzes) hinreichend gut ist, die Konfidenzwert in der praktischen Anwendung nicht ohne Risiko verwendet werden, da die Konfidenzwerte für Daten außerhalb der Eingabedatenverteilung des Testdatensatzes nicht mehr unbedingt zuverlässig sind.
  • Deshalb ist es gemäß verschiedenen Ausführungsformen vorgesehen, dass Konfidenzwerte für die Ausgabe eines neuronalen Netzwerks (z.B. eine Positions-/Klassenvorhersage) und für die Verteilung, aus der Eingaben stammen, kombiniert werden.
  • Es werden gemäß verschiedenen Ausführungsformen zwei Unsicherheitsmaße kombiniert, die gemeinsam einen sicheren Wahrnehmungsbereich definieren. Die können die Basis zur Beurteilung der Anwendung von weiteren Maßnahmen oder Verfahren für die Verkleinerung des Bereichs, in dem ein neuronales Netzwerk nicht sicher arbeitet (insbesondere Bereiche von Eingabedaten mit niedrigen Konfidenzen), bilden, indem sie als KPls (key performance indicators) für solche Maßnahmen oder Verfahren verwendet werden. Wenn die Anzahl der unsicheren Situationen, für die die Unsicherheitsmaß anzeigen, dass das neuronale Netzwerk nicht im sicheren Bereich arbeitet oder die Werte der Unsicherheitsmaße niedriger wird, kann dies so interpretiert werden, dass solche Maßnahmen oder Verfahren erfolgreich die Zuverlässigkeit des neuronalen Netzwerks und damit die Sicherheit der Steuereinrichtung, die das neuronale Netzwerk einsetzt, erhöhen.
  • Wenn das neuronale Netzwerk auf dem Testdatensatz unsicher ist, können zusätzliche Maßnahmen vorgenommen werden, um die Leistungsfähigkeit und Sicherheit in Hinblick auf Sicherheitsbedenken in Bezug auf das neuronale Netzwerk zu verbessern. Nach Anwendung dieser Maßnahmen sollte entsprechend die Konfidenz des neuronalen Netzwerks verbessert sein (d.h. die Konfidenz sollte höher sein (d.h. die Unsicherheit geringer) bzw. weniger Fälle mit geringen hoher Unsicherheit sollten auftreten).
  • 2 veranschaulicht die Beurteilung einer Ausgabe 202 (d.h. eines Ergebnisses entsprechend einer bestimmten Aufgabe, z.B. eine Objektklassifizierung) eines neuronalen Netzwerks 201 für eine bestimmte Eingabe 203. Die Eingabe ist beispielsweise ein Kamerabild oder andere Sensordaten und die Ausgabe ist beispielsweise ein Vektor von Soft-Values für eine Klassifizierung, ein Bild, das eine Segmentierung des Eingabebilds darstellt, die Position von Bounding-Boxen etc., je nach Aufgabe des neuronalen Netzwerks 201.
  • Im Folgenden wir angenommen, das das neuronale Netzwerk 201 die Position eines Objekts schätzt. Die Ausgabe 202 ist also eine Positionsschätzung (z.B. in Form der Angabe einer Bounding-Box oder der Markierung des Objekts in einem Kamerabild).
  • Wie oben erwähnt, werden für das neuronale Netzwerk 201 die Werte zwei Unsicherheitsmaßen (oder äquivalent Konfidenzmaßen, dann tritt im Folgenden an Stelle von „Überschreiten eines Schwellwerts“ „Unterschreiten eines Schwellwerts“ etc.) berechnet: Der Wert u1 eines Unsicherheitsmaßes für die Positionsschätzung und der Wert u2 eines „Verteilungs“-Unsicherheitsmaßes dafür, dass die Eingabe 203 im Bereich eines Datensatzes liegt, mittels dem das neuronale Netzwerk 201 trainiert wurde. Ist die Unsicherheit gemäß dem Wert u2 hoch, so ist die Eingabe verteilungsfremd in Bezug auf eine Verteilung von Trainings-Eingabedaten (engl. out-of-distribution), sonst verteilungstreu (engl. indistribution).
  • Ist die Positionsunsicherheit u1 niedrig, so ist das neuronale Netzwerk 201 sich sicher bzgl. seiner Positionsschätzung. Ist die Verteilungs-Unsicherheit gemäß dem Wert u2 niedrig, so wird dieser (niedrigen) Positionsunsicherheit vertraut und Sicherheitsmaßnahmen (Einschränkung von Funktionen, Rückgriff auf redundante Informationen oder Steuerungseinrichtungen etc.) werden nur ergriffen, wenn die Positionsunsicherheit u1 einen Schwellwert y1 überschreitet.
  • Überschreitet der Wert u2 des Verteilungs-Unsicherheitsmaßes jedoch einen Schwellwert y2, so arbeitet das neuronale Netzwerk 201 (und entsprechend die Steuereinrichtung, die es verwendet, z.B. die Steuereinrichtung 102) nicht mehr in dem Bereich, für den es trainiert (und insbesondere erfolgreich getestet) wurde und dem Wert u1 des Unsicherheitsmaßes für die Positionsschätzung kann nicht mehr vertraut werden. Es werden dann (von der jeweiligen Steuereinrichtung, die einen entsprechenden Vergleich der Werte der Unsicherheitsmaße mit den Schwellwerten durchführt) Sicherheitsmaßnahmen ergriffen. Eine Sicherheitsmaßnahme kann es sein, dass die Steuereinrichtung sich auf Sensordaten von einem anderen Sensor stützt (als die, die die Eingabe 203 enthält) oder ein Warnsignal ausgibt (z.B. an eine übergeordnete Steuerungs- oder Planungseinrichtung oder einen Benutzer alarmiert wie z.B. den Fahrer im Falle eines Fahrzeugs oder ein Sicherheitsmanöver ausführt oder das Fahrzeug stoppt). Die Steuereinrichtung ermittelt also, ob u 1 > γ 1
    Figure DE102022206305A1_0001
    oder  u 2 > γ 2
    Figure DE102022206305A1_0002
    erfüllt ist. Ist dies der Fall, folgert die Steuereinrichtung (d.h. detektiert damit), dass das neuronale Netzwerk 201 außerhalb seines sicheren Bereichs arbeitet und ergreift entsprechende (Sicherheits-)maßnahmen. Stellt die Steuereinrichtung fest, dass beide Ungleichungen nicht erfüllt sind, so folgert sie, dass das neuronale Netzwerk 201 in seinem sicheren Bereich arbeitet und arbeitet normal (d.h. ergreift z.B. die Sicherheitsmaßnahmen nicht und verwendet das Ergebnis 202 des neuronalen Netzwerks 201 für die Steuerung der jeweiligen Robotervorrichtung).
  • Die Ermittlung, ob u2 > γ2 erfüllt ist, kann als Detektion dafür angesehen werden, dass die Eingabe 203 des neuronalen Netzwerks 201 außerhalb des Bereichs von Eingabedaten liegt, für den es trainiert wurde. Dies bedeutet z.B. , dass entsprechend die Robotervorrichtung außerhalb von Umgebungsbedingungen eingesetzt wird, für den sie (bzw. ihre Steuervorrichtung, die das neuronale Netzwerk implementiert) trainiert wurde.
  • Diese Ermittlung, insbesondere der Wert u2 der Verteilungs-Unsicherheit, kann unter Verwendung von Verfahren für epistemische Unsicherheit ermittelt werden, z.B. unter Verwendung von Ensembles oder Multi-Head-Ansätzen.
  • Die Verteilungs-Unsicherheit kann Rekonstruktions-basiert ermittelt werden: Beispielsweise kann mit Hilfe von Autoencodern ermittelt werden, ob ein Bild aus derselben Domäne kommt wie der Trainingsdatensatz. Ein Autoencoder komprimiert die Bilder des Trainingsdatensatzes und lernt sie wieder möglichst gut zu rekonstruieren. Kommt ein Bild aus einer anderen Domäne, dann hat die Rekonstruktion einen größeren Fehler.
  • Zur Anomaliedetektion kann auch ein entsprechender Term in die Verlustfunktion eines neuronalen Netzwerks aufgenommen werden.
  • Die Unsicherheit für die Position (oder eines jeweiligen anderen Ergebnisses des neuronalen Netzwerks) kann durch Konfidenzkalibrierung oder aleatorische Unsicherheitsansätze ermittelt werden. Beispiele für solche Ansätze im Zusammenhang mit autonomen Fahren sind in Referenz 1 beschrieben. Bei einer Klassifizierung mittels Soft-Values kann der jeweilige Wert selbst als Unsicherheit bzw. Konfidenz für das Ergebnis angesehen werden. Auch ein Bayessches neuronales Netzwerk kann z.B. dazu verwendet werden, für eine Ausgabe eine Unsicherheitsinformation zu erhalten.
  • Der jeweilige Ansatz zur Bestimmung der Unsicherheiten kann je nach Anwendung gewählt werden insbesondere so, dass die Steuereinrichtung Echtzeit-fähig ist, wenn dies erforderlich ist (d.h. Ergebnisse aus Sensordaten schnell genug ermittelt werden können).
  • Die Werte der Schwellwerte y1 und y2 können abhängig von der jeweiligen Anwendung gewählt werden. Sie können auf der Grundlage von Expertenwissen gesetzt werden oder durch eine statistisches Verfahren (das ggf. zusätzliche Daten verwendet) gelernt werden.
  • Zusammengefasst wird gemäß verschiedenen Ausführungsformen ein Verfahren bereitgestellt, wie in 3 dargestellt.
  • 3 zeigt ein Ablaufdiagramm 300, das ein Verfahren zum Steuern einer Robotervorrichtung darstellt.
  • In 301 werden Sensordaten empfangen.
  • In 302 werden die Sensordaten durch ein maschinelles Lernmodell zu einem Verarbeitungsergebnis für eine Steuerung der Robotervorrichtung verarbeitet.
  • In 303 wird ein erster Wert, der eine Konfidenz des maschinellen Lernmodells repräsentiert, dass das Verarbeitungsergebnis korrekt ist, ermittelt.
  • In 304 wird ein zweiter Wert, der eine Abweichung der Sensordaten von Trainingsdaten, mittels denen das maschinelle Lernmodell trainiert wurde, repräsentiert, ermittelt.
  • In 305 wird ermittelt, ob der erste Wert außerhalb eines ersten Bereichs liegt, der eine vorgegebene Mindestkonfidenz repräsentiert, oder der zweite Wert außerhalb eines zweiten Bereichs liegt, der eine vorgegebene Höchstabweichung repräsentiert.
  • In 306 wird mindestens eine Sicherheitsmaßnahme für die Steuerung der Robotervorrichtung aktiviert, falls der erste Wert außerhalb des ersten Bereichs liegt oder der zweite Wert außerhalb des zweiten Bereichs liegt.
  • Es sollte beachtet werden, dass die in 3 dargestellte Reihenfolge auch zumindest teilweise geändert werden kann, so können z.B. 303 und 304 auch vertauscht oder gleichzeitig erfolgen. Auch kann schon einmal ermittelt werden, ob der erste Wert außerhalb des ersten Bereichs liegt und nur falls nicht der zweite Wert ermittelt werden. Die „oder“-Verknüpfung ist nicht als exklusives oder zu verstehen, d.h. die Bedingung ist erfüllt, falls der erste Werte außerhalb des ersten Bereichs liegt, der zweite Wert außerhalb des zweiten Bereichs liegt oder beides der Fall ist.
  • Der erste Bereich und der zweite Bereich sind wie in den obigen Beispielen beispielsweise durch entsprechende Schwellwerte festgelegt.
  • Das Verfahren von 3 kann durch einen oder mehrere Computer mit einer oder mehreren Datenverarbeitungseinheiten durchgeführt werden. Der Begriff „Datenverarbeitungseinheit“ kann als irgendein Typ von Entität verstanden werden, die die Verarbeitung von Daten oder Signalen ermöglicht. Die Daten oder Signale können beispielsweise gemäß mindestens einer (d.h. einer oder mehr als einer) speziellen Funktion behandelt werden, die durch die Datenverarbeitungseinheit durchgeführt wird. Eine Datenverarbeitungseinheit kann eine analoge Schaltung, eine digitale Schaltung, eine Logikschaltung, einen Mikroprozessor, einen Mikrocontroller, eine Zentraleinheit (CPU), eine Graphikverarbeitungseinheit (GPU), einen Digitalsignalprozessor (DSP), eine integrierte Schaltung einer programmierbaren Gatteranordnung (FPGA) oder irgendeine Kombination davon umfassen oder aus dieser ausgebildet sein. Irgendeine andere Weise zum Implementieren der jeweiligen Funktionen, die hierin genauer beschrieben werden, kann auch als Datenverarbeitungseinheit oder Logikschaltungsanordnung verstanden werden. Es können ein oder mehrere der im Einzelnen hier beschriebenen Verfahrensschritte durch eine Datenverarbeitungseinheit durch eine oder mehrere spezielle Funktionen ausgeführt (z. B. implementiert) werden, die durch die Datenverarbeitungseinheit durchgeführt werden.
  • Das maschinelle Lernmodell implementiert gemäß verschiedenen Ausführungsformen eine Wahrnehmungsfunktion durch Verarbeitung von Sensordaten. Zwischen der Verarbeitung zur Wahrnehmung, die die Verarbeitung durch das maschinelle Lernmodell beinhaltet und die auch Sensorfusion und redundante Pfade beinhalten kann und der eigentlichen Steuerung, d.h. der Ausgabe von Steuersignalen, z.B. an Aktuatoren der jeweiligen Robotervorrichtungen können noch weitere Verarbeitungen und Funktionen wie z.B. die Verarbeitung durch einen Planer.
  • Verschiedene Ausführungsformen können Sensordaten von verschiedenen Sensoren wie z. B. Video, Radar, LiDAR, Ultraschall, Bewegung, Wärmeabbildung usw. empfangen und verwenden, um eine Wahrnehmungsfunktion unter Verwendung eines neuronalen Netzwerks bereitzustellen. Es können auch Daten von mehreren verschiedenen Sensoren mittels Sensorfusion verwendet werden. Die Verarbeitung der jeweiligen Sensordaten durch das neuronale Netzwerks kann die Klassifikation der Sensordaten oder das Durchführen einer semantischen Segmentierung an den Sensordaten umfassen, beispielsweise um die Anwesenheit von Objekten (in der Umgebung, in der die Sensordaten erhalten wurden) zu detektieren. Ausführungsformen können zum Steuern einer Robotervorrichtung verwendet werden, d.h. unter Verwendung der Ausgabe des neuronalen Netzwerks kann ein Steuersignals für eine Robotervorrichtung erzeugt werden. Der Begriff „Robotervorrichtung“ kann als sich auf irgendein technisches System (mit einem mechanischen Teil, dessen Bewegung gesteuert wird) beziehend verstanden werden, wie z. B. eine computergesteuerte Maschine, ein Fahrzeug, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, einen persönlichen Assistenten oder ein Zugangssteuersystem. Es wird eine Steuerungsvorschrift für das technische System gelernt und das technische System dann entsprechend gesteuert. Die oben beschriebene Herangehensweise kann insbesondere in hochautomatisierten Systemen mit neuronalen Netzwerken verwendet werden, die sicherheitskritisch sind.
  • Als Sicherheitsmaßnahme kann auf einen anderen (redundanten bzw. sicheren) Sensor ausgewichen werden, dessen Sensordaten dann für die Steuerung verwendet werden.
  • Obwohl spezielle Ausführungsformen hier dargestellt und beschrieben wurden, wird vom Fachmann auf dem Gebiet erkannt, dass die speziellen Ausführungsformen, die gezeigt und beschrieben sind, gegen eine Vielfalt von alternativen und/oder äquivalenten Implementierungen ausgetauscht werden können, ohne vom Schutzbereich der vorliegenden Erfindung abzuweichen. Diese Anmeldung soll irgendwelche Anpassungen oder Variationen der speziellen Ausführungsformen abdecken, die hier erörtert sind. Daher ist beabsichtigt, dass diese Erfindung nur durch die Ansprüche und die Äquivalente davon begrenzt ist.

Claims (9)

  1. Verfahren zum Steuern einer Robotervorrichtung, aufweisend: Empfangen von Sensordaten; Verarbeiten der Sensordaten durch ein maschinelles Lernmodell zu einem Verarbeitungsergebnis für eine Steuerung der Robotervorrichtung; Ermitteln einer ersten Werts, der eine Konfidenz des maschinellen Lernmodells repräsentiert, dass das Verarbeitungsergebnis korrekt ist; Ermitteln eines zweiten Werts, der eine Abweichung der Sensordaten von Trainingsdaten, mittels denen das maschinelle Lernmodell trainiert wurde, repräsentiert; Ermitteln, ob der erste Wert außerhalb eines ersten Bereichs liegt, der eine vorgegebene Mindestkonfidenz repräsentiert, oder der zweite Wert außerhalb eines zweiten Bereichs liegt, der eine vorgegebene Höchstabweichung repräsentiert; und Aktivieren mindestens einer Sicherheitsmaßnahme für die Steuerung der Robotervorrichtung, falls der erste Wert außerhalb des ersten Bereichs liegt oder der zweite Wert außerhalb des zweiten Bereichs liegt.
  2. Verfahren nach Anspruch 1, wobei die Sicherheitsmaßnahme aufweist, dass das Verarbeitungsergebnis für die Steuerung der Robotervorrichtung verworfen wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Sicherheitsmaßnahme aufweist, dass weitere Sensordaten beschafft werden und die Robotervorrichtung unter Verwendung der weiteren Sensordaten gesteuert wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, aufweisend Steuern der Robotervorrichtung unter Verwendung des Verarbeitungsergebnisses ohne die Aktivieren der Sicherheitsmaßnahme, falls der erste Wert nicht außerhalb eines ersten Bereichs liegt, und der zweite Wert nicht außerhalb des zweiten Bereichs liegt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei das maschinelle Lernmodell ein neuronales Netzwerk ist.
  6. Verfahren nach einem der Ansprüche 1 bis 5, aufweisend Trainieren des maschinellen Lernmodells mit den Trainingsdaten.
  7. Robotersteuereinrichtung, die eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 6 durchzuführen.
  8. Computerprogramm mit Befehlen, die, wenn sie durch einen Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren nach einem der Ansprüche 1 bis 6 durchführt.
  9. Computerlesbares Medium, das Befehle speichert, die, wenn sie durch einen Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren nach einem der Ansprüche 1 bis 6 durchführt.
DE102022206305.8A 2022-06-23 2022-06-23 Verfahren zum Steuern einer Robotervorrichtung Pending DE102022206305A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022206305.8A DE102022206305A1 (de) 2022-06-23 2022-06-23 Verfahren zum Steuern einer Robotervorrichtung
PCT/EP2023/062327 WO2023247102A1 (de) 2022-06-23 2023-05-10 Verfahren zum steuern einer robotervorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206305.8A DE102022206305A1 (de) 2022-06-23 2022-06-23 Verfahren zum Steuern einer Robotervorrichtung

Publications (1)

Publication Number Publication Date
DE102022206305A1 true DE102022206305A1 (de) 2023-12-28

Family

ID=86382958

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206305.8A Pending DE102022206305A1 (de) 2022-06-23 2022-06-23 Verfahren zum Steuern einer Robotervorrichtung

Country Status (2)

Country Link
DE (1) DE102022206305A1 (de)
WO (1) WO2023247102A1 (de)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021247082A1 (en) * 2020-06-05 2021-12-09 Gatik Ai Inc. Method and system for deterministic trajectory selection based on uncertainty estimation for an autonomous agent

Also Published As

Publication number Publication date
WO2023247102A1 (de) 2023-12-28

Similar Documents

Publication Publication Date Title
DE112018001587T5 (de) Verfahren zur schätzung von operationen eines arbeitsfahrzeugs, system, verfahren zur erzeugung eines trainierten klassifikationsmodells, trainingsdaten und verfahren zur erzeugung von trainingsdaten
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102019209462A1 (de) Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102022108656A1 (de) Neuronales quantilnetz
DE112021004200T5 (de) Objekterkennungsvorrichtung
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102022206305A1 (de) Verfahren zum Steuern einer Robotervorrichtung
DE102022201679A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
EP4047316A1 (de) Verfahren zum bewerten einer bekanntheit einer fahrstrecke und elektronische recheneinrichtung
DE102021129864A1 (de) Verfahren und System zur Annotation von Sensordaten
DE102018127738B4 (de) Kamerablockadeerfassung für autonome Fahrsysteme
DE102017206396A1 (de) Steuerverfahren, Steuereinheit, Umfelderfassungssystem und mobile und/oder stationäre Einrichtung
DE102020203836A1 (de) Verfahren zur Bestimmung eines Wertes einer Reglergröße
DE102018126826A1 (de) Verfahren zum Bestimmen eines Konfidenzwerts für eine Erfassungsqualität einer Fahrbahnmarkierungsgrenze, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019118607A1 (de) Anomaliedetektor für fahrzeugsteuersignale
DE102022203122B4 (de) Verfahren zum Ermitteln einer Bewegungstrajektorie für eine Steuerung einer Bewegung einer Maschine
DE102022209403A1 (de) Verfahren zum Überprüfen der Durchführung einer Prädiktionsaufgabe durch ein neuronales Netzwerk
DE102022213064A1 (de) Erkennung unbekannter Objekte durch neuronale Netze für Fahrzeuge
DE102023100667A1 (de) Erkennung von riskantem verhalten eines fahrzeuginsassen und risikominderung
EP4312189A1 (de) System zum ermitteln des abstands eines objekts
EP4066156A1 (de) VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS
DE202022104312U1 (de) System zum Ermitteln des Abstands eines Objekts
DE102021131868A1 (de) Zuverlässigkeitsüberprüfung einer Objektklassifizierung