DE102021208722A1 - Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten - Google Patents

Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten Download PDF

Info

Publication number
DE102021208722A1
DE102021208722A1 DE102021208722.1A DE102021208722A DE102021208722A1 DE 102021208722 A1 DE102021208722 A1 DE 102021208722A1 DE 102021208722 A DE102021208722 A DE 102021208722A DE 102021208722 A1 DE102021208722 A1 DE 102021208722A1
Authority
DE
Germany
Prior art keywords
neural network
architecture
measurement data
equation
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021208722.1A
Other languages
English (en)
Inventor
Elise van der Pol
Frans A. Oliehoek
Herke van Hoof
Max Welling
Michael Herman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Technische Universiteit Delft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Technische Universiteit Delft filed Critical Robert Bosch GmbH
Priority to DE102021208722.1A priority Critical patent/DE102021208722A1/de
Priority to US17/869,438 priority patent/US20230050283A1/en
Priority to CN202210949384.6A priority patent/CN115705718A/zh
Publication of DE102021208722A1 publication Critical patent/DE102021208722A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Fuzzy Systems (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren (100) zum Konfigurieren eines neuronalen Netzwerks (1), das dazu ausgebildet ist, Messdaten (2) auf eine oder mehrere Ausgangsgrößen (3) abzubilden, mit den Schritten:• es werden eine oder mehrere Transformationen (2a) der Messdaten (2) benannt (110), bei deren Anwendung auf die Messdaten (2) sich die von dem neuronalen Netzwerk (1) gelieferten Ausgangsgrößen (3) invariant oder äquivariant verhalten sollen;• es wird mindestens eine Gleichung (4) aufgestellt (120), die eine Bedingung dafür, dass die gewünschte Invarianz oder Äquivarianz gegeben ist, mit der Architektur (1a) des neuronalen Netzwerks (1) verknüpft;• durch Lösen (130) der mindestens einen Gleichung (4) wird mindestens ein Merkmal (5) erhalten, das die gesuchte Architektur (1a), und/oder eine Verteilung von Gewichten des neuronalen Netzwerks (1) an mindestens einem Ort in dieser Architektur (1a), charakterisiert;• mindestens ein neuronales Netzwerk (1) wird so konfiguriert (140), dass seine Architektur (1a), und/oder seine Verteilung von Gewichten an mindestens einem Ort in dieser Architektur, alle so ermittelten Merkmale (5) aufweist.

Description

  • Die vorliegende Erfindung betrifft neuronale Netzwerke, die beispielsweise für die Verarbeitung von an Bord eines Fahrzeugs gesammelten Sensordaten verwendet werden können.
  • Stand der Technik
  • Wenn ein menschlicher Fahrer das Führen eines Fahrzeugs erlernt, sitzt er im Verlauf seiner Ausbildung typischerweise weniger als 100 Stunden hinter dem Steuer und legt weniger als 1000 km zurück. Anschließend wird von ihm erwartet, dass er auch ungesehene Situationen bewältigt, also beispielsweise das Fahrzeug auch dann im Winter führen kann, wenn er seine sämtlichen Fahrstunden im Sommer absolviert hat.
  • Beim zumindest teilweise automatisierten Führen von Fahrzeugen wird dieser Lernprozess mit neuronalen Netzwerken abgebildet. Nach einem Training mit Messdaten aus einer Vielzahl von Situationen mit hinreichender Variabilität wird von dem neuronalen Netzwerk erwartet, dass es auch auf ungesehene Situationen generalisiert.
  • Der größte Kostenfaktor hierbei ist das „Einfahren“ von Trainingsdaten auf Testfahrten sowie das größtenteils manuelle „Labeln“ dieser Trainingsdaten mit Soll-Ausgaben, die das neuronale Netzwerk ausgeben soll, wenn ihm diese Trainingsdaten zugeführt werden. Daher werden auch synthetische Trainingsdaten mit vorab bekannten Soll-Ausgaben verwendet. Die DE 10 2018 204 494 B3 offenbart ein derartiges Verfahren für Radardaten.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zum Konfigurieren eines neuronalen Netzwerks entwickelt. Dieses neuronale Netzwerk ist dazu ausgebildet, Messdaten auf eine oder mehrere Ausgangsgrößen abzubilden.
  • Bei diesem Verfahren werden eine oder mehrere Transformationen der Messdaten benannt, bei deren Anwendung auf die Messdaten sich die von dem neuronalen Netzwerk gelieferten Ausgangsgrößen invariant oder äquivariant verhalten sollen. Äquivariant bedeutet, dass sich die Ausgangsgrößen in Abhängigkeit der Transformation in vorhersehbarer Weise ändern.
  • Wenn das neuronale Netzwerk beispielsweise verwendet wird, um in Bildern sichtbare Objekte zu klassifizieren, dann sollte ein und dasselbe Objekt unabhängig von seiner Größe im Bild oder von der Perspektive, unter der das Objekt betrachtet wird, immer gleich klassifiziert werden. Die Klassifikation sollte also gegenüber einer Skalierung des Bildes oder einer Änderung der Perspektive invariant sein.
  • Wenn das neuronale Netzwerk beispielsweise verwendet wird, um die Position von Objekten in einem Bild zu ermitteln, dann sollte sich die ermittelte Position bei einer Verschiebung des eingegebenen Bildes analog zu dieser Verschiebung ändern.
  • Es wird mindestens eine Gleichung aufgestellt, die eine Bedingung dafür, dass die gewünschte Invarianz oder Äquivarianz gegeben ist, mit der Architektur des neuronalen Netzwerks verknüpft. Dies kann insbesondere beispielsweise beinhalten, dass die Gleichung mindestens einen Parameter und/oder Hyperparameter, von dem der Aufbau und/oder das grundsätzliche Verhalten des neuronalen Netzwerks oder eines Teils hiervon abhängen, mit der Bedingung für die Invarianz oder Äquivarianz verknüpft.
  • Durch Lösen der mindestens einen Gleichung wird mindestens ein Merkmal erhalten, das die gesuchte Architektur, und/oder eine Verteilung von Gewichten des neuronalen Netzwerks an mindestens einem Ort in dieser Architektur, charakterisiert. Mindestens ein neuronales Netzwerk wird so konfiguriert, dass seine Architektur, und/oder seine Verteilung von Gewichten an mindestens einem Ort in dieser Architektur, alle so ermittelten Merkmale aufweist.
  • Die Verteilung der Gewichte kann beispielsweise als eine Gleichung angegeben werden, in der die Gewichte auf beiden Seiten vorkommen. Für alle Konfigurationen von Gewichten, die zu der Verteilung gehören, ist die Gleichung erfüllt.
  • Es wurde erkannt, dass auf diese Weise das neuronale Netzwerk von vornherein so konfiguriert werden kann, dass seine Ausgabe unter vorgegebenen gewünschten Transformationen äquivariant oder invariant ist. Entsprechendes Vorwissen, wie auch etwa Wissen über Symmetrien der vorliegenden Anwendung, kann also bereits direkt in die Architektur des neuronalen Netzwerks eingebracht werden und muss von diesem Netzwerk also nicht mehr gelernt werden. Die Invarianz bzw. Äquivarianz hat zur Folge, dass mindestens an einem bestimmten Punkt im neuronalen Netzwerk immer eine Repräsentation der Messdaten entsteht, die sich beim Transformieren der Messdaten nicht oder nur in vorhersehbarer Weise ändert.
  • Das Einbringen des Vorwissens auf diese Weise ist viel spezifischer und eindeutiger als beispielsweise dem neuronalen Netzwerk eine große Zahl von Ansichten eines Objekts aus verschiedenen Perspektiven zu präsentieren, damit das neuronale Netzwerk daraus lernen möge, dass alle diese Ansichten das gleiche Objekt zeigen. Zugleich wird der Aufwand, entsprechende Trainingsdaten zu beschaffen, eingespart. Der Aufwand für die Beschaffung von Trainingsdaten kann also auf die Kernaufgabe fokussiert werden, für deren Bewältigung das neuronale Netzwerk trainiert werden soll.
  • Somit kann das neuronale Netzwerk nach dem Konfigurieren in der für die jeweilige Aufgabe üblichen Weise trainiert werden.
  • Beispielsweise können im Rahmen eines überwachten Trainings mit Lern-Messdaten und Lern-Ausgangsgrößen die Gewichte des neuronalen Netzwerks auf das Ziel optimiert werden, dass das neuronale Netzwerk die Lern-Messdaten möglichst gut auf die Lern-Ausgangsgrößen abbildet.
  • Die Gewichte des neuronalen Netzwerks können aber auch beispielsweise im Rahmen eines Reinforcement Learnings in einem Markow-Entscheidungsprozess auf das Ziel optimiert werden, dass bei Heranziehung der Ausgangsgrößen des neuronalen Netzwerks für die Entscheidung mindestens eines Akteurs dieses Markow-Entscheidungsprozesses eine erzielte Belohnung (Reward) maximiert wird.
  • In einer besonders vorteilhaften Ausgestaltung beinhaltet die mindestens eine Gleichung
    • • eine Funktion ϕu, die eine Fortentwicklung der Merkmale von Schichten des neuronalen Netzwerks beim Übergang von einer Schicht zur nächsten beschreibt, und/oder
    • • eine Funktion ϕm, die einen Informationsfluss innerhalb des neuronalen Netzwerks in Abhängigkeit der Architektur des neuronalen Netzwerks beschreibt.
  • Die Funktionen ϕu und ϕm, können insbesondere beispielsweise als lineare Schichten mit anschließender nichtlinearer Aktivierungsfunktion ausgebildet sein. Mit ihnen können zwei für das Konfigurieren des Netzwerks besonders einsichtige Aspekte modelliert werden.
  • Die Funktionen ϕu und ϕm, eignen sich insbesondere beispielsweise zum Modellieren eines als Graph ausgebildeten neuronalen Netzwerks, in dem mit Merkmalen hi belegte Knoten durch Kanten eij verbunden sind. Mit derartigen Netzwerken können insbesondere Daten verarbeitet werden, die mit Graphen beschreibbare Zusammenhänge zwischen ihren Bestandteilen enthalten.
  • Die Funktion ϕm kann dann beispielsweise modellieren, dass Nachrichten m j i l
    Figure DE102021208722A1_0001
    in einer Schicht I vom Knoten j zum Knoten i geschickt werden: m j i l = ϕ m ( e i j , h j l ) ,
    Figure DE102021208722A1_0002
    worin eij die Kante zwischen den Knoten i und j bezeichnet. Als Rechengröße für diese Kante eij kann beispielsweise die Beschreibung einer Kante eij als Differenzvektor zwischen Orten der Knoten i und j, verwendet werden.
  • Somit verknüpft die Funktion ϕm vorteilhaft den Informationsfluss m j i l
    Figure DE102021208722A1_0003
    vom Knoten j zum Knoten i in der Schicht I mit einer Kante(nlänge) eij zwischen den Knoten i und j sowie mit Merkmalen h j l
    Figure DE102021208722A1_0004
    des j-ten Knotens in der Schicht I.
  • Alle Nachrichten, die ein Knoten i von anderen Knoten j empfängt, können mit einer permutationsinvarianten Aggregationsfunktion, wie etwa der Summe oder dem Maximum aggregiert werden: m i l = j = i | N i | m j i .
    Figure DE102021208722A1_0005
    Hierin bezeichnet Ni die Menge der Nachbarn des Knoten i.
  • Die Fortentwicklung von einer Schicht zur nächsten kann dann beispielsweise geschrieben werden als: h i l + 1 = ϕ u ( h i l , m i l ) .
    Figure DE102021208722A1_0006
  • Somit verknüpft die Funktion ϕu vorteilhaft Merkmale k i l + 1
    Figure DE102021208722A1_0007
    des i-ten Knotens in der Schicht I+1 mit Merkmalen hi des i-ten Knotens in der Schicht I sowie dem von diesem Knoten insgesamt empfangenen Informationsfluss m i l .
    Figure DE102021208722A1_0008
  • In einer besonders vorteilhaften Ausgestaltung wird mindestens eine Gruppe G von Transformationen g benannt, für die die gewünschte Invarianz oder Äquivarianz der Ausgangsgrößen gelten soll. Die Invarianz oder Äquivarianz ist dann für unendlich viele Abwandlungen der Transformationen g gültig, die ebenfalls wieder zu der Gruppe gehören. Beispielsweise können Äquivarianzbedingungen in der Form P g [ m j i l ] = ϕ m ( R g [ e i j ] , K g [ h j l ] ) g G ,
    Figure DE102021208722A1_0009
    L g [ h i l + 1 ] = ϕ u ( K g [ h i l ] , P g [ m i l ] ) g G ,
    Figure DE102021208722A1_0010
    geschrieben werden. Hierin repräsentieren Kg, Pg und Lg Permutationen der Gruppe G, die auf den Gruppenkanälen h j l , m j i l  bzw h i l + 1
    Figure DE102021208722A1_0011
    wirken. In der Praxis kann häufig Kg=Pg=Lg gewählt werden. Rg repräsentiert eine Rotationsmatrix, die auf die Kante eij wirkt.
  • In einer weiteren vorteilhaften Ausgestaltung wird die mindestens eine Gleichung in Hyperparametern ausgedrückt, die die Architektur des neuronalen Netzwerks charakterisieren, und wobei das Lösen der mindestens einen Gleichung auf Werte der Hyperparameter als Merkmale führt. Hierbei kann der Fall eintreten, dass beispielsweise nur ganzzahlige Werte für die Hyperparameter möglich sind (etwa für eine Anzahl von Knoten oder Schichten im neuronalen Netzwerk), die exakte Lösung der Gleichung aber eine nicht-ganze Zahl ist. Die Rundung auf die nächste ganze Zahl liefert dann zumindest eine gute Näherung für das äquivariante bzw. invariante Verhalten. Was dann noch an der vollständigen Äquivarianz bzw. Invarianz fehlt, kann das neuronale Netzwerk aus den Trainingsdaten lernen.
  • In einer weiteren vorteilhaften Ausgestaltung werden Beobachtungen mehrerer Akteure eines zentralisierten oder dezentralisierten Markow-Entscheidungsprozesses als Messdaten gewählt. Ein dezentralisierter Markow-Entscheidungsprozess kann beispielsweise definiert sein durch:
    • • eine Menge von N Akteuren α = {α1, ... , αN};
    • • einen gemeinsamen Zustandsraum S = {Si}=1,...,N;
    • • einen gemeinsamen Aktionsraum A = (A}i=1,...,N;
    • • eine Übergangsfunktion T: S × A × S → [0,1], die für einen Anfangszustand, eine durchgeführte Aktion und einen Endzustand jeweils angibt, mit welcher Wahrscheinlichkeit die durchgeführte Aktion ausgehend vom Anfangszustand in den Endzustand führt; und
    • • eine Belohnungsfunktion (Reward-Funktion) R:S × A → ℝ.
  • Der dezentrale Charakter eines derartigen Prozesses liegt darin, dass jeder einzelne Akteur nur einen Teil des Zustands beobachtet, aber alle Akteure gemeinsam den kompletten Zustand beobachten. Die Akteure können sich gegenseitig Nachrichten zusenden wie zuvor für Knoten eines Graphen beschrieben, während es zugleich keine allwissende globale Instanz gibt, die die Aktionen der einzelnen Akteure koordiniert.
  • Eine bei Vornahme einer vorgegebenen Aktion in einem gewissen Zustand des Markow-Entscheidungsprozesses zu erwartende Belohnung, und/oder eine Policy für mindestens einen Akteur, die einen vorgegebenen Zustand auf eine vorzunehmende Aktion abbildet, wird als Ausgangsgröße gewählt. Diese Ausgangsgröße wird dann äquivariant bzw. invariant bezüglich der vorgegebenen einen oder mehreren Transformationen. Es kann also festgelegt werden, dass diese Transformationen die auf der Grundlage der Ausgangsgröße getroffene Entscheidung nicht oder nur in vorhersehbarer Weise abändern.
  • Eine Policy repräsentiert die Strategie, nach der ein oder mehrere Akteure des Markow-Entscheidungsprozesses handeln. Eine einfache Policy für ein Fahrzeug wäre beispielsweise, unter Beachtung von Haltgeboten durch Ampeln und der Vorfahrt anderer Verkehrsteilnehmer immer möglichst die erlaubte Geschwindigkeit zu fahren.
  • Das invariante bzw. äquivariante Verhalten ist im Zusammenhang mit Markow-Entscheidungsprozessen besonders vorteilhaft, weil das bestärkte Lernen vergleichsweise „daten-ineffizient“ ist. Das heißt, dass für das Training im Vergleich zu anderen Aufgaben, wie etwa der Klassifikation von Messdaten, besonders viele Trainingsdaten benötigt werden, um ein brauchbares Resultat zu erzielen.
  • Das bestärkte Lernen innerhalb eines Markow-Entscheidungsprozesses kann beispielsweise mit dem „Q-Learning“ erfolgen, das für eine Kombination aus einem Zustand S und einer Aktion A den Erwartungswert Q des kumulierten Rewards R ermittelt. Dieser Erwartungswert Q beinhaltet die Folgewirkungen der Aktion A auf längere Sicht unter der aktuellen Policy. Der Q-Wert beschreibt die Güte einer Aktion und kann daher direkt als Strategie verwendet werden, indem in einem Zustand stets die Aktion mit dem größten Q-Wert ausgeführt wird.
  • Beispielsweise können die Beobachtungen Positionen xi von Akteuren umfassen. Damit kann der Markow-Entscheidungsprozess insbesondere für die Modellierung von Verkehrssituationen eingesetzt werden. Die Positionen der anderen Verkehrsteilnehmer sind hiermit die wichtigsten Informationen, die ein jeder Verkehrsteilnehmer aufnehmen muss. Gleichwohl sind längst nicht alle an einer Verkehrssituation beteiligten Verkehrsteilnehmer in der Lage, die Positionen aller anderen Verkehrsteilnehmer zu beobachten, da die Sicht auf einen oder mehrere andere Verkehrsteilnehmer verdeckt sein kann und/oder ein oder mehrere andere Verkehrsteilnehmer für eine genaue Bestimmung ihrer Position zu weit entfernt sein können. Es können also im Rahmen der Verkehrssituation Verkehrsteilnehmer, die sich nicht direkt gegenseitig beobachten können, dennoch direkt oder indirekt zumindest dahingehend miteinander wechselwirken, dass die Anwesenheit des einen Verkehrsteilnehmers einen Einfluss auf Entscheidungen des anderen Verkehrsteilnehmers hat.
  • Somit wird in einer weiteren besonders vorteilhaften Ausgestaltung aus der zu erwartenden Belohnung, und/oder aus der Policy, ein Ansteuersignal für mindestens einen Roboter und/oder für mindestens ein Fahrzeug, und/oder für mindestens ein unbemanntes Fluggerät, ermittelt. Der Roboter, und/oder das Fahrzeug, und/oder das unbemannte Fluggerät, mit diesem Ansteuersignal angesteuert. Auf diese Weise ist die Wahrscheinlichkeit erhöht, dass das jeweils angesteuerte System auf die durch den Zustand im Zustandsraum S beschriebene Situation im Kontext der vorliegenden Anwendung im Verkehr angemessen reagiert.
  • In einer weiteren vorteilhaften Ausgestaltung wird ein Klassifikatornetzwerk, das die Messdaten auf Klassifikations-Scores bezüglich einer oder mehrerer Klassen einer vorgegebenen Klassifikation abbildet, als zu konfigurierendes neuronales Netzwerk gewählt. Wie zuvor erläutert, kann dann beliebiges Vorwissen dahingehend, welche Transformationen der Messdaten die Klassifikations-Scores nicht beeinflussen sollen, direkt in die Architektur des Klassifikatornetzwerks eingebracht werden.
  • In einer weiteren vorteilhaften Ausgestaltung wird aus den Klassifikations-Scores ein Ansteuersignal für mindestens einen Roboter und/oder für mindestens ein Fahrzeug, und/oder für mindestens ein unbemanntes Fluggerät, ermittelt. Der Roboter, und/oder das Fahrzeug, und/oder das unbemannte Fluggerät, wird mit diesem Ansteuersignal angesteuert. Auf diese Weise ist die Wahrscheinlichkeit erhöht, dass das jeweils angesteuerte System auf die durch die Messdaten beschriebene und in Form der Klassifikations-Scores ausgewertete Situation im Kontext der vorliegenden Anwendung im Verkehr angemessen reagiert.
  • Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zum Konfigurieren eines neuronalen Netzwerks 1;
    • 2 Skizze eines Markow-Entscheidungsprozesses für die Videoüberwachung mit Drohnen;
    • 3 Wirkung des Verfahrens 100 zum Konfigurieren eines neuronalen Netzwerks 1 in der in 2 gezeigten Anwendung.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zum Konfigurieren eines neuronalen Netzwerks 1, das Messdaten 2 auf eine oder mehrere Ausgangsgrößen 3 abbildet.
  • In Schritt 105 können Beobachtungen mehrerer Akteure eines zentralisierten oder dezentralisierten Markow-Entscheidungsprozesses als Messdaten 2 gewählt werden. Eine bei Vornahme einer vorgegebenen Aktion in einem gewissen Zustand des Markow-Entscheidungsprozesses zu erwartende Belohnung, und/oder eine Policy für mindestens einen Akteur, die einen vorgegebenen Zustand auf eine vorzunehmende Aktion abbildet, kann dann in Schritt 6 als Ausgangsgröße 3 des neuronalen Netzwerks 1 gewählt werden.
  • In Schritt 107 kann ein Klassifikatornetzwerk, das die Messdaten 2 auf Klassifikations-Scores bezüglich einer oder mehrerer Klassen einer vorgegebenen Klassifikation abbildet, als zu konfigurierendes neuronales Netzwerk 1 gewählt werden.
  • In Schritt 110 werden eine oder mehrere Transformationen 2a der Messdaten 2 benannt, bei deren Anwendung auf die Messdaten 2 sich die von dem neuronalen Netzwerk 1 gelieferten Ausgangsgrößen 3 invariant oder äquivariant verhalten sollen.
  • Gemäß Block 111 kann hierbei mindestens eine Gruppe G von Transformationen 2a benannt werden, für die die gewünschte Invarianz oder Äquivarianz der Ausgangsgrößen (3) gelten soll.
  • In Schritt 120 wird mindestens eine Gleichung 4 aufgestellt, die eine Bedingung dafür, dass die gewünschte Invarianz oder Äquivarianz gegeben ist, mit der Architektur 1a des neuronalen Netzwerks 1 verknüpft.
  • Diese mindestens eine Gleichung 4 kann gemäß Block 121 insbesondere beispielsweise eine Funktion ϕu beinhalten, die eine Fortentwicklung der Merkmale von Schichten des neuronalen Netzwerks 1 beim Übergang von einer Schicht zur nächsten beschreibt.
  • Alternativ oder in Kombination hierzu kann die mindestens eine Gleichung 4 gemäß Block 122 insbesondere beispielsweise eine Funktion ϕm beinhalten, die einen Informationsfluss innerhalb des neuronalen Netzwerks 1 in Abhängigkeit der Architektur 1a des neuronalen Netzwerks 1 beschreibt.
  • Insoweit das neuronale Netzwerk als Graph ausgebildet ist, in dem mit Merkmalen hi belegte Knoten durch Kanten eij verbunden sind, kann gemäß Block 121a die Funktion ϕu insbesondere beispielsweise Merkmale h i l + 1
    Figure DE102021208722A1_0012
    des i-ten Knotens in der Schicht I+1 mit Merkmalen h i l
    Figure DE102021208722A1_0013
    des i-ten Knotens in der Schicht I sowie dem von diesem Knoten insgesamt empfangenen Informationsfluss m i l
    Figure DE102021208722A1_0014
    verknüpfen.
  • Alternativ oder auch in Kombination hierzu kann gemäß Block 122a die Funktion ϕm den Informationsfluss m j i l
    Figure DE102021208722A1_0015
    vom Knoten j zum Knoten i in der Schicht I mit einer Kante eij zwischen den Knoten i und j sowie mit Merkmalen h j l
    Figure DE102021208722A1_0016
    des j-ten Knotens in der Schicht I verknüpfen.
  • Gemäß Block 123 kann die mindestens eine Gleichung 4 in Hyperparametern ausgedrückt werden, die die Architektur 1a des neuronalen Netzwerks 1 charakterisieren. Die Hyperparameter können beispielsweise Anzahl, Größe und Typen von Schichten des neuronalen Netzwerks 1, und/oder von Neuronen oder anderen Verarbeitungseinheiten, aus denen diese Schichten zusammengesetzt sind, umfassen.
  • In Schritt 130 wird durch Lösen der mindestens einen Gleichung 4 mindestens ein Merkmal 5 erhalten, das die gesuchte Architektur 1a, und/oder eine Verteilung von Gewichten des neuronalen Netzwerks 1 an mindestens einem Ort in dieser Architektur 1a, charakterisiert.
  • Insoweit die Gleichung 4 von Hyperparametern abhängt, kann gemäß Block 131 das Lösen der mindestens einen Gleichung 4 auf Werte der Hyperparameter als Merkmale 5 führen.
  • In Schritt 140 wird mindestens ein neuronales Netzwerk 1 so konfiguriert, dass seine Architektur 1a, und/oder seine Verteilung von Gewichten an mindestens einem Ort in dieser Architektur, alle in Schritt 130 ermittelten Merkmale 5 aufweist.
  • In Schritt 150 kann, beispielswiese nach zwischenzeitlichem Training des konfigurierten neuronalen Netzwerks 1 und Beschickung dieses Netzwerks 1 mit Messdaten 2, aus einer zu erwartenden Belohnung, und/oder aus einer Policy, als Ausgangsgröße 3 im Rahmen eines Markow-Entscheidungsprozesses ein Ansteuersignal 6 für mindestens einen Roboter 50 und/oder für mindestens ein Fahrzeug 60, und/oder für mindestens ein unbemanntes Fluggerät 11-13, ermittelt werden.
  • In Schritt 160 kann, beispielsweise nach zwischenzeitlichem Training des konfigurierten neuronalen Netzwerks 1 und Beschickung dieses Netzwerks 1 mit Messdaten 2, aus durch das neuronale Netzwerk 1 ermittelten Klassifikations-Scores für die Messdaten 2 als Ausgangsgrößen 3 ebenfalls ein Ansteuersignal 6 für mindestens einen Roboter 50 und/oder für mindestens ein Fahrzeug 60, und/oder für mindestens ein unbemanntes Fluggerät 11-13, ermittelt werden.
  • Unabhängig davon, aus welcher Quelle das Ansteuersignal 6 bezogen wird, kann in Schritt 170 der Roboter 50, und/oder das Fahrzeug 60, und/oder das unbemannte Fluggerät 11-13, mit diesem Ansteuersignal 6 angesteuert werden.
  • In 2 ist beispielhaft ein Markow-Entscheidungsprozess für die Videoüberwachung mit Drohnen skizziert, in dem ein mit dem zuvor beschriebenen Verfahren 100 konfiguriertes neuronales Netzwerk 1 genutzt werden kann. Bei der Videoüberwachung müssen sich mehrere (in diesem Beispiel: drei) Drohnen 11-13 koordinieren, um einen Straftäter 14 ausfindig zu machen. Jede Drohne 11-13 hat eine senkrecht nach unten gerichtete Kamera und nimmt Bilder eines jeweiligen überwachten Bereichs 11a-13a auf. Damit der Straftäter 14 zuverlässig erkannt werden kann, muss er aus zwei verschiedenen Perspektiven erfasst werden. Er muss sich also im Überlappungsbereich U der Erfassungsbereiche 11a, 12a mindestens zweier Drohnen 11, 12 befinden. Jede Drohne 11-13, die in dieser Weise in einem Team von mindestens zwei Drohnen mithilft und einen Straftäter fasst, erhält im Rahmen des Markow-Entscheidungsprozesses eine Belohnung von +1. Auf der anderen Seite können sich zu keiner Zeit zwei Drohnen 11-13 am gleichen Ort befinden. Zudem ist bekannt, dass die gewählten Aktionen der Drohnen idealerweise äquivariant bezüglich Rotationen sein sollten. Wenn für eine gegebene Bildaufnahme die optimale Aktion zweier Drohnen die Vergrößerung ihrer Distanz in x-Richtung ist, dann sollte bei Rotation der aufgenommenen Bilder um 90° eine Vergrößerung der Distanz in y-Richtung folgen. Dies ist ein Beispiel für eine mögliche benannte Transformation in Schritt 110 des Verfahrens 100.
  • Da die Kameras senkrecht nach unten gerichtet sind, können sich die Drohnen 11-13 gegenseitig nicht sehen. Sie können nur ihre jeweiligen aktuellen Beobachtungen aus dem jeweiligen Erfassungsbereich 11a-13a übermitteln. Wenn der Markow-Entscheidungsprozess zentralisiert geführt wird, können diese Beobachtungen an eine zentrale Instanz übermittelt werden, die den Einsatz der Drohen 11-13 koordiniert. Wenn der Markow-Entscheidungsprozess dezentralisiert geführt wird, können die Beobachtungen einer Drohne 11-13 an andere Drohnen 11-13 in einem begrenzten räumlichen Umkreis übermittelt werden.
  • 3a zeigt mittlere Belohnungen R, die im Rahmen des in 2 skizzierten Markow-Entscheidungsprozesses in der zentralisierten Variante erhalten wurden, über der Zeit t. Kurve a wurde für ein herkömmliches neuronales Netzwerk 1 erhalten. Kurve b wurde für ein mit dem zuvor beschriebenen Verfahren 100 konfiguriertes Netzwerk 1 erhalten, das gegenüber bestimmten Transformationen 2a der Beobachtungen (etwa Anpassen von Helligkeit oder Kontrast) von vornherein invariant und gegenüber anderen Transformationen 2a (etwa Rotationen) von vornherein äquivariant ist. Es ist deutlich sichtbar, dass die Leistung für das mit dem Verfahren 100 konfigurierte Netzwerk 1 sehr schnell zunimmt, während das herkömmliche neuronale Netzwerk 1 zunächst viel Energie darauf verwenden muss, die gewünschten Invarianzen und Äquivarianzen zu lernen.
  • 3b wurde analog zu 3a erstellt mit dem Unterschied, dass der Markow-Entscheidungsprozess hier dezentralisiert geführt wurde. Im dezentralen Fall ist die Leistung des herkömmlichen neuronalen Netzwerks 1 insbesondere am Anfang deutlich besser als im zentralisierten Fall. Jedoch ist das mit dem Verfahren 100 konfigurierte neuronale Netzwerk 1 immer noch deutlich besser.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018204494 B3 [0004]

Claims (15)

  1. Verfahren (100) zum Konfigurieren eines neuronalen Netzwerks (1), das dazu ausgebildet ist, Messdaten (2) auf eine oder mehrere Ausgangsgrößen (3) abzubilden, mit den Schritten: • es werden eine oder mehrere Transformationen (2a) der Messdaten (2) benannt (110), bei deren Anwendung auf die Messdaten (2) sich die von dem neuronalen Netzwerk (1) gelieferten Ausgangsgrößen (3) invariant oder äquivariant verhalten sollen; • es wird mindestens eine Gleichung (4) aufgestellt (120), die eine Bedingung dafür, dass die gewünschte Invarianz oder Äquivarianz gegeben ist, mit der Architektur (1a) des neuronalen Netzwerks (1) verknüpft; • durch Lösen (130) der mindestens einen Gleichung (4) wird mindestens ein Merkmal (5) erhalten, das die gesuchte Architektur (1a), und/oder eine Verteilung von Gewichten des neuronalen Netzwerks (1) an mindestens einem Ort in dieser Architektur (1a), charakterisiert; • mindestens ein neuronales Netzwerk (1) wird so konfiguriert (140), dass seine Architektur (1a), und/oder seine Verteilung von Gewichten an mindestens einem Ort in dieser Architektur, alle so ermittelten Merkmale (5) aufweist.
  2. Verfahren (100) nach Anspruch 1, wobei die mindestens eine Gleichung (4) • eine Funktion ϕu beinhaltet (121), die eine Fortentwicklung der Merkmale von Schichten des neuronalen Netzwerks (1) beim Übergang von einer Schicht zur nächsten beschreibt, und/oder • eine Funktion ϕm beinhaltet (122), die einen Informationsfluss innerhalb des neuronalen Netzwerks (1) in Abhängigkeit der Architektur (1a) des neuronalen Netzwerks (1) beschreibt.
  3. Verfahren (100) nach Anspruch 2, wobei ein als Graph ausgebildetes neuronales Netzwerk (1), in dem mit Merkmalen h i l
    Figure DE102021208722A1_0017
    belegte Knoten durch Kanten eij verbunden sind, gewählt wird.
  4. Verfahren (100) nach Anspruch 3, wobei die Funktion ϕu Merkmale h i l + 1
    Figure DE102021208722A1_0018
    des i-ten Knotens in der Schicht I+1 mit Merkmalen h i l
    Figure DE102021208722A1_0019
    des i-ten Knotens in der Schicht I sowie dem von diesem Knoten insgesamt empfangenen Informationsfluss m i l
    Figure DE102021208722A1_0020
    verknüpft (121a).
  5. Verfahren (100) nach einem der Ansprüche 3 bis 4, wobei die Funktion ϕm den Informationsfluss m j i l
    Figure DE102021208722A1_0021
    vom Knoten j zum Knoten i in der Schicht I mit einer Kante eij zwischen den Knoten i und j sowie mit Merkmalen h j l
    Figure DE102021208722A1_0022
    des j-ten Knotens in der Schicht I verknüpft (122a).
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei mindestens eine Gruppe G von Transformationen (2a, g) benannt wird (111), für die die gewünschte Invarianz oder Äquivarianz der Ausgangsgrößen (3) gelten soll.
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei die mindestens eine Gleichung (4) in Hyperparametern ausgedrückt wird (123), die die Architektur (1a) des neuronalen Netzwerks (1) charakterisieren, und wobei das Lösen (130) der mindestens einen Gleichung auf Werte der Hyperparameter als Merkmale (5) führt (131).
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei • Beobachtungen mehrerer Akteure eines zentralisierten oder dezentralisierten Markow-Entscheidungsprozesses als Messdaten (2) gewählt werden (105) und • eine bei Vornahme einer vorgegebenen Aktion in einem gewissen Zustand des Markow-Entscheidungsprozesses zu erwartende Belohnung, und/oder eine Policy für mindestens einen Akteur, die einen vorgegebenen Zustand auf eine vorzunehmende Aktion abbildet, als Ausgangsgröße (3) gewählt wird (106).
  9. Verfahren (100) nach Anspruch 8, wobei die Beobachtungen Positionen xi von Akteuren umfassen.
  10. Verfahren (100) nach einem der Ansprüche 8 bis 9, wobei aus der zu erwartenden Belohnung, und/oder aus der Policy, ein Ansteuersignal (6) für mindestens einen Roboter (50) und/oder für mindestens ein Fahrzeug (60), und/oder für mindestens ein unbemanntes Fluggerät (11-13), ermittelt wird (150) und der Roboter (50), und/oder das Fahrzeug (60), und/oder das unbemannte Fluggerät (11-13), mit diesem Ansteuersignal (6) angesteuert wird (170).
  11. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei ein Klassifikatornetzwerk, das die Messdaten (2) auf Klassifikations-Scores bezüglich einer oder mehrerer Klassen einer vorgegebenen Klassifikation abbildet, als zu konfigurierendes neuronales Netzwerk (1) gewählt wird (107).
  12. Verfahren (100) nach Anspruch 11, wobei aus den Klassifikations-Scores ein Ansteuersignal (6) für mindestens einen Roboter (50) und/oder für mindestens ein Fahrzeug (60), und/oder für mindestens ein unbemanntes Fluggerät (11-13), ermittelt wird (160) und der Roboter (50), und/oder das Fahrzeug (60), und/oder das unbemannte Fluggerät (11-13), mit diesem Ansteuersignal (6) angesteuert wird (170).
  13. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren (100) nach einem der Ansprüche 1 bis 12 auszuführen.
  14. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 13.
  15. Ein oder mehrere Computer mit dem Computerprogramm nach Anspruch 13, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 14.
DE102021208722.1A 2021-08-10 2021-08-10 Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten Pending DE102021208722A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021208722.1A DE102021208722A1 (de) 2021-08-10 2021-08-10 Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten
US17/869,438 US20230050283A1 (en) 2021-08-10 2022-07-20 Configuring a neural network for equivariant or invariant behavior
CN202210949384.6A CN115705718A (zh) 2021-08-10 2022-08-09 为等变或不变的行为而配置神经网络

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021208722.1A DE102021208722A1 (de) 2021-08-10 2021-08-10 Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten

Publications (1)

Publication Number Publication Date
DE102021208722A1 true DE102021208722A1 (de) 2023-02-16

Family

ID=85040069

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021208722.1A Pending DE102021208722A1 (de) 2021-08-10 2021-08-10 Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten

Country Status (3)

Country Link
US (1) US20230050283A1 (de)
CN (1) CN115705718A (de)
DE (1) DE102021208722A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204494B3 (de) 2018-03-23 2019-08-14 Robert Bosch Gmbh Erzeugung synthetischer Radarsignale

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4352661A1 (de) * 2021-06-09 2024-04-17 Umnai Limited Automatische xai (autoxai) mit evolutionären nas-techniken und modellentdeckung und -verfeinerung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204494B3 (de) 2018-03-23 2019-08-14 Robert Bosch Gmbh Erzeugung synthetischer Radarsignale

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VAN DER POL, Elise [et al.]: MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning. arXiv preprint arXiv:2006.16908v2, 20.01.2021

Also Published As

Publication number Publication date
US20230050283A1 (en) 2023-02-16
CN115705718A (zh) 2023-02-17

Similar Documents

Publication Publication Date Title
DE102018203583B4 (de) Verfahren, Fahrerassistenzsystem sowie Kraftfahrzeug zur Prädiktion einer Position oder einer Trajektorie mittels eines graphbasierten Umgebungsmodells
DE102018008685A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102019209560A1 (de) Vorrichtung und Verfahren zum Trainieren eines neuronalen Netzwerks
EP3828758A1 (de) Objektklassifizierungsverfahren, objektklassifizierungsschaltung, kraftfahrzeug
EP3748454B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
EP3748453B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102021207613A1 (de) Verfahren zur Qualitätssicherung eines Systems
DE102021003567A1 (de) Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
EP4078238A1 (de) Verfahren und vorrichtung zum robustifizieren von sensordaten gegen adversariale störungen
DE102018129871A1 (de) Trainieren eins tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Sensordaten zur Anwendung in einem Fahrunterstützungssystem
DE102021208722A1 (de) Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten
DE102021200643B3 (de) Verfahren zur Umfelderkennung für teilautonome oder autonome Fahrfunktionen eines Kraftfahrzeugs mittels eines neuronalen Netzes
WO2021180470A1 (de) Verfahren zur qualitätssicherung eines beispielbasierten systems
DE102020210376A1 (de) Vorrichtung und Verfahren zum Steuern eines Hardware-Agenten in einer Steuersituation mit mehreren Hardware-Agenten
DE102019216290A1 (de) Verfahren, Computerprogramm, maschinenlesbares Speichermedium, Steuervorrichtung zum Verfolgen eines Objekts
DE102019201045A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Aktion oder Trajektorie eines Roboters
DE102019217952A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines Trainingsdatensatzes zum Trainieren einer KI-Funktion auf eine unbekannte Datendomäne
DE102019217951A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Domänendistanz zwischen mindestens zwei Datendomänen
DE102022200353A1 (de) Verfahren zum Erzeugen von Daten zum Trainieren eines auf künstlicher Intelligenz basierenden Objekterkennungsverfahrens
EP4128057A1 (de) Verfahren und system zum bereitstellen mindestens eines komprimierten und spezialisierten neuronalen netzes für ein fahrzeug
DE102022212901A1 (de) Automatisches Ermitteln einer optimalen Architektur für ein neuronales Netzwerk
DE102022204770A1 (de) Verfahren zum Steuern einer Robotervorrichtung
WO2022248171A1 (de) Verfahren zur qualitätssicherung eines systems
EP4113392A1 (de) Verfahren zum prüfen der zuverlässigkeit einer ki-basierten objekt-detektion
DE102022212817A1 (de) Prüfung eines Bildklassifikators durch Suche entscheidungsrelevanter Bildanteile mit einem Optimierungsverfahren

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HA, DE

Free format text: FORMER OWNER: ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HAFTUNG, 70469 STUTTGART, DE

R082 Change of representative

Representative=s name: BEE, JOACHIM, DIPL.-ING., DE

R083 Amendment of/additions to inventor(s)
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HA, DE

Free format text: FORMER OWNERS: ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HAFTUNG, 70469 STUTTGART, DE; TECHNISCHE UNIVERSITAET DELFT, DELFT, NL