DE102020204388A1 - Verfahren und Vorrichtung zum Ansteuern eines Agenten - Google Patents

Verfahren und Vorrichtung zum Ansteuern eines Agenten Download PDF

Info

Publication number
DE102020204388A1
DE102020204388A1 DE102020204388.4A DE102020204388A DE102020204388A1 DE 102020204388 A1 DE102020204388 A1 DE 102020204388A1 DE 102020204388 A DE102020204388 A DE 102020204388A DE 102020204388 A1 DE102020204388 A1 DE 102020204388A1
Authority
DE
Germany
Prior art keywords
action
new
agent
value
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020204388.4A
Other languages
English (en)
Inventor
Christoph PEYLO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020204388.4A priority Critical patent/DE102020204388A1/de
Publication of DE102020204388A1 publication Critical patent/DE102020204388A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for

Abstract

Computerimplementiertes Verfahren zum Ansteuern eines Agenten (100, 250) umfassend die Schritte:a. Bereitstellen (72) einer Aktion, die der Agent (100, 250) in seiner Umgebung (20) ausführen soll, aus einer Mehrzahl von möglichen Aktionen;b. Ermitteln (73) einer Mehrzahl von ersten Werten jeweils bezüglich einer Norm (Ni) aus einer Mehrzahl von Normen (N) auf Basis der bereitgestellten Aktion, wobei ein erster Wert jeweils charakterisiert, ob die bereitgestellte Aktion ein gewünschtes Verhalten des Agenten bezüglich der jeweiligen Norm (Ni) gewährleistet oder nicht;c. Ermitteln (74) eines der bereitgestellten Aktion entsprechenden zweiten Wertes auf Basis der Mehrzahl von ersten Werten, wobei der jeweilige zweite Wert charakterisiert, inwiefern die bereitgestellte Aktion bezüglich der Gesamtheit der Normen (N) unangemessen ist;d. Ansteuern des Agenten (100, 250) derart, dass der Agent (100, 250) die bereitgestellte Aktion ausführt, falls der zweite Wert anzeigt, dass die bereitgestellte Aktion nicht unangemessen ist;e. Ermitteln einer angepassten Aktion auf Basis der bereitgestellten Aktion, falls der zweite Wert anzeigt, dass die Aktion unangemessen ist, und Ansteuern des Agenten (100, 250) derart, dass er die angepasste Aktion ausführt.

Description

  • Die Erfindung betrifft ein Verfahren zum Ansteuern eines Agenten, eine Vorrichtung, die eingerichtet ist das Verfahren zum Ansteuern auszuführen, ein Computerprogramm und ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • DE 10 2017 223 717 beschreibt ein Verfahren zum Betreiben eines Multiagentensystems mit mehreren Robotern.
  • Vorteile der Erfindung
  • Es ist möglich, dass Agenten, wie beispielsweise Roboter, ihre Aktionen auf Basis von Umfeldwahrnehmungen treffen. Das tatsächliche Verhalten eines entsprechenden Agenten kann im Kontext der Umgebung aber über die geplante Aktion hinausgehen. Zum Beispiel kann ein Agent eine Bewegung planen, die ihn durch eine Pfütze führt und dadurch entsprechend Spritzwasser aufgeworfen wird. Für den Fall, dass kein Mensch in der Nähe des Agenten ist, ist vorstellbar, dass diese Aktion auf Basis einer vorgegebenen Menge von Normen akzeptabel ist. Falls sich jedoch ein Mensch in der Nähe der Pfütze befindet, kann die Aktion als unangemessen bewertet werden, falls das Spritzwasser den Menschen treffen könnte.
  • Während dieses Beispiel im Allgemeinen nicht sicherheitskritisch ist, kann das tatsächliche Verhalten des Agenten im Kontext der Umgebung durchaus auch sicherheitskritisch sein. Zum Beispiel ist denkbar, dass die Wahrnehmung der Umgebung nicht der tatsächlichen Umgebung entspricht. In diesem Fall ist denkbar, dass der Agent eine durch die falsche Wahrnehmung bedingte gefährliche Aktion plant. Zum Beispiel ist denkbar, dass der Agent einen Menschen nicht wahrnimmt, der sich in der unmittelbaren Umgebung des Agenten befindet, und der Agent eine Bewegung plant, die ihn mit dem Menschen kollidieren lässt.
  • Der Vorteil eines Verfahrens mit Merkmalen des unabhängigen Anspruchs 1 ist, dass ein Agent derart angesteuert wird, dass sein Verhalten in seiner Umgebung gemäß einer Mehrzahl von Normen überprüft und beim Verletzen einer oder mehrerer Normen die vom Agenten geplante Aktion entsprechend angepasst werden kann. Dies erlaubt ein sicheres und angemessenes Verhalten des Agenten.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Ansteuern eines Agenten umfassend die Schritte:
    1. a. Bereitstellen einer Aktion, die der Agent in seiner Umgebung ausführen soll, aus einer Mehrzahl von möglichen Aktionen;
    2. b. Ermitteln einer Mehrzahl von ersten Werten jeweils bezüglich einer Norm aus einer Mehrzahl von Normen (N) auf Basis der bereitgestellten Aktion, wobei ein erster Wert jeweils charakterisiert, ob die bereitgestellte Aktion ein gewünschtes Verhalten des Agenten bezüglich der jeweiligen Norm gewährleistet oder nicht;
    3. c. Ermitteln eines der bereitgestellten Aktion entsprechenden zweiten Wertes auf Basis der Mehrzahl von ersten Werten, wobei der jeweilige zweite Wert charakterisiert, inwiefern die bereitgestellte Aktion bezüglich der Gesamtheit der Normen unangemessen ist;
    4. d. Ansteuern des Agenten derart, dass der Agent die bereitgestellte Aktion ausführt, falls der zweite Wert anzeigt, dass die bereitgestellte Aktion nicht unangemessen ist;
    5. e. Ermitteln einer angepassten Aktion auf Basis der bereitgestellten Aktion, falls der zweite Wert anzeigt, dass die Aktion unangemessen ist, und Ansteuern des Agenten derart, dass er die angepasste Aktion ausführt.
  • Unter einem Agenten kann eine Vorrichtung verstanden werden, die basierend auf einer Wahrnehmung der Umgebung, in der sie sich befindet, eine Aktion ausführt, die in der Umgebung stattfindet oder die Umgebung verändert. Ein Beispiel für einen Agenten ist ein Roboter. Der Roboter kann über entsprechende Sensoren verfügen, um seine Umwelt wahrzunehmen. Auf Basis der Wahrnehmung kann der Roboter sich dann beispielsweise durch die Umgebung bewegen. Die Bewegung kann als Aktion verstanden werden, die der Roboter in seiner Umgebung ausführt.
  • In einem weiteren Beispiel kann der Roboter über einen Greifarm verfügen, mit dem er Aspekte der Umgebung manipulieren kann. Zum Beispiel kann ein Roboter mit Hilfe eines Greifarms Kisten in einem Lager stapeln. In diesem Fall verändert der Roboter durch die Aktion des Stapelns seine Umgebung.
  • Die vom Agenten durchgeführte Aktion kann aus einer Mehrzahl von Aktionen ermittelt werden, die zum Beispiel in Form einer Liste von möglichen Aktionen vorliegen.
  • Es ist vorstellbar, dass Aktionen feste Werte für kontinuierliche Größe definieren. Zum Beispiel kann eine Aktion besagen, dass der Agent für 10 Sekunden sich mit 10 km/h geradeaus bewegen soll. Eine zweite Aktion könnte besagen, dass der Agent sich für 10 Sekunden mit 15 km/h geradeaus bewegen soll. Die kontinuierliche Größe einer Geschwindigkeit kann durch die Aktionen dementsprechend diskretisiert werden.
  • Im Kontext der Erfindung können Normen als gewünschtes oder gefordertes Verhalten verstanden werden, welches der Agent beim Ausführen von Aktionen zu befolgen hat. Die Normen können dabei insbesondere derart ausgeprägt sein, dass das Verhalten des Agenten bezüglich eines gewünschten Aspekts nichtdiskriminierend ist. Beispielsweise ist denkbar, dass der Agent in eine Situation gerät, in der eine Kollision mit Menschen in der Umgebung unvermeidbar ist (ähnlich dem bekannten Trolley Problem). In diesem Beispiel kann eine Norm besagen, dass der Agent eine Aktion nicht dahingehend planen soll, ob eine Kollision mit einem alten oder jungen Menschen stattfindet und die Person, mit der kollidiert wird, nicht entsprechend des Alters ausgewählt wird.
  • Für jede Norm kann ein entsprechender erster Wert ermittelt werden, der charakterisiert, ob die Norm verletzt wurde oder nicht. Hierfür kann die Norm vorzugsweise durch eine aussagenlogische Formel repräsentiert sein, die den sinngemäßen Inhalt der Norm als Verknüpfung der Aktion und/oder atomaren Gegebenheiten der Umgebung dargestellt sein. Unter atomaren Gegebenheiten der Umgebung können zum Beispiel Objekte und deren Zugehörigkeit zu einer oder mehrerer Klassen verstanden werden (z.B. Personen und deren Geschlecht). Weiterhin ist denkbar, dass die atomaren Gegebenheiten durch Wettersituationen oder statische Strukturen der Umgebung (z.B. Brücken, Häuser) gegeben sind. Weiterhin ist denkbar, dass atomare Gegebenheiten auch durch Geräusche (z.B. Warnsignale oder Sirenen von Einsatzfahrzeugen) oder Sprache gegeben sein können.
  • Normen müssen dabei nicht zwangsläufig auf ein moralisches oder ethisches Verhalten des Agenten abzielen. Eine Norm könnte beispielsweise ausdrücken, dass eine vom Agenten geplante Trajektorie keine Kurve aufweisen darf, die einen bestimmen Radius unterschreitet, falls der Untergrund der Umgebung nass ist. Als aussagenlogische Formel kann dies über z.B. einen booleschen Ausdruck dargestellt werden, dessen Ergebnis anzeigt, ob die Norm eingehalten wurde oder nicht.
  • Das Verfahren erlaubt das einfache Hinzufügen und Entfernen von Normen. Das Verhalten des Agenten kann hierdurch vorteilhafterweise einfach für neue Aufgabenzwecke angepasst werden, ohne den zu Grunde liegenden Ablauf des Verfahrens zu verändern. Es ist beispielsweise vorstellbar, dass dem Agenten abhängig von der zu erfüllenden Aufgabe eine der Aufgabe entsprechend festgelegt Menge von Normen übermittelt wird. Falls die Aufgabe sich ändert, kann diese festgelegt Menge von Normen gegen eine neue Menge von Normen ausgetauscht werden.
  • Eine Aktion des Agenten kann generell als Handlungsplan verstanden werden, der in unterschiedlicher Granularität vorliegen kann. Die Granularität sollte vorzugsweise genau genug sein, dass für die Mehrzahl von Normen ausgewertet werden kann, ob eine Aktion einer entsprechenden Norm genügt. Im oben genannten Beispiel einer Norm ist es beispielsweise von Nöten, dass die geplante Aktion nicht nur den Start- und Endpunkt der gewünschten Trajektorie beschreibt, sondern darüber hinaus auch Informationen bezüglich der jeweiligen Streckenabschnitte der Trajektorie aufweist.
  • Auf Basis mehrerer, vorzugsweise aller, ermittelten ersten Werte kann ein zweiter Wert ermittelt werden, der charakterisiert, ob die geplante Aktion bezüglich der Norman unangemessen ist. Zum Beispiel können hierfür alle ersten Werte addiert werden. Darüber hinaus kann der zweite Wert auch als Maß der Unangemessenheit der Aktion verwendet werden. Im Beispiel der Summe der ersten Werte führt ein verletzen von einer Mehrzahl von Normen beispielsweise zu einem höheren zweiten Wert als ein Verletzen von nur einer Norm.
  • Es ist vorstellbar, dass der zweite Wert eine Aktion als unangemessen anzeigt, falls der zweite Wert über einem vordefinierten Schwellenwert liegt und die Aktion andernfalls als nicht unangemessen angezeigt wird.
  • Es ist weiterhin vorstellbar, dass den Normen jeweils Gewichtswerte zugeordnet sind. In diesem Fall kann der zweite Wert bestimmt werden, in dem die Gewichtswerte der Normen addiert werden, die von der entsprechenden Aktion verletzt werden.
  • In einem weiteren Aspekt der Erfindung ist vorstellbar, dass die angepasste Aktion durch folgende Schritte ermittelt wird:
    • f. Bereitstellen der bereitgestellten Aktion als neue Aktion;
    • g. Auswahl einer von der oder den bisher bereitgestellten neuen Aktionen verschiedenen weiteren Aktion aus der Menge möglicher Aktionen und bereitstellen der weiteren Aktion als neue Aktion;
    • h. Ermitteln eines der neuen Aktion entsprechenden neuen zweiten Werts auf Basis der neuen Aktion;
    • i. Wiederholen der Schritte g. und h., falls der neue zweite Wert anzeigt, dass die neue Aktion unangemessen ist;
    • j. Bereitstellen der neuen Aktion als angepasste Aktion, falls der neue zweite Wert anzeigt, dass die neue Aktion nicht unangemessen ist;
    • k. Auswahl einer der neuen Aktionen oder der in Schritt a. bereitgestellten Aktion als angepasste Aktion, falls aus der Menge der möglichen Aktionen keine neue Aktion mehr ausgewählt werden kann, die von den bisher ausgewählten neuen Aktionen abweicht, und alle entsprechenden zweiten Werte der ausgewählten neuen Aktionen anzeigen, dass die neuen Aktionen unangemessen sind.
  • Die Auswahl einer von der oder den bisher bereitgestellten neuen Aktionen verschiedenen weiteren Aktion kann durch eine zufällige Auswahl aus der verbleibenden Menge der möglichen Aktionen geschehen.
  • Alternativ ist vorstellbar, dass für die möglichen Aktionen jeweils ein Kostenwert bezüglich eines oder mehrerer Kostenmaße ermittelt wird und zur Auswahl einer von der oder den bisher bereitgestellten neuen Aktionen verschiedenen weiteren Aktion die Aktion ausgewählt wird, die von den verbleibenden möglichen Aktionen den geringsten Kostenwert aufweist. Als Kostenmaß kann beispielsweise eine für die Aktion benötigte Menge an Energie verwendet werden. Alternativ kann als Kostenmaß auch die Zeit verwendet werden, die das Ausführen einer entsprechenden Aktion in Anspruch nimmt. Weiterhin ist denkbar, dass verschiedene Kostenmaße kombiniert werden können, um den Kostenwert einer Aktion zu ermitteln, zum Beispiel über eine gewichtete Summe.
  • Ein Vorteil dieser Herangehensweise ist, dass automatisiert eine Aktion gefunden werden kann, die die gewünschten Normen einhält. Für den Fall, dass keine solche Aktion gefunden werden kann, erlaubt die Herangehensweise die Auswahl einer der möglichen Aktionen derart, dass das Einhalten verschiedener Normen gegeneinander abgewogen werden kann. Dies ermöglicht das Anwenden spezifischer Regeln, bezüglich der Rangfolge der Normen. Diese Rangfolge kann, ähnlich den Normen, entsprechend dem Ziel der Aufgabe des Agenten angepasst und gegebenenfalls verändert werden. Dies ermöglicht dem Agenten weiter einen autonomen Betrieb ohne die Notwendigkeit eines Eingriffes durch einen Menschen, während das Verhalten des Agenten nachvollziehbar bleibt.
  • Weiterhin ist denkbar, dass in Schritt k. diejenige neue Aktion als angepasste Aktion ausgewählt wird, die den kleinsten entsprechenden zweiten Wert aufweist.
  • Falls eine Mehrzahl von neue Aktionen vorliegt, deren entsprechender zweiter Wert der kleinste ist, kann aus der Mehrzahl der neuen Aktionen eine Aktion zufällig ausgewählt werden und als angepasste Aktion bereitgestellt werden.
  • Der Vorteil dieser Herangehensweise ist, dass keine expliziten Regeln aufgestellt werden müssen, welche der Normen einer entsprechenden anderen Norm vorzuziehen ist. Dies bedingt, dass alle potentiellen Konflikte der Normen automatisiert gelöst werden können.
  • In einem weiteren Aspekt ist vorstellbar, dass in Schritt a. die bereitgestellte Aktion basierend auf einem Ausgabesignal eines Klassifikators bereitgestellt wird, wobei das Ausgabesignal eine Klassifikation der Umgebung charakterisiert.
  • Die Klassifikation kann zum Beispiel andere Objekte, Wetterbedingungen oder Geräusche in der Umgebung ermitteln. Hierfür können vorzugsweise ein oder mehrere Bildklassifikatoren und/oder ein oder mehrere Audioklassifikatoren verwendet werden. Zu diesem Zweck kann die Umgebung über einen oder mehrere bildgebende und/oder akustische Sensoren erfasst werden und die entsprechenden Daten an den oder die Bildklassifikatoren bzw. den oder die Audioklassifikatoren übergeben werden.
  • Der Vorteil dieser Herangehensweise ist, dass die Umgebung einfach in eine diskrete Darstellung überführt werden kann, wobei die diskrete Darstellung dann zur einfachen Bestimmung von Aktionen verwendet werden kann, zum Beispiel über entsprechende Regeln. Weiterhin kann die diskrete Darstellung einfach in booleschen Ausdrücken verwendet werden, die entsprechende Normen repräsentieren, und so das Einhalten der Normen einfach und effizient überprüft werden.
  • Weiterhin ist vorstellbar, dass in Schritt a. auf Basis des Ausgabesignals eine Ausprägung der Umgebung ermittelt wird und die bereitgestellte Aktion zusätzlich abhängig davon bereitgestellt wird, ob die ermittelte Ausprägung einer Ausprägung aus einer vorgebbaren Menge von zulässigen Ausprägungen entspricht.
  • Der Vorteil dieser Herangehensweise ist, dass der Agent unsicheres Verhalten vermeidet, indem er Ausprägungen der Umwelt erkennt, für die er nicht ausgelegt wurde, und dementsprechend eine Aktion plant.
  • Zum Beispiel ist vorstellbar, dass ein Agent nur dann automatisiert betrieben werden soll, wenn es nicht regnet. Für den Fall, dass in der Umwelt Regen detektiert wird, kann der Agent die Steuerung an einen Menschen übergeben oder einen sicheren Zustand einnehmen (z.B. der Agent bleibt stehen oder bewegt sich in einen vordefinierten Bereich, etwa eine Garage).
  • Diese Herangehensweise ermöglicht, dass der Agent entsprechende Aktionen nur dann durchführt, wenn sicher ist, dass die Umgebung, in der er sich befindet, eine solche Aktion zulässt, die Aktion also nicht unerwünscht und/oder gefährlich im Sinne von Material- oder sogar Personenschaden ist. Hierdurch wird fehlerhaftes Verhalten des Agenten weiter reduziert.
  • In einem weiteren Aspekt der Erfindung ist vorstellbar, dass in Schritt a. die Aktion zusätzlich basierend auf einer oder mehrerer vorheriger Wahrnehmungen der Umgebung bestimmt wird.
  • Es ist denkbar, dass der Agent die Umgebung zu aufeinanderfolgenden Zeitpunkten wahrnimmt. In diesem Fall kann der Agent seine Aktion auch in Hinblick auf vergangene Umgebungssituationen wählen.
  • Der Vorteil dieser Herangehensweise ist, dass der Agent Umgebungswahrnehmungen zu verschiedenen Zeitpunkten gegeneinander plausibilisieren kann. Zum Beispiel kann ein Agent in vordefinierten kurzen Abständen die Umgebung über einen Kamerasensor wahrnehmen. Falls ein Objekt zu einem Zeitpunkt in einem aufgenommenen Bild erkannt wurde, ist die Wahrscheinlichkeit im Allgemeinen entsprechend hoch, dass es zum nächsten Aufnahmezeitpunkt im Bild immer noch vorhanden ist. Falls das Objekt zum nächsten Aufnahmezeitpunkt in einem entsprechenden Bild nicht mehr wahrgenommen wird, kann dies auf eine Fehlfunktion der Umgebungswahrnehmung hindeuten. Auf Basis dieser Information kann der Agent entsprechend in einen sicheren Zustand gebracht werden oder die Steuerung kann an einen Menschen übergeben werden.
  • Dies bedingt, dass die Aktionen des Agenten noch sicherer werden und ungewünschtes und/oder gefährliches Verhalten des Agenten weiter reduziert wird.
  • Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
    • 1 schematisch einen Aufbau eines Steuerungssystems zur Ansteuerung eines Aktors;
    • 2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters;
    • 3 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten.
  • Beschreibung der Ausführungsbeispiele
  • 1 zeigt einen Aktor (10) in seiner Umgebung (20) in Interaktion mit einem Steuerungssystem (40). In vorzugsweise regelmäßigen zeitlichen Abständen wird die Umgebung (20) in einem Sensor (30), insbesondere einem bildgebenden Sensor, wie einem Videosensor, oder einem akustischen Sensor, wie einem Mikrofon, erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann, beispielsweise eine Stereokamera. Das Sensorsignal (S) - bzw. im Fall mehrerer Sensoren je ein Sensorsignal (S) - des Sensors (30) wird an das Steuerungssystem (40) übermittelt. Das Steuerungssystem (40) empfängt somit eine Folge von Sensorsignalen (S). Das Steuerungssystem (40) ermittelt hieraus Ansteuersignale (A), welche an den Aktor (10) übertragen werden.
  • Das Steuerungssystem (40) empfängt die Folge von Sensorsignalen (S) des Sensors (30) in einer optionalen Empfangseinheit (50), die die Folge von Sensorsignalen (S) in eine Folge von Eingabesignalen (x) umwandelt, wobei für bildgebende Sensoren die Eingabesignale (x) Bilder sind und für akustische Sensoren die Eingabesignale (x) Audiosignale sind (alternativ kann auch unmittelbar je das Sensorsignal (S) als Eingabesignal (x) übernommen werden). Ein Eingabesignal (x) kann beispielsweise ein Ausschnitt und/oder eine Weiterverarbeitung eines Sensorsignals (S) sein. Mit anderen Worten wird das Eingabesignal (x) abhängig von Sensorsignal (S) ermittelt. Die Folge von Eingabesignalen (x) wird einem Klassifikator (60) zugeführt.
  • Der Klassifikator (60) wird vorzugsweise parametriert durch Parameter (ϕ), die in einem Parameterspeicher (P) hinterlegt sind und von diesem bereitgestellt werden.
  • Der Klassifikator (60) ermittelt aus den Eingabesignalen (x) ein oder mehrere Ausgabesignale (y), vorzugsweise auf Basis eines künstlichen neuronalen Netzes.
  • Falls die Eingabesignale (x) in Form von Bildern vorliegen, kann das künstliche neuronale Netz vorzugsweise durch ein Convolutional Neural Network gegeben sein. Die Ausgabesignale (y) können insbesondere Informationen über das Vorhandensein von Objekte und/oder statische Strukturen und/oder Wetterbedingungen charakterisieren, welche auf dem Eingangsbild (x) zu erkennen sind.
  • Als Bilder können insbesondere Sensorsignale (S) eines Kamerasensors, Radarsensors, LIDAR-Sensors, Ultraschallsensors oder einer Thermalkamera verwendet werden.
  • Für den Fall, dass die Eingabesignale (x) in Form von akustischen Signalen vorliegen, kann das neuronale Netz vorzugsweise durch ein Transformer Network oder ein Recurrent Neural Network, z. B. ein Long Short-Term Memory, gegeben sein. In diesem Fall kann das entsprechende Ausgabesignal (y) insbesondere Klassifikationen von Geräuschen wie Signaltönen oder Sirenen charakterisieren. Darüber hinaus ist denkbar, dass die wahrgenommenen Geräusche Sprache darstellen und der Klassifikator (60) auf Basis der wahrgenommenen Sprache einen Sprachbefehl ermitteln kann, der zum Beispiel eine auszuführende Aktion darstellen kann.
  • Die Ausgabesignale (y) werden einer Kontexteinheit (70) zugeführt. Die Kontexteinheit (70) ermittelt auf Basis der Ausgabesignale (y), ob eine Ausprägung der Umgebung (20) einer vorgebbaren Ausprägung der Umgebung (20) entspricht, in der das Steuersystem (40) eingesetzt werden soll. Zum Beispiel kann festgelegt werden, dass das Steuersystem (40) nur unter bestimmten Wetterbedingungen den Aktor (10) ansteuern soll. Weiterhin ist denkbar, dass das Steuerungssystem (40) den Aktor (10) nur dann ansteuern darf, wenn sich im direkten Umfeld des Sensors (30) keine Menschen befinden, zum Beispiel beim Einsatz des Steuerungssystems bei einem Fertigungsroboter.
  • Zusätzlich kann die Kontexteinheit (70) die Ermittlung bezüglich der vorgegebenen Ausprägung der Umgebung (20) auf Basis von Informationen einer Introspektionseinheit (71) vornehmen. Es ist beispielsweise denkbar, dass die Introspektionseinheit (71) Informationen über ein oder mehrere zurückliegende Ausgabesignale (y) vorhält, die mit dem aktuellen Ausgabesignal (y) verglichen werden können. Hierüber kann beispielsweise ein Abgleich durchgeführt werden, der ermittelt, inwieweit die aktuelle Wahrnehmung der Umgebung (20) von unmittelbar zurückliegenden Wahrnehmungen abweicht. Diese Information kann beispielsweise benutzt werden, um eine automatisierte Plausibilisierung der aktuellen Wahrnehmung vorzunehmen. Zum Beispiel kann eine Inkonsistenz bezüglich detektierter Objekte zwischen mehreren Ausgabesignalen derart verarbeitet werden, dass die Kontexteinheit (70) als Ausgabe ermittelt, dass sie sich über die derzeitige Umgebungswahrnehmung nicht sicher ist.
  • Die durch die Kontexteinheit (70) ermittelten Informationen sowie die Ausgabesignale (y) können dann einer Planungseinheit (72) zugeführt werden, die eine Aktion bestimmt, die vom Aktuator (10) durchzuführen ist. Diese Aktion kann insbesondere auch derart ausgeprägt sein, dass der Aktuator (10) nichts tun soll und auf Eingabe eines Menschen warten soll. Dies kann insbesondere dann von der Planungseinheit (72) ausgewählt werden, falls die Kontexteinheit (70) bestimmt hat, dass die aktuelle Umgebung (20) keiner der vorgegebenen Umgebungen entspricht, für deren Einsatz das Steuerungssystem (40) ausgelegt ist. Weiterhin ist denkbar, dass eine Übergabe der Steuerung an einen Menschen auch dann vorgenommen werden kann, falls die Kontexteinheit (70) eine hohe Unsicherheit bezüglich der Umgebungswahrnehmung aufweist.
  • Für den Fall, dass die Kontexteinheit (70) die Umgebung (20) als einer der vorgegebenen Umgebungen entsprechend bestimmt hat, kann die Planungseinheit (72) eine Aktion wählen, die den Aktuator (10) zu einem automatischen Betrieb veranlasst. Beispielsweise ist denkbar, dass das Steuerungssystem (40) zum Ansteuern eines Roboters (100) (z.B. dargestellt in 2) verwendet wird und die Aktion den Aktuator (10) anweist, den Roboter (100) auf einer bestimmten Trajektorie in der Umgebung (20) zu bewegen.
  • Die von der Planungseinheit (72) bestimmte Aktion wird anschließend von einer Prüfeinheit (73) in Hinblick auf Einhaltung einer Reihe von Normen (N) überprüft. Die Normen (N) können als Regeln verstanden werden, die vorgeben, wie das Steuerungssystem (40) den Aktor (10) ansteuern darf. Im Beispiel des Roboters (100) kann eine Norm beispielsweise bestimmen, dass keine Trajektorie geplant werden darf, die eine Kollision mit einem Menschen verursacht. Eine andere Norm kann bestimmen, dass ebenfalls keine Trajektorie geplant werden darf, die zu einer Kollision mit einem Gegenstand führt.
  • Die Normen (N) liegen hierbei vorzugsweise in Form von aussagenlogischen Formeln vor, wobei eine Formel einen Wahrheitswert bestimmt, der charakterisiert, ob eine entsprechende Norm eingehalten wurde oder nicht. Zur Bestimmung des Wahrheitswerts kann eine Norm auf aktuelle und/oder zurückliegende Ausgabesignale (y) und/oder auf die geplante Aktion zugreifen.
  • Im Beispiel des Roboters (100) ist vorstellbar, dass eine Norm existiert, die besagt, dass bei Schneefall die Geschwindigkeit des Roboters (100) 50 km/h nicht überschreiten darf. Diese Norm kann durch folgende aussagenlogische Formel repräsentiert werden: N S c h n e e = ¬ ( S 50 + W S c h n e e ) ,
    Figure DE102020204388A1_0001
    wobei S50+ ein Wahrheitswert ist, der angibt, ob auf der geplanten Trajektorie eine Geschwindigkeit größer 50 km/h geplant ist, und WSchnee ein Wahrheitswert ist, der angibt, ob in der Umgebung (20) Schnee fällt. WSchnee kann vorzugsweise durch eine entsprechende Klassifikation des Klassifikators (60) ermittelt werden. Ein Einsetzen der beiden Wahrheitswerte in die beschriebene Formel erlaubt die Auswertung, ob die geplante Aktion der beschriebenen Norm genügt.
  • Auf Basis der aussagenlogischen Formeln kann für jede Norm ein erster Wert ermittelt werden, der charakterisiert, inwieweit eine geplante Aktion bezüglich der jeweiligen Norm angemessen ist. Hierfür können beispielsweise die Ergebnisse der Auswertung der Formeln (WAHR oder FALSCH) als entsprechende ganze Zahlen dargestellt werden (1 für WAHR oder 0 für FALSCH). Die entsprechenden Ergebnisse können anschließend aufaddiert werden, um einen der Aktion entsprechenden zweiten Wert zu ermitteln, der charakterisiert, inwieweit die Aktion bezüglich aller Normen (N) angemessen ist.
  • Es ist weiterhin vorstellbar, dass jeder Norm ein Gewichtswert zugeordnet ist, der als ein Maß der Wichtigkeit der Norm verstanden werden kann. In diesem Fall kann der zweite Wert als gewichtete Summe der Ergebnisse der Formeln ermittelt werden, wobei jeweils das Ergebnis einer Formel mit dem der jeweiligen Norm entsprechenden Gewichtswert multipliziert wird und die so erhaltenen Werte addiert werden.
  • Die geplante Aktion und der zweite Wert können dann an eine Konfliktlösungseinheit (74) weitergeleitet werden. Für den Fall, dass der zweite Wert Null ist, kann die geplante Aktion von der Konfliktlösungseinheit (74) eine optionale Umformeinheit (80) weitergeleitet werden, da keine Norm verletzt wurde. Die Umformeinheit (80) kann dann ein der geplanten Aktion entsprechendes Ansteuersignal (A) ermitteln und auf Basis des Ansteuersignals (A) den Aktor (10) entsprechend ansteuern.
  • Für den Fall, dass der zweite Wert größer Null ist, wurde mindestens eine Norm verletzt. In diesem Fall kann die Konfliktlösungseinheit (74) die Planungseinheit (72) anweisen eine andere Aktion zu planen. Für diese andere Aktion kann nach einem der Vorgehen oben ein entsprechender zweiter Wert ermittelt werden.
  • Falls dieser zweite Werte wieder größer Null ist, kann das beschriebene Vorgehen erneut wiederholt werden.
  • Der beschriebene iterative Prozess kann in zwei möglichen Szenarien enden. Die erste Möglichkeit ist, dass im Laufe der Iterationen eine Aktion ermittelt wird, zu der der entsprechende zweite Wert Null ist, in diesem Fall wurde eine angemessene Aktion gefunden, die an die optionale Umformeinheit (80) übermittelt werden kann. Die zweite Möglichkeit ist, dass keine Aktion aus der Menge der möglichen Aktion gefunden wurde, deren entsprechender zweiter Wert Null ist.
  • Für den zweiten Fall kann die Konfliktlösungseinheit (74) eine automatisierte Konfliktlösung durchführen. Zum Beispiel ist denkbar, dass die Konfliktlösungseinheit (74) eine Aktion auswählt, deren entsprechender zweiter Wert der kleinste von allen ermittelten zweiten Werten ist.
  • Darüber hinaus ist denkbar, dass der Konfliktlösungseinheit (74) für jede geplante Aktion eine Liste der Normen mit übermittelt wird, die von der Aktion verletzt werden. Die Konfliktlösungseinheit (74) kann in diesem Fall auf Basis der jeweils verletzten Normen beispielsweise regelbasiert entscheiden, welche Aktion ausgeführt werden soll, wobei die Regeln (R) vorzugsweise als aussagenlogische Formeln vorliegen.
  • Das Prinzip kann an folgendem Beispiel verdeutlicht werden: Im Beispiel des Roboters (100) ist es denkbar, dass jeweils Normen (N) vorliegen, die besagen, dass die Beschleunigung des Roboters (100) unter einem ersten Schwellenwert liegen soll, die Geschwindigkeit des Roboters (100) unterhalb eines zweiten Schwellenwerts liegen soll und der Roboter (100) mit keinem Menschen kollidieren darf. Weiterhin ist denkbar, das zwei Aktionen möglich sind, wobei bei der ersten Aktion die ersten beiden Normen verletzt werden und bei der zweiten Aktion die letzte der drei Normen. Eine mögliche Regel zur Konfliktlösung könnte in diesem Fall zum Beispiel besagen, dass das Verletzen der Normen bezüglich Geschwindigkeit und Beschleunigung der Kollision mit einem Menschen vorzuziehen ist. Die Konfliktlösungseinheit (74) könnte in diesem Fall daher die zweite Aktion an die optionale Umformungseinheit (80) weiterreichen.
  • Für den Fall, dass ein Konflikt nicht durch die Regeln (R) abgedeckt ist, kann die Konfliktlösungseinheit (74) diesen nicht aufgelösten Konflikt der Introspektionseinheit (71) melden, die diesen Konflikt zur späteren Analyse durch einen Menschen vorhalten kann.
  • In anderen Ausführungsbeispielen ist alternativ vorstellbar, dass die Konfliktlösungseinheit (74) einen Menschen beauftragt den Konflikt zu lösen, das heißt die Aktion zu bestimmten, die ausgeführt werden soll. Dies kann vorteilhafterweise insbesondere dann geschehen, wenn keine Regel (R) existiert, über die ein Konflikt automatisch gelöst werden kann.
  • Für den Fall, dass ein Mensch mit der Konfliktlösung beauftragt wird ist weiterhin vorstellbar, dass die ausgewählte Lösungsstrategie im Steuerungssystem (40), zum Beispiel in der Introspektionseinheit (71), abgespeichert wird, um bei nochmaligem Auftreten des Konflikts eine automatisierte Konfliktlösung zu erwirken.
  • Falls die Konfliktlösungseinheit (74) keinen Konflikt auflösen musste oder ein Konflikt erfolgreich aufgelöst wurde, kann die in den jeweiligen Ausführungsbeispielen entsprechend ermittelte Aktion der
    optionalen Umformeinheit (80) zugeführt werden, die hieraus Ansteuersignale (A) ermittelt, welche dem Aktor (10) zugeführt werden, um den Aktor (10) entsprechend anzusteuern. Alternativ ist denkbar, dass die von der Konfliktlösungseinheit (74) ausgegebene Aktion direkt an den Aktor (10) als Ansteuersignal (A) weitergereicht wird.
  • Der Aktor (10) empfängt die Ansteuersignale (A), wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor (10) kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welche aus dem Ansteuersignal (A) ein zweites Ansteuersignal ermittelt, mit dem dann der Aktor (10) angesteuert wird.
  • In weiteren Ausführungsformen umfasst das Steuerungssystem (40) den Sensor (30). In noch weiteren Ausführungsformen umfasst das Steuerungssystem (40) alternativ oder zusätzlich auch den Aktor (10).
  • In weiteren Ausführungsformen kann über das Ansteuersignal (A) alternativ oder zusätzlich zum Aktor (10) eine Anzeigevorrichtung (10a) gesteuert werden, zum Beispiel ein Display, eine haptische Anzeige oder eine akustische Anzeige.
  • In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem (40) eine Ein- oder Mehrzahl von Prozessoren (45) und wenigstens ein maschinenlesbares Speichermedium (46), auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren (45) ausgeführt werden, das Steuerungssystem (40) veranlassen, das erfindungsgemäße Verfahren auszuführen.
  • 2 zeigt, wie das Steuerungssystem (40) zur Steuerung eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs (100), eingesetzt werden kann.
  • Bei dem Sensor (30) kann es sich beispielsweise um einen vorzugsweise im Kraftfahrzeug (100) angeordneten Videosensor handeln. In diesem Fall ist vorstellbar, dass der Klassifikator (60) ein Bildklassifikator ist, der eingerichtet ist, aus den Eingangsbildern (x) Objekte zu identifizieren.
  • Bei dem vorzugsweise im Kraftfahrzeug (100) angeordneten Aktor (10) kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahrzeugs (100) handeln. Das Ansteuersignal (A) kann dann derart ermittelt werden, dass der Aktor oder die Aktoren (10) derart angesteuert werden, dass das Kraftfahrzeug (100) beispielsweise eine Kollision mit den vom Bildklassifikator (60) identifizierten Objekte verhindert, insbesondere, wenn es sich um Objekte bestimmter Klassen, z.B. um Fußgänger, handelt.
  • Alternativ oder zusätzlich zum Aktor (10) kann mit dem Ansteuersignal (A) eine Anzeigevorrichtung (10a) angesteuert werden und beispielsweise die identifizierten Objekte dargestellt werden. Auch ist es beispielsweise beim einem Kraftfahrzeug (100) mit nicht automatisierter Lenkung möglich, dass die Anzeigevorrichtung (10a) mit dem Ansteuersignal (A) derart angesteuert wird, dass sie ein optisches und/oder haptisches und/oder akustisches Warnsignal ausgibt, wenn ermittelt wird, dass das Kraftfahrzeug (100) droht, mit einem der identifizierten Objekte zu kollidieren.
  • In weiteren Ausführungsbeispielen ist denkbar, dass der Sensor (30) durch ein Mikrofon gegeben ist, das Audiosignale (x) aufnimmt, welche von einem Audioklassifikator (60) klassifiziert werden. Insbesondere ist denkbar, dass der Audioklassifikator (60) basierend auf dem Audiosignal (x) ermittelt, ob sich Einsatzfahrzeuge dem Fahrzeug (100) nähern. Dies kann zum Beispiel auf Basis einer Detektion von Sirenengeräuschen geschehen. Für den Fall, dass ein Sirenengeräusch erkannt wurde, kann das Steuerungssystem (40) das Fahrzeug (100) derart ansteuern, dass es eine Rettungsgasse bildet oder stehen bleibt.
  • Weiterhin ist denkbar, dass die Anzeigevorrichtung (10a) mit dem Ansteuersignal (A) derart angesteuert wird, dass sie ein optisches und/oder haptisches und/oder akustisches Warnsignal ausgibt, wenn Sirenengeräusche vom Klassifikator (60) detektiert wurden.
  • Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal (A) derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit von einem Bildklassifikator (60) identifizierten Objekten verhindert.
  • 3 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem (40) zur Steuerung eines persönlichen Assistenten (250) eingesetzt wird. Der Sensor (30) ist bevorzugt ein optischer Sensor, der Bilder einer Geste eines Nutzers (249) empfängt.
  • Abhängig von den Signalen des Sensors (30) ermittelt das Steuerungssystem (40) ein Ansteuersignal (A) des persönlichen Assistenten (250), beispielsweise, indem der Bildklassifikator (60) eine Gestenerkennung durchführt. Dem persönlichen Assistenten (250) wird dann dieses ermittelte Ansteuersignal (A) übermittelt und er somit entsprechend angesteuert. Dieses ermittelte Ansteuersignal (A) ist kann insbesondere derart gewählt werden, dass es einer vermuteten gewünschten Ansteuerung durch den Nutzer (249) entspricht. Diese vermutete gewünschte Ansteuerung kann abhängig von der vom Bildklassifikator (60) erkannten Geste ermittelt werden. Das Steuerungssystem (40) kann dann abhängig von der vermuteten gewünschten Ansteuerung das Ansteuersignal (A) zur Übermittlung an den persönlichen Assistenten (250) wählen und/oder das Ansteuersignal (A) zur Übermittlung an den persönlichen Assistenten entsprechend der vermuteten gewünschten Ansteuerung (250) wählen.
  • Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent (250) Informationen aus einer Datenbank abruft und sie für den Nutzer (249) rezipierbar wiedergibt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017223717 [0002]

Claims (12)

  1. Computerimplementiertes Verfahren zum Ansteuern eines Agenten (100, 250) umfassend die Schritte: a. Bereitstellen (72) einer Aktion, die der Agent (100, 250) in seiner Umgebung (20) ausführen soll, aus einer Mehrzahl von möglichen Aktionen; b. Ermitteln (73) einer Mehrzahl von ersten Werten jeweils bezüglich einer Norm (Ni) aus einer Mehrzahl von Normen (N) auf Basis der bereitgestellten Aktion, wobei ein erster Wert jeweils charakterisiert, ob die bereitgestellte Aktion ein gewünschtes Verhalten des Agenten bezüglich der jeweiligen Norm (Ni) gewährleistet oder nicht; c. Ermitteln (74) eines der bereitgestellten Aktion entsprechenden zweiten Wertes auf Basis der Mehrzahl von ersten Werten, wobei der jeweilige zweite Wert charakterisiert, inwiefern die bereitgestellte Aktion bezüglich der Gesamtheit der Normen (N) unangemessen ist; d. Ansteuern des Agenten (100, 250) derart, dass der Agent (100, 250) die bereitgestellte Aktion ausführt, falls der zweite Wert anzeigt, dass die bereitgestellte Aktion nicht unangemessen ist; e. Ermitteln einer angepassten Aktion auf Basis der bereitgestellten Aktion, falls der zweite Wert anzeigt, dass die Aktion unangemessen ist, und Ansteuern des Agenten (100, 250) derart, dass er die angepasste Aktion ausführt.
  2. Verfahren nach einem der Ansprüche 2 oder 3, wobei wenigstens eine Norm der Mehrzahl von Normen (N) einen entsprechenden ersten Wert des Weiteren abhängig von der Umgebung (20) ermittelt.
  3. Verfahren nach einem der Ansprüche 1 oder 2, wobei den Normen (N) jeweils ein entsprechender Gewichtswert zugeordnet ist, der eine Gewichtung der entsprechenden Norm gegenüber anderen Normen charakterisiert, und der zweite Wert eine gewichtete Summe ist, die basierend auf den Normen und den entsprechenden Gewichtswerten ermittelt wird.
  4. Verfahren nach einem der vorherigen Ansprüche, wobei in Schritt e. die angepasste Aktion durch folgende Schritte ermittelt wird: f. Bereitstellen der bereitgestellten Aktion als neue Aktion; g. Auswahl einer von der oder den bisher bereitgestellten neuen Aktionen verschiedenen weiteren Aktion aus der Menge möglicher Aktionen und bereitstellen der weiteren Aktion als neue Aktion; h. Ermitteln eines der neuen Aktion entsprechenden neuen zweiten Werts auf Basis der neuen Aktion; i. Wiederholen der Schritte g. und h., falls der neue zweite Wert anzeigt, dass die neue Aktion unangemessen ist; j. Bereitstellen der neuen Aktion als angepasste Aktion, falls der neue zweite Wert anzeigt, dass die neue Aktion nicht unangemessen ist; k. Auswahl einer der neuen Aktionen oder der in Schritt a. bereitgestellten Aktion als angepasste Aktion, falls aus der Menge der möglichen Aktionen keine neue Aktion mehr ausgewählt werden kann, die von den bisher ausgewählten neuen Aktionen abweicht, und alle entsprechenden zweiten Werte der ausgewählten neuen Aktionen anzeigen, dass die neuen Aktionen unangemessen sind.
  5. Verfahren nach Anspruch 4, wobei in Schritt k. diejenige neue Aktion als angepasste Aktion ausgewählt wird, die den kleinsten entsprechenden zweiten Wert aufweist.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei in Schritt a. die bereitgestellte Aktion basierend auf einem Ausgabesignal (y) eines Klassifikators (60) bereitgestellt wird, wobei das Ausgabesignal (y) eine Klassifikation der Umgebung (20) charakterisiert.
  7. Verfahren nach Anspruch 6, wobei in Schritt a. auf Basis des Ausgabesignals (y) eine Ausprägung der Umgebung (20) ermittelt wird und die bereitgestellte Aktion zusätzlich abhängig davon bereitgestellt wird, ob die ermittelte Ausprägung einer Ausprägung aus einer vorgebbaren Menge von zulässigen Ausprägungen entspricht.
  8. Verfahren nach Anspruch 7, wobei eine Ausprägung der Umgebung (20) ein Vorhandensein von Objekten in der Umgebung (20) und/oder eine in der Umgebung (20) herrschende Wetterbedingung und/oder das Auftreten eines Geräusches in der Umgebung (20) charakterisiert.
  9. Verfahren nach einem der vorherigen Ansprüche, wobei die Ansteuerung auf Basis der Aktion ein Ansteuersignal (A) für einen Aktor (10) des Agenten (100, 250) ermittelt, und der Aktor (10) entsprechend dem Ansteuersignal (A) angesteuert wird.
  10. Vorrichtung, welche eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  11. Computerprogramm, welches eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  12. Maschinenlesbares Speichermedium (46), auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.
DE102020204388.4A 2020-04-03 2020-04-03 Verfahren und Vorrichtung zum Ansteuern eines Agenten Pending DE102020204388A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020204388.4A DE102020204388A1 (de) 2020-04-03 2020-04-03 Verfahren und Vorrichtung zum Ansteuern eines Agenten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020204388.4A DE102020204388A1 (de) 2020-04-03 2020-04-03 Verfahren und Vorrichtung zum Ansteuern eines Agenten

Publications (1)

Publication Number Publication Date
DE102020204388A1 true DE102020204388A1 (de) 2021-10-07

Family

ID=77749413

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020204388.4A Pending DE102020204388A1 (de) 2020-04-03 2020-04-03 Verfahren und Vorrichtung zum Ansteuern eines Agenten

Country Status (1)

Country Link
DE (1) DE102020204388A1 (de)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008037576A1 (de) 2008-11-21 2010-06-10 EnBW Energie Baden-Württemberg AG Computergestütztes Verfahren zur Optimierung der Energienutzung
DE102015002367A1 (de) 2014-03-02 2015-09-03 Gabriele Trinkel Sichere Übertragung von Daten und Skalierung, Regelung zur Überlastabwehr in der Cloud und Cloud Computing
DE102017106321A1 (de) 2016-03-31 2017-10-05 Avaya Inc. Kommunikationssysteme zur Robotersteuerung von mehreren Quellen
DE202014011117U1 (de) 2013-05-31 2018-02-27 Anki, Inc. Mobile Agenten zum Manipulieren, Bewegen und/oder Neuausrichten von Komponenten
DE202017105598U1 (de) 2016-09-15 2018-05-24 Google LLC (n.d.Ges.d. Staates Delaware) System zum tiefen Verstärkungslernen für Robotermanipulation
DE102017011361A1 (de) 2016-12-16 2018-06-21 Fanuc Corporation Maschinelle lernvorrichtung, robotersystem und maschinelles lernverfahren zum lernen des betriebs eines roboters und eines laserscanners
DE102017223717A1 (de) 2017-12-22 2019-06-27 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem
DE102018207539A1 (de) 2018-05-15 2019-11-21 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem
EP3605334A1 (de) 2018-07-31 2020-02-05 Prowler.io Limited Anreizsteuerung für multiagentensysteme
DE102019122790A1 (de) 2018-08-24 2020-02-27 Nvidia Corp. Robotersteuerungssystem

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008037576A1 (de) 2008-11-21 2010-06-10 EnBW Energie Baden-Württemberg AG Computergestütztes Verfahren zur Optimierung der Energienutzung
DE202014011117U1 (de) 2013-05-31 2018-02-27 Anki, Inc. Mobile Agenten zum Manipulieren, Bewegen und/oder Neuausrichten von Komponenten
DE102015002367A1 (de) 2014-03-02 2015-09-03 Gabriele Trinkel Sichere Übertragung von Daten und Skalierung, Regelung zur Überlastabwehr in der Cloud und Cloud Computing
DE102017106321A1 (de) 2016-03-31 2017-10-05 Avaya Inc. Kommunikationssysteme zur Robotersteuerung von mehreren Quellen
DE202017105598U1 (de) 2016-09-15 2018-05-24 Google LLC (n.d.Ges.d. Staates Delaware) System zum tiefen Verstärkungslernen für Robotermanipulation
DE102017011361A1 (de) 2016-12-16 2018-06-21 Fanuc Corporation Maschinelle lernvorrichtung, robotersystem und maschinelles lernverfahren zum lernen des betriebs eines roboters und eines laserscanners
DE102017223717A1 (de) 2017-12-22 2019-06-27 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem
DE102018207539A1 (de) 2018-05-15 2019-11-21 Robert Bosch Gmbh Verfahren zum Betreiben eines Roboters in einem Multiagentensystem, Roboter und Multiagentensystem
EP3605334A1 (de) 2018-07-31 2020-02-05 Prowler.io Limited Anreizsteuerung für multiagentensysteme
DE102019122790A1 (de) 2018-08-24 2020-02-27 Nvidia Corp. Robotersteuerungssystem

Similar Documents

Publication Publication Date Title
DE102018128289B4 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
DE102016118902A1 (de) Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten
DE102016007899A1 (de) Verfahren zum Betreiben einer Einrichtung zur Verkehrssituationsanalyse, Kraftfahrzeug und Datenverarbeitungseinrichtung
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
DE102020124633A1 (de) Kontextsensitive anpassung einer geländeblickzeit
DE102019105739A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
DE102020210352A1 (de) Verfahren und Vorrichtung zum Transferlernen zwischen modifizierten Aufgaben
DE102019115330A1 (de) Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
DE102019209457A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE112021006490T5 (de) Autonomer Fahrzeuglenkungs-Juke-Ereignisdetektor
EP3748453B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102018219760A1 (de) Kollisionsprädiktionssystem
WO2021165077A1 (de) Verfahren und vorrichtung zur bewertung eines bildklassifikators
DE102020113611A1 (de) Verfahren und Sicherheitssystem zum Absichern einer automatisierten Fahrzeugfunktion und Kraftfahrzeug
DE102019218349A1 (de) Verfahren zum Klassifizieren von zumindest einem Ultraschallecho aus Echosignalen
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
DE102020204388A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Agenten
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
DE102019202523A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems
DE102021100395A1 (de) Computerimplementiertes Verfahren zur Bestimmung von Ähnlichkeitswerten von Verkehrsszenarien
DE102021202813A1 (de) Verfahren, Vorrichtung und Computerprogramm für eine Unsicherheitsbewertung einer Bildklassifikation
DE102021201698A1 (de) Verfahren zum Bewerten einer Bekanntheit einer Fahrstrecke und elektronische Recheneinrichtung
DE102020211881A1 (de) Vorrichtung und Verfahren zur Absicherung einer Fahrtrajektorie eines Ego-Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified