DE102020114574A1 - Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt - Google Patents

Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt Download PDF

Info

Publication number
DE102020114574A1
DE102020114574A1 DE102020114574.8A DE102020114574A DE102020114574A1 DE 102020114574 A1 DE102020114574 A1 DE 102020114574A1 DE 102020114574 A DE102020114574 A DE 102020114574A DE 102020114574 A1 DE102020114574 A1 DE 102020114574A1
Authority
DE
Germany
Prior art keywords
human operator
automatic control
control system
measurement noise
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020114574.8A
Other languages
English (en)
Inventor
Ribin Radhakrishna Balachandran
Hrishik Mishra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102020114574.8A priority Critical patent/DE102020114574A1/de
Publication of DE102020114574A1 publication Critical patent/DE102020114574A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Verfahren zum kooperativen Kontrollieren wenigstens eines autonomen Systems (100) durch wenigstens einen menschlichen Operator (108) und/oder wenigstens ein automatisches Kontrollsystem (106) mit wenigstens einem Sensor, wobei Kontrollanweisungen des wenigstens einen menschlichen Operators (108) und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems (106) gewichtet kombiniert werden und eine Gewichtung unter Berücksichtigung eines Sensormessrauschens angepasst wird, und Computerprogrammprodukt, das Programmcodeabschnitte umfasst, mit denen ein derartiges Verfahren durchführbar ist, wenn das Computerprogrammprodukt mithilfe eines Prozessors ausgeführt wird.

Description

  • Die Erfindung betrifft ein Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem mit wenigstens einem Sensor, wobei Kontrollanweisungen des menschlichen Operators und Kontrollanweisungen des automatischen Kontrollsystems gewichtet kombiniert werden. Außerdem betrifft die Erfindung ein Computerprogrammprodukt.
  • Bekannt sind Systeme mit festen Authoritätszuweisungsfaktoren, Systeme, die feste Modelle verwenden, Systeme, die nur von einer Leistung/Intention eines menschlichen Operators abhängen, und Systeme, die nur auf reinen Sensormessungen beruhen. Zum technologischen Hintergrund wird auf die folgenden Veröffentlichungen verwiesen: T. B. Sheridan, Telerobotik, Automatisierung und menschliche Überwachungskontrolle. MIT-Presse, 1992. D. A. Abbink, M. Mulder und E. R. Boer, „Haptische geteilte Kontrolle: reibungslos wechselnde Kontrollbefugnisse? Kognition, Technologie und Arbeit, Band 14, Nr. 1, S. 19-28, 2012. S. Musi'c und S. Hirche, „Control sharing in human-robot team interaction", Annual Reviews in Control, Band 44, S. 342-354, 2017. T. Inagaki et al., „Adaptive Automatisierung: Sharing and trading of control", Handbuch zur Gestaltung kognitiver Aufgaben, Band 8, S. 147-169, 2003. P. Evrard und A. Kheddar, „Homotopie-basierte Steuerung für die physische Mensch-Roboter-Interaktion", in RO-MAN 2009-Das 18. Internationale IEEE-Symposium über Roboter- und Menschinteraktive Kommunikation. IEEE, 2009, S. 1-6. P. Owan, J. Garbini und S. Devasia, „Unsicherheitsbasierte Schlichtung der gemeinsamen Kontrolle von Mensch und Maschine", arXiv preprint arXiv:1511.05996, 2015. Kucukyilmaz, T. M. Sezgin und C. Basdogan, „Intention recognition for dynamic role exchange in haptic collaboration", IEEE-Transaktionen zur Haptik, Band 6, Nr. 1, S. 58-68, 2012. Sanders, D.A., Sanders, B.J., Gegov, A. und Ndzi, D., 2017, September. Verwendung von Vertrauensfaktoren, um die Steuerung zwischen einem mobilen Roboter-Teleoperator und Ultraschallsensoren aufzuteilen. Im Jahr 2017 Konferenz über intelligente Systeme (IntelliSys) (S. 1026-1033). IEEE.
  • Der Erfindung liegt die Aufgabe zugrunde, ein eingangs genanntes Verfahren zu verbessern. Außerdem liegt der Erfindung die Aufgabe zugrunde, ein eingangs genanntes Computerprogrammprodukt bereitzustellen.
  • Die Aufgabe wird gelöst mit einem Verfahren mit den Merkmalen des Anspruchs 1. Außerdem wird die Aufgabe gelöst mit einem Computerprogrammprodukt mit den Merkmalen des Anspruchs 11. Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.
  • Das Verfahren kann zum geteilten Kontrollieren dienen. Das Verfahren kann ein Shared-Control-Verfahren sein. Das kooperative Kontrollieren kann ein steuerungstechnisches und/oder regelungstechnisches Kontrollieren sein. Beim kooperativen Kontrollieren können wenigstens ein menschlichen Operator und wenigstens ein automatisches Kontrollsystem aufeinander abgestimmt zusammenarbeiten. Der wenigstens eine menschliche Operator und das wenigstens eine automatische Kontrollsystem können Aktionen und/oder Prozesse mit gemeinsamen Zielen ausführen. Der wenigstens eine menschliche Operator und das wenigstens eine automatische Kontrollsystem können jeweils auf ihrer Wahrnehmung basierend Absichten bilden, die dann in kooperative Aktionen und/oder Prozesse umgesetzt werden.
  • Das wenigstens eine autonome System kann ein autonomer Hardware-Agent oder ein autonomer Software-Agent sein. Das wenigstens eine autonome System kann beispielswiese ein autonomes Fahrzeug, insbesondere Straßenfahrzeug, wie PKW oder LKW, oder autonomes Luftfahrzeug, wie unbemanntes Luftfahrzeug (UAV), Drohne, Passagierflugzeug mit Autopilot oder Frachtflugzeug mit Autopilot, ein Assistenzsystem, insbesondere ein medizinisches Assistenzsystem, wie Rollstuhl mit autonomen Fähigkeiten, oder ein Roboter, insbesondere ein Roboter zur Verwendung in einer für Menschen gefährlichen und/oder ungeeigneten Umgebung, wie Roboter zur Wartung und Reparatur im nuklearen Umfeld, Roboter zur Wartung und Reparatur in Erdölanlagen, Roboter zur Wartung und Reparatur in der chemischen Industrie, Roboter zur Satellitenwartung im Orbit und Beseitigung von Weltraummüll oder Roboter zur Suche und Rettung in Katastrophengebieten, ein Medizinroboter, wie Roboter für minimalinvasive Chirurgie oder Telemedizin, ein Roboter zur Verwendung im Gesundheitswesen oder in der Heimrobotik, ein Roboter zur virtuellen Montage auf der Basis haptischer Vorrichtungen in Branchen wie der Automobil- oder Flugzeugindustrie oder ein Roboter zum virtuellen Training auf der Basis haptischer Geräte sein.
  • Der wenigstens eine menschliche Operator kann mit dem wenigstens einen autonomen System über eine Benutzerschnittstelle oder Mensch-Maschine-Schnittstelle interagieren. Die Benutzerschnittstelle oder Mensch-Maschine-Schnittstelle kann wenigstens eine Eingabevorrichtung und/oder wenigstens eine Ausgabevorrichtung aufweisen. Die Benutzerschnittstelle oder Mensch-Maschine-Schnittstelle kann beispielsweise ein Lenkrad, eine haptische Schnittstelle, wie Joystick, eine Tastatur, eine Computermaus, ein Steuerhorn oder Steuerknüppel, ein Sidestick, ein Pedal oder ein Hebel, wie Gas- oder Schubhebel sein.
  • Das wenigstens eine automatische Kontrollsystem kann programmierbar sein. Das wenigstens eine automatische Kontrollsystem kann wenigstens einen Prozessor, wenigstens einen Programmspeicher, wenigstens einen Datenspeicher, wenigstens einen Datenbus, wenigstens einen Signaleingang, wenigstens einen Signalausgang, und/oder wenigstens eine Benutzerschnittstelle aufweisen. Das wenigstens eine automatische Kontrollsystem kann Teil des wenigstens einen autonomen Systems sein.
  • Der wenigstens eine Sensor kann auch als Detektor, Aufnehmer oder Fühler bezeichnet werden. Der wenigstens eine Sensor kann zum Erfassen bestimmter physikalischer oder chemischer Eigenschaften, wie Wärmemenge, Temperatur, Feuchtigkeit, Druck, Kraft, Moment, Schallfeldgrößen, Luftstrom, Helligkeit, Farbe, Weg, Winkel, Abstand, Geschwindigkeit, Beschleunigung, Gierrate, pH-Wert, lonenstärke, elektrochemisches Potential, und/oder der stofflichen Beschaffenheit seiner Umgebung qualitativ oder als Messgröße quantitativ, und zum Umformen dieser Größen und in ein weiterverarbeitbares elektrisches Signal dienen.
  • Die Kontrollanweisungen des wenigstens einen menschlichen Operators und die Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems können in einem Shared-Control-System kombiniert werden. Das Shared-Control-System kann eine kombinierte Kontrollanweisung C f i n = W h u m × C h u m + W a c s × C a c s
    Figure DE102020114574A1_0001
    ausgeben, mit Cfin: kombinierte Kontrollanweisung, Whum: Gewichtung der Kontrollanweisung des wenigstens einen menschlichen Operators, Chum: Kontrollanweisung des wenigstens einen menschlichen Operators, Wacs: Gewichtung der Kontrollanweisung des wenigstens einen automatischen Kontrollsystems, Cacs: Kontrollanweisung des wenigstens einen automatischen Kontrollsystems.
  • Die Gewichtung kann mithilfe der Faktoren Whum und Wacs erfolgen. Whum und Wacs können auch als Authority-Allocation-Faktoren oder Autoritätszuweisungsfaktoren bezeichnet werden. Beispielsweise kann gelten: Whum + Wacs = 1 und Whum kann in [0,1] liegen. Die Kontrollanweisungen des wenigstens einen menschlichen Operators und die Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems können also derart gewichtet kombiniert werden, dass eine Autorität des wenigstens einen menschlichen Operators abnimmt, wenn eine Autorität des wenigstens einen automatischen Kontrollsystems zunimmt und umgekehrt. Die Gewichtung kann durch Anpassen der Faktoren Whum und Wacs erfolgen. Die Gewichtung kann übergehend, stufenlos, kontinuierlich oder kleinschrittig diskret angepasst werden.
  • Die Gewichtung kann basierend auf dem Sensormessrauschen angepasst werden. Die Gewichtung kann basierend auf einem echten, realen oder tatsächlichen Sensormessrauschen angepasst werden. Die Gewichtung kann zumindest annähernd in Echtzeit angepasst werden. Das Messrauschen kann sich aus Beeinträchtigungen einer Sensorwahrnehmung ergeben. Die Sensorwahrnehmung kann durch interne und/oder externe Faktoren beeinträchtigt sein. Externe Faktoren können beispielsweise eine Änderung von Lichtverhältnissen, Reflexionen und Schatten auf verfolgten Objekten oder Hindernisse in einem Sensorsystem, wie Schlamm, Staub, Wasser auf Sensoren von Fahrzeugen und Feldrobotern, eine Eisbildung auf Flugzeugen und anderen Luftfahrzeugen usw. sein. Interne Faktoren können beispielsweise ein Sensorrauschen und seine zeitveränderliche Natur, eine Verschlechterung der Sicht (unscharf, Nahbereich usw.) bei kamerabasierten Systemen, Kommunikationsfehler zwischen Sensoren und Controllern oder Sensor-Hardware/Software-Fehler sein.
  • Kontrollanweisungen des wenigstens einen menschlichen Operators können höher und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems geringer gewichtet werden, wenn sich das Sensormessrauschen erhöht. Kontrollanweisungen des wenigstens einen menschlichen Operators geringer und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems können höher gewichtet werden, wenn sich das Sensormessrauschen verringert.
  • Das Sensormessrauschen kann anhand eines Schwellwerts beurteilt werden. Eine Messung kann als gut bewertet werden, wenn das Sensormessrauschen unterhalb des Schwellwerts liegt. Eine Messung kann als schlecht bewertet werden, wenn das Sensormessrauschen oberhalb des Schwellwerts liegt.
  • Der wenigstens eine menschliche Operator kann über das Sensormessrauschen und/oder über die Gewichtung informiert werden. Der wenigstens eine menschliche Operator kann mithilfe einer Ausgabevorrichtung, beispielsweise optisch, akustisch und/oder haptisch, informiert werden.
  • Die Gewichtung kann durch den wenigstens einen menschlichen Operator und/oder eine Leistungsfähigkeit des wenigstens einen menschlichen Operators beeinflussbar sein. Der wenigstens eine menschliche Operator kann mithilfe einer Eingabevorrichtung eine Gewichtung von Kontrollanweisungen des wenigstens einen autonomen Systems reduzieren, gegebenenfalls bis auf null. Die Leistungsfähigkeit des wenigstens einen menschlichen Operators kann ermittelt und/oder beurteilt werden, beispielsweise mithilfe eines Blickverfolgungssystems, um einen Konzentration, Fokussierung und/oder Ermüdung zu beurteilen. Eine Kontrollanweisung des wenigstens einen menschlichen Operators kann vorrangig berücksichtigt werden. Bei einer sinkenden Leistungsfähigkeit des wenigstens einen menschlichen Operators kann eine Gewichtung seiner Kontrollanweisung gegebenenfalls bis auf null reduziert werden.
  • Die Gewichtung kann durch das wenigstens eine autonome System und/oder eine Leistungsfähigkeit des wenigstens einen autonomen Systems beeinflussbar sein. Die Leistungsfähigkeit des wenigstens einen autonomen Systems kann ermittelt und/oder beurteilt werden, beispielsweise unter Berücksichtigung eine Kommunikationsqualität. Eine Kontrollanweisung des wenigstens einen automatischen Kontrollsystems kann vorrangig berücksichtigt werden. Bei einer sinkenden Leistungsfähigkeit des wenigstens einen autonomen Systems kann eine Gewichtung einer Kontrollanweisung des wenigstens einen automatischen Kontrollsystems gegebenenfalls bis auf null reduziert werden.
  • Das wenigstens eine autonome System kann angehalten werden, wenn eine Leistungsfähigkeit des wenigstens einen menschlichen Operators und/oder eine Leistungsfähigkeit des wenigstens einen autonomen Systems eine vorgegebene Mindestleistungsfähigkeit unterschreiten/unterschreitet. Das wenigstens eine autonome System kann angehalten werden, indem die Gewichtungen des wenigstens einen menschlichen Operators und des wenigstens einen automatischen Kontrollsystems bis auf null reduziert werden.
  • Das wenigstens eine automatische Kontrollsystem kann ein Fehlererkennungsmodul und ein Entscheidungsmodul verwenden. Mithilfe des Fehlererkennungsmoduls können Wahrscheinlichkeitsverteilungen beobachteter Zustände des wenigstens einen autonomen Systems unter Berücksichtigung des Sensormessrauschens rekursiv probabilistisch geschätzt werden. Mithilfe des Entscheidungsmoduls können unter Berücksichtigung der geschätzten Wahrscheinlichkeitsverteilungen die Kontrollanweisungen des wenigstens einen menschlichen Operators und die Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems gewichtet werden und/oder über ein Informieren des wenigstens einen menschlichen Operator über das Sensormessrauschen und/oder über die Gewichtung entschieden werden.
  • Die Messdaten des wenigstens einen Sensors können adaptiv gefiltert werden, um eine ungefähre Unsicherheit eines Rauschmodells bereitzustellen. Das Fehlererkennungsmodul kann auf Grundlage eines Bayessche Filters implementiert werden. Für normalverteilte Messungen kann ein Kalman-Filter implementiert werden. Das Fehlererkennungsmodul kann eine Zustandsschätzung und eine zughörige Unsicherheitskovarianzmatrix P liefern. Damit kann eine P-Matrix erhalten werden, die von echten, realen oder tatsächlichen Sensormesswerten abhängt. Ein aktueller P-Wert kann an das Entscheidungsmodul übergeben werden.
  • Mithilfe des Entscheidungsmoduls können die Faktoren Whum und Wacs unter Verwendung des P-Werts wie folgt berechnet werden: W h u m ( t ) = { ξ ( P ( t ) ) ξ ( P l o w ) ξ ( P h i g h ) ξ ( P l o w ) if  ξ ( P l o w ) ξ ( P ( t ) ) ξ ( P h i g h ) 0 if  ξ ( P ( t ) ) < ξ ( P l o w ) 1 if  ξ ( P ( t ) ) > ξ ( P h i g h ) ,
    Figure DE102020114574A1_0002
    wobei Wacs = 1 - Whum.
  • Das Verfahren kann ein computerimplementiertes Verfahren sein. Das Computerprogrammprodukt kann in ausführbarer oder installierbarer Form vorliegen. Das Computerprogrammprodukt kann auf einem computerlesbaren Speichermedium vorliegen.
  • Zusammenfassend und mit anderen Worten dargestellt ergibt sich somit durch die Erfindung unter anderem eine adaptive Autoritätszuweisung bei gemeinsamer Steuerung auf der Grundlage von Sensormessrauschen.
  • Autoritätszuweisungsfaktoren für einen menschlichen Operator und ein automatisches Kontrollsystem können reibungslos auf der Grundlage eines realen Sensormessrauschens angepasst werden. Ein System kann im Falle von verschlechterten Sensormessungen den menschlichen Operator über die Verschlechterung seiner Wahrnehmung informieren und auch die Autoritätszuweisung reibungslos so anpassen, dass es dem menschlichen Operator mehr Kontrolle gibt (falls dies das programmierte Verfahren ist). Wenn sich die Sensorik und Wahrnehmung später verbessert, kann das System den menschlichen Operator informieren und die Kontrollbefugnis von ihm an das automatische Kontrollsystem zurückgeben (wenn der Bediener sich dazu entscheidet/wenn das das programmierte Verhalten ist). Auf diese Weise muss der Bediener nur dann eingreifen, wenn ein Ausfallszenario des autonomen Systems vorliegt. Dadurch kann das autonome System die Aufgabe die meiste Zeit umsetzen und entlastet den menschlichen Operator somit von der physischen und mentalen Anstrengung.
  • Die wichtigsten Beiträge sind: Die Anpassung basiert auf echtem Sensormessrauschen; die Anpassung ist fließend, sodass es keine Sprünge von einer Kontrollart zur anderen gibt; die Methode kann auch mit Entscheidungen/Leistungen des menschlichen Operators/Teleoperators kombinier werden.
  • Mit der Erfindung wird ein Kontrollieren eines autonomen Systems erleichtert, verbessert und/oder vereinfacht. Eine Anpassung der Autoritätszuweisungsfaktoren für einen menschlichen Operator und ein automatisches Kontrollsystem reibungslos auf der Grundlage eines realen Sensormessrauschens ermöglicht. Eine Veränderung einer Autoritätszuweisung durch eine Verschlechterung von Sensormessungen wird reduziert oder vermieden. Es kann auf veränderte Umwelteinflüsse reagiert werden. Ein aktives Abstimmen der Autoritätszuweisungsfaktoren kann entfallen. Eine unzutreffende Abstimmung der Autoritätszuweisungsfaktoren kann vermieden werden. Ein menschlicher Operator kann entlastet werden. Eine Autoritätszuweisung kann während eines Betriebs verschoben werden. Ein vorgelagertes Festlegen und Abstimmen von Modellen können entfallen. Der menschliche Operator kann über eine Wahrnehmungsqualität des autonomen Systems informiert werden. Ein nachteiliger Einfluss einer reduzierten Leistungsfähigkeit des menschlichen Operators und/oder des autonomen Systems kann reduziert werden. Eine Gültigkeit gemessenen Werte kann verifizierbar sein. Ein erratisches Systemverhalten bei beeinträchtigter Sensormessung kann vermieden werden.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf Figuren näher beschrieben, dabei zeigen schematisch und beispielhaft:
    • 1 ein kooperatives Kontrollieren mithilfe adaptiver Autoritätszuweisung,
    • 2 ein kooperatives Kontrollieren mithilfe adaptiver Autoritätszuweisung unter Verwendung eines Fehlererkennungsmoduls und eines Entscheidungsmoduls und
    • 3 eine Variation von Whum basierend auf realen Sensorsignalen.
  • 1 zeigt ein kooperatives Kontrollieren eines autonomen Systems 100, wie autonomes Fahrzeug oder Roboter, mithilfe adaptiver Autoritätszuweisung. Ein adaptives Autoritätszuweisungsystem 102 kann eine verschlechterte Sensormessung 104 feststellen und eine Gewichtung Whum und Wacs so anzupassen, dass bei guten Sensormessungen ein automatisches Kontrollsystem 106 eine höhere Autorität (Whum « Wacs) hat und bei Verschlechterung der Sensormessungen ein menschlicher Operator 108 mehr Autorität erhält (Whum >> Wacs), sodass er die Kontrolle übernehmen kann, um das automatische Kontrollsystem 106 zu unterstützen und das autonome System 100 in einem sicheren Zustand zu halten.
  • Dazu kann das adaptive Autoritätszuweisungsystem 102, wie mit der Verbindung 110 dargestellt, den Faktor Whum beeinflussen, wie mit der Verbindung 112 dargestellt, den Wacs beeinflussen, wie mit der Verbindung 114 dargestellt, das automatische Kontrollsystem 106 benachrichtigen und, wie mit der Verbindung 116 dargestellt, den menschlichen Operator 108 benachrichtigen. Dem adaptiven Autoritätszuweisungsystem 102 steht, wie mit der Verbindung 118 dargestellt, eine Information über Absicht und/oder eine Leistungsfähigkeit des menschlichen Operators 108 zur Verfügung. Das autonome System 100 kann, wie mit der Verbindung 120 dargestellt, eine Rückmeldung, beispielsweise über Sensormessungen, wie Kameraaufnahme oder Punktewolke, an das automatische Kontrollsystem 106 geben. Das autonome System 100 kann, wie mit der Verbindung 122 dargestellt, eine Rückmeldung, beispielsweise als visuell, haptisch oder akustisch, an den menschlichen Operator 108 geben.
  • Alle gebräuchlichen Sensoren, wie Abstandssensoren, beispielswiese basierend auf Infrarotstrahlen, Ultraschall, LEDs, LIDARs, RADARS, Kamerasicht, Tiefenkamera, Kilometerzähler usw., und Geschwindigkeits-/Geschwindigkeitssensoren, wie IMUs, Tachometer, Gierratenmesser, Luftstrommesser usw., können bei diesem Ansatz verwendet werden.
  • Alle Arten der Ansteuerung, die mithilfe des endgültigen Signals, das der Regelstrecke kommandiert wird, bewirkt wird, nämlich Cfin, können bei diesem Ansatz verwendet werden. Einige Beispiele sind: Das autonome Fahrzeug kann beispielsweise geschwindigkeitsgeregelt sein (Drücken der Gaspedalkupplung erhöht die Geschwindigkeit des Fahrzeugs), in diesem Fall sind die Signale Cfin, Chum und Cacs Geschwindigkeitssignale. In ähnlicher Weise kann ein Robotermanipulator im Kraft-/Drehmomentmodus (Cfin, Chum und Cacs sind Kraft-/Drehmomentsignale) oder im Positionsmodus gesteuert werden (z.B. Cfin, Chum und Cacs sind Gelenkwinkelbefehle an den Roboterarm).
  • Vorliegen sind „gute“ Messungen solche, die unter einem aufgabenspezifischen oberen Schwellenwert für eine Messunsicherheit liegen, während sich verschlechterte oder „schlechte“ Messungen solche sind, die über diesem maximalen Schwellenwert für eine Messunsicherheit liegen und daher nicht in der Lage sein werden, die Genauigkeits-/Präzisionsanforderungen der jeweiligen Aufgabe zu erfüllen.
  • 2 zeigt ein kooperatives Kontrollieren mithilfe eines adaptiven Autoritätszuweisungsystems 102, das ein Fehlererkennungsmodul 124 und ein Entscheidungsmodul 126 aufweist.
  • Das Fehlererkennungsmodul 124 dient dazu eine verschlechterte Sensormessung 104 festzustellen. Das Entscheidungsmodul 126 dient dazu, basierend auf dem Output 128 des Fehlererkennungsmodul 124 und eine Eingabe 130 des menschlichen Operators 108, beispielsweise aufgrund aktiver Entscheidung oder Information über seine Leistungsfähigkeit (118), die Gewichtungen Whum und Wacs zu modifizieren. Dabei kann es sich um einen vorprogrammierten Entscheidungsbaum, menschliche oder sogar künstliche Intelligenz-Algorithmen handeln.
  • Das Fehlererkennungsmodul 124 dieses Beispielsystems ist auf der Grundlage von Bayesschen Filtern implementiert, die in Fällen, in denen einige Zustände eines Systems nicht gemessen werden können, weithin zur Zustandsrekonstruktion verwendet werden. Aufgrund seiner inhärenten stochastischen Natur liefert der Schätzprozess eine Zustandsschätzung und eine zugehörige Unsicherheitskovarianzmatrix P. Insbesondere ist P ein Maß für die Unsicherheit des Zustands, z.B. wie zuversichtlich ein als Fahrzeug/Roboter ausgeführtes autonomes System 100 bezüglich seiner eigenen geschätzten Position/Geschwindigkeit ist. Bayessche Filter sind eine breite Klasse stochastischer Schätzer, die die Bayessche Wahrscheinlichkeitsregel verwenden, um eine Messwertaktualisierung bereitzustellen. Abhängig von den Annahmen, die zur Ableitung dieses Aktualisierungsschritts verwendet werden, erhält man eine spezifische Implementierung des Bayes-Filters. Eine dieser Implementierungen ist der ubiquitäre erweiterte Kalman-Filter, der durch die Annahme von a priori bekannten Prozess- und Messungsmodellen mit Gaußschem Rauschen abgeleitet wird. Eine Folge dieser Annahme ist, dass die zeitliche Entwicklung von P letztendlich unabhängig von realen Messungen ist. Daher wird die Änderung der Zustandsunsicherheit aufgrund der Verschlechterung der Messungen nicht widergespiegelt. Um dieses Problem zu lösen, wird die adaptive Filterung verwendet, bei der Messdaten verwendet werden, um eine ungefähre Unsicherheit des Rauschmodells bereitzustellen. Als Ergebnis wird sichergestellt, dass eine P-Matrix erhalten wird, die entsprechend von den realen Messungen abhängt. Der adaptive erweiterte Kalman-Filter wird verwendet, um das Hauptkonzept des adaptiven Autoritätszuweisungsystems 102 zu veranschaulichen. Andere Filter, die die Schätzungsunsicherheit in Bezug auf das Messrauschen variieren, z.B. der Partikelfilter, können bei der Implementierung ebenfalls verwendet werden.
  • Der adaptive Bayessche Filter wird mit dem Ziel verwendet, sein Unsicherheitsmaß auf die zeitvariablen Verstärkungen Whum und Wacs abzubilden, d.h. die Befehle des menschlichen Operators 108 durch Erhöhung des Wertes von Whum höher zu gewichten und die Befehle des automatischen Kontrollsystems 106 geringer zu gewichten und die Autorität auf den menschlichen Operator 108 zu übertragen, der die Aufgabenausführung aufgrund der Erhöhung von Whum (im Falle einer Verschlechterung der Messung) übernimmt.
  • In diesem Beispiel übergibt das Fehlererkennungsmodul 124 immer den aktuellen P-Wert an das Entscheidungsmodul 126.
  • Das Entscheidungsmodul 126 ist beispielsweise wie folgt programmiert:
  • Schritt 1: Berechnen der Faktoren Whum und Wacs unter Verwendung des P-Werts wie folgt: W h u m ( t ) = { ξ ( P ( t ) ) ξ ( P l o w ) ξ ( P h i g h ) ξ ( P l o w ) if  ξ ( P l o w ) ξ ( P ( t ) ) ξ ( P h i g h ) 0 if  ξ ( P ( t ) ) < ξ ( P l o w ) 1 if  ξ ( P ( t ) ) > ξ ( P h i g h ) ,
    Figure DE102020114574A1_0003
    wobei Wacs = 1- Whum und ξ(·) = log [trace(.)].
  • Plow und Phigh entsprechen den Zustandskovarianzmatrizen für gute bzw. konsistent verschlechterte Messungen, die a priori für das vorliegende Schätzsystem wie folgt identifiziert werden. Vor Beginn der Aufgabenausführung wird dem adaptiven Bayesschen Filter erlaubt, zu konvergieren, was eine zuverlässige Schätzung von Plow liefert, während eine obere Grenze Phigh erhalten wird, indem die Aufgabe unter Verwendung des automatischen Kontrollsystems 106 ausgeführt wird und P(t) vermerkt wird, wenn sie aufgrund von konsistent verschlechterten Messungen fehlschlägt.
  • Schritt 2: Wenn Whum über einen Schwellenwert (z.B. 0,1) ansteigt, benachrichtigt das Entscheidungsmodul 126 den menschlichen Operator 108, dass ihm die Kontrollbefugnis übertragen wird (116).
  • Schritt 3: Wenn die Messung wieder gut wird, d.h. wenn Whum (kontinuierlich mit dem P aus dem Fehlererkennungsmodul 124 berechnet) niedriger als ein Wert (z.B. 0,8) ist, benachrichtigt das Entscheidungsmodul 126 den menschlichen Operator 108 (116).
  • Das Entscheidungsmodul 126 kann auch eine Entscheidungseingabe des menschlichen Operators 108 verwenden, beispielsweise kann der menschliche Operator 108 auch nach der Verbesserung der Messungen mit den Verstärkungen Whum = 1 und Wacs = 0 fortfahren, wenn er weiterhin die volle Autorität haben möchte. Wenn der menschliche Operator 108 in die Handlung des automatischen Kontrollsystems 106 eingreifen will, kann er seine Anforderungen über eine Mensch-Maschine-Schnittstelle eingeben. Wenn der menschliche Operator 108 früher informiert wird und immer bereit ist, zu reagieren, können die Meldungen vermieden und die Kontrollinstanz stufenlos in beide Richtungen verschoben werden.
  • Das Entscheidungsmodul 126 kann auch ein Leistungsmaß des autonomen Systems 100 verwenden, beispielsweise eine Qualität der Kommunikation, die reduziert sein kann, wenn der menschliche Operator 108 und die Regelstrecke hohe Verzögerungen oder Datenverluste aufweisen, um die Autoritätszuweisung so zu modifizieren, dass die Regelstrecke ein bestimmtes Verhalten erhält.
  • Das Entscheidungsmodul 126 kann eine Information über eine Leistungsfähigkeit des die Leistung des menschlichen Operators 108 nutzen, beispielsweise informiert ein Blickverfolgungssystem darüber, dass der menschliche Operator 108 ermüdet/nicht fokussiert ist, um die Gewichtungen Whum und Wacs so zu modifizieren, dass die Regelstrecke ein bestimmtes Verhalten erhält.
  • Wenn z.B. sowohl die Sensormessungen als auch die Leistungsfähigkeit des autonomen Systems 100 und/oder des menschlichen Operators 108 wirklich schlecht sind, stellt das Entscheidungsmodul 126 Whum = 0 und Wacs = 0 ein und veranlasst das autonome Systems 100, sich nicht mehr zu bewegen, bis die Fehler behoben sind.
  • Im Übrigen wird ergänzend insbesondere auf 1 und die zugehörige Beschreibung verwiesen.
  • 3 zeigt eine Variation von Whum basierend auf realen Sensorsignalen 132 eines als Kamera ausgeführten Sensors anhand experimenteller Ergebnisse mit realer Hardware, hier kooperatives Kontrollieren eines als Roboterarm ausgeführten autonomen Systems (100) durch einen menschlichen Operator (108) und ein automatisches Kontrollsystem (106). Die Sensorsignale 132 umfassen einen Sensormesswert und ein Sensormessrauschen.
  • In dem vorliegenden Versuchsaufbau verwendet der menschliche Operator (108) ein haptisches Gerät, um den entfernten Roboterarm fernzubedienen. Das automatische Kontrollsystem (106) des Roboterarms bewegt sich mit Hilfe von Kameramessungen zu einem gewünschten Zielpunkt. Die Kameramessungen 132 (Position des gewünschten Zielpunktes) sind im zeitlichen Verlauf in der oberen Diagramm 134 dargestellt. Ersichtlich ist, wie ein Sensormessrauschen im Bereich 136 zunimmt. Der adaptive P-Wert 137 des Fehlererkennungsmoduls (124), dargestellt im mittleren Diagramm 138, und der Gewichtungsfaktor Whum 139, dargestellt im unteren Diagramm 140, zeigen ebenfalls die Validität des erfindungsgemäßen Verfahrens.
  • Der gesamte experimentelle Ablauf kann in fünf Phasen 142, 144, 146, 148, 150 unterteilt werden, die nachfolgend beschrieben werden.
  • 1. Phase 142: Am Anfang sind die Sensormessungen gut. Es ist zu beachten, dass die Messungen zwar leicht verrauscht sind, aber innerhalb der zulässigen Schwelle liegen (was für die jeweilige Aufgabe gut genug ist) und das autonome System (100) seine Umgebung gut einschätzen und wahrnehmen kann. In dieser Phase ist Wacs fast gleich 1 und Whum ist fast =0, wie im unteren Diagramm 140 dargestellt. Der menschliche Operator (108) muss keine Operation durchführen, da das automatische Kontrollsystem (106) die vollständige Kontrolle hat.
  • 2. Phase 144: In dieser Phase verschlechtern sich die Sensormessungen aufgrund der oben beschriebenen internen oder externen Faktoren. Dies ist aus dem oberen Diagramm 134 ersichtlich. Dies führt zu einem Anstieg der Unsicherheitsmatrix P des Bayesschen Filters. Dies führt zu einem glatten Anstieg von Whum von 0 auf 1. Gleichzeitig nimmt die Autorität des automatischen Kontrollsystems (106) ab, da Wacs = 1 - Whum ist. Während dieser Phase (z.B. wenn Whum > 0,1) wird der menschliche Operator (108) auch darüber informiert, dass er mehr Kontrolle über das autonome System (100) erhält.
  • 3. Phase 146: In dieser Phase hat der menschliche Operator (108) die volle Autorität. Whum = 1 und Wacs = 0. Das bedeutet, wenn das automatische Kontrollsystem (106) aufgrund verschlechterter Sensormessungen eine schlechte Wahrnehmung seiner Umgebung hat, übernimmt der menschliche Operator (108) die vollständige Kontrolle und führt die Aufgabe selbst aus.
  • 4. Phase 148: Irgendwann, während der menschliche Operator (108) arbeitet, beginnt das automatische Kontrollsystem (106) wieder gute Messungen zu erhalten (z.B. ist das Sensorproblem gelöst, oder eine Kamerabedeckung wurde entfernt usw.) und der berechnete Wert von Whum verringert sich. Wenn Whum kleiner als ein bestimmter Wert ist (z.B. wenn Whum < 0,8), wird der menschliche Operator (108) auch über die gute Leistung des automatischen Kontrollsystems (106) informiert. Von nun an kann das automatische Kontrollsystem (106) die Umwelt gut einschätzen, und die Autorität wird schrittweise an das automatische Kontrollsystem (106) zurückgegeben.
  • 5. Phase 150: Das automatische Kontrollsystem (106) hat wieder vollständige Autorität, Whum = 0 und Wacs = 1 und kann die Aufgabenausführung fortsetzen, wenn die Wahrnehmung der Umgebung gut ist.
  • Im Übrigen wird ergänzend insbesondere auf 1 und 2 sowie die zugehörige Beschreibung verwiesen.
  • Mit „kann“ sind insbesondere optionale Merkmale der Erfindung bezeichnet. Demzufolge gibt es auch Weiterbildungen und/oder Ausführungsbeispiele der Erfindung, die zusätzlich oder alternativ das jeweilige Merkmal oder die jeweiligen Merkmale aufweisen.
  • Aus den vorliegend offenbarten Merkmalskombinationen können bedarfsweise auch isolierte Merkmale herausgegriffen und unter Auflösung eines zwischen den Merkmalen gegebenenfalls bestehenden strukturellen und/oder funktionellen Zusammenhangs in Kombination mit anderen Merkmalen zur Abgrenzung des Anspruchsgegenstands verwendet werden.
  • Bezugszeichenliste
  • 100
    autonomes System
    102
    adaptives Autoritätszuweisungsystem
    104
    verschlechterte Sensormessung
    106
    automatisches Kontrollsystem
    108
    menschlicher Operator
    110
    Beeinflussen des Faktors Whum
    112
    Beeinflussen des Faktors Wacs
    114
    Benachrichtigen des automatischen Kontrollsystems
    116
    Benachrichtigen des menschlichen Operators
    118
    Information über Leistungsfähigkeit des menschlichen Operators
    120
    Rückmeldung an automatisches Kontrollsystem
    122
    Rückmeldung an menschlichen Operator
    124
    Fehlererkennungsmodul
    126
    Entscheidungsmodul
    128
    Output des Fehlererkennungsmoduls
    130
    Eingabe des menschlichen Operators
    132
    Sensormesswerte
    134
    oberes Diagramm
    136
    Bereich
    137
    P-Wert
    138
    mittleres Diagramm
    140
    unteres Diagramm
    139
    Gewichtungsfaktor Whum
    142
    1. Phase
    144
    2. Phase
    146
    3. Phase
    148
    4. Phase
    150
    5. Phase
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • T. B. Sheridan, Telerobotik, Automatisierung und menschliche Überwachungskontrolle. MIT-Presse, 1992. D. A. Abbink, M. Mulder und E. R. Boer, „Haptische geteilte Kontrolle: reibungslos wechselnde Kontrollbefugnisse? Kognition, Technologie und Arbeit, Band 14, Nr. 1, S. 19-28, 2012 [0002]
    • S. Musi'c und S. Hirche, „Control sharing in human-robot team interaction“, Annual Reviews in Control, Band 44, S. 342-354, 2017. T. Inagaki et al., „Adaptive Automatisierung: Sharing and trading of control“, Handbuch zur Gestaltung kognitiver Aufgaben, Band 8, S. 147-169, 2003 [0002]
    • P. Evrard und A. Kheddar, „Homotopie-basierte Steuerung für die physische Mensch-Roboter-Interaktion“, in RO-MAN 2009-Das 18 [0002]
    • 2009, S. 1-6. P. Owan, J. Garbini und S. Devasia, „Unsicherheitsbasierte Schlichtung der gemeinsamen Kontrolle von Mensch und Maschine“, arXiv preprint arXiv:1511.05996, 2015. Kucukyilmaz, T. M. Sezgin und C. Basdogan, „Intention recognition for dynamic role exchange in haptic collaboration“, IEEE-Transaktionen zur Haptik, Band 6, Nr. 1, S. 58-68, 2012 [0002]
    • Sanders, D.A., Sanders, B.J., Gegov, A. und Ndzi, D., 2017, September [0002]

Claims (11)

  1. Verfahren zum kooperativen Kontrollieren wenigstens eines autonomen Systems (100) durch wenigstens einen menschlichen Operator (108) und/oder wenigstens ein automatisches Kontrollsystem (106) mit wenigstens einem Sensor, wobei Kontrollanweisungen des wenigstens einen menschlichen Operators (108) und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems (106) gewichtet kombiniert werden, dadurch gekennzeichnet, dass eine Gewichtung unter Berücksichtigung eines Sensormessrauschens angepasst wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Kontrollanweisungen des wenigstens einen menschlichen Operators (108) höher und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems (106) geringer gewichtet werden, wenn sich das Sensormessrauschen erhöht und/oder Kontrollanweisungen des wenigstens einen menschlichen Operators (108) geringer und Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems (106) höher gewichtet werden, wenn sich das Sensormessrauschen verringert.
  3. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Sensormessrauschen anhand eines Schwellwerts beurteilt wird.
  4. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine menschliche Operator (108) über das Sensormessrauschen und/oder über die Gewichtung informiert wird.
  5. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Gewichtung durch den wenigstens einen menschlichen Operator (108) und/oder eine Leistungsfähigkeit des wenigstens einen menschlichen Operators (108) beeinflussbar ist.
  6. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Gewichtung durch das wenigstens eine autonome System (100) und/oder eine Leistungsfähigkeit des wenigstens einen autonomen Systems (100) beeinflussbar ist.
  7. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das wenigstens eine autonome System (100) angehalten wird, wenn eine Leistungsfähigkeit des wenigstens einen menschlichen Operators (108) und/oder eine Leistungsfähigkeit des wenigstens einen autonomen Systems (100) eine vorgegebene Mindestleistungsfähigkeit unterschreiten/unterschreitet.
  8. Verfahren nach wenigstens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das wenigstens eine automatische Kontrollsystem (106) ein Fehlererkennungsmodul (124) und ein Entscheidungsmodul (126) verwendet.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass mithilfe des Fehlererkennungsmoduls (124) Wahrscheinlichkeitsverteilungen beobachteter Zustände des wenigstens einen autonomen Systems (100) unter Berücksichtigung des Sensormessrauschens rekursiv probabilistisch geschätzt werden.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass mithilfe des Entscheidungsmoduls (126) unter Berücksichtigung der geschätzten Wahrscheinlichkeitsverteilungen die Kontrollanweisungen des wenigstens einen menschlichen Operators (108) und die Kontrollanweisungen des wenigstens einen automatischen Kontrollsystems (106) gewichtet werden und/oder über ein Informieren des wenigstens einen menschlichen Operator (108) über das Sensormessrauschen und/oder über die Gewichtung entschieden wird.
  11. Computerprogrammprodukt, dadurch gekennzeichnet, dass das Computerprogrammprodukt Programmcodeabschnitte umfasst, mit denen ein Verfahren nach wenigstens einem der vorhergehenden Ansprüche durchführbar ist, wenn das Computerprogrammprodukt mithilfe eines Prozessors ausgeführt wird.
DE102020114574.8A 2020-05-30 2020-05-30 Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt Pending DE102020114574A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020114574.8A DE102020114574A1 (de) 2020-05-30 2020-05-30 Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020114574.8A DE102020114574A1 (de) 2020-05-30 2020-05-30 Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt

Publications (1)

Publication Number Publication Date
DE102020114574A1 true DE102020114574A1 (de) 2021-12-02

Family

ID=78509005

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020114574.8A Pending DE102020114574A1 (de) 2020-05-30 2020-05-30 Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt

Country Status (1)

Country Link
DE (1) DE102020114574A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018212286A1 (de) 2018-07-24 2020-01-30 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung einer Aufmerksamkeit und/oder Fahrbereitschaft eines Fahrers bei einem automatisierten Fahrvorgang eines Fahrzeugs
US20200070888A1 (en) 2018-08-31 2020-03-05 Steering Solutions Ip Holding Corporation Method and product for handling driver intervention in an autonomous steering system
WO2020191708A1 (en) 2019-03-28 2020-10-01 Baidu.Com Times Technology (Beijing) Co., Ltd. An automatic driving safety interaction system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018212286A1 (de) 2018-07-24 2020-01-30 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung einer Aufmerksamkeit und/oder Fahrbereitschaft eines Fahrers bei einem automatisierten Fahrvorgang eines Fahrzeugs
US20200070888A1 (en) 2018-08-31 2020-03-05 Steering Solutions Ip Holding Corporation Method and product for handling driver intervention in an autonomous steering system
WO2020191708A1 (en) 2019-03-28 2020-10-01 Baidu.Com Times Technology (Beijing) Co., Ltd. An automatic driving safety interaction system

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
2009, S. 1-6. P. Owan, J. Garbini und S. Devasia, „Unsicherheitsbasierte Schlichtung der gemeinsamen Kontrolle von Mensch und Maschine", arXiv preprint arXiv:1511.05996, 2015. Kucukyilmaz, T. M. Sezgin und C. Basdogan, „Intention recognition for dynamic role exchange in haptic collaboration", IEEE-Transaktionen zur Haptik, Band 6, Nr. 1, S. 58-68, 2012
P. Evrard und A. Kheddar, „Homotopie-basierte Steuerung für die physische Mensch-Roboter-Interaktion", in RO-MAN 2009-Das 18
S. Musi'c und S. Hirche, „Control sharing in human-robot team interaction", Annual Reviews in Control, Band 44, S. 342-354, 2017. T. Inagaki et al., „Adaptive Automatisierung: Sharing and trading of control", Handbuch zur Gestaltung kognitiver Aufgaben, Band 8, S. 147-169, 2003
Sanders, D.A., Sanders, B.J., Gegov, A. und Ndzi, D., 2017, September
T. B. Sheridan, Telerobotik, Automatisierung und menschliche Überwachungskontrolle. MIT-Presse, 1992. D. A. Abbink, M. Mulder und E. R. Boer, „Haptische geteilte Kontrolle: reibungslos wechselnde Kontrollbefugnisse? Kognition, Technologie und Arbeit, Band 14, Nr. 1, S. 19-28, 2012

Similar Documents

Publication Publication Date Title
EP3285163B1 (de) Fehlertolerantes verfahren und vorrichtung zur steuerung einer autonomen technischen anlage mittels diversitärer trajektorenplanung
DE112018000541B4 (de) Informationsverarbeitungssystem, Informationsverarbeitungsverfahren, Aufzeichnungsmedium und Fahrzeug
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
WO2015139864A1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
DE10296926T5 (de) Verbesserungen bei der Fahrzeugsteuerung
EP3873784A1 (de) Steuerungssystem und steuerungsverfahren zum samplingbasierten planen möglicher trajektorien für kraftfahrzeuge
DE102019215902A1 (de) Verfahren zur Bestimmung eines Gütegrades von Daten-Sätzen von Sensoren
DE602004011611T2 (de) System und Methode zur automatischen Kollisionsvermeidung für Flugzeuge
EP3725472A1 (de) Verfahren zum ermitteln einer trajektorie eines roboters
DE102018222783A1 (de) Verfahren zum Steuern eines automatisierten oder autonomen Fortbewegungsmittels und Auswerteeinheit
DE102018210375A1 (de) Fahrerassistenzsystem, Fahrzeug, Verfahren zum Betreiben des Fahrerassistenzsystems, Computerprogramm und computerlesbares Speichermedium
DE102019209457A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102018128535A1 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102020205532A1 (de) Vorrichtung und Verfahren zum Trainieren einer Steuerungsstrategie für eine Steuereinrichtung über mehrere Iterationen
DE102017104357A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur bewegungsplanung für ein kraftfahrzeug
DE102020114574A1 (de) Verfahren zum kooperativen Kontrollieren eines autonomen Systems durch einen menschlichen Operator und/oder ein automatisches Kontrollsystem und Computerprogrammprodukt
DE102019129904A1 (de) Automatische Fahrkompetenzanalyse
DE102022200536B3 (de) Fahrassistenzeinrichtung und Verfahren zum Durchführen einer wenigstens teilautomatischen Fahrzeugfunktion in Abhängigkeit von einer zu bewertenden Fahrstrecke
DE102020127051A1 (de) Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität
DE102021114768A1 (de) Fahrzeugsteuerung unter Verwendung eines Controllers eines neuronalen Netzes in Kombination mit einem modellbasierten Controller
WO2021191120A1 (de) VERFAHREN ZUR BESTIMMUNG EINES WERTES EINER REGLERGRÖßE
DE10358494A1 (de) Fahrassistenzvorrichtung und Verfahren zur prädiktiven Steuerung eines Fahrzeugs
EP3608622B1 (de) Waffensystem und verfahren zum betreiben eines waffensystems
DE102020216202A1 (de) Verfahren zum Trainieren eines Lernalgorithmus zum Umwandeln von Sensordaten einer Sensorik in Ausgabedaten zum Ansteuern einer Aktorik und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
WO2022012826A1 (de) Verfahren und vorrichtung zum ermitteln einer kollisionswahrscheinlichkeit eines fahrzeugs mit einem objekt im dreidimensionalen raum

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V, DE

Free format text: FORMER OWNER: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V., 51147 KOELN, DE

R016 Response to examination communication