DE102020211251A1 - Selbst-adaptives erkennungssystem - Google Patents

Selbst-adaptives erkennungssystem Download PDF

Info

Publication number
DE102020211251A1
DE102020211251A1 DE102020211251.7A DE102020211251A DE102020211251A1 DE 102020211251 A1 DE102020211251 A1 DE 102020211251A1 DE 102020211251 A DE102020211251 A DE 102020211251A DE 102020211251 A1 DE102020211251 A1 DE 102020211251A1
Authority
DE
Germany
Prior art keywords
subset
ontological
epistemic
plausibility
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020211251.7A
Other languages
English (en)
Inventor
Peter Munk
Ahmad Adee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020211251.7A priority Critical patent/DE102020211251A1/de
Publication of DE102020211251A1 publication Critical patent/DE102020211251A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems, umfassend das Empfangen mindestens eines Eingangsdatenstroms und das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz von dem mindestens einen Eingangsdatenstrom abhängt. Weiterhin umfasst das Verfahren nach dem ersten Aspekt das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen. Das Prüfen auf Erkennen umfasst weiterhin das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten und das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für die eine Teilmenge abhängt. Das Verfahren nach dem ersten Aspekt umfasst weiterhin das Rekonfigurieren des Erkennungssystems, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems für das Auftreten mindestens eines Ereignisses.
  • Hintergrund
  • Die Automatisierung in Systemen basiert zunehmend auf einem aus Umgebungsdaten abgeleiteten, räumlich und zeitlich situativen Bewusstsein für eine Umgebung des Systems. Besondere Anforderungen an ein Erkennungssystem ergeben sich dabei insbesondere dann, wenn sowohl das System als auch die Umgebung des Systems sich in Raum und Zeit verändern (offener Kontext). Hinzu kommen häufig sicherheitsrelevante Aspekte. Im Falle des autonomen Fahrens von Fahrzeugen muss beispielsweise zusätzlich zur funktionalen Sicherheit gemäß ISO 26262 insbesondere auch die sogenannte „Sicherheit der Sollfunktion“ (SOTIF) des Erkennungssystems im Sinne der Norm ISO 21448 gewährleistet sein.
  • Zusammenfassung der Erfindung
  • Ein erster Aspekt betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems, umfassend das Empfangen mindestens eines Eingangsdatenstroms und das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz von dem mindestens einen Eingangsdatenstrom abhängt. Weiterhin umfasst das Verfahren nach dem ersten Aspekt das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen. Das Prüfen auf Erkennen umfasst weiterhin das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten und das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für die eine Teilmenge abhängt. Das Verfahren nach dem ersten Aspekt umfasst weiterhin das Rekonfigurieren des Erkennungssystems, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.
    Ein zweiter Aspekt betrifft ein selbst-adaptives, konfigurierbares Erkennungssystems, welches dazu ausgelegt ist, das Verfahren nach dem ersten Aspekt auszuführen.
    Die vorliegende Offenbarung betrifft Techniken zum Konfigurieren eines selbst-adaptiven Erkennungssystems für die Erkennung und Bewertung eines in der Zeit möglichen Auftretens mindestens eines Ereignisses oder einer Oder-Verknüpfung von Ereignissen. Dabei kann aus Umgebungsdaten ein räumlich und zeitlich situatives Bewusstsein für die Umgebung abgeleitet werden, wobei funktionale Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems durch Evidenz quantifizierbar werden und somit berücksichtigt werden können. Zudem kann mindestens eine Unsicherheit berechnet werden, anhand derer stets geprüft werden kann, ob Sicherheit gewährleistet ist oder das Erkennungssystem rekonfiguriert werden muss, z.B. um sich an eine veränderte Umgebung anzupassen. Das Verfahren nach dem ersten Aspekt kann zur Erkennung und Bewertung von Objekten in der Steuerung eines zumindest teilautonomen Roboters, zum Beispiel in einem zumindest teilautonomen Fahrzeug, zum Einsatz kommen. Insbesondere im Falle des zumindest teilautonomen Fahrens kann über die funktionale Sicherheit (ISO 26262) hinaus auch „Sicherheit der Sollfunktion“ (SOTIF) im Sinne der Norm ISO 21448 erreicht werden. Das Verfahren kann auch in vielen anderen Bereichen, z.B. in einer Überwachungs- und/oder Sicherungsvorrichtung und/oder in der chemischen Industrie eingesetzt werden.
  • Figurenliste
    • 1a zeigt schematisch ein selbst-adaptives, konfigurierbares Erkennungssystem 100 am Beispiel eines Fahrzeugs 110, welches mindestens einen Umgebungssensor 111 zur Erfassung der Fahrzeugumgebung, aufweist.
    • 1b zeigt ein mögliches Szenario aus dem Straßenverkehr, wobei aus Sicht eines Fahrzeugs 110 mit mindestens einem Umgebungssensor 111 ein in einer Pfütze 121 am Straßenrand stehender Fußgänger 120, die Absicht haben könnte, vor dem Fahrzeug 110 die Straße zu überqueren. Die Erkennung und Bewertung der Situation kann ferner durch eine tiefstehende Sonne 122 und daraus resultierenden Reflektionen in der Pfütze 121 gestört werden.
    • 2a zeigt ein bayessches Netz 200 mit Knoten und Kanten, welches durch ein Vertrauen 210 und eine (epistemische) Plausibilität 220 zu einem evidenten Netzwerk (EN) 250 sowie weiterhin durch eine ontologische Plausibilität 230 und eine epistemisch-ontologische Plausibilität 240 zu einem erweiterten evidenten Netzwerk (EEN) 260 wird.
    • 2b zeigt eine explizite Momentaufnahme eines erweiterten evidenten Netzwerks (EEN) 260 auf Basis des möglichen Szenarios aus Fig. Ib.
    • 3 zeigt ein Verlaufsdiagramm 300 eines Verfahrens zum Konfigurieren eines selbst-adaptiven Erkennungssystems 100 auf Basis eines erweiterten evidenten Netzwerks (EEN) 260.
  • Ausführliche Beschreibung
  • Wie in 1a skizziert, kann ein hierin beschriebenes, selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems 100 beispielsweise in einem Fahrzeug 110 mit mindestens einem Sensor 111 zum Einsatz kommen. Der Sensor 111 kann Informationen über das Fahrzeug und/oder die Umgebung des Fahrzeugs messen. Mindestens ein Eingangsdatenstrom (z.B. für ein zeitabhängiges Signal) des selbst-adaptiven Erkennungssystems 100 kann von den Sensordaten des mindestens des Sensors 111 abhängen. Dieser mindestens eine Sensor 111 kann beispielsweise Teil von Kamera- (für jedwede Wellenlängen), Radar-, LIDAR- oder Ultraschall-Systemen, welche häufig in Fahrzeugen für teil- oder vollautonomes Fahren zum Einsatz kommen (in Beispielen werden Sensordaten von einer Mehrzahl von Sensoren verwendet, z.B. zwei oder mehr der oben genannten Systeme). Ein zeitabhängiges Signal kann äquidistant oder nicht-äquidistant in der Zeit abgetastet sein. Die Umgebung kann beispielsweise von Straßen-, Verkehrs-, Wetterbedingungen beeinflusst werden. Das mindestens eine zeitabhängige Signal kann von einem Sensorwert oder einem Softwarewert abhängen. Das Verfahren kann zur Erkennung und Bewertung von Ereignissen, die für den Betrieb des Fahrzeugs (z.B. Fahrmanöver während des autonomen Fahrens) relevant sind und/oder Einfluss auf das Fahrverhalten haben können, eingesetzt werden. Der Eingangsdatenstrom kann auch von Quellen (z.B. Sensoren) außerhalb des Fahrzeugs gespeist werden. Die selbst-adaptiven Erkennungssysteme können jede Datenquelle integrieren, die Informationen bezüglich des Fahrzeugs oder seiner Umgebung liefern. Beispielsweise kann ein hierin beschriebenes, selbst-adaptives Erkennungssystem in einem Fahrzeug Eingangsdatenströme von anderen Fahrzeugen, anderen Verkehrsteilnehmern, Infrastrukturkomponenten oder aus Datenbanken beziehen. Die in der Folge fürs autonome Fahren diskutierten konkreten Beispiele dienen dementsprechend zur Illustration eines bevorzugten Einsatzgebiets. Die darin enthaltene Lehre ist jedoch nicht auf autonomes Fahren beschränkt (insofern nicht für diese Anwendung spezifische Aspekte behandelt werden).
    Ein selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren kann, anders als in 1a dargestellt, auch mehrere Eingangsdatenströme aufweisen (welche jeweils ein zeitabhängiges Signal oder mehrere zeitabhängige Signale empfangen können), wobei jedes dieser zeitabhängigen Signale ebenfalls von einem Sensor- und/oder Softwaresignal abhängen kann. Eine Abhängigkeit kann auch insofern bestehen, als ein Eingangsdatenstrom von mehreren Sensorwerten und/oder mehreren Softwarewerten gespeist werden kann, wobei beispielsweise Sensor- und/oder Softwarewerte in einem Zeitpunkt rechnerisch kombiniert werden können (z.B. durch eine vorgeschaltete Verarbeitungslogik oder einen Auswerte- und Erkennungsalgorithmus, der insbesondere auf Maschinellem Lernen beruhen kann). Ebenfalls kann zu jedem Zeitpunkt jeweils nur ein Sensorwert oder ein Softwarewert das zeitabhängige Signal speisen. Dieser Fall kann z.B. relevant sein, wenn eine Rekonfiguration von einem Sensor auf einen anderen Sensor (z.B. Kamera auf Radar) erfolgt und somit insbesondere zwischen Sensoren gewechselt wird. Eine Rekonfiguration/ein Rekonfigurieren kann als Wechsel der Konfiguration betrachtet werden.
  • Abgesehen von der Anwendbarkeit beim zumindest teilweise autonomen Fahren kann ein hierin vorgestelltes, selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren in verschiedenen anderen Bereichen, in denen ebenfalls verlässlich ein räumlich und zeitlich situatives Bewusstsein für eine sich ändernde Umgebung aus Umgebungsdaten abgeleitet werden soll, zum Einsatz kommen. Zum Beispiel können andere zumindest teilautonome Fortbewegungs- und/oder Transportmittel (z.B. Schiffe oder Flugzeuge) mit einem selbst-adaptives Erkennungssystem ausgerüstet werden. In anderen Beispielen können andere Roboter, die zumindest teilautonom agieren, mit dem selbst-adaptives Erkennungssystem ausgestattet sein (zum Beispiel Industrieroboter). Mögliche weitere Anwendungsfelder können z.B. in der automatisierten Überwachungstechnik oder in der automatisierten Prozesssteuerung gesehen werden (oder in anderen automatisierten Bildklassifikatoren). Der mindestens eine Eingangsdatenstrom kann in manchen Beispielen Bilddaten umfassen, optional Bilddaten einer kamerabasierten-, Radar-, LIDAR-, Ultraschall- Bildgebungssystems. Die kamerabasierten Bildgebungssysteme können jedweden Wellenlängenbereich detektieren (z.B. den sichtbaren Wellenängenbereich und/oder einen infraroten Wellenlängenbereich, insbesondere zur Detektion von thermischer Strahlung). Besonders beim Empfangen von Bilddaten kann ein Ereignis, dass das selbst-adaptive Erkennungssystems erkennt, die Präsenz eines bestimmten Objekts (z.B. einer Person) sein. In anderen Beispielen kann ein Ereignis eine Bewertung einer Situation mit einem bestimmten Objekt (z.B. einer Person) sein. Insbesondere für Objekterkennung basierend auf Bilddaten kann das beschriebene Verfahren vorteilhaft sein, da in komplexen Umgebungen neue Objekte auftreten können, auf die das selbst-adaptiven Erkennungssystems angemessen reagieren sollte.
  • Das beschriebene Verfahren kann zur Erkennung und Bewertung von Ereignissen in der Steuerung eines zumindest teilautonomen Roboters, zum Beispiel eines zumindest teilautonomen Fahrzeugs, oder in einer zumindest teilautonomen Überwachungsvorrichtung eingesetzt werden (oder in anderen hierin beschriebenen Anwendungen). Das selbst-adaptive, konfigurierbare Erkennungssystem kann auch in einem zumindest teilautonomen Roboter oder in einer zumindest teilautonomen Überwachungsvorrichtung enthalten sein.
  • Im Allgemeinen sind die Umgebung, die Sensoren zur Erfassung der Umgebung, sowie die Verarbeitungsalgorithmen der Sensorsignale so komplex, dass Fehler in der Erkennung oder Bewertung nicht vollständig ausgeschlossen werden können. Fehler können beispielsweise entstehen, wenn ein Ereignis oder eine Situation nur unvollständig durch die Sensorik erfasst wird (z.B. durch Verdeckung oder Überblendung) oder die die Sensordaten verarbeitenden Algorithmen nicht ausreichend robust gegen z.B. statistische Schwankungen oder ungewöhnliche Umgebungsbedingungen sind. Ein Vorteil der hierin vorgestellten, selbst-adaptiven Erkennungssysteme 100 bzw. deren dazugehörigen Verfahren kann darin bestehen, dass eben solche funktionalen Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems 100 evidenzbasiert erkannt werden können und diesen durch Rekonfiguration des Erkennungssystems 100 entgegengewirkt werden kann. In dieser Hinsicht kann das Verfahren als selbst-adaptiv bezeichnet werden. Beim autonomen Fahren kann dadurch die sogenannte „Sicherheit der Sollfunktion“ (SOTIF) im Sinne der Norm ISO 21448 erreicht werden.
  • 1b zeigt ein beispielhaftes aber relevantes Szenario aus dem Straßenverkehr, welches insbesondere für ein autonom fahrendes Fahrzeug 110 eine Herausforderung darstellen kann. Ein am Straßenrand stehender Fußgänger 120 könnte die Absicht haben, vor dem Fahrzeug 110 die Straße zu überqueren. Ob das autonom fahrende Fahrzeug entscheidet weiterzufahren oder abzubremsen, hängt von der Erkennung und der Bewertung der Situation ab, welche z.B. über eine Kamera 111 des Fahrzeugs 110 zwar erfasst wird, aber durch eine tief- und entgegenstehende Sonne 122 und daraus resultierenden Reflektionen in einer den Fußgänger 110 umgebenden Pfütze 121 gestört werden kann.
  • Die Bewertung der Situation kann in diesem Fall auf die Frage reduziert werden, ob ein Mensch (Fußgänger 120) am Straßenrand erkannt wurde oder nicht. In einem evidenzbasierten Verfahren dieser Offenbarung kann nun ein Vertrauen für das Ereignis „Mensch“ 261 und eine Plausibilität für das Ereignis „Mensch“ 261 berechnet werden. Weiterhin kann sodann eine Unsicherheit für das Ereignis „Mensch“ 261 berechnet werden. Ist die Störung beispielsweise durch das Gegenlicht der Sonne bzw. der Reflektionen in der Pfütze 121 groß, kann auch die Unsicherheit für das Ereignis „Mensch“ 261 zunehmen und gegebenenfalls einen vordefinierten sogenannten Unsicherheitsschwellwert, überschreiten. Eine solche Überschreitung verletzt somit ein vordefiniertes Sicherheitskriterium und kann dann eine Rekonfiguration des Erkennungssystems nach sich ziehen, z.B. einen Wechsel von der Kamera auf Radar, welches beispielsweise unabhängig vom Gegenlicht operieren kann. Die Bewertung und Erkennung des Ereignisses „Mensch“ kann beliebig oft wiederholt werden. Alternativ oder zusätzlich kann auch ein negiertes Ereignis, z.B. „kein Mensch“ bewertet und erkannt werden. Das Verfahren kann zudem parallel oder sequentiell mehrfach angewandt werden, wobei es insbesondere auch auf die Bewertung und Erkennung weiterer Ereignisse gerichtet sein kann. Im Kontext von 1b wäre z.B. auch denkbar, dass je ein Ereignis „Erwachsener“, ein Ereignis „Kind“ oder ein Ereignis „Tier“ unterschieden werden, falls z.B. in Abhängigkeit davon unterschiedliche Fahrmanöver sinnvoll wären. Die Bewertung und Erkennung kann zudem auch auf eine Oder-Verknüpfung von Ereignissen, z.B. Ereignis „Mensch oder Tier“ gerichtet sein. Im Allgemeinen können Ereignisse aus beliebigen Zuständen oder deren Oder-Verknüpfungen bestehen, welche, insbesondere nach Zustandsänderungen, bewertet und erkannt werden sollen, damit ein automatisiertes System adäquat, d.h. wunschgemäß, reagieren kann. Weitere Anwendungsfelder z.B. in der automatisierten Überwachungstechnik (Ereignis „spielende Kinder oder Einbrecher“) oder in der automatisierten Prozesssteuerung (z.B. Erkennung von Zustandsänderungen in chemischen Reaktionen) gesehen werden.
  • Ein selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren in dieser Offenbarung kann ein bayessches Netz 200, wie es schematisch in 2a und als explizites Zahlenbeispiel für die in 1b beschriebene Situation in 2b dargestellt ist, aufweisen. Es kann von mindestens einem Eingangsdatenstrom für mindestens ein zeitabhängiges Signal als Eingang abhängen, wobei das zeitabhängige Signal wie oben beschrieben von einem Sensor- oder Softwaresignal abhängen kann. Das bayessche Netz 200 kann auch von mehreren Eingangsdatenströmen als Eingänge abhängen. Das bayessche Netz 200 kann insbesondere über die sogenannten Basisknoten 203 des gerichteten azyklischen Graphen, in denen keine gerichteten Kanten 202 enden, von dem Eingangsdatenstrom oder den Eingangströmen abhängen. Wie in 2b können z.B. die Zustände im Basisknoten „Sonnenneigung“ mit einer Wahrscheinlichkeit von 20% auftreten. Die Knoten 201 des bayesschen Netzes 200 stellen Zufallsvariablen dar und die gerichteten Kanten 202 des bayesschen Netzes 200 stellen direkte Abhängigkeiten zwischen den Knoten 201 dar und definieren bedingte Wahrscheinlichkeiten. Von den Basisknoten 203 des bayesschen Netzes 200 können Wahrscheinlichkeiten bis in die Blätterknoten 204 des bayesschen Netzes 200 propagiert (d.h. berechnet) werden. Das vorgestellte Verfahren kann das Propagieren von Wahrscheinlichkeiten in einem bayesschen Netz, wobei das bayessche Netz zumindest von dem mindestens einen Eingangsdatenstrom des mindestens einen zeitabhängigen Signals abhängt und ausgelegt ist, ein in der Zeit mögliches Auftreten mindestens eines Ereignisses zu erkennen, umfassen.
  • Das bayessche Netz 200 kann für eine Mehrzahl von Systemkonfigurationen definiert werden, die insbesondere unterschiedliche Konfigurationen für die Erkennungssensorik (z.B. Kamera-, Radar-, LIDAR-, Ultraschall- oder thermische Bildgebungssysteme), für die Erkennungsalgorithmen und/oder für die Umgebungseinflüsse umfasst, wobei einzelne Systemkonfigurationen z.B. jederzeit durch Todbedatungen von Wahrscheinlichkeiten im bayesschen Netz 200 gezielt deaktiviert und bei Bedarf wieder aktiviert werden können. Das Rekonfigurieren des Erkennungssystems umfasst das Auswählen einer der Mehrzahl von Systemkonfigurationen (z.B. Sensorwechsel) und/oder das Ändern einer Parametrisierung für die aktuelle Systemkonfiguration (z.B. Wechsel der Kameraeinstellung). Alternativ oder zusätzlich können Rekonfigurationen des Erkennungssystems 100 auch Änderungen des bayesschen Netzwerks 200 umfassen, wobei insbesondere auch Knoten 201 und gerichtete Kanten 202 sowie deren Wahrscheinlichkeiten verändert werden können.
  • Das bayessche Netz 200 kann derart aufgebaut und ausgelegt sein, dass ein in der Zeit mögliches Auftreten mindestens eines Ereignisses 261 (z.B. „Mensch“) oder mindestens einer Oder-Verknüpfung von Ereignissen im Bezug auf die Auftretenswahrscheinlichkeit bzw. dem Vertrauen bewertet und schlussendlich erkannt werden kann, wobei insbesondere das mindestens eine Ereignis oder die mindestens eine Oder-Verknüpfung von Ereignissen ein mögliches Ereignis bzw. eine mögliche Oder-Verknüpfung von Ereignissen in einem Blätterknoten 204 sein kann. Inwiefern ein Ereignis oder eine Oder-Verknüpfung von Ereignissen erkannt werden kann, hängt von der im Folgenden zu beschreibenden Evidenz für das Ereignis bzw. die Oder-Verknüpfung der Ereignisse ab, insbesondere aber auch von den Auftretenswahrscheinlichkeiten bzw. den Vertrauensmassen der konkurrierenden möglichen Ereignisse im selben Blätterknoten 204.
  • Das Prüfen auf Erkennen des in der Zeit möglichen Auftretens des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen umfasst das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für das Auftreten des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen, wobei das Vertrauen als ein Maß dafür gesehen werden kann, wie wahrscheinlich die Erkennung des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen ist, und wobei die Plausibilität als ein weiteres Maß dafür gesehen werden kann, wie wahrscheinlich die der Erkennung des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen entgegenstehenden Ereignisse sind. Somit können sowohl Vertrauen als auch Plausibilität Wahrscheinlichkeiten darstellen. Das Vertrauen und die mindestens eine Plausibilität für das Auftreten des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen können auf Basis des bayesschen Netzes 200 und gemäß der Evidenztheorie nach Dempster und Shafer berechnet werden: Hierzu sei Ω = {y1, y2, ..., yn} eine Menge von n sich gegenseitig ausschließenden und erschöpfenden Zuständen, welche beispielsweise als mögliche Ereignisse in einem Blätterknoten 204 des bayesschen Netz 200 in Betracht kommen. Zudem sei 2 Ω = { Ø , { y 1 } , { y 2 } , { y 1 , y 2 } , , { y n 1 , y n } , , { y 1 , y 2 , , y n } }
    Figure DE102020211251A1_0001
    die Potenzmenge von Ω. Somit kann die Potenzmenge 2Ω aus einer Menge Ω von n sich gegenseitig ausschließenden und erschöpfenden Zuständen gebildet werden, wobei die Zustände zu erkennende bekannte Ereignisse darstellen. Das Verfahren umfasst das Berechnen von je einer Wahrscheinlichkeit für Teilmengen (B) in einer Potenzmenge 2Ω einer Menge Ω von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über das bayessche Netz 200 von dem mindestens einen Eingangsdatenstrom abhängt. Weiterhin umfasst das Verfahren das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge 2Ω zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge 2Ω zugeordneten Oder-Verknüpfung von Ereignissen, wobei eine Oder-Verknüpfung von Ereignissen einer Teilmenge mit Kardinalität größer 1 entspricht. Das Prüfen auf Erkennen umfasst weiterhin das Berechnen eines Vertrauens 210 und mindestens einer Plausibilität 220 jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten, sowie das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen 210 und der mindestens einen Plausibilität 220 für die eine Teilmenge abhängt. Vertrauen, auch Vertrauensmassen genannt, für Zustände in Ω kann durch eine : 2Ω ↦ [0,1] definiert werden, wobei m(0) = 0 und: A 2 Ω m ( A ) = 1
    Figure DE102020211251A1_0002
    Auf der Potenzmenge 2Ω können dann das Vertrauen bel(B) für eine Teilmenge B ∈ 2Ω, b e l ( B ) = A | A B m ( A )
    Figure DE102020211251A1_0003
    und die Plausibilität pl(B), p l ( B ) = A | A B Ø m ( A )
    Figure DE102020211251A1_0004
    definiert werden. Somit wird das Vertrauen 210 für die eine Teilmenge als eine Summe der Wahrscheinlichkeiten aller Teilmengen der einen Teilmenge berechnet und die mindestens eine Plausibilität 220 für die eine Teilmenge ist eine Summe der Wahrscheinlichkeiten aller Teilmengen in der Potenzmenge 2Ω, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist. Somit ist Vertrauen in B ∈ 2Ω die Summe der Vertrauensmassen all der Zustände, die mit der Teilmenge B ∈ 2Ω verträglich, mitunter aber spezieller sind. Plausibilität stellt eine obere Grenze für das Vertrauen in B ∈ 2Ω dar. Für die Bewertung der Erkennung ist es vorteilhaft, das bayessche Netz 200, wie in 2a dargestellt, über das Vertrauen, die Plausibilität und die Unsicherheit für eine Teilmenge eines Blätterknoten 204 zu einem sogenannten evidenten Netzwerk (EN) 250 zu erweitern. Es können auch für weitere oder alle Ereignisse bzw. deren Oder-Verknüpfungen eines Blätterknoten 204 je ein Vertrauen und eine Plausibilität berechnet werden.
  • Das Prüfen auf Erkennen des in der Zeit möglichen Auftretens des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen umfasst weiterhin: das Berechnen mindestens einer Unsicherheit für das Auftreten des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für das Auftreten des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen abhängt: In einem evidenten Netzwerk (EN) 250 kann die Unsicherheit Un(B) für B ∈ 2Ω jeweils als U n ( B ) = p l ( B ) b e l ( B )
    Figure DE102020211251A1_0005
    berechnet werden. Somit ist die mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge zugeordneten Ereignis oder der mindestens einen der einen Teilmenge zugeordneten Oder-Verknüpfung von Ereignissen die mindestens eine Plausibilität abzüglich des Vertrauens.
  • Das Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems umfasst auch das Rekonfigurieren des Erkennungssystems 100, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt, wobei das Rekonfigurieren darauf abzielt, dass die mindestens eine Unsicherheit das mindestens eine vordefinierte Sicherheitskriterium erfüllt, beispielsweise in dem nächsten oder in einem nächsten Zeitschritt. Das mindestens eine vordefinierte Sicherheitskriterium kann einen vordefinierten Unsicherheitsschwellwert umfassen, wobei das Sicherheitskriterium als verletzt gilt, wenn die mindestens eine Unsicherheit größer als der vordefinierte Unsicherheitsschwellwert ist. Das Rekonfigurieren kann das Auswählen einer Mehrzahl von Systemkonfigurationen; und/oder das Ändern einer Parametrisierung für eine aktuelle Systemkonfiguration umfassen.
  • Wie in 2b dargestellt, kann das bayessche Netz 200 zudem ausgelegt sein, neben dem mindestens einen Ereignis 261 ein in der Zeit ebenfalls mögliches Auftreten mindestens eines weiteren unbekannten Ereignisses 262 oder Auftreten ein oder mehrerer weiterer unbekannter Ereignisse zu erkennen. Ein Vorteil kann darin gesehen werden, dass nun weitere Plausibilitäten und weitere Unsicherheiten berechnet werden können, wobei die weiteren Unsicherheiten wiederum weitere vordefinierte Sicherheitskriterien verletzen können. Das System kann somit in verschiedenen Situationen und insbesondere im Falle eines unbekannten Ereignisses (z.B. Begegnung mit einem neuen Typ von Fahrzeug) funktionale Insuffizienzen und/oder Leistungsbegrenzungen erkennen. Im Verfahren kann dann die Art der Rekonfiguration des Erkennungssystems davon abhängen, welche Sicherheitskriterien verletzt sind. Sei hier nun Ω = {y1, y2, ..., yn, u} eine Menge von n sich gegenseitig ausschließenden und erschöpfenden Zuständen und dem mindestens einen unbekannten Zustand, welche beispielsweise alle als mögliche Ereignisse in einem Blätterknoten 204 des bayesschen Netz 200 in Betracht kommen können. Die Potenzmenge 2Ω ist dann: 2 Ω = { Ø , { y 1 } , { y 2 } , , { u } , { y 1 , y 2 } , , { y n 1 , y n } , , { y 1 , y 2 , , y n , u } }
    Figure DE102020211251A1_0006
    Somit kann die Potenzmenge 2Ω aus einer Menge Ω von n sich gegenseitig ausschließenden und erschöpfenden zu erkennenden Zuständen sowie mindestens einem weiteren Zustand u gebildet wird, wobei die n Zustände zu erkennende bekannte Ereignisse darstellen und der mindestens eine weitere Zustand u ein dem Erkennungssystem unbekanntes Ereignis darstellt.
  • Weiterhin können die folgenden drei Teilmengen von 2Ω definiert werden, E = { { y 1 , y 2 } , , { y n 1 , y n } , , { y 1 , y 2 , , y n } }
    Figure DE102020211251A1_0007
    O = { { u } }
    Figure DE102020211251A1_0008
    E O = { { y 1 , u } , { y 2 , u } , , { y n 1 , y n , u } , , { y 1 , y 2 , , y n , u } }
    Figure DE102020211251A1_0009
    wobei E keine Menge mit u enthält, O nur die Menge mit u enthält und EO alle Mengen der Potenzmenge 2Ω enthält, die Mischmengen mit y1, y2, ... und u enthalten. Die Mengen E, 0, EO können auch auf den Fall mit mehreren unbekannten Zuständen u, u2, ... erweitert werden. Vertrauen, auch Vertrauensmassen genannt, für Zustände in Ω kann erneut durch eine : 2Ω ↦ [0,1] mit den beschriebenen Eigenschaften definiert werden. Auf der Potenzmenge 2Ω kann dann wie bisher das Vertrauen bel(B) für ein Ereignis B ∈ 2Ω, über b e l ( B ) = A | A B m ( A )
    Figure DE102020211251A1_0010
    berechnet werden. Wenn B ∈ 2Ω auf |B| = 1 eingeschränkt wird, können die sogenannte epistemische Plausibilität plE (B) p l E ( B ) = b e l ( B ) + A | A B Ø A E m ( A )
    Figure DE102020211251A1_0011
    die sogenannte ontologische Plausibilität plo (B), p l O ( B ) = b e l ( B ) + A | A B Ø A O m ( A )
    Figure DE102020211251A1_0012
    und die sogenannte epistemisch-ontologische Plausibilität plEO(B), p l E O ( B ) = b e l ( B ) + A | A B Ø A E O m ( A )
    Figure DE102020211251A1_0013
    berechnet werden, wobei plE(B) der bereits eingeführten Plausibilität pl(B) entspricht, d.h. plE(B) = pl(B), wenn m({u}) = 0. Durch |B| = 1 kann das Prüfen auf Erkennen auf das in der Zeit mögliche Auftreten mindestens eines der Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses beschränkt sein. Wie in 2a dargestellt, kann das bayessche Netz 200 über das Vertrauen und die epistemische, ontologische und epistemisch-ontologische Plausibilität für ein Ereignis eines Blätterknoten 204 zu einem sogenannten erweiterten evidenten Netzwerk (ENN) 260 erweitert werden. Es können auch für weitere oder alle Ereignisse eines Blätterknoten 204 je ein Vertrauen sowie eine epistemische, ontologische und epistemisch-ontologische Plausibilität berechnet werden. In einem erweiterten evidenten Netzwerk (EEN) 260 können dann eine epistemische Unsicherheit UnE(B), eine ontologische Unsicherheit Uno(B) und eine epistemisch-ontologische Unsicherheit UnEO(B) für B ∈ 2Ω durch U n X ( B ) = p l X ( B ) b e l ( B )
    Figure DE102020211251A1_0014
    für X = E, O, EO berechnet werden. Weiterhin kann es ein vordefiniertes epistemisches Sicherheitskriterium, ein vordefiniertes ontologisches Sicherheitskriterium sowie ein vordefiniertes epistemisches-ontologisches Sicherheitskriterium geben. Die im Verfahren mindestens eine Plausibilität für das Auftreten des mindestens einen Ereignisses kann eine epistemische Plausibilität sein, welche ohne Berücksichtigung des mindestens einen weiteren unbekannten Ereignisses - d.h. nach obiger Formel, auch im Fall m({u}) ≠ 0 - berechnet wird. Somit kann die epistemische Plausibilität 220 als das Vertrauen 210 für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert sein, wobei die epistemischen Teilmengen in der Potenzmenge 2Ω, insbesondere in E, liegen und mindestens zwei der n Zustände, aber keinen weiteren Zustand u für ein unbekanntes Ereignis enthalten. Die im Verfahren mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge 2Ω zugeordneten Ereignisses kann eine epistemische Unsicherheit sein, welche von dem Vertrauen und der epistemischen Plausibilität für das Auftreten des mindestens einen Ereignisses wie beschrieben abhängt und somit die mindestens eine epistemische Plausibilität 220 abzüglich des Vertrauens 210 ist. Weiterhin kann im Verfahren, wie beschrieben, eine ontologische Plausibilität für die eine Teilmenge, insbesondere für eine Teilmenge mit ausschließlich weiteren Zuständen u für unbekannte Ereignisse, berechnet werden. Die ontologische Plausibilität 230 kann als das Vertrauen 210 für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert werden, wobei die ontologischen Teilmengen in der Potenzmenge 2Ω, insbesondere in 0, liegen und ausschließlich weitere Zustände für unbekannte Ereignisse enthalten. Weiterhin kann eine ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge 2Ω zugeordneten Ereignisses, welche von dem Vertrauen und der ontologischen Plausibilität für das Auftreten des mindestens einen unbekannten Ereignisses abhängt und insbesondere die ontologische Plausibilität 230 abzüglich des Vertrauens 210 ist, berechnet werden. Weiterhin kann eine epistemisch-ontologische Plausibilität für die eine Teilmenge, d.h. für das Auftreten des mindestens einen Ereignisses, berechnet werden, wobei die epistemisch-ontologische Plausibilität 240 als das Vertrauen 210 für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemisch-ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die epistemisch-ontologischen Teilmengen in der Potenzmenge 2Ω, insbesondere in EO, liegen und mindestens einen der n Zustände sowie mindestens einen weiteren Zustand für ein unbekanntes Ereignis enthalten. Weiterhin kann eine epistemisch-ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge 2Ω zugeordneten Ereignisses, welche von dem Vertrauen und der epistemisch-ontologischen Plausibilität abhängt und insbesondere die epistemisch-ontologische Plausibilität 240 abzüglich des Vertrauens 210 ist, berechnet werden.
  • Im Falle von mehreren unbekannten Zuständen u, u2,... kann das Verfahren ausgelegt sein, ein jeweils in der Zeit mögliches Auftreten weiterer bekannter und/oder unbekannter Ereignisse zu erkennen, sowie Rekonfigurationen in Abhängigkeit von der Verletzung weiterer epistemischer, ontologischer oder epistemisch-ontologischer Sicherheitskriterien bzgl. weiterer epistemischer, ontologischer oder epistemisch-ontologischer Unsicherheiten für das Auftreten weiterer bekannter und/oder unbekannter Ereignisse erfolgen. Hierbei kann B ∈ 2Ω ebenfalls auf |B| = 1 beschränkt sein.
  • In 3 ist ein Verlaufsdiagramm für das bereits beschriebene Verfahren auf Basis eines erweiterten evidenten Netzwerks (EEN) 260 dargestellt. Initial, d.h. zum Entwicklungszeitpunkt und insbesondere vor der Laufzeit, können Systemkonfigurationen und/oder das bayessche Netz 200 gewählt werden, um ein für den gewünschten Anwendungsfall geeignetes Systemmodell (z.B. in SysML darstellbar) zu repräsentieren, wobei das Systemmodell in Abhängigkeit der Komplexität des Systems mehrere Hierarchiestufen wie z.B. Subsysteme bzw. Komponenten aufweisen kann. Mögliche Zustände im Systemmodell können geschätzt werden, wobei es insbesondere auf die Abhängigkeiten von verschiedenen Zuständen zwischen Hierarchiestufen oder auch innerhalb von Hierarchiestufen ankommen kann. Insbesondere können bekannte und/oder unbekannte Ereignisse, welche erkannt werden sollen, z.B. als Zustände auf den Blätterknoten 204 definiert werden. Solche Ereignisse können aber müssen nicht auf die Erkennung von gefahrvollen und/oder zu vermeidenden Situationen gerichtet sein. In einem weiteren initialen Schritt können Schwächen, z.B. mögliche funktionale Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems sowie passende Sicherheitskriterien und/oder weitere Triggerbedingungen definiert werden. Somit können insbesondere die Sicherheitskriterien vorbestimmt sein. Insbesondere können auch Systemkonfigurationen und/oder Bedatungen definiert bzw. geschätzt werden sowie eine Logik wie diese rekonfiguriert, d.h. gewechselt, werden können. Vertrauensmassen im bayesschen Netz 200 können ebenfalls initial auf Basis von Expertenwissen, voraufgenommenen Daten und/oder ausgewerteten Laufzeitdaten geschätzt werden.
  • Zur Laufzeit können die Sensor- oder Softwarewerte kontinuierlich oder mit einer gewissen Zeitabtastung einströmen. Alternativ oder zusätzlich können sie, anders als dargestellt, zunächst analysiert und/oder verarbeitet werden, bevor sie die Wahrscheinlichkeiten/Vertrauensmassen im bayesschen Netz 200 beeinflussen können. Je Zeitschritt kann das erweiterte evidente Netzwerk (EEN) 260 ausgeführt werden, wobei insbesondere die Wahrscheinlichkeiten im bayesschen Netz 200 von den Basisknoten 203 zu den Blätterknoten 204 propagiert werden können. Für je ein Ereignis (oder für das Ereignis „unbekannt“) können dann in jedem Zeitschritt wie beschrieben eine epistemische, eine ontologische und/oder eine epistemisch/ontologische Unsicherheit berechnet werden, welche jeweils ein epistemisches, ontologisches bzw. epistemisch-ontologisches Sicherheitskriterium erfüllen kann. In einem auf einem erweiterten evidenten Netzwerk (EEN) 260 basierenden Verfahren kann das vordefinierte Sicherheitskriterium ein epistemisches Sicherheitskriterium sein und, die aktuelle Systemkonfiguration geändert werden (parametrische Konfiguration), wenn die epistemische Unsicherheit das epistemische Sicherheitskriterium verletzt. Weiterhin kann das Verfahren ein weiteres vordefiniertes Sicherheitskriterium, ein sogenanntes ontologisches Sicherheitskriterium, umfassen und die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen geändert werden (kompositorische Konfiguration), wenn die ontologische Unsicherheit das ontologische Sicherheitskriterium verletzt. Weiterhin kann das Verfahren ein weiteres vordefiniertes Sicherheitskriterium, ein sogenanntes epistemisch-ontologisches Sicherheitskriterium umfassen und die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen und/oder die Parametrisierung der gewählten Systemkonfiguration geändert werden (kontextuelle Konfiguration), wenn die epistemisch-ontologische Unsicherheit das epistemisch-ontologische Sicherheitskriterium verletzt. 3 kann im Falle eines evidenten Netzwerks (EN) 250 entsprechend angepasst bzw. reduziert werden. Optional kann das am stärksten verletzte der Unsicherheitskriterien für das Rekonfigurieren maßgeblich sein.
  • Die beschriebenen Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems können in einer Vorrichtung bzw. in einem selbst-adaptiven, konfigurierbaren Erkennungssystems zum Einsatz kommen, welches dazu ausgelegt ist, die hierin beschriebenen Techniken auszuführen. Ein solches selbst-adaptives, konfigurierbares Erkennungssystem kann eine elektronische Steuereinheit aufweisen, die mindestens einen Prozessor und mindestens einen Speicher umfasst. Insbesondere kann ein Computerprogramm eingerichtet sein, alle Schritte des beschriebenen Verfahrens auszuführen, wobei das Computerprogramm auf einem maschinenlesbaren Speichermedium gespeichert sein kann. Die beschriebene Verfahrenslogik kann in Form von ausführbarem Code in mindestens einem Speicher bereitgehalten werden und von dem mindestens einen Prozessor ausgeführt werden. In der Regel weist das Erkennungssystem mindestens einen Sensor auf, der über eine elektronische Anbindung Daten an den mindestens einen Prozessor schicken und optional auch Anweisungen von dem mindestens einen Prozessor erhalten kann. Das selbst-adaptive, konfigurierbare Erkennungssystem ist dabei nicht auf eine bestimmte Hardware-Umgebung beschränkt. So können verteilte und über ein Netzwerk gekoppelte Vorrichtungen die hierin beschriebenen Techniken ausführen. In anderen Beispielen kann eine Steuereinheit eine Vorrichtung (z.B. eines autonomen Fahrzeugs) die hierin beschriebenen Techniken ausführen. Die Offenbarung umfasst auch elektrische Signal und Computer-lesbare Medien, die Befehle definieren, die, wenn sie von einem Prozessor ausgeführt werden, die hierin beschriebenen Techniken umsetzen.
  • Die Verfahrenslogik kann auch in separaten Organisationseinheiten auf einem Prozessor oder mehreren Prozessoren laufen. Beispielsweise können im sogenannten MAPE-K managing system die Organisationseinheiten Monitor, Analyze, Planning und Execute (MAPE) unterschieden werden, welche mit der Knowledge Einheit interagieren, welche wiederum das durch die sogenannte Hazard Analysis and Risk Assessment (HARA) gewonnene Wissen enthält.
  • Die vorliegende Offenbarung betrifft auch Computerprogramme, welche eingerichtet sind, alle Schritte der Verfahren der vorliegenden Offenbarung auszuführen. Darüber hinaus betrifft die vorliegende Offenbarung maschinenlesbares Speichermedien (z.B. optische Speichermedien oder Festspeicher, beispielsweise FLASH-Speicher), auf denen Computerprogramme gespeichert sind, welche eingerichtet sind, alle Schritte der Verfahren der vorliegenden Offenbarung auszuführen.

Claims (18)

  1. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100), umfassend: das Empfangen mindestens eines Eingangsdatenstroms; das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz (200) von dem mindestens einen Eingangsdatenstrom abhängt; das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen, weiterhin umfassend: das Berechnen eines Vertrauens (210) und mindestens einer Plausibilität (220) jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten; das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen (210) und der mindestens einen Plausibilität (220) für die eine Teilmenge abhängt; das Rekonfigurieren des Erkennungssystems (100), wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.
  2. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 1, wobei das mindestens eine Sicherheitskriterium einen vordefinierten Unsicherheitsschwellwert umfasst und das Sicherheitskriterium als verletzt gilt, wenn die mindestens eine Unsicherheit größer als der vordefinierte Unsicherheitsschwellwert ist.
  3. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der Ansprüche 1 oder 2, wobei die Potenzmenge (2Ω) aus einer Menge (Ω) von n sich gegenseitig ausschließenden und erschöpfenden Zuständen gebildet wird, wobei die Zustände zu erkennende bekannte Ereignisse darstellen.
  4. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 3, wobei das Vertrauen (210) und die mindestens eine Plausibilität (220) für die eine Teilmenge in der Potenzmenge (2Ω) auf Basis des bayesschen Netzes (200) und gemäß der Evidenztheorie nach Dempster und Shafer berechnet werden, wobei weiterhin die mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge zugeordneten Ereignis oder der mindestens einen der einen Teilmenge zugeordneten Oder-Verknüpfung von Ereignissen die mindestens eine Plausibilität (220) abzüglich des Vertrauens (210) ist.
  5. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der Ansprüche 1 oder 2, wobei die Potenzmenge (2Ω) aus einer Menge (Ω) von n sich gegenseitig ausschließenden und erschöpfenden zu erkennenden Zuständen sowie mindestens einem weiteren Zustand (u) gebildet wird, wobei die n Zustände zu erkennende bekannte Ereignisse darstellen und der mindestens eine weitere Zustand (u) ein dem Erkennungssystem unbekanntes Ereignis darstellt.
  6. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der vorhergehenden Ansprüche 1 bis 5, wobei das Vertrauen (210) für die eine Teilmenge als eine Summe der Wahrscheinlichkeiten aller Teilmengen der einen Teilmenge berechnet wird.
  7. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der Ansprüche 1 bis 4 oder 6, wobei die mindestens eine Plausibilität (220) für die eine Teilmenge eine Summe der Wahrscheinlichkeiten aller Teilmengen in der Potenzmenge (2Ω) ist, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist.
  8. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 5, wobei das Prüfen auf Erkennen auf das in der Zeit mögliche Auftreten mindestens eines der Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses beschränkt ist.
  9. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 8, wobei die mindestens eine Plausibilität (220) eine epistemische Plausibilität (220) ist, und wobei die mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses eine epistemische Unsicherheit ist, welche die mindestens eine epistemische Plausibilität (220) abzüglich des Vertrauens (210) ist.
  10. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 9, wobei die epistemische Plausibilität (220) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die epistemischen Teilmengen in der Potenzmenge (2Ω) liegen und mindestens zwei der n Zustände, aber keinen weiteren Zustand (u) für ein unbekanntes Ereignis enthalten.
  11. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der Ansprüche 8 bis 10, wobei eine ontologische Plausibilität (230) für die eine Teilmenge, insbesondere für eine Teilmenge mit ausschließlich weiteren Zuständen (u) für unbekannte Ereignisse, berechnet wird; und wobei eine ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses als die ontologische Plausibilität (230) abzüglich des Vertrauens (210) berechnet wird.
  12. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 11, wobei die ontologische Plausibilität (230) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die ontologischen Teilmengen in der Potenzmenge (2Ω) liegen und ausschließlich weitere Zustände für unbekannte Ereignisse enthalten.
  13. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der Ansprüche 8 bis 12, wobei eine epistemisch-ontologische Plausibilität (240) für die eine Teilmenge berechnet wird; und wobei eine epistemisch-ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses als die epistemisch-ontologische Plausibilität (240) abzüglich des Vertrauens (210) berechnet wird.
  14. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach Anspruch 13, wobei die epistemisch-ontologische Plausibilität (240) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemisch-ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die epistemisch-ontologischen Teilmengen in der Potenzmenge (2Ω) liegen und mindestens einen der n Zustände sowie mindestens einen weiteren Zustand für ein unbekanntes Ereignis enthalten.
  15. Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der vorhergehenden Ansprüche, wenn abhängig von Anspruch 9, wobei das vordefinierte Sicherheitskriterium ein epistemisches Sicherheitskriterium ist und eine Parametrisierung für eine aktuelle Systemkonfiguration geändert werden kann, wenn die epistemische Unsicherheit das epistemische Sicherheitskriterium verletzt; und/oder wenn abhängig von Anspruch 11, wobei das Verfahren ein vordefiniertes ontologisches Sicherheitskriterium umfasst, und wobei eine Systemkonfiguration innerhalb einer Mehrzahl von Systemkonfigurationen geändert werden kann, wenn die ontologische Unsicherheit das ontologische Sicherheitskriterium verletzt; und/oder wenn abhängig von Anspruch 13, wobei das Verfahren ein vordefiniertes epistemisch-ontologisches Sicherheitskriterium umfasst, und wobei die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen und/oder die Parametrisierung der gewählten Systemkonfiguration geändert werden kann, wenn die epistemisch-ontologische Unsicherheit das epistemisch-ontologische Sicherheitskriterium verletzt.
  16. Selbst-adaptives, konfigurierbares Erkennungssystem (100), welches dazu ausgelegt ist, das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  17. Computerprogramm, welches eingerichtet ist, alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 15 auszuführen.
  18. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 17 gespeichert ist.
DE102020211251.7A 2020-09-08 2020-09-08 Selbst-adaptives erkennungssystem Pending DE102020211251A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020211251.7A DE102020211251A1 (de) 2020-09-08 2020-09-08 Selbst-adaptives erkennungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020211251.7A DE102020211251A1 (de) 2020-09-08 2020-09-08 Selbst-adaptives erkennungssystem

Publications (1)

Publication Number Publication Date
DE102020211251A1 true DE102020211251A1 (de) 2022-03-10

Family

ID=80266690

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020211251.7A Pending DE102020211251A1 (de) 2020-09-08 2020-09-08 Selbst-adaptives erkennungssystem

Country Status (1)

Country Link
DE (1) DE102020211251A1 (de)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENCOMO, N. [et al.]: Dynamic decision networks for decision-making in self-adaptive systems: a case study. In: 2013 8th International Symposium on Software Engineering for Adaptive and Self-Managing Systems (SEAMS). IEEE, 2013. S. 113-122. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6595498 [abgerufen am 19.07.2021]
DÖRN, S.: Programmieren für Ingenieure und Naturwissen­schaftler: Intelligente Algorithmen und digitale Technologien. Springer-Verlag, 2018.
ESFAHANI, N.; MALEK, S.: Uncertainty in self-adaptive software systems. In: Software Engineering for Self-Adaptive Systems II. Springer, Berlin, Heidelberg, 2013. S. 214-238.

Similar Documents

Publication Publication Date Title
DE102016220913A1 (de) Verfahren und Vorrichtung zur Generierung von Testfällen für autonome Fahrzeuge
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
EP3785177B1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE102017129076A1 (de) Autonomer schulbus
DE102017207790B4 (de) Verfahren zum Fusionieren von Daten auf hoher Fusionsebene für ein Strassenmodell zum beispielhaften Anwenden bei mehrspurigen Geschwindigkeitsbegrenzungs-Inferenzen, und eine Vorrichtung zur Durchführung des Verfahrens
DE102013213807A1 (de) Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells
DE102020005507A1 (de) Verfahren zum Testen einer automatisierten Fahrfunktion
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102019131385A1 (de) Sicherheits- und leistungsstabilität von automatisierung durch unsicherheitsgetriebenes lernen und steuern
DE102019209736A1 (de) Verfahren zur Bewertung möglicher Trajektorien
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
DE102018128890A1 (de) Verfahren und Testvorrichtung zum Testen eines Fahrassistenzsystems für ein Kraftfahrzeug
DE102020209680B3 (de) Signalverarbeitungspfad, Vorrichtung zur Umfelderkennung und Verfahren zur Validierung eines automatisiert betreibbaren Fahrsystems
DE102020120141A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme mittels probabilistisch prädizierter Systemantworten
DE102017214531A1 (de) Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb sowie Kraftfahrzeug
EP3968213A1 (de) Verfahren und vorrichtung zum ermitteln eines gleisgebundenen schienenpfades in einer gleisanlage
DE102020211251A1 (de) Selbst-adaptives erkennungssystem
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102017219269A1 (de) Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten
DE102017206396A1 (de) Steuerverfahren, Steuereinheit, Umfelderfassungssystem und mobile und/oder stationäre Einrichtung
EP3655934B1 (de) Konzept zum überwachen eines parkraums
DE102019128223A1 (de) Verfahren, Vorrichtungen und Computerprogramme
DE102019118607A1 (de) Anomaliedetektor für fahrzeugsteuersignale
WO2020216621A1 (de) Training trainierbarer module mit lern-daten, deren labels verrauscht sind

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000