DE102020211251A1 - Selbst-adaptives erkennungssystem - Google Patents
Selbst-adaptives erkennungssystem Download PDFInfo
- Publication number
- DE102020211251A1 DE102020211251A1 DE102020211251.7A DE102020211251A DE102020211251A1 DE 102020211251 A1 DE102020211251 A1 DE 102020211251A1 DE 102020211251 A DE102020211251 A DE 102020211251A DE 102020211251 A1 DE102020211251 A1 DE 102020211251A1
- Authority
- DE
- Germany
- Prior art keywords
- subset
- ontological
- epistemic
- plausibility
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Offenbarung betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems, umfassend das Empfangen mindestens eines Eingangsdatenstroms und das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz von dem mindestens einen Eingangsdatenstrom abhängt. Weiterhin umfasst das Verfahren nach dem ersten Aspekt das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen. Das Prüfen auf Erkennen umfasst weiterhin das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten und das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für die eine Teilmenge abhängt. Das Verfahren nach dem ersten Aspekt umfasst weiterhin das Rekonfigurieren des Erkennungssystems, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.
Description
- Technisches Gebiet
- Die vorliegende Erfindung betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems für das Auftreten mindestens eines Ereignisses.
- Hintergrund
- Die Automatisierung in Systemen basiert zunehmend auf einem aus Umgebungsdaten abgeleiteten, räumlich und zeitlich situativen Bewusstsein für eine Umgebung des Systems. Besondere Anforderungen an ein Erkennungssystem ergeben sich dabei insbesondere dann, wenn sowohl das System als auch die Umgebung des Systems sich in Raum und Zeit verändern (offener Kontext). Hinzu kommen häufig sicherheitsrelevante Aspekte. Im Falle des autonomen Fahrens von Fahrzeugen muss beispielsweise zusätzlich zur funktionalen Sicherheit gemäß ISO 26262 insbesondere auch die sogenannte „Sicherheit der Sollfunktion“ (SOTIF) des Erkennungssystems im Sinne der Norm ISO 21448 gewährleistet sein.
- Zusammenfassung der Erfindung
- Ein erster Aspekt betrifft ein Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems, umfassend das Empfangen mindestens eines Eingangsdatenstroms und das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz von dem mindestens einen Eingangsdatenstrom abhängt. Weiterhin umfasst das Verfahren nach dem ersten Aspekt das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen. Das Prüfen auf Erkennen umfasst weiterhin das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten und das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für die eine Teilmenge abhängt. Das Verfahren nach dem ersten Aspekt umfasst weiterhin das Rekonfigurieren des Erkennungssystems, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.
Ein zweiter Aspekt betrifft ein selbst-adaptives, konfigurierbares Erkennungssystems, welches dazu ausgelegt ist, das Verfahren nach dem ersten Aspekt auszuführen.
Die vorliegende Offenbarung betrifft Techniken zum Konfigurieren eines selbst-adaptiven Erkennungssystems für die Erkennung und Bewertung eines in der Zeit möglichen Auftretens mindestens eines Ereignisses oder einer Oder-Verknüpfung von Ereignissen. Dabei kann aus Umgebungsdaten ein räumlich und zeitlich situatives Bewusstsein für die Umgebung abgeleitet werden, wobei funktionale Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems durch Evidenz quantifizierbar werden und somit berücksichtigt werden können. Zudem kann mindestens eine Unsicherheit berechnet werden, anhand derer stets geprüft werden kann, ob Sicherheit gewährleistet ist oder das Erkennungssystem rekonfiguriert werden muss, z.B. um sich an eine veränderte Umgebung anzupassen. Das Verfahren nach dem ersten Aspekt kann zur Erkennung und Bewertung von Objekten in der Steuerung eines zumindest teilautonomen Roboters, zum Beispiel in einem zumindest teilautonomen Fahrzeug, zum Einsatz kommen. Insbesondere im Falle des zumindest teilautonomen Fahrens kann über die funktionale Sicherheit (ISO 26262) hinaus auch „Sicherheit der Sollfunktion“ (SOTIF) im Sinne der Norm ISO 21448 erreicht werden. Das Verfahren kann auch in vielen anderen Bereichen, z.B. in einer Überwachungs- und/oder Sicherungsvorrichtung und/oder in der chemischen Industrie eingesetzt werden. - Figurenliste
-
-
1a zeigt schematisch ein selbst-adaptives, konfigurierbares Erkennungssystem 100 am Beispiel eines Fahrzeugs 110, welches mindestens einen Umgebungssensor 111 zur Erfassung der Fahrzeugumgebung, aufweist. -
1b zeigt ein mögliches Szenario aus dem Straßenverkehr, wobei aus Sicht eines Fahrzeugs 110 mit mindestens einem Umgebungssensor 111 ein in einer Pfütze 121 am Straßenrand stehender Fußgänger 120, die Absicht haben könnte, vor dem Fahrzeug 110 die Straße zu überqueren. Die Erkennung und Bewertung der Situation kann ferner durch eine tiefstehende Sonne 122 und daraus resultierenden Reflektionen in der Pfütze 121 gestört werden. -
2a zeigt ein bayessches Netz 200 mit Knoten und Kanten, welches durch ein Vertrauen 210 und eine (epistemische) Plausibilität 220 zu einem evidenten Netzwerk (EN) 250 sowie weiterhin durch eine ontologische Plausibilität 230 und eine epistemisch-ontologische Plausibilität 240 zu einem erweiterten evidenten Netzwerk (EEN) 260 wird. -
2b zeigt eine explizite Momentaufnahme eines erweiterten evidenten Netzwerks (EEN) 260 auf Basis des möglichen Szenarios aus Fig. Ib. -
3 zeigt ein Verlaufsdiagramm 300 eines Verfahrens zum Konfigurieren eines selbst-adaptiven Erkennungssystems 100 auf Basis eines erweiterten evidenten Netzwerks (EEN) 260. - Ausführliche Beschreibung
- Wie in
1a skizziert, kann ein hierin beschriebenes, selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems 100 beispielsweise in einem Fahrzeug 110 mit mindestens einem Sensor 111 zum Einsatz kommen. Der Sensor 111 kann Informationen über das Fahrzeug und/oder die Umgebung des Fahrzeugs messen. Mindestens ein Eingangsdatenstrom (z.B. für ein zeitabhängiges Signal) des selbst-adaptiven Erkennungssystems 100 kann von den Sensordaten des mindestens des Sensors 111 abhängen. Dieser mindestens eine Sensor 111 kann beispielsweise Teil von Kamera- (für jedwede Wellenlängen), Radar-, LIDAR- oder Ultraschall-Systemen, welche häufig in Fahrzeugen für teil- oder vollautonomes Fahren zum Einsatz kommen (in Beispielen werden Sensordaten von einer Mehrzahl von Sensoren verwendet, z.B. zwei oder mehr der oben genannten Systeme). Ein zeitabhängiges Signal kann äquidistant oder nicht-äquidistant in der Zeit abgetastet sein. Die Umgebung kann beispielsweise von Straßen-, Verkehrs-, Wetterbedingungen beeinflusst werden. Das mindestens eine zeitabhängige Signal kann von einem Sensorwert oder einem Softwarewert abhängen. Das Verfahren kann zur Erkennung und Bewertung von Ereignissen, die für den Betrieb des Fahrzeugs (z.B. Fahrmanöver während des autonomen Fahrens) relevant sind und/oder Einfluss auf das Fahrverhalten haben können, eingesetzt werden. Der Eingangsdatenstrom kann auch von Quellen (z.B. Sensoren) außerhalb des Fahrzeugs gespeist werden. Die selbst-adaptiven Erkennungssysteme können jede Datenquelle integrieren, die Informationen bezüglich des Fahrzeugs oder seiner Umgebung liefern. Beispielsweise kann ein hierin beschriebenes, selbst-adaptives Erkennungssystem in einem Fahrzeug Eingangsdatenströme von anderen Fahrzeugen, anderen Verkehrsteilnehmern, Infrastrukturkomponenten oder aus Datenbanken beziehen. Die in der Folge fürs autonome Fahren diskutierten konkreten Beispiele dienen dementsprechend zur Illustration eines bevorzugten Einsatzgebiets. Die darin enthaltene Lehre ist jedoch nicht auf autonomes Fahren beschränkt (insofern nicht für diese Anwendung spezifische Aspekte behandelt werden).
Ein selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren kann, anders als in1a dargestellt, auch mehrere Eingangsdatenströme aufweisen (welche jeweils ein zeitabhängiges Signal oder mehrere zeitabhängige Signale empfangen können), wobei jedes dieser zeitabhängigen Signale ebenfalls von einem Sensor- und/oder Softwaresignal abhängen kann. Eine Abhängigkeit kann auch insofern bestehen, als ein Eingangsdatenstrom von mehreren Sensorwerten und/oder mehreren Softwarewerten gespeist werden kann, wobei beispielsweise Sensor- und/oder Softwarewerte in einem Zeitpunkt rechnerisch kombiniert werden können (z.B. durch eine vorgeschaltete Verarbeitungslogik oder einen Auswerte- und Erkennungsalgorithmus, der insbesondere auf Maschinellem Lernen beruhen kann). Ebenfalls kann zu jedem Zeitpunkt jeweils nur ein Sensorwert oder ein Softwarewert das zeitabhängige Signal speisen. Dieser Fall kann z.B. relevant sein, wenn eine Rekonfiguration von einem Sensor auf einen anderen Sensor (z.B. Kamera auf Radar) erfolgt und somit insbesondere zwischen Sensoren gewechselt wird. Eine Rekonfiguration/ein Rekonfigurieren kann als Wechsel der Konfiguration betrachtet werden. - Abgesehen von der Anwendbarkeit beim zumindest teilweise autonomen Fahren kann ein hierin vorgestelltes, selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren in verschiedenen anderen Bereichen, in denen ebenfalls verlässlich ein räumlich und zeitlich situatives Bewusstsein für eine sich ändernde Umgebung aus Umgebungsdaten abgeleitet werden soll, zum Einsatz kommen. Zum Beispiel können andere zumindest teilautonome Fortbewegungs- und/oder Transportmittel (z.B. Schiffe oder Flugzeuge) mit einem selbst-adaptives Erkennungssystem ausgerüstet werden. In anderen Beispielen können andere Roboter, die zumindest teilautonom agieren, mit dem selbst-adaptives Erkennungssystem ausgestattet sein (zum Beispiel Industrieroboter). Mögliche weitere Anwendungsfelder können z.B. in der automatisierten Überwachungstechnik oder in der automatisierten Prozesssteuerung gesehen werden (oder in anderen automatisierten Bildklassifikatoren). Der mindestens eine Eingangsdatenstrom kann in manchen Beispielen Bilddaten umfassen, optional Bilddaten einer kamerabasierten-, Radar-, LIDAR-, Ultraschall- Bildgebungssystems. Die kamerabasierten Bildgebungssysteme können jedweden Wellenlängenbereich detektieren (z.B. den sichtbaren Wellenängenbereich und/oder einen infraroten Wellenlängenbereich, insbesondere zur Detektion von thermischer Strahlung). Besonders beim Empfangen von Bilddaten kann ein Ereignis, dass das selbst-adaptive Erkennungssystems erkennt, die Präsenz eines bestimmten Objekts (z.B. einer Person) sein. In anderen Beispielen kann ein Ereignis eine Bewertung einer Situation mit einem bestimmten Objekt (z.B. einer Person) sein. Insbesondere für Objekterkennung basierend auf Bilddaten kann das beschriebene Verfahren vorteilhaft sein, da in komplexen Umgebungen neue Objekte auftreten können, auf die das selbst-adaptiven Erkennungssystems angemessen reagieren sollte.
- Das beschriebene Verfahren kann zur Erkennung und Bewertung von Ereignissen in der Steuerung eines zumindest teilautonomen Roboters, zum Beispiel eines zumindest teilautonomen Fahrzeugs, oder in einer zumindest teilautonomen Überwachungsvorrichtung eingesetzt werden (oder in anderen hierin beschriebenen Anwendungen). Das selbst-adaptive, konfigurierbare Erkennungssystem kann auch in einem zumindest teilautonomen Roboter oder in einer zumindest teilautonomen Überwachungsvorrichtung enthalten sein.
- Im Allgemeinen sind die Umgebung, die Sensoren zur Erfassung der Umgebung, sowie die Verarbeitungsalgorithmen der Sensorsignale so komplex, dass Fehler in der Erkennung oder Bewertung nicht vollständig ausgeschlossen werden können. Fehler können beispielsweise entstehen, wenn ein Ereignis oder eine Situation nur unvollständig durch die Sensorik erfasst wird (z.B. durch Verdeckung oder Überblendung) oder die die Sensordaten verarbeitenden Algorithmen nicht ausreichend robust gegen z.B. statistische Schwankungen oder ungewöhnliche Umgebungsbedingungen sind. Ein Vorteil der hierin vorgestellten, selbst-adaptiven Erkennungssysteme 100 bzw. deren dazugehörigen Verfahren kann darin bestehen, dass eben solche funktionalen Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems 100 evidenzbasiert erkannt werden können und diesen durch Rekonfiguration des Erkennungssystems 100 entgegengewirkt werden kann. In dieser Hinsicht kann das Verfahren als selbst-adaptiv bezeichnet werden. Beim autonomen Fahren kann dadurch die sogenannte „Sicherheit der Sollfunktion“ (SOTIF) im Sinne der Norm ISO 21448 erreicht werden.
-
1b zeigt ein beispielhaftes aber relevantes Szenario aus dem Straßenverkehr, welches insbesondere für ein autonom fahrendes Fahrzeug 110 eine Herausforderung darstellen kann. Ein am Straßenrand stehender Fußgänger 120 könnte die Absicht haben, vor dem Fahrzeug 110 die Straße zu überqueren. Ob das autonom fahrende Fahrzeug entscheidet weiterzufahren oder abzubremsen, hängt von der Erkennung und der Bewertung der Situation ab, welche z.B. über eine Kamera 111 des Fahrzeugs 110 zwar erfasst wird, aber durch eine tief- und entgegenstehende Sonne 122 und daraus resultierenden Reflektionen in einer den Fußgänger 110 umgebenden Pfütze 121 gestört werden kann. - Die Bewertung der Situation kann in diesem Fall auf die Frage reduziert werden, ob ein Mensch (Fußgänger 120) am Straßenrand erkannt wurde oder nicht. In einem evidenzbasierten Verfahren dieser Offenbarung kann nun ein Vertrauen für das Ereignis „Mensch“ 261 und eine Plausibilität für das Ereignis „Mensch“ 261 berechnet werden. Weiterhin kann sodann eine Unsicherheit für das Ereignis „Mensch“ 261 berechnet werden. Ist die Störung beispielsweise durch das Gegenlicht der Sonne bzw. der Reflektionen in der Pfütze 121 groß, kann auch die Unsicherheit für das Ereignis „Mensch“ 261 zunehmen und gegebenenfalls einen vordefinierten sogenannten Unsicherheitsschwellwert, überschreiten. Eine solche Überschreitung verletzt somit ein vordefiniertes Sicherheitskriterium und kann dann eine Rekonfiguration des Erkennungssystems nach sich ziehen, z.B. einen Wechsel von der Kamera auf Radar, welches beispielsweise unabhängig vom Gegenlicht operieren kann. Die Bewertung und Erkennung des Ereignisses „Mensch“ kann beliebig oft wiederholt werden. Alternativ oder zusätzlich kann auch ein negiertes Ereignis, z.B. „kein Mensch“ bewertet und erkannt werden. Das Verfahren kann zudem parallel oder sequentiell mehrfach angewandt werden, wobei es insbesondere auch auf die Bewertung und Erkennung weiterer Ereignisse gerichtet sein kann. Im Kontext von
1b wäre z.B. auch denkbar, dass je ein Ereignis „Erwachsener“, ein Ereignis „Kind“ oder ein Ereignis „Tier“ unterschieden werden, falls z.B. in Abhängigkeit davon unterschiedliche Fahrmanöver sinnvoll wären. Die Bewertung und Erkennung kann zudem auch auf eine Oder-Verknüpfung von Ereignissen, z.B. Ereignis „Mensch oder Tier“ gerichtet sein. Im Allgemeinen können Ereignisse aus beliebigen Zuständen oder deren Oder-Verknüpfungen bestehen, welche, insbesondere nach Zustandsänderungen, bewertet und erkannt werden sollen, damit ein automatisiertes System adäquat, d.h. wunschgemäß, reagieren kann. Weitere Anwendungsfelder z.B. in der automatisierten Überwachungstechnik (Ereignis „spielende Kinder oder Einbrecher“) oder in der automatisierten Prozesssteuerung (z.B. Erkennung von Zustandsänderungen in chemischen Reaktionen) gesehen werden. - Ein selbst-adaptives Erkennungssystem 100 bzw. ein dazugehöriges Verfahren in dieser Offenbarung kann ein bayessches Netz 200, wie es schematisch in
2a und als explizites Zahlenbeispiel für die in1b beschriebene Situation in2b dargestellt ist, aufweisen. Es kann von mindestens einem Eingangsdatenstrom für mindestens ein zeitabhängiges Signal als Eingang abhängen, wobei das zeitabhängige Signal wie oben beschrieben von einem Sensor- oder Softwaresignal abhängen kann. Das bayessche Netz 200 kann auch von mehreren Eingangsdatenströmen als Eingänge abhängen. Das bayessche Netz 200 kann insbesondere über die sogenannten Basisknoten 203 des gerichteten azyklischen Graphen, in denen keine gerichteten Kanten 202 enden, von dem Eingangsdatenstrom oder den Eingangströmen abhängen. Wie in2b können z.B. die Zustände im Basisknoten „Sonnenneigung“ mit einer Wahrscheinlichkeit von 20% auftreten. Die Knoten 201 des bayesschen Netzes 200 stellen Zufallsvariablen dar und die gerichteten Kanten 202 des bayesschen Netzes 200 stellen direkte Abhängigkeiten zwischen den Knoten 201 dar und definieren bedingte Wahrscheinlichkeiten. Von den Basisknoten 203 des bayesschen Netzes 200 können Wahrscheinlichkeiten bis in die Blätterknoten 204 des bayesschen Netzes 200 propagiert (d.h. berechnet) werden. Das vorgestellte Verfahren kann das Propagieren von Wahrscheinlichkeiten in einem bayesschen Netz, wobei das bayessche Netz zumindest von dem mindestens einen Eingangsdatenstrom des mindestens einen zeitabhängigen Signals abhängt und ausgelegt ist, ein in der Zeit mögliches Auftreten mindestens eines Ereignisses zu erkennen, umfassen. - Das bayessche Netz 200 kann für eine Mehrzahl von Systemkonfigurationen definiert werden, die insbesondere unterschiedliche Konfigurationen für die Erkennungssensorik (z.B. Kamera-, Radar-, LIDAR-, Ultraschall- oder thermische Bildgebungssysteme), für die Erkennungsalgorithmen und/oder für die Umgebungseinflüsse umfasst, wobei einzelne Systemkonfigurationen z.B. jederzeit durch Todbedatungen von Wahrscheinlichkeiten im bayesschen Netz 200 gezielt deaktiviert und bei Bedarf wieder aktiviert werden können. Das Rekonfigurieren des Erkennungssystems umfasst das Auswählen einer der Mehrzahl von Systemkonfigurationen (z.B. Sensorwechsel) und/oder das Ändern einer Parametrisierung für die aktuelle Systemkonfiguration (z.B. Wechsel der Kameraeinstellung). Alternativ oder zusätzlich können Rekonfigurationen des Erkennungssystems 100 auch Änderungen des bayesschen Netzwerks 200 umfassen, wobei insbesondere auch Knoten 201 und gerichtete Kanten 202 sowie deren Wahrscheinlichkeiten verändert werden können.
- Das bayessche Netz 200 kann derart aufgebaut und ausgelegt sein, dass ein in der Zeit mögliches Auftreten mindestens eines Ereignisses 261 (z.B. „Mensch“) oder mindestens einer Oder-Verknüpfung von Ereignissen im Bezug auf die Auftretenswahrscheinlichkeit bzw. dem Vertrauen bewertet und schlussendlich erkannt werden kann, wobei insbesondere das mindestens eine Ereignis oder die mindestens eine Oder-Verknüpfung von Ereignissen ein mögliches Ereignis bzw. eine mögliche Oder-Verknüpfung von Ereignissen in einem Blätterknoten 204 sein kann. Inwiefern ein Ereignis oder eine Oder-Verknüpfung von Ereignissen erkannt werden kann, hängt von der im Folgenden zu beschreibenden Evidenz für das Ereignis bzw. die Oder-Verknüpfung der Ereignisse ab, insbesondere aber auch von den Auftretenswahrscheinlichkeiten bzw. den Vertrauensmassen der konkurrierenden möglichen Ereignisse im selben Blätterknoten 204.
- Das Prüfen auf Erkennen des in der Zeit möglichen Auftretens des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen umfasst das Berechnen eines Vertrauens und mindestens einer Plausibilität jeweils für das Auftreten des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen, wobei das Vertrauen als ein Maß dafür gesehen werden kann, wie wahrscheinlich die Erkennung des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen ist, und wobei die Plausibilität als ein weiteres Maß dafür gesehen werden kann, wie wahrscheinlich die der Erkennung des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen entgegenstehenden Ereignisse sind. Somit können sowohl Vertrauen als auch Plausibilität Wahrscheinlichkeiten darstellen. Das Vertrauen und die mindestens eine Plausibilität für das Auftreten des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen können auf Basis des bayesschen Netzes 200 und gemäß der Evidenztheorie nach Dempster und Shafer berechnet werden: Hierzu sei Ω = {y1, y2, ..., yn} eine Menge von n sich gegenseitig ausschließenden und erschöpfenden Zuständen, welche beispielsweise als mögliche Ereignisse in einem Blätterknoten 204 des bayesschen Netz 200 in Betracht kommen. Zudem sei
2a dargestellt, über das Vertrauen, die Plausibilität und die Unsicherheit für eine Teilmenge eines Blätterknoten 204 zu einem sogenannten evidenten Netzwerk (EN) 250 zu erweitern. Es können auch für weitere oder alle Ereignisse bzw. deren Oder-Verknüpfungen eines Blätterknoten 204 je ein Vertrauen und eine Plausibilität berechnet werden. - Das Prüfen auf Erkennen des in der Zeit möglichen Auftretens des mindestens einen Ereignisses oder der mindestens einen Oder-Verknüpfung von Ereignissen umfasst weiterhin: das Berechnen mindestens einer Unsicherheit für das Auftreten des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen, wobei die mindestens eine Unsicherheit von dem Vertrauen und der mindestens einen Plausibilität für das Auftreten des mindestens einen Ereignisses bzw. der mindestens einen Oder-Verknüpfung von Ereignissen abhängt: In einem evidenten Netzwerk (EN) 250 kann die Unsicherheit Un(B) für B ∈ 2Ω jeweils als
- Das Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems umfasst auch das Rekonfigurieren des Erkennungssystems 100, wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt, wobei das Rekonfigurieren darauf abzielt, dass die mindestens eine Unsicherheit das mindestens eine vordefinierte Sicherheitskriterium erfüllt, beispielsweise in dem nächsten oder in einem nächsten Zeitschritt. Das mindestens eine vordefinierte Sicherheitskriterium kann einen vordefinierten Unsicherheitsschwellwert umfassen, wobei das Sicherheitskriterium als verletzt gilt, wenn die mindestens eine Unsicherheit größer als der vordefinierte Unsicherheitsschwellwert ist. Das Rekonfigurieren kann das Auswählen einer Mehrzahl von Systemkonfigurationen; und/oder das Ändern einer Parametrisierung für eine aktuelle Systemkonfiguration umfassen.
- Wie in
2b dargestellt, kann das bayessche Netz 200 zudem ausgelegt sein, neben dem mindestens einen Ereignis 261 ein in der Zeit ebenfalls mögliches Auftreten mindestens eines weiteren unbekannten Ereignisses 262 oder Auftreten ein oder mehrerer weiterer unbekannter Ereignisse zu erkennen. Ein Vorteil kann darin gesehen werden, dass nun weitere Plausibilitäten und weitere Unsicherheiten berechnet werden können, wobei die weiteren Unsicherheiten wiederum weitere vordefinierte Sicherheitskriterien verletzen können. Das System kann somit in verschiedenen Situationen und insbesondere im Falle eines unbekannten Ereignisses (z.B. Begegnung mit einem neuen Typ von Fahrzeug) funktionale Insuffizienzen und/oder Leistungsbegrenzungen erkennen. Im Verfahren kann dann die Art der Rekonfiguration des Erkennungssystems davon abhängen, welche Sicherheitskriterien verletzt sind. Sei hier nun Ω = {y1, y2, ..., yn, u} eine Menge von n sich gegenseitig ausschließenden und erschöpfenden Zuständen und dem mindestens einen unbekannten Zustand, welche beispielsweise alle als mögliche Ereignisse in einem Blätterknoten 204 des bayesschen Netz 200 in Betracht kommen können. Die Potenzmenge 2Ω ist dann: - Weiterhin können die folgenden drei Teilmengen von 2Ω definiert werden,
2a dargestellt, kann das bayessche Netz 200 über das Vertrauen und die epistemische, ontologische und epistemisch-ontologische Plausibilität für ein Ereignis eines Blätterknoten 204 zu einem sogenannten erweiterten evidenten Netzwerk (ENN) 260 erweitert werden. Es können auch für weitere oder alle Ereignisse eines Blätterknoten 204 je ein Vertrauen sowie eine epistemische, ontologische und epistemisch-ontologische Plausibilität berechnet werden. In einem erweiterten evidenten Netzwerk (EEN) 260 können dann eine epistemische Unsicherheit UnE(B), eine ontologische Unsicherheit Uno(B) und eine epistemisch-ontologische Unsicherheit UnEO(B) für B ∈ 2Ω durch - Im Falle von mehreren unbekannten Zuständen u, u2,... kann das Verfahren ausgelegt sein, ein jeweils in der Zeit mögliches Auftreten weiterer bekannter und/oder unbekannter Ereignisse zu erkennen, sowie Rekonfigurationen in Abhängigkeit von der Verletzung weiterer epistemischer, ontologischer oder epistemisch-ontologischer Sicherheitskriterien bzgl. weiterer epistemischer, ontologischer oder epistemisch-ontologischer Unsicherheiten für das Auftreten weiterer bekannter und/oder unbekannter Ereignisse erfolgen. Hierbei kann B ∈ 2Ω ebenfalls auf |B| = 1 beschränkt sein.
- In
3 ist ein Verlaufsdiagramm für das bereits beschriebene Verfahren auf Basis eines erweiterten evidenten Netzwerks (EEN) 260 dargestellt. Initial, d.h. zum Entwicklungszeitpunkt und insbesondere vor der Laufzeit, können Systemkonfigurationen und/oder das bayessche Netz 200 gewählt werden, um ein für den gewünschten Anwendungsfall geeignetes Systemmodell (z.B. in SysML darstellbar) zu repräsentieren, wobei das Systemmodell in Abhängigkeit der Komplexität des Systems mehrere Hierarchiestufen wie z.B. Subsysteme bzw. Komponenten aufweisen kann. Mögliche Zustände im Systemmodell können geschätzt werden, wobei es insbesondere auf die Abhängigkeiten von verschiedenen Zuständen zwischen Hierarchiestufen oder auch innerhalb von Hierarchiestufen ankommen kann. Insbesondere können bekannte und/oder unbekannte Ereignisse, welche erkannt werden sollen, z.B. als Zustände auf den Blätterknoten 204 definiert werden. Solche Ereignisse können aber müssen nicht auf die Erkennung von gefahrvollen und/oder zu vermeidenden Situationen gerichtet sein. In einem weiteren initialen Schritt können Schwächen, z.B. mögliche funktionale Insuffizienzen und/oder Leistungsbegrenzungen des Erkennungssystems sowie passende Sicherheitskriterien und/oder weitere Triggerbedingungen definiert werden. Somit können insbesondere die Sicherheitskriterien vorbestimmt sein. Insbesondere können auch Systemkonfigurationen und/oder Bedatungen definiert bzw. geschätzt werden sowie eine Logik wie diese rekonfiguriert, d.h. gewechselt, werden können. Vertrauensmassen im bayesschen Netz 200 können ebenfalls initial auf Basis von Expertenwissen, voraufgenommenen Daten und/oder ausgewerteten Laufzeitdaten geschätzt werden. - Zur Laufzeit können die Sensor- oder Softwarewerte kontinuierlich oder mit einer gewissen Zeitabtastung einströmen. Alternativ oder zusätzlich können sie, anders als dargestellt, zunächst analysiert und/oder verarbeitet werden, bevor sie die Wahrscheinlichkeiten/Vertrauensmassen im bayesschen Netz 200 beeinflussen können. Je Zeitschritt kann das erweiterte evidente Netzwerk (EEN) 260 ausgeführt werden, wobei insbesondere die Wahrscheinlichkeiten im bayesschen Netz 200 von den Basisknoten 203 zu den Blätterknoten 204 propagiert werden können. Für je ein Ereignis (oder für das Ereignis „unbekannt“) können dann in jedem Zeitschritt wie beschrieben eine epistemische, eine ontologische und/oder eine epistemisch/ontologische Unsicherheit berechnet werden, welche jeweils ein epistemisches, ontologisches bzw. epistemisch-ontologisches Sicherheitskriterium erfüllen kann. In einem auf einem erweiterten evidenten Netzwerk (EEN) 260 basierenden Verfahren kann das vordefinierte Sicherheitskriterium ein epistemisches Sicherheitskriterium sein und, die aktuelle Systemkonfiguration geändert werden (parametrische Konfiguration), wenn die epistemische Unsicherheit das epistemische Sicherheitskriterium verletzt. Weiterhin kann das Verfahren ein weiteres vordefiniertes Sicherheitskriterium, ein sogenanntes ontologisches Sicherheitskriterium, umfassen und die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen geändert werden (kompositorische Konfiguration), wenn die ontologische Unsicherheit das ontologische Sicherheitskriterium verletzt. Weiterhin kann das Verfahren ein weiteres vordefiniertes Sicherheitskriterium, ein sogenanntes epistemisch-ontologisches Sicherheitskriterium umfassen und die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen und/oder die Parametrisierung der gewählten Systemkonfiguration geändert werden (kontextuelle Konfiguration), wenn die epistemisch-ontologische Unsicherheit das epistemisch-ontologische Sicherheitskriterium verletzt.
3 kann im Falle eines evidenten Netzwerks (EN) 250 entsprechend angepasst bzw. reduziert werden. Optional kann das am stärksten verletzte der Unsicherheitskriterien für das Rekonfigurieren maßgeblich sein. - Die beschriebenen Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems können in einer Vorrichtung bzw. in einem selbst-adaptiven, konfigurierbaren Erkennungssystems zum Einsatz kommen, welches dazu ausgelegt ist, die hierin beschriebenen Techniken auszuführen. Ein solches selbst-adaptives, konfigurierbares Erkennungssystem kann eine elektronische Steuereinheit aufweisen, die mindestens einen Prozessor und mindestens einen Speicher umfasst. Insbesondere kann ein Computerprogramm eingerichtet sein, alle Schritte des beschriebenen Verfahrens auszuführen, wobei das Computerprogramm auf einem maschinenlesbaren Speichermedium gespeichert sein kann. Die beschriebene Verfahrenslogik kann in Form von ausführbarem Code in mindestens einem Speicher bereitgehalten werden und von dem mindestens einen Prozessor ausgeführt werden. In der Regel weist das Erkennungssystem mindestens einen Sensor auf, der über eine elektronische Anbindung Daten an den mindestens einen Prozessor schicken und optional auch Anweisungen von dem mindestens einen Prozessor erhalten kann. Das selbst-adaptive, konfigurierbare Erkennungssystem ist dabei nicht auf eine bestimmte Hardware-Umgebung beschränkt. So können verteilte und über ein Netzwerk gekoppelte Vorrichtungen die hierin beschriebenen Techniken ausführen. In anderen Beispielen kann eine Steuereinheit eine Vorrichtung (z.B. eines autonomen Fahrzeugs) die hierin beschriebenen Techniken ausführen. Die Offenbarung umfasst auch elektrische Signal und Computer-lesbare Medien, die Befehle definieren, die, wenn sie von einem Prozessor ausgeführt werden, die hierin beschriebenen Techniken umsetzen.
- Die Verfahrenslogik kann auch in separaten Organisationseinheiten auf einem Prozessor oder mehreren Prozessoren laufen. Beispielsweise können im sogenannten MAPE-K managing system die Organisationseinheiten Monitor, Analyze, Planning und Execute (MAPE) unterschieden werden, welche mit der Knowledge Einheit interagieren, welche wiederum das durch die sogenannte Hazard Analysis and Risk Assessment (HARA) gewonnene Wissen enthält.
- Die vorliegende Offenbarung betrifft auch Computerprogramme, welche eingerichtet sind, alle Schritte der Verfahren der vorliegenden Offenbarung auszuführen. Darüber hinaus betrifft die vorliegende Offenbarung maschinenlesbares Speichermedien (z.B. optische Speichermedien oder Festspeicher, beispielsweise FLASH-Speicher), auf denen Computerprogramme gespeichert sind, welche eingerichtet sind, alle Schritte der Verfahren der vorliegenden Offenbarung auszuführen.
Claims (18)
- Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100), umfassend: das Empfangen mindestens eines Eingangsdatenstroms; das Berechnen von je einer Wahrscheinlichkeit für Teilmengen in einer Potenzmenge (2Ω) einer Menge (Ω) von Zuständen, wobei die Zustände zu erkennende Ereignisse darstellen und mindestens eine Wahrscheinlichkeit eine bedingte Wahrscheinlichkeit ist, die über ein bayessches Netz (200) von dem mindestens einen Eingangsdatenstrom abhängt; das Prüfen auf Erkennen des möglichen Auftretens mindestens eines einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses oder mindestens einer einer Teilmenge in der Potenzmenge (2Ω) zugeordneten Oder-Verknüpfung von Ereignissen, weiterhin umfassend: das Berechnen eines Vertrauens (210) und mindestens einer Plausibilität (220) jeweils für die eine Teilmenge aus den berechneten Wahrscheinlichkeiten; das Berechnen mindestens einer Unsicherheit für die eine Teilmenge, wobei die mindestens eine Unsicherheit von dem Vertrauen (210) und der mindestens einen Plausibilität (220) für die eine Teilmenge abhängt; das Rekonfigurieren des Erkennungssystems (100), wenn die mindestens eine Unsicherheit mindestens ein vordefiniertes Sicherheitskriterium verletzt.
- Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 1 , wobei das mindestens eine Sicherheitskriterium einen vordefinierten Unsicherheitsschwellwert umfasst und das Sicherheitskriterium als verletzt gilt, wenn die mindestens eine Unsicherheit größer als der vordefinierte Unsicherheitsschwellwert ist. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der
Ansprüche 1 oder2 , wobei die Potenzmenge (2Ω) aus einer Menge (Ω) von n sich gegenseitig ausschließenden und erschöpfenden Zuständen gebildet wird, wobei die Zustände zu erkennende bekannte Ereignisse darstellen. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 3 , wobei das Vertrauen (210) und die mindestens eine Plausibilität (220) für die eine Teilmenge in der Potenzmenge (2Ω) auf Basis des bayesschen Netzes (200) und gemäß der Evidenztheorie nach Dempster und Shafer berechnet werden, wobei weiterhin die mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge zugeordneten Ereignis oder der mindestens einen der einen Teilmenge zugeordneten Oder-Verknüpfung von Ereignissen die mindestens eine Plausibilität (220) abzüglich des Vertrauens (210) ist. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der
Ansprüche 1 oder2 , wobei die Potenzmenge (2Ω) aus einer Menge (Ω) von n sich gegenseitig ausschließenden und erschöpfenden zu erkennenden Zuständen sowie mindestens einem weiteren Zustand (u) gebildet wird, wobei die n Zustände zu erkennende bekannte Ereignisse darstellen und der mindestens eine weitere Zustand (u) ein dem Erkennungssystem unbekanntes Ereignis darstellt. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der vorhergehenden
Ansprüche 1 bis5 , wobei das Vertrauen (210) für die eine Teilmenge als eine Summe der Wahrscheinlichkeiten aller Teilmengen der einen Teilmenge berechnet wird. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der
Ansprüche 1 bis4 oder6 , wobei die mindestens eine Plausibilität (220) für die eine Teilmenge eine Summe der Wahrscheinlichkeiten aller Teilmengen in der Potenzmenge (2Ω) ist, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 5 , wobei das Prüfen auf Erkennen auf das in der Zeit mögliche Auftreten mindestens eines der Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses beschränkt ist. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 8 , wobei die mindestens eine Plausibilität (220) eine epistemische Plausibilität (220) ist, und wobei die mindestens eine Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses eine epistemische Unsicherheit ist, welche die mindestens eine epistemische Plausibilität (220) abzüglich des Vertrauens (210) ist. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 9 , wobei die epistemische Plausibilität (220) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die epistemischen Teilmengen in der Potenzmenge (2Ω) liegen und mindestens zwei der n Zustände, aber keinen weiteren Zustand (u) für ein unbekanntes Ereignis enthalten. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der
Ansprüche 8 bis10 , wobei eine ontologische Plausibilität (230) für die eine Teilmenge, insbesondere für eine Teilmenge mit ausschließlich weiteren Zuständen (u) für unbekannte Ereignisse, berechnet wird; und wobei eine ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses als die ontologische Plausibilität (230) abzüglich des Vertrauens (210) berechnet wird. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 11 , wobei die ontologische Plausibilität (230) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die ontologischen Teilmengen in der Potenzmenge (2Ω) liegen und ausschließlich weitere Zustände für unbekannte Ereignisse enthalten. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der
Ansprüche 8 bis12 , wobei eine epistemisch-ontologische Plausibilität (240) für die eine Teilmenge berechnet wird; und wobei eine epistemisch-ontologische Unsicherheit für das Auftreten des mindestens einen der einen Teilmenge in der Potenzmenge (2Ω) zugeordneten Ereignisses als die epistemisch-ontologische Plausibilität (240) abzüglich des Vertrauens (210) berechnet wird. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach
Anspruch 13 , wobei die epistemisch-ontologische Plausibilität (240) als das Vertrauen (210) für die eine Teilmenge plus die Summe aller Wahrscheinlichkeiten von epistemisch-ontologischen Teilmengen, deren Schnittmenge mit der einen Teilmenge jeweils nicht leer ist, definiert ist, wobei die epistemisch-ontologischen Teilmengen in der Potenzmenge (2Ω) liegen und mindestens einen der n Zustände sowie mindestens einen weiteren Zustand für ein unbekanntes Ereignis enthalten. - Verfahren zum Konfigurieren eines selbst-adaptiven Erkennungssystems (100) nach einem der vorhergehenden Ansprüche, wenn abhängig von
Anspruch 9 , wobei das vordefinierte Sicherheitskriterium ein epistemisches Sicherheitskriterium ist und eine Parametrisierung für eine aktuelle Systemkonfiguration geändert werden kann, wenn die epistemische Unsicherheit das epistemische Sicherheitskriterium verletzt; und/oder wenn abhängig vonAnspruch 11 , wobei das Verfahren ein vordefiniertes ontologisches Sicherheitskriterium umfasst, und wobei eine Systemkonfiguration innerhalb einer Mehrzahl von Systemkonfigurationen geändert werden kann, wenn die ontologische Unsicherheit das ontologische Sicherheitskriterium verletzt; und/oder wenn abhängig vonAnspruch 13 , wobei das Verfahren ein vordefiniertes epistemisch-ontologisches Sicherheitskriterium umfasst, und wobei die Systemkonfiguration innerhalb der Mehrzahl von Systemkonfigurationen und/oder die Parametrisierung der gewählten Systemkonfiguration geändert werden kann, wenn die epistemisch-ontologische Unsicherheit das epistemisch-ontologische Sicherheitskriterium verletzt. - Selbst-adaptives, konfigurierbares Erkennungssystem (100), welches dazu ausgelegt ist, das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
- Computerprogramm, welches eingerichtet ist, alle Schritte des Verfahrens nach einem der
Ansprüche 1 bis15 auszuführen. - Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach
Anspruch 17 gespeichert ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020211251.7A DE102020211251A1 (de) | 2020-09-08 | 2020-09-08 | Selbst-adaptives erkennungssystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020211251.7A DE102020211251A1 (de) | 2020-09-08 | 2020-09-08 | Selbst-adaptives erkennungssystem |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020211251A1 true DE102020211251A1 (de) | 2022-03-10 |
Family
ID=80266690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020211251.7A Pending DE102020211251A1 (de) | 2020-09-08 | 2020-09-08 | Selbst-adaptives erkennungssystem |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020211251A1 (de) |
-
2020
- 2020-09-08 DE DE102020211251.7A patent/DE102020211251A1/de active Pending
Non-Patent Citations (3)
Title |
---|
BENCOMO, N. [et al.]: Dynamic decision networks for decision-making in self-adaptive systems: a case study. In: 2013 8th International Symposium on Software Engineering for Adaptive and Self-Managing Systems (SEAMS). IEEE, 2013. S. 113-122. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6595498 [abgerufen am 19.07.2021] |
DÖRN, S.: Programmieren für Ingenieure und Naturwissenschaftler: Intelligente Algorithmen und digitale Technologien. Springer-Verlag, 2018. |
ESFAHANI, N.; MALEK, S.: Uncertainty in self-adaptive software systems. In: Software Engineering for Self-Adaptive Systems II. Springer, Berlin, Heidelberg, 2013. S. 214-238. |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016220913A1 (de) | Verfahren und Vorrichtung zur Generierung von Testfällen für autonome Fahrzeuge | |
DE102018100469A1 (de) | Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen | |
EP3785177B1 (de) | Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes | |
DE102017129076A1 (de) | Autonomer schulbus | |
DE102017207790B4 (de) | Verfahren zum Fusionieren von Daten auf hoher Fusionsebene für ein Strassenmodell zum beispielhaften Anwenden bei mehrspurigen Geschwindigkeitsbegrenzungs-Inferenzen, und eine Vorrichtung zur Durchführung des Verfahrens | |
DE102013213807A1 (de) | Anordnung und Verfahren zur Sensorfusion sowie Herstellungsverfahren zur Erstellung eines Fusionsmodells | |
DE102020005507A1 (de) | Verfahren zum Testen einer automatisierten Fahrfunktion | |
DE102018128289A1 (de) | Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung | |
DE102019131385A1 (de) | Sicherheits- und leistungsstabilität von automatisierung durch unsicherheitsgetriebenes lernen und steuern | |
DE102019209736A1 (de) | Verfahren zur Bewertung möglicher Trajektorien | |
DE112017000669T5 (de) | Semantische Segmentierung auf der Grundlage einer globalen Optimierung | |
DE102019124018A1 (de) | Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme | |
DE102018128890A1 (de) | Verfahren und Testvorrichtung zum Testen eines Fahrassistenzsystems für ein Kraftfahrzeug | |
DE102020209680B3 (de) | Signalverarbeitungspfad, Vorrichtung zur Umfelderkennung und Verfahren zur Validierung eines automatisiert betreibbaren Fahrsystems | |
DE102020120141A1 (de) | Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme mittels probabilistisch prädizierter Systemantworten | |
DE102017214531A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb sowie Kraftfahrzeug | |
EP3968213A1 (de) | Verfahren und vorrichtung zum ermitteln eines gleisgebundenen schienenpfades in einer gleisanlage | |
DE102020211251A1 (de) | Selbst-adaptives erkennungssystem | |
DE102019209463A1 (de) | Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse | |
DE102017219269A1 (de) | Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten | |
DE102017206396A1 (de) | Steuerverfahren, Steuereinheit, Umfelderfassungssystem und mobile und/oder stationäre Einrichtung | |
EP3655934B1 (de) | Konzept zum überwachen eines parkraums | |
DE102019128223A1 (de) | Verfahren, Vorrichtungen und Computerprogramme | |
DE102019118607A1 (de) | Anomaliedetektor für fahrzeugsteuersignale | |
WO2020216621A1 (de) | Training trainierbarer module mit lern-daten, deren labels verrauscht sind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009000000 Ipc: G06V0010000000 |