DE102017219269A1 - Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten - Google Patents

Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten Download PDF

Info

Publication number
DE102017219269A1
DE102017219269A1 DE102017219269.0A DE102017219269A DE102017219269A1 DE 102017219269 A1 DE102017219269 A1 DE 102017219269A1 DE 102017219269 A DE102017219269 A DE 102017219269A DE 102017219269 A1 DE102017219269 A1 DE 102017219269A1
Authority
DE
Germany
Prior art keywords
value
input
learning
classification
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017219269.0A
Other languages
English (en)
Inventor
William Harris Beluch
Jan Mathias Koehler
Tim Genewein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017219269.0A priority Critical patent/DE102017219269A1/de
Publication of DE102017219269A1 publication Critical patent/DE102017219269A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/62Methods or arrangements for recognition using electronic means
    • G06K9/6267Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computer systems based on biological models
    • G06N3/02Computer systems based on biological models using neural network models
    • G06N3/04Architectures, e.g. interconnection topology
    • G06N3/0454Architectures, e.g. interconnection topology using a combination of multiple neural nets
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computer systems based on biological models
    • G06N3/02Computer systems based on biological models using neural network models
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computer systems based on specific mathematical models
    • G06N7/005Probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • G06K9/00818Recognising traffic signs

Abstract

Vorrichtung (1) zur Klassifizierung mindestens eines Eingangsgrößenwertes (11), umfassend:
• eine Mehrzahl von mittels Lern-Eingangsgrößenwerten (11a) und Lern-Ausgangsgrößenwerten (13c) trainierbaren Einzelbewertern (12a-12c), die auf identischen Mengen von Lern-Eingangsgrößenwerten (11a) vortrainiert sind und die jeweils dazu ausgebildet sind, dem Eingangsgrößenwert (11) eine Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zuzuordnen, wobei diese Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zu jeder der diskreten Klassen (13a), bzw. zu jedem möglichen Wert der Klassifikationsgröße (13b), angibt, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert (11) auf die jeweilige Klasse (13a), bzw. auf den jeweiligen Wert (13b), abzubilden ist; und
• ein Konfidenzmodul (14), das dazu ausgebildet ist, aus Abweichungen zwischen den von den Einzelbewertern (12a-12c) gelieferten Wahrscheinlichkeitsverteilungen (Pa, Pb, Pc) die Unsicherheit (15) zu bestimmen, mit der die Klassifizierung behaftet ist, wobei die Vorrichtung (1) zusätzlich ein Feedbackmodul (16) umfasst, das dazu ausgebildet ist, in Antwort darauf, dass die Unsicherheit (15) für einen Eingangsgrößenwert (11) ein vorgegebenes Kriterium (15a) erfüllt, diesen Eingangsgrößenwert (11) als Lern-Eingangsgrößenwert (11a) an alle Einzelbewerter (12a-12c) zurückzukoppeln, und/oder eine vom Benutzer (18) der Vorrichtung (1) wahrnehmbare physikalische Warneinrichtung (17) anzusteuern.

Description

  • Die Erfindung bezieht sich auf eine Vorrichtung zur Klassifizierung von Eingangsgrößen mittels trainierbarer Bewerter, ein Verfahren zum Betreiben oder Trainieren, ein zugehöriges Computerprogramm sowie auf Verwendungen.
  • Stand der Technik
  • In vielen Anwendungen sind eine oder mehrere Eingangsgrößen daraufhin auszuwerten, ob eine bestimmte Art von Situation vorliegt. Hierzu können beispielsweise neuronale Netze oder andere KI-Module verwendet werden. Beispielsweise offenbart die DE 103 42 528 A1 ein Verfahren und eine Vorrichtung zur Fahrerunterstützung, wobei anhand verschiedener Betriebsgrößen des Fahrzeugs klassifiziert wird, ob gerade ein beabsichtigter oder ein unbeabsichtigter Spurwechsel erfolgt.
  • Neuronale Netze und andere Klassifikatoren werden vielfach mit Hilfe von Lern-Eingangsgrößenwerten und Lern-Ausgangsgrößenwerten trainiert. Hierzu werden beispielsweise freie Parameter dahingehend optimiert, dass die Lern-Eingangsgrößenwerte im Mittel korrekt auf die bekannten zugehörigen Lern-Ausgangsgrößenwerte abgebildet werden. Nach einem Training mit einer hinreichenden Anzahl von Lern-Eingangsgrößenwerten wird davon ausgegangen, dass auch künftige Eingangsgrößenwerte korrekt klassifiziert werden.
  • (P. Melville, R. J. Mooney, „Diverse Ensembles for Active Learning", Proceedings of the 21st Conference on Machine Learning, Banff (2004)) offenbart ein Verfahren, mit dem durch Hinzufügung künstlicher Lern-Eingangsgrößenwerte die echten Lern-Eingangsgrößenwerte besser ausgenutzt werden können.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde eine Vorrichtung zur Klassifizierung mindestens eines Eingangsgrößenwertes in eine von mehreren diskreten Klassen, und/oder anhand einer kontinuierlichen Klassifikationsgröße entwickelt. Dabei ist der Begriff des Eingangsgrößenwertes nicht auf skalare Zahlenwerte beschränkt, sondern kann beispielsweise auch vektorielle Daten, Matrizen oder Tensoren umfassen, wie beispielsweise Bilddaten.
  • Die Vorrichtung umfasst eine Mehrzahl von mittels Lern-Eingangsgrößenwerten und Lern-Ausgangsgrößenwerten trainierbaren Einzelbewertern, die auf identischen Mengen von Lern-Eingangsgrößenwerten vortrainiert sind und die jeweils dazu ausgebildet sind, dem Eingangsgrößenwert eine Wahrscheinlichkeitsverteilung zuzuordnen. Diese Wahrscheinlichkeitsverteilung gibt zu jeder der diskreten Klassen, bzw. zu jedem möglichen Wert der Klassifikationsgröße, an, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert auf die jeweilige Klasse, bzw. auf den jeweiligen Wert, abzubilden ist.
  • Dabei setzt ein Vortraining „auf identischen Mengen“ nicht zwingend voraus, dass alle Einzelbewerter die Lern-Eingangsgrößenwerte aus der Menge in der gleichen Reihenfolge erhalten. Vielmehr können durch eine Änderung der Reihenfolge zwischen den Einzelbewertern, beispielsweise durch eine Randomisierung der Reihenfolge, gezielt Unterschiede in das Verhalten der Einzelbewerter eingebracht werden. Die für das Vortraining verwendete Menge an Lern-Eingangsgrößenwerten, und ggfs. zugehörigen Lern-Ausgangsgrößenwerten, kann beispielsweise ein Grundmodell widerspiegeln, das beim weiteren Training der Vorrichtung im laufenden Betrieb verfeinert wird.
  • Der Begriff der Wahrscheinlichkeitsverteilung umfasst jede Zuordnung, die dem Eingangsgrößenwert einerseits und der Klasse, bzw. dem Wert der kontinuierlichen Klassifikationsgröße, einen Wahrscheinlichkeitswert zuordnet.
  • Dabei ist es auch nicht zwingend gefordert, dass diese Verteilung für mehr als eine Klasse, bzw. für mehr als einen Wert der kontinuierlichen Klassifikationsgröße, von Null verschieden ist.
  • Ein Beispiel für eine diskrete Wahrscheinlichkeitsverteilung ist, dass ein Zustand mit einer Wahrscheinlichkeit von 50 % in die Klasse „Sehr gut“, mit einer Wahrscheinlichkeit von 30 % in die Klasse „Gut“, mit einer Wahrscheinlichkeit von 10 % in die Klasse „Befriedigend“ sowie mit Wahrscheinlichkeiten von je 5 % in die Klassen „Ausreichend“ und „Mangelhaft“ eingeordnet wird.
  • Die Einzelbewerter können beispielsweise alle vom gleichen Typ sein, beispielsweise neuronale Netze gleicher Struktur oder statistische Klassifizierer, und sollten sich dann lediglich mindestens so weit voneinander unterscheiden, dass sie bei fortschreitendem Lernen nicht deckungsgleich ineinander überführt werden. Es sind jedoch auch beliebige Mischungen unterschiedlicher Typen von Einzelbewertern möglich. Beispielsweise können neuronale Netze mit statistischen Klassifizierern gemischt werden.
  • Es ist ein wichtiger Unterschied zu aus der Literatur bekannten Ansätzen, dass die Einzelbewerter in der Vorrichtung von Anfang an vorhanden sind und nicht etwa ein Einzelbewerter automatisch erzeugt wird, um quasi „aus dem Nichts“ ein diverses Komitee zu schaffen. Auch kommen nur echte Lern-Eingangsgrößenwerte zum Einsatz und keine künstlich erzeugten.
  • Die Vorrichtung umfasst weiterhin ein Konfidenzmodul, das dazu ausgebildet ist, aus Abweichungen zwischen den von den Einzelbewertern gelieferten Wahrscheinlichkeitsverteilungen die Unsicherheit zu bestimmen, mit der die Klassifizierung behaftet ist.
  • Dabei kann die Unsicherheit von der jeweiligen Klasse, bzw. vom Wert der kontinuierlichen Klassifikationsgröße, abhängen. Beispielsweise können sich in dem vorgenannten Beispiel zwei Einzelbewerter dahingehend sehr einig sein, dass der Zustand „Mangelhaft“ nur mit 5 % Wahrscheinlichkeit vorliegt. Zugleich kann der eine Einzelbewerter den Eingangsgrößenwert mit 95 % Wahrscheinlichkeit der Klasse „Sehr gut“ zuordnen, während der andere Einzelbewerter den gleichen Eingangsgrößenwert mit 95 % der benachbarten Klasse „Gut“ zuordnet.
  • Die Vorrichtung umfasst zusätzlich ein Feedbackmodul, das dazu ausgebildet ist, in Antwort darauf, dass die Unsicherheit für einen Eingangsgrößenwert ein vorgegebenes Kriterium erfüllt, diesen Eingangsgrößenwert als Lern-Eingangsgrößenwert an alle Einzelbewerter zurückzukoppeln, und/oder eine vom Benutzer der Vorrichtung wahrnehmbare physikalische Warneinrichtung anzusteuern.
  • Das vorgegebene Kriterium kann beispielsweise ein Schwellwert sein. Es können aber auch beispielsweise mehrere Eingangsgrößenwerte in aufsteigender oder absteigender Reihenfolge nach zugehörigen Unsicherheiten geordnet werden, wobei dann beispielsweise eine vorgegebene Anzahl an Eingangsgrößenwerten entsprechend dieser Reihenfolge zurückgekoppelt wird.
  • Es wurde erkannt, dass das Feedbackmodul es beispielsweise ermöglicht, bevorzugt diejenigen Eingangsgrößenwerte für das Training zu verwenden, von denen die größte Verbesserung der Genauigkeit der Klassifikation zu erwarten ist. Dies wiederum ermöglicht es, den Aufwand für das Training der Einzelbewerter in zweierlei Hinsicht deutlich zu reduzieren.
  • Zum einen kann es je nach Anwendung sehr aufwändig sein, zu einem zurückzukoppelnden Lern-Eingangsgrößenwert den zugehörigen Lern-Ausgangsgrößenwert zu beschaffen, also den Lern-Eingangsgrößenwert mit dem zugehörigen korrekten Klassifikationsergebnis zu „labeln“. Handelt es sich bei dem Eingangsgrößenwert beispielsweise um ein Bild aus der medizinischen Bildgebung und besteht die Klassifikationsaufgabe darin, das Vorliegen von Anomalien in dem Bild zu prüfen, so kann die zugehörige „ground truth“ in Form des Lern-Ausgangsgrößenwerts möglicherweise nur durch einen auf die Interpretation derartiger Bilder spezialisierten Arzt erfolgen. Damit werden Lern-Ausgangsgrößenwerte zu einem knappen und teuren Gut. Die Herstellung einer voll trainierten Vorrichtung als Ganzes wird dementsprechend kostengünstiger, wenn dem Arzt nur diejenigen Bilder zur Interpretation vorgelegt werden, von denen der größte Lerneffekt bei den Einzelbewertern zu erwarten ist.
  • Zum anderen kann auch dann, wenn Lern-Ausgangsgrößenwerte unkompliziert zur Verfügung stehen, das Training bereits durch eine große Zahl an Einzelbewertern aufwändig werden. Wenn die Einzelbewerter beispielsweise „weak learner“ sind in dem Sinne, dass sich die von jedem Einzelbewerter ausgegebene Wahrscheinlichkeitsverteilung für sich genommen nur schwach von einer zufälligen Verteilung unterscheidet, wird eine größere Anzahl solcher Einzelbewerter benötigt, um die Einzel-Wahrscheinlichkeitsverteilungen in statistisch signifikanter Weise zu einer Gesamt-Wahrscheinlichkeitsverteilung aggregieren zu können. Der Aufwand für das Training wächst mindestens proportional mit der Zahl der Einzelbewerter.
  • Schließlich kann mit dem Feedbackmodul im normalen Betrieb der Vorrichtung überhaupt erst erkannt werden, dass ein Bedarf besteht, die Einzelbewerter weiter zu trainieren. Beispielsweise kann die Vorrichtung zur Klassifizierung dazu ausgebildet sein, in Bilddaten aus dem Umfeld eines Fahrzeugs Verkehrszeichen zu erkennen. Die Vorrichtung kann dann beispielsweise mit all denjenigen Verkehrszeichen trainiert worden sein, die zum Zeitpunkt der Auslieferung des Fahrzeugs gültig waren. Führt der Verordnungsgeber nun neue Verkehrszeichen ein, wie beispielsweise „Maut“ oder „Umweltzone“, so kann ein Einzelbewerter allein dieses neue Verkehrszeichen möglicherweise noch mit hoher Konfidenz als ein ähnliches Zeichen erkennen. So ist beispielsweise das Verkehrszeichen 391, das eine Mautstelle anzeigt, dem Verkehrszeichen 392, das eine Zollstelle anzeigt, recht ähnlich. Je mehr unterschiedlich aufgebaute Einzelbewerter zum Einsatz kommen, desto wahrscheinlicher ist jedoch damit zu rechnen, dass diese Einzelbewerter das Verkehrszeichen jeweils als etwas anderes erkennen. Beispielsweise kann ein weiterer Einzelbewerter das unbekannte Verkehrszeichen 391 mit hoher Konfidenz als das Verkehrszeichen 367 erkennen, das die Einfahrt in eine Einbahnstraße in falscher Richtung verbietet. Erst aus der Uneinigkeit der beiden Einzelbewerter lässt sich erkennen, dass weder die Klassifikation als „Zollstelle“ noch die Klassifikation als „Einfahrt verboten“ richtig ist.
  • Eine ähnliche Situation kann auftreten, wenn der Verordnungsgeber ein Verkehrszeichen komplett erneuert, etwa das Verkehrszeichen 151 „Bahnübergang“. Darauf ist seit September 2009 statt einer Dampflok ein elektrisch angetriebener Intercity-Zug zu sehen, und das auch noch aus einer anderen Perspektive.
  • Auch lässt sich bislang die Erkennung von Verkehrszeichen zum Teil durch das Beschmieren, Besprühen oder Bekleben mit Aufklebern in die Irre führen. Diese Veränderungen ändern aus Sicht eines menschlichen Fahrers den Charakter des Verkehrszeichens nicht und fallen ihm daher kaum auf.
  • Wenn in derartigen Situationen eine physikalische Warneinrichtung angesteuert wird, kann der Fahrer dazu veranlasst werden, beispielsweise die korrekte Klassifikation ins System einzugeben oder sich darauf vorzubereiten, die manuelle Steuerung zu übernehmen. Die Warneinrichtung kann beispielsweise optisch, akustisch oder haptisch sein.
  • Die Wirkung des Feedbackmoduls ist vergleichbar mit der, die bei sogenannten „Bayes-neuronalen Netzwerken“ (Bayes-CNN) erzielt wird. Letztendlich geht es darum, durch das Training der Einzelbewerter eine im Verlauf unbekannte und zugleich nur sehr aufwändig auszuwertende Funktion zu rekonstruieren, von der nur wenige Paare aus Lern-Eingangsgrößenwerten und zugehörigen Lern-Ausgangsgrößenwerten als „Stützstellen“ bekannt sind. In dem Beispiel der Auswertung medizinischer Bilder ist die nachzubildende Funktion das Expertenwissen des Arztes, und die Bewertung eines Bildes durch den Arzt entspricht einer Auswertung der unbekannten Funktion an einem bestimmten Eingangsgrößenwert.
  • Die Auswahl der Lern-Eingangsgrößenwerte anhand der Unsicherheit erfüllt eine ähnliche Funktion wie sie die sogenannten „acquisition functions“ bei Bayes'scher Optimierung aufwändig auszuwertender Funktionen innehaben. Bei der Bayes'schen Optimierung wird statt des Werts der aufwändig auszuwertenden Originalfunktion der Wert der „acquisition function“ optimiert, der angibt, wo die Originalfunktion im nächsten Schritt sinnvoll ausgewertet wird.
  • Die Rückkopplung kann beim erstmaligen Training der Vorrichtung und im laufenden Betrieb der Vorrichtung gleichermaßen aktiv sein. In beiden Fällen wird das Modell der besagten unbekannten Funktion, und damit auch des realen Prozesses, zu dem die Eingangsgrößenwerte und die Klassifikation gehören, sukzessive verfeinert. Es werden jeweils nur die weiteren Lern-Eingangsgrößenwerte herangezogen, von denen tatsächlich eine Verbesserung des Modells zu erwarten ist.
  • Vorteilhaft sind zwischen 5 und 50 Einzelbewerter vorgesehen. Mit mindestens 5 Einzelbewertern wird die Aussage, ob eine Unsicherheit im Vergleich zwischen den Einzelbewertern vorliegt, statistisch deutlich signifikanter. Mit höchstens 50 Einzelbewertern bleiben sowohl der Speicheraufwand für die Einzelbewerter auf Hardware als auch der Rechenaufwand für das Training im Rahmen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung ist das Feedbackmodul zusätzlich dazu ausgebildet, einen zu dem Lern-Eingangsgrößenwert gehörenden Lern-Ausgangsgrößenwert vom Benutzer der Vorrichtung anzufordern und gemeinsam mit dem Lern-Eingangsgrößenwert an alle Einzelbewerter zurückzukoppeln. Auf diese Weise hat die Vorrichtung das Potential, mit zunehmendem Gebrauch immer weiter dazuzulernen, so dass die Genauigkeit der Klassifizierung immer besser werden kann, und zwar unabhängig davon, ob der Hersteller der Vorrichtung Updates zur Verfügung stellt und ob diese auch tatsächlich eingespielt werden.
  • In einer weiteren besonders vorteilhaften Ausgestaltung beinhaltet mindestens einer der Einzelbewerter ein künstliches neuronales Netzwerk. Ein solches Netzwerk beinhaltet eine interne Verarbeitungskette, die durch Parameter festgelegt ist. Beispielsweise können diese Parameter in einem „Convolutional Neural Network“ das Verhalten von Filtern steuern oder in einer vollvernetzten Schicht („dense layer“) Verbindungen zwischen Neuronen auf benachbarten Schichten gewichten. Tendenziell ist gerade bei neuronalen Netzen als Einzelbewertern die Anzahl an verfügbaren freien Parametern sehr groß, so dass üblicherweise eine große Anzahl von Lern-Eingangsgrößenwerten mit zugehörigen Lern-Ausgangsgrößenwerten nötig ist, damit das überwachte Lernen schlüssig auf einen Satz Parameter konvergiert. Durch die Auswahl der aussagekräftigsten Lern-Eingangsgrößenwerte an Hand der Unsicherheit kann dieser Prozess beschleunigt werden. Es kann sogar durchaus der Genauigkeit der Klassifikation zuträglich sein, nur diese Lern-Eingangsgrößenwerte zu berücksichtigen: Werden auch weniger relevante Lern-Eingangsgrößenwerte berücksichtigt, kann deren vergleichsweise schwache Aussagekraft die Aussagekraft der relevanteren Werte gleichsam verwässern.
  • In der Vorrichtung müssen nicht alle neuronalen Netzwerke vom gleichen Typ sein. Es können durchaus beispielsweise „Convolutional Neural Networks“, die im Wesentlichen Faltungsschichten beinhalten, mit „deep learning“-Netzwerken, die im Wesentlichen vollvernetzte Schichten beinhalten, gemischt werden.
  • Vorteilhaft ist zusätzlich ein Aggregator vorgesehen, der dazu ausgebildet ist, die von den Einzelbewertern gelieferten Wahrscheinlichkeitsverteilungen zu einer Gesamt-Wahrscheinlichkeitsverteilung zu aggregieren. Dies vereinfacht die Interpretation der Klassifizierung durch nachgeschaltete Einrichtungen, wie etwa Systeme für das zumindest teilweise automatisierte Fahren. Die Auswahl des zu labelnden Lern-Eingangsgrößenwertes kann dann beispielsweise mit Maßen wie „max entropy“, „variation ratio“ oder „mean standard deviation“ erfolgen.
  • Nach dem zuvor Beschriebenen sind die Einzelbewerter vorteilhaft dazu ausgebildet, Bilddaten als Eingangsgrößenwerte entgegenzunehmen und im Hinblick auf die Ausprägung mindestens eines vorgegebenen Merkmals, und/oder im Hinblick auf das Vorhandensein mindestens eines vorgegebenen Objekts, zu klassifizieren. Gerade bei Bilddaten und anderen sehr hochdimensionalen Daten gibt es viele Fehlerquellen, die die Klassifikation möglicherweise beeinflussen können. Beispielsweise können Bilddaten mit Rauschen behaftet sein, oder Bildteile können durch eine unpassende Belichtung in die Sättigung gezogen worden sein.
  • Nach dem zuvor Beschriebenen bezieht sich die Erfindung auch auf ein Verfahren zum Betreiben und/oder Trainieren einer Vorrichtung zur Klassifizierung mindestens eines eines Eingangsgrößenwertes in eine von mehreren diskreten Klassen, und/oder anhand einer kontinuierlichen Klassifikationsgröße.
  • Bei dem Verfahren wird durch eine Mehrzahl von mittels Lern-Eingangsgrößenwerten und Lern-Ausgangsgrößenwerten trainierbaren Einzelbewertern jeweils jedem Eingangsgrößenwert aus einer identischen Menge eine Wahrscheinlichkeitsverteilung zugeordnet, wobei diese Wahrscheinlichkeitsverteilung zu jeder der diskreten Klassen, bzw. zu jedem möglichen Wert der Klassifikationsgröße, angibt, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert auf die jeweilige Klasse, bzw. auf den jeweiligen Wert, abzubilden ist.
  • Weiterhin wird aus Abweichungen zwischen den von den Einzelbewertern gelieferten Wahrscheinlichkeitsverteilungen die Unsicherheit bestimmt, mit der die Klassifizierung behaftet ist.
  • In Antwort darauf, dass die Unsicherheit für einen Eingangsgrößenwert ein vorgegebenes Kriterium erfüllt, wird der Eingangsgrößenwert als Lern-Eingangsgrößenwert an alle Einzelbewerter rückgekoppelt, und/oder es wird eine vom Benutzer der Vorrichtung wahrnehmbare physikalische Warneinrichtung angesteuert.
  • Das Trainieren kann innerhalb der Vorrichtung selbst durchgeführt werden, ist aber nicht darauf beschränkt. Es ist durchaus möglich und auf Grund des Rechenaufwandes für das Training auch sinnvoll, die Vorrichtung und insbesondere die Einzelbewerter softwaremäßig auf einem externen Rechner oder in einer Cloud nachzubilden, wo eine größere Rechenkapazität zur Verfügung steht als in der Vorrichtung selbst. Beispielsweise gibt es beim Einsatz der Vorrichtung in einem teilweise oder vollständig automatisiert fahrenden Fahrzeug in der Regel Vorgaben bezüglich des Bauraums und/oder des Stromverbrauchs, die wiederum die verfügbare Rechenkapazität beschränken.
  • Nach erfolgtem Training können beispielsweise die erhaltenen Parameter, die die Einzelbewerter festlegen, auf eine Hardware transferiert werden, die die Einzelbewerter implementiert. Damit entsteht eine fertig eingelernte Vorrichtung zur Klassifizierung. Diese Vorrichtung kann dann entsprechend dem zuvor Beschriebenen ein Konfidenzmodul und ein Feedbackmodul aufweisen, um auch im laufenden Betrieb das in ihr enthaltene Modell weiter verfeinern zu können. Dies ist jedoch nicht zwingend erforderlich. Die gemäß dem Verfahren extern vortrainierte Vorrichtung kann alternativ auch auf dem bei diesem Vortraining erreichten Stand verharren. Unabhängig davon, ob die Vorrichtung ein eigenes Konfidenzmodul und ein eigenes Feedbackmodul hat, ist es möglich, sie später durch externes Nachlernen zu aktualisieren. Dazu können beispielsweise die aktuellen Parameter, die die Einzelbewerter in der Vorrichtung festlegen, wieder auf den externen Rechner oder in die Cloud transferiert werden, um anschließend das Verfahren zum Training mit weiteren Lern-Eingangsgrößenwerten erneut durchzuführen.
  • Vorteilhaft wird eine Vorrichtung gewählt, in der mindestens zwei Einzelbewerter unterschiedlichen Typs sind. Wenn die Einzelbewerter dennoch einem bestimmten Eingangsgrößenwert im Wesentlichen die gleiche Wahrscheinlichkeitsverteilung zuordnen, dann ist dieser Eingangsgrößenwert mit hoher Wahrscheinlichkeit von nur geringer Aussagekraft für das Training.
  • Vorteilhaft werden beim Trainieren mindestens zwei Einzelbewerter mit unterschiedlichen Startkonfigurationen initialisiert. Dann ist gewährleistet, dass die Einzelbewerter während des Trainings nicht identisch ineinander überführt werden, obwohl sie jeweils identische Eingangsgrößenwerte erhalten.
  • Vorteilhaft werden beim Trainieren mindestens zwei Einzelbewerter mit unterschiedlichen Abfolgen dergleichen Lern-Eingangsgrößenwerte beaufschlagt. Wie zuvor beschrieben, können insbesondere durch eine Randomisierung der Reihenfolge gezielt Unterschiede in das Verhalten beispielsweise ansonsten identisch aufgebauter Einzelbewerter eingebracht werden.
  • Nach dem zuvor Beschriebenen kann die Vorrichtung, und/oder das Verfahren, ganz oder teilweise in Software implementiert sein, deren Vertrieb als eigenständiges Produkt sinnvoll ist. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einer Vorrichtung gemäß der Erfindung aufwerten, und/oder dazu veranlassen, ein Verfahren gemäß der Erfindung auszuführen. Ebenso bezieht sich die Erfindung auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.
  • Nach dem zuvor Beschriebenen wird die Vorrichtung, das Verfahren, und/oder das Computerprogramm, vorteilhaft in einem zumindest teilweise automatisiert fahrenden Fahrzeug verwendet, wobei der Eingangsgrößenwert von mindestens einem Sensor bezogen wird, der eine physikalische Messgröße im Fahrzeug oder in der Umgebung des Fahrzeugs erfasst, und wobei die Klassen, bzw. die Klassifikationsgröße, einen Betriebszustand des Fahrzeugs, und/oder eine Verkehrssituation, charakterisieren. Auf diese Weise wird insbesondere in neuen Situationen, für die die Einzelbewerter in der Vorrichtung nicht trainiert worden sind (etwa neue Verkehrszeichen), die Betriebssicherheit verbessert.
  • Nach dem zuvor Beschriebenen wird die Vorrichtung, das Verfahren, und/oder das Computerprogramm, vorteilhaft in der Diagnostik verwendet, wobei der Eingangsgrößenwert von mindestens einem Sensor bezogen wird, der eine physikalische Messgröße an einem zu untersuchenden Objekt oder Patienten erfasst, und wobei die Klassen, bzw. die Klassifikationsgröße, den Ausprägungsgrad mindestens einer Anomalie des Objekts oder Patienten charakterisieren. Auf diese Weise wird nur ein Minimum an mitunter nur sehr aufwändig erhältlicher „ground truth“ in Form von Lern-Ausgangsgrößenwerten (Labels) für das Training benötigt.
  • Ebenso kann die Vorrichtung, das Verfahren, und/oder das Computerprogramm, vorteilhaft in der Überwachungstechnik verwendet werden, wobei der Eingangsgrößenwert von mindestens einem Sensor bezogen wird, der eine physikalische Messgröße aus dem zu überwachenden Bereich erfasst, und wobei die Klassen, bzw. die Klassifikationsgröße, den Ausprägungsgrad mindestens einer Gefahrensituation charakterisieren. Auf diese Weise können in unbekannten Situationen beispielsweise Fehlalarme vermieden werden. Beispielsweise können Szenen in einem Video, die nur mit hoher Unsicherheit erkannt werden, dem Bedienungspersonal zurückgemeldet werden.
  • Eine erste beispielhafte Formel für die Unsicherheit Ui, mit der die Klassifizierung eines Eingangsgrößenwertes i behaftet ist, ist: U i = j = 1 K ( p i j p ¯ i ) 2 N ,
    Figure DE102017219269A1_0001
    worin der Index j=1,...,K über alle K Einzelbewerter ist. pij ist die vom Einzelbewerter j zu dem Eingangsgrößenwert i ermittelte Wahrscheinlichkeit für den zugehörigen Ausgangsgrößenwert (Vorhersage-Wahrscheinlichkeit). p i ist die dem Eingangsgrößenwert i zugeordnete Vorhersage-Wahrscheinlichkeit aggregiert über alle Einzelbewerter j. Die Aggregation kann beispielsweise durch den Mittelwert, durch den Median oder durch die Mode einer geschätzten Verteilung erfolgen.
  • Dabei sind die pij, p i und Ui im Falle von diskreten Klassen Vektoren, die ein Element je Klasse enthalten. Im Falle kontinuierlicher Wahrscheinlichkeitsverteilungen sind es Funktionen der Klassifikationsgröße. Beides ist aus Gründen der Lesbarkeit in der Formel weggelassen. Ui gemäß dieser Formel ist eine mittlere quadratische Abweichung.
  • Eine zweite beispielhafte Formel für Ui ist: U i = p ¯ i ( 1 ) p ¯ i ( 2 ) ,
    Figure DE102017219269A1_0002
    worin p ¯ i ( 1 )
    Figure DE102017219269A1_0003
    der höchste dem Eingangsgrößenwert i nach Aggregation über alle Einzelbewerter zugeordnete Vorhersage-Wahrscheinlichkeitswert und p ¯ i ( 2 )
    Figure DE102017219269A1_0004
    der zweithöchste diesem Eingangsgrößenwert i nach der Aggregation zugeordnete Vorhersage-Wahrscheinlichkeitswert ist. Analog zum ersten Beispiel ist auch hier die Vektor- bzw. Funktionseigenschaft weggelassen. Ui gemäß dieser Formel bewertet spezifisch, mit welchem Abstand die zweitwahrscheinlichste Klassifikation auf die wahrscheinlichste Klassifikation folgt.
  • Die Unsicherheit Ui kann aber auch als Varianz U i = 1 N k = 1 K ( p i j 2 p ¯ i 2 )
    Figure DE102017219269A1_0005
    ausgedrückt werden. Welche dieser beispielhaften Formeln am besten geeignet ist, hängt von der jeweiligen Anwendung ab.
  • Die Unsicherheit bezüglich eines Eingangsgrößenwerts x kann auch als Jenson-Shannon-Divergenz JSD berechnet werden: J S D ( x ) = H ( j = 1 K π j P j ( x ) ) j = 1 K π j H ( P j ( x ) ) .
    Figure DE102017219269A1_0006
  • Hierin ist H die Shannon-Entropiefunktion, und Pj ist die Wahrscheinlichkeitsverteilung, die der Einzelbewerter j dem Eingangsgrößenwert x zuordnet. Die πj sind Gewichte.
  • Analog zu den vorherigen Formeln für Ui kann Pj bei einer diskreten Klassifikation ein Vektor sein, der für jede diskrete Klasse eine Wahrscheinlichkeit enthält. Pj kann auf der Eingangsgröße x eine diskrete Funktion sein, kann aber auch eine kontinuierliche Funktion sein, die an jedem real vorkommenden xi, i=1,...,K, eine Stützstelle aufweist.
  • Die erste Summe summiert Wahrscheinlichkeiten auf, die zweite Summe summiert mit den gleichen Gewichten Shannon-Entropien auf.
  • Wenn gezielt zwei Einzelbewerter miteinander verglichen werden sollen, kann als Maß für die Unsicherheit beispielsweise auch die Kullback-Leibler-Divergence DKL gewählt werden: D K L ( P 1 P 2 ) = c = 1 C P 1 ( c ) log P 1 ( c ) P 2 ( c ) .
    Figure DE102017219269A1_0007
  • In diesem Beispiel ist c ein Index über die die diskreten Klassen 1,...,C. Bei einer kontinuierlichen Klassifikationsgröße wird die Summe zu einem Integral.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Beispielhafte Skizze der Vorrichtung 1;
    • 2 Beispielhafte Skizze des Verfahrens 100;
    • 3 Beispielhafte Skizze der Verwendung in einem zumindest teilweise automatisiert fahrenden Fahrzeug 2;
    • 4 Beispielhafte Skizze der Verwendung in der Diagnostik eines Objekts oder Patienten 32;
    • 5 Beispielhafte Skizze der Verwendung in der Überwachung eines Bereichs 42.
  • Nach 1 umfasst die Vorrichtung 1 drei beispielhaft eingezeichnete Einzelbewerter 12a, 12b und 12c, die jeweils ein und denselben Eingangsgrößenwert 11 dahingehend klassifizieren, mit welcher Wahrscheinlichkeit Pa (13a, 13b) dieser Eingangsgrößenwert 11 einer von mehreren diskreten Klassen 13a, und/oder einem bestimmten Wert einer kontinuierlichen Klassifikationsgröße 13b, zuzuschreiben ist. Die drei Einzelbewerter 12a, 12b und 12c wurden auf identischen Mengen von Lern-Eingangsgrößenwerten 11a vortrainiert, wobei zumindest zu einem Teil dieser Lern-Eingangsgrößenwerte 11a auch der zugehörige Lern-Ausgangsgrößenwert 13c vorlag.
  • Im Konfidenzmodul 14 wird aus den drei Wahrscheinlichkeitsverteilungen Pa , Pb , Pc die Unsicherheit 15 bestimmt, die ein Maß dafür ist, wie uneinig sich die Einzelbewerter 12a, 12b und 12c untereinander sind. Das Konfidenzmodul reicht weiterhin die drei Wahrscheinlichkeitsverteilungen Pa , Pb , Pc an den Aggregator 19 durch, der hieraus eine einzige Wahrscheinlichkeitsverteilung P(13a, 13b) dafür ermittelt, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert 11 der Klasse 13a, bzw. dem Wert der Klassifikationsgröße 13b, zuzuschreiben ist.
  • Das Feedbackmodul 16 prüft, ob eine vorgegebene Bedingung 15a für die Unsicherheit 15 erfüllt ist. Diese Bedingung 15a kann beispielsweise ein vorgegebener Schwellwert sein. Im Rahmen der Bedingung 15a kann jedoch beispielsweise eine „Best of“-Auswahl derjenigen Eingangsgrößenwerte 11 getroffen werden, für die die Unsicherheit 15 am größten ist.
  • Ist die Bedingung 15a erfüllt, wird eine Warneinrichtung 17 angesteuert, die vom Benutzer 18 der Vorrichtung 1 wahrnehmbar ist. Dadurch erhält der Benutzer die Gelegenheit, den zum Eingangsgrößenwert 11 passenden Lern-Ausgangsgrößenwert 13c nachzuliefern, also den Eingangsgrößenwert 11 nachträglich zu „labeln“. Der Eingangsgrößenwert 11 wird anschließend als Lern-Eingangsgrößenwert 11a, zusammen mit dem Lern-Ausgangsgrößenwert 13c, den Einzelbewertern 12a, 12b und 12c zugeführt, um die Einzelbewerter 12a, 12b und 12c zu trainieren.
  • 2 zeigt ein Ausführungsbeispiel des Verfahrens 100. In Schritt 110 wird der Eingangsgrößenwert 11 über die Wahrscheinlichkeitsverteilungen Pa , Pb und Pc dahingehend klassifiziert, mit welcher Wahrscheinlichkeit er welcher der Klassen 13a, bzw. welchem der möglichen Werte der Klassifikationsgröße 13b, zuzuschreiben ist. Aus dieser Information wird in Schritt 120 die Unsicherheit 15 der Einzelbewerter 12a, 12b, 12c untereinander bestimmt. In Schritt 130 wird überprüft, ob das Kriterium 15a erfüllt ist. Wenn ja (Wahrheitswert 1), wird in Schritt 140 der Eingangsgrößenwert 11 als Lern-Eingangsgröße 11a an die Einzelbewerter 12a, 12b, 12c zurückgekoppelt. Sofern der Benutzer 18 den hierzu passenden Lern-Ausgangsgrößenwert 13c geliefert hat, also den Lern-Eingangsgrößenwert 11a „gelabelt“ hat, wird der Lern-Ausgangsgrößenwert 13c ebenfalls an die Einzelbewerter 12a, 12b, 12c übermittelt. Alternativ oder in Kombination kann in Schritt 150 die durch den Benutzer 18 wahrnehmbare physikalische Warneinrichtung 17 angesteuert werden.
  • 3 zeigt schematisch eine Anwendung der Vorrichtung 1, bzw. des Verfahrens 100, in einem zumindest teilweise automatisiert fahrenden Fahrzeug 2, das sich in einer Verkehrssituation 24 befindet. Ein Sensor 21 erfasst das Fahrzeugumfeld 22 und gibt eine physikalische Messgröße 21a, beispielsweise Bilddaten, aus. Die Messgröße 21a wird als Eingangsgrößenwert 11 verwendet und klassifiziert. Die Wahrscheinlichkeit P(13a, 13b), dass der Eingangsgrößenwert 11 einer bestimmten Klasse der Klassen 13a, bzw. einem bestimmten Wert der Klassifikationsgröße 13b, zuzuschreiben ist, wird als Wahrscheinlichkeit dafür gewertet, dass ein bestimmter Betriebszustand 23 des Fahrzeugs 2, und/oder eine bestimmte Verkehrssituation 24, vorliegt. Weiterhin wird auch die zugehörige Unsicherheit 15 bestimmt, mit der die Klassifikation behaftet ist. Eine hohe Unsicherheit kann beispielsweise eine unbekannte und/oder potentiell gefährliche Verkehrssituation 24, und/oder einen möglichen abnormen Betriebszustand 23 des Fahrzeugs 2, anzeigen.
  • 4 zeigt schematisch eine Anwendung der Vorrichtung 1, bzw. des Verfahrens 100, in der Diagnostik eines Objekts 32. Ein Sensor 31 erfasst das Objekt 32 und gibt eine physikalische Messgröße 31a aus, die analog zu 3 als Eingangsgrößenwert 11 verwendet und klassifiziert wird. Die Wahrscheinlichkeit P(13a, 13b), dass der Eingangsgrößenwert 11 einer bestimmten Klasse der Klassen 13a, bzw. einem bestimmten Wert der Klassifikationsgröße 13b, zuzuschreiben ist, wird als Wahrscheinlichkeit dafür gewertet, dass eine in 4 beispielhaft eingezeichnete Anomalie 32a in dem Objekt 32 vorliegt. Ebenso wird die Unsicherheit 15 der Klassifikation bestimmt. Eine hohe Unsicherheit 15 kann beispielsweise als ein erstes Anzeichen für eine Anomalie 32a gewertet werden, wobei deren konkrete Art nicht einmal vorab bekannt sein muss.
  • 5 zeigt schematisch eine Anwendung der Vorrichtung 1, bzw. des Verfahrens 100, in der Überwachungstechnik. Hier wird mit einem als Kamera eingezeichneten Sensor 41 ein Bereich 42 überwacht, in diesem Beispiel eine Bushaltestelle. Das Signal 41a des Sensors 41 wird wiederum als Eingangsgrößenwert 11 verwendet und analog zu den 3 und 4 klassifiziert. Die Wahrscheinlichkeit P(13a, 13b), dass der Eingangsgrößenwert 11 einer bestimmten Klasse der Klassen 13a, bzw. einem bestimmten Wert der Klassifikationsgröße 13b, zuzuschreiben ist, wird als Wahrscheinlichkeit dafür gewertet, dass eine in 5 beispielhaft als Kofferbombe eingezeichnete Gefahrensituation 43 vorliegt. Weiterhin wird auch die Unsicherheit 15 der Klassifikation bestimmt. Ein hoher Wert der Unsicherheit 15 kann dann eine ungewöhnliche oder gänzlich unbekannte Situation anzeigen. Hierhinter könnte sich beispielsweise der Versuch eines Täters verbergen, eine bewusst herbeigeführte Gefahrensituation 43 zu kaschieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10342528 A1 [0002]
  • Zitierte Nicht-Patentliteratur
    • P. Melville, R. J. Mooney, „Diverse Ensembles for Active Learning“, Proceedings of the 21st Conference on Machine Learning, Banff (2004 [0004]

Claims (14)

  1. Vorrichtung (1) zur Klassifizierung mindestens eines Eingangsgrößenwertes (11) in eine von mehreren diskreten Klassen (13a), und/oder anhand einer kontinuierlichen Klassifikationsgröße (13b), umfassend: • eine Mehrzahl von mittels Lern-Eingangsgrößenwerten (11a) und Lern-Ausgangsgrößenwerten (13c) trainierbaren Einzelbewertern (12a-12c), die auf identischen Mengen von Lern-Eingangsgrößenwerten (11a) vortrainiert sind und die jeweils dazu ausgebildet sind, dem Eingangsgrößenwert (11) eine Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zuzuordnen, wobei diese Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zu jeder der diskreten Klassen (13a), bzw. zu jedem möglichen Wert der Klassifikationsgröße (13b), angibt, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert (11) auf die jeweilige Klasse (13a), bzw. auf den jeweiligen Wert (13b), abzubilden ist; und • ein Konfidenzmodul (14), das dazu ausgebildet ist, aus Abweichungen zwischen den von den Einzelbewertern (12a-12c) gelieferten Wahrscheinlichkeitsverteilungen (Pa, Pb, Pc) die Unsicherheit (15) zu bestimmen, mit der die Klassifizierung behaftet ist, dadurch gekennzeichnet, dass die Vorrichtung (1) zusätzlich ein Feedbackmodul (16) umfasst, das dazu ausgebildet ist, in Antwort darauf, dass die Unsicherheit (15) für einen Eingangsgrößenwert (11) ein vorgegebenes Kriterium (15a) erfüllt, diesen Eingangsgrößenwert (11) als Lern-Eingangsgrößenwert (11a) an alle Einzelbewerter (12a-12c) zurückzukoppeln, und/oder eine vom Benutzer (18) der Vorrichtung (1) wahrnehmbare physikalische Warneinrichtung (17) anzusteuern.
  2. Vorrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass zwischen 5 und 50 Einzelbewerter (12a-12c) vorgesehen sind.
  3. Vorrichtung (1) nach einem der Ansprüche 1 bis 2, dadurch gekennzeichnet, dass das Feedbackmodul (16) zusätzlich dazu ausgebildet ist, einen zu dem Lern-Eingangsgrößenwert (11a) gehörenden Lern-Ausgangsgrößenwert (13c) vom Benutzer (18) der Vorrichtung (1) anzufordern und gemeinsam mit dem Lern-Eingangsgrößenwert (11a) an alle Einzelbewerter (12a-12c) zurückzukoppeln.
  4. Vorrichtung (1) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mindestens einer der Einzelbewerter (12a-12c) ein künstliches neuronales Netzwerk beinhaltet.
  5. Vorrichtung (1) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zusätzlich ein Aggregator (19) vorgesehen ist, der dazu ausgebildet ist, die von den Einzelbewertern (12a-12c) gelieferten Wahrscheinlichkeitsverteilungen (Pa, Pb, Pc) zu einer Gesamt-Wahrscheinlichkeitsverteilung (P) zu aggregieren.
  6. Vorrichtung (1) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Einzelbewerter (12a-12c) dazu ausgebildet sind, Bilddaten als Eingangsgrößenwerte (11) entgegenzunehmen und im Hinblick auf die Ausprägung mindestens eines vorgegebenen Merkmals, und/oder im Hinblick auf das Vorhandensein mindestens eines vorgegebenen Objekts, zu klassifizieren.
  7. Verfahren (100) zum Betreiben und/oder Trainieren einer Vorrichtung (1) zur Klassifizierung mindestens eines Eingangsgrößenwertes (11) in eine von mehreren diskreten Klassen (13a), und/oder anhand einer kontinuierlichen Klassifikationsgröße (13b), wobei • durch eine Mehrzahl von mittels Lern-Eingangsgrößenwerten (11a) und Lern-Ausgangsgrößenwerten (13c) trainierbaren Einzelbewertern (12a-12c) jeweils jedem Eingangsgrößenwert (11) aus einer identischen Menge eine Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zugeordnet wird (110), wobei diese Wahrscheinlichkeitsverteilung (Pa, Pb, Pc) zu jeder der diskreten Klassen (13a), bzw. zu jedem möglichen Wert der Klassifikationsgröße (13b), angibt, mit welcher Wahrscheinlichkeit der Eingangsgrößenwert (11) auf die jeweilige Klasse (13a), bzw. auf den jeweiligen Wert (13b), abzubilden ist; und • aus Abweichungen zwischen den von den Einzelbewertern (12a-12c) gelieferten Wahrscheinlichkeitsverteilungen (Pa, Pb, Pc) die Unsicherheit (15) bestimmt wird (120), mit der die Klassifizierung behaftet ist, dadurch gekennzeichnet, dass in Antwort darauf, dass die Unsicherheit (15) für einen Eingangsgrößenwert (11) ein vorgegebenes Kriterium (15a) erfüllt (130), der Eingangsgrößenwert (11) als Lern-Eingangsgrößenwert (11a) an alle Einzelbewerter (12a-12c) rückgekoppelt wird (140), und/oder eine vom Benutzer (18) der Vorrichtung (1) wahrnehmbare physikalische Warneinrichtung (17) angesteuert wird (150).
  8. Verfahren (100) nach Anspruch 7, dadurch gekennzeichnet, dass eine Vorrichtung (1) gewählt wird, in der mindestens zwei Einzelbewerter (12a-12c) unterschiedlichen Typs sind.
  9. Verfahren (100) nach einem der Ansprüche 7 bis 8, dadurch gekennzeichnet, dass beim Trainieren mindestens zwei Einzelbewerter (12a-12c) mit unterschiedlichen Startkonfigurationen initialisiert werden.
  10. Verfahren (100) nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass beim Trainieren mindestens zwei Einzelbewerter (12a-12c) mit unterschiedlichen Abfolgen der gleichen Lern-Eingangsgrößenwerte (11a) beaufschlagt werden.
  11. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät, ausgeführt werden, den Computer, und/oder das Steuergerät, zu einer Vorrichtung (1) nach einem der Ansprüche 1 bis 6 aufwerten, und/oder dazu veranlassen, ein Verfahren (100) nach einem der Ansprüche 7 bis 10 auszuführen.
  12. Verwendung einer Vorrichtung (1) nach einem der Ansprüche 1 bis 6, eines Verfahrens (100) nach einem der Ansprüche 1 bis 10 und/oder eines Computerprogramms nach Anspruch 11 in einem zumindest teilweise automatisiert fahrenden Fahrzeug (2), wobei der Eingangsgrößenwert (11) von mindestens einem Sensor (21) bezogen wird, der eine physikalische Messgröße (21a) im Fahrzeug (2) oder in der Umgebung (22) des Fahrzeugs (2) erfasst, und wobei die Klassen (13a), bzw. die Klassifikationsgröße (13b), einen Betriebszustand (23) des Fahrzeugs (2), und/oder eine Verkehrssituation (24), charakterisieren.
  13. Verwendung einer Vorrichtung (1) nach einem der Ansprüche 1 bis 6, eines Verfahrens (100) nach einem der Ansprüche 1 bis 10 und/oder eines Computerprogramms nach Anspruch 11 in der Diagnostik, wobei der Eingangsgrößenwert (11) von mindestens einem Sensor (31) bezogen wird, der eine physikalische Messgröße (31a) an einem zu untersuchenden Objekt oder Patienten (32) erfasst, und wobei die Klassen (13a), bzw. die Klassifikationsgröße (13b), den Ausprägungsgrad mindestens einer Anomalie (32a) des Objekts oder Patienten (32) charakterisieren.
  14. Verwendung einer Vorrichtung (1) nach einem der Ansprüche 1 bis 6, eines Verfahrens (100) nach einem der Ansprüche 1 bis 10 und/oder eines Computerprogramms nach Anspruch 11 in der Überwachungstechnik, wobei der Eingangsgrößenwert (11) von mindestens einem Sensor (41) bezogen wird, der eine physikalische Messgröße (41a) aus dem zu überwachenden Bereich (42) erfasst, und wobei die Klassen (13a), bzw. die Klassifikationsgröße (13b), den Ausprägungsgrad mindestens einer Gefahrensituation (43) charakterisieren.
DE102017219269.0A 2017-10-26 2017-10-26 Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten Pending DE102017219269A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017219269.0A DE102017219269A1 (de) 2017-10-26 2017-10-26 Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017219269.0A DE102017219269A1 (de) 2017-10-26 2017-10-26 Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten

Publications (1)

Publication Number Publication Date
DE102017219269A1 true DE102017219269A1 (de) 2019-05-02

Family

ID=66137794

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017219269.0A Pending DE102017219269A1 (de) 2017-10-26 2017-10-26 Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten

Country Status (1)

Country Link
DE (1) DE102017219269A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10342528A1 (de) 2003-09-12 2005-04-14 Robert Bosch Gmbh Method and device for driver assistance

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10342528A1 (de) 2003-09-12 2005-04-14 Robert Bosch Gmbh Method and device for driver assistance

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Argamon-Engelson, S.; Dagan, I.: Committee-Based Sample Selection for Probabilistic Classifiers. In: Journal of Artificial Intelligence Research, 11, 1999, S. 335-360. - ISSN 1076 - 9757. https://doi.org/10.1613/jair.612 [abgerufen am 08.08.2018] *
Ensemble learning. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 19.10.2017. URL: https://en.wikipedia.org/w/index.php?title=Ensemble_learning&oldid=806118156 [abgerufen am 08.08.2018] *
Krogh, Anders; Vedelsby, Jesper: Neural Network Ensembles, Cross Validation, and Active Learning. In: Neural Information Processing Systems 1994, 1994, S. 231-238. http://papers.nips.cc/book/advances-in-neural-information-processing-systems-7-1994 [abgerufen am 08.08.2018] *
P. Melville, R. J. Mooney, „Diverse Ensembles for Active Learning", Proceedings of the 21st Conference on Machine Learning, Banff (2004
Settles, Burr: Active Learning Literature Survey, Computer Sciences Technical Report 1648, University of Wisconsin–Madison, 2009, S. i-ii, 1-2, 4, 7-21,31-32,43-44. URL: http://burrsettles.com/pub/settles.activelearning.pdf [abgerufen am 08.08.2018] *

Similar Documents

Publication Publication Date Title
Papernot et al. Deep k-nearest neighbors: Towards confident, interpretable and robust deep learning
Marbouti et al. Models for early prediction of at-risk students in a course using standards-based grading
US9928423B2 (en) Efficient retrieval of anomalous events with priority learning
Sensoy et al. Evidential deep learning to quantify classification uncertainty
Abdallah et al. Adaptive mobile activity recognition system with evolving data streams
Vlahogianni et al. Driving analytics using smartphones: Algorithms, comparisons and challenges
Lopez-Martin et al. Conditional variational autoencoder for prediction and feature recovery applied to intrusion detection in iot
Ross et al. Exponentially weighted moving average charts for detecting concept drift
US10089692B1 (en) Risk evaluation based on vehicle operator behavior
Verron et al. Fault detection and identification with a new feature selection based on mutual information
Varshney et al. On the safety of machine learning: Cyber-physical systems, decision sciences, and data products
US10831577B2 (en) Abnormality detection system, abnormality detection method, abnormality detection program, and method for generating learned model
Williams et al. Traffic management center use of incident detection algorithms: Findings of a nationwide survey
US10324467B1 (en) Controller systems and methods of limiting the operation of neural networks to be within one or more conditions
Akram et al. Group decision-making methods based on hesitant N-soft sets
US9852019B2 (en) System and method for abnormality detection
US20180268292A1 (en) Learning efficient object detection models with knowledge distillation
US9239989B2 (en) Computer-implemented system with adaptive cognitive features and method of using the same
O'Kelly et al. Scalable end-to-end autonomous vehicle testing via rare-event simulation
US20100305806A1 (en) Portable Multi-Modal Emergency Situation Anomaly Detection and Response System
Yu et al. Headway-based bus bunching prediction using transit smart card data
Baig et al. GMDH-based networks for intelligent intrusion detection
CN105122270A (zh) 使用深度传感器计数人的方法和系统
CN103493019B (zh) 多代理程序合作车辆故障诊断系统和相关联的方法
US20140324747A1 (en) Artificial continuously recombinant neural fiber network

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06N0003080000

R163 Identified publications notified