DE102018222264A1 - Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage - Google Patents

Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage Download PDF

Info

Publication number
DE102018222264A1
DE102018222264A1 DE102018222264.9A DE102018222264A DE102018222264A1 DE 102018222264 A1 DE102018222264 A1 DE 102018222264A1 DE 102018222264 A DE102018222264 A DE 102018222264A DE 102018222264 A1 DE102018222264 A1 DE 102018222264A1
Authority
DE
Germany
Prior art keywords
date
encoder
data
decoder
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018222264.9A
Other languages
English (en)
Inventor
Oliver Willers
Sebastian Sudholt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018222264.9A priority Critical patent/DE102018222264A1/de
Publication of DE102018222264A1 publication Critical patent/DE102018222264A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

Verfahren zur Datenvorhersage basierend auf einem Eingabedatum (Y) mittels eines Verfahrens des maschinellen Lernens (eng.: ML-Function), wobei parallel zu der Datenvorhersage das Eingangsdatum (Y) mittels eines Autoencoders zu einem Decoderdatum (Y') rekonstruiert wird, wobei ein Distanzkriterium in Abhängigkeit von dem Eingangsdatum (Y) und dem Decoderdatum (Y') ermittelt wird, wobei das Distanzkriterium ein Plausibilitätsmaß für die Datenvorhersage repräsentiert.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren, ein Computerprogramm, ein maschinenlesbares Speichermedium sowie eine Vorrichtung zur Datenvorhersage mittels eines Verfahrens des maschinellen Lernens (ML function).
  • Stand der Technik
  • Der Einsatz von Verfahren des maschinellen Lernens ermöglicht eine Reihe von neuen und spannenden Anwendungen. Ein bekanntes Einsatzgebiet für Verfahren des maschinellen Lernens ist das Feld des Automatisierten Fahrens. Mit dem Übergang vom zumindest teilweise manuellen Fahrens (sog. Level 1, 2 Fahren) zum teilweise automatisierten Fahren (sog. Level 3, 4 und 5) entstehen grundsätzliche Probleme für die Systemsicherheit. Insbesondere der Einsatz von Verfahren des maschinellen Lernens für bzw. in sicherheitsrelevanten Funktionen erzeugt vollständig neue Probleme hinsichtlich der Systemsicherheit.
  • Aus D. Amodei, C. Olah, J. Steinhardt, P. F. Christiano, J. Schulman, and D. Mane, „Concrete problems in AI safety,“ CoRR, vol. abs/1606.06565, 2016. [Online]. sind „Unfälle“ als Probleme des maschinellen Lernens bekannt. Demnach sind Unfälle unerwünschtes oder schädigendes Verhalten, das auf ein mangelhaftes Design von Systemen der künstlichen Intelligenz mit Bezug zur realen Welt zurückzuführen ist. Das Paper kategorisiert die auftretenden Probleme in fünf Klassen, Verhinderung von Seiteffekten (engl.: avoiding side effects), Vermeidung von Reward Hacking (eng.: avoiding reward hacking), skalierbare Überwachung (eng.: scalable supervision), sicheres Erforschen (eng.: safe exploration) und Verteilungsverschiebung (eng.: distributional shift).
  • Aus S. Burton, L. Gauerhof, and C. Heinzemann, „Making the case for safety of machine learning in highly automated driving,“ in Computer Safety, Reliability, and Security, S. Tonetta, E. Schoitsch, and F. Bitsch, Eds. Cham: Springer International Publishing, 2017, pp. 5-16. sind Herausforderungen bekannt, die auftreten, wenn Verfahren des maschinellen Lernens im Bereich des zumindest teilweise automatisierten Fahrens angewendet werden. Das Paper legt einen besonderen Fokus auf funktionelle Unzulänglichkeiten bei der Erkennungsfunktion basierend auf faltenden künstlichen neuronalen Netzen (eng.: Convolutional Neural Networks). Ferner stellt das Paper Möglichkeiten zur Abwehr der sich daraus ergebenden Risiken vor.
  • Aus G. E. Hinton and R. R. Salakhutdinov, „Reducing the dimensionality of data with neural networks," Science, vol. 313, no. 5786, pp. 504-507, 2006. [Online]. ist bekannt, dass höher-dimensionale Daten in nieder-dimensionale Codes konvertiert werden können, indem ein mehrschichtiges künstliches neuronales Netz mit einer kleinen zentralen Schicht darauf trainiert wird, einen höher-dimensionalen Eingabevektor zu rekonstruieren. Der Gradientenabstieg (eng.: gradient descent) kann für die Feinabstimmung der Gewichte in einem künstlichen neuronalen Netz, das auch „Autoencoder“ genannt wird, angewendet werden.
  • Ein grundsätzliches Problem beim Einsatz von Verfahren des maschinellen Lernens für sicherheitsrelevante Funktionen ist, dass eine Datenvorhersage nur dann verlässlich ist, wenn die Eingangsdaten eine adäquate Qualität aufweisen und die gleiche bzw. ähnliche Verteilung aufweisen, wie der Datensatz, der zum Training des Verfahrens des maschinellen Lernens eingesetzt wurde.
  • Insbesondere für den Einsatz in offenen Szenarien (eng.: open context scenarios), wie bspw. bei dem zumindest teilweise automatisierten Fahren, birgt dies große Herausforderungen. Daher sind Plausibilitätsprüfungen der Eingangsdaten, die mittels des Verfahrens des maschinellen Lernens verarbeitet wurden, erforderlich.
  • Im Kontext des Automatisierten Fahrens, beschränken sich die aktuellen Plausibilitätsprüfungen auf den Vergleich der Ausgabedaten mehrerer Sensoren oder auf die Analyse der Eingangsdaten ausgehend von Expertenwissen (bspw. auf die Erkennung von schwierigen Umfeldbedingungen wie Nebel oder reduzierte Datenqualität durch Bewegungsunschärfe).
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund schafft die vorliegende Erfindung ein Verfahren zur Datenvorhersage basierend auf einem Eingabedatum mittels eines Verfahrens des maschinellen Lernens (eng.: ML function). Sowie ein entsprechendes Computerprogramm, ein entsprechendes maschinenlesbares Speichermedium sowie eine entsprechende Vorrichtung.
  • Vorteile der Erfindung
  • Ein Aspekt der vorliegenden Erfindung ist ein Verfahren zur Datenvorhersage basierend auf einem Eingabedatum mittels eines Verfahrens des maschinellen Lernens (eng.: ML function).
  • Die Erfindung basiert auf der Erkenntnis, dass parallel zu der Datenvorhersage mittels des Verfahrens des maschinellen Lernens (d.h. der künstlichen Wissenserzeugung) das Eingangsdatum mittels eines Autoencoders zunächst komprimiert und dann zu einem Decoderdatum rekonstruiert wird. In Abhängigkeit von dem Eingangsdatum und dem Decoderdatum wird ein Distanzkriterium ermittelt. Das Distanzkriterium repräsentiert ein Plausibilitätsmaß für die Datenvorhersage mittels des Verfahrens des maschinellen Lernens.
  • Unter einem Verfahren zur Datenvorhersage ist vorliegend ein Verfahren aus dem Bereich der künstlichen Intelligenz zu verstehen.
  • Unter einem Verfahren des maschinellen Lernens ist vorliegend ein Verfahren zur künstlichen Generierung von Wissen aus Erfahrung zu verstehen. Diese Verfahren basieren auf der Erkenntnis, dass aus Beispielen (d.h. aus bekannten Daten) erlernte Muster verallgemeinerbar sind und dadurch in unbekannten neuen Daten die erlernten Muster erkannt werden können. Dadurch entsteht künstliches Wissen aus den unbekannten neuen Daten.
  • Unter einem Datum, insbesondere unter einem Eingangsdatum oder Decoderdatum, ist vorliegend eine multidimensionale Datenrepräsentation zu verstehen. Im Bereich der Bildverarbeitung mittels eines Verfahrens aus dem Bereich der künstlichen Intelligenz kann dies bspw. die Repräsentation eines Bilds als Tensor nach Farbkanälen bspw. RGB und ggf. weiteren Kanälen sein.
  • Unter einem Autoencoder ist vorliegend ein Modell des maschinellen Lernens zu verstehen. Das Modell weist einen Encoder- und einen Decoder-Teil auf. Der Encoder-Teil qΘ (zlx) bildet Eingabedaten x eines ersten Merkmalsraums (eng.: feature space) auf einen kleineren Merkmalsraum (eng.: smaller feature space) z ab. Der kleinere Merkmalsraum z wird latenter Raum (eng.: latent space) genannt. Dazu kann bspw. ein künstliches neuronales Netz eingesetzt werden. Für diese Aufgabe muss der Encoder-Teil trainiert werden, um Parameter Θ zu ermitteln, die erforderlich sind, um die Eingabedaten beim Abbilden auf den kleiner dimensionalen latenten Raum z effizient zu komprimieren. Im Decoder-Teil pΦ(x|z) werden die komprimierten Eingabedaten aus dem kleiner dimensionalen latenten Raum z in den Merkmalsraum mit der ursprünglichen Dimensionsgröße mittels den ebenfalls erlernten Parametern Φ rekonstruiert.
  • Zum Training eines Autoencoders wird die nachstehende Verlustfunktion minimiert: L o s s ( Θ ,   Φ ) = i = 1 N E Z q Θ ( z , x i ) [ log p Φ ( x i | z ) ]
    Figure DE102018222264A1_0001
  • Dabei ist N die Anzahl der für das Training verwendeten Datenpunkte. Die Verlustfunktion ist die erwartete negative logarithmische Plausibilitätsfunktion (eng.: expected negative log-likelihood function) des i-ten Datenpunkts. Der Term fördert den Decoder-Teil die Eingangsdaten korrekt zu rekonstruieren.
  • Unter einem künstlichen neuronalen Netz ist vorliegend ein Netz aus künstlichen Neuronen zur Informationsverarbeitung zu verstehen. Künstliche neuronale Netze durchleben im Wesentlichen drei Phasen. In einer initialen Phase wird eine Basistopologie, meist abhängig von der Aufgabenstellung, vorgegeben. Danach folgt eine Trainingsphase, in der die Basistopologie zur effizienten Lösung der Aufgabenstellung mittels Trainingsdaten angelernt wird. Innerhalb der Trainingsphase kann auch die Topologie des Netzes angepasst werden.
  • Trainingsdaten zeichnen sich dadurch aus, dass typischerweise zu den Eingabedaten die gewünschten Ausgabedaten vorliegen. Schließlich folgt eine Anwendungsphase, in der das angelernte Netz auf Eingabedaten angesetzt wird, zu denen es keine gewünschten Ausgabedaten gibt. Die Ausgabedaten des angelernten Netzes stellen dann gemäß der Aufgabenstellung gesuchten Ausgabedaten dar.
  • Durch den Einsatz von künstlichen neuronalen Netzen lassen sich höher dimensionale Daten effizient in nieder dimensionale Räume abbilden und so auf einfach und schnelle Art und Weise komprimieren.
  • Unter einem Plausibilitätsmaß ist vorliegend ein Maß zu verstehen, das die Abweichung zwischen den Eingabedaten und den Trainingsdaten repräsentiert. Über dieses Maß kann festgestellt werden, ob die Eingabedaten eine zu den Trainingsdaten passende Verteilung aufweisen.
  • Zur Bestimmung des Distanzkriteriums kann im Falle des Autoencoders z.B. der mittlere quadratische Fehler (eng.: mean squared error) verwendet werden. Hierfür wird pro Pixel der quadratische Abstand zwischen dem Ausgangsbild y und dem rekonstruierten Bild y' berechnet. Anschließend wird darüber dann der Durchschnitt berechnet: d i s t ( y , y ' ) = 1 N i = 1 N ( y i y ' i ) 2
    Figure DE102018222264A1_0002
  • Mit N als die Anzahl der Pixel.
  • Das Verfahren gemäß der vorliegenden Erfindung weist den Vorteil auf, dass integral über das ermittelte Plausibilitätsmaß entschieden wird, ob das durch das Verfahren des maschinellen Lernens zu verarbeitende Eingangsdatum der gleichen Verteilung zugeordnet werden kann, wie die ursprünglich eingesetzten Trainingsdaten.
  • Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung weist der Autoencoder einen Encoder-Teil und einen Decoder-Teil auf und bildet zur Rekonstruktion das Eingangsdatum (Y) im Encoder-Teil mittels eines künstlichen neuronalen Netzes auf ein Encoderdatum (Z) ab. Im Decoder-Teil wird das Decoderdatum (Y`) aus dem Encoderdatum (Z) rekonstruiert.
  • Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung liegen das Eingangsdatum (Y) und das Decoderdatum (Y') in einer ersten Dimension vor. Das Encoderdatum (Z) liegt in einer zweiten Dimension vor. Die erste Dimension ist dabei größer als die zweite Dimension.
  • Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung sind das Verfahren des maschinellen Lernens und der Autoencoder auf der gleichen bzw. ähnlichen Verteilung an Trainingsdaten trainiert.
  • Hierdurch wird erreicht, dass das ermittelte Distanzkriterium unmittelbar ein Plausibilitätsmaß für die Datenvorhersage des Verfahrens des maschinellen Lernens repräsentiert. Da das Verfahren des maschinellen Lernens und der Autoencoder auf derselben Verteilung trainiert wurden, spricht ein großer Wert des Distanzkriteriums für eine große Abweichung der Verteilung des Eingangsdatums im Vergleich zu der Verteilung der Trainingsdaten und somit in Folge für eine geringere Verlässlichkeit der Datenvorhersage und somit für ein geringes Plausibilitätsmaß.
  • Nach einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung ist das Verfahren des maschinellen Lernens ein Verfahren zur Objektklassifikation bzw. Objekterkennung, insbesondere aus dem Bereich des zumindest teilweise automatisierten Fahrens.
  • Die vorliegende Erfindung eignet sich in besonderem Maße zu der Verwendung in einem Steuerungssystem für ein Aktorsystem. Unter einem Aktorsystem kann vorliegend ein Aktor in seiner Umgebung verstanden werden.
  • Ein Steuerungssystem nimmt typischerweise über mindestens einen Sensor den Zustand des Aktorsystems, d.h. des Aktors und dessen Umgebung auf und ermittelt entsprechende Ansteuersignale für den Aktor, um das übergeordnete Steuerungsziel zu erreichen.
  • Zur Ermittlung der entsprechenden Ansteuerungssignale können Sensorsignale des mindestens einen Sensors oder davon abgeleitete Signale, d.h. nachbearbeitete, insbesondere ausgewählte Sensorsignale, einem Verfahren zur Datenvorhersage gemäß der vorliegenden Erfindung zugeführt werden.
  • Über das Verfahren des maschinellen Lernens des Verfahrens der vorliegenden Erfindung wird (künstliches) Wissen generiert, das zur Steuerung des Aktorsystems, d.h. das zur Ermittlung entsprechender Ansteuersignale, herangezogen werden kann.
  • Gemäß der vorliegenden Erfindung wird für dieses Wissen ein Plausibilitätsmaß erzeugt. Dieses Plausibilitätsmaß kann herangezogen werden, um die Vertrauenswürdigkeit des erzeugten Wissens zu kennzeichnen und entsprechend dem ermittelten Plausibilitätsmaß das Wissen bei der Ermittlung entsprechender Ansteuersignale zu berücksichtigen. Bspw. das Wissen mit einer anpassten Gewichtung zu berücksichtigen oder, je nach Ausgestaltung, das Wissen als unplausibel zu verwerfen und dementsprechend nicht zu berücksichtigen.
  • Das Steuerungssystem kann insbesondere zur Steuerung eines zumindest teilweise automatisiert gesteuerten Roboters eingesetzt werden. Ein solcher zumindest teilweise automatisiert gesteuerter Roboter kann dabei ein zumindest teilweise automatisiert gesteuertes Fahrzeug, insbesondere Kraftfahrzeug, sein.
  • In einer solchen Ausgestaltung kann es sich bei dem mindestens einen Sensor um einen Umfeldsensor aus dem Automobilbereich, wie bspw. einem Video-, Radar-, Ultraschall-, Lidar-, Positionssensor (bspw. GNSS-Sensor) udgl., handeln. Ferner kann es sich bei dem mindestens einen Sensor um einen Zustandssensor aus dem Automobilbereich, wie bspw. einem Beschleunigungs-, Drehraten-, Druck-, Kraft-, Rotations-, Temperatur-, chemischen Sensor (bspw. Lambda-Sonde) udgl. handeln.
  • In einer solchen Ausgestaltung kann es sich bei dem Aktor um ein System zur Längs- (Brems-, Antriebssystem) oder Querbeschleunigung (Lenkungssystem) sowie um ein Sicherheitssystem, wie bspw. einem Airbagsystem oder einem System zum Schutz von Verkehrsteilnehmern (bspw. Fußgänger) oder ein Komfortsystem, wie bspw. der Entertainmentanlage, der Klimaanlage, der Fenstersteuerung, der Sitzsteuerung, des Beleuchtungssystems udgl., des Fahrzeugs handeln.
  • Ein weiterer Aspekt der vorliegenden Erfindung ist ein Computerprogramm, das eingerichtet ist, alle Schritte einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung auszuführen.
  • Ein weiterer Aspekt der vorliegenden Erfindung ist ein maschinenlesbares Speichermedium, auf dem das Computerprogramm gemäß der vorliegenden Erfindung gespeichert ist.
  • Zeichnungen
  • Ein weiterer Aspekt der vorliegenden Erfindung ist eine Vorrichtung, die eingerichtet ist, alle Schritte einer Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung auszuführen. Dazu weist die Vorrichtung entsprechende Mittel auf, um die jeweiligen Schritte des Verfahrens auszuführen. Bei diesen Mitteln kann es sich um entsprechend gestaltete bzw. eingerichtete Schnittstellen zur Ein- und Ausgabe, Recheneinheiten (Prozessoren, Mikroprozessoren, ASIC udgl.) und Speichereinheiten (RAM, ROM etc.) handeln.
  • Figurenliste
  • Weitere Merkmale und Vorteile der Aspekte der vorliegenden Erfindung werden nachfolgend anhand von Ausführungsformen mit Bezug auf die Figuren erläutert.
  • Es zeigen:
    • 1 eine schematische Darstellung eines Autoencoders;
    • 2 eine schematische Darstellung einer Datenvorhersage gemäß der vorliegenden Erfindung;
    • 3 ein Ablaufdiagramm einer Ausführungsform eines Verfahrens gemäß der vorliegenden Erfindung.
  • 1 zeigt eine schematische Darstellung eines Autoencoders 1. Ein Autoencoder 1 weist einen Encoder-Teil 11 und einen Decoder-Teil 12 auf. Der Encoder-Teil 11 qΘ (z|y) bildet Eingabedaten x eines ersten Merkmalsraums (eng.: feature space) auf einen kleineren Merkmalsraum (eng.: smaller feature space) z ab. Der kleinere Merkmalsraum z wird latenter Raum (eng.: latent space) genannt. Dazu kann bspw. ein künstliches neuronales Netz eingesetzt werden. Für diese Aufgabe muss der Encoder-Teil 11 trainiert werden, um die Parameter Θ zu ermitteln, die erforderlich sind, um die Eingabedaten y beim Abbilden auf den kleiner dimensionalen latenten Raum z effizient zu komprimieren. Im Decoder-Teil 12 pΦ(y|z) werden die komprimierten Eingabedaten aus dem kleiner dimensionalen latenten Raum z in den Merkmalsraum mit der ursprünglichen Dimensionsgröße mittels den ebenfalls erlernten Parametern Φ rekonstruiert.
  • Zum Training eines Autoencoders 1 wird die nachstehende Verlustfunktion minimiert: L o s s ( Θ ,   Φ ) = i = 1 N E Z q Θ ( z , y i ) [ log p Φ ( y i | z ) ]
    Figure DE102018222264A1_0003
  • Dabei ist N die Anzahl der für das Training verwendeten Datenpunkte. Die Verlustfunktion ist die erwartete negative logarithmische Plausibilitätsfunktion (eng.: expected negative log-likelihood function) des i-ten Datenpunkts. Der Term fördert den Decoder-Teil 12 die Eingangsdaten y korrekt zu rekonstruieren.
  • 2 zeigt eine schematische Darstellung einer Datenvorhersage gemäß der vorliegenden Erfindung. In der Darstellung werden Eingabedaten y sowohl einer Funktion des maschinellen Lernens 2 als auch einem Autoencoder 1 gemäß der vorliegenden Erfindung zugeführt. Während die Funktion des maschinellen Lernens 2 die Eingabedaten gemäß ihrem Modell verarbeitet und eine entsprechende Datenvorhersage erfolgt. Werden die Eingabedaten y mittels des Autoencoders 1 zunächst im Encoder-Teil 11 des Autoencoders 1 auf den latenten Merkmalsraum z abgebildet. Die so abgebildeten Eingabedaten y werden anschließend im Decoder-Teil 12 des Autoencoders 1 zu Ausgangsdaten y` (Decoderdatum) rekonstruiert. Anschließend erfolgt die Ermittlung eines Distanzkriteriums 22 in Bezug auf die Eingabedaten y und die rekonstruierten Ausgangsdaten y'. Der Block 23 stellt dar, dass das ermittelte Distanzkriterium ein Plausibilitätsmaß für die Datenvorhersage der Funktion des maschinellen Lernens 2 repräsentiert. Dadurch stellt die vorliegende Erfindung die Möglichkeit bereit die Datenvorhersage einer Funktion des maschinellen Lernens 2 mit einem Plausibilitätsmaß bzw. mit einer Plausibilitätsprüfung zu belegen.
  • 3 zeigt ein Ablaufdiagramm einer Ausführungsform eines Verfahrens gemäß der vorliegenden Erfindung. Das Verfahren beginnt im Schritt 301. In Schritt 302 erfolgt eine Datenvorhersage für Eingabedaten y mittels einer Funktion des maschinellen Lernens 2. Parallel zu der Datenvorhersage 302 erfolgt die Rekonstruktion 303 der Eingabedaten y mittels eines Autoencoders 1 gemäß der vorliegenden Erfindung. In Schritt 304 wird ein Distanzkriterium in Bezug auf die Eingabedaten y und die mittels des Autoencoders 1 rekonstruierten Ausgabedaten y` ermittelt. Dieses Distanzkriterium 22 repräsentiert ein Plausibilitätsmaß 23 für die Datenvorhersage 302 basierend auf den Eingabedaten y mittels der Funktion des maschinellen Lernens 2. In Schritt 305 kann die Ausgabe der vorhergesagten Daten zusammen bzw. in Abhängigkeit des Plausibilitätsmaßes 23 bzw. abhängig von dem Ergebnis einer Plausibilitätsprüfung basierend auf dem ermittelten Distanzkriterium 22 erfolgen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • G. E. Hinton and R. R. Salakhutdinov, „Reducing the dimensionality of data with neural networks,“ Science, vol. 313, no. 5786, pp. 504-507, 2006 [0005]

Claims (8)

  1. Verfahren (300) zur Datenvorhersage basierend auf einem Eingabedatum (Y) mittels eines Verfahrens des maschinellen Lernens, dadurch gekennzeichnet, dass parallel zu der Datenvorhersage (302) das Eingangsdatum (Y) mittels eines Autoencoders (1) zu einem Decoderdatum (Y') rekonstruiert (303) wird, wobei ein Distanzkriterium (22) in Abhängigkeit von dem Eingangsdatum (Y) und dem Decoderdatum (Y') ermittelt (304) wird, wobei das Distanzkriterium ein Plausibilitätsmaß für die Datenvorhersage repräsentiert.
  2. Verfahren (300) nach Anspruch 1, wobei der Autoencoder (1) einen Encoder-Teil (11) und einen Decoder-Teil (12) aufweist und zur Rekonstruktion (303) das Eingangsdatum (Y) im Encoder-Teil (11) mittels eines künstlichen neuronalen Netzes auf ein Encoderdatum (Z) abgebildet wird und das Decoderdatum (Y') im Decoder-Teil (12) aus dem Encoderdatum (Z) rekonstruiert wird.
  3. Verfahren (300) nach Anspruch 2, wobei das Eingangsdatum (Y) und das Decoderdatum (Y') in einer ersten Dimension vorliegen und das Encoderdatum (Z) in einer zweiten Dimension vorliegt, wobei die erste Dimension größer ist als die zweite Dimension.
  4. Verfahren (300) nach einem der vorhergehenden Ansprüche, wobei das Verfahren (302) des maschinellen Lernens und der Autoencoder (1) auf der gleichen und/oder ähnlichen Verteilung an Trainingsdaten trainiert sind.
  5. Verfahren (300) nach einem der vorhergehenden Ansprüche, wobei das Verfahren des maschinellen Lernens (302) ein Verfahren zur Objektklassifikation und/oder Objekterkennung, insbesondere aus dem Bereich des zumindest teilweise automatisierten Fahrens, ist.
  6. Computerprogramm, das eingerichtet ist, alle Schritte des Verfahrens (300) gemäß einem der vorhergehenden Ansprüchen auszuführen.
  7. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 6 gespeichert ist.
  8. Vorrichtung, die eingerichtet ist, alle Schritte des Verfahrens (300) gemäß einem der Ansprüche 1 bis 5 auszuführen.
DE102018222264.9A 2018-12-19 2018-12-19 Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage Pending DE102018222264A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018222264.9A DE102018222264A1 (de) 2018-12-19 2018-12-19 Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018222264.9A DE102018222264A1 (de) 2018-12-19 2018-12-19 Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage

Publications (1)

Publication Number Publication Date
DE102018222264A1 true DE102018222264A1 (de) 2020-06-25

Family

ID=70969801

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018222264.9A Pending DE102018222264A1 (de) 2018-12-19 2018-12-19 Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage

Country Status (1)

Country Link
DE (1) DE102018222264A1 (de)

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
AMODEI, Dario [u.a.]: Concrete problems in AI safety. 25-07-2016. 29 S. URL: https://arxiv.org/pdf/1606.06565.pdf [abgerufen am 2019-03-20]. - arXiv:1606.06565 *
BURTON, Simon ; GAUERHOF, Lydia ; HEINZEMANN, Christian: Making the case for safety of machine learning in highly automated driving. In: Computer safety, reliability, and security : SAFECOMP 2017 workshops, ASSURE, DECSoS, SASSUR, TELERISE, and TIPS, Trento, Italy, September 12, 2017, proceedings. Cham : Springer , 2017 (Lecture notes in computer science ; 10489). S. 5-16. - ISBN 978-3-319-66283-1. DOI: 10.1007/978-3-319-66284-8. *
G. E. Hinton and R. R. Salakhutdinov, „Reducing the dimensionality of data with neural networks," Science, vol. 313, no. 5786, pp. 504-507, 2006
HINTON, G. E. ; SALAKHUTDINOV, R. R.: Reducing the dimensionality of data with neural networks. In: Science, Vol. 313, 2006, No. 5786, S. 504-507. - ISSN 0036-8075 (p); 1095-9203 (e). DOI: 10.1126/science.1127647. URL: https://www.cs.toronto.edu/~hinton/science.pdf [abgerufen am 2018-06-05]. *
POMERLEAU, Dean A.: Input reconstruction reliability estimation. In: Advances in neural information processing systems 5. San Mateo, Calif.: Conference on Neural Information Processing Systems, Natural and Synthetic, 1993. S. 279-286. - ISBN 1-55860-274-7. *
RICHTER, Charles; ROY, Nicholas: Safe visual navigation via deep learning and novelty detection. In: Proceedings / Robotics Science and Systems XIII, July 12 – July 16, 2017. 9 S. - URL:http://www.roboticsproceedings.org/rss13/p64.html. *

Similar Documents

Publication Publication Date Title
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
DE102017205093A1 (de) Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
WO2020126597A1 (de) Verfahren, computerprogramm, maschinenlesbares speichermedium sowie vorrichtung zur datenvorhersage
DE102019209462A1 (de) Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes
EP3393875B1 (de) Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
WO2018202552A1 (de) Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
DE102021004426A1 (de) Verfahren zum Trainieren einer autonomen Fahrfunktion
EP3748453B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102017128082A1 (de) Meta-Architektur-Design für ein CNN-Netzwerk
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102019209554A1 (de) Verfahren zum Testen der Robustheit eines simulierbaren technischen Systems, Computerprogramm, maschinenlesbares Speichermedium und Vorrichtung sowie ein technisches System
DE102019213009A1 (de) Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten
EP3857455A1 (de) Maschinelles lernsystem, sowie ein verfahren, ein computerprogramm und eine vorrichtung zum erstellen des maschinellen lernsystems
DE102018222264A1 (de) Verfahren, Computerprogramm, maschinenlesbares Speichermedium sowie Vorrichtung zur Datenvorhersage
DE102019218349A1 (de) Verfahren zum Klassifizieren von zumindest einem Ultraschallecho aus Echosignalen
DE102019218127A1 (de) Verfahren und Vorrichtung zum optimalen Bereitstellen von KI-Systemen
DE102019207575A1 (de) Verfahren zum Beurteilen einer funktionsspezifischen Robustheit eines Neuronalen Netzes
DE102020208878A1 (de) Verfahren zur Kurvenerkennung
DE102017201222A1 (de) Verfahren und System zum maschinellen Lernen
WO2019201586A1 (de) Verfahren, computersystem und computerprogramm zum steuern eines aktors
DE102022206603A1 (de) Verfahren zur Handdetektion, Computerprogramm, und Vorrichtung
DE102021131179A1 (de) Formpriorisierte Bildklassifizierung unter Verwendung tiefer Faltungsnetze

Legal Events

Date Code Title Description
R163 Identified publications notified