DE102019206212A1 - Verfahren zum Durchführen von computerunterstützten Simulationen - Google Patents

Verfahren zum Durchführen von computerunterstützten Simulationen Download PDF

Info

Publication number
DE102019206212A1
DE102019206212A1 DE102019206212.1A DE102019206212A DE102019206212A1 DE 102019206212 A1 DE102019206212 A1 DE 102019206212A1 DE 102019206212 A DE102019206212 A DE 102019206212A DE 102019206212 A1 DE102019206212 A1 DE 102019206212A1
Authority
DE
Germany
Prior art keywords
representation
neural network
model
output
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019206212.1A
Other languages
English (en)
Inventor
Turgay Aslandere
Evangelos BITSANIS
Michael Marbaix
Frederic Stefan
Marie Roger Alain Chevalier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Priority to DE102019206212.1A priority Critical patent/DE102019206212A1/de
Priority to US16/862,329 priority patent/US11544430B2/en
Publication of DE102019206212A1 publication Critical patent/DE102019206212A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Durchführen von computerunterstützten Simulationen, mit den Schritten:Einlesen eines Eingabe-Datensatzes (ED), der auf Nutzerinteraktionen (I) eines Nutzers (12) indikativ für eine Manipulation einer Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) eines Modells (M1, M2, M3) beruht,Bereitstellen eines Tracking-Datensatzes (TD) indikativ für Änderungen der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) durch die Manipulationen durch Auswerten des Eingabe-Datensatzes (ED),Bereitstellen eines Ausgabe-Datensatzes (AD), der auf Auswerten des Tracking-Datensatzes (TD) mittels maschinellen Lernens beruht, wobei der Ausgabe-Datensatz (AD) ein Modell (M1, M2, M3) der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) zuordnet, undAusgeben des Ausgabe-Datensatzes (AD).

Description

  • Die Erfindung betrifft ein Verfahren zum Durchführen von computerunterstützten Simulationen.
  • Computerunterstützte Simulationen werden z.B. in der Automobilindustrie eingesetzt. Sie werden nicht nur zur Entwicklung neuer Systeme eingesetzt, sondern auch zum Testen, Verifizieren und Validieren bestehender Systeme. Der Einsatzbereich in der Automobilindustrie erstreckt sich dabei von der Motorenentwicklung bis zum autonomen Fahren.
  • Bekannte Systeme zum Durchführen von computerunterstützten Simulationen weisen einfache Benutzeroberflächen mit grafischen Elementen repräsentativ für Modellkomponenten auf. Derartige Systeme sind z.B. aus der US 9607113 bekannt.
  • Allerdings nimmt der Komplexitätsgrad der zu simulierenden Systeme immer weiter zu und die Systeme werden zunehmend undurchschaubarer.
  • Es besteht also Bedarf daran, Wege aufzuzeigen, wie eine intuitive Interaktion und optische Darstellung ermöglicht werden kann.
  • Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zum Durchführen von computerunterstützten Simulationen, mit den Schritten:
    • Einlesen eines Eingabe-Datensatzes, der auf Nutzerinteraktionen eines Nutzers indikativ für eine Manipulation einer Repräsentation eines Modells beruht,
    • Bereitstellen eines Tracking-Datensatzes indikativ für Änderungen der Repräsentation durch die Manipulationen durch Auswerten des E ingabe-Datensatzes, Bereitstellen eines Ausgabe-Datensatzes, der auf Auswerten des Tracking-Datensatzes mittels maschinellen Lernens beruht, wobei der Ausgabe-Datensatz ein Modell der Repräsentation zuordnet, und
  • Ausgeben des Ausgabe-Datensatzes.
  • Bei der Repräsentation handelt es sich um einen Datensatz zur optischen Wiedergabe, wie z.B. ein Bild von einer Brennkraftmaschine, ein Getriebe oder ein Fahrwerk. Mit anderen Worten, durch z.B. ein Antippen einer auf einem Touchscreen dargestellten Repräsentation wird diese ausgewählt und ihr ein erlerntes Modell zugeordnet, wie z.B. ein Modell für eine Brennkraftmaschine, ein Getriebe oder ein Fahrwerk. So wird eine intuitive Interaktion und optische Darstellung erreicht.
  • Gemäß einer Ausführungsform umfasst das maschinelle Lernen ein Verwenden eines trainierten künstlichen neuronalen Netzes zum Durchführen einer Modellklassifikation. Dabei wird unter maschinellen Lernen ein Generieren von Wissen aus Erfahrung verstanden. Das künstliche neuronale Netz lernt während einer Trainingsphase aus Beispielen und kann diese nach Beendigung der Trainingsphase verallgemeinern. D.h., das künstliche neuronale Netz lernt nicht einfach die Beispiele auswendig, sondern das künstliche neuronale Netz erkennt Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das künstliche neuronale Netz auch unbekannte Daten beurteilen
  • Gemäß einer weiteren Ausführungsform wird als trainiertes künstliches neuronales Netz ein tiefes Netz verwendet. Unter einem tiefen neuronalen Netz wird dabei ein künstliches neuronales Netz verstanden, dessen künstliche Neuronen schichtweise in einer Eingangs- und einer Ausgangsschicht sowie auch in einer oder mehreren Zwischenschichten angeordnet sind.
  • Gemäß einer weiteren Ausführungsform wird das trainierte künstliche neuronale Netz durch überwachtes Lernen trainiert. Es wird also anhand von Ein- und Ausgabedatensätzen gelernt. Dabei werden während der Trainingsphase korrekte Funktionswerte zu den jeweiligen Eingabedatensätzen bereitgestellt. Ziel beim überwachten Lernen ist es, dass dem künstlichen neuronalen Netz nach mehreren Trainingsdurchgängen mit unterschiedlichen Ein- und Ausgabedatensätzen die Fähigkeit antrainiert wird, Assoziationen herzustellen.
  • Ferner gehören zur Erfindung ein System zum Durchführen derartiger Simulationen, ein Eingabegerät und ein Computerprogrammprodukt für ein derartiges Eingabegerät, ein Ausgabegerät und ein Computerprogrammprodukt für ein derartiges Ausgabegerät, eine Plattform und ein Computerprogrammprodukt für eine derartige Plattform sowie eine Trackingeinheit und ein Computerprogrammprodukt für eine derartige Trackingeinheit.
  • Es wird nun die Erfindung anhand einer Zeichnung erläutert. Es zeigen:
    • 1 in schematischer Darstellung ein System zum Durchführen von computerunterstützten Simulationen.
    • 2 in schematischer Darstellung eine weitere Komponente des in 1 gezeigten Systems.
    • 3 in schematischer Darstellung Komponenten des in 1 gezeigten System während zweier Zustände.
    • 4 in schematischer Darstellung einen Verfahrensablauf zum Betrieb des in 1 gezeigten Systems.
  • Es wird zunächst auf Figur 1 Bezug genommen.
  • Dargestellt ist ein System 2 zum Durchführen von computerunterstützten Simulationen. Das System 2 weist hierzu - wie nachfolgend beschrieben wird - Hard- und/oder Software-Komponenten auf.
  • Im vorliegenden Ausführungsbeispiel soll ein Antriebsstrang eines Kraftfahrzeugs mit den Komponenten Brennkraftmaschine und Getriebe sowie Fahrwerk simuliert werden.
  • Das System 2 weist hierzu im vorliegenden Ausführungsbeispiel ein Eingabegerät 4, ein Ausgabegerät 6, eine Plattform 8 und eine Trackingeinheit 10 auf.
  • Für die nachfolgend beschriebenen Aufgaben und Funktionen weisen das Eingabegerät 4, das Ausgabegerät 6, die Plattform 8 und die Trackingeinheit 10 jeweils Hard- und/oder Software-Komponenten auf.
  • Das Eingabegerät 4 und das Ausgabegerät 6 können zu einem Gerät zusammengefasst sein, d.h. es handelt sich um ein kombiniertes Eingabe-/Ausgabegerät.
  • Im vorliegenden Ausführungsbeispiel sind das Eingabegerät 4 und das Ausgabegerät 6 zwei getrennte Geräte.
  • Das Eingabegerät 4 ist im vorliegenden Ausführungsbeispiel ein Touchscreen, dessen Anordnung und Bildschirmfläche einem Tisch entspricht. Somit ist das Eingabegerät 4 dazu ausgebildet, basierend auf Repräsentationen A1, B1, C1 einen jeweiligen Datensatz optisch wiederzugeben. Im vorliegenden Ausführungsbeispiel sind die Repräsentationen A1, B1, C1 jeweils einem Bild einer Brennkraftmaschine, eines Getriebes und eines Fahrwerks zugeordnet.
  • Das Ausgabegerät 6 ist im vorliegenden Ausführungsbeispiel ein Bildschirm. Mit dem Ausgabegerät 6 kann z.B. eine virtuelle Realität erzeugt werden. Z.B. kann das Ausgabegerät 6 ein Wanddisplay (Powerwall), bestehend aus mehreren Einzeldisplays, ein Raum zur Projektion einer dreidimensionalen Illusionswelt einer virtuellen Realität (CAVE - Cave Automatic Virtual Environment) oder ein Head-Mounted Display (HMD) sein, dass ein auf dem Kopf zu tragendes visuelles Ausgabegerät ist und Bilddaten entweder auf einem augennahen Bildschirm oder direkt auf die Netzhaut des HMD-Trägers projiziert.
  • Die Plattform 8 ist dazu ausgebildet die Simulation z.B. unter Verwendung von Simulationssoftware, wie z.B. Matlab - Simulink (Mathworks), auszuführen. Im vorliegenden Ausführungsbeispiel führt die Plattform Simulationen basierend auf dem Modell M1 für eine Brennkraftmaschine, auf dem Modell M2 für ein Getriebe und auf dem Modell M3 basierend für ein Fahrwerk aus.
  • Ferner verwaltet - wie dies später noch detailliert erläutert wird - die Plattform 8 die Zuordnung der Repräsentationen A1, B1, C1 zu den jeweiligen Modellen M1, M2, M3.
  • Die Trackingeinheit 10 ist dazu ausgebildet, Manipulationen durch Nutzerinteraktionen I eines Nutzers 12 einer der Repräsentationen A1, B1, C1 zu erfassen und auszuwerten. Hierzu liest im vorliegenden Ausführungsbeispiel die Trackingeinheit 10 einen von dem Ausgabegerät 4 bereitgestellten Eingabe-Datensatz ED ein, dessen Daten z.B. repräsentativ für eine Position und Art der jeweiligen Repräsentation A1, B1, C1 sind, die mit Hilfe des Eingabegerätes 4 dargestellt werden.
  • Des Weiteren ist die Trackingeinheit 10 dazu ausgebildet, basierend auf einer Auswertung des Eingabe-Datensatzes ED einen Tracking-Datensatz TD indikativ für Änderungen der Repräsentation A1, A2, A3, ... An durch die Manipulationen bereitzustellen.
  • Ferner ist die Trackingeinheit 10 dazu ausgebildet, basierend auf einer Auswertung des Tracking-Datensatzes TD einen Ausgabe-Datensatz AD zu erzeugen, der zur Wiedergabe an das Ausgabegerät 6 übertragen wird, wobei dessen Daten auch repräsentativ für Manipulationen, z.B. der Positionen der jeweiligen Repräsentation A1, B1, C1, sind.
  • Es wird nun unter zusätzlicher Bezugnahme auf 2 erläutert, wie die Plattform 8 die Repräsentationen A1, B1, C1 den jeweiligen Modellen M1, M2, M3 zuordnet.
  • Hierzu ist der Plattform 8 ein trainiertes künstliches neuronales Netz 14 zum Durchführen einer Modellklassifikation zugeordnet. Dabei wird unter einer Modellklassifizierung ein Zuordnen von Objekten, d.h. von den Repräsentationen A1, A2, A3, ... An und B1, B2, B3, ... Bn sowie C1, C2, C3, ... C, zu den jeweiligen Modellen M1, M2, M3 verstanden.
  • Das künstliche neuronale Netz 14 kann z.B. ein Convolutional Neural Network (CNN oder ConvNet) oder ein Residual Neural Network (ResNet) sein.
  • Das künstliche neuronale Netz 14 ist im vorliegenden Ausführungsbeispiel ein sogenanntes tiefes neuronales Netz mit einer Mehrzahl von künstlichen Neuronen 16, die in mehreren Schichten angeordnet sind. Eine Schicht ist eine Eingangsschicht 18, zwei weitere Schichten sind Zwischenschichten 20, 22, und eine weitere Schicht ist eine Ausgangsschicht 24.
  • Jedem künstlichen Neuron der Mehrzahl der künstlichen Neuronen 16 ist eine Aktivierungsfunktion zugeordnet, die die jeweiligen Eingänge mit den Ausgängen des betreffenden künstlichen Neurons verknüpft. Die Aktivierungsfunktionen weisen Gewichtsfaktoren auf, deren Werte während einer Trainingsphase optimiert werden, z.B. mit deep-learning-Algorithmen.
  • Im vorliegenden Ausführungsbeispiel wurde das künstliche neuronale Netz 14 durch überwachtes Lernen trainiert, d.h. es wurde anhand von vorbestimmten Ein- und Ausgabedatensätzen gelernt.
  • Somit ist das trainierte künstliche neuronale Netz 14 dazu ausgebildet, die Repräsentationen A1, A2, A3, ... An dem Modell M1, die Repräsentationen B1, B2, B3, ... Bn dem Modell M2 und die Repräsentationen C1, C2, C3, ... Cn dem Modell M3 zuzuordnen.
  • Es wird nun unter zusätzlicher Bezugnahme auf 3 der Betrieb des Systems 2 erläutert.
  • Dargestellt sind das Eingabegerät 4 und die Plattform 8 während eines ersten Zustands S1 vor einer Nutzerinteraktion I und während eines zweiten Zustands S2 nach der Nutzerinteraktion I.
  • Zu erkennen ist, dass durch die Nutzerinteraktion I die Repräsentationen A1, B1, C1 neu positioniert wurden, und zwar in einer Anordnung entsprechend ihrem Zusammenwirken. Analog werden von der Plattform 8 die den Repräsentationen A1, B1, C1 zugeordneten Modelle M1, M2, M3 durch eine automatische Abbildung neu konfiguriert, und zwar entsprechend ihrem Zusammenwirken.
  • Es wird nun unter zusätzlicher Bezugnahme auf 4 ein detaillierter Verfahrensablauf zum Betrieb des Systems 2 erläutert.
  • In einem ersten Schritt S100 startet der Nutzer 12 das System 2.
  • In einem weiteren Schritt S200 wird geprüft, ob bereits eine Zuordnung von den Repräsentationen A1, A2, A3, ... An und B1, B2, B3, ... Bn sowie C1, C2, C3, ... C zu den jeweiligen Modellen M1, M2, M3 vorliegt oder nicht.
  • Wenn eine Zuordnung vorliegt wird das Verfahren mit einem weiteren Schritt S300 fortgesetzt. In dem Schritt S300 werden Manipulationen durch Nutzerinteraktionen I des Nutzers 12 verfolgt und der Tracking-Datensatz TD erstellt.
  • In einem weiteren Schritt S400 wird dann der Tracking-Datensatz TD zu der Plattform 8 übertragen.
  • In einem weiteren Schritt S500 bestimmt die Plattform 8 unter zu Hilfenahme des trainierten künstlichen Netzes 14, welches der Modelle M1, M2, M3 zu einer der vorliegenden Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn gehört.
  • In einem weiteren Schritt S600 stellt die Plattform 8 den Ausgabe-Datensatz AD bereit und aktualisiert entsprechend die Simulation, d.h. die Position der jeweiligen Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn sowie die die jeweiligen Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn bzw. Modell M1, M2, M3 verbindenden Eingangs- und Ausgangsgrößen.
  • Wenn in einem weiteren Schritt S700 eine vorbestimmte Nutzerinteraktion I erfasst wurde beendet das System 2 in einem weiteren Schritt S800 eine weitere Manipulation einer der Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn.
  • Wenn hingegen keine Zuordnung vorliegt wird das Verfahren mit einem weiteren Schritt S900 fortgesetzt. In dem Schritt S900 wird automatisch eine Zuordnung der Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... C erstellt.
  • In einem weiteren Schritt S1000 wird geprüft, ob die Zuordnungen und die Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... C bereits existieren.
  • Wenn die Zuordnungen bereits existieren wird das Verfahren mit einem weiteren Schritt S1100 fortgesetzt. In dem weiteren Schritt S1100 werden Trainingsdaten, d.h. Eingangs- und dazu korrespondierende Ausgangsdatensätze, zum Trainieren des künstlichen neuronalen Netzes 14 erzeugt.
  • Wenn hingegen die Zuordnungen nicht existieren wird das Verfahren mit einem weiteren Schritt S1200 fortgesetzt. In dem weiteren Schritt S1200 werden die Zuordnungen der Repräsentationen A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... C zu den jeweiligen Modellen M1, M2, M3 gebildet.
  • So wird eine besonders intuitive Interaktion und optische Darstellung erreicht.
  • Bezugszeichenliste
  • 2
    System
    4
    Eingabegerät
    6
    Ausgabegerät
    8
    Plattform
    10
    Trackingeinheit
    12
    Nutzer
    14
    künstliches neuronales Netz
    16
    Neuronen
    18
    Eingangsschicht
    20
    Zwischenschicht
    22
    Zwischenschicht
    24
    Ausgangsschicht
    A1
    Repräsentation
    A2
    Repräsentation
    A3
    Repräsentation
    An
    Repräsentation
    AD
    Ausgabe-Datensatz
    B1
    Repräsentation
    B2
    Repräsentation
    B3
    Repräsentation
    Bn
    Repräsentation
    C1
    Repräsentation
    C2
    Repräsentation
    C3
    Repräsentation
    Cn
    Repräsentation
    ED
    Eingabe-Datensatz
    I
    Nutzerinteraktion
    M1
    Modell
    M2
    Modell
    M3
    Modell
    S1
    Zustand
    S2
    Zustand
    TD
    Tracking-Datensatz
    S100
    Schritt
    S200
    Schritt
    S300
    Schritt
    S400
    Schritt
    S500
    Schritt
    S600
    Schritt
    S700
    Schritt
    S800
    Schritt
    S900
    Schritt
    S1000
    Schritt
    S1100
    Schritt
    S1200
    Schritt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9607113 [0003]

Claims (16)

  1. Verfahren zum Durchführen von computerunterstützten Simulationen, mit den Schritten: Einlesen eines Eingabe-Datensatzes (ED), der auf Nutzerinteraktionen (I) eines Nutzers (12) indikativ für eine Manipulation einer Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) eines Modells (M1, M2, M3) beruht, Bereitstellen eines Tracking-Datensatzes (TD) indikativ für Änderungen der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) durch die Manipulationen durch Auswerten des Eingabe-Datensatzes (ED), Bereitstellen eines Ausgabe-Datensatzes (AD), der auf Auswerten des Tracking-Datensatzes (TD) mittels maschinellen Lernens beruht, wobei der Ausgabe-Datensatz (AD) ein Modell (M1, M2, M3) der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) zuordnet, und Ausgeben des Ausgabe-Datensatzes (AD).
  2. Verfahren nach Anspruch 1, wobei das maschinelle Lernen ein Verwenden eines trainierten künstlichen neuronalen Netzes (14) zum Durchführen einer Modellklassifikation umfasst.
  3. Verfahren nach Anspruch 1 oder 2, wobei als trainiertes künstliches neuronales Netz (14) ein tiefes Netz verwendet wird.
  4. Verfahren nach Anspruch 2 oder 3, wobei das trainierte künstliche neuronale Netz (14) durch überwachtes Lernen trainiert wird.
  5. System (2) zum Durchführen von computerunterstützten Simulationen, mit einem Eingabegerät (4), dazu ausgebildet, einen Eingabe-Datensatz (ED) bereitzustellen, der auf Nutzerinteraktionen (I) eines Nutzers (12) indikativ für eine Manipulation einer Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) eines Modells (M1, M2, M3) beruht, einer Trackingeinheit (10), dazu ausgebildet, einen Tracking-Datensatz (TD) indikativ für Änderungen der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) durch die Manipulationen durch Auswerten des Eingabe-Datensatzes (ED) bereitzustellen, einer Plattform (8), dazu ausgebildet, einen Ausgabe-Datensatz (AD) bereitzustellen, der auf Auswerten des Tracking-Datensatzes (TD) mittels maschinellen Lernens beruht, wobei der Ausgabe-Datensatz (AD) ein Modell (M1, M2, M3) der Repräsentation (A1, A2, A3, ... An; B1, B2, B3, ... Bn; C1, C2, C3, ... Cn) zuordnet, und mit einem Ausgabegerät (6), dazu ausgebildet den Ausgabe-Datensatz (AD) auszugeben.
  6. System (2) nach Anspruch 5, wobei das maschinelle Lernen ein Verwenden eines trainierten künstlichen neuronalen Netzes (14) zum Durchführen einer Modellklassifikation umfasst.
  7. System (2) nach Anspruch 5 oder 6, wobei das trainierte künstliche neuronale Netz (14) ein tiefes Netz ist.
  8. System (2) nach Anspruch 6 oder 7, wobei das trainierte künstliche neuronale Netz (14) durch überwachtes Lernen trainiertes künstliches neuronales Netz ist.
  9. Eingabegerät (4) für ein System (2) nach einem der Ansprüche 5 bis 8.
  10. Computerprogrammprodukt für ein Eingabegerät (4) nach Anspruch 9.
  11. Trackingeinheit (10) für ein System (2) nach einem der Ansprüche 5 bis 8.
  12. Computerprogrammprodukt für eine Trackingeinheit (10) nach Anspruch 11.
  13. Plattform (8) für ein System (2) nach einem der Ansprüche 5 bis 8.
  14. Computerprogrammprodukt für eine Plattform (8) nach Anspruch 13.
  15. Ausgabegerät (6) für ein System (2) nach einem der Ansprüche 5 bis 8.
  16. Computerprogrammprodukt für ein Ausgabegerät (6) nach Anspruch 15.
DE102019206212.1A 2019-04-30 2019-04-30 Verfahren zum Durchführen von computerunterstützten Simulationen Pending DE102019206212A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019206212.1A DE102019206212A1 (de) 2019-04-30 2019-04-30 Verfahren zum Durchführen von computerunterstützten Simulationen
US16/862,329 US11544430B2 (en) 2019-04-30 2020-04-29 Advanced model mapping and simulations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206212.1A DE102019206212A1 (de) 2019-04-30 2019-04-30 Verfahren zum Durchführen von computerunterstützten Simulationen

Publications (1)

Publication Number Publication Date
DE102019206212A1 true DE102019206212A1 (de) 2020-11-05

Family

ID=72838999

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206212.1A Pending DE102019206212A1 (de) 2019-04-30 2019-04-30 Verfahren zum Durchführen von computerunterstützten Simulationen

Country Status (2)

Country Link
US (1) US11544430B2 (de)
DE (1) DE102019206212A1 (de)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607113B1 (en) 2012-06-26 2017-03-28 The Mathworks, Inc. Linking of model elements to spatial elements
US11003988B2 (en) * 2016-11-23 2021-05-11 General Electric Company Hardware system design improvement using deep learning algorithms
DE112019001605T5 (de) * 2018-03-27 2020-12-17 Nvidia Corporation Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen

Also Published As

Publication number Publication date
US11544430B2 (en) 2023-01-03
US20200349307A1 (en) 2020-11-05

Similar Documents

Publication Publication Date Title
EP3082000B1 (de) Verfahren und system zum testen eines mechatronischen systems
DE102005026040B4 (de) Parametrierung eines Simulations-Arbeitsmodells
DE102018206188A1 (de) System zum Durchführen von XiL-Tests von Komponenten selbstfahrender Kraftfahrzeuge
DE19639424A1 (de) Entwurfsverfahren für die Anlagentechnik und rechnergestütztes Projektierungssystem zur Verwendung bei diesem Verfahren
DE102006046203A1 (de) Verfahren zur rechnergestützten Bewertung von Softwarequellcode
DE102017211433B4 (de) Verfahren zum Durchführen eines Funktionstests eines Steuergeräts in einem Hardware-in-the-Loop-Test, HIL-Test, sowie HIL-Prüfstand und Steuergerät
EP2866111B1 (de) Testen eines Steuergerätes mittels einer Testumgebung
DE102017120016A1 (de) Verfahren zur Konfiguration eines zum Testen eines elektronischen Steuergeräts eingerichteten Testgeräts sowie Konfigurationssystem
DE102019134053A1 (de) Verfahren zur kontinuierlichen Absicherung im Fahrversuch applizierter automatisierter Fahrfunktionen
EP3306295A1 (de) Verfahren und vorrichtung zum testen elektronischer steuerungen, insbesondere zum testen von automobilsteuerungen
DE102017007359A1 (de) Verfahren und System zum Überprüfen und/oder Modifizieren eines Arbeitsprozesses eines Roboters
DE10046742A1 (de) Vorrichtung und Verfahren für ein Fahrzeugentwurfssytem
Adams Human management of a hierarchical system for the control of multiple mobile robots
DE102019206212A1 (de) Verfahren zum Durchführen von computerunterstützten Simulationen
EP2193409B1 (de) System und verfahren zur modellierung von signalflüssen in automatisierungstechnischen anlagen
DE102020206327A1 (de) Verfahren und Vorrichtung zum Prüfen eines technischen Systems
EP3783493A1 (de) Verfahren zum testen eines systems auf eine anforderung
DE102019130040A1 (de) Verfahren und System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning
EP1505399A2 (de) Verfahren zum Erzeugen von Testdaten zum Austesten der Funktionsfähigkeit einer datenverarbeitenden Schaltung
DE102016101853A1 (de) Computerimplementiertes Verfahren zur Simulation eines Restbus-Steuergeräteverbundes
DE102019118002A1 (de) Verfahren und System zur Prüfung und/oder Montage eines Objekts mittels eines Roboters
DE102021111818A1 (de) Verfahren zum Betrieb eines Systems mit einer Mehrzahl von CAx- Modulen
DE102017120013A1 (de) Verfahren zur Konfiguration eines zum Testen eines elektronischen Steuergeräts eingerichteten Testgeräts sowie Konfigurationssystem
EP2942678B1 (de) Zuweisungsrevolver
DE102016106993A1 (de) Steuer- und Konfiguriereinheit sowie Verfahren zum Steuern und Konfigurieren eines Mikroskops

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017500000

Ipc: G06F0030000000

R082 Change of representative

Representative=s name: MARKOWITZ, MARKUS, DR.-ING., DE