DE102022212828A1 - Method and system for automatically generating a function - Google Patents

Method and system for automatically generating a function Download PDF

Info

Publication number
DE102022212828A1
DE102022212828A1 DE102022212828.1A DE102022212828A DE102022212828A1 DE 102022212828 A1 DE102022212828 A1 DE 102022212828A1 DE 102022212828 A DE102022212828 A DE 102022212828A DE 102022212828 A1 DE102022212828 A1 DE 102022212828A1
Authority
DE
Germany
Prior art keywords
data
function
training data
security
characteristic value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022212828.1A
Other languages
German (de)
Inventor
Volkmar Schöning
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102022212828.1A priority Critical patent/DE102022212828A1/en
Publication of DE102022212828A1 publication Critical patent/DE102022212828A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die vorgestellte Erfindung betrifft ein computerimplementiertes Verfahren (100) zum automatischen Generieren einer Funktion. Das Verfahren (100) umfasst:
- Ermitteln (101) eines Funktionssicherheitskennwerts der zu generierenden Funktion,
- Ermitteln (103) von Trainingsdaten aus einer externen Quelle (303) und den Trainingsdaten zugeordneten Quellinformationen,
- Bestimmen (105) eines Datensicherheitskennwerts der Trainingsdaten anhand der Quellinformationen,
- Abgleichen (107) des Funktionssicherheitskennwerts mit dem Datensicherheitskennwert,
- Trainieren (109) eines maschinellen Lerners der Funktion mittels der Trainingsdaten für den Fall, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist,
- Ausgeben (111) eines Verzeichnisses, das die Quellinformationen jeweiliger Trainingsdaten umfasst,
- Generieren (113) der Funktion unter Verwendung des maschinellen Lerners,
- Einstellen (115) einer Maschine (305) durch die Funktion.

Figure DE102022212828A1_0000
The invention presented relates to a computer-implemented method (100) for automatically generating a function. The method (100) comprises:
- determining (101) a functional safety characteristic value of the function to be generated,
- determining (103) training data from an external source (303) and source information associated with the training data,
- determining (105) a data security index of the training data based on the source information,
- comparing (107) the functional safety index with the data safety index,
- training (109) a machine learner of the function using the training data in the event that the data security index is greater than or equal to the functional security index,
- outputting (111) a directory comprising the source information of respective training data,
- generating (113) the function using the machine learner,
- Setting (115) of a machine (305) by the function.
Figure DE102022212828A1_0000

Description

Die vorgestellte Erfindung betrifft ein Verfahren und ein System zum automatischen Generieren einer Funktion sowie ein entsprechendes Programmprodukt gemäß den beigefügten Ansprüchen.The presented invention relates to a method and a system for automatically generating a function as well as a corresponding program product according to the appended claims.

Sogenannte künstliche Intelligenz bzw. maschinelles Lernen findet vermehrt Anwendung in verschiedenen Einsatzgebieten. Zum Trainieren eines maschinellen Lerners werden große Datenmengen benötigt. Dabei nehmen die Trainingsdaten großen Einfluss auf eine Struktur eines jeweiligen maschinellen Lerners.So-called artificial intelligence or machine learning is increasingly being used in various fields. Large amounts of data are required to train a machine learner. The training data has a major influence on the structure of a particular machine learner.

Entsprechend kann ein maschineller Lerner durch ungeeignete Trainingsdaten, d. h. Trainingsdaten von schlechter Qualität verschlechtert werden. Im schlechtesten Fall führen qualitativ minderwertige Daten zu falschen Ergebnissen.Accordingly, a machine learner can be impaired by unsuitable training data, i.e. training data of poor quality. In the worst case, poor-quality data leads to incorrect results.

Im Gegensatz zu geschlossenen Systemen, bei denen interne, d. h. im System sensorisch ermittelte Daten zum Training eines maschinellen Lerners verwendet werden, unterliegen Trainingsdaten aus externen Quellen, wie bspw. dem Internet nicht der vollständigen Kontrolle durch ein jeweiliges System, sodass Trainingsdaten aus externen Quellen manipuliert bzw. falsch sein können.In contrast to closed systems, in which internal data, i.e. data obtained from sensors in the system, is used to train a machine learner, training data from external sources, such as the Internet, is not subject to complete control by a particular system, so that training data from external sources can be manipulated or incorrect.

Bekannte Systeme können die Qualität von Trainingsdaten nicht bewerten. Deshalb besteht immer die Gefahr, dass maschinelles Lernen zu formal logischen aber praktisch falschen Ergebnissen führt.Known systems cannot evaluate the quality of training data. Therefore, there is always the risk that machine learning will lead to formally logical but practically incorrect results.

Für die Validierung von Trainingsdaten kommen mehrere Prüfungsverfahren in Betracht, wie bspw. das Lektorat oder Peer-Review, das Vier-Augen-Prinzip (gegenseitige Kontrolle) oder Mehrheitsentscheide bei unterschiedlichen Ergebnissen.Several testing procedures can be used to validate training data, such as proofreading or peer review, the four-eyes principle (mutual control) or majority decisions in the event of differing results.

Im Rahmen der vorgestellten Erfindung werden ein Verfahren und ein System zum automatischen Generieren einer Funktion vorgestellt. Weitere Merkmale und Details der Erfindung ergeben sich aus den jeweiligen Unteransprüchen, der Beschreibung und den Zeichnungen. Dabei gelten Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben sind, selbstverständlich auch im Zusammenhang mit dem erfindungsgemäßen System und jeweils umgekehrt, sodass bezüglich der Offenbarung zu den einzelnen Erfindungsaspekten stets wechselseitig Bezug genommen wird bzw. werden kann.Within the scope of the invention presented, a method and a system for automatically generating a function are presented. Further features and details of the invention emerge from the respective subclaims, the description and the drawings. Features and details that are described in connection with the method according to the invention naturally also apply in connection with the system according to the invention and vice versa, so that with regard to the disclosure of the individual aspects of the invention, reference is always made to each other.

Vor diesem Hintergrund ist es eine Aufgabe der vorgestellten Erfindung, eine Möglichkeit zum Validieren von Trainingsdaten für ein Training eines maschinellen Lerners zum Bereitstellen einer Funktion zum Steuern einer Maschine bereitzustellen. Insbesondere dient die vorgestellte Erfindung dazu, eine Anpassung eines maschinellen Lerners durch ein Training mit Trainingsdaten zu kontrollieren.Against this background, it is an object of the invention presented to provide a possibility for validating training data for training a machine learner to provide a function for controlling a machine. In particular, the invention presented serves to control an adaptation of a machine learner by training with training data.

Es wird somit gemäß einem ersten Aspekt der vorgestellten Erfindung ein computerimplementiertes Verfahren zum automatischen Generieren einer Funktion vorgestellt. Das vorgestellte Verfahren umfasst das Ermitteln eines Funktionssicherheitskennwerts der zu generierenden Funktion, das Ermitteln von Trainingsdaten und von den Trainingsdaten zugeordneten Quellinformationen aus einer externen Quelle, das Bestimmen eines Datensicherheitskennwerts der Trainingsdaten anhand der Quellinformationen, das Abgleichen des Funktionssicherheitskennwerts mit dem Datensicherheitskennwert, das Trainieren eines maschinellen Lerners der Funktion mittels der Trainingsdaten für den Fall, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist, das Generieren der Funktion unter Verwendung des maschinellen Lerners, das Ausgeben eines Verzeichnisses, das die Quellinformationen jeweiliger Trainingsdaten umfasst und das Einstellen einer Maschine durch die Funktion.Thus, according to a first aspect of the invention presented, a computer-implemented method for automatically generating a function is presented. The presented method comprises determining a functional safety characteristic value of the function to be generated, determining training data and source information associated with the training data from an external source, determining a data safety characteristic value of the training data based on the source information, comparing the functional safety characteristic value with the data safety characteristic value, training a machine learner of the function using the training data in the event that the data safety characteristic value is greater than or equal to the functional safety characteristic value, generating the function using the machine learner, outputting a directory that includes the source information of respective training data and setting a machine through the function.

Unter einer externen Quelle ist im Kontext der vorgestellten Erfindung eine Quelle außerhalb eines jeweiligen Systems zu verstehen, d. h. eine Quelle, die nicht der unmittelbaren Kontrolle durch den das vorgestellte Verfahren ausführenden Computer unterliegt. Eine externe Quelle kann bspw. ein Computernetzwerk, insbesondere das Internet sein.In the context of the invention presented, an external source is understood to be a source outside of a particular system, i.e. a source that is not subject to the direct control of the computer executing the method presented. An external source can be, for example, a computer network, in particular the Internet.

Unter Quellinformationen sind im Kontext der vorgestellten Erfindung Informationen über einen Ursprung bzw. einen Generierungsprozess bzw. Verifikationsprozess jeweiliger Daten zu verstehen. Bspw. können Quellinformationen einen Hersteller bzw. Eigner jeweiliger Daten und/oder einen den Daten zugrundeliegenden Verifikationsprozess, wie bspw. ein Peer-Review oder ein Lektorat angeben.In the context of the invention presented, source information is understood to mean information about an origin or a generation process or verification process of the respective data. For example, source information can specify a manufacturer or owner of the respective data and/or a verification process underlying the data, such as a peer review or proofreading.

Das vorgestellte Verfahren basiert auf der Verwendung eines maschinellen Lerners zum Generieren einer Funktion. Dies bedeutet, dass die Funktion einen durch den maschinellen Lerner bereitgestellten Wert bzw. eine durch den maschinellen Lerner bereitgestellte Entscheidung verwendet, um ein Steuerungssignal zum Steuern einer Maschine zu erzeugen. The presented method is based on using a machine learner to generate a function. This means that the function uses a value or decision provided by the machine learner to generate a control signal to control a machine.

Um eine Veränderung des maschinellen Lerners und, dadurch bedingt, das Steuerungsverhalten der erfindungsgemäß vorgesehenen Funktion zu kontrollieren, ist erfindungsgemäß vorgesehen, dass Trainingsdaten zum Trainieren des maschinellen Lerners verifiziert werden, sodass insbesondere bspw. fehlerhafte oder manipulierte Trainingsdaten von einem Einfluss auf den maschinellen Lerner bzw. die entsprechende Funktion ausgeschlossen werden.In order to control a change in the machine learner and, as a result, the control behavior of the function provided according to the invention, the invention provides that training data for training the machine learner are verified so that, in particular, for example, incorrect or manipulated training data be excluded from influencing the machine learner or the corresponding function.

Zum Verifizieren jeweiliger Trainingsdaten ist vorgesehen, dass lediglich solche Trainingsdaten verwendet werden, zu denen Quellinformationen verfügbar sind.To verify the respective training data, it is intended that only training data for which source information is available are used.

Anhand der Quellinformationen werden jeweilige Trainingsdaten beurteilt bzw. verifiziert, indem anhand der Quellinformationen ein Datensicherheitskennwert bestimmt wird. Dabei gilt bspw., dass mehr bzw. stärkere Verifikationsprozesse zu einem besseren bzw. höheren Datensicherheitskennwert führen. Zur Beurteilung eines Verifikationsprozesses kann bspw. ein Zuordnungsschema verwendet werden, das jeweiligen Verifikationsprozessen einen Skalenwert, wie bspw. einen numerischen Wert zuordnet.The respective training data is assessed or verified based on the source information by determining a data security index based on the source information. For example, more or stronger verification processes lead to a better or higher data security index. To assess a verification process, an assignment scheme can be used, for example, which assigns a scale value, such as a numerical value, to the respective verification processes.

Sobald ein Datensicherheitskennwert jeweiliger Trainingsdaten bekannt ist, kann dieser mit einem Funktionssicherheitskennwert, der bspw. als Anforderung durch eine Regel oder einen Nutzer vorgegeben wird, abgeglichen werden. Entsprechend kann durch den Abgleich festgestellt werden, ob eine Qualität bzw. Validität der Trainingsdaten, ausgedrückt durch den Datensicherheitskennwert einer Qualitätsanforderung, jener ausgedrückt durch den Funktionssicherheitskennwert entspricht.As soon as a data security value of the respective training data is known, it can be compared with a functional security value that is specified, for example, as a requirement by a rule or a user. The comparison can be used to determine whether the quality or validity of the training data, expressed by the data security value of a quality requirement, corresponds to that expressed by the functional security value.

Für den Fall, dass der Datensicherheitskennwert zumindest dem Funktionssicherheitskennwert entspricht oder besser bzw. größer ist, können die dem Datensicherheitskennwert zugrundliegenden Trainingsdaten zum Trainieren des maschinellen Lerners verwendet werden, sodass der maschinelle Lerner sich einer kontrollierten Veränderung unterzieht und ein Einfluss durch bspw. von unautorisierten Anwendern manipulierte Trainingsdaten ausgeschlossen wird.In the event that the data security index is at least equal to or better or greater than the functional security index, the training data underlying the data security index can be used to train the machine learner so that the machine learner undergoes a controlled change and influence from, for example, training data manipulated by unauthorized users is excluded.

Ferner ist erfindungsgemäß vorgesehen, dass ein Verzeichnis, das die Quellinformationen jeweiliger Trainingsdaten umfasst, ausgegeben wird. Mittels eines solchen Verzeichnisses kann ein jeweiliger maschineller Lerner bzw. eine entsprechende Funktion auch nach einem Trainingsprozess verifiziert werden, sodass ein Anwender anhand des Verzeichnisses Vertrauen zu dem maschinellen Lerner bzw. der Funktion fassen kann und diese auch in sicherheitsrelevante Bereiche eines Systems integrieren kann.Furthermore, the invention provides that a directory is output that includes the source information of the respective training data. Using such a directory, a respective machine learner or a corresponding function can also be verified after a training process, so that a user can use the directory to gain confidence in the machine learner or the function and can also integrate it into safety-relevant areas of a system.

Es kann vorgesehen sein, dass das Verzeichnis den Datensicherheitskennwert jeweiliger Trainingsdaten umfasst.It may be provided that the directory includes the data security index of respective training data.

Eine Angabe des Datensicherheitskennwerts in dem Verzeichnis ermöglicht einem Anwender eine eindeutige und ggf. quantitative Beurteilung einer Qualität bzw. Validität von einem jeweiligen maschinellen Lerner zugrundeliegenden Trainingsdaten.Specifying the data security index in the directory enables a user to make a clear and, if necessary, quantitative assessment of the quality or validity of the training data underlying a particular machine learner.

Es kann weiterhin vorgesehen sein, dass der Datensicherheitskennwert mittels eines vorgegebenen Zuordnungsschemas ermittelt wird, wobei das Zuordnungsschema jeweiligen Quellinformationsarten einen jeweiligen Datensicherheitskennwert anhand von Sicherheitskriterien zuordnet.It can further be provided that the data security index is determined by means of a predetermined assignment scheme, whereby the assignment scheme assigns a respective data security index to respective source information types on the basis of security criteria.

Ein vorgegebenes Zuordnungsschema spezifiziert Kriterien für eine Zuordnung eines jeweiligen Datensicherheitskennwerts, wie bspw. einer Stufe auf einer Ordinalskala, insbesondere einer Note gemäß einem Notenschema, zu jeweiligen Trainingsdaten bzw. deren Quellinformationen. Dabei gilt bspw., dass stärkere Verifikationsprozesse bzw. mehr Verifikationsprozesse zu einem besseren Datensicherheitskennwert führen.A predefined assignment scheme specifies criteria for assigning a respective data security indicator, such as a level on an ordinal scale, in particular a grade according to a grading scheme, to respective training data or their source information. For example, stronger verification processes or more verification processes lead to a better data security indicator.

Es kann vorgesehen sein, dass das Zuordnungsschema eine aufsteigende Reihe Datensicherheitskennwerte und jeweiligen Datensicherheitskennwerten zugeordnete Sicherheitskriterien umfasst, wobei jeweilige einem übergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien jeweilige einem untergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien umfassen.It can be provided that the assignment scheme comprises an ascending series of data security indicators and security criteria assigned to respective data security indicators, wherein respective security criteria assigned to a higher-level data security indicator comprise respective security criteria assigned to a lower-level data security indicator.

Durch eine aufsteigende bzw. aufeinander Bezug nehmende Formulierung von Sicherheitskriterien wird sichergestellt, dass ein jeweilig höherer bzw. besserer Datensicherheitskennwert sämtliche Sicherheitskriterien eines jeweilig niedrigeren bzw. schlechteren Datensicherheitskennwerts umfasst bzw. quantifiziert, sodass ein höherer bzw. besserer Datensicherheitskennwert stets gegenüber einem niedrigen bzw. schlechteren Datensicherheitskennwert bevorzugt verwendet werden kann.By formulating security criteria in ascending or mutually referring order, it is ensured that a higher or better data security index includes or quantifies all security criteria of a lower or worse data security index, so that a higher or better data security index can always be used in preference to a lower or worse data security index.

Es kann vorgesehen sein, dass die Maschine ein Fahrzeug ist und die Funktion Teil eines gemäß einem Automotive Safety Integrity Level (ASIL) klassifizierten Programms ist.It may be intended that the machine is a vehicle and the function is part of a program classified according to an Automotive Safety Integrity Level (ASIL).

Insbesondere im Bereich der Fahrzeugentwicklung ist eine Kontrolle über eine Veränderung bzw. ein Verhalten von maschinellen Lernern wichtig, um ein jeweiliges Fahrzeug in allen Situationen verlässlich und vorhersagbar kontrollieren zu können.Especially in the area of vehicle development, control over a change or behavior of machine learners is important in order to be able to control a vehicle reliably and predictably in all situations.

Es kann weiterhin vorgesehen sein, dass jeder Datensicherheitskennwert des Zuordnungsschemas einem ASIL-Kennwert zugeordnet ist.It may also be provided that each data security characteristic of the allocation scheme is assigned to an ASIL characteristic.

Durch eine Zuordnung jeweiliger Datensicherheitskennwerte zu jeweiligen ASIL-Kennwerten kann eine Eignung eines jeweiligen maschinellen Lerners bzw. einer entsprechenden Funktion für eine Anwendung in einem gemäß ASIL klassifizierten Bereich einer Softwarearchitektur schnell, objektiv und verlässlich bestimmt werden.By assigning respective data security parameters to respective ASIL parameters, the suitability of a respective machine learner or a corresponding function for an application in an area of a software architecture classified according to ASIL can be determined quickly, objectively and reliably.

Es kann weiterhin vorgesehen sein, dass der Funktionssicherheitskennwert anhand eines ASIL-Kennwerts des Programms bestimmt wird.It may also be provided that the functional safety value is determined based on an ASIL value of the program.

Durch eine Zuordnung eines für bspw. eine Funktion vorgegebenen ASIL-Kennwerts zu einem Funktionssicherheitskennwert kann eine Eignung eines jeweiligen maschinellen Lerners bzw. einer entsprechenden Funktion für eine Anwendung der Funktion schnell, objektiv und verlässlich bestimmt werden.By assigning an ASIL value specified for a function, for example, to a functional safety value, the suitability of a respective machine learner or a corresponding function for an application of the function can be determined quickly, objectively and reliably.

Es kann weiterhin vorgesehen sein, dass die Quellinformationen Informationen über einen Verifikationsprozess zum Verifizieren der Trainingsdaten umfassen und die Sicherheitskriterien Anforderungen an den Verifikationsprozess spezifizieren.It may further be provided that the source information includes information about a verification process for verifying the training data and the security criteria specify requirements for the verification process.

Durch die Verwendung von Informationen über einen Verifikationsprozess zum Verifizieren der Trainingsdaten, wie bspw. ein Peer-Review, ein Lektorat oder ein Vier-Augen-Prinzip, kann sichergestellt werden, dass die Trainingsdaten nicht durch einen einzelnen Anwender manipuliert werden können.By using information about a verification process to verify the training data, such as peer review, proofreading or a four-eyes principle, it can be ensured that the training data cannot be manipulated by a single user.

Gemäß einem zweiten Aspekt betrifft die vorgestellte Erfindung ein System zum automatischen Generieren einer Funktion, wobei das System eine Recheneinheit umfasst, die dazu konfiguriert ist, eine mögliche Ausgestaltung des vorgestellten Verfahrens auszuführen.According to a second aspect, the presented invention relates to a system for automatically generating a function, wherein the system comprises a computing unit configured to carry out a possible embodiment of the presented method.

Unter einer Recheneinheit ist im Kontext der vorgestellten Erfindung ein Computer, ein Prozessor, ein Steuergerät oder jeder weitere programmierbare Schaltkreis zu verstehen.In the context of the invention presented, a computing unit is understood to mean a computer, a processor, a control unit or any other programmable circuit.

Gemäß einem dritten Aspekt betrifft die vorgestellte Erfindung ein Programmprodukt mit Programmcodemitteln, die eine Recheneinheit dazu konfigurieren, eine mögliche Ausgestaltung des vorgestellten Verfahrens auszuführen, wenn das Programmprodukt auf der Recheneinheit ausgeführt wird.According to a third aspect, the presented invention relates to a program product with program code means that configure a computing unit to execute a possible embodiment of the presented method when the program product is executed on the computing unit.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der Erfindung im Einzelnen beschrieben sind. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Es zeigen:

  • 1 eine mögliche Ausgestaltung des vorgestellten Verfahrens,
  • 2 eine mögliche Ausgestaltung eines Zuordnungsschemas zur Verwendung in dem Verfahren gemäß 1,
  • 3 eine mögliche Ausgestaltung des vorgestellten Systems.
Further advantages, features and details of the invention emerge from the following description, in which embodiments of the invention are described in detail with reference to the drawings. The features mentioned in the claims and in the description can each be essential to the invention individually or in any combination. They show:
  • 1 a possible design of the presented procedure,
  • 2 a possible design of an allocation scheme for use in the procedure according to 1 ,
  • 3 a possible design of the presented system.

In 1 ist ein computerimplementiertes Verfahren 100 zum automatischen Generieren einer Funktion dargestellt.In 1 A computer-implemented method 100 for automatically generating a function is shown.

Das Verfahren 100 umfasst einen ersten Ermittlungsschritt 101, bei dem ein Funktionssicherheitskennwert der zu generierenden Funktion ermittelt wird, indem bspw. ein ASIL-Kennwert der Funktion bestimmt wird.The method 100 comprises a first determination step 101 in which a functional safety characteristic value of the function to be generated is determined, for example by determining an ASIL characteristic value of the function.

Ferner umfasst das Verfahren 100 einen zweiten Ermittlungsschritt 103, bei dem Trainingsdaten aus einer externen Quelle und den Trainingsdaten zugeordnete Quellinformationen ermittelt werden, indem bspw. Trainingsdaten mit einer Datei, die Quellinformationen enthält, aus dem Internet heruntergeladen werden.Furthermore, the method 100 comprises a second determination step 103 in which training data are determined from an external source and source information associated with the training data, for example by downloading training data with a file containing source information from the Internet.

Ferner umfasst das Verfahren 100 einen Bestimmungsschritt 105, bei dem ein Datensicherheitskennwert der Trainingsdaten anhand der Quellinformationen bestimmt wird, indem die Quellinformationen gemäß einem Zuordnungsschema einem jeweiligen Datensicherheitskennwert zugeordnet werden.Furthermore, the method 100 comprises a determination step 105 in which a data security characteristic of the training data is determined on the basis of the source information by assigning the source information to a respective data security characteristic according to an assignment scheme.

Ferner umfasst das Verfahren 100 einen Abgleichschritt 107, bei dem der Funktionssicherheitskennwert mit dem Datensicherheitskennwert abgeglichen wird, indem bspw. eine Differenz zwischen dem Funktionssicherheitskennwert und dem Datensicherheitskennwert berechnet wird.Furthermore, the method 100 comprises a comparison step 107 in which the functional safety characteristic value is compared with the data safety characteristic value, for example by calculating a difference between the functional safety characteristic value and the data safety characteristic value.

Ferner umfasst das Verfahren 100 einen Trainingsschritt 109, bei dem ein maschineller Lerner der Funktion mittels der Trainingsdaten für den Fall trainiert wird, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist. Furthermore, the method 100 comprises a training step 109 in which a machine learner of the function is trained using the training data in the event that the data security index is greater than or equal to the functional security index.

Entsprechend wird der maschinelle Lerner von einem Training mittels der Trainingsdaten für den Fall ausgeschlossen, dass der Datensicherheitskennwert kleiner dem Funktionssicherheitskennwert ist.Accordingly, the machine learner is excluded from training using the training data in the event that the data reliability index is smaller than the functional reliability index.

Ferner umfasst das Verfahren 100 einen Ausgabeschritt 111, bei dem ein Verzeichnis, das die Quellinformationen jeweiliger Trainingsdaten umfasst, auf einer Ausgabeeinheit, wie bspw. einem Speicher oder einer Anzeige ausgegeben wird.Furthermore, the method 100 comprises an output step 111 in which a directory containing the source information of respective training data is output on an output unit, such as a memory or a display.

Ferner umfasst das Verfahren 100 einen Generierungsschritt 113, bei dem die Funktion unter Verwendung des maschinellen Lerners generiert wird, indem bspw. ein durch den maschinellen Lerner bereitgestelltes Klassifikationsergebnis durch die Funktion aufgerufen wird.Furthermore, the method 100 comprises a generation step 113 in which the function is generated using the machine learner, for example by calling a classification result provided by the machine learner through the function.

Ferner umfasst das Verfahren 100 einen Einstellschritt 115, bei dem eine Maschine durch die Funktion eingestellt wird, indem bspw. die Funktion ein Steuerungssignal zum Kontrollieren der Maschine an die Maschine übermittelt.Furthermore, the method 100 comprises a setting step 115 in which a machine is set by the function, for example by the function transmitting a control signal to the machine for controlling the machine.

In 2 ist ein Zuordnungsschema 200 dargestellt. Das Zuordnungsschema 200 umfasst Zeilen 1 - 6 und Spalten A - D. Entsprechend ordnet das Zuordnungsschema in Spalte D angegebene Sicherheitskriterien jeweiligen Quellinformationen in Spalte C, einem entsprechenden ASIL-Kennwert bzw. Funktionssicherheitskennwert in Spalte B und einem entsprechenden Datensicherheitskennwert in Spalte A zu.In 2 an assignment scheme 200 is shown. The assignment scheme 200 comprises rows 1 - 6 and columns A - D. Accordingly, the assignment scheme assigns safety criteria specified in column D to respective source information in column C, a corresponding ASIL characteristic value or functional safety characteristic value in column B and a corresponding data safety characteristic value in column A.

In den Feldern A1 - A6 sind fortlaufend Nummern von 1 - 6 angeführt.Fields A1 - A6 contain consecutive numbers from 1 to 6.

In Feld B1 steht „Risiko unbedeutend“, in Feld B2 steht „ASIL QM“. In den Feldern B3 - B6 sind fortlaufend ASIL-Kennwerte A - D angeführt.Field B1 states "risk insignificant" and field B2 states "ASIL QM". Fields B3 - B6 list ASIL values A - D in sequence.

In Feld C1 steht „Alle Daten aus dem Internet“. In Feld C2 steht „Angaben der Quellen“. In Feld C3 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 1 -7 Überprüfung der Quelle als Person“. In Feld C4 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 2 --> Überprüfung der Quelle mit deren Absicht und Ausbildung“. In Feld C5 steht „Angaben der Quellen und Verwendung der Quellen der Vertrauensstufe 3 --> Überprüfung der Aussage der Quelle“. In Feld C6 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 4 --> Überprüfung der überprüften Aussage der Quelle“.Field C1 states "All data from the Internet". Field C2 states "Information on sources". Field C3 states "Information on sources and use of sources of trust level 1-7, verification of the source as a person". Field C4 states "Information on sources and use of sources of trust level 2 --> verification of the source with their intentions and training". Field C5 states "Information on sources and use of sources of trust level 3 --> verification of the source's statement". Field C6 states "Information on sources and use of sources of trust level 4 --> verification of the verified statement of the source".

In den Feldern D1 und D2 steht keine Information. In Feld D3 steht „Vertrauensstufe 1: Rückverfolgung zur Person“. In Feld D4 steht „Vertrauensstufe 2 zusätzlich zu Vertrauensstufe 1: Person ist nicht vorbestraft und hat auch keine auffälligen Äußerungen in sozialen Medien gepostet; Person ist als Datenlabeler ausgebildet bzw. zertifiziert“. In Feld D5 steht: „Vertrauensstufe 3 zusätzlich zu Vertrauensstufe 2: Daten wurden unabhängig verifiziert (4 oder Mehraugenprinzip); Lektorat oder Peer-Review; Mehrheitsentscheide bei unterschiedlichen Ergebnissen“. In Feld D6 steht: „Vertrauensstufe 4 zusätzlich zu Vertrauensstufe 3: Es wurde ein eigener bzw. interner Verifikationsprozess zur Überprüfung der Daten durchgeführt (Überprüfung der Datenqualität, Testen, Freigabe)“.There is no information in fields D1 and D2. Field D3 states “Trust level 1: traceability to the person”. Field D4 states “Trust level 2 in addition to trust level 1: person has no criminal record and has not posted any conspicuous statements on social media; person is trained or certified as a data labeler”. Field D5 states: “Trust level 3 in addition to trust level 2: data was independently verified (4 or multiple eyes principle); proofreading or peer review; majority decisions in the event of differing results”. Field D6 states: “Trust level 4 in addition to trust level 3: an internal verification process was carried out to check the data (checking data quality, testing, approval)”.

In 3 ist ein System 300 dargestellt. Das System 300 umfasst eine Recheneinheit 301, die dazu konfiguriert ist, aus einer externen Quelle 303, wie bspw. dem Internet Trainingsdaten zu ermitteln und anhand der Trainingsdaten sowie entsprechenden Quellinformationen das Verfahren 100 gemäß 1 auszuführen, um eine Maschine in Form eines Fahrzeugs 305 zu steuern.In 3 a system 300 is shown. The system 300 comprises a computing unit 301 which is configured to determine training data from an external source 303, such as the Internet, and to use the training data and corresponding source information to carry out the method 100 according to 1 to control a machine in the form of a vehicle 305.

BezugszeichenlisteList of reference symbols

100100
VerfahrenProceedings
101101
erster Ermittlungsschrittfirst investigative step
103103
zweiter Ermittlungsschrittsecond investigation step
105105
BestimmungsschrittDetermination step
107107
AbgleichschrittAdjustment step
109109
TrainingsschrittTraining step
111111
AusgabeschrittOutput step
113113
GenerierungsschrittGeneration step
115115
EinstellschrittSetting step
200200
ZuordnungsschemaAllocation scheme
300300
Systemsystem
301301
RecheneinheitComputing unit
303303
externe Quelleexternal source
305305
Fahrzeugvehicle

Claims (10)

Computerimplementiertes Verfahren (100) zum automatischen Generieren einer Funktion, wobei das Verfahren (100) umfasst: - Ermitteln (101) eines Funktionssicherheitskennwerts der zu generierenden Funktion, - Ermitteln (103) von Trainingsdaten aus einer externen Quelle (303) und den Trainingsdaten zugeordneten Quellinformationen, - Bestimmen (105) eines Datensicherheitskennwerts der Trainingsdaten anhand der Quellinformationen, - Abgleichen (107) des Funktionssicherheitskennwerts mit dem Datensicherheitskennwert, - Trainieren (109) eines maschinellen Lerners der Funktion mittels der Trainingsdaten für den Fall, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist, - Ausgeben (111) eines Verzeichnisses, das die Quellinformationen jeweiliger Trainingsdaten umfasst, - Generieren (113) der Funktion unter Verwendung des maschinellen Lerners, - Einstellen (115) einer Maschine (305) durch die Funktion.Computer-implemented method (100) for automatically generating a function, the method (100) comprising: - determining (101) a functional safety characteristic value of the function to be generated, - determining (103) training data from an external source (303) and source information associated with the training data, - determining (105) a data safety characteristic value of the training data based on the source information, - comparing (107) the functional safety characteristic value with the data safety characteristic value, - training (109) a machine learner of the function using the training data in the event that the data safety characteristic value is greater than or equal to the functional safety characteristic value, - outputting (111) a directory which includes the source information of respective training data, - generating (113) the function using the machine learner, - Setting (115) of a machine (305) by the function. Verfahren (100) nach Anspruch 1, dadurch gekennzeichnet, dass das Verzeichnis den Datensicherheitskennwert jeweiliger Trainingsdaten umfasst.Procedure (100) according to Claim 1 , characterized in that the directory includes the data security index of respective training data. Verfahren (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Datensicherheitskennwert mittels eines vorgegebenen Zuordnungsschemas (200) ermittelt wird, wobei das Zuordnungsschema (200) jeweiligen Quellinformationsarten einen jeweiligen Datensicherheitskennwert anhand von Sicherheitskriterien zuordnet.Procedure (100) according to Claim 1 or 2 , characterized in that the data security characteristic value is determined by means of a predetermined assignment scheme (200), wherein the assignment scheme (200) assigns a respective data security characteristic value to respective source information types on the basis of security criteria. Verfahren (100) nach Anspruch 3, dadurch gekennzeichnet, dass das Zuordnungsschema (200) eine aufsteigende Reihe Datensicherheitskennwerte und jeweiligen Datensicherheitskennwerten zugeordnete Sicherheitskriterien umfasst, wobei jeweilige einem übergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien jeweilige einem untergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien umfassen.Procedure (100) according to Claim 3 , characterized in that the assignment scheme (200) comprises an ascending series of data security characteristics and security criteria assigned to respective data security characteristics, wherein respective security criteria assigned to a higher-level data security characteristic comprise respective security criteria assigned to a lower-level data security characteristic. Verfahren (100) nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die Maschine ein Fahrzeug (305) ist und die Funktion Teil eines gemäß einem Automotive Safety Integrity Level (ASIL) klassifizierten Programms ist.Method (100) according to one of the preceding claims, characterized in that the machine is a vehicle (305) and the function is part of a program classified according to an Automotive Safety Integrity Level (ASIL). Verfahren (100) nach Anspruch 5, dadurch gekennzeichnet, dass jeder Datensicherheitskennwert des Zuordnungsschemas einem ASIL-Kennwert zugeordnet ist.Procedure (100) according to Claim 5 , characterized in that each data security characteristic of the assignment scheme is assigned to an ASIL characteristic. Verfahren (100) nach Anspruch 5, dadurch gekennzeichnet, dass der Funktionssicherheitskennwert anhand eines ASIL-Kennwerts des Programms bestimmt wird.Procedure (100) according to Claim 5 , characterized in that the functional safety value is determined based on an ASIL value of the program. Verfahren (100) nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Quellinformationen Informationen über einen Verifikationsprozess zum Verifizieren der Trainingsdaten umfassen und die Sicherheitskriterien Anforderungen an den Verifikationsprozess spezifizieren.Procedure (100) according to Claim 3 or 4 , characterized in that the source information comprises information about a verification process for verifying the training data and the security criteria specify requirements for the verification process. System (300) zum automatischen Generieren einer Funktion, wobei das System (300) eine Recheneinheit (301) umfasst, die dazu konfiguriert ist, ein Verfahren (100) nach einem der Ansprüche 1 bis 8 auszuführen.System (300) for automatically generating a function, wherein the system (300) comprises a computing unit (301) configured to perform a method (100) according to one of the Claims 1 until 8th to execute. Programmprodukt mit Programmcodemitteln, die eine Recheneinheit (301) dazu konfigurieren, ein Verfahren (100) nach einem der Ansprüche 1 bis 8 auszuführen, wenn das Programmprodukt auf der Recheneinheit (301) ausgeführt wird.Program product with program code means which configure a computing unit (301) to carry out a method (100) according to one of the Claims 1 until 8th to execute when the program product is executed on the computing unit (301).
DE102022212828.1A 2022-11-29 2022-11-29 Method and system for automatically generating a function Pending DE102022212828A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022212828.1A DE102022212828A1 (en) 2022-11-29 2022-11-29 Method and system for automatically generating a function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022212828.1A DE102022212828A1 (en) 2022-11-29 2022-11-29 Method and system for automatically generating a function

Publications (1)

Publication Number Publication Date
DE102022212828A1 true DE102022212828A1 (en) 2024-05-29

Family

ID=91026685

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022212828.1A Pending DE102022212828A1 (en) 2022-11-29 2022-11-29 Method and system for automatically generating a function

Country Status (1)

Country Link
DE (1) DE102022212828A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020113007A1 (en) 2019-06-29 2020-12-31 Intel Corporation Functional safety controls based on "soft" fault information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020113007A1 (en) 2019-06-29 2020-12-31 Intel Corporation Functional safety controls based on "soft" fault information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TASKING Germany GmbH: Freedom From Memory Interference An ASIL Aware Static Analysis and Associated Tools. München, 08.02.2021. 1 - 7. - Firmenschrift. https://resources.tasking.com/p/freedom-from-memory-interference-an-asil-aware-static-analysis-and-associated-tools [abgerufen am 25.07.2023]

Similar Documents

Publication Publication Date Title
DE112016005609T5 (en) Dynamically update Captcha prompts
DE10316381A1 (en) Procedure for training neural networks
DE102018220711A1 (en) Measuring the vulnerability of AI modules to attempts at deception
DE102013213314A1 (en) Deposit at least one computable integrity measure in a memory area of a memory
DE102019204139A1 (en) Training for artificial neural networks with better utilization of the learning data sets
EP3696699A1 (en) Secure and flexible firmware updating in electronic devices
EP4258179A1 (en) Method and computer program for monitoring an artificial intelligence
DE102018000471A1 (en) Blockchain-based identity system
DE102008054354A1 (en) Safe coding of voltage data of many cells in hybrid vehicles
DE102022212828A1 (en) Method and system for automatically generating a function
EP4200734A1 (en) Method for operating a network, and computer program product
DE102011000112A1 (en) Method for verifying personal data in customer traffic
WO2021089591A1 (en) Method for training an artificial neural network, computer program, storage medium, device, artificial neural network and application of the artificial neural network
DE102020116054A1 (en) Method, device, computer program and computer-readable storage medium for determining a neural network and for operating a vehicle
DE102019130067A1 (en) Method for carrying out permission-dependent communication between at least one field device in automation technology and an operating device
DE102019131639B4 (en) System for providing an explanation data set for an AI module
DE202014011088U1 (en) A system for assessing resources in a computer network for compliance with requirements of a computer system
DE102021205097A1 (en) Computer-implemented method and system for determining a cost function
DE102016113310A1 (en) A method for evaluating statements of a plurality of sources about a plurality of facts
DE102021209691B3 (en) Method for monitoring a component of an effect chain
DE102018207933A1 (en) Method and verification system for checking a manufactured gear unit
DE102022200060A1 (en) Determining the relevance of image parts for the result of processing the image by a transformer network
DE102021125851A1 (en) PROBLEM MANAGEMENT IN A USER SYSTEM
DE102019117839A1 (en) Method, device, computer program and computer program product for data processing in a vehicle and vehicle
DE102021205098A1 (en) Computer-implemented method and system for determining a cost function

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication