DE102022212828A1 - Method and system for automatically generating a function - Google Patents
Method and system for automatically generating a function Download PDFInfo
- Publication number
- DE102022212828A1 DE102022212828A1 DE102022212828.1A DE102022212828A DE102022212828A1 DE 102022212828 A1 DE102022212828 A1 DE 102022212828A1 DE 102022212828 A DE102022212828 A DE 102022212828A DE 102022212828 A1 DE102022212828 A1 DE 102022212828A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- function
- training data
- security
- characteristic value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 62
- 238000012795 verification Methods 0.000 claims description 17
- 230000001174 ascending effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 28
- 230000001915 proofreading effect Effects 0.000 description 4
- 238000012552 review Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 241001271959 Anablepidae Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012956 testing procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Die vorgestellte Erfindung betrifft ein computerimplementiertes Verfahren (100) zum automatischen Generieren einer Funktion. Das Verfahren (100) umfasst:
- Ermitteln (101) eines Funktionssicherheitskennwerts der zu generierenden Funktion,
- Ermitteln (103) von Trainingsdaten aus einer externen Quelle (303) und den Trainingsdaten zugeordneten Quellinformationen,
- Bestimmen (105) eines Datensicherheitskennwerts der Trainingsdaten anhand der Quellinformationen,
- Abgleichen (107) des Funktionssicherheitskennwerts mit dem Datensicherheitskennwert,
- Trainieren (109) eines maschinellen Lerners der Funktion mittels der Trainingsdaten für den Fall, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist,
- Ausgeben (111) eines Verzeichnisses, das die Quellinformationen jeweiliger Trainingsdaten umfasst,
- Generieren (113) der Funktion unter Verwendung des maschinellen Lerners,
- Einstellen (115) einer Maschine (305) durch die Funktion.
The invention presented relates to a computer-implemented method (100) for automatically generating a function. The method (100) comprises:
- determining (101) a functional safety characteristic value of the function to be generated,
- determining (103) training data from an external source (303) and source information associated with the training data,
- determining (105) a data security index of the training data based on the source information,
- comparing (107) the functional safety index with the data safety index,
- training (109) a machine learner of the function using the training data in the event that the data security index is greater than or equal to the functional security index,
- outputting (111) a directory comprising the source information of respective training data,
- generating (113) the function using the machine learner,
- Setting (115) of a machine (305) by the function.
Description
Die vorgestellte Erfindung betrifft ein Verfahren und ein System zum automatischen Generieren einer Funktion sowie ein entsprechendes Programmprodukt gemäß den beigefügten Ansprüchen.The presented invention relates to a method and a system for automatically generating a function as well as a corresponding program product according to the appended claims.
Sogenannte künstliche Intelligenz bzw. maschinelles Lernen findet vermehrt Anwendung in verschiedenen Einsatzgebieten. Zum Trainieren eines maschinellen Lerners werden große Datenmengen benötigt. Dabei nehmen die Trainingsdaten großen Einfluss auf eine Struktur eines jeweiligen maschinellen Lerners.So-called artificial intelligence or machine learning is increasingly being used in various fields. Large amounts of data are required to train a machine learner. The training data has a major influence on the structure of a particular machine learner.
Entsprechend kann ein maschineller Lerner durch ungeeignete Trainingsdaten, d. h. Trainingsdaten von schlechter Qualität verschlechtert werden. Im schlechtesten Fall führen qualitativ minderwertige Daten zu falschen Ergebnissen.Accordingly, a machine learner can be impaired by unsuitable training data, i.e. training data of poor quality. In the worst case, poor-quality data leads to incorrect results.
Im Gegensatz zu geschlossenen Systemen, bei denen interne, d. h. im System sensorisch ermittelte Daten zum Training eines maschinellen Lerners verwendet werden, unterliegen Trainingsdaten aus externen Quellen, wie bspw. dem Internet nicht der vollständigen Kontrolle durch ein jeweiliges System, sodass Trainingsdaten aus externen Quellen manipuliert bzw. falsch sein können.In contrast to closed systems, in which internal data, i.e. data obtained from sensors in the system, is used to train a machine learner, training data from external sources, such as the Internet, is not subject to complete control by a particular system, so that training data from external sources can be manipulated or incorrect.
Bekannte Systeme können die Qualität von Trainingsdaten nicht bewerten. Deshalb besteht immer die Gefahr, dass maschinelles Lernen zu formal logischen aber praktisch falschen Ergebnissen führt.Known systems cannot evaluate the quality of training data. Therefore, there is always the risk that machine learning will lead to formally logical but practically incorrect results.
Für die Validierung von Trainingsdaten kommen mehrere Prüfungsverfahren in Betracht, wie bspw. das Lektorat oder Peer-Review, das Vier-Augen-Prinzip (gegenseitige Kontrolle) oder Mehrheitsentscheide bei unterschiedlichen Ergebnissen.Several testing procedures can be used to validate training data, such as proofreading or peer review, the four-eyes principle (mutual control) or majority decisions in the event of differing results.
Im Rahmen der vorgestellten Erfindung werden ein Verfahren und ein System zum automatischen Generieren einer Funktion vorgestellt. Weitere Merkmale und Details der Erfindung ergeben sich aus den jeweiligen Unteransprüchen, der Beschreibung und den Zeichnungen. Dabei gelten Merkmale und Details, die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschrieben sind, selbstverständlich auch im Zusammenhang mit dem erfindungsgemäßen System und jeweils umgekehrt, sodass bezüglich der Offenbarung zu den einzelnen Erfindungsaspekten stets wechselseitig Bezug genommen wird bzw. werden kann.Within the scope of the invention presented, a method and a system for automatically generating a function are presented. Further features and details of the invention emerge from the respective subclaims, the description and the drawings. Features and details that are described in connection with the method according to the invention naturally also apply in connection with the system according to the invention and vice versa, so that with regard to the disclosure of the individual aspects of the invention, reference is always made to each other.
Vor diesem Hintergrund ist es eine Aufgabe der vorgestellten Erfindung, eine Möglichkeit zum Validieren von Trainingsdaten für ein Training eines maschinellen Lerners zum Bereitstellen einer Funktion zum Steuern einer Maschine bereitzustellen. Insbesondere dient die vorgestellte Erfindung dazu, eine Anpassung eines maschinellen Lerners durch ein Training mit Trainingsdaten zu kontrollieren.Against this background, it is an object of the invention presented to provide a possibility for validating training data for training a machine learner to provide a function for controlling a machine. In particular, the invention presented serves to control an adaptation of a machine learner by training with training data.
Es wird somit gemäß einem ersten Aspekt der vorgestellten Erfindung ein computerimplementiertes Verfahren zum automatischen Generieren einer Funktion vorgestellt. Das vorgestellte Verfahren umfasst das Ermitteln eines Funktionssicherheitskennwerts der zu generierenden Funktion, das Ermitteln von Trainingsdaten und von den Trainingsdaten zugeordneten Quellinformationen aus einer externen Quelle, das Bestimmen eines Datensicherheitskennwerts der Trainingsdaten anhand der Quellinformationen, das Abgleichen des Funktionssicherheitskennwerts mit dem Datensicherheitskennwert, das Trainieren eines maschinellen Lerners der Funktion mittels der Trainingsdaten für den Fall, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist, das Generieren der Funktion unter Verwendung des maschinellen Lerners, das Ausgeben eines Verzeichnisses, das die Quellinformationen jeweiliger Trainingsdaten umfasst und das Einstellen einer Maschine durch die Funktion.Thus, according to a first aspect of the invention presented, a computer-implemented method for automatically generating a function is presented. The presented method comprises determining a functional safety characteristic value of the function to be generated, determining training data and source information associated with the training data from an external source, determining a data safety characteristic value of the training data based on the source information, comparing the functional safety characteristic value with the data safety characteristic value, training a machine learner of the function using the training data in the event that the data safety characteristic value is greater than or equal to the functional safety characteristic value, generating the function using the machine learner, outputting a directory that includes the source information of respective training data and setting a machine through the function.
Unter einer externen Quelle ist im Kontext der vorgestellten Erfindung eine Quelle außerhalb eines jeweiligen Systems zu verstehen, d. h. eine Quelle, die nicht der unmittelbaren Kontrolle durch den das vorgestellte Verfahren ausführenden Computer unterliegt. Eine externe Quelle kann bspw. ein Computernetzwerk, insbesondere das Internet sein.In the context of the invention presented, an external source is understood to be a source outside of a particular system, i.e. a source that is not subject to the direct control of the computer executing the method presented. An external source can be, for example, a computer network, in particular the Internet.
Unter Quellinformationen sind im Kontext der vorgestellten Erfindung Informationen über einen Ursprung bzw. einen Generierungsprozess bzw. Verifikationsprozess jeweiliger Daten zu verstehen. Bspw. können Quellinformationen einen Hersteller bzw. Eigner jeweiliger Daten und/oder einen den Daten zugrundeliegenden Verifikationsprozess, wie bspw. ein Peer-Review oder ein Lektorat angeben.In the context of the invention presented, source information is understood to mean information about an origin or a generation process or verification process of the respective data. For example, source information can specify a manufacturer or owner of the respective data and/or a verification process underlying the data, such as a peer review or proofreading.
Das vorgestellte Verfahren basiert auf der Verwendung eines maschinellen Lerners zum Generieren einer Funktion. Dies bedeutet, dass die Funktion einen durch den maschinellen Lerner bereitgestellten Wert bzw. eine durch den maschinellen Lerner bereitgestellte Entscheidung verwendet, um ein Steuerungssignal zum Steuern einer Maschine zu erzeugen. The presented method is based on using a machine learner to generate a function. This means that the function uses a value or decision provided by the machine learner to generate a control signal to control a machine.
Um eine Veränderung des maschinellen Lerners und, dadurch bedingt, das Steuerungsverhalten der erfindungsgemäß vorgesehenen Funktion zu kontrollieren, ist erfindungsgemäß vorgesehen, dass Trainingsdaten zum Trainieren des maschinellen Lerners verifiziert werden, sodass insbesondere bspw. fehlerhafte oder manipulierte Trainingsdaten von einem Einfluss auf den maschinellen Lerner bzw. die entsprechende Funktion ausgeschlossen werden.In order to control a change in the machine learner and, as a result, the control behavior of the function provided according to the invention, the invention provides that training data for training the machine learner are verified so that, in particular, for example, incorrect or manipulated training data be excluded from influencing the machine learner or the corresponding function.
Zum Verifizieren jeweiliger Trainingsdaten ist vorgesehen, dass lediglich solche Trainingsdaten verwendet werden, zu denen Quellinformationen verfügbar sind.To verify the respective training data, it is intended that only training data for which source information is available are used.
Anhand der Quellinformationen werden jeweilige Trainingsdaten beurteilt bzw. verifiziert, indem anhand der Quellinformationen ein Datensicherheitskennwert bestimmt wird. Dabei gilt bspw., dass mehr bzw. stärkere Verifikationsprozesse zu einem besseren bzw. höheren Datensicherheitskennwert führen. Zur Beurteilung eines Verifikationsprozesses kann bspw. ein Zuordnungsschema verwendet werden, das jeweiligen Verifikationsprozessen einen Skalenwert, wie bspw. einen numerischen Wert zuordnet.The respective training data is assessed or verified based on the source information by determining a data security index based on the source information. For example, more or stronger verification processes lead to a better or higher data security index. To assess a verification process, an assignment scheme can be used, for example, which assigns a scale value, such as a numerical value, to the respective verification processes.
Sobald ein Datensicherheitskennwert jeweiliger Trainingsdaten bekannt ist, kann dieser mit einem Funktionssicherheitskennwert, der bspw. als Anforderung durch eine Regel oder einen Nutzer vorgegeben wird, abgeglichen werden. Entsprechend kann durch den Abgleich festgestellt werden, ob eine Qualität bzw. Validität der Trainingsdaten, ausgedrückt durch den Datensicherheitskennwert einer Qualitätsanforderung, jener ausgedrückt durch den Funktionssicherheitskennwert entspricht.As soon as a data security value of the respective training data is known, it can be compared with a functional security value that is specified, for example, as a requirement by a rule or a user. The comparison can be used to determine whether the quality or validity of the training data, expressed by the data security value of a quality requirement, corresponds to that expressed by the functional security value.
Für den Fall, dass der Datensicherheitskennwert zumindest dem Funktionssicherheitskennwert entspricht oder besser bzw. größer ist, können die dem Datensicherheitskennwert zugrundliegenden Trainingsdaten zum Trainieren des maschinellen Lerners verwendet werden, sodass der maschinelle Lerner sich einer kontrollierten Veränderung unterzieht und ein Einfluss durch bspw. von unautorisierten Anwendern manipulierte Trainingsdaten ausgeschlossen wird.In the event that the data security index is at least equal to or better or greater than the functional security index, the training data underlying the data security index can be used to train the machine learner so that the machine learner undergoes a controlled change and influence from, for example, training data manipulated by unauthorized users is excluded.
Ferner ist erfindungsgemäß vorgesehen, dass ein Verzeichnis, das die Quellinformationen jeweiliger Trainingsdaten umfasst, ausgegeben wird. Mittels eines solchen Verzeichnisses kann ein jeweiliger maschineller Lerner bzw. eine entsprechende Funktion auch nach einem Trainingsprozess verifiziert werden, sodass ein Anwender anhand des Verzeichnisses Vertrauen zu dem maschinellen Lerner bzw. der Funktion fassen kann und diese auch in sicherheitsrelevante Bereiche eines Systems integrieren kann.Furthermore, the invention provides that a directory is output that includes the source information of the respective training data. Using such a directory, a respective machine learner or a corresponding function can also be verified after a training process, so that a user can use the directory to gain confidence in the machine learner or the function and can also integrate it into safety-relevant areas of a system.
Es kann vorgesehen sein, dass das Verzeichnis den Datensicherheitskennwert jeweiliger Trainingsdaten umfasst.It may be provided that the directory includes the data security index of respective training data.
Eine Angabe des Datensicherheitskennwerts in dem Verzeichnis ermöglicht einem Anwender eine eindeutige und ggf. quantitative Beurteilung einer Qualität bzw. Validität von einem jeweiligen maschinellen Lerner zugrundeliegenden Trainingsdaten.Specifying the data security index in the directory enables a user to make a clear and, if necessary, quantitative assessment of the quality or validity of the training data underlying a particular machine learner.
Es kann weiterhin vorgesehen sein, dass der Datensicherheitskennwert mittels eines vorgegebenen Zuordnungsschemas ermittelt wird, wobei das Zuordnungsschema jeweiligen Quellinformationsarten einen jeweiligen Datensicherheitskennwert anhand von Sicherheitskriterien zuordnet.It can further be provided that the data security index is determined by means of a predetermined assignment scheme, whereby the assignment scheme assigns a respective data security index to respective source information types on the basis of security criteria.
Ein vorgegebenes Zuordnungsschema spezifiziert Kriterien für eine Zuordnung eines jeweiligen Datensicherheitskennwerts, wie bspw. einer Stufe auf einer Ordinalskala, insbesondere einer Note gemäß einem Notenschema, zu jeweiligen Trainingsdaten bzw. deren Quellinformationen. Dabei gilt bspw., dass stärkere Verifikationsprozesse bzw. mehr Verifikationsprozesse zu einem besseren Datensicherheitskennwert führen.A predefined assignment scheme specifies criteria for assigning a respective data security indicator, such as a level on an ordinal scale, in particular a grade according to a grading scheme, to respective training data or their source information. For example, stronger verification processes or more verification processes lead to a better data security indicator.
Es kann vorgesehen sein, dass das Zuordnungsschema eine aufsteigende Reihe Datensicherheitskennwerte und jeweiligen Datensicherheitskennwerten zugeordnete Sicherheitskriterien umfasst, wobei jeweilige einem übergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien jeweilige einem untergeordneten Datensicherheitskennwert zugeordnete Sicherheitskriterien umfassen.It can be provided that the assignment scheme comprises an ascending series of data security indicators and security criteria assigned to respective data security indicators, wherein respective security criteria assigned to a higher-level data security indicator comprise respective security criteria assigned to a lower-level data security indicator.
Durch eine aufsteigende bzw. aufeinander Bezug nehmende Formulierung von Sicherheitskriterien wird sichergestellt, dass ein jeweilig höherer bzw. besserer Datensicherheitskennwert sämtliche Sicherheitskriterien eines jeweilig niedrigeren bzw. schlechteren Datensicherheitskennwerts umfasst bzw. quantifiziert, sodass ein höherer bzw. besserer Datensicherheitskennwert stets gegenüber einem niedrigen bzw. schlechteren Datensicherheitskennwert bevorzugt verwendet werden kann.By formulating security criteria in ascending or mutually referring order, it is ensured that a higher or better data security index includes or quantifies all security criteria of a lower or worse data security index, so that a higher or better data security index can always be used in preference to a lower or worse data security index.
Es kann vorgesehen sein, dass die Maschine ein Fahrzeug ist und die Funktion Teil eines gemäß einem Automotive Safety Integrity Level (ASIL) klassifizierten Programms ist.It may be intended that the machine is a vehicle and the function is part of a program classified according to an Automotive Safety Integrity Level (ASIL).
Insbesondere im Bereich der Fahrzeugentwicklung ist eine Kontrolle über eine Veränderung bzw. ein Verhalten von maschinellen Lernern wichtig, um ein jeweiliges Fahrzeug in allen Situationen verlässlich und vorhersagbar kontrollieren zu können.Especially in the area of vehicle development, control over a change or behavior of machine learners is important in order to be able to control a vehicle reliably and predictably in all situations.
Es kann weiterhin vorgesehen sein, dass jeder Datensicherheitskennwert des Zuordnungsschemas einem ASIL-Kennwert zugeordnet ist.It may also be provided that each data security characteristic of the allocation scheme is assigned to an ASIL characteristic.
Durch eine Zuordnung jeweiliger Datensicherheitskennwerte zu jeweiligen ASIL-Kennwerten kann eine Eignung eines jeweiligen maschinellen Lerners bzw. einer entsprechenden Funktion für eine Anwendung in einem gemäß ASIL klassifizierten Bereich einer Softwarearchitektur schnell, objektiv und verlässlich bestimmt werden.By assigning respective data security parameters to respective ASIL parameters, the suitability of a respective machine learner or a corresponding function for an application in an area of a software architecture classified according to ASIL can be determined quickly, objectively and reliably.
Es kann weiterhin vorgesehen sein, dass der Funktionssicherheitskennwert anhand eines ASIL-Kennwerts des Programms bestimmt wird.It may also be provided that the functional safety value is determined based on an ASIL value of the program.
Durch eine Zuordnung eines für bspw. eine Funktion vorgegebenen ASIL-Kennwerts zu einem Funktionssicherheitskennwert kann eine Eignung eines jeweiligen maschinellen Lerners bzw. einer entsprechenden Funktion für eine Anwendung der Funktion schnell, objektiv und verlässlich bestimmt werden.By assigning an ASIL value specified for a function, for example, to a functional safety value, the suitability of a respective machine learner or a corresponding function for an application of the function can be determined quickly, objectively and reliably.
Es kann weiterhin vorgesehen sein, dass die Quellinformationen Informationen über einen Verifikationsprozess zum Verifizieren der Trainingsdaten umfassen und die Sicherheitskriterien Anforderungen an den Verifikationsprozess spezifizieren.It may further be provided that the source information includes information about a verification process for verifying the training data and the security criteria specify requirements for the verification process.
Durch die Verwendung von Informationen über einen Verifikationsprozess zum Verifizieren der Trainingsdaten, wie bspw. ein Peer-Review, ein Lektorat oder ein Vier-Augen-Prinzip, kann sichergestellt werden, dass die Trainingsdaten nicht durch einen einzelnen Anwender manipuliert werden können.By using information about a verification process to verify the training data, such as peer review, proofreading or a four-eyes principle, it can be ensured that the training data cannot be manipulated by a single user.
Gemäß einem zweiten Aspekt betrifft die vorgestellte Erfindung ein System zum automatischen Generieren einer Funktion, wobei das System eine Recheneinheit umfasst, die dazu konfiguriert ist, eine mögliche Ausgestaltung des vorgestellten Verfahrens auszuführen.According to a second aspect, the presented invention relates to a system for automatically generating a function, wherein the system comprises a computing unit configured to carry out a possible embodiment of the presented method.
Unter einer Recheneinheit ist im Kontext der vorgestellten Erfindung ein Computer, ein Prozessor, ein Steuergerät oder jeder weitere programmierbare Schaltkreis zu verstehen.In the context of the invention presented, a computing unit is understood to mean a computer, a processor, a control unit or any other programmable circuit.
Gemäß einem dritten Aspekt betrifft die vorgestellte Erfindung ein Programmprodukt mit Programmcodemitteln, die eine Recheneinheit dazu konfigurieren, eine mögliche Ausgestaltung des vorgestellten Verfahrens auszuführen, wenn das Programmprodukt auf der Recheneinheit ausgeführt wird.According to a third aspect, the presented invention relates to a program product with program code means that configure a computing unit to execute a possible embodiment of the presented method when the program product is executed on the computing unit.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der Erfindung im Einzelnen beschrieben sind. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Es zeigen:
-
1 eine mögliche Ausgestaltung des vorgestellten Verfahrens, -
2 eine mögliche Ausgestaltung eines Zuordnungsschemas zur Verwendung in dem Verfahren gemäß1 , -
3 eine mögliche Ausgestaltung des vorgestellten Systems.
-
1 a possible design of the presented procedure, -
2 a possible design of an allocation scheme for use in the procedure according to1 , -
3 a possible design of the presented system.
In
Das Verfahren 100 umfasst einen ersten Ermittlungsschritt 101, bei dem ein Funktionssicherheitskennwert der zu generierenden Funktion ermittelt wird, indem bspw. ein ASIL-Kennwert der Funktion bestimmt wird.The
Ferner umfasst das Verfahren 100 einen zweiten Ermittlungsschritt 103, bei dem Trainingsdaten aus einer externen Quelle und den Trainingsdaten zugeordnete Quellinformationen ermittelt werden, indem bspw. Trainingsdaten mit einer Datei, die Quellinformationen enthält, aus dem Internet heruntergeladen werden.Furthermore, the
Ferner umfasst das Verfahren 100 einen Bestimmungsschritt 105, bei dem ein Datensicherheitskennwert der Trainingsdaten anhand der Quellinformationen bestimmt wird, indem die Quellinformationen gemäß einem Zuordnungsschema einem jeweiligen Datensicherheitskennwert zugeordnet werden.Furthermore, the
Ferner umfasst das Verfahren 100 einen Abgleichschritt 107, bei dem der Funktionssicherheitskennwert mit dem Datensicherheitskennwert abgeglichen wird, indem bspw. eine Differenz zwischen dem Funktionssicherheitskennwert und dem Datensicherheitskennwert berechnet wird.Furthermore, the
Ferner umfasst das Verfahren 100 einen Trainingsschritt 109, bei dem ein maschineller Lerner der Funktion mittels der Trainingsdaten für den Fall trainiert wird, dass der Datensicherheitskennwert größer oder gleich dem Funktionssicherheitskennwert ist. Furthermore, the
Entsprechend wird der maschinelle Lerner von einem Training mittels der Trainingsdaten für den Fall ausgeschlossen, dass der Datensicherheitskennwert kleiner dem Funktionssicherheitskennwert ist.Accordingly, the machine learner is excluded from training using the training data in the event that the data reliability index is smaller than the functional reliability index.
Ferner umfasst das Verfahren 100 einen Ausgabeschritt 111, bei dem ein Verzeichnis, das die Quellinformationen jeweiliger Trainingsdaten umfasst, auf einer Ausgabeeinheit, wie bspw. einem Speicher oder einer Anzeige ausgegeben wird.Furthermore, the
Ferner umfasst das Verfahren 100 einen Generierungsschritt 113, bei dem die Funktion unter Verwendung des maschinellen Lerners generiert wird, indem bspw. ein durch den maschinellen Lerner bereitgestelltes Klassifikationsergebnis durch die Funktion aufgerufen wird.Furthermore, the
Ferner umfasst das Verfahren 100 einen Einstellschritt 115, bei dem eine Maschine durch die Funktion eingestellt wird, indem bspw. die Funktion ein Steuerungssignal zum Kontrollieren der Maschine an die Maschine übermittelt.Furthermore, the
In
In den Feldern A1 - A6 sind fortlaufend Nummern von 1 - 6 angeführt.Fields A1 - A6 contain consecutive numbers from 1 to 6.
In Feld B1 steht „Risiko unbedeutend“, in Feld B2 steht „ASIL QM“. In den Feldern B3 - B6 sind fortlaufend ASIL-Kennwerte A - D angeführt.Field B1 states "risk insignificant" and field B2 states "ASIL QM". Fields B3 - B6 list ASIL values A - D in sequence.
In Feld C1 steht „Alle Daten aus dem Internet“. In Feld C2 steht „Angaben der Quellen“. In Feld C3 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 1 -7 Überprüfung der Quelle als Person“. In Feld C4 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 2 --> Überprüfung der Quelle mit deren Absicht und Ausbildung“. In Feld C5 steht „Angaben der Quellen und Verwendung der Quellen der Vertrauensstufe 3 --> Überprüfung der Aussage der Quelle“. In Feld C6 steht „Angaben der Quellen und Verwendung von Quellen der Vertrauensstufe 4 --> Überprüfung der überprüften Aussage der Quelle“.Field C1 states "All data from the Internet". Field C2 states "Information on sources". Field C3 states "Information on sources and use of sources of trust level 1-7, verification of the source as a person". Field C4 states "Information on sources and use of sources of trust level 2 --> verification of the source with their intentions and training". Field C5 states "Information on sources and use of sources of trust level 3 --> verification of the source's statement". Field C6 states "Information on sources and use of sources of trust level 4 --> verification of the verified statement of the source".
In den Feldern D1 und D2 steht keine Information. In Feld D3 steht „Vertrauensstufe 1: Rückverfolgung zur Person“. In Feld D4 steht „Vertrauensstufe 2 zusätzlich zu Vertrauensstufe 1: Person ist nicht vorbestraft und hat auch keine auffälligen Äußerungen in sozialen Medien gepostet; Person ist als Datenlabeler ausgebildet bzw. zertifiziert“. In Feld D5 steht: „Vertrauensstufe 3 zusätzlich zu Vertrauensstufe 2: Daten wurden unabhängig verifiziert (4 oder Mehraugenprinzip); Lektorat oder Peer-Review; Mehrheitsentscheide bei unterschiedlichen Ergebnissen“. In Feld D6 steht: „Vertrauensstufe 4 zusätzlich zu Vertrauensstufe 3: Es wurde ein eigener bzw. interner Verifikationsprozess zur Überprüfung der Daten durchgeführt (Überprüfung der Datenqualität, Testen, Freigabe)“.There is no information in fields D1 and D2. Field D3 states “Trust level 1: traceability to the person”. Field D4 states “Trust level 2 in addition to trust level 1: person has no criminal record and has not posted any conspicuous statements on social media; person is trained or certified as a data labeler”. Field D5 states: “Trust level 3 in addition to trust level 2: data was independently verified (4 or multiple eyes principle); proofreading or peer review; majority decisions in the event of differing results”. Field D6 states: “Trust level 4 in addition to trust level 3: an internal verification process was carried out to check the data (checking data quality, testing, approval)”.
In
BezugszeichenlisteList of reference symbols
- 100100
- VerfahrenProceedings
- 101101
- erster Ermittlungsschrittfirst investigative step
- 103103
- zweiter Ermittlungsschrittsecond investigation step
- 105105
- BestimmungsschrittDetermination step
- 107107
- AbgleichschrittAdjustment step
- 109109
- TrainingsschrittTraining step
- 111111
- AusgabeschrittOutput step
- 113113
- GenerierungsschrittGeneration step
- 115115
- EinstellschrittSetting step
- 200200
- ZuordnungsschemaAllocation scheme
- 300300
- Systemsystem
- 301301
- RecheneinheitComputing unit
- 303303
- externe Quelleexternal source
- 305305
- Fahrzeugvehicle
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022212828.1A DE102022212828A1 (en) | 2022-11-29 | 2022-11-29 | Method and system for automatically generating a function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022212828.1A DE102022212828A1 (en) | 2022-11-29 | 2022-11-29 | Method and system for automatically generating a function |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022212828A1 true DE102022212828A1 (en) | 2024-05-29 |
Family
ID=91026685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022212828.1A Pending DE102022212828A1 (en) | 2022-11-29 | 2022-11-29 | Method and system for automatically generating a function |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022212828A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020113007A1 (en) | 2019-06-29 | 2020-12-31 | Intel Corporation | Functional safety controls based on "soft" fault information |
-
2022
- 2022-11-29 DE DE102022212828.1A patent/DE102022212828A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020113007A1 (en) | 2019-06-29 | 2020-12-31 | Intel Corporation | Functional safety controls based on "soft" fault information |
Non-Patent Citations (1)
Title |
---|
TASKING Germany GmbH: Freedom From Memory Interference An ASIL Aware Static Analysis and Associated Tools. München, 08.02.2021. 1 - 7. - Firmenschrift. https://resources.tasking.com/p/freedom-from-memory-interference-an-asil-aware-static-analysis-and-associated-tools [abgerufen am 25.07.2023] |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016005609T5 (en) | Dynamically update Captcha prompts | |
DE10316381A1 (en) | Procedure for training neural networks | |
DE102018220711A1 (en) | Measuring the vulnerability of AI modules to attempts at deception | |
DE102013213314A1 (en) | Deposit at least one computable integrity measure in a memory area of a memory | |
DE102019204139A1 (en) | Training for artificial neural networks with better utilization of the learning data sets | |
EP3696699A1 (en) | Secure and flexible firmware updating in electronic devices | |
EP4258179A1 (en) | Method and computer program for monitoring an artificial intelligence | |
DE102018000471A1 (en) | Blockchain-based identity system | |
DE102008054354A1 (en) | Safe coding of voltage data of many cells in hybrid vehicles | |
DE102022212828A1 (en) | Method and system for automatically generating a function | |
EP4200734A1 (en) | Method for operating a network, and computer program product | |
DE102011000112A1 (en) | Method for verifying personal data in customer traffic | |
WO2021089591A1 (en) | Method for training an artificial neural network, computer program, storage medium, device, artificial neural network and application of the artificial neural network | |
DE102020116054A1 (en) | Method, device, computer program and computer-readable storage medium for determining a neural network and for operating a vehicle | |
DE102019130067A1 (en) | Method for carrying out permission-dependent communication between at least one field device in automation technology and an operating device | |
DE102019131639B4 (en) | System for providing an explanation data set for an AI module | |
DE202014011088U1 (en) | A system for assessing resources in a computer network for compliance with requirements of a computer system | |
DE102021205097A1 (en) | Computer-implemented method and system for determining a cost function | |
DE102016113310A1 (en) | A method for evaluating statements of a plurality of sources about a plurality of facts | |
DE102021209691B3 (en) | Method for monitoring a component of an effect chain | |
DE102018207933A1 (en) | Method and verification system for checking a manufactured gear unit | |
DE102022200060A1 (en) | Determining the relevance of image parts for the result of processing the image by a transformer network | |
DE102021125851A1 (en) | PROBLEM MANAGEMENT IN A USER SYSTEM | |
DE102019117839A1 (en) | Method, device, computer program and computer program product for data processing in a vehicle and vehicle | |
DE102021205098A1 (en) | Computer-implemented method and system for determining a cost function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |