DE102018207220A1 - A method, apparatus and computer program for detecting a calculation error or a malfunction - Google Patents
A method, apparatus and computer program for detecting a calculation error or a malfunction Download PDFInfo
- Publication number
- DE102018207220A1 DE102018207220A1 DE102018207220.5A DE102018207220A DE102018207220A1 DE 102018207220 A1 DE102018207220 A1 DE 102018207220A1 DE 102018207220 A DE102018207220 A DE 102018207220A DE 102018207220 A1 DE102018207220 A1 DE 102018207220A1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- output
- input
- learned neural
- learned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B9/00—Safety arrangements
- G05B9/02—Safety arrangements electric
- G05B9/03—Safety arrangements electric with multiple-channel loop, i.e. redundant control systems
Abstract
Die Erfindung betrifft ein Verfahren (30) zum Detektieren eines Berechnungsfehlers oder einer Fehlfunktion (23) einer Recheneinheit oder eines Speichers beim Betreiben eines ersten angelernten neuronalen Netzes (201) auf der Recheneinheit mittels eines zweiten angelernten neuronalen Netzes (202). Die Erfindung betrifft ferner ein Computersystem, Computerprogramm und ein maschinenlesbares Speicherelement, auf dem das Computerprogramm gespeichert ist. The invention relates to a method (30) for detecting a calculation error or a malfunction (23) of a computing unit or a memory when operating a first learned neural network (201) on the computing unit by means of a second trained neural network (202). The invention further relates to a computer system, computer program and a machine-readable storage element, on which the computer program is stored.
Description
Technisches GebietTechnical area
Die Erfindung betrifft ein Verfahren zum Detektieren eines Berechnungsfehlers oder einer Fehlfunktion eines neuronalen Netzes. Ebenso betrifft die Erfindung eine Vorrichtung und ein Computerprogramm, die jeweils eingerichtet sind, das Verfahren auszuführen.The invention relates to a method for detecting a calculation error or a malfunction of a neural network. Likewise, the invention relates to a device and a computer program, each of which is adapted to carry out the method.
Stand der TechnikState of the art
Die
Offenbarung der ErfindungDisclosure of the invention
In einem ersten Aspekt wird ein Verfahren zum Detektieren eines Berechnungsfehlers oder eines Funktionsfehlers einer Recheneinheit oder eines Speichers beim Betreiben eines ersten angelernten neuronalen Netzes auf der Recheneinheit mittels eines zweiten angelernten neuronalen Netzes offenbart. Das Verfahren umfasst die Schritte:In a first aspect, a method is disclosed for detecting a computational error or a malfunction of a computational unit or a memory when operating a first learned neural network on the arithmetic unit by means of a second learned neural network. The method comprises the steps:
Ermitteln jeweils wenigstens einer Ausgangsgröße einer Mehrzahl von Schichten des ersten angelernten neuronalen Netzes abhängig von einer Eingangsgröße der jeweiligen Schicht und der jeweiligen Schicht zugeordneten Parametern, die in dem Speicher hinterlegt sind. Anschließend wird eine Eingangsgröße des zweiten angelernten neuronalen Netzes bereitgestellt. Die Eingangsgröße umfasst wenigstens eine, insbesondere eine Mehrzahl, der Ausgangsgrößen der Schichten des ersten angelernten neuronalen Netzes. Vorzugsweise umfasst die Eingangsgröße zumindest eine Ausgangsgröße der vorletzten Schicht, da diese Informationen ihrer vorhergehenden Schichten aufweist. Daraufhin wird eine Ausgangsgröße des zweiten angelernten neuronalen Netzes, in Abhängigkeit der bereitgestellten Eingangsgröße, ermittelt. Abhängig von dieser Ausgangsgröße des zweiten angelernten neuronalen Netzes wird ermittelt, ob ein Berechnungsfehler oder eine Fehlfunktion der Recheneinheit oder des Speichers aufgetreten ist. Vorzugsweise charakterisiert die Ausgangsgröße des zweiten angelernten neuronalen Netzes, ob ein Berechnungsfehler oder eine Fehlfunktion der Recheneinheit oder des Speichers aufgetreten ist. Zusätzlich oder alternativ kann die Ausgangsgröße den Berechnungsfehler oder die Fehlfunktion charakterisieren, z.B. eine Art des Berechnungsfehlers oder der Fehlfunktion und/oder eine Position, an welcher der Berechnungsfehler oder die Fehlfunktion aufgetreten ist.Determining each at least one output of a plurality of layers of the first learned neural network depending on an input of the respective layer and the respective layer associated parameters, which are stored in the memory. Subsequently, an input of the second trained neural network is provided. The input quantity comprises at least one, in particular a plurality, of the output variables of the layers of the first learned neural network. The input variable preferably comprises at least one output of the penultimate layer, since this has information of its preceding layers. Then, an output of the second trained neural network, depending on the provided input size is determined. Depending on this output quantity of the second trained neural network, it is determined whether a calculation error or a malfunction of the arithmetic unit or of the memory has occurred. Preferably, the output of the second learned neural network characterizes whether a calculation error or malfunction of the arithmetic unit or the memory has occurred. Additionally or alternatively, the output may characterize the calculation error or malfunction, e.g. a type of the calculation error or the malfunction and / or a position where the calculation error or the malfunction has occurred.
Unter einem angelernten neuronalen Netz wird ein neuronales Netz verstanden, welches, unter Verwendung vorgebbarer Trainingsdaten, angelernt wurde um eine vorgebbare Aufgabe zu lösen. Unter einer Fehlfunktion kann eine nicht ordnungsgemäße Funktion der jeweiligen Komponente verstanden werden.A trained neural network is understood to be a neural network which has been taught using predeterminable training data in order to solve a predefinable task. A malfunction can be understood as an improper functioning of the respective component.
Der Vorteil hierbei ist, dass mittels des zweiten angelernten neuronalen Netzes das erste angelernte neuronale Netz überwacht wird und somit ein besonders zuverlässiges und sicheres Verfahren zum Betreiben des ersten angelernten neuronalen Netzes bereitgestellt wird. Daher kann das erste angelernte neuronale Netz selbst in sicherheitskritischen Situationen verwendet werden.The advantage here is that the first learned neural network is monitored by means of the second learned neural network and thus a particularly reliable and secure method for operating the first learned neural network is provided. Therefore, the first learned neural network can be used even in safety critical situations.
Es wird vorgeschlagen, dass eine Ausgangsgröße einer letzten Schicht des ersten angelernten neuronalen Netzes eine Eingangsgröße einer ersten Schicht, insbesondere Eingangsschicht, des ersten angelernten neuronalen Netzes charakterisiert, insbesondere klassifiziert. Die letzte Schicht ist diejenige Schicht, die mit keiner weiteren nachfolgenden Schicht verbunden ist. Die erste Schicht ist diejenige Schicht, die mit keiner vorhergehenden Schicht verbunden ist, also die Eingangsgröße des neuronalen Netzes erhält. Das zweite angelernte neuronale Netz ermittelt eine weitere Ausgangsgröße und diese weitere Ausgangsgröße charakterisiert, insbesondere klassifiziert, ebenfalls die Eingangsgröße der ersten Schicht des ersten angelernten neuronalen Netzes. Wenn ermittelt wurde, dass ein Berechnungsfehler oder eine Fehlfunktion der Recheneinheit oder des Speichers aufgetreten ist, wird abhängig von der weiteren Ausgangsgröße des zweiten angelernten neuronalen Netzes eine Steuergröße ermittelt. Vorzugsweise wird im Falle, dass kein Berechnungsfehler oder keine Fehlfunktion der Recheneinheit oder des Speichers aufgetreten ist, die Steuergröße abhängig von der Ausgangsgröße der letzten Schicht des ersten angelernten neuronalen Netzes ermittelt. Ferner wird vorgeschlagen, dass die weitere Ausgangsgröße des zweiten angelernten neuronalen Netzes nicht durch den Berechnungsfehler oder die Fehlfunktion beeinträchtigt ist.It is proposed that an output variable of a last layer of the first learned neural network characterizes, in particular, classifies an input variable of a first layer, in particular input layer, of the first learned neural network. The last layer is the layer that is not connected to any subsequent layer. The first layer is the layer that is not connected to any previous layer, ie receives the input of the neural network. The second learned neural network determines a further output variable, and this further output variable characterizes, in particular classifies, also the input variable of the first layer of the first learned neural network. If it has been determined that a calculation error or a malfunction of the arithmetic unit or of the memory has occurred, a control variable is determined as a function of the further output variable of the second trained neural network. Preferably, in the event that no calculation error or no malfunction of the arithmetic unit or the memory has occurred, the control variable is determined depending on the output of the last layer of the first learned neural network. It is also proposed that the further output of the second trained neural network is not affected by the calculation error or the malfunction.
Die Steuergröße kann zum Steuern eines Aktors eines technischen Systems verwendet werden. Das technische System kann zum Beispiel ein zumindest teilautonomes Fahrzeug, ein Roboter, ein Werkzeug, eine Werkmaschine oder ein Flugobjekt, wie eine Drohne, sein.The control quantity can be used to control an actuator of a technical system. The technical system may be, for example, an at least semi-autonomous vehicle, a robot, a tool, a factory machine or a flying object, such as a drone.
Vorteilhaft hieran ist, dass durch die weitere Ausgangsgröße des zweiten angelernten neuronalen Netzes eine Ausgangsgröße bereitgestellt wird, die nicht durch einen Berechnungsfehler oder eine Fehlfunktion der Recheneinheit oder des Speichers beeinträchtigt ist, da das zweite angelernte neuronale Netz die Fehlfunktion erkennt und derart angelernt sein kann, die Fehlfunktion beim Ermitteln der weiteren Ausgangsgröße nicht zu berücksichtigen.An advantage of this is that due to the further output of the second trained neural Network is provided an output that is not affected by a calculation error or malfunction of the arithmetic unit or the memory, since the second trained neural network detects the malfunction and may be trained to disregard the malfunction in determining the other output variable.
Weiterhin wird vorgeschlagen, dass eine Mehrzahl der Ausgangsgrößen der Schichten des ersten angelernten neuronalen Netzes jeweils komprimiert werden und wenigstens eine, insbesondere eine Mehrzahl, der Ausgangsgrößen der Schichten und/oder wenigstens eine, insbesondere eine Mehrzahl, der komprimierten Ausgangsgrößen als die Eingangsgröße des zweiten angelernten neuronalen Netzes bereitgestellt werden.Furthermore, it is proposed that a plurality of the output quantities of the layers of the first learned neural network are respectively compressed and at least one, in particular a plurality, of the output quantities of the layers and / or at least one, in particular a plurality, of the compressed output variables as the input quantity of the second semi-trained neural network.
Der Vorteil ist, dass durch die komprimierte Eingangsgröße eine geringere Anzahl von Neuronen des ersten angelernten neuronalen Netzes benötigt werden.The advantage is that the compressed input requires a smaller number of neurons of the first learned neural network.
Weiterhin wird vorgeschlagen, dass das Ermitteln der Ausgangsgröße des zweiten angelernten neuronalen Netzes jeweils auf weiteren, separaten Recheneinheiten durchgeführt wird.Furthermore, it is proposed that the determination of the output variable of the second learned neural network is carried out in each case on further, separate arithmetic units.
Dieses Vorgehen weist den Vorteil auf, dass das zweite angelernte neuronale Netz gegenüber zum Beispiel einem (nicht-) temporären Hardwarefehler der Recheneinheit, auf welcher das erste angelernte neuronale Netz betrieben wird, abgesichert werden kann.This procedure has the advantage that the second trained neural network can be protected against, for example, a (non-) temporary hardware error of the computing unit on which the first learned neural network is operated.
Weiterhin wird vorgeschlagen, dass die Eingangsgröße des Weiteren wenigstens eine zeitlich vorhergehend ermittelte Ausgangsgröße einer der Schichten des ersten angelernten neuronalen Netzes umfasst. Optional kann die Eingangsgröße des zweiten angelernten neuronalen Netzes auch die Eingangsgröße des ersten angelernten neuronalen Netzes umfassen.Furthermore, it is proposed that the input variable further comprises at least one output quantity determined in advance in time of one of the layers of the first learned neural network. Optionally, the input of the second trained neural network may also include the input of the first learned neural network.
Der Vorteil ist, dass, z.B. bei einer Bildsequenz als Eingangsgröße des ersten angelernten neuronalen Netzes, bereits ermittelte Ausgangsgrößen des ersten angelernten neuronalen Netz wiederverwendet werden, wodurch mehr Informationen dem zweiten angelernten neuronalen Netz zur Verfügung stehen, vor allem Informationen, die entlang einer zeitlichen Dimension der Ausgangsgrößen vorhanden sind.The advantage is that, e.g. in the case of an image sequence as the input quantity of the first learned neural network, already determined outputs of the first learned neural network are reused, whereby more information is available to the second learned neural network, in particular information that is present along a temporal dimension of the output variables.
Weiterhin wird vorgeschlagen, dass das erste angelernte neuronale Netz ein faltendes neuronales Netz (engl. Convolutional Neural Network) ist und das zweite angelernte neuronale Netz ein rekurrentes neuronales Netz (engl. Recurrent Neural Network) ist.Furthermore, it is proposed that the first learned neural network is a convolutional neural network and the second learned neural network is a recurrent neural network.
Dies weist den Vorteil auf, dass durch das rekurrente neuronale Netz Informationen, die innerhalb der zeitlichen Dimension der Eingangsgröße des zweiten angelernten neuronalen Netzes vorhanden sind, genutzt werden können. Damit können beispielsweise temporäre Fehlfunktionen oder Berechnungsfehler zuverlässiger erkannt werden.This has the advantage that information which is present within the time dimension of the input quantity of the second learned neural network can be used by the recurrent neural network. Thus, for example, temporary malfunctions or calculation errors can be detected more reliably.
In einem zweiten Aspekt wird ein Verfahren zum Anlernen eines zweiten neuronalen Netzes vorgeschlagen. Das Verfahren umfasst folgende Schritte:
- Bereitstellen von Trainingsdaten, die Trainingseingangsgrößen und jeweils zugeordnete Trainingsausgangsgrößen umfassen. Betreiben des ersten angelernten neuronalen Netzes. Beim Betreiben des ersten angelernten neuronalen Netzes, ermittelt dieses abhängig von jeweils den Trainingseingangsgrößen schichtweise jeweils eine Ausgangsgröße. Anschließend wird eine Mehrzahl der schichtweise ermittelten Ausgangsgrößen als Eingangsgrößen des zweiten neuronalen Netzes breitgestellt. Vorzugsweise sind die schichtweise ermittelten Ausgangsgrößen jeweils einer der Trainingseingangsgrößen zugeordnet. Daraufhin wird eine Mehrzahl der Ausgangsgrößen der Schichten mit einer einen Berechnungsfehler oder eine Fehlfunktion einer Recheneinheit oder eines Speichers charakterisierenden Größe beaufschlagt. Anschließend wird das zweite neuronale Netz abhängig von den bereitgestellten Eingangsgrößen und den Trainingsausgangsgrößen derart angelernt, dass eine Ausgangsgröße des zweiten neuronalen Netzes einen Berechnungsfehler oder eine Fehlfunktion der Recheneinheit oder des Speichers beim Betreiben eines ersten angelernten neuronalen Netzes auf der Recheneinheit charakterisiert.
- Providing training data comprising training input quantities and respective assigned training outputs. Operating the first learned neural network. When operating the first learned neural network, this determined depending on the respective training input sizes in layers each an output variable. Subsequently, a plurality of the slice-determined output variables are provided as input variables of the second neural network. The slice-determined output variables are preferably assigned to one of the training input variables in each case. Subsequently, a plurality of the output variables of the layers are subjected to a variable characterizing a calculation error or a malfunction of a computing unit or a memory. Subsequently, the second neural network is trained depending on the provided input variables and the training output variables such that an output variable of the second neural network characterizes a calculation error or a malfunction of the arithmetic unit or of the memory when operating a first learned neural network on the arithmetic unit.
Unter einem Anlernen eines neuronalen Netzes wird im Folgenden verstanden, dass eine Kostenfunktion, die zumindest abhängig von Parametern des neuronalen Netzes ist, durch Verändern von Werten der Parameter minimiert wird.A training of a neural network is understood in the following to mean that a cost function that is at least dependent on parameters of the neural network is minimized by changing values of the parameters.
Weiterhin wird vorgeschlagen, dass die Ausgangsgröße der letzten Schicht des ersten angelernten neuronalen Netzes eine Eingangsgröße des ersten angelernten neuronalen Netzes charakterisiert. Das zweite neuronale Netz ermittelt eine weitere Ausgangsgröße und das zweite neuronale Netz wird des Weiteren derart angelernt, dass die weitere Ausgangsgröße ebenfalls die Eingangsgröße der ersten Schicht des ersten angelernten neuronalen Netzes charakterisiert. Ferner wird vorgeschlagen, dass das zweite neuronale Netz derart angelernt wird, dass, wenn das zweite neuronale Netz ein Berechnungsfehler oder eine Fehlfunktion erkennt, die weitere Ausgangsgröße des zweiten neuronalen Netzes nicht durch diesen Berechnungsfehler oder diese Fehlfunktion beeinflusst ist.Furthermore, it is proposed that the output variable of the last layer of the first learned neural network characterizes an input variable of the first learned neural network. The second neural network determines a further output variable and the second neural network is further taught in such a way that the further output variable also characterizes the input variable of the first layer of the first learned neural network. Furthermore, it is proposed that the second neural network be trained such that when the second neural network detects a calculation error or a malfunction, the further output quantity of the second neural network Network is not affected by this calculation error or this malfunction.
Weiterhin kann vorgesehen sein, dass die neuronalen Netze abhängig oder unabhängig voneinander angelernt werden.Furthermore, it can be provided that the neural networks are trained independently or independently.
Unter einem voneinander unabhängigen Anlernen kann verstanden werden, dass die maschinellen Lernsysteme getrennt voneinander angelernt werden, sodass Parameter der jeweiligen maschinellen Lernsysteme unabhängig voneinander angepasst werden. Während eines der maschinellen Lernsysteme angelernt und dessen Parameter angepasst werden, bleiben die Parameter des anderen ersten angelernten neuronalen Netzes unverändert. Unter einem voneinander abhängigen Anlernen kann verstanden werden, dass Parameter der maschinellen Lernsysteme abhängig voneinander angepasst oder in Abhängigkeit von einer Kostenfunktion, die abhängig von den Parametern der maschinellen Lernsystemen ist, angepasst werden. Beim abhängigen Anlernen beider maschineller Lernsysteme können die Parameter beider maschineller Lernsysteme zeitgleich angepasst werden.Independent learning can be understood to teach the machine learning systems separately so that parameters of the respective machine learning systems are independently adjusted. While one of the machine learning systems is taught and its parameters adjusted, the parameters of the other first learned neural network remain unchanged. Interdependent training may be understood to adapt machine learning system parameters as a function of one another or to adapt them to a cost function that depends on the parameters of the machine learning systems. In the case of dependent learning of both machine learning systems, the parameters of both machine learning systems can be adapted at the same time.
In einem weiteren Aspekt wird ein Computerprogramm vorgeschlagen. Das Computerprogramm ist eingerichtet, eines der vorherigen genannten Verfahren auszuführen. Das Computerprogramm umfasst Anweisungen, die einen Computer veranlassen, eines dieser genannten Verfahren mit all seinen Schritten auszuführen, wenn das Computerprogramm auf dem Computer abläuft. Ferner wird ein maschinenlesbares Speichermodul vorgeschlagen, auf welchem das Computerprogramm gespeichert ist. Des Weiteren wird eine Vorrichtung vorgeschlagen, die eingerichtet ist eines der Verfahren auszuführenIn another aspect, a computer program is proposed. The computer program is set up to execute one of the aforementioned methods. The computer program includes instructions that cause a computer to perform one of these methods in all its steps when the computer program runs on the computer. Furthermore, a machine-readable memory module is proposed, on which the computer program is stored. Furthermore, a device is proposed which is set up to carry out one of the methods
Ausführungsbeispiele der oben genannten Aspekte sind in den beiliegenden Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Dabei zeigen:Embodiments of the above aspects are illustrated in the accompanying drawings and described in more detail in the following description. Showing:
Figurenlistelist of figures
-
1 eine schematische Darstellung eines zumindest teilautonomen Fahrzeuges;1 a schematic representation of an at least partially autonomous vehicle; -
2 eine schematische Darstellung eines ersten und eines zweiten neuronalen Netzes;2 a schematic representation of a first and a second neural network; -
3 eine schematische Darstellung einer Ausführungsform eines Verfahren zum Detektieren eines Berechnungsfehlers oder einer Fehlfunktion einer Recheneinheit oder eines Speichers beim Betreiben des ersten neuronalen Netzes;3 a schematic representation of an embodiment of a method for detecting a calculation error or malfunction of a computing unit or a memory when operating the first neural network; -
4 eine schematische Darstellung einer Ausführungsform einer Vorrichtung zum Anlernen des ersten und zweiten neuronalen Netzes.4 a schematic representation of an embodiment of an apparatus for teaching the first and second neural network.
Das erste angelernte neuronale Netz (
Ferner umfasst das Fahrzeug (
In einem weiteren Ausführungsbeispiel umfasst die Aktorsteuerungseinheit (
In einem alternativen Ausführungsbeispiel kann das Fahrzeug (
In einer weiteren Ausführungsform wird das erste angelernte neuronale Netz (
Es ist auch denkbar, dass in einer Weiterentwicklung des Messsystems die Erfassungseinheit (
Die zwei angelernten neuronalen Netze (
Das erste angelernte neuronale Netz (
Während das erste angelernten neuronale Netz (
Im Falle einer Fehlfunktion (
Das zweite angelernte neuronale Netz (
Die Eingangsgröße (
Zusätzlich kann das zweite angelernte neuronale Netz (
In einem weiteren Ausführungsbeispiel kann zumindest eine Ausgangsgröße eine der Schichten des ersten angelernten neuronalen Netzes (
Das Verfahren (
Im nachfolgenden Schritt
Nachdem Schritt
Im nachfolgenden Schritt
Optional kann nach dem Schritt
Optional kann vor dem Ausführen des Schrittes
Zuerst werden Trainingsdaten, die Trainingseingangsgrößen und zugeordnete Trainingsausgangsgrößen umfassen, bereitgestellt. Daraufhin wird das erste angelernte neuronale Netz (
Anschließend wird jeweils eine Mehrzahl der ermittelten Ausgangsgrößen der Schichten des ersten angelernten neuronalen Netzes (
In einer weiteren Ausführungsform ermittelt das zweite neuronale Netz (
Es versteht sich, dass das Verfahren (
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102006031238 B4 [0002]DE 102006031238 B4 [0002]
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018207220.5A DE102018207220A1 (en) | 2018-05-09 | 2018-05-09 | A method, apparatus and computer program for detecting a calculation error or a malfunction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018207220.5A DE102018207220A1 (en) | 2018-05-09 | 2018-05-09 | A method, apparatus and computer program for detecting a calculation error or a malfunction |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018207220A1 true DE102018207220A1 (en) | 2019-11-14 |
Family
ID=68336742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018207220.5A Pending DE102018207220A1 (en) | 2018-05-09 | 2018-05-09 | A method, apparatus and computer program for detecting a calculation error or a malfunction |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018207220A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202813A1 (en) | 2021-03-23 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, device and computer program for an uncertainty assessment of an image classification |
DE102021204040A1 (en) | 2021-04-22 | 2022-10-27 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, device and computer program for creating training data in the vehicle |
-
2018
- 2018-05-09 DE DE102018207220.5A patent/DE102018207220A1/en active Pending
Non-Patent Citations (8)
Title |
---|
Fault tolerance. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 20.04.2018. URL: https://en.wikipedia.org/w/index.php?title=Fault_tolerance&oldid=837399062 [abgerufen am 31.01.2019]] * |
Koopman, P.; Wagner, M.: Challenges in Autonomous Vehicle Testing and Validation. In: 2016 SAE World Congress (Preprint), 2016, S. 1-10. https://www.semanticscholar.org/paper/Challenges-in-Autonomous-Vehicle-Testing-and-Koopman-Wagner/42a6ae6827f8cc92e15191e53605b0aa4f875fb9 [abgerufen am 31.01.2019] * |
Krogh, Anders; Vedelsby, Jesper: Neural Network Ensembles, Cross Validation and Active Learning. In: Proceedings of the 7th International Conference on Neural Information Processing Systems, 1994, S. 231-238. https://papers.nips.cc/paper/1001-neural-network-ensembles-cross-validation-and-active-learning.pdf [abgerufen am 31.01.2019] * |
Malhotra, Pankaj [et.al.]: Long Short Term Memory Networks for Anomaly Detection in Time Series. In: 23rd European Symposium on Artificial Neural Networks (ESANN2015), 2015, S. 89-94. https://www.elen.ucl.ac.be/esann/proceedings/papers.php?ann=2015 [abgerufen am 01.02.2019] * |
Perotti, A.; d'Avila Garcez, A.; Boella, G.: Neural Networks for Runtime Verification. In: 2014 International Joint Conference on Neural Networks (IJCNN), 2014, S. 2637-2644. - ISSN 2161-4407. https://doi.org/10.1109/IJCNN.2014.6889961 [abgerufen am 31.01.2019] * |
Ponti Jr.; M.P.: Combining Classifiers: From the Creation of Ensembles to the Decision Fusion. In: 2011 24th SIBGRAPI Conference on Graphics, Patterns, and Images Tutorials, 2011, S. 1-10. https://doi.org/10.1109/SIBGRAPI-T.2011.9 [abgerufen am 31.01.2019] * |
Saurav, Sakti [et.al.]: Online Anomaly Detection with Concept Drift Adaptation Using Recurrent Neural Networks. Proceedings of the ACM India Joint International Conference on Data Science and Management of Data. New York, NY, USA : ACM, 11.-13.01.2018 (CoDS-COMAD '18). S. 78-87. - ISBN 978-1-4503-6341-9. http://doi.acm.org/10.1145/3152494.3152501 [abgerufen am 01.02.2019] * |
Taylor, Brian J.; Darrah, Marjorie A.; Moats, Christina D.: Verification and validation of neural networks: a sampling of research in progress. In: Proc.SPIE, 5103, 04.08.2003, S. 5103-8 - 5103-16. - ISSN 1996-756X. https://doi.org/10.1117/12.487527 [abgerufen am 31.01.2019] * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202813A1 (en) | 2021-03-23 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, device and computer program for an uncertainty assessment of an image classification |
DE102021204040A1 (en) | 2021-04-22 | 2022-10-27 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method, device and computer program for creating training data in the vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018206208A1 (en) | Method, device, product and computer program for operating a technical system | |
EP3899682B1 (en) | Monitoring of neural-network-based driving functions | |
DE102018208763A1 (en) | Method, apparatus and computer program for operating a machine learning system | |
EP3701433B1 (en) | Method, device and computer program for developing a deep neural network | |
DE102019209462A1 (en) | Method for determining a confidence value of a detected object | |
DE202018104373U1 (en) | Apparatus adapted to operate a machine learning system | |
DE102017204745A1 (en) | Architecture and apparatus for advanced arbitration in integrated controllers | |
DE102018207220A1 (en) | A method, apparatus and computer program for detecting a calculation error or a malfunction | |
EP3935463B1 (en) | Method and device for operating an automated vehicle | |
DE102018207194A1 (en) | Determining an environmental state of a vehicle with linked classifiers | |
EP3467722B1 (en) | Configuration of a motor vehicle driver assisting device using a neural network in ongoing operation | |
EP3786853A1 (en) | Compression of a deep neural network | |
DE102019209463A1 (en) | Method for determining the trust value of an object of a class | |
WO2020064209A1 (en) | Machine learning system and a method, a computer program and a device for creating the machine learning system | |
DE102018125712A1 (en) | Driving support method for a vehicle | |
DE102018207923A1 (en) | Improved training of a classifier | |
DE102021202813A1 (en) | Method, device and computer program for an uncertainty assessment of an image classification | |
DE102017221381A1 (en) | Method, apparatus and computer program for determining a distance to an object | |
DE102021204040A1 (en) | Method, device and computer program for creating training data in the vehicle | |
EP3953865A1 (en) | Method, device, and computer program for operating a deep neural network | |
WO2021063572A1 (en) | Device and method for processing data from a neural network | |
DE102018205869A1 (en) | Method, computer system and computer program for controlling an actuator | |
EP4254083A1 (en) | Method for parameterizing a monitoring system, parameter device, and a monitoring system | |
DE102017223283A1 (en) | A method, apparatus and computer program for driving an actuator and detecting an anomaly | |
DE102021208825A1 (en) | Method for depicting a rear environment of a mobile platform coupled to a trailer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |