EP3857822A1 - Verfahren und vorrichtung zum ermitteln eines ansteuersignals - Google Patents

Verfahren und vorrichtung zum ermitteln eines ansteuersignals

Info

Publication number
EP3857822A1
EP3857822A1 EP19755586.5A EP19755586A EP3857822A1 EP 3857822 A1 EP3857822 A1 EP 3857822A1 EP 19755586 A EP19755586 A EP 19755586A EP 3857822 A1 EP3857822 A1 EP 3857822A1
Authority
EP
European Patent Office
Prior art keywords
encoder
input signal
auto
determined
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP19755586.5A
Other languages
English (en)
French (fr)
Inventor
Michael Klar
Zhongyu LOU
Duc Tam Nguyen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3857822A1 publication Critical patent/EP3857822A1/de
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence

Definitions

  • the invention relates to a method and a device for classifying an input signal and determining a control signal, in particular for
  • a method for determining whether there is an anomaly in a communication network is known from the unpublished DE 10 201 721 0787.1, wherein at least one message transmitted via the communication network is analyzed by depending on the, i.e. especially from the
  • an input variable of an encoder is determined, an intermediate variable of reduced dimensionality being determined by means of the encoder, and depending on the intermediate variable using a
  • Decoder an output variable with the dimensionality of the input variable is determined, it being decided depending on the input variable and output variable whether or not the anomaly is present.
  • Such a combination of encoder and decoder such that the input variable has one or more intermediate variables of reduced dimensionality, i.e. with a
  • Loss of information connected, converted into the output size, can also be referred to with the word "Autoencoder”.
  • CNN Convolutional Neural Networks
  • the invention therefore relates to the method with the features of claim 1. Further aspects are the subject of
  • the invention therefore relates to a method for classifying an input signal, which is determined in particular as a function of a sensor signal, that is to say an output signal from a sensor.
  • a decision is made as to whether the input signal has an anomaly or not, the auto encoder having at least one encoder and has at least one decoder, an intermediate variable being determined as a function of the input signal by means of the encoder, and the output signal being determined as a function of this using the decoder, the autoencoder providing a plurality of different hypotheses for the input signal supplied to it for the reconstruction of the input signal and as a function of the output signal is determined from this plurality of different hypotheses.
  • the hypotheses are preferably different in pairs, i.e. no two of the hypotheses are the same. This can preferably be ensured in a training phase of the auto encoder in which parameters of the auto encoder are varied in order to minimize a predefinable cost function, the cost function is selected such that it is punished if two hypotheses are too similar, in particular the same, to one another.
  • the car encoder has a
  • the decoders are partially identical. If the decoders are implemented, for example, by artificial neural networks, it can be provided that the first layers are shared by all decoders and that the decoders only differentiate in the last layer or the last layers.
  • Input signal is closest.
  • a control signal can be provided
  • This control signal can in particular be used to control a Actuator, preferably for controlling an at least partially automated vehicle.
  • a system which is set up to carry out one of the aforementioned methods.
  • This system therefore also includes the aforementioned auto encoder.
  • a method for training this car encoder is therefore provided. This is done using a discriminator.
  • the discriminator will either be supplied with an input signal, in particular determined from sensor signals, or an output signal generated by the auto-encoder, whereby the discriminator is trained to distinguish whether the signal supplied to it is the input signal or the output signal generated by the auto-encoder, and the auto-encoder is trained that
  • Discriminator and Autoencoder play a two-player game similar to the game that is used in so-called Generative Adversarial Networks (short: GAN).
  • Output signal is determined, which is then fed to the discriminator for differentiation.
  • the intermediate size can be predefined from a fixed value
  • Probability distribution is drawn, only the discriminator being trained depending on the output signal determined as a result.
  • this output signal is included in a term of the cost function so that, depending on the gradient of this cost function, only immediately
  • the encoder determines, depending on the input signal, parameters which characterize a statistical distribution, in particular a normal distribution, of the intermediate variable for a given input signal and the intermediate variable from this statistical
  • an input signal is erroneously identified as an anomaly, it can be provided that from the majority of the hypotheses generated by the auto-encoder, the one that is most similar to the input signal is selected, the
  • the hypothesis tries to decide whether it was generated by the auto-encoder or not, and an adjustment of parameters which characterize the discriminators and / or the auto-encoder is dependent on the result of this attempted decision.
  • the discriminator tries to decide for each hypothesis generated by the auto-encoder depending on this intermediate variable, whether it was generated by the auto-encoder or not, and with a variation of parameters that affect the discriminator and / or characterizing the autoencoder is dependent on the results of all of these attempted decisions.
  • Figure 1 shows schematically an auto encoder according to the invention
  • Figure 2 schematically shows a structure of an embodiment of the invention
  • Figure 3 schematically shows an embodiment for controlling a
  • Figure 4 schematically shows an embodiment for controlling a
  • Figure 5 schematically shows an embodiment for controlling a
  • Figure 6 schematically shows an embodiment for controlling a
  • Figure 7 schematically shows an embodiment for controlling a
  • Figure 8 schematically shows an embodiment for controlling a
  • FIG. 9 schematically shows a training system for training the car encoder
  • FIG. 10 schematically shows an auto encoder for use in the training system
  • Figure 11 schematically shows a structure of an embodiment of a
  • FIG. 12 shows a flowchart of an embodiment of a method for training the auto-encoder
  • Figure 13 is a flowchart showing an embodiment of part of the
  • FIG. 14 shows in a flowchart a second embodiment of part of the method for training the auto-encoder
  • Figure 15 is a flowchart of a third embodiment of part of the
  • Figure 16 is a flowchart of a fourth embodiment of part of the
  • FIG. 17 shows in a flow chart an embodiment of a method for
  • Figure 1 shows an actuator 10 in its environment 20 in interaction with a control system 40.
  • Actuator 10 and environment 20 are collectively referred to as an actuator system.
  • a state of the actuator system is detected with a sensor 30, which can also be given by a plurality of sensors.
  • the sensor signal S - or in the case of several sensors, one sensor signal S - from the sensor 30 is transmitted to the control system 40.
  • the control system 40 thus receives a sequence of sensor signals S.
  • the control system 40 uses this to determine control signals A, which are transmitted to the actuator 10.
  • the control system 40 receives the sequence of sensor signals S from the sensor 30 in an optional receiving unit 50, which the sequence of
  • sensor signal S Converts sensor signals S into a sequence of input signals x (alternatively, sensor signal S can also be directly adopted as input signal x).
  • the input signal x can be, for example, a section or further processing of the sensor signal S.
  • the input signal x can comprise, for example, image data or images, or individual frames of a video recording. In other words, input signal x is determined as a function of sensor signal S.
  • the input signal x is an auto encoder 60, such as it is illustrated by way of example in FIG. 2.
  • the input signal x is also fed to an anomaly detector 80.
  • the autoencoder 60 is preferably parameterized by parameters f, Q, which are stored in a parameter memory P and are made available by the latter.
  • the auto encoder 60 determines x output signals y from the input signals.
  • the output signals y are supplied to the anomaly detector 80.
  • Output signal y is a reconstruction of the input signal x by the auto-encoder 60.
  • Anomaly detector 80 determined from the input signal x and
  • Output signal y is a measure of similarity between input signal x and
  • the anomaly detector can determine control signals A, which are fed to the actuator 10, in order to control the actuator 10 accordingly. For example, it can be decided whether the actuator 10 is controlled in a normal mode or in a safety mode. An embodiment of this method is illustrated in FIG. 17.
  • the actuator 10 receives the control signals A, is controlled accordingly and carries out a corresponding action.
  • the actuator 10 can in this case comprise a (not necessarily structurally integrated) control logic, which determines a second control signal from the control signal A, with which the
  • control system 40 includes the sensor 30. In still further embodiments, the control system 40 alternatively or additionally also includes the actuator 10.
  • control system 40 includes one or more processors 45 and at least one
  • machine-readable storage medium 46 on which instructions are stored which, when executed on the processors 45, the
  • Control system 40 cause the inventive method
  • a display unit 10a is provided as an alternative or in addition to the actuator 10.
  • FIG. 2 shows an exemplary structure of the auto-encoder 60.
  • the auto-encoder 60 comprises an encoder (61), with the aid of which an intermediate variable z is determined from the input signal x. The dimensionality of the intermediate variable z is reduced compared to the input signal x.
  • Autoencoder 60 also includes decoders 63 ! , 63 2 , ..., which are used to determine reconstructed input signals x 1 , x 2 , ... from the intermediate variable z. These reconstructed input signals x 1 , x 2 , ... are also called “hypotheses” and preferably have the same dimensionality as the input signal x.
  • An evaluator 65 determines from the hypotheses x 1 , x 2 ,
  • the evaluator 65 selects from the hypotheses x 1 , x 2 ,... As the output signal y that most similar to the input signal.
  • the autoencoder 60 is designed as a so-called “Variational Autoencoder” (short: VAE).
  • VAE Variational Autoencoder
  • the UAE is characterized in that the encoder 61 determines, depending on the input signal x, parameters m Z
  • x) can be given by a normal distribution, and the parameters m z ⁇ c , S z ⁇ c are (possibly vector or matrix values, provided the input signal x is multidimensional) mean values m Z
  • a sampler 62 then draws one or more intermediate variables z as statistical samples.
  • can be characterized. For example, the statistical distributions p 1 (x
  • may be vector or matrix values, provided the intermediate size e.g.
  • Encoders 61 and / or decoders 63 1 , 63 2 , ... are preferably neural networks parameterized by parameters f, Q.
  • FIG. 3 shows an exemplary embodiment in which the control system 40 is used to control an at least partially autonomous robot, here an at least partially autonomous motor vehicle 100.
  • the sensor 30 can be, for example, one or more video sensors and / or one or more radar sensors and / or one or more ultrasound sensors and / or one or more LiDAR sensors and / or one or more position sensors (for example, preferably arranged in the motor vehicle 100) GPS) act.
  • the sensor 30 can also include an information system that determines information about a state of the actuator system, such as a
  • Weather information system that determines a current or future state of the weather in the environment 20.
  • the input signal x can contain, for example, information about detected objects in the vicinity of the at least partially autonomous robot.
  • the actuator 10, which is preferably arranged in the motor vehicle 100, can be, for example, a brake, a drive or a steering of the motor vehicle 100
  • the control signal A can then be determined in this way that the actuator or the actuators 10 are controlled in the normal mode in such a way that the motor vehicle 100, for example, prevents a collision with identified objects, in particular if it is
  • the actuator or actuators 10 can be controlled such that e.g. a speed of motor vehicle 100 is limited to a predeterminable speed range.
  • the at least partially autonomous robot can also be another mobile robot (not shown), for example one that moves by flying, swimming, diving or walking.
  • the mobile robot can also be, for example, an at least partially autonomous lawn mower or an at least partially autonomous cleaning robot.
  • the control signal A can be determined in the normal mode in such a way that the drive and / or steering of the mobile robot are controlled in such a way that the at least partially autonomous robot prevents, for example, a collision with the identified objects,
  • the at least partially autonomous robot can also be a garden robot (not shown), which uses an imaging sensor 30 to determine a type or a state of plants in the environment 20.
  • the actuator 10 can then be an applicator of chemicals, for example.
  • the control signal A can be determined in the normal mode depending on the determined type or the determined state of the plants in such a way that an amount of the chemicals corresponding to the determined type or the determined state is applied. In the safety mode, the control signal A can be selected such that the amount of chemicals applied is limited to a predeterminable range of chemicals.
  • the at least partially autonomous robot can also be a household appliance (not shown), in particular a washing machine, a stove, an oven, a microwave or a dishwasher.
  • a household appliance for example an optical one Sensor
  • a state of an object treated with the household appliance can be detected, for example in the case of the washing machine, a state of laundry that is in the washing machine.
  • a type or a state of this object can then be determined from this.
  • the control signal A can then be determined in the normal mode in such a way that the household appliance is controlled as a function of the determined type or the determined state of the object.
  • this can be controlled depending on the material from which the laundry contained therein is made.
  • Control signal A can then be selected depending on which material of the laundry has been determined.
  • Control signal A can in
  • Security mode can be selected such that the household appliance
  • the washing machine is turned off.
  • FIG. 4 shows an exemplary embodiment in which the control system 40 is used to control a production machine 11 of a production system 200 by actuating an actuator 10 that controls this production machine 11.
  • the production machine 11 can, for example, be a machine for punching, sawing, drilling and / or cutting.
  • Sensor 30 is then, for example, an optical sensor that e.g. Properties of finished products 12 recorded. It is possible that the actuator 10 controlling the production machine 11 is controlled in the normal mode depending on the determined properties of the production product 12, so that the production machine 11 accordingly carries out a subsequent processing step of this production product 12. It is also possible for the sensor 30 to determine the properties of the manufactured product 12 processed by the manufacturing machine 11 and, depending on this, to control the manufacturing machine 11 for a subsequent one
  • Adapted manufacturing product In the safety mode it can be provided that the actuator 10 is controlled in such a way that the production machine is switched off.
  • FIG. 5 shows an exemplary embodiment in which the control system 40 is used to control a personal assistant 250.
  • the sensor 30 is, for example, an acoustic sensor, the speech signals of a user 249 receives. Alternatively or additionally, the sensor 30 can also be configured to receive optical signals, for example video images of a gesture of the user 249.
  • the control system 40 determines a control signal A of the personal assistant 250 in the normal mode, for example by the machine learning system performing a gesture recognition. This determined control signal A is then transmitted to the personal assistant 250 and is therefore controlled accordingly.
  • This determined control signal A ist can in particular be selected in such a way that it corresponds to a presumed desired activation by the user 249. This presumed desired activation can be determined depending on the recognized gesture.
  • the control system 40 can then select the control signal A for transmission to the personal assistant 250 depending on the presumed desired control and / or select the control signal A for transmission to the personal assistant in accordance with the presumed desired control 250.
  • This corresponding control can include, for example, that the personal assistant 250 retrieves information from a database and reproduces it in a way that the user 249 can receive.
  • the personal assistant 250 is switched off or outputs an error message.
  • a household appliance (not shown), in particular a washing machine, a stove, an oven, a microwave or a dishwasher, can also be provided in order to be controlled accordingly.
  • FIG. 6 shows an exemplary embodiment in which the control system 40 is used to control an access system 300.
  • Access system 300 may include physical access control, such as door 401.
  • the sensor 30 can be, for example, an optical sensor (for example for capturing image or video data), which is set up to grasp a face.
  • Control system 40 can interpret this captured image. For example, the identity of a person can be determined.
  • the actuator 10 can be a lock which, in normal mode, releases the access control depending on the control signal A or not, for example opens the door 401 or not.
  • the control signal A can be selected depending on the interpretation, for example depending on the determined identity of the person.
  • the actuator 10 In the safety mode, it can be provided that the actuator 10 is, for example, permanently activated so that the door is permanently open (or alternatively also permanently closed).
  • a logical access control can also be provided.
  • FIG. 7 shows an exemplary embodiment in which the control system 40 is used to control a monitoring system 400.
  • This exemplary embodiment differs from the exemplary embodiment shown in FIG. 6 in that, instead of the actuator 10, the display unit 10a is provided, which is controlled by the control system 40.
  • the actuator 10 instead of the actuator 10, the display unit 10a is provided, which is controlled by the control system 40.
  • Anomaly detector 80 can be determined whether one from the optical sensor
  • Security mode can be activated.
  • the object In the normal mode, the object can then be reproduced normally by the display unit 10a, whereas in the safety mode and the control signal A can then be selected such that this object is highlighted in color by the display unit 10a.
  • FIG. 8 shows an exemplary embodiment in which the control system 40 is used to control a medical imaging system 500, for example an MRI, X-ray or ultrasound device.
  • the sensor 30 can be provided, for example, by an imaging sensor, and the control system 40 controls the display unit 10a.
  • the anomaly detector 80 can determine whether an area recorded by the imaging sensor is noticeable. If this is the case, the
  • Security mode can be activated. In normal mode this area can then be reproduced normally, in safety mode the control signal A can be selected such that this area is highlighted by the display unit 10a.
  • FIG. 9 schematically shows an exemplary embodiment of a training system 140 for training the car encoder 60.
  • a training data unit 150 determines suitable input signals x which are fed to a modified form of the car encoder 60, designated by the reference symbol 60 ′.
  • training data unit 150 accesses a computer-implemented database in which a set of training data is stored and selects e.g. randomly input signals x from the set of training data. This will be one
  • Evaluation unit 180 supplied, the structure of which is illustrated by way of example in FIG. 11.
  • the modified auto-encoder 60 ' is set up to determine training output signals gt, which each include the output signals y, based on an input training signal associated therewith from the input signals x supplied to it.
  • a mode signal m is fed to the modified auto-encoder 60 ', depending on which the modified auto-encoder 60' determines the training output signals yi. These training output signals yi are fed to the evaluation unit 180.
  • the evaluation unit 180 can, for example, by means of one of the
  • Input signals x and the training output signals yi dependent cost function (English: loss function) determine the parameter £, which characterizes the performance of the auto encoder 60.
  • the parameters f, Q can be optimized depending on the parameter £. An exemplary method for this is illustrated in FIGS. 12 to 16.
  • FIG. 10 illustrates an embodiment of modified auto-encoder 60 ', which is largely identical to the auto-encoder 60 shown in FIG.
  • the parameterization is identical to parameter f, Q. Only the differences are shown below.
  • the modified auto-encoder 60 ' has a modified evaluator 65' which, like the evaluator 65, determines the output signal y. Depending on the mode signal m, a decision is then made as to which of the available variables as the output signal yi are output, ie the difference to the auto-encoder 60 is which sizes are output.
  • FIG. 11 shows an exemplary embodiment of the evaluation unit 180.
  • Evaluation unit 180 comprises a discriminator 181, to which (selected for example via a switch 183) either the input signal x or the output signal y extracted from the training output signal gt are supplied.
  • the discriminator comprises a mathematical function, for example implemented by a neural network, with the help of which one
  • a probability quantity p is determined, which characterizes a probability that the signal supplied to the discriminator 181 is an output signal y generated by the modified auto-encoder 60 'and not one
  • This probability variable p is fed together with the mode signal m to a cost calculator 182, which uses this to determine the characteristic variable L, for example using the methods illustrated in FIGS. 13-16.
  • FIG. 12 shows a method for training the auto encoder 60 (or
  • the method starts (1000) with a selection dependent on the mode signal m, which of the following sub-methods (1001) - (1004) is carried out.
  • Signals x, y are supplied to the discriminator 181 in steps, and the discriminator 181 determines the parameters L VAE , L G , L D depending on these signals x, y.
  • Embodiments of the partial methods (1001) - (1004) are illustrated in FIGS. 13-16.
  • the convergence is checked in step (1300), if there is insufficient convergence, the process branches back to the start (1000).
  • This adaptation can be cascaded in the usual way for GAN, ie it can be provided that in an inner loop (iS) the Autoencoder 60 is trained, and with sufficient convergence of the
  • FIG. 13 illustrates an embodiment of the first partial method (1001).
  • input signals x are supplied to the discriminator 181, that is to say, for example, real images.
  • Discriminator 181 now ascertains (1002) the associated probability variable p for each of these input signals, from which the associated parameter as log (l - Pi) (1) is determined. The sum is carried out over all input signals x, the associated probability quantity p is designated by a subscript. This ends this sub-procedure.
  • the training of the car encoder 60 is omitted in the subsequent pass of step (1200), ie only the discriminator 181 is trained.
  • FIG. 14 illustrates an embodiment of the second partial method (1002).
  • the modified auto-encoder 60 ' is controlled in such a way that the sampler 62 draws an intermediate variable z from a normal distribution J ⁇ T (0.1) with mean value 0 and variance 1 (1012). Then (1022) the hypotheses x 1 , x 2 , ... are determined. These are all transmitted with the training output signal gt. Then (1032) these are fed to discriminator 181, which determines the associated probability quantities p. This becomes the parameter log (Pi) (2)
  • step (1200) The training of the car encoder 60 is omitted in the subsequent run through step (1200), ie only that
  • Discriminator 181 is trained.
  • FIG. 15 illustrates an embodiment of the third partial method (1003).
  • the modified auto-encoder 60 ′′ input signals x are supplied (1013), and an intermediate variable z from the corresponding one
  • Input signals selected from the total of the generated hypotheses that hypothesis x k that is the smallest distance from the
  • FIG. 16 illustrates an embodiment of the fourth partial method (1004). It begins with steps (1014) and (1024), which are identical to steps (1013) and (1023) of the third sub-method (1003). Then (1034) a hypothesis x 1 , x 2 , ... is drawn from each of the samplers 64 1 64 2 , ... From the generated hypotheses, the hypothesis x k is selected that has the smallest distance from the input signal x. This selected hypothesis x k and the associated index k and all other hypotheses x 1 , x 2 , ... are all transmitted with the training output signal yi and the index k. Then (1044) the associated probability values p are determined. For each of the input signals x supplied in step (1014), an average is made determined, where n denotes the number of hypotheses generated for input signal x and j indicates the hypotheses. The parameters are determined from this
  • FIG. 17 illustrates an embodiment of the operation of the control system 40.
  • the input signal x is fed to the auto-encoder 60. From this, auto-encoder 60 then determines (2100) hypotheses x 1 , x 2 , .... From this (2200) the hypothesis x k is selected whose distance from the
  • Input signal x is lowest.
  • This selected hypothesis x k is transmitted to the anomaly detector 80 as an output signal y.
  • the actuator 10 controlled accordingly. If the distance a is not less than the predefinable threshold value a, then (2500) it is decided whether the actuator 10 is operated in the safety mode and the control signal A is selected accordingly and the actuator 10 is controlled accordingly.
  • training system 140 includes one or more processors 145 and at least one
  • machine readable storage medium 146 on which instructions are stored which, when executed on processors 145, the
  • Control system 140 cause to execute the method according to the invention.
  • Software can be implemented. They can also be implemented in hardware, or in a mixed form of software and hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Computer-implementiertes Verfahren zum Klassifizieren eines Eingangssignals (x), welches insbesondere abhängig von einem Ausgangssignal (S) eines Sensors (30) ermittelt wird, dahingehend, ob es eine Anomalie aufweist oder nicht, wobei abhängig von einem Ausgangssignal (y) eines Autoencoders (60), dem das Eingangssignal (x) zugeführt wird darauf entschieden wird, ob das Eingangssignal (x) die Anomalie aufweist oder nicht, wobei der Autoencoder (60) mindestens einen Encoder (61) und mindestens einen Decoder (631; 632,...) aufweist, wobei abhängig von dem Eingangssignal (x) mittels des Encoders (61) eine Zwischengröße (z) ermittelt wird, und abhängig von dieser mittels des Decoders (631; 632,...) das Ausgangssignal (y) ermittelt wird, wobei der Autoencoder (60) zu dem ihm zugeführten Eingangssignal (x) eine Mehrzahl Hypothesen Formula (I) zur Rekonstruktion des Eingangssignals (x) bereitstellt und abhängig von dieser Mehrzahl Hypothesen Formula (I) das Ausgangssignal (y) ermittelt.

Description

Beschreibung
Titel
Verfahren und Vorrichtung zum Ermiteln eines Ansteuersignals
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Klassifizieren eines Eingangssignals und Ermitteln eines Ansteuersignals insbesondere zum
Ansteuern eines Aktors, ein Verfahren zum Trainieren des maschinellen
Lernsystems, ein Trainingssystem, ein Computerprogramm und ein
maschinenlesbares Speichermedium.
Stand der Technik
Aus der nicht vorveröffentlichten DE 10 201 721 0787.1 ist ein Verfahren zum Ermitteln, ob in einem Kommunikationsnetzwerk eine Anomalie vorliegt, bekannt, wobei mindestens eine über das Kommunikationsnetzwerk übermittelte Nachricht analysiert wird, indem abhängig von der, d.h. insbesondere aus der,
übermittelten Nachricht eine Eingangsgröße eines Kodierers ermittelt wird, wobei mittels des Kodierers eine Zwischengröße reduzierter Dimensionalität ermittelt wird, und wobei abhängig von der Zwischengröße mittels eines
Dekodierers eine Ausgangsgröße mit der Dimensionalität der Eingangsgröße ermittelt wird, wobei abhängig von Eingangsgröße und Ausgangsgröße entschieden wird, ob die Anomalie vorliegt, oder nicht. Eine solche Kombination aus Kodierer und Dekodierer derart, dass die Eingangsgröße über eine oder mehrere Zwischengrößen reduzierter Dimensionalität, d.h. mit einem
Informationsverlust verbunden, in die Ausgangsgröße überführt wird, kann auch mit dem Wort„Autoencoder“ bezeichnet werden.
Aus„Auto- Encoding Variational Bayes“, arXiv preprint arXiv:1312.6114vlO, Diederik P Kingma, Max Welling, 2014 ist ein Variational Autoencoder bekannt. Aus„Learning in an Uncertain World: Representing Ambiguity Through Multiple Hypotheses”, arXiv preprint arXiv:1612.00197v3, Christian Rupprecht et al., International Conference on Computer Vision (2017) und“Uncertainty Estimates and Multi- Hypotheses Networks for Optical Flow”, arXiv preprint
arXiv:1802.07095v3, Eddy Ilg et al. (2018) sind Convolutional Neural Networks (CNN) bekannt, die eine Mehrzahl Hypothesen Vorhersagen.
Aus“Autoencoding beyond pixels using a learned similarity metric”, arXiv preprint arXiv:1512.09300v2, Anders Boesen Lindbo Larsen, Soren Kaae Sonderby,
Hugo Larochelle, Oie Winther, 2016 und“Generating Images with Perceptual Similarity Metrics based on Deep Networks”, arXiv preprint arXiv:1602.02644v2, Alexey Dosovitskiy, Thomas Brox, 2016 sind Verfahren zum Trainieren von Variational Autoencodern mit einem 2-Spieler-Spiel bekannt.
Vorteile der Erfindung
Der Gegenstand der Erfindung hat gegenüber dem aus dem Stand der Technik Bekannten den Vorteil, dass die Anomalieerkennung eine verbesserte
Extrapolationsfähigkeit besitzt, sodass das resultierende Ansteuerverfahren für robuster ist, oder alternativ mit weniger Trainingsdaten eine vergleichbare Robustheit erreicht.
Offenbarung der Erfindung
In einem ersten Aspekt betrifft die Erfindung daher das Verfahren mit den Merkmalen des Anspruch 1. Weitere Aspekte sind Gegenstand der
nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
Im ersten Aspekt betrifft die Erfindung daher ein Verfahren zum Klassifizieren eines Eingangssignals, welches insbesondere abhängig von einem Sensorsignal, also einem Ausgangssignal eines Sensors, ermittelt wird. Hierbei wird abhängig von einem Ausgangssignal eines Autoencoders, dem das Eingangssignal zugeführt wird darauf entschieden, ob das Eingangssignal eine Anomalie aufweist oder nicht, wobei der Autoencoder mindestens einen Encoder und mindestens einen Decoder aufweist, wobei abhängig von dem Eingangssignal mittels des Encoders eine Zwischengröße ermittelt wird, und abhängig von dieser mittels des Decoders das Ausgangssignal ermittelt wird, wobei der Autoencoder zu dem ihm zugeführten Eingangssignal eine Mehrzahl unterschiedlicher Hypothesen zur Rekonstruktion des Eingangssignals bereitstellt und abhängig von dieser Mehrzahl unterschiedlicher Hypothesen das Ausgangssignal ermittelt.
Dass die Hypothesen sind hierbei vorzugsweise paarweise unterschiedlich, d.h. keine zwei der Hypothesen sind gleich. Dies kann vorzugsweise dadurch sichergestellt werden, dass in einer Trainingsphase des Autoencoders, in der Parameter des Autoencoders zur Minimierung einer vorgebbaren Kostenfunktion variiert werden, die Kostenfunktion derart gewählt ist, dass sie es bestraft, wenn zwei Hypothesen einander zu ähnlich, insbesondere gleich, sind.
In einer Weiterbildung kann vorgesehen sein, dass der Autoencoder eine
Mehrzahl Decoder umfasst, wobei jeder der Decoder Ausgangsgrößen bereitstellt, wobei je eine der Mehrzahl unterschiedlicher Hypothesen abhängig von den Ausgangsgrößen jeweils eines der Decoder bereitgestellt wird.
Hiermit lässt sich auf besonders einfache Weise mit z.B. dem oben vorgestellten Ansatz verhindern, dass zwei Hypothese gleich sind, beispielsweise, indem die Decoder strukturell unterschiedlich gewählt und/oder ihre Parameter
unterschiedlich initialisiert werden. Selbstverständlich ist es möglich, dass die Decoder teilweise identisch sind. Sind die Decoder beispielsweise durch künstliche neuronale Netze implementiert, kann vorgesehen sein, dass die ersten Schichten von allen Decodern geteilt werden, und sich die Decoder erst in der letzten Schicht oder den letzten Schichten differenzieren.
Vorzugsweise kann vorgesehen sein, dass das Ausgangssignal abhängig von, insbesondere gleich, derjenigen der Hypothesen gewählt wird, die dem
Eingangssignal am nächsten ist.
In einer Weiterbildung kann vorgesehen werden, ein Ansteuersignal
bereitzustellen, welches abhängig davon ist, ob auf Anomalie erkannt wurde, oder nicht. Dieses Ansteuersignal kann insbesondere zum Ansteuern eines Aktors, vorzugsweise zur Steuerung eines wenigstens teilweise automatisierten Fahrzeugs, vorgesehen sein.
In einem weiteren Aspekt ist ein System vorgesehen, das eingerichtet ist, eines der vorgenannten Verfahren durchzuführen. Dieses System umfasst damit auch den vorgenannten Autoencoder.
In einem noch weiteren Aspekt ist daher ein Verfahren zum Trainieren dieses Autoencoders vorgesehen. Dies erfolgt mittels eines Diskriminators. Dem
Diskriminator wird entweder ein insbesondere aus Sensorsignalen ermitteltes Eingangssignal oder ein vom Autoencoder generiertes Ausgangssignal zugeführt werden, wobei der Diskriminator trainiert wird, zu unterscheiden, ob das ihm zugeführte Signal das Eingangssignal oder das vom Autoencoder genierte Ausgangssignal ist, und wobei der Autoencoder trainiert wird, das
Ausgangssignal so zu generieren, dass der Diskriminator das Eingangssignal und das generierte Ausgangssignal nicht derart unterscheiden kann. D.h.
Diskriminator und Autoencoder spielen ein zwei-Spieler-Spiel ähnlich des Spiels, das bei sogenannten Generative Adversarial Networks (kurz: GAN) eingesetzt wird.
Um dieses an sich bekannte zwei-Spieler-Spiel für den vorliegenden
Autoencoder anwendbar zu machen, wird daher vorgeschlagen, dass die Zwischengröße zufällig generiert wird und mittels des Decoders das
Ausgangssignal ermittelt wird, das dem Diskriminator dann zur Unterscheidung zugeführt wird.
Insbesondere kann die Zwischengröße aus einer fest vorgebbaren
Wahrscheinlichkeitsverteilung gezogen wird, wobei abhängig von dem abhängig hiervon ermittelten Ausgangssignal nur der Diskriminator trainiert wird.
D.h. dieses Ausgangssignal geht derart in einen Term der Kostenfunktion ein, sodass abhängig von Gradienten dieser Kostenfunktion unmittelbar nur
Parameter, die den Diskriminator charakterisieren, variiert werden. In die
Variation weiterer Parameter geht diese Kostenfunktion nur insofern ein, als der mit variierten Parametern parametrierte Diskriminator ein geändertes Verhalten aufweist, das in einer späteren Iteration des Trainingsverfahrens dazu führen kann, dass Parameter des Autoencoders geändert variiert werden.
Es ist auch möglich, dass der Encoder abhängig von dem Eingangssignal Parameter ermittelt, die die eine statistische Verteilung, insbesondere eine Normalverteilung, der Zwischengröße bei gegebenem Eingangssignal charakterisieren und wobei die Zwischengröße aus dieser statistischen
Verteilung gezogen wird.
Um sicherzustellen, dass die Anomalieerkennung möglichst wenige
Eingangssignale irrtümlich als Anomalie kennzeichnet, kann vorgesehen sein, dass aus der Mehrzahl der vom Autoencoder generierten Hypothesen diejenige ausgewählt wird, die dem Eingangssignal am ähnlichsten ist, wobei der
Diskriminator nur zu der abhängig von dieser ausgewählten ähnlichsten
Hypothese versucht, zu entscheiden, ob sie vom Autoencoder generiert wurde, oder nicht, und wobei eine Anpassung von Parametern, die den Diskriminators und/oder den Autoencoders charakterisieren abhängig von dem Ergebnis dieser versuchten Entscheidung ist.
Allerdings kann dies dazu führen, dass die mit den übrigen generierten
Hypothesen assoziierten Gradienten verschwinden, sodass die übrigen
Hypothesen nicht im gewünschten Maße zur Verbesserung der
Extrapolationsfähigkeit des vorgeschlagenen Autoencoders beitragen. Um diesem Effekt entgegenzuwirken, kann vorgesehen sein, dass der Diskriminator zu jeder abhängig von dieser Zwischengröße vom Autoencoder generierten Hypothese versucht, zu entscheiden, ob sie vom Autoencoder generiert wurde, oder nicht, und wobei eine Variation von Parametern, die den Diskriminators und/oder den Autoencoders charakterisieren abhängig von den Ergebnissen all dieser versuchten Entscheidungen ist.
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
Figur 1 schematisch einen erfindungsgemäßen Autoencoder; Figur 2 schematisch einen Aufbau einer Ausführungsform der Erfindung;
Figur 3 schematisch ein Ausführungsbeispiel zur Steuerung eines
wenigstens teilautonomen Roboters;
Figur 4 schematisch ein Ausführungsbeispiel zur Steuerung eines
Fertigungssystems;
Figur 5 schematisch ein Ausführungsbeispiel zur Steuerung eines
persönlichen Assistenten;
Figur 6 schematisch ein Ausführungsbeispiel zur Steuerung eines
Zugangssystems;
Figur 7 schematisch ein Ausführungsbeispiel zur Steuerung eines
Überwachungssystems;
Figur 8 schematisch ein Ausführungsbeispiel zur Steuerung eines
medizinisch bildgebenden Systems;
Figur 9 schematisch ein Trainingssystem zum Trainieren des Autoencoders;
Figur 10 schematisch einen Autoencoder zum Einsatz im Trainingssystem;
Figur 11 schematisch einen Aufbau einer Ausführungsform einer
Bewertungseinheit des Trainingssystems;
Figur 12 in einem Flussdiagramm eine Ausführungsform eines Verfahrens zum Trainieren des Autoencoders;
Figur 13 in einem Flussdiagramm eine Ausführungsform eines Teils des
Verfahrens zum Trainieren des Autoencoders; Figur 14 in einem Flussdiagramm eine zweite Ausführungsform eines Teils des Verfahrens zum Trainieren des Autoencoders;
Figur 15 in einem Flussdiagramm eine dritte Ausführungsform eines Teils des
Verfahrens zum Trainieren des Autoencoders;
Figur 16 in einem Flussdiagramm eine vierte Ausführungsform eines Teils des
Verfahrens zum Trainieren des Autoencoders;
Figur 17 in einem Flussdiagramm eine Ausführung eines Verfahrens zum
Betreiben des Steuerungssystems.
Beschreibung der Ausführungsbeispiele
Figur 1 zeigt einen Aktor 10 in seiner Umgebung 20 in Interaktion mit einem Steuerungssystem 40. Aktor 10 und Umgebung 20 werden gemeinschaftlich auch als Aktorsystem bezeichnet. In vorzugsweise regelmäßigen zeitlichen Abständen wird ein Zustand des Aktorsystems mit einem Sensor 30 erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors 30 wird an das Steuerungssystem 40 übermittelt. Das Steuerungssystem 40 empfängt somit eine Folge von Sensorsignalen S. Das Steuerungssystem 40 ermittelt hieraus Ansteuersignale A, welche an den Aktor 10 übertragen werden.
Das Steuerungssystem 40 empfängt die Folge von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit 50, die die Folge von
Sensorsignalen S in eine Folge von Eingangssignalen x umwandelt (alternativ kann auch unmittelbar je das Sensorsignal S als Eingangssignal x übernommen werden). Das Eingangssignal x kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Sensorsignals S sein. Das Eingangssignal x kann beispielsweise Bilddaten oder Bilder umfassen, oder einzelne Frames einer Videoaufzeichnung. Mit anderen Worten wird Eingangssignal x abhängig von Sensorsignal S ermittelt. Das Eingangssignal x wird einem Autoencoder 60, wie er beispielhaft in Figur 2 illustriert ist, zugeführt. Ebenso wird das Eingangssignal x einem Anomaliedetektor 80 zugeführt.
Der Autoencoder 60 wird vorzugsweise parametriert durch Parameter f, Q, die in einem Parameterspeicher P hinterlegt sind und von diesem bereitgestellt werden.
Der Autoencoder 60 ermittelt aus den Eingangssignalen x Ausgangssignale y.
Die Ausgangssignale y werden dem Anomaliedetektor 80 zugeführt.
Ausgangssignal y ist eine Rekonstruktion des Eingangssignals x durch den Autoencoder 60. Anomaliedetektor 80 ermittelt aus Eingangssignal x und
Ausgangssignal y ein Ähnlichkeitsmaß zwischen Eingangssignal x und
Ausgangssignal y. Abhängig von diesem ermittelten Ähnlichkeitsmaß kann der Anomaliedetektor Ansteuersignale A ermitteln, welche dem Aktor 10 zugeführt werden, um den Aktor 10 entsprechend anzusteuern. Beispielsweise kann entschieden werden, ob der Aktor 10 in einem Normalmodus oder in einem Sicherheitsmodus angesteuert wird. Eine Ausführungsform dieses Verfahrens ist in Figur 17 illustriert.
Der Aktor 10 empfängt die Ansteuersignale A, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor 10 kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann die
Umsetzung des Ansteuersignals A bewirkt wird.
In weiteren Ausführungsformen umfasst das Steuerungssystem 40 den Sensor 30. In noch weiteren Ausführungsformen umfasst das Steuerungssystem 40 alternativ oder zusätzlich auch den Aktor 10.
In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem 40 eine Ein- oder Mehrzahl von Prozessoren 45 und wenigstens ein
maschinenlesbares Speichermedium 46, auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 45 ausgeführt werden, das
Steuerungssystem 40 veranlassen, das erfindungsgemäße Verfahren
auszuführen. In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor 10 eine Anzeigeeinheit 10a vorgesehen.
Figur 2 zeigt einen beispielhaften Aufbau des Autoencoders 60. Der Autoencoder 60 umfasst einen Kodierer (Englisch:„Encoder“) 61, mit dessen Hilfe aus dem Eingangssignal x eine Zwischengröße z ermittelt wird. Eine Dimensionalität der Zwischengröße z ist gegenüber dem Eingangssignal x reduziert. Der
Autoencoder 60 umfasst ferner Dekodierer (Englisch:„Decoder“) 63!, 632, ..., mit deren Hilfe aus der Zwischengröße z rekonstruierte Eingangssignale x1, x2, ... ermittelt werden. Diese rekonstruierten Eingangssignale x1, x2, ... werden auch „Hypothesen“ genannt und haben vorzugsweise die gleiche Dimensionalität hat wie das Eingangssignal x. Ein Bewerter 65 ermittelt aus den Hypothesen x1, x2,
... das Ausgangssignal y. Beispielsweise kann vorgesehen sein, dass der Bewerter 65 aus den Hypothesen x1, x2, ... als Ausgangssignal y diejenige auswählt, die dem Eingangssignal am ähnlichsten ist.
Im dargestellten Ausführungsbeispiel ist der Autoencoder 60 als ein sogenannter „Variational Autoencoder“, (kurz: VAE), ausgeführt. Der VAE zeichnet sich dadurch aus, dass der Encoder 61 abhängig vom Eingangssignal x Parameter mZ|C, SZ|C ermittelt, die eine statistische Verteilung q(z |x) der zum Eingangssignal x zugehörigen Zwischengröße z bei gegebenem Eingangssignal x
charakterisieren. Beispielsweise kann die statistische Verteilung q z |x) durch eine Normalverteilung gegeben sein, und die Parameter mz\c, Sz\c sind (u.U. vektor- bzw. matrixwertige, sofern das Eingangssignal x mehrdimensional ist) Mittelwerte mZ|C und Kovarianzmatrix SZ|C .
Aus der durch diese Parameter mZ|C, SZ|C charakterisierten statistischen Verteilung q z |x) zieht ein Sampler 62 dann als statistische Samples eine oder mehrere Zwischengrößen z.
Diese werden den Decodern 631, 632, ... zugeführt, die hieraus jeweils
Parameter mc\z,·i, Sc\z;1 , mc\z·2, Sc\ z,·2 . ··· ermittelt, die jeweils statistische
Verteilungen p1(x|z), p2(x|z), ... der Hypothesen x1 x2, ... charakterisieren. Bei diesen statistischen Verteilungen p1(x|z), p2(x|z), ), ... handelt es sich
beispielsweise um jeweils die gleiche Funktion, die durch unterschiedliche Parameter mc\Z)1, ^c\Z)1 , mc\z,·2> ^c\z,·2 . ··· charakterisiert sein kann. Beispielsweise können die statistischen Verteilungen p1(x|z), p2(x|z), ... jeweils durch
Normalverteilungen gegeben sein, und die Parameter mc\z;1, Sc\z;1 , mc\z;2, Sc\ z;2 .··· sind (u.U. vektor- bzw. matrixwertige, sofern die Zwischengröße z
mehrdimensional ist) Mittelwerte mc\Z]1, pX|Z.2,...und Kovarianzmatrizen , SC\Z;1 , Sc,z.2 ,... . Sampler ermitteln
Aus den durch diese Parameter mc\z;1, Sc\z;1 , mc\z;2, Sc\z,·2 . ··· charakterisierten statistischen Verteilungen p1(x|z), p2(x|z), ... ziehen Sampler 64-L, 642 J ... dann als statistische Samples jeweils ein oder mehrere Hypothesen x1 x2, ....
Encoder 61 und/oder Decoder 631, 632, ... sind vorzugsweise durch Parameter f, Q parametrierte neuronale Netze.
Figur 3 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Steuerung eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs 100, eingesetzt wird.
Bei dem Sensor 30 kann es sich beispielsweise um einen oder mehrere vorzugsweise im Kraftfahrzeug 100 angeordnete Videosensoren und/oder einen oder mehrere Radarsensoren und/oder einen oder mehrere Ultraschallsensoren und/oder einen oder mehrere LiDAR-Sensoren und/oder einen oder mehrere Positionssensoren (beispielsweise GPS) handeln. Alternativ oder zusätzlich kann der Sensor 30 auch ein Informationssystem umfassen, das eine Information über einen Zustand des Aktorsystems ermittelt, wie beispielsweise ein
Wetterinformationssystem, das einen aktuellen oder zukünftigen Zustand des Wetters in der Umgebung 20 ermittelt.
Das Eingangssignal x kann beispielsweise Informationen über detektierte Gegenstände in der Umgebung des wenigstens teilautonomen Roboters enthalten.
Bei dem vorzugsweise im Kraftfahrzeug 100 angeordneten Aktor 10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des
Kraftfahrzeugs 100 handeln. Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 im Normalmodus derart angesteuert werden, dass das Kraftfahrzeug 100 beispielsweise eine Kollision mit identifizierten Gegenständen verhindert, insbesondere, wenn es sich um
Gegenstände bestimmter Klassen, z.B. um Fußgänger, handelt. Im
Sicherheitsmodus kann der Aktor bzw. die Aktoren 10 derart angesteuert werden, dass z.B. eine Geschwindigkeit des Kraftfahrzeugs 100 auf einen vorgebbaren Geschwindigkeitsbereich limitiert wird.
Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A im Normalmodus derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit den identifizierten Gegenständen verhindert,
In einer weiteren Alternative kann es sich bei dem wenigstens teilautonomen Roboter auch um einen Gartenroboter (nicht abgebildet) handeln, der mit einem bildgebenden Sensor 30 eine Art oder einen Zustand von Pflanzen in der Umgebung 20 ermittelt. Bei dem Aktor 10 kann es sich dann beispielsweise um einen Applikator von Chemikalien handeln. Das Ansteuersignal A kann im Normalmodus abhängig von der ermittelten Art oder vom ermittelten Zustand der Pflanzen derart ermittelt werden, dass eine der ermittelten Art oder dem ermittelten Zustand entsprechende Menge der Chemikalien aufgebracht wird. Im Sicherheitsmodus kann das Ansteuersignal A derart gewählt werden, dass die aufgebrachte Menge der Chemikalien auf einen vorgebbaren Chemikalienbereich limitiert wird.
In noch weiteren Alternativen kann es sich bei dem wenigstens teilautonomen Roboter auch um ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, einen Herd, einen Backofen, eine Mikrowelle oder eine Spülmaschine handeln. Mit dem Sensor 30, beispielsweise einem optischen Sensor, kann ein Zustand eines mit dem Haushaltsgerät behandelten Objekts erfasst werden, beispielsweise im Falle der Waschmaschine ein Zustand von Wäsche, die in der Waschmaschine befindlich ist. Aus diesem kann dann eine Art oder ein Zustand dieses Objekts ermittelt werden. Das Ansteuersignal A kann dann im Normalmodus derart ermittelt werden, dass das Haushaltsgerät abhängig von der ermittelten Art oder dem ermittelten Zustand des Objekts angesteuert wird. Beispielsweise kann im Falle der Waschmaschine diese abhängig davon angesteuert werden, aus welchem Material die darin befindliche Wäsche ist. Ansteuersignal A kann dann abhängig davon gewählt werden, welches Material der Wäsche ermittelt wurde. Ansteuersignal A kann im
Sicherheitsmodus derart gewählt werden, dass das Haushaltsgerät,
beispielsweise die Waschmaschine, abgeschaltet wird.
Figur 4 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Ansteuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktor 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren und/oder Schneiden handeln.
Bei dem Sensor 30 dann beispielsweise um einen optischen Sensor handeln, der z.B. Eigenschaften von Fertigungserzeugnissen 12 erfasst. Es ist möglich, dass der die Fertigungsmaschine 11 steuernde Aktor 10 im Normalmodus abhängig von den ermittelten Eigenschaften des Fertigungserzeugnisses 12 angesteuert wird, damit die Fertigungsmaschine 11 entsprechend einen nachfolgenden Bearbeitungsschritt dieses Fertigungserzeugnisses 12 ausführt. Es ist auch möglich, dass der Sensor 30 die Eigenschaften des von der Fertigungsmaschine 11 bearbeiteten Fertigungserzeugnisses 12 ermittelt, und abhängig davon eine Ansteuerung der Fertigungsmaschine 11 für ein nachfolgendes
Fertigungserzeugnis anpasst. Im Sicherheitsmodus kann vorgesehen sein, dass der Aktor 10 derart angesteuert wird, dass die Fertigungsmaschine abgeschaltet wird.
Figur 5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines persönlichen Assistenten 250 eingesetzt wird. Der Sensor 30 ist beispielsweise ein akustischer Sensor, der Sprachsignale eines Nutzers 249 empfängt. Alternativ oder zusätzlich kann der Sensor 30 auch eingerichtet sein, optische Signale zu empfangen, beispielsweise Videobilder einer Geste des Nutzers 249.
Abhängig von den Signalen des Sensors 30 ermittelt das Steuerungssystem 40 im Normalmodus ein Ansteuersignal A des persönlichen Assistenten 250, beispielsweise, indem das maschinelle Lernsystem eine Gestenerkennung durchführt. Dem persönlichen Assistenten 250 wird dann dieses ermittelte Ansteuersignal A übermittelt und er somit entsprechend angesteuert. Dieses ermittelte Ansteuersignal A ist kann insbesondere derart gewählt werden, dass es einer vermuteten gewünschten Ansteuerung durch den Nutzer 249 entspricht. Diese vermutete gewünschte Ansteuerung kann abhängig von der erkannten Geste ermittelt werden. Das Steuerungssystem 40 kann dann abhängig von der vermuteten gewünschten Ansteuerung das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten 250 wählen und/oder das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten entsprechend der vermuteten gewünschten Ansteuerung 250 wählen.
Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent 250 Informationen aus einer Datenbank abruft und sie für den Nutzer 249 rezipierbar wiedergibt.
Im Sicherheitsmodus kann vorgesehen sein, dass der persönliche Assistent 250 abgeschaltet wird oder eine Fehlermeldung ausgibt.
Anstelle des persönlichen Assistenten 250 kann auch ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder eine Spülmaschine vorgesehen sein, um entsprechend angesteuert zu werden.
Figur 6 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Zugangssystems 300 eingesetzt wird. Das Zugangssystem 300 kann eine physische Zugangskontrolle, beispielsweise eine Tür 401 umfassen. Bei dem Sensor 30 kann es sich beispielsweise um einen optischen Sensor (beispielsweise zur Erfassung von Bild- oder Videodaten) handeln, der eingerichtet ist, ein Gesicht zu erfassen. Steuerungssystem 40 kann dieses erfasste Bild interpretiert werden. Beispielsweise kann die Identität einer Person ermittelt werden. Der Aktor 10 kann ein Schloss sein, das im Normalmodus abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, beispielsweise die Tür 401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A abhängig von der Interpretation gewählt werden, beispielsweise abhängig von der ermittelten Identität der Person. Im Sicherheitsmodus kann vorgesehen sein, dass der Aktor 10 beispielsweise dauerhaft so angesteuert wird, dass die Tür dauerhaft geöffnet (oder alternativ auch dauerhaft geschlossen) ist. An Stelle der physischen Zugangskontrolle kann auch eine logische Zugangskontrolle vorgesehen sein.
Figur 7 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Überwachungssystems 400 verwendet wird. Von dem in Figur 6 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors 10 die Anzeigeeinheit 10a vorgesehen ist, die vom Steuerungssystem 40 angesteuert wird. Beispielsweise kann vom
Anomaliedetektor 80 ermittelt werden, ob ein vom optischen Sensor
aufgenommener Gegenstand verdächtig ist. Ist dies der Fall, kann der
Sicherheitsmodus aktiviert werden. Im Normalmodus kann dann der Gegenstand von der Anzeigeeinheit 10a normal wiedergegeben werden, wohingegen im Sicherheitsmodus und das Ansteuersignal A dann derart gewählt werden kann, dass dieser Gegenstand von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird.
Figur 8 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines medizinischen bildgebenden System 500, beispielsweise eines MRT-, Röntgen- oder Ultraschallgeräts, verwendet wird. Der Sensor 30 kann beispielsweise durch einen bildgebenden Sensor gegeben sein, durch das Steuerungssystem 40 wird die Anzeigeeinheit 10a angesteuert. Beispielsweise kann vom Anomaliedetektor 80 ermittelt werden, ob ein vom bildgebenden Sensor aufgenommener Bereich auffällig ist. Ist dies der Fall, kann der
Sicherheitsmodus aktiviert werden. Im Normalmodus kann dieser Bereich dann normal wiedergegeben werde, im Sicherheitsmodus kann das Ansteuersignal A derart gewählt werden, dass dieser Bereich von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird.
Figur 9 zeigt schematisch ein Ausführungsbeispiel eines Trainingssystems 140 zum Trainieren des Autoencoders 60. Eine Trainingsdateneinheit 150 ermittelt geeignete Eingangssignale x, die einer modifizierten Form des Autoencoders 60, bezeichnet mit dem Bezugszeichen 60‘, zugeführt werden. Beispielsweise greift die Trainingsdateneinheit 150 auf eine computerimplementierte Datenbank zu, in dem ein Satz von Trainingsdaten gespeichert ist, und wählt z.B. zufällig aus dem Satz von Trainingsdaten Eingangssignale x aus. Dieser werden einer
Bewertungseinheit 180 zugeführt, deren Aufbau in Figur 11 beispielhaft illustriert ist.
Der modifizierte Autoencoder 60‘ ist eingerichtet, abhängig von einem ihm zugeführten aus den ihm zugeführten Eingangssignalen x zugehörige Trainings-- Ausgangssignale gt, welche je die Ausgangssignale y umfassen, zu ermitteln. Dem modifizierten Autoencoder 60‘ wird ein Modussignal m zugeführt, abhängig von denen der modifizierte Autoencoder 60‘ die Trainings- Ausgangssignale yi ermittelt. Diese Trainings- Ausgangssignale yi werden der Bewertungseinheit 180 zugeführt.
Die Bewertungseinheit 180 kann beispielsweise mittels einer von den
Eingangssignalen x und den Trainings- Ausgangssignalen yi abhängigen Kostenfunktion (Englisch: loss function ) die Kenngröße £ ermitteln, die eine Leistungsfähigkeit des Autoencoders 60 charakterisiert. Die Parameter f, Q können abhängig von der Kenngröße £ optimiert werden. Ein beispielhaftes Verfahren hierzu ist in Figuren 12 bis 16 illustriert.
Figur 10 illustriert eine Ausführungsform modifizierten Autoencoders 60‘, der in weiten Teilen mit dem in Figur 2 gezeigten Autoencoders 60 identisch ist.
Insbesondere ist die Parametrierung mit Parameter f, Q identisch. Im Folgenden sollen nur die Unterschiede dargestellt werden. Der modifizierte Autoencoder 60‘ hat an Stelle des Bewerters 65 einen modifizierten Bewerter 65‘, der genau wie Bewerter 65 das Ausgangssignal y ermittelt. Abhängig vom Modussignal m wird dann entschieden, welche der verfügbaren Größen als Ausgangssignal yi ausgegeben werden, d.h. der Unterschied zum Autoencoder 60 besteht darin, welche Größen ausgegeben werden.
Figur 11 zeigt eine beispielhafte Ausführungsform der Bewertungseinheit 180. Bewertungseinheit 180 umfasst einen Diskriminator 181, dem (beispielsweise über einen Schalter 183 ausgewählt) entweder das Eingangssignal x oder das aus dem Trainings- Ausgangssignal gt extrahierte Ausgangssignal y zugeführt werden. Der Diskriminator umfasst eine mathematische Funktion, beispielsweise implementiert durch ein neuronales Netz, mit deren Hilfe eine
Wahrscheinlichkeitsgröße p ermittelt wird, die eine Wahrscheinlichkeit charakterisiert, dass das dem Diskriminator 181 zugeführte Signal ein vom modifizierten Autoencoder 60‘ generiertes Ausgangssignal y ist, und kein
Eingangssignal x. Diese Wahrscheinlichkeitsgröße p wird zusammen mit dem Modussignal m einem Kostenrechner 182 zugeführt, der hieraus die Kenngröße L ermittelt, beispielsweise mit den in Figuren 13-16 illustrierten Verfahren.
Figur 12 zeigt ein Verfahren zum Trainieren des Autoencoders 60 (bzw.
modifizierten Autoencoders 60). Das Verfahren startet (1000) mit einer vom Modussignal m abhängigen Auswahl, welches der folgenden Teilverfahren (1001)-(1004) ausgeführt wird. In Schritten werden dem Diskriminator 181 jeweils Signale x, y zugeführt, und der Diskriminator 181 ermittelt abhängig von diesen Signalen x, y die Kenngrößen LVAE, LG, LD. Ausführungsformen der Teilverfahren (1001)-(1004) sind in Figur 13-16 illustriert.
Dann (1200) werden z.B. mit einem Gradientenabstiegsverfahren Parameter f, Q, die den Autoencoder 60 parametrieren, bzw. Parameter, die den Diskriminator 181 parametrieren, angepasst. Herbei werden die Parameter f, Q des
Autoencoders 60 hierbei so angepasst, dass die Kenngröße Ltot = LVAE + LG minimiert wird, während die Parameter des Diskriminators 181 so angepasst werden, dass die Kenngröße LD =—LG minimiert wird. Die Konvergenz wird hierbei in Schritt (1300) überprüft, bei nicht ausreichender Konvergenz wird zurückverzweigt zum Start (1000).
Diese Anpassung kann in der für GAN üblichen Weise kaskadiert erfolgen, d.h. es kann vorgesehen sein, dass in einer inneren Schleife (iS) zunächst der Autoencoder 60 trainiert wird, und bei hinreichender Konvergenz der
Diskriminator 181 in einer äußeren Schleife (aS). Die Schrite des Trainings des Autoencoders 60 können hierbei übersprungen werden.
Ist sowohl das Training des Autoencoders 60 als auch des Diskriminators 181 abgeschlossen, endet das Verfahren (1400).
Figur 13 illustriert eine Ausführungsform des ersten Teilverfahrens (1001).
Hierbei werden dem Diskriminator 181 Eingangssignale x zugeführt, also beispielsweise reale Bilder.
Diskriminator 181 ermitelt nun (1002) zu jedem dieser Eingangssignale die zugehörige Wahrscheinlichkeitsgröße p, woraus die zugehörige Kenngröße als log(l— Pi) (1) ermitelt wird. Die Summe erfolgt hierbei über alle Eingangssignale x, die jeweils zugehörige Wahrscheinlichkeitsgröße p ist durch ein Subskript bezeichnet. Damit endet dieses Teilverfahren. Das Training des Autoencoders 60 entfällt im anschließenden Durchlauf von Schrit (1200), d.h. nur der Diskriminator 181 wird trainiert.
Figur 14 illustriert eine Ausführungsform des zweiten Teilverfahrens (1002). Hierbei wird der modifizierte Autoencoder 60‘ derart angesteuert, dass der Sampler 62 eine Zwischengröße z aus einer Normalverteil J\T(0,1) mit Mitelwert 0 und Varianz 1 zieht (1012). Dann (1022) werden hieraus die Hypothesen x1, x2, ... ermitelt. Diese werden allesamt mit dem Trainings-Ausgangssignal gt übermitelt. Dann (1032) werden diese dem Diskriminator 181 zugeführt, der die zugehörigen Wahrscheinlichkeitsgrößen p ermitelt. Hieraus wird die Kenngröße log( Pi) (2)
ermitelt. Die Summe erfolgt hierbei über alle der erzeugten Hypothesen die jeweils zugehörige Wahrscheinlichkeitsgröße p ist durch ein Subskript bezeichnet. Damit endet dieses Teilverfahren. Das Training des Autoencoders 60 entfällt im anschließenden Durchlauf von Schritt (1200), d.h. nur der
Diskriminator 181 wird trainiert.
Figur 15 illustriert eine Ausführungsform des dritten Teilverfahrens (1003).
Hierbei werden dem modifizierten Autoencoder 60‘ Eingangssignale x zugeführt (1013), und jeweils eine Zwischengröße z aus der entsprechenden
Wahrscheinlichkeitsverteilung gezogen (1023). Dann (1033) werden von jedem der Sampler 641 642, ... jeweils eine vorgebbare Anzahl an Hypothesen x1, x2, ... gezogen (ist der Autoencoder 60 ein VAE, ist die vorgebbare Anzahl
vorzugsweise eine Mehrzahl, ist er ein deterministischer Autoencoder, wird nur eine Hypothese generiert). Anschließend (1043) wird für jedes der
Eingangssignale jeweils aus der Gesamtheit der generierten Hypothesen diejenige Hypothese xk ausgewählt, die den geringsten Abstand zum
Eingangssignal x hat. Diese ausgewählte Hypothese xk und der zugehörige Index k werden mit dem Trainings-Ausgangssignal yi übermittelt. Hieraus wird dann (1053) die zugehörige Wahrscheinlichkeitsgröße p ermittelt. Hieraus werden die Kenngrößen
ermittelt. Die Summe erfolgt hierbei über alle der Eingangssignale x, die jeweils zugehörige Wahrscheinlichkeitsgröße p ist durch ein Subskript bezeichnet. Damit endet dieses Teilverfahren.
Figur 16 illustriert eine Ausführungsform des vierten Teilverfahrens (1004). Es beginnt mit den Schritten (1014) und (1024), die identisch sind mit den Schritten (1013) und (1023) des dritten Teilverfahrens (1003). Dann (1034) wird von jedem der Sampler 641 642, ... jeweils eine Hypothese x1, x2, ... gezogen. Aus den generierten Hypothesen wird diejenige Hypothese xk ausgewählt, die den geringsten Abstand zum Eingangssignal x hat. Diese ausgewählte Hypothese xk und der zugehörige Index k sowie alle weiteren Hypothesen x1, x2, ... werden mit dem Trainings- Ausgangssignal yi und dem Index k allesamt übermittelt. Dann (1044) werden die zugehörigen Wahrscheinlichkeitswerte p ermittelt. Für jede der in Schritt (1014) zugeführten Eingangssignale x wird ein Mittelwert ermittelt, wobei n die Anzahl der zu Eingangssignal x generierten Hypothesen bezeichnet und j die Hypothesen indiziert. Hieraus werden die Kenngrößen ermittelt
Ermittelt. Die Summe erfolgt hierbei über alle Eingangssignale x, der jeweils zugehörige Mittelwert p ist durch ein Subskript bezeichnet. Damit endet dieses Teilverfahren.
Figur 17 illustriert eine Ausführungsform des Betriebs des Steuerungssystems 40. Zunächst (2000) wird dem Autoencoder 60 das Eingangssignal x zugeführt. Hieraus ermittelt Autoencoder 60 dann (2100) Hypothesen x1, x2, ... . Hieraus wird nun (2200) diejenige Hypothese xk ausgewählt, deren Abstand zum
Eingangssignal x am geringsten ist. Diese ausgewählte Hypothese xk wird als Ausgangssignal y dem Anomaliedetektor 80 übertragen. Anomaliedetektor 80 stellt nun (2300) den Abstand a = \x— y\ zwischen Ausgangssignal y und Eingangssignal x zur Verfügung. Dieser Abstand a wird nun (2300) mit einem vorgebbaren Schwellwert a verglichen. Ist der Abstand a kleiner als der vorgebbare Schwellwert a, dann (2400) wird darauf entschieden, Aktor 10 im Normalmodus betrieben wird und das Ansteuersignal A entsprechend
ausgewählt der Aktor 10 entsprechend angesteuert. Ist der Abstand a nicht kleiner als der vorgebbare Schwellwert a, dann (2500) wird darauf entschieden, Aktor 10 im Sicherheitsmodus betrieben wird und das Ansteuersignal A entsprechend ausgewählt der Aktor 10 entsprechend angesteuert.
Damit endet das Verfahren. In weiteren bevorzugten Ausführungsformen umfasst das Trainingssystem 140 eine Ein- oder Mehrzahl von Prozessoren 145 und wenigstens ein
maschinenlesbares Speichermedium 146, auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 145 ausgeführt werden, das
Steuerungssystem 140 veranlassen, das erfindungsgemäße Verfahren auszuführen.
Es versteht sich, dass die Verfahren nicht nur wie beschrieben vollständig in
Software implementiert sein können. Sie können auch in Hardware implementiert sein, oder in einer Mischform aus Software und Hardware.

Claims

Ansprüche
1. Computer-implementiertes Verfahren zum Klassifizieren eines
Eingangssignals (x), welches insbesondere abhängig von einem
Ausgangssignal (S) eines Sensors (30) ermitelt wird, dahingehend, ob es eine Anomalie aufweist oder nicht, wobei abhängig von einem
Ausgangssignal (y) eines Autoencoders (60), dem das Eingangssignal (x) zugeführt wird darauf entschieden wird, ob das Eingangssignal (x) die Anomalie aufweist oder nicht,
wobei der Autoencoder (60) mindestens einen Encoder (61) und mindestens einen Decoder (631, 632, ... ) aufweist, wobei abhängig von dem
Eingangssignal (x) mitels des Encoders (61) eine Zwischengröße (z) ermitelt wird, und abhängig von dieser mitels des Decoders (631 632, ... ) das Ausgangssignal (y) ermitelt wird,
dadurch gekennzeichnet, dass der Autoencoder (60) zu dem ihm
zugeführten Eingangssignal (x) eine Mehrzahl Hypothesen (x1 x2 ...) zur Rekonstruktion des Eingangssignals (x) bereitstellt und abhängig von dieser Mehrzahl Hypothesen (x1 x2 ...) das Ausgangssignal (y) ermitelt wird.
2. Verfahren nach Anspruch 1, wobei der Autoencoder (60) eine Mehrzahl Decoder (631; 632, ... ) umfasst, wobei jeder der Decoder
(631; 632, ... ) Ausgangsgrößen ,··· ) bereitstellt, wobei je eine der Mehrzahl unterschiedlicher Hypothesen (x1, x2, ) abhängig von den Ausgangsgrößen ) jeweils eines der Decoder (631; 632, ... ) bereitgestellt wird.
3. Verfahren nach Anspruch 2, wobei die Ausgangsgrößen ,
mc\z;2, c\z;2 .··· ) der Decoder (63^ 632, ... ) jeweils eine
Wahrscheinlichkeitsverteilung (p1(x|z), p2(x|z) charakterisieren, und jede der Hypothesen (c1 c2, ...) aus jeweils einer dieser Wahrscheinlichkeitsverteilungen (p1(x|z), p2(x|z), ...) gezogen wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Ausgangssignal (y) abhängig von derjenigen der Hypothesen (c1 c2, ...) gewählt wird, die dem Eingangssignal (x) am nächsten ist.
5. Computer-implementiertes Verfahren zum Ermitteln eines Ansteuersignals (A), insbesondere zum Ansteuern eines Aktors (10), vorzugsweise zur Steuerung eines wenigstens teilweise automatisierten Fahrzeugs (100), wobei mittels des Verfahrens nach einem der Ansprüche 1 bis 4 ein
Eingangssignal (x) dahingehend klassifiziert wird, ob eine Anomalie vorliegt oder nicht, und das Ansteuersignal (A) abhängig davon gewählt ist, ob auf Anomalie erkannt wurde, oder nicht.
6. Verfahren nach Anspruch 5, wobei abhängig von dem ermittelten
Ansteuersignal (A) ein wenigstens teilautonomer Roboter (100) und/oder ein Fertigungssystem (200) und/oder ein persönlicher Assistent (250) und/oder ein Zugangssystem (300) und/oder ein Überwachungssystem (400) oder ein medizinisch bildgebendes System (500) angesteuert wird.
7. System (40) umfassend eine Ein- oder Mehrzahl von Prozessoren (45) und wenigstens ein maschinenlesbares Speichermedium (46), auf dem
Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren (45) ausgeführt werden, das Steuerungssystem (40) veranlassen, das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
8. Computer-implementiertes Verfahren zum Trainieren des Autoencoders (60) des Systems nach Anspruch 7, mittels eines Diskriminators (181) wobei dem Diskriminator (181) ein Eingangssignal (x) oder ein vom Autoencoder (60) generiertes Ausgangssignal (y) zugeführt werden, wobei der Diskriminator (181) trainiert wird, zu unterscheiden, ob das ihm zugeführte Signal das Eingangssignal (x) oder das vom Autoencoder (60) genierte Ausgangssignal (y) ist, und wobei der Autoencoder (60) trainiert wird, das Ausgangssignal (y) so zu generieren, dass der Diskriminator das Eingangssignal (x) und das generierte Ausgangssignal (y) nicht derart unterscheiden kann.
9. Verfahren nach Anspruch 8, wobei die Zwischengröße (z) zufällig generiert wird und mittels des Decoders (631, 632, ... ) das Ausgangssignal (y) ermittelt wird.
10. Verfahren nach Anspruch 8, wobei die Zwischengröße (z) aus einer fest vorgebbaren Wahrscheinlichkeitsverteilung gezogen wird, wobei abhängig von dem abhängig hiervon ermittelten Ausgangssignal (y) nur der
Diskriminator (181) trainiert wird.
11. Verfahren nach Anspruch 9, wobei der Encoder (61) abhängig von dem Eingangssignal (x) Parameter ermittelt, die die eine statistische
Verteilung (q(z |x)) der Zwischengröße (z) bei gegebenem Eingangssignal (x) charakterisieren und wobei die Zwischengröße (z) aus dieser
statistischen Verteilung (q(z |x)) gezogen wird.
12. Verfahren nach Anspruch 11, wobei der Diskriminator (181) zu jeder
abhängig von dieser Zwischengröße (z) vom Autoencoder (60) generierten Hypothese (x1, x2, ···) versucht, zu entscheiden, ob sie vom Autoencoder (60) generiert wurde, oder nicht, und wobei eine Variation von Parametern, die den Diskriminators (181) und/oder den Autoencoders (60)
charakterisieren abhängig von den Ergebnissen all dieser versuchten Entscheidungen ist.
13. Verfahren nach Anspruch 12, wobei aus der Mehrzahl der vom Autoencoder (60) generierten Hypothesen (x1, x2, ···) diejenige ( xk ) ausgewählt wird, die dem Eingangssignal (x) am ähnlichsten ist, wobei der Diskriminator (181) nur zu der abhängig von dieser ausgewählten ähnlichsten Hypothese ( xk ) versucht, zu entscheiden, ob sie vom Autoencoder (60) generiert wurde, oder nicht, und wobei eine Anpassung von Parametern, die den
Diskriminators (181) und/oder den Autoencoders (60) charakterisieren abhängig von dem Ergebnis dieser versuchten Entscheidung ist.
14. Trainingssystem (140), welches eingerichtet ist, das Verfahren nach einem der Ansprüche 8 bis 13 auszuführen.
15. Computerprogramm, das eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 6 oder 8 bis 13 auszuführen.
16. Maschinenlesbares Speichermedium (46, 146), auf dem das
Computerprogramm nach Anspruch 15 gespeichert ist.
EP19755586.5A 2018-09-27 2019-08-14 Verfahren und vorrichtung zum ermitteln eines ansteuersignals Pending EP3857822A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018216609 2018-09-27
DE102018218834.3A DE102018218834A1 (de) 2018-09-27 2018-11-05 Verfahren und Vorrichtung zum Ermitteln eines Ansteuersignals
PCT/EP2019/071802 WO2020064211A1 (de) 2018-09-27 2019-08-14 Verfahren und vorrichtung zum ermitteln eines ansteuersignals

Publications (1)

Publication Number Publication Date
EP3857822A1 true EP3857822A1 (de) 2021-08-04

Family

ID=69781134

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19755586.5A Pending EP3857822A1 (de) 2018-09-27 2019-08-14 Verfahren und vorrichtung zum ermitteln eines ansteuersignals

Country Status (5)

Country Link
US (1) US20210294278A1 (de)
EP (1) EP3857822A1 (de)
CN (1) CN112740625B (de)
DE (1) DE102018218834A1 (de)
WO (1) WO2020064211A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020203819A1 (de) 2020-03-24 2021-09-30 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines zumindest teilautomatisiert fahrenden Fahrzeugs und Fahrzeug
DE102020215167A1 (de) * 2020-12-02 2022-06-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung eines Endanzugsmoments bzw. eines Endanzugswinkels für Schrauben einer Schraubverbindung

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000002135A2 (de) * 1998-07-02 2000-01-13 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines ausgangssignals zu einem vorgegebenen eingangssignal und verfahren zum trainieren der anordnung
GB2448523B (en) * 2007-04-19 2009-06-17 Transitive Ltd Apparatus and method for handling exception signals in a computing system
EP2850522B1 (de) * 2012-05-15 2019-07-17 University of Lancaster Identifizierung anomaler systemzustände
US10977574B2 (en) * 2017-02-14 2021-04-13 Cisco Technology, Inc. Prediction of network device control plane instabilities

Also Published As

Publication number Publication date
CN112740625A (zh) 2021-04-30
CN112740625B (zh) 2024-02-13
US20210294278A1 (en) 2021-09-23
WO2020064211A1 (de) 2020-04-02
DE102018218834A1 (de) 2020-04-02

Similar Documents

Publication Publication Date Title
WO2020260020A1 (de) Verfahren und vorrichtung zum überprüfen der robustheit eines künstlichen neuronalen netzes
EP3785177A1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neurona-len netzes
DE202019105282U1 (de) Vorrichtung zum Optimieren eines System für das maschinelle Lernen
DE202020101012U1 (de) Vorrichtung zum Vorhersagen einer geeigneten Konfiguration eines maschinellen Lernsystems für einen Trainingsdatensatz
EP3857822A1 (de) Verfahren und vorrichtung zum ermitteln eines ansteuersignals
DE102019209457A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE102019202523A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems
DE102020208309A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
WO2020126379A1 (de) Verfahren und vorrichtung zum klassifizieren von sensordaten und zum ermitteln eines ansteuersignals zum ansteuern eines aktors
WO2020126378A1 (de) Verfahren zum trainieren eines neuronalen netzes
DE202020104005U1 (de) Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen
DE202021105192U1 (de) Vorrichtung zum maschinellen Lernen aus einer geringen Anzahl von Trainingsdatenbeispielen
DE102020208828A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
WO2020260016A1 (de) Verfahren und vorrichtung zum trainieren eines maschinellen lernsystems
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
EP3853778A1 (de) Verfahren und vorrichtung zum betreiben eines steuerungssystems
WO2021063572A1 (de) Vorrichtung und verfahren zum verarbeiten von daten eines neuronalen netzes
EP3701428A1 (de) Verfahren und vorrichtung zum verbessern der robustheit eines maschinellen lernsystems
DE102021208724A1 (de) Verfahren und Vorrichtung zum automatisierten Erstellen eines maschinellen Lernsystems zur Multi-Sensor-Datenfusion
EP3915058A1 (de) Verfahren zum trainieren eines neuronalen netzes
WO2023006597A1 (de) Verfahren und vorrichtung zum erstellen eines maschinellen lernsystems
DE102019205657A1 (de) Verfahren und Vorrichtung zum Klassifizieren von Sensordaten
DE102020211714A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
EP3629252A1 (de) Verfahren und vorrichtung zum betreiben eines steuerungssystems
DE102018216079A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210428

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)