EP4081950A1 - System and method for the quality assurance of data-based models - Google Patents

System and method for the quality assurance of data-based models

Info

Publication number
EP4081950A1
EP4081950A1 EP20830273.7A EP20830273A EP4081950A1 EP 4081950 A1 EP4081950 A1 EP 4081950A1 EP 20830273 A EP20830273 A EP 20830273A EP 4081950 A1 EP4081950 A1 EP 4081950A1
Authority
EP
European Patent Office
Prior art keywords
model
classifier
input data
based sample
sample generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20830273.7A
Other languages
German (de)
French (fr)
Inventor
Sebastian NIEHAUS
Michael Diebold
Janis REINELT
Daniel LICHTERFELD
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aicura Medical GmbH
Original Assignee
Aicura Medical GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aicura Medical GmbH filed Critical Aicura Medical GmbH
Publication of EP4081950A1 publication Critical patent/EP4081950A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Definitions

  • the invention relates to a system and a method for quality assurance of data-based models.
  • the invention relates in particular to a system and a method for quality assurance of classifiers or regressors formed by discriminative neural networks, the classifiers serving to determine whether objects, states or events represented by a respective input data record belong to a class or a class of several classes.
  • Regressors output a numerical value, e.g. an age specification for a person, if the regressor processes a picture of a person.
  • binary classifier units are known which, for an object, event or state represented by a respective data record, indicate the affiliation or non-affiliation of this object, this state or this event with a class for which the binary classifier unit is trained.
  • a neural network is typically structured in such a way that there is an input node for each value, i.e.
  • LSTM long short-term memory
  • the values contained in an input data record are assigned to the (input) nodes of the input layer.
  • the input nodes supply their output values as input values to typically several (or all) nodes of the next layer of the artificial neural network.
  • An (output) node in an output layer of the artificial neural network finally supplies the membership value, which indicates with what probability (or whether) an object, event or state represented by the input data set belongs to a certain class.
  • a binary classifier can have two nodes in the output layer, namely one that supplies the membership value for class A and one that supplies the membership value for class non-A as the output value.
  • a multi-class classifier can have several nodes in the output layer, namely one in each case that supplies a membership value for one of the classes for which the multi-class classifier was trained, and another node that indicates the likelihood that this will be caused by the The object represented by the input data record or the state represented by the input data record cannot be assigned to any of the classes for which the multi-class classifier was trained.
  • a multi-class classifier can be formed from several binary sub-classification models in such a way that the multi-class classifier is composed of several parallel binary sub-classification models (which form binary sub-paths) each with their own intermediate layers (hidden layers), the several parallel binary classification models having a common one Have input layer and a common output layer.
  • an input layer with its input nodes is followed by several other layers (hidden layers) with nodes.
  • each node of a subsequent layer is typically linked to all nodes of the previous layer and in this way can receive the respective output values of the nodes of the previous layer.
  • the values received in this way are typically weighted and summed up in a respective node in order to then form an output value of the respective node from the weighted sum, for example via a sigmoid function or another activation function, which is then output to all nodes of the next layer.
  • the number of layers and nodes result in the topology of a neural network.
  • the function with which a respective node weights the typically different input values from the nodes of the previous layer and processes them into an output value defines the parameterization of the artificial neural network and defines a model, for example a classification model.
  • the parameterization with regard to the weights with which the input values of the individual nodes are weighted takes place during the training of the artificial neural network with training data sets.
  • the individual weights are created in the course of a training phase for a respective artificial neural network.
  • training data sets are made available to the artificial neural network as input data sets and typically also the class (called label or target) belonging to a respective training data set.
  • label or target the class belonging to a respective training data set.
  • the deviation of the output value of the nodes at an output layer of the neural network from the expected value is regularly determined.
  • an artificial neural network that represents a binary classification model (a binary classifier) has exactly two nodes in the output layer Class belongs, while the other node supplies a membership value which indicates the probability that the input data record does not belong to this class.
  • the membership values do not necessarily have to be unique, but rather indicate a probability that, for example, the object represented by the input data record belongs to class A or not to class A.
  • a possible membership value can therefore e.g. B. 0.78 and mean that the object belongs to class A with 78% probability and not to class A with 22% probability.
  • the difference between the expected output values of the artificial neural network and the actual output values of the artificial neural network is determined and, based on this error given by a difference, the weights of all nodes and node inputs are determined iteratively changed until the values obtained at the output layer of the artificial neural network approximately correspond to the expected values.
  • the weightings are gradually adapted backwards, so to speak, starting from the output layer through all the preceding layers up to the input layer.
  • the weights are optimized step by step in an iterative process in such a way that the deviation between a given target value (ie a given class, also called label or target) and the initial value of the classifier is as small as possible.
  • the deviation between the specified target value and the initial value of the classifier can be evaluated using a quality criterion and the weights can be optimized using a gradient algorithm in which a typically quadratic quality criterion is optimized, ie minima of the quality criterion are searched for.
  • a minimum is approached with the aid of a known gradient algorithm in which the gradients are determined with which the weights change from iteration step to iteration step. Larger gradients correspond to a larger change per iteration step and small gradients to a smaller change per iteration step.
  • the changes in the weights from iteration step to iteration step - and thus the corresponding gradient - are typically relatively small.
  • changed weights can be determined for the next iteration step.
  • the iterative optimization is continued until a specified termination criterion is met, for example the quality criterion has reached a specified level or a specified number of iteration steps has been reached.
  • a classifier with many, more or less different input data sets is trained as training data sets for a respective class and the model parameter values are determined in the course of the optimization process in such a way that, despite differing Input data sets supply a possible reliable membership value for a respective class. If, for example, a given class for an object is "rose" and the values of the input data set represent the pixels of a photo - namely the color and brightness of a respective pixel of the photo - the color of the rose petals is obviously less important than, for example their shape to the object of the class shown in the photo Assign "Rose".
  • the input data records are not vectors but, for example, matrices that can represent recorded images, for example.
  • Such matrices for example images, are typically processed with the help of convolutional neural networks (CNN) in which the dimensions of the input matrix are gradually reduced with the help of convolution layers by adding a respective input matrix (to the input level as well as on the following levels) with the help of smaller convolution matrices serving as filters (for example 3x3 matrices, which are also referred to as filter kernels).
  • the filter kernel is shifted line by line for the respective input matrix.
  • the input values of a respective node of a (convolution) layer following the convolution layer are thus determined by means of a discrete convolution.
  • the input values of a node in the convolution layer are calculated as the inner product of the convolution matrix (filter kernel) with the values of the input matrix currently assigned in a respective step.
  • the comparatively small convolution matrix is moved step by step over the relatively larger input value matrix and the inner product is formed in each case. This is shown very clearly in https: //de.wikipedia.orq / wiki / Convolutional Neural Network.
  • a fully connected artificial neural network similar to a perceptron
  • this can be trained to, for example, an input data record representing an image Output a number that represents, for example, the age of the person from whom the picture was taken
  • the quality of the classification or the regression depends on the input data sets (matrices, for example images) with which the corresponding convolutional neural network was trained.
  • Known problems such as overfitting can mean that a discriminative neural network used as a classifier cannot reliably classify certain input data records if the input data records differ too greatly from the training data records. For example, if the input data sets used for training are too similar or if too few different variants of the same object or input data sets representing status are available for training, the known overfitting can occur. If a classifier unit for the object "rose" were trained only with photos of red roses, for example, it is quite possible that such a classifier unit only determines a low membership value for photos of white roses, although white roses are just like red roses.
  • the aim of the invention is to create a possibility of determining the reliability of an artificial neural network with regard to various input data sets occurring in practice in order to be able to specify the conditions under which, for example, a classifier can expect reliable classifications and under which conditions a classification by the classifier is possibly incorrect.
  • Input data records can represent, for example, images, tomographies or three-dimensional models that have been obtained using imaging processes in medical technology.
  • the input data sets can be very different, depending on how the respective images were taken or the models were created. The differences can result, for example, from the values of the technical parameters that were used in the creation of the image or the modeling.
  • Such technical parameters, the values of which influence the properties of the input data records are for example the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or the like in imaging or tomographic methods.
  • a system is proposed for this purpose which, on the one hand, has a classifier which is formed by a discriminative neural network and which realizes a binary class model or a multi-class model.
  • the system also has a model-based sample generator that is formed by a generative neural network. Both the classifier and the model-based sample generator are trained - for a corresponding class - with the same training data sets and therefore embody corresponding models for this class.
  • the classifier and the model-based sample generator can be spatially separated from one another.
  • the classifier can be operated in a confidential environment, while the model-based sample generator does not have to, since no confidential data need to be supplied to the model-based sample generator.
  • a regressor can also be provided.
  • the model-based sample generator is also trained with the same training data sets as the regressor.
  • a generative neural network uses a random input data set, for example an input data set that represents noise, to generate an artificial data set that represents an artificial object, an artificial state or an artificial event and that corresponds, for example, to an input data set for a classifier.
  • a generative neural network (a generator) can generate a data set that represents an image of an object from a matrix that represents noise. This is the case when the generative neural network has been trained with corresponding images of the object as training data sets. This applies in particular to deconvolutional generative networks, which have corresponding layers that process a small, random input matrix step-by-step into a larger output matrix as the output data set. This then represents, for example, an artificially created image of an object.
  • a generative neural network can, however, also be constructed in the manner of a perceptron, which is formed from fully connected layers. and has a comparatively large input layer and an output layer of the same size (ie having the same number of nodes) and a plurality of hidden layers that are initially smaller and then larger again.
  • Such a generative network can be used with a random vector at the input layer and then supplies a vector as an output value which represents a certain object, a certain state or a certain event.
  • An autoencoder is a preferred variant of a generative neural network for the application described here, in particular for determining a quality criterion.
  • the model-based sample generator - In order to train the generative neural network - that is, the model-based sample generator - an instance is provided which can determine the deviation of a generative model represented by the model-based sample generator from the training data sets so that the deviations are minimized during training can be.
  • This instance can be a loss function that determines, for example, a similarity loess.
  • the entity determining the deviation - the loess - can, however, also be a discriminator which, similar to the classifiers described above, is formed by a discriminative neural network. If a generative neural network is used as a model-based sample generator in conjunction with a discriminator, i.e.
  • the output data set generated by the model-based sample generator can be fed to the discriminator as an input data set.
  • the discriminator is typically trained with training data sets that represent the object for which the model-based sample generator was also trained. The discriminator can thus determine in the sense of a binary classifier for a respective output data set generated by the model-based sample generator whether this output data set actually represents the corresponding object or not.
  • GAN Geneative Adverserial Network
  • Such a combination of a generative neural network and a discriminative neural network is also known as GAN (Generative Adverserial Network) and, for example, in Andreas Wiegand "An Introduction to Generative Adverserial Network (GAN)", seminar Kl: yesterday, today, tomorrow Applied Computer Science , University of Bamberg.
  • the model-based sample generator can also be an autoencoder that has been trained with the aid of a similarity loess function or a root mean square error (RMSE) function as the entity determining the deviation.
  • RMSE root mean square error
  • the model-based sample generator of the system according to the invention is used to determine for which input data sets the classifier can supply meaningful output values. If the classifier is not a binary classifier but a multi-class classifier whose discriminatory artificial neural network realizes several classification models representing different classes, each of which was generated with different training data sets, then a model-based sample generator is used for each classification model provided, which was generated with the training data sets for the respective classification model and which can also only provide statements for the corresponding classification model.
  • an artificial data set representative of the classification model can be generated for a class, which data set is also referred to as an artificial prototype in the context of this description. This is done by supplying the model-based sample generator in a known manner with an input data record that represents noise - that is, it is formed from random values.
  • the input data records to be classified represent, for example, magnetic resonance tomographies or computer tomographies
  • these technical properties are, for example, the contrast range in Hounsfield units, the image distance or the reconstructed slice thickness, the imaged volume, etc. Only if the input data sets to be classified are similar to the training data sets with regard to these technical properties, a reliable classification result - i.e. a reliable membership value can be expected.
  • the technical boundary conditions that the input data sets to be classified must meet in order for a reliable classification to be possible can be determined with the aid of the model-based sample generator. because these technical properties can be read on the artificially generated data set that is representative of the classification model (the prototype).
  • these different prototypes can be used to define a range of values for the parameter values that must meet the technical properties of the input data sets to be classified the classifier can form reliable membership values.
  • Parameters whose (parameter) values are relevant are, for example, the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or the like on which a respective tomography or image represented by an input data set is based.
  • the artificially generated prototypes which are based on different parameter values, can be checked with the help of a loess function and / or a similarity function and / or a similar metric to determine whether the respective artificially generated prototype (and thus the parameter values on which it is based) expect reliable classification results to let.
  • the respective loess function provides a measure of the reliability with which a classifier correctly classifies an input data set.
  • the parameter values underlying the artificial prototypes providing reliable classification results define a range of values for the parameter values of the relevant parameters (eg image resolution) within which reliable classification results can be expected.
  • a model-based sample generator that has been trained with training data sets that provide reliable classification results can in particular also be used to check input data sets based on real recordings, images or tomographs to determine whether the input data sets allow a reliable classification result to be expected from the corresponding classifier.
  • an artificial prototype generated by the model-based sample generator can be used with the respective input data set with the aid of a suitable metric, e.g. B. with the help of a loess function can be compared. A small amount of loess then indicates that the input data set allows a reliable classification by the model-based sample generator to be expected.
  • the comparison of input data sets based on real data with artificial prototypes generated by the model-based sample generator can be used to define (parameter) value spaces that contain parameter values and combinations of parameter values that lead to input data sets that can probably be reliably classified.
  • different input data sets based on real data each of which is based on different parameter values, must be compared with the artificially generated prototypes so that the parameter values and combinations of parameter values can be determined which lead to a low level of loess.
  • a parameter space determined in this way can be made available to the operator of the classifier so that the operator can check the quality of the input data before a classification is carried out by the classifier.
  • the model-based sample generator can also be connected upstream of the classifier - and thus possibly part of a confidential environment.
  • an input data set to be specifically classified by the classifier can first be compared with a corresponding artificial prototype generated by the model-based sample generator in order to obtain an estimate of the reliability of the classification before the classification.
  • the model-based sample generator is part of the confidential environment.
  • the model-based sample generator in which a parameter value space that is expected to allow reliable classification results is formed, can also be operated outside of a confidential environment.
  • several model-based sample generators can be operated in separate containers on one or more servers. Since the model-based sample generators are operated in (software) containers, i.e. in a logically closed area of a server, the model-based sample generators can also be part of a quasi-confidential area in which the respective classifier is also operated.
  • a model-based sample generator operated in a container can be connected to the respective classifier and / or the confidential environment in which the respective classifier is operated via a VPN connection (VPN: Virtual Private Network).
  • VPN Virtual Private Network
  • a maximum value is specified for the loess function used in each case, which an artificially generated prototype must not exceed in order to be considered reliable.
  • the check can also be carried out by means of a similarity function, which provides a measure of similarity for a respective artificial prototype.
  • a minimum value can be specified for the degree of similarity, which must not be fallen below, so that the associated artificial prototype is considered reliable.
  • the (parameter) value range determined in accordance with the variant first outlined above is a quality criterion which can be used as the basis for checking input data records to be classified. Input data records to be classified which meet the quality criterion because the values of technical parameters represented by the input data records to be classified lie within the value space or value range according to the quality criterion, lead to a reliable classification result.
  • a method is also proposed for determining a quality criterion for input data records for a classifier with a discriminative neural network.
  • the input data records depend on values of technical parameters that are represented in the input data records and the quality criterion relates to at least one value of one of these technical parameters.
  • the classifier is trained with training data sets and embodies a classification model for a class.
  • a model-based sample generator with a generative neural network is first provided and trained with the same training data sets with which the classifier was trained. Then, by means of the trained model-based sample generator and an input data set based on random values, an artificial data set is generated which is representative of the classification model embodied by the classifier and represents an artificial prototype.
  • a quality criterion is formed from the determined values of the technical parameters in that a value range or range of values is determined from the determined values of the technical parameters, which depends on the determined values of the technical parameters and a specified tolerance range, the classifier for such input data records, represents the values of technical parameters that lie within the value range and thus meet the quality criterion, deliver a reliable classification result.
  • an associated loess function is formed for input data sets based on different values of the parameters and an artificially borrowed prototype generated by the model-based sample generator and an output value supplied by the loess function is compared with a predetermined reference value.
  • the parameter values on which the respective input data set is based are classified as those which provide a sufficiently reliable classification result.
  • a value space can be formed for the values of the parameters, which forms a quality criterion for the parameter values, namely in such a way that parameter values within the value space meet the quality criterion.
  • each input data set to be processed specifically by the classifier or the regressor can be compared with the artificial data set generated by the model-based sample generator in order to determine the loess compared to or the similarity to the artificial data set generated by the model-based sample generator and in this way, before or in parallel with the classification of the input data set, an estimate of the reliability of the classification can be obtained
  • an entity determining the deviations between the prototype and the respective input data set e.g. a discriminator or a similarity loess function
  • a discriminator or a similarity loess function can be connected upstream or parallel to the classifier and, for an input data set to be specifically classified, the loess compared to a sample based on the model -Generator-generated prototypes can be determined in order to obtain an estimate of the reliability of the classification before or in parallel with the classification of the input data set.
  • the classifier is preceded or paralleled by an entity determining a deviation, such as a discriminator or a similarity function in connection with a prototype generated by the model-based sample generator, in order to provide a solution for each input data set to be specifically classified or to determine a similarity to the prototype.
  • entity determining a deviation such as a discriminator or a similarity function in connection with a prototype generated by the model-based sample generator
  • the input data sets to be classified preferably represent tomographic images and the technical parameters, the values of which are determined from the artificially generated data set, are preferably the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or a combination thereof.
  • FIG. 5 a sketch of a similar implementation as sketched in FIG. 4, a regressor being provided instead of a classifier;
  • FIG. 1 is a sketch of a system 10 which on the one hand comprises a classifier 12 and on the other hand a model-based sample generator 14. Instead of the classifier 12, a regressor 28 can also be provided.
  • a classifier In the case of a classifier, it can be trained, for example with the help of training data sets representing healthy anatomical structures, to recognize healthy anatomical structures and to assign them a high membership value (ie a low loess) and in this way to assign data sets representing pathological anatomical structures differ because such pathological anatomical Data sets representing structures have a lower similarity with the training data sets - and thus with the model embodied by the classifier.
  • the classifier 12 is formed by a trained discriminative artificial neural network that embodies a one-class model or a multi-class model. Accordingly, the classifier 12 is either a binary classifier or a multi-class classifier. The classifier 12 is trained with the aid of corresponding training data sets for a respective class. As described at the beginning, it depends on the training data sets how the classifier behaves for the respective class.
  • the classification result depends on the training data sets 24 with which the classifier 12 was trained (see FIG. 2).
  • each value from an input data set 18 is fed to the nodes of an input layer of the discriminative neural network of the classifier 12 during operation.
  • the output values of the nodes of the input layer are then passed on to the nodes of the following hidden layers (hidden layer) until finally the nodes of the output layer generate a signal that represents a membership value that indicates how much the input data set - and thus that represented by the input data set
  • the object, the represented state or the represented event - is to be assigned to one of the classes for which the classifier 12 was trained.
  • the discriminative artificial neural network of the classifier 12 can for example be a perceptron or else a convolutional neural network (CNN) with one or more convolution layers at the entrance.
  • CNN convolutional neural network
  • the input data set is typically a vector of the type described at the beginning.
  • CNN Conventional Neural Network
  • the input data set is typically a matrix which in most cases represents an image.
  • the problem is that for a user of a classifier such as the classifier 12 it is typically not easy to see whether or not he can trust the respective classification result - that is, the membership values supplied by the classifier.
  • the user does not know for which input data sets the classifier 12 will deliver foreseeable reliable results and for which input data sets the classifier 12 will not deliver any reliable results foreseeably.
  • the classification result depends not only on the content represented by a respective input data record (for example an image of an anatomical structure), but also on the technical parameters of the data record such as resolution and contrast.
  • a classifier 12 trained with training data sets representing healthy anatomical structures can falsely classify an input data set also representing healthy anatomical structures as a data set representing pathological structures if the input data set representing healthy anatomical structures is due to technical reasons, e.g. insufficient triggering, deviates more from the training data sets.
  • the classification result may also depend on the completeness or correctness of the respective input data set.
  • An input data record can consist, for example, of a matrix representing an image and additional parameter values (eg modality, age of the patient, etc.). If the input data set is incomplete, ie if, for example, additional parameter values are missing or completely incorrect (e.g. a negative age), the input data set is unsuitable for reliable classification.
  • the model-based sample generator 14 is provided in order to determine the limits within which the classifier 12 can deliver reliable and reliable results.
  • the model-based sample generator 14 is formed by a generative artificial neural network that is trained with training data sets for the class or one of the classes with which the classifier 12 was also trained for the corresponding class.
  • the training data sets themselves are not available to the user of the model-based sample generator, that is to say the training data sets with which the classifier 12 and also the model-based sample generator 14 were trained can remain anonymous to outsiders. Accordingly, it is not possible to infer directly from the training data sets under which conditions or prerequisites the classifier 12 is likely to deliver reliable results.
  • the model-based sample generator 14 for a class has been trained with the same training data sets as the classifier 12 for this class, it is possible to generate an artificial data set with the model-based sample generator 14 from a random input data set that typically represents noise .
  • the artificial data record generated in this way represents a type of artificial prototype for an object, a state or an event, which defines the corresponding class for which the classifier 12 is also trained.
  • By looking at the artificial prototype it can now be determined what the object, state or event looks like for which the Classifier is trained for the corresponding class. For objects, states or events that differ greatly from the artificial prototype, the classifier 12 will typically not provide a high membership value for the corresponding class, even if these differing objects, events or states were to be assigned to the corresponding class.
  • the classifier 12 or the regressor 28 can be part of a confidential environment, for example in a hospital with confidential patient data, while the model-based sample generator does not need to be, because it can be trained with anonymized training data sets (namely the same ones with which the classifier or the regressor was trained) and can deliver a product criterion as a result, which can then be used in the confidential environment in the vicinity of the classifier or regressor to check real input data records.
  • FIG. 2 illustrates that the classifier 12 (or the regressor 28) and the model-based sample generator 14 were trained with the same training data sets.
  • the training data sets themselves are invisible to the operator of the model-based sample generator 14, so that confidentiality can also be maintained in this respect.
  • the model-based sample generator 14 is part of a Generative Adverserial Network 34 (GAN), which is from the model-based sample Generator 14 and an associated discriminator 16 is formed.
  • GAN Generative Adverserial Network 34
  • the model-based sample generator 14 generates an artificial (generated) data set from an input data set 20 representing noise and thus a data set 22 representing an artificial prototype, the the discriminator 16 is supplied as an input data record.
  • the discriminator 16 can determine the deviation between the artificial prototype and the model defined by the training data sets - the loess - and form an output signal representing this deviation.
  • the output signal of the discriminator 16 representing the loess is fed back to the model-based sample generator 14, where the weights of the nodes of the layers of the model-based sample generator 14 are adjusted and the model represented by the training data sets 24 is sufficiently small. As soon as this is the case, the model-based sample generator 14 is trained for the corresponding class. The discriminator 16 is no longer required for the analysis described in connection with FIG.
  • the model-based sample generator 14 is suitable for generating an artificial prototype that not only represents healthy anatomical structures, but also represents pathological anatomical structures
  • the training data sets contain, for example, both data sets that represent healthy anatomical structures and data sets that represent pathological anatomical structures Represent structures.
  • the properties of the prototype are shaped by the more general common properties of the training data sets, ie in particular also by their technical properties.
  • a similarity of the input data sets to be classified for the classifier 12 or the regressor 28 with an artificial prototype generated as described therefore indicates a technical suitability of the input data sets for a reliable classification or regression.
  • a strong deviation of an input data set to be classified by the classifier 12 from the artificial prototype 22 is an indication of a lack of suitability for a reliable classification.
  • the model-based sample generator 14 can then be used as follows to determine a quality criterion for the input data records to be classified for the classifier:
  • a model-based sample generator 14 with a generative neural network is provided and trained with the same training data sets with which the classifier 14 was trained.
  • an artificial data set 22 is generated which is representative of the classification model embodied by the classifier and which is also referred to as an artificial prototype 22 in the context of this description.
  • values for technical parameters represented by this artificial data set are determined from the artificial data record 22.
  • a quality criterion is formed from the determined values of the technical parameters in that a value range or range of values is determined from the determined values of the technical parameters, which depends on the determined values of the technical parameters and a specified tolerance range, the classifier for such input data records, the values represent technical parameters that are within the range of values and thus meet the quality criterion, delivering a reliable classification result.
  • the value range or value space serving as a product criterion can also be determined by comparing a data set artificially generated by the model-based sample generator 14 (i.e. an artificial prototype) with various input data sets based on real data.
  • input data records are used to which different parameter values for the relevant parameters such as B. resolution, layer thickness or the like are based.
  • the loess compared to the artificial prototype 22 or the similarity to the artificial prototype is determined by means of a loss function known per se (loess function) or a similarity function known per se (similarity function).
  • a parameter space can be formed with the aid of the model-based sample generator 14, which can serve as a quality criterion for input data sets to be classified by the classifier 12 - in the sense that input data sets that are based on data are obtained when they are obtained Parameter values come from the parameter space serving as a quality criterion, meet the quality criterion and allow a reliable classification to be expected.
  • a unit 32 for determining similarity is assigned to the classifier, which unit checks input data records to be processed by the classifier 12 or the regressor 28 for their similarity to the artificial prototype.
  • the unit 32 for determining similarity can be connected upstream of the classifier 12 of the regressor 28 or connected in parallel - and is thus part of a possibly confidential environment.
  • the unit 32 for determining similarity can, for example, be a discriminator which is configured to determine a loess between a respective input data set to be checked by the classifier 12 or regressor 28 and the artificial prototype 22.
  • the loess can then be determined for an input data set to be specifically classified in relation to an output data set (prototype) generated by the model-based sample generator in order to obtain an estimate of the reliability of the classification before the input data set is classified.
  • the unit 34 for determining similarity can also be used for a simple comparison of a respective input data set to be checked by the classifier 12 or regressor 28 with the artificial prototype 22 by means of a similarity function, for example by determining the root mean square error (RMSE), the Cross entropy or the Structural Similarity Index (SSIM) measure.
  • RMSE root mean square error
  • SSIM Structural Similarity Index
  • the classifier (or the regressor) is preceded or paralleled by an entity that determines a deviation, such as a discriminator or a similarity function, in conjunction with an output data set that is generated by the model-based sample generator and represents an artificial prototype, in order to determine a loess opposite or a similarity to the prototype for each input data set to be specifically classified. If a loess is determined, it should be as small as possible (e.g. close to zero on a scale from 0 to 1). If a similarity is determined, it should be as close as possible to 1 on a scale from 0 to 1. Suitable functions aim to map the distance between two data sets - i.e.
  • such a function could be an average one Determine the difference between the individual elements of the input data set and corresponding elements of the artificial prototype.
  • a loss function is typically used to optimize a model using an optimizer. If necessary, the scaling is changed for a loss function - so that it corresponds to the mathematical requirements of the optimization algorithm.
  • the input data sets to be classified preferably represent tomographic images and the technical parameters, the values of which are determined from the artificially generated data set, are preferably the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or a combination thereof.
  • Further parameters of an input data set can be data on the receiving modality or also on a patient. The last data mentioned would be, for example, gender, age, body size etc. It is also preferred if using the trained model-based sample generator and several different random values based Input data sets a plurality of artificial data sets are generated which are representative of the classification model embodied by the classifier, and values for technical parameters represented by these artificial data sets are determined from the artificial data sets.
  • an operator of a classifier can only recognize with difficulty whether he is relying on classification results obtained from the classifier - that is, membership values generated by the classifier.
  • the latter is namely only the case if the input data records to be classified for the classifier meet technical criteria that match the classification model that is embodied by the classifier.
  • technical criteria are the value ranges of the technical parameters that are represented by the respective input data record.
  • the classification by the classifier is only reliable if these match the classification model.
  • a quality check of input data sets 18 to be classified can also take place in that the classifier 12 is operated in the confidential environment in connection with a (second) discriminator 26.
  • Figure 3 illustrates a corresponding arrangement.
  • the second discriminator 26 is used to determine a loss function, that is to say to determine a measure of an (averaged) deviation between an artificial prototype 22 ′ generated by the model-based sample generator 14 and an input data set 18 to be classified in each case 'can be generated in the non-confidential environment by the model-based sample generator 14 and then made available for the quality check in the confidential environment.
  • the second discriminator 26 can also be viewed as a classifier trained with the artificial prototype 22 ', which for each input data set 18 to be classified belongs to a class “suitable for a reliable classification (OK)” or to a class “for a reliable classification unsuitable (NOK) ”.
  • the second discriminator 26 can thus be designed as a binary classifier.
  • the actual classifier 12 is typically a multi-class classifier and classifies the input data records 18 by assigning each input data record 18 to one of several classes for which the classifier 12 was trained.
  • the discriminator 26 is an entity which checks the discrepancy between the artificially generated prototype 22 'and an input data set 18 to be classified in each case.
  • the discriminator 26 can thus also embody a simple similarity loss function.
  • a regressor 28 can also be provided in the confidential environment. This is illustrated in FIG. A regressor typically does not provide an assignment to one of several classes as an output value (as the classifier 12 does), but rather provides a numerical value for a respective input data set.
  • the numerical value can represent the age of a person if the input data set checked by the regressor 28 represents an image of this person.
  • a regressor can, for example, indicate the probable length of stay of a patient in the hospital.
  • the regressor 28 also embodies a discriminative neural network that has been trained with corresponding training data sets which, for example, represent images of people of different ages.
  • FIG. 6 illustrates an exemplary embodiment in which the GAN 34 has two discriminators 16 and 30 for training the model-based sample generator 14.
  • the first discriminator 16 of the GAN is configured as usual in such a way that its feedback to the model-based sample generator 14 is provided leads to the fact that the loess between the training data sets and the iteratively changing output data 22 generated by the model-based sample generator 14 during the training is minimized by the weights of the generative neural network embodied by the model-based sample generator 14 during the training be gradually adapted.
  • the first discriminator 16 of the GAN 34 is thus configured to determine the loess between the artificially generated data set 22 and the training data sets in a manner known per se and to minimize it in the course of the training.
  • the second discriminator 30 of the GAN 34 is configured in such a way that for each prototype 22 generated by the model-based sample generator 14 during the training it determines its similarity to each of the training data sets and, in conjunction with the model-based sample generator 14, works to ensure that a predetermined minimum number of training data records has a predetermined minimum similarity with the respectively generated prototype 22 in order to prevent the prototype from having a particularly great similarity with only one or very few training data records.
  • the second discriminator 30 of the GAN 34 is configured in such a way that it always generates a high value to be added to the loess determined by the first discriminator 16 if less than a predetermined number of training data sets result in a degree of similarity that is less than a predetermined one Has the maximum deviation from the best occurring degree of similarity. Only when a sufficient number of training data sets have a similarly great similarity to the artificially generated data set 22 as the most similar training data set is the value determined by the second discriminator 30 for the similarity cluster measure small.
  • the sum of the measure for the loess (the measure of loss that the first discriminator 16 generates) and the value determined by the second discriminator 30 for the similarity cluster measure is minimized. Since the similarity cluster measure severely “penalizes” a deviation from the specified minimum number of very similar training data records, it is ensured that this specification is typically met. For example, in the case of twenty training data sets, 20 similarity values (values of the degree of similarity) are also generated. If, for example, 3 is selected as the limit value (minimum size of the cluster with the best similarity values within a given range), a cluster with the highest degree of similarity (the height expresses an increased similarity between the elements) must contain at least three elements.
  • the GAN 34 is configured in such a way that at least approximately an optimum with regard to the loess determined by the discriminator 16 and the similarity criterion determined by the discriminator 30 results during training.
  • the output data set 22 generated by the model-based sample generator 14 is a pair of prototypical input data (for example an artificially generated tomography) and the associated label.
  • the Laber designates one of the classes for which the classifier 12 is trained and for which the artificially generated prototype is intended to be a prototype.
  • Such a pair of prototypical input data set and associated label (ie associated class) generated by the model-based sample generator 14 can be used for testing the classifier 12 by the artificially generated, prototypical input data set 22 'being supplied to the classifier 12 and the data set for this the class determined by the classifier is compared with the label.
  • the class determined by the classifier 12 for the artificially generated, prototypical input data set 22 'must be identical to the label if the system is to be classified as reliable.
  • FIG. 7 illustrates this using an example analogous to the exemplary embodiment shown in FIG. However, the concept can also be transferred to all other exemplary embodiments.
  • a double line indicates that the output data set 22 generated by the model-based sample generator 14 is a pair of a prototypical input data set and an associated label (i.e., an associated class).
  • a check of the classifier 12 with the help of a pair generated by the model-based sample generator 14 from prototypical input data set and the associated label is particularly helpful when the classifier is retrained during operation (e.g. via online training).
  • the pair of prototypical input data sets and associated labels generated by the model-based sample generator 14 can be used to check whether the retraining was successful. Should the retrained classifier 12 misclassify the pair of prototypical input data sets generated by the generator 14, the classifier 12 can be reconfigured back to the classification model prevailing before the retraining.
  • log data records log files
  • the preferred embodiment variants offer the advantage that they also allow federated training of the classifier 12 or regressor 28 and also of the GAN 34.
  • different trained generative neural networks ie, generative models
  • the decentralized - and thus federated - generated generative neural networks can become a single model (and thus one single generative neural network) that is then implemented by the model-based sample generator (34).
  • the model-based sample generator (14) can also be trained with training data sets from different sources (via data pooling) in order to avoid overfitting to a single source.
  • discriminator connected to generator 14 18 input data records for objects to be classified
  • Second discriminator which can be connected to the generator 14 32 Unit for determining similarity

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a system that has a classifier that is formed by a discriminative neural network and realises a binary class model or a multi-class model. The system also has a model-based sample generator that is formed by a generative neural network. Both the classifier and the model-based sample generator are – for a corresponding class – trained with the same training data records and therefore embody models that correspond to one another for this class. The invention also relates to a method for determining a quality criterion for input data records for a classifier with a discriminative neural network. The classifier is trained with training data records and embodies a classification model for a class. According to the method, first a model-based sample generator with a generative neural network is provided and trained with the same training data records with which the classifier was trained. Then, by means of the trained model-based sample generators and an input data record based on random values, an artificial data record is generated that is representative of the classification model embodied by the classifier. The artificial data record generated by the trained generator or at least one parameter derived therefrom is used to check the input data records with regard to their suitability for a classification or regression.

Description

System und Verfahren zur Qualitätszusicherung von datenbasierten Modellen System and procedure for quality assurance of data-based models
Die Erfindung betrifft ein System und ein Verfahren zur Qualitätszusicherung von datenbasierten Modellen. The invention relates to a system and a method for quality assurance of data-based models.
Die Erfindung betrifft insbesondere ein System und ein Verfahren zur Qualitätszusicherung von Klassifikatoren oder Regressoren, die von diskriminativen neuronalen Netzen gebildet sind, wobei die Klassifikatoren dazu dienen, die Zugehörigkeit oder Nichtzugehörigkeit von durch einen jeweiligen Eingangsdatensatz repräsentierten Objekten, Zuständen oder Ereignissen zu einer Klasse oder einer von mehreren Klassen anzugeben. Regressoren geben hingegen einen Zahlenwert aus, z.B. eine Altersangabe zu einer Person, wenn der Regressor ein Bild einer Person verarbeitet. Bekannt sind beispielsweise binäre Klassifikatoreinheiten, die für ein durch einen jeweiligen Datensatz repräsentiertes Objekt, Ereignis oder einen Zustand die Zugehörigkeit oder Nichtzugehörigkeit dieses Objekts, dieses Zustands oder dieses Ereignisses zu einer Klasse angeben, für die die binäre Klassifikatoreinheit trainiert ist. The invention relates in particular to a system and a method for quality assurance of classifiers or regressors formed by discriminative neural networks, the classifiers serving to determine whether objects, states or events represented by a respective input data record belong to a class or a class of several classes. Regressors, on the other hand, output a numerical value, e.g. an age specification for a person, if the regressor processes a picture of a person. For example, binary classifier units are known which, for an object, event or state represented by a respective data record, indicate the affiliation or non-affiliation of this object, this state or this event with a class for which the binary classifier unit is trained.
Ein Eingangsdatensatz ist typischerweise ein Vektor oder eine Matrix. Falls ein Objekt bei- spielsweise durch einen Vektor repräsentiert ist, enthält der Vektor Werte, die bestimmte Eigenschaften des Objekts beschreiben, also beispielsweise einen Wert für die Eigenschaft Gewicht, einen Wert für die Eigenschaft Größe und einen Wert für die Eigenschaft Geschlecht. Ein entsprechender Vektor könnte für eine 1 ,90 m große, 100 kg schwere, männliche Person beispielsweise wie folgt aussehen: (2,190,100). In diesem Vektor stehen beispielsweise 2 für das Geschlecht (1 = weiblich, 2 = männlich), 190 für die Körpergröße von 190 cm und 100 für das Körpergewicht, nämlich 100 kg. Ein neuronales Netz ist typischerweise so aufgebaut, dass für jeden Wert ein Eingangsknoten vorhanden ist, in dem genannten Beispiel also drei Eingangsknoten, von denen ein Eingangsknoten für das Geschlecht, ein zweiter Eingangsknoten für die Körpergröße und ein dritter Eingangsknoten für das Gewicht vorgesehen ist. Letzteres gilt allerdings nicht für sogenannte LSTM neuronale Netze (LSTM: long short-term memory). Die in einem Eingangsdatensatz enthaltenen Werte werden den (Eingangs-) Knoten der Eingangsschicht zugeordnet. Die Eingangsknoten liefern ihre Ausgangswerte als Eingangswerte an typischerweise mehrere (oder alle) Knoten der nächsten Schicht des künstlichen neuronalen Netzwerks. Ein (Ausgangs-) Knoten in einer Ausgangsschicht des künstlichen neuronalen Netzwerks liefert schließlich den Zugehörigkeitswert, der angibt, mit wel- eher Wahrscheinlichkeit (oder ob) ein durch den Eingangsdatensatz repräsentiertes Objekt, Ereignis oder Zustand zu einer bestimmten Klasse gehört. Typischerweise sind zwischen Eingangsschicht und Ausgangsschicht mehrere Zwischenschichten (hidden layers) vorgesehen, die zusammen mit der Eingangsschicht und der Ausgangschicht die Topologie des neuronalen Netzes definieren. Ein binärer Klassifikator kann in der Ausgangs- Schicht zwei Knoten aufweisen, nämlich einen, dass den Zugehörigkeitswert für die Klasse A und einen, der den Zugehörigkeitswert für die Klasse Nicht-A als Ausgangswert liefert. Ein Multiklassen-Klassifikator kann in der Ausgangsschicht mehrere Knoten aufweisen, nämlich jeweils einen, der einen Zugehörigkeitswert für eine der Klassen liefert, für die der Multiklassen-Klassifikator trainiert wurde, und einen weiteren Knoten, der die Wahrschein- lichkeit anzeigt, dass das durch den Eingangsdatensatz repräsentierte Objekt oder der durch den Eingangsdatensatz repräsentierte Zustand keiner der Klassen zuzuordnen ist, für die der Multiklassen-Klassifikator trainiert wurde. Ein Multiklassen-Klassifikator kann aus mehreren binären Teilklassifikationsmodellen derart gebildet sein, dass der Multiklassen-Klassifikator sich aus mehreren parallelen binären Teilklassifikationsmodellen (die bi- näre Teilpfade bilden) mit jeweils eigenen Zwischenschichten (hidden layers) zusammensetzt, wobei die mehreren parallelen binären Klassifikationsmodelle eine gemeinsame Eingangsschicht und eine gemeinsame Ausgangsschicht aufweisen. In typischen künstlichen neuronalen Netzen folgen somit auf eine Eingangsschicht mit ihren Eingangsknoten mehrere weitere Schichten (hidden layer) mit Knoten. Dabei ist typischerweise jeder Knoten einer nächstfolgenden Schicht mit sämtlichen Knoten der vorangehenden Schicht verknüpft und kann auf diese Weise die jeweiligen Ausgangswerte der Knoten der vorangehenden Schicht empfangen. Die so empfangenen Werte werden in einem jeweiligen Knoten typischerweise gewichtet aussummiert, um dann aus der gewichteten Summe beispielsweise über eine Sigmoid Funktion oder eine andere Aktivierungsfunktion einen Ausgangswert des jeweiligen Knotens zu bilden, der dann an sämtliche Knoten der nächstfolgenden Schicht ausgegeben wird. Die Anzahl der Schichten und Knoten ergeben die Topologie eines neuronalen Netzes. Die Funktion, mit der ein jeweiliger Knoten die typischerweise verschiedenen Eingangswerte von den Knoten der vorangehenden Schicht gewichtet und zu einem Ausgangswert verarbeitet, macht die Parametrisierung des künstlichen neuronalen Netzes aus und definiert ein Modell, z.B. ein Klassifikationsmodell. Die Parametrisierung hinsichtlich der Gewichte, mit der die Eingangswerte der einzelnen Knoten gewichtet werden, erfolgt während des Trainings des künstlichen neuronalen Netzes mit Trainingsdatensätzen. An input data set is typically a vector or a matrix. If an object is represented by a vector, for example, the vector contains values that describe certain properties of the object, for example a value for the weight property, a value for the size property and a value for the property Gender. A corresponding vector could look like this for a 1.90 m tall, 100 kg, male person, for example: (2,190,100). In this vector, for example, 2 stands for the gender (1 = female, 2 = male), 190 for the body height of 190 cm and 100 for the body weight, namely 100 kg. A neural network is typically structured in such a way that there is an input node for each value, i.e. three input nodes in the example mentioned, of which one input node is provided for gender, a second input node for height and a third input node for weight. The latter, however, does not apply to so-called LSTM neural networks (LSTM: long short-term memory). The values contained in an input data record are assigned to the (input) nodes of the input layer. The input nodes supply their output values as input values to typically several (or all) nodes of the next layer of the artificial neural network. An (output) node in an output layer of the artificial neural network finally supplies the membership value, which indicates with what probability (or whether) an object, event or state represented by the input data set belongs to a certain class. Typically, several intermediate layers (hidden layers) are provided between the input layer and the output layer, which, together with the input layer and the output layer, define the topology of the neural network. A binary classifier can have two nodes in the output layer, namely one that supplies the membership value for class A and one that supplies the membership value for class non-A as the output value. A multi-class classifier can have several nodes in the output layer, namely one in each case that supplies a membership value for one of the classes for which the multi-class classifier was trained, and another node that indicates the likelihood that this will be caused by the The object represented by the input data record or the state represented by the input data record cannot be assigned to any of the classes for which the multi-class classifier was trained. A multi-class classifier can be formed from several binary sub-classification models in such a way that the multi-class classifier is composed of several parallel binary sub-classification models (which form binary sub-paths) each with their own intermediate layers (hidden layers), the several parallel binary classification models having a common one Have input layer and a common output layer. In typical artificial neural networks, an input layer with its input nodes is followed by several other layers (hidden layers) with nodes. In this case, each node of a subsequent layer is typically linked to all nodes of the previous layer and in this way can receive the respective output values of the nodes of the previous layer. The values received in this way are typically weighted and summed up in a respective node in order to then form an output value of the respective node from the weighted sum, for example via a sigmoid function or another activation function, which is then output to all nodes of the next layer. The number of layers and nodes result in the topology of a neural network. The function with which a respective node weights the typically different input values from the nodes of the previous layer and processes them into an output value, defines the parameterization of the artificial neural network and defines a model, for example a classification model. The parameterization with regard to the weights with which the input values of the individual nodes are weighted takes place during the training of the artificial neural network with training data sets.
Wie grundsätzlich bekannt ist, entstehen die einzelnen Gewichte im Laufe einer Trainingsphase für ein jeweiliges künstliches neuronales Netz. In einer derartigen Trainingsphase werden dem künstlichen neuronalen Netz Trainingsdatensätze als Eingangsdatensätze zur Verfügung gestellt und typischerweise auch die zu einem jeweiligen Trainingsdatensatz gehörende Klasse (label odertarget genannt). Während der Trainingsphase wird regelmäßig die Abweichung des Ausgangswertes der Knoten an einer Ausgangsschicht des neuronalen Netzes von dem erwarteten Wert bestimmt. As is generally known, the individual weights are created in the course of a training phase for a respective artificial neural network. In such a training phase, training data sets are made available to the artificial neural network as input data sets and typically also the class (called label or target) belonging to a respective training data set. During the training phase, the deviation of the output value of the nodes at an output layer of the neural network from the expected value is regularly determined.
Ein künstliches neuronales Netz, das ein binäres Klassifikationsmodell (einen binären Klas- sifikator) repräsentiert, hat beispielsweise in der Ausgangsschicht genau zwei Knoten, von denen ein Knoten im Ergebnis einen Zugehörig keitswert liefert, der die Wahrscheinlichkeit wiedergeben soll, dass der Eingangsdatensatz zu einer bestimmten Klasse gehört, während der andere Knoten einen Zugehörigkeitswert liefert, der die Wahrscheinlichkeit angibt, dass der Eingangsdatensatz nicht zu dieser Klasse gehört. Die Zugehörig keitswerte müs- sen nicht notwendigerweise eindeutig sein, sondern geben vielmehr eine Wahrscheinlichkeit dafür an, dass beispielsweise das durch den Eingangsdatensatz repräsentierte Objekt zur Klasse A oder nicht zur Klasse A gehört. Ein möglicher Zugehörigkeitswert kann also z. B. 0.78 sein und bedeuten, dass das Objekt mit 78 % Wahrscheinlichkeit zur Klasse A und mit 22 % Wahrscheinlichkeit nicht zur Klasse A gehört. In der Trainings- oder Lernphase für ein künstliches neuronales Netz wird die Differenz zwischen dem erwarteten Ausgangswerten des künstlichen neuronalen Netzes und den tatsächlichen Ausgangswerten des künstlichen neuronalen Netzes bestimmt und auf Basis dieses durch eine Differenz gegebenen Fehlers die Gewichte aller Knoten und Knotenein- gänge solange iterativ verändert, bis die an der Ausgangsschicht des künstlichen neuronalen Netzes erhaltenen Werte in etwa den erwarteten Werten entsprechen. Dabei erfolgt die schrittweise Adaption der Gewichte sozusagen rückwärts ausgehend von der Ausgangsschicht durch alle vorangehenden Schichten bis hin zur Eingangsschicht. In der Lernphase werden die Gewichte in einem iterativen Prozess somit schrittweise optimiert, und zwar derart, dass die Abweichung zwischen einem vorgegebenen Zielwert (d.h. einer vorgegeben Klasse, auch label oder target genannt) und dem Ausgangswert des Klassifikators so gering wie möglich ist. Die Abweichung zwischen dem vorgegebenen Zielwert und dem Ausgangswert des Klassifikators kann mittels eines Gütekriteriums bewertet werden und die Optimierung der Gewichte kann mittels eines Gradientenalgorithmus erfolgen, bei dem ein typischerweise quadratisches Gütekriterium optimiert wird, d.h. nach Minima des Gütekriteriums gesucht wird. Die Annäherung an ein Minimum erfolgt dabei mit Hilfe eines bekannten Gradientenalgorithmus, bei dem die Gradienten bestimmt werden, mit denen sich die Gewichte von Iterationsschritt zu Iterationsschritt verändern. Größere Gradienten entsprechen hierbei einer größeren Veränderung pro Iterationsschritt und kleine Gradien- ten einer kleineren Veränderung pro Iterationsschritt. In der Nähe eines gesuchten (lokalen) Minimums des Gütekriteriums sind die Veränderungen der Gewichte von Iterationsschritt zu Iterationsschritt - und damit der entsprechende Gradient - typischerweise relativ klein. Mit Hilfe der Gradienten können jeweils veränderte Gewichte für den nächsten Iterationsschritt bestimmt werden. Die iterative Optimierung wird solange fortgesetzt, bis ein vorgegebenes Abbruchkriterium erfüllt ist, z.B. das Gütekriterium ein vorgegebenes Maß erreicht hat oder eine vorgegebene Anzahl von Iterationsschritten erreicht ist. For example, an artificial neural network that represents a binary classification model (a binary classifier) has exactly two nodes in the output layer Class belongs, while the other node supplies a membership value which indicates the probability that the input data record does not belong to this class. The membership values do not necessarily have to be unique, but rather indicate a probability that, for example, the object represented by the input data record belongs to class A or not to class A. A possible membership value can therefore e.g. B. 0.78 and mean that the object belongs to class A with 78% probability and not to class A with 22% probability. In the training or learning phase for an artificial neural network, the difference between the expected output values of the artificial neural network and the actual output values of the artificial neural network is determined and, based on this error given by a difference, the weights of all nodes and node inputs are determined iteratively changed until the values obtained at the output layer of the artificial neural network approximately correspond to the expected values. The weightings are gradually adapted backwards, so to speak, starting from the output layer through all the preceding layers up to the input layer. In the learning phase, the weights are optimized step by step in an iterative process in such a way that the deviation between a given target value (ie a given class, also called label or target) and the initial value of the classifier is as small as possible. The deviation between the specified target value and the initial value of the classifier can be evaluated using a quality criterion and the weights can be optimized using a gradient algorithm in which a typically quadratic quality criterion is optimized, ie minima of the quality criterion are searched for. A minimum is approached with the aid of a known gradient algorithm in which the gradients are determined with which the weights change from iteration step to iteration step. Larger gradients correspond to a larger change per iteration step and small gradients to a smaller change per iteration step. In the vicinity of a sought (local) minimum of the quality criterion, the changes in the weights from iteration step to iteration step - and thus the corresponding gradient - are typically relatively small. With the help of the gradients, changed weights can be determined for the next iteration step. The iterative optimization is continued until a specified termination criterion is met, for example the quality criterion has reached a specified level or a specified number of iteration steps has been reached.
Da sich die Werte in den Eingangsdatensätzen für verschiedene Zustände oder Objekte dergleichen Klasse unterscheiden können, wird ein Klassifikator mit vielen, mehr oder weniger unterschiedlichen Eingangsdatensätzen als Trainingsdatensätzen für eine jeweilige Klasse trainiert und die Modellparameterwerte werden im Verlauf des Optimierungsprozesses so bestimmt, dass sie trotz abweichender Eingangsdatensätze einen möglich zuverlässigen Zugehörigkeitswert für eine jeweilige Klasse liefern. Wenn beispielsweise eine vorgegebene Klasse für ein Objekt "Rose" ist, und die Werte des Eingangsdatensatzes die Pixel eines Fotos - nämlich Farbe und Helligkeit eines jeweiligen Bildpunktes des Fotos - repräsentieren, kommt es offensichtlich auf die Farbe der Blütenblätter der Rose weniger an als beispielweise auf deren Form, um das auf dem Foto abgebildete Objekt der Klasse "Rose" zuzuordnen. Das Training eines entsprechenden Klassifikators mit vielen unterschiedlichen Fotos von Rosen führt also absehbar dazu, dass von der Farbe der Blütenblätter abhängige Werte der Eingangsdatensätze im Ergebnis weniger stark gewichtet werden, als von der Form der Blütenblätter abhängige Werte der Eingangsdatensätze, was zu entsprechend angepassten Modellparameterwerten, insb. Gewichten für die verschiedenen Eingangswerte der Knoten, führt. Since the values in the input data sets can differ for different states or objects of the same class, a classifier with many, more or less different input data sets is trained as training data sets for a respective class and the model parameter values are determined in the course of the optimization process in such a way that, despite differing Input data sets supply a possible reliable membership value for a respective class. If, for example, a given class for an object is "rose" and the values of the input data set represent the pixels of a photo - namely the color and brightness of a respective pixel of the photo - the color of the rose petals is obviously less important than, for example their shape to the object of the class shown in the photo Assign "Rose". The training of a corresponding classifier with many different photos of roses will foreseeably lead to the result that values of the input data records that are dependent on the color of the petals are less heavily weighted than values of the input data records that are dependent on the shape of the petals, which leads to correspondingly adapted model parameter values, especially weighting for the various input values of the nodes.
Die Zuverlässigkeit, mit der ein derartiges künstliches neuronales Netz als Klassifikator durch Eingangsdatensätze repräsentierte Objekte, Ereignisse oder Zustände einer oder mehrerer Klassen zuordnen kann, hängt somit entscheidend von den Eingangsdatensät- zen ab, die als Trainingsdatensätze in derTrainingsphase des künstlichen neuronalen Netzes verwendet wurden. The reliability with which such an artificial neural network as a classifier can assign objects, events or states represented by input data records to one or more classes thus depends crucially on the input data records that were used as training data records in the training phase of the artificial neural network.
Entsprechendes gilt auch dann, wenn die Eingangsdatensätze keine Vektoren, sondern beispielsweise Matrizen sind, die beispielsweise aufgenommene Bilder repräsentieren können. Derartige Matrizen, also beispielsweise Bilder, werden typischerweise mit Hilfe von faltenden künstlichen neuronalen Netzen verarbeitet (Convolutional Neural Networks; CNN) bei denen die Dimensionen der Eingangsmatrix mit Hilfe von Faltungsschichten (con- volution layers) schrittweise reduziert wird, indem eine jeweilige Eingangsmatrix (auf der Eingangsebene wie auch auf nachfolgenden Ebenen) mit Hilfe von kleineren, als Filtern dienenden Faltungsmatrizen (beispielsweise 3x3 Matrizen, die auch als Filter Kernel be- zeichnet werden) gefaltet werden. Dabei wird der Filter Kernel Zeile für Zeile für die jeweilige Eingangsmatrix verschoben. Die Eingangswerte eines jeweiligen Knotens einer der Faltungsschicht nachfolgenden (Faltungs-) Schicht werden somit mittels einer diskreten Faltung ermittelt. Die Eingangswerte eines Knotens in der Faltungsschicht berechnen sich als inneres Produkt der Faltungsmatrix (Filter Kernel) mit den in einem jeweiligen Schritt aktuell zugeordneten Werten der Eingangsmatrix. Die vergleichsweise kleine Faltungsmatrixwird hierbei quasi schrittweise über die relativ größere Eingangswertematrix bewegt und jeweils das innere Produkt gebildet. Dies ist recht anschaulich in https://de.wikipe- dia.orq/wiki/Convolutional Neural Network darqestellt. Nachdem eine entsprechende Eingangsmatrix weit genug reduziert ist, können deren Werte von einem in den nachfolgenden Ebenen voll vernetzten (fully connected) künstlichen neuronalen Netzwerk (ähnlich wie in einem Perceptron) weiterverarbeitet werden, um beispielsweise die durch die Eingangsmatrizen repräsentierten Bilder klassifizieren zu können. The same also applies when the input data records are not vectors but, for example, matrices that can represent recorded images, for example. Such matrices, for example images, are typically processed with the help of convolutional neural networks (CNN) in which the dimensions of the input matrix are gradually reduced with the help of convolution layers by adding a respective input matrix (to the input level as well as on the following levels) with the help of smaller convolution matrices serving as filters (for example 3x3 matrices, which are also referred to as filter kernels). The filter kernel is shifted line by line for the respective input matrix. The input values of a respective node of a (convolution) layer following the convolution layer are thus determined by means of a discrete convolution. The input values of a node in the convolution layer are calculated as the inner product of the convolution matrix (filter kernel) with the values of the input matrix currently assigned in a respective step. The comparatively small convolution matrix is moved step by step over the relatively larger input value matrix and the inner product is formed in each case. This is shown very clearly in https: //de.wikipedia.orq / wiki / Convolutional Neural Network. After a corresponding input matrix has been reduced enough, its values can be further processed by a fully connected artificial neural network (similar to a perceptron) in the subsequent levels, in order, for example, to classify the images represented by the input matrices.
Im Falle eines auf einem neuronalen Netz basierenden Regressors kann dieser dazu trainiert sein, beispielsweise zu einem ein Bild repräsentierenden Eingangsdatensatz eine Zahl auszugeben, die beispielsweise das Alter der Person repräsentiert, von der das Bild stammt In the case of a regressor based on a neural network, this can be trained to, for example, an input data record representing an image Output a number that represents, for example, the age of the person from whom the picture was taken
Auch in diesem Falle hängt die Qualität der Klassifikation oder der Regression davon ab, mit welchen Eingangsdatensätzen (Matrizen, beispielsweise Bildern) das entsprechende Convolutional Neural Network trainiert wurde. In this case too, the quality of the classification or the regression depends on the input data sets (matrices, for example images) with which the corresponding convolutional neural network was trained.
Bekannte Probleme wie beispielsweise das Overfitting können dazu führen, dass ein als Klassifikator genutztes diskriminatives neuronales Netz bestimmte Eingangsdatensätze dann nicht zuverlässig klassifizieren kann, wenn die Eingangsdatensätze von den Trainingsdatensätzen zu stark abweichen. Wenn beispielsweise die für das Training verwen- deten Eingangsdatensätze zu ähnlich sind oder zu wenig verschiedene Varianten desselben Objekts oder Zustands repräsentierende Eingangsdatensätze für das Training zur Verfügung stehen, kann es zu der bekannten Überanpassung (overfitting) kommen. Würde eine Klassifikatoreinheit für das Objekt "Rose" beispielsweise nur mit Fotos von roten Rosen trainiert werden, ist es gut möglich, dass eine solche Klassifikatoreinheit für Fotos von weißen Rosen nur einen geringen Zugehörigkeitswert ermittelt, obwohl weiße Rosen genauso Rosen sind, wie rote Rosen. Known problems such as overfitting can mean that a discriminative neural network used as a classifier cannot reliably classify certain input data records if the input data records differ too greatly from the training data records. For example, if the input data sets used for training are too similar or if too few different variants of the same object or input data sets representing status are available for training, the known overfitting can occur. If a classifier unit for the object "rose" were trained only with photos of red roses, for example, it is quite possible that such a classifier unit only determines a low membership value for photos of white roses, although white roses are just like red roses.
Ziel der Erfindung ist es, eine Möglichkeit zu schaffen, die Zuverlässigkeit eines künstlichen neuronalen Netzes hinsichtlich verschiedener in der Praxis vorkommender Eingangsdatensätze zu ermitteln, um angeben zu können, unter welchen Voraussetzungen beispiels- weise ein Klassifikator zuverlässige Klassifizierungen erwarten lässt und unter welchen Voraussetzungen eine Klassifizierung durch den Klassifikator möglicherweise unzutreffend ist. The aim of the invention is to create a possibility of determining the reliability of an artificial neural network with regard to various input data sets occurring in practice in order to be able to specify the conditions under which, for example, a classifier can expect reliable classifications and under which conditions a classification by the classifier is possibly incorrect.
Eingangsdatensätze können beispielsweise Bilder, Tomografien oder dreidimensionale Modelle repräsentieren, die mit bildgebenden Verfahren in der Medizintechnik gewonnen wurden. In diesem Fall können die Eingangsdatensätze sehr unterschiedlich sein, je nachdem, wie die jeweiligen Bilder aufgenommen wurden oder die Modelle erstellt wurden. Die Unterschiede können beispielsweise aus den Werten der technischen Parameter resultieren, die bei der Bilderstellung oder der Modellierung zur Anwendung kamen. Solche technischen Parameter, deren Werte die Eigenschaften der Eingangsdatensätze beeinflussen, sind bei bildgebenden odertomografischen Verfahren beispielsweise der Kontrastumfang, der Bildabstand, die rekonstruierte Schichtdicke, das rekonstruierte Volumen oder dergleichen. Erfindungsgemäß wird hierzu ein System vorgeschlagen, das zum einen einen Klassifikator aufweist, der von einem diskriminativen neuronalen Netz gebildet ist und der ein binäres Klassenmodell oder ein Mehrklassenmodel verwirklicht. Außerdem weist das System einen modellbasierten Sample-Generator auf, der von einem generativen neuronalen Netz gebil- det ist. Sowohl der Klassifikator als auch der modellbasierte Sample-Generator sind - für eine entsprechende Klasse - mit den gleichen Trainingsdatensätzen trainiert und verkörpern daher einander entsprechende Modelle für diese Klasse. Input data records can represent, for example, images, tomographies or three-dimensional models that have been obtained using imaging processes in medical technology. In this case, the input data sets can be very different, depending on how the respective images were taken or the models were created. The differences can result, for example, from the values of the technical parameters that were used in the creation of the image or the modeling. Such technical parameters, the values of which influence the properties of the input data records, are for example the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or the like in imaging or tomographic methods. According to the invention, a system is proposed for this purpose which, on the one hand, has a classifier which is formed by a discriminative neural network and which realizes a binary class model or a multi-class model. The system also has a model-based sample generator that is formed by a generative neural network. Both the classifier and the model-based sample generator are trained - for a corresponding class - with the same training data sets and therefore embody corresponding models for this class.
Der Klassifikator und der modellbasierte Sample-Generator können räumlich voneinander getrennt sein. Insbesondere kann der Klassifikator in einer vertraulichen Umgebung betrie- ben werden, während der modellbasierte Sample-Generator dies nicht muss, da dem modellbasierten Sample-Generator keine vertraulichen Daten zugeführt zu werden brauchen. The classifier and the model-based sample generator can be spatially separated from one another. In particular, the classifier can be operated in a confidential environment, while the model-based sample generator does not have to, since no confidential data need to be supplied to the model-based sample generator.
Anstelle eines Klassifikators kann auch ein Regressor vorgesehen sein. In diesem Fall ist der modellbasierte Sample-Generator gleichfalls mit den gleichen Trainingsdatensätzen trainiert, wie der Regressor. Ein generatives neuronales Netz (ein Generator) erzeugt aus einem zufälligen Eingangsdatensatz, beispielsweise aus einem Eingangsdatensatz, der Rauschen repräsentiert, einen künstlichen Datensatz, der ein künstliches Objekt, einen künstlichen Zustand oder ein künstliches Ereignis repräsentiert und der beispielsweise einem Eingangsdatensatz für einen Klassifikator entspricht. Beispielsweise kann ein generatives neuronales Netz (ein Ge- nerator) aus einer Matrix, die Rauschen repräsentiert, einen Datensatz generieren, der ein Bild eines Objekts repräsentiert. Dies ist dann der Fall, wenn das generative neuronale Netz mit entsprechenden Bildern des Objekts als Trainingsdatensätzen trainiert wurde. Dies gilt insbesondere für Deconvolutional Generative Networks, die entsprechende Schichten aufweisen, die eine kleine, zufällige Eingangsmatrix schrittweise zu einer größe- ren Ausgangsmatrix als Ausgangsdatensatz verarbeitet. Dieser repräsentiert dann z.B. ein künstlich erzeugtes Bild eines Objekts. Instead of a classifier, a regressor can also be provided. In this case, the model-based sample generator is also trained with the same training data sets as the regressor. A generative neural network (a generator) uses a random input data set, for example an input data set that represents noise, to generate an artificial data set that represents an artificial object, an artificial state or an artificial event and that corresponds, for example, to an input data set for a classifier. For example, a generative neural network (a generator) can generate a data set that represents an image of an object from a matrix that represents noise. This is the case when the generative neural network has been trained with corresponding images of the object as training data sets. This applies in particular to deconvolutional generative networks, which have corresponding layers that process a small, random input matrix step-by-step into a larger output matrix as the output data set. This then represents, for example, an artificially created image of an object.
Ein generatives neuronales Netzwerk kann aber auch nach Art eines Perzeptrons aufgebaut sein, das von vollständig verknüpften (fully connected) Schichten gebildet ist. und eine vergleichsweise große Eingangsschicht und eine ebenso große (d.h. ebenso viele Knoten aufweisende) Ausgangsschicht und mehrere schrittweise zunächst kleiner und dann wieder größer werdende hidden layer aufweist. Ein derartiges generatives Netzwerk kann mit einem Zufallsvektor an der Eingangsschicht gespeist werden und liefert dann als Ausgangswert einen Vektor, der ein bestimmtes Objekt, einen bestimmten Zustand oder ein bestimmtes Ereignis repräsentiert. A generative neural network can, however, also be constructed in the manner of a perceptron, which is formed from fully connected layers. and has a comparatively large input layer and an output layer of the same size (ie having the same number of nodes) and a plurality of hidden layers that are initially smaller and then larger again. Such a generative network can be used with a random vector at the input layer and then supplies a vector as an output value which represents a certain object, a certain state or a certain event.
Eine für die hier beschriebene Anwendung, insbesondere für das Bestimmen eines Güte- kriteriums bevorzugte Variante eines generativen neuronalen Netzwerks ist ein Autoencoder. An autoencoder is a preferred variant of a generative neural network for the application described here, in particular for determining a quality criterion.
Um das generative neuronale Netz - also den modellbasierten Sample-Generator- zu trainieren, ist eine Instanz vorgesehen, die die Abweichung eines durch den modellbasierten Sample-Generator repräsentierten generativen Modells von den Trainingsdatensätzen be- stimmen kann, damit die Abweichungen im Rahmen des Trainings minimiert werden können. Diese Instanz kann eine Loss-Funktion sein, die beispielsweise einen Similarity Löss bestimmt. Die die Abweichung - den Löss - bestimmende Instanz kann aber auch eine Diskriminatorsein, der ähnlich die die zuvor beschriebenen Klassifikatoren von einem diskriminativen neuronalen Netz gebildet ist. Wenn ein generatives neuronales Netz als modellbasierter Sample-Generator in Verbindung mit einem Diskriminator, also mit einem diskriminativen neuronalen Netz, eingesetzt wird, kann der von dem modellbasierten Sample-Generator erzeugte Ausgangsdatensatz dem Diskriminator als Eingangsdatensatz zugeführt werden. Der Diskriminator ist dabei typischerweise mit Trainingsdatensätzen trainiert, die das Objekt repräsentieren, für das auch der modellbasierte Sample-Generator trainiert wurde. Damit kann der Diskriminator im Sinne eines binären Klassifikators für einen jeweiligen von dem modellbasierten Sample-Generator erzeugten Ausgangsdatensatz ermitteln, ob dieser Ausgangsdatensatz tatsächlich das entsprechende Objekt repräsentiert oder nicht. Eine derartige Kombination aus einem generativen neuronalen Netz und einem diskriminativen neuronalen Netz ist auch als GAN bekannt (Generative Adverserial Network) und z.B. in Andreas Wiegand "Eine Einführung in Generative Adverserial Network (GAN)", Seminar Kl: gestern, heute, morgen Angewandte Informatik, Universität Bamberg, beschrieben. In order to train the generative neural network - that is, the model-based sample generator - an instance is provided which can determine the deviation of a generative model represented by the model-based sample generator from the training data sets so that the deviations are minimized during training can be. This instance can be a loss function that determines, for example, a similarity loess. The entity determining the deviation - the loess - can, however, also be a discriminator which, similar to the classifiers described above, is formed by a discriminative neural network. If a generative neural network is used as a model-based sample generator in conjunction with a discriminator, i.e. with a discriminative neural network, the output data set generated by the model-based sample generator can be fed to the discriminator as an input data set. The discriminator is typically trained with training data sets that represent the object for which the model-based sample generator was also trained. The discriminator can thus determine in the sense of a binary classifier for a respective output data set generated by the model-based sample generator whether this output data set actually represents the corresponding object or not. Such a combination of a generative neural network and a discriminative neural network is also known as GAN (Generative Adverserial Network) and, for example, in Andreas Wiegand "An Introduction to Generative Adverserial Network (GAN)", seminar Kl: yesterday, today, tomorrow Applied Computer Science , University of Bamberg.
Der modellbasierte Sample-Generator kann auch ein Autoencoder sein, der mit Hilfe einer Similarity Löss Funktion oder einer Root-Mean-Square-Error (RMSE) Funktion als die Ab- weichung bestimmender Instanz trainiert wurde. Gemäß dem der Erfindung zu Grunde liegenden Gedanken dient der modellbasierte Sample-Generator des erfindungsgemäßen Systems dazu, zu ermitteln, für welche Eingangsdatensätze der Klassifikator sinnvolle Ausgangswerte liefern kann. Falls der Klassifikator kein binärer Klassifikator ist, sondern ein Multiklassen-Klassifikator, dessen diskri- minatives künstliches neuronales Netz mehrere, unterschiedliche Klassen repräsentierende Klassifikationsmodelle verwirklicht, von denen jedes der Klassifikationsmodelle mit unterschiedlichen Trainingsdatensätzen erzeugt wurde, dann ist für jedes Klassifikationsmodell ein modellbasierter Sample-Generator vorgesehen, der mit den Trainingsdatensätzen für das jeweilige Klassifikationsmodell erzeugt wurde und der auch nur für das entspre- chende Klassifikationsmodell Aussagen liefern kann. The model-based sample generator can also be an autoencoder that has been trained with the aid of a similarity loess function or a root mean square error (RMSE) function as the entity determining the deviation. According to the idea on which the invention is based, the model-based sample generator of the system according to the invention is used to determine for which input data sets the classifier can supply meaningful output values. If the classifier is not a binary classifier but a multi-class classifier whose discriminatory artificial neural network realizes several classification models representing different classes, each of which was generated with different training data sets, then a model-based sample generator is used for each classification model provided, which was generated with the training data sets for the respective classification model and which can also only provide statements for the corresponding classification model.
Mit Hilfe des trainierten Generators kann für eine Klasse ein künstlicher, für das Klassifikationsmodel repräsentativer Datensatz erzeugt werden, der im Rahmen dieser Beschreibung auch als künstlicher Prototyp bezeichnet wird. Dies geschieht, indem dem modellbasierten Sample-Generator in bekannter Weise ein Eingangsdatensatz zugeführt wird, der Rauschen repräsentiert - der also von zufälligen Werten gebildet ist. With the aid of the trained generator, an artificial data set representative of the classification model can be generated for a class, which data set is also referred to as an artificial prototype in the context of this description. This is done by supplying the model-based sample generator in a known manner with an input data record that represents noise - that is, it is formed from random values.
Vorzugsweise werden dem modellbasierten Sample-Generator verschiedene, Rauschen repräsentierende Eingangsdatensätze, zugeführt und auf diese Weise unterschiedliche Prototypen erzeugt. Various input data sets representing noise are preferably fed to the model-based sample generator and different prototypes are generated in this way.
Aus dem Prototyp oder den unterschiedlichen Prototypen können dann technische Eigen- schäften abgeleitet werden, die von dem Klassifikator zuzuführenden, zu klassifizierenden Eingangsdatensätzen zumindest näherungsweise erfüllt sein sollten, damit der zu dem jeweiligen Eingangsdatensatz von dem Klassifikator erzeugt Zugehörigkeitswert zuverlässig ist. Technical properties can then be derived from the prototype or the different prototypes, which should be at least approximately fulfilled by the input data sets to be fed to the classifier, so that the association value generated by the classifier for the respective input data set is reliable.
Dies ist möglich, weil sowohl der Klassifikation als auch der modellbasierte Sample-Gene- rator mit den gleichen Trainingsdatensätzen trainiert wurden. This is possible because both the classification and the model-based sample generator were trained with the same training data sets.
Falls die zu klassifizierenden Eingangsdatensätze beispielsweise Magnetresonanztomographien oder Computer-Tomographien repräsentieren, sind diese technische Eigenschaften beispielsweise der Kontrastumfang (Range) in Hounsfield-Units, der Bildabstand oder die rekonstruierte Schichtdicke, das abgebildete Volumen etc. Nur wenn die zu klassifizierenden Eingangsdatensätze hinsichtlich dieser technischen Eigenschaften den Trainingsdatensätzen ähnlich sind, ist ein zuverlässiges Klassifikationsergebnis - also ein zuverlässiger Zugehörig keitswert zu erwarten. If the input data records to be classified represent, for example, magnetic resonance tomographies or computer tomographies, these technical properties are, for example, the contrast range in Hounsfield units, the image distance or the reconstructed slice thickness, the imaged volume, etc. Only if the input data sets to be classified are similar to the training data sets with regard to these technical properties, a reliable classification result - i.e. a reliable membership value can be expected.
Wenn die Trainingsdatensätze für den Klassifikator aus technischen Gründen oder aus Vertraulichkeitsgründen nicht für eine direkte Analyse zur Verfügung stehen, können die technischen Randbedingungen, die zu klassifizierende Eingangsdatensätze erfüllen müssen, damit eine zuverlässige Klassifikation möglich ist, mit Hilfe des modellbasierten Sample-Generators bestimmt werden, da diese technischen Eigenschaften auf dem künstlich erzeugten, für das Klassifikationsmodell repräsentativen Datensatz (dem Prototypen) abzulesen sind. If the training data sets for the classifier are not available for direct analysis for technical reasons or for reasons of confidentiality, the technical boundary conditions that the input data sets to be classified must meet in order for a reliable classification to be possible can be determined with the aid of the model-based sample generator. because these technical properties can be read on the artificially generated data set that is representative of the classification model (the prototype).
Für den Fall, dass mit Hilfe verschiedener Rauschen repräsentierender Eingangsdatensätze von dem modellbasierten Sample-Generator unterschiedliche Prototypen erzeugt wurden, kann mit Hilfe dieser unterschiedlichen Prototypen ein Werteraum für die Parameterwerte definiert werden, die die technischen Eigenschaften der zu klassifizierenden Ein- gangsdatensätze erfüllen müssen, damit der Klassifikator zuverlässige Zugehörigkeitswerte bilden kann. Parameter, deren (Parameter-) Werte relevant sind, sind beispielsweise der Kontrastumfang, der Bildabstand, die rekonstruierte Schichtdicke, das rekonstruierte Volumen oder dergleichen, die einer jeweiligen, durch einen Eingangsdatensatz repräsentierten Tomografie oder Aufnahme zugrunde liegen. Die künstlich erzeugten Prototypen, denen verschiedene Parameterwerte zugrunde liegen, können mit Hilfe einer Löss Function und/oder einer Similarity Function und/oder einer ähnlichen Metrik darauf geprüft werden, ob der jeweilige künstlich erzeugte Prototyp (und damit die diesem zugrundeliegenden Parameterwerte) zuverlässige Klassifikationsergebnisse erwarten lassen. Die jeweilige Löss Function liefert ein Maß für die Zuverlässigkeit, mit der ein Klassifikator einen Eingangsdatensatz richtig klassifiziert. Durch Klassifizieren der mittels des generativen neuronalen Netzwerks künstlich erzeugten Prototypen und Erzeugen der zugehörigen Löss Function können geeignete künstliche Prototypen bestimmt werden, die ein zuverlässiges Klassifikationsergebnis erwarten lassen. Die den zuverlässige Klassifikationsergebnisse liefernden künstlichen Prototypen zugrundeliegenden Parameter- werte definieren einen Werteraum für die Parameterwerte der relevanten Parameter (z.B. Bildauflösung), innerhalb dessen zuverlässige Klassifikationsergebnisse zu erwarten sind. Ein modellbasierter Sample-Generator, der mit zuverlässige Klassifikationsergebnisse liefernden Trainingsdatensätzen trainiert wurde, kann insbesondere auch dazu genutzt werden, auf realen Aufnahmen, Bildern oder Tomografien beruhende Eingangsdatensätze daraufhin zu überprüfen, ob die Eingangsdatensätze ein zuverlässiges Klassifikationsergeb- nis durch den entsprechenden Klassifikator erwarten lassen. Hierzu kann ein von dem modellbasierten Sample-Generator erzeugter künstlicher Prototyp mit dem jeweiligen Eingangsdatensatz mit Hilfe einer geeigneten Metrik, z. B. mit Hilfe einer Löss Function, verglichen werden. Ein geringer Löss deutet dann darauf hin, dass der Eingangsdatensatz eine zuverlässige Klassifikation durch den modellbasierten Sample-Generator erwarten lässt. In the event that different prototypes were generated by the model-based sample generator with the aid of different input data sets representing noise, these different prototypes can be used to define a range of values for the parameter values that must meet the technical properties of the input data sets to be classified the classifier can form reliable membership values. Parameters whose (parameter) values are relevant are, for example, the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or the like on which a respective tomography or image represented by an input data set is based. The artificially generated prototypes, which are based on different parameter values, can be checked with the help of a loess function and / or a similarity function and / or a similar metric to determine whether the respective artificially generated prototype (and thus the parameter values on which it is based) expect reliable classification results to let. The respective loess function provides a measure of the reliability with which a classifier correctly classifies an input data set. By classifying the prototypes artificially generated by means of the generative neural network and generating the associated loess function, suitable artificial prototypes can be determined which allow a reliable classification result to be expected. The parameter values underlying the artificial prototypes providing reliable classification results define a range of values for the parameter values of the relevant parameters (eg image resolution) within which reliable classification results can be expected. A model-based sample generator that has been trained with training data sets that provide reliable classification results can in particular also be used to check input data sets based on real recordings, images or tomographs to determine whether the input data sets allow a reliable classification result to be expected from the corresponding classifier. For this purpose, an artificial prototype generated by the model-based sample generator can be used with the respective input data set with the aid of a suitable metric, e.g. B. with the help of a loess function can be compared. A small amount of loess then indicates that the input data set allows a reliable classification by the model-based sample generator to be expected.
Das Vergleichen auf realen Daten beruhender Eingangsdatensätze mit vom modellbasierten Sample-Generator erzeugten künstlichen Prototypen kann dazu genutzt werden (Parameter-) Werteräume zu definieren, die Parameterwerte und Kombinationen von Parameterwerten enthalten, die zu Eingangsdatensätzen führen, die sich voraussichtlich zuverläs- sig klassifizieren lassen. Dazu müssen verschiedene auf realen Daten beruhende Eingangsdatensätze, denen jeweils unterschiedliche Parameterwerte zugrunde liegen, mit den künstlich erzeugten Prototypen verglichen werden, so dass die Parameterwerte und Kombinationen von Parameterwerten bestimmt werden können, die zu einem geringen Löss führen. Ein so bestimmter Parameterraum kann dem Betreiber des Klassifikators zur Verfügung gestellt werden, so dass dieser Eingangsdaten auf ihre Güte prüfen kann, bevor eine Klassifikation durch den Klassifikator erfolgt. Nur solche Eingangsdatensätze, zu denen die Daten mit Parameterwerten und Wertekombinationen, die innerhalb des Parameterraums liegen, gewonnen wurden, erfüllen das Gütekriterium. Mit "Gewinnen von Daten mit Parame- terwerten und Wertekombinationen" ist hier gemeint, dass beim Erzeugen der Daten durch eine Daten erzeugende Entität, beispielsweise einen Tomographen, Parameterwerte wie beispielsweise Auflösung, Schichtdicke etc. herrschen, die das Erzeugen der Daten und damit die erzeugten Daten beeinflussen. The comparison of input data sets based on real data with artificial prototypes generated by the model-based sample generator can be used to define (parameter) value spaces that contain parameter values and combinations of parameter values that lead to input data sets that can probably be reliably classified. For this purpose, different input data sets based on real data, each of which is based on different parameter values, must be compared with the artificially generated prototypes so that the parameter values and combinations of parameter values can be determined which lead to a low level of loess. A parameter space determined in this way can be made available to the operator of the classifier so that the operator can check the quality of the input data before a classification is carried out by the classifier. Only those input data sets for which the data with parameter values and value combinations that lie within the parameter space have been obtained meet the quality criterion. By "obtaining data with parameter values and value combinations" is meant here that when the data is generated by a data-generating entity, for example a tomograph, parameter values such as resolution, slice thickness, etc. prevail that the generation of the data and thus the generated ones Affect data.
Anstelle den modellbasierten Sample-Generator wie vorstehend skizziert unabhängig von konkret zu klassifizierenden Eingangsdatensätzen dazu zu betreiben, dass ein Parameterwerteraum gebildet werden kann, kann der modellbasierte Sample-Generator dem Klassifikator auch vorgeschaltet - und damit ggf. Teil einer vertraulichen Umgebung - sein. In diesem Fall kann ein jeweils konkret durch den Klassifikator zu klassifizierender Eingangsdatensatz zunächst mit einem entsprechenden, durch den modellbasierten Sample- Generator erzeugten künstlichen Prototypen verglichen werden, um vor der Klassifikation eine Abschätzung in Bezug auf die Zuverlässigkeit der Klassifikation zu erhalten. Bei dieser Lösung ist der modellbasierte Sample-Generator Teil der vertraulichen Umgebung. Instead of operating the model-based sample generator as outlined above independently of the input data records to be specifically classified so that a parameter value space can be formed, the model-based sample generator can also be connected upstream of the classifier - and thus possibly part of a confidential environment. In this case, an input data set to be specifically classified by the classifier can first be compared with a corresponding artificial prototype generated by the model-based sample generator in order to obtain an estimate of the reliability of the classification before the classification. In this solution, the model-based sample generator is part of the confidential environment.
Bei der zuvor beschriebenen Variante, bei der ein verlässliche Klassifikationsergebnisse erwarten lassender Parameterwerteraum gebildet wird, kann der modellbasierte Sample- Generator hingegen auch außerhalb einer vertraulichen Umgebung betrieben werden. Ins- besondere können mehrere modellbasierte Sample-Generatoren in jeweils eigenen Containern auf einem oder mehreren Servern betrieben werden. Indem die modellbasierten Sample-Generatoren in (Software-) Containern, also in jeweils einem logisch abgeschlossenen Bereich eines Servers betrieben werden, können die modellbasierten Sample-Generatoren auch Teil eines quasi-vertraulichen Bereichs sein, in dem auch der jeweilige Klassifikator betrieben wird. Beispielsweise kann ein in einem Container betriebener modellbasierter Sample-Generator über eine VPN-Verbindung (VPN: Virtual Private Network) mit dem jeweiligen Klassifikator und/oder der vertraulichen Umgebung, in der der jeweilige Klassifikator betrieben wird, verbunden sein. In the variant described above, in which a parameter value space that is expected to allow reliable classification results is formed, the model-based sample generator, on the other hand, can also be operated outside of a confidential environment. In particular, several model-based sample generators can be operated in separate containers on one or more servers. Since the model-based sample generators are operated in (software) containers, i.e. in a logically closed area of a server, the model-based sample generators can also be part of a quasi-confidential area in which the respective classifier is also operated. For example, a model-based sample generator operated in a container can be connected to the respective classifier and / or the confidential environment in which the respective classifier is operated via a VPN connection (VPN: Virtual Private Network).
Für die jeweils verwendete Löss Function ist ein Maximalwert vorgeben, den eine künstlich erzeugter Prototyp nicht überschreiten darf, um als zuverlässig zu gelten. A maximum value is specified for the loess function used in each case, which an artificially generated prototype must not exceed in order to be considered reliable.
Umgekehrt (und entsprechend) kann die Prüfung auch mittels einer Similarity Function erfolgen, die für einen jeweiligen künstlichen Prototypen ein Ähnlichkeitsmaß liefert. Für das Ähnlichkeitsmaß kann ein Mindestwert vorgeben sein, der nicht unterschritten werden darf, damit der zugehörige künstliche Prototyp als zuverlässig gilt. Der gemäß der vorstehend zuerst skizzierten Variante ermittelte (Parameter-) Werteraum ist ein Gütekriterium, welches einer Prüfung zu klassifizierender Eingangsdatensätze zugrunde gelegt werden kann. Zu klassifizierende Eingangsdatensätze, die das Gütekriterium erfüllen, weil die durch die zu klassifizierenden Eingangsdatensätze repräsentierte Werte technischer Parameter innerhalb des Werteraums oder Wertebereichs gemäß Gü- tekriterium liegen, führen zum einem verlässlichen Klassifikationsergebnis. Vorgeschlagen wird auch ein Verfahren zum Ermitteln eines Gütekriteriums für Eingangsdatensätze für einen Klassifikator mit einem diskriminativen neuronalen Netzwerk. Die Eingangsdatensätze hängen dabei von Werten technischer Parameter ab, die in den Eingangsdatensätzen repräsentiert sind und das Gütekriterium betrifft wenigstens einen Wert eines dieser technischen Parameter. Der Klassifikator ist mit Trainingsdatensätzen trainiert und verkörpert ein Klassifikationsmodell für eine Klasse. Conversely (and correspondingly) the check can also be carried out by means of a similarity function, which provides a measure of similarity for a respective artificial prototype. A minimum value can be specified for the degree of similarity, which must not be fallen below, so that the associated artificial prototype is considered reliable. The (parameter) value range determined in accordance with the variant first outlined above is a quality criterion which can be used as the basis for checking input data records to be classified. Input data records to be classified which meet the quality criterion because the values of technical parameters represented by the input data records to be classified lie within the value space or value range according to the quality criterion, lead to a reliable classification result. A method is also proposed for determining a quality criterion for input data records for a classifier with a discriminative neural network. The input data records depend on values of technical parameters that are represented in the input data records and the quality criterion relates to at least one value of one of these technical parameters. The classifier is trained with training data sets and embodies a classification model for a class.
Gemäß dem Verfahren wird zunächst ein modellbasierter Sample-Generator mit einem generativen neuronalen Netzwerk bereitgestellt und mit denselben Trainingsdatensätzen trainiert, mit denen der Klassifikator trainiert wurde. Anschließend wird mittels des trainierten modellbasierten Sample-Generators und einem auf zufälligen Werten basierenden Eingangsdatensatz ein künstlicher Datensatz generiert, der für das von dem Klassifikator verkörperten Klassifikationsmodell repräsentativ ist und einen künstlichen Prototypen darstellt. According to the method, a model-based sample generator with a generative neural network is first provided and trained with the same training data sets with which the classifier was trained. Then, by means of the trained model-based sample generator and an input data set based on random values, an artificial data set is generated which is representative of the classification model embodied by the classifier and represents an artificial prototype.
Aus dem künstlichen Datensatz - d.h. dem künstlichen Prototypen - werden dann Werte für durch diesen künstlichen Prototypen repräsentierte technische Parameter ermittelt. From the artificial data set - i.e. the artificial prototype - values for technical parameters represented by this artificial prototype are then determined.
Aus den ermittelten Werten der technischen Parameter wird ein Gütekriterium gebildet, indem aus den ermittelten Werten der technischen Parameter ein Werteraum oder Wertebereich bestimmt wird, der von den ermittelten Werten der technischen Parameter und einen vorgegebenen Toleranzbereich abhängt, wobei der Klassifikator für solche Ein- gangsdatensätze, die Werte technischer Parameter repräsentiert, welche innerhalb des Werteraums liegen und damit das Gütekriterium erfüllen, ein verlässliches Klassifikationsergebnis liefern. A quality criterion is formed from the determined values of the technical parameters in that a value range or range of values is determined from the determined values of the technical parameters, which depends on the determined values of the technical parameters and a specified tolerance range, the classifier for such input data records, represents the values of technical parameters that lie within the value range and thus meet the quality criterion, deliver a reliable classification result.
Vorzugsweise werden für auf unterschiedlichen Werten der Parameter basierende Eingangsdatensätze und einem von dem modellbasierten Sample-Generator erzeugten künst- liehen Prototypen jeweils eine zugehörige Löss Function gebildet und ein von der Löss Function jeweils gelieferter Ausgangswert mit einem vorgegebenen Referenzwert verglichen. Für den Fall, dass ein jeweiliger der Löss Function kleiner ist, als der vorgegebene Referenzwert, werden die dem jeweiligen Eingangsdatensatz zugrundeliegenden Parameterwerte als solche eingestuft, die ein ausreichend zuverlässiges Klassifikationsergebnis liefern. Durch Ermitteln der Ausgangswerte der Löss Function für verschiedene, auf unterschiedlichen Werten der Parameter basierende Eingangsdatensätze, und Vergleichen des jeweiligen Ausgangswerts der Löss Function mit dem vorgegebenen Referenzwert kann ein Werteraum für die Werte der Parameter gebildet werden, der ein Gütekriterium für die Parameterwerte bildet- und zwar dergestalt, dass Parameterwerte innerhalb des Werteraums das Güterkriterium erfüllen. Preferably, an associated loess function is formed for input data sets based on different values of the parameters and an artificially borrowed prototype generated by the model-based sample generator and an output value supplied by the loess function is compared with a predetermined reference value. In the event that a respective loess function is smaller than the specified reference value, the parameter values on which the respective input data set is based are classified as those which provide a sufficiently reliable classification result. By determining the output values of the loess function for different input data sets based on different values of the parameters, and comparing the respective output value of the loess function with the specified reference value a value space can be formed for the values of the parameters, which forms a quality criterion for the parameter values, namely in such a way that parameter values within the value space meet the quality criterion.
Alternativ kann auch jeder jeweils konkret durch den Klassifikator oder den Regressor zu verarbeitender Eingangsdatensatz mit dem von dem modellbasierten Sample-Generator erzeugten künstlichen Datensatz verglichen werden, um den Löss gegenüber oder die Ähnlichkeit mit dem von dem modellbasierten Sample-Generator erzeugten künstlichen Datensatz zu bestimmen und auf diese Weise noch vor oder parallel zu der Klassifikation des Eingangsdatensatzes eine Abschätzung über die Verlässlichkeit der Klassifikation zu erhalten Alternatively, each input data set to be processed specifically by the classifier or the regressor can be compared with the artificial data set generated by the model-based sample generator in order to determine the loess compared to or the similarity to the artificial data set generated by the model-based sample generator and in this way, before or in parallel with the classification of the input data set, an estimate of the reliability of the classification can be obtained
Hierzu kann eine die Abweichungen zwischen dem Prototypen und dem jeweiligen Eingangsdatensatz bestimmende Instanz (also beispielsweise einem Diskriminator oder einer Similarity Löss Funktion) dem Klassifikator vor- oder parallel-geschaltet werden und für einen jeweils konkret zu klassifizierenden Eingangsdatensatz der Löss gegenüber einem von dem modellbasierten Sample-Generator erzeugten Prototypen bestimmt werden, um auf diese Weise noch vor oder parallel zu der Klassifikation des Eingangsdatensatzes eine Abschätzung über die Verlässlichkeit der Klassifikation zu erhalten. For this purpose, an entity determining the deviations between the prototype and the respective input data set (e.g. a discriminator or a similarity loess function) can be connected upstream or parallel to the classifier and, for an input data set to be specifically classified, the loess compared to a sample based on the model -Generator-generated prototypes can be determined in order to obtain an estimate of the reliability of the classification before or in parallel with the classification of the input data set.
Im einfachsten Fall reicht es somit, wenn dem Klassifikator eine eine Abweichung bestimmende Instanz wie ein Diskriminator oder eine Similarity Funktion in Verbindung mit einem von dem modellbasierten Sample-Generator erzeugten Prototypen vor- oder parallelgeschaltet ist, um für jeden konkret zu klassifizierenden Eingangsdatensatz einen Löss gegenüber oder eine Ähnlichkeit mit dem Prototypen zu ermitteln. In the simplest case, it is sufficient if the classifier is preceded or paralleled by an entity determining a deviation, such as a discriminator or a similarity function in connection with a prototype generated by the model-based sample generator, in order to provide a solution for each input data set to be specifically classified or to determine a similarity to the prototype.
Vorzugsweise repräsentieren die zu klassifizierenden Eingangsdatensätze Tomographiebilder und die technischen Parameter, deren Werte aus dem künstlich erzeugten Datensatz ermittelt werden, sind vorzugsweise der Kontrastumfang, der Bildabstand, die rekonstruierte Schichtdicke, das rekonstruierte Volumen oder eine Kombination daraus. The input data sets to be classified preferably represent tomographic images and the technical parameters, the values of which are determined from the artificially generated data set, are preferably the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or a combination thereof.
Ebenso ist es bevorzugt, wenn mittels des trainierten modellbasierten Sample-Generators und mehreren verschiedenen auf zufälligen Werten basierenden Eingangsdatensätzen mehrere künstliche Datensätze generiert werden, die für das von dem Klassifikator verkör- perten Klassifikationsmodell repräsentativ sind, und aus den künstlichen Datensätzen Werte für durch diese künstlichen Datensätze repräsentierte technische Parameter ermittelt werden. Die Erfindung soll nun anhand eines Ausführungsbeispiels mit Bezug auf die Figuren näher erläutert werden. Von den Figuren zeigt: It is also preferred if, by means of the trained model-based sample generator and several different input data sets based on random values, several artificial data sets are generated which are representative of the classification model embodied by the classifier, and values for these artificial data sets are generated from the artificial data sets Data sets represented technical parameters are determined. The invention will now be explained in more detail using an exemplary embodiment with reference to the figures. From the figures shows:
Fig. 1 : ein erfindungsgemäßes System mit einem Klassifikator und einem von diesem unabhängigen modellbasierten Sample-Generator zum Generieren eines Prototyps; 1: a system according to the invention with a classifier and a model-based sample generator independent of the classifier for generating a prototype;
Fig. 2: eine Skizze zum Erläutern der Trainingsphase; 2: a sketch for explaining the training phase;
Fig. 3: eine Skizze einer möglichen Implementation einer Güteprüfung in einer vertraulichen Umgebung; 3: a sketch of a possible implementation of a quality check in a confidential environment;
Fig. 4: eine Skizze einer alternativen Implementation einer Güteprüfung in einer vertraulichen Umgebung; 4 shows a sketch of an alternative implementation of a quality check in a confidential environment;
Fig. 5: eine Skizze einer ähnlichen Implementation, wie sie in Figur 4 skizziert ist, wobei anstelle eines Klassifikators ein Regressor vorgesehen ist; FIG. 5: a sketch of a similar implementation as sketched in FIG. 4, a regressor being provided instead of a classifier;
Fig. 6: eine Illustration eines Systems mit einem modellbasierten Sample-Generator zum Generieren eines Prototyps, der zum Training mit zwei unterschiedlichen Diskriminatoren verbunden ist; und 6: an illustration of a system with a model-based sample generator for generating a prototype, which is connected to two different discriminators for training; and
Fig. 7: eine Illustration einer Ausführungsvariante, bei der der modellbasierte7: an illustration of an embodiment variant in which the model-based
Sample-Generator ein Paar aus einem prototypischen Eingangsdatensatz und zugehöriger Klasse erzeugt, das zum Testen des Klassifikators verwendet werden kann. Figur 1 ist eine Skizze eines Systems 10, das zum einen einen Klassifikator 12 und zum anderen einen modellbasierten Sample-Generator 14 umfasst. Anstelle des Klassifikators 12 kann auch ein Regressor 28 vorgesehen sein. Sample generator generates a pair from a prototypical input data set and the associated class, which can be used to test the classifier. FIG. 1 is a sketch of a system 10 which on the one hand comprises a classifier 12 and on the other hand a model-based sample generator 14. Instead of the classifier 12, a regressor 28 can also be provided.
Im Falle eines Klassifikators kann dieser beispielsweise mit Hilfe gesunde anatomische Strukturen repräsentierender Trainings-Datensätze dazu trainiert sein, gesunde anatomi- sehe Strukturen zu erkennen und diesen einen hohen Zugehörigkeitswert (d.h. einen geringen Löss) zuzuordnen und auf diese Weise von pathologische anatomische Strukturen repräsentierenden Datensätzen zu unterscheiden, weil solche pathologische anatomische Strukturen repräsentierenden Datensätze eine geringere Ähnlichkeit mit den Trainingsdatensätzen - und damit mit dem von dem Klassifikator verkörperten Modell - haben. In the case of a classifier, it can be trained, for example with the help of training data sets representing healthy anatomical structures, to recognize healthy anatomical structures and to assign them a high membership value (ie a low loess) and in this way to assign data sets representing pathological anatomical structures differ because such pathological anatomical Data sets representing structures have a lower similarity with the training data sets - and thus with the model embodied by the classifier.
Der Klassifikator 12 wird von einem trainierten diskriminativen künstlichen neuronalen Netz gebildet, das ein Ein-Klassenmodell oder ein Mehrklassenmodell verkörpert. Entsprechend ist der Klassifikator 12 entweder ein binärer Klassifikator oder ein Multiklassen-Klassifika- tor. Der Klassifikator 12 ist mithilfe entsprechender Trainingsdatensätze für eine jeweilige Klasse trainiert. Wie eingangs beschrieben, hängt es von den Trainingsdatensätzen ab, wie sich der Klassifikator für die jeweilige Klasse verhält. The classifier 12 is formed by a trained discriminative artificial neural network that embodies a one-class model or a multi-class model. Accordingly, the classifier 12 is either a binary classifier or a multi-class classifier. The classifier 12 is trained with the aid of corresponding training data sets for a respective class. As described at the beginning, it depends on the training data sets how the classifier behaves for the respective class.
Wenn dem Klassifikator im Betrieb Eingangsdatensätze 18 zugeführt werden, die Objekte, Zustände oder Ereignisse repräsentieren, die zu klassifizieren sind, hängt das Klassifikationsergebnis davon ab, mit welchen Trainingsdatensätzen 24 der Klassifikator 12 trainiert wurde (siehe Figur 2). If input data sets 18 are fed to the classifier during operation, which represent objects, states or events that are to be classified, the classification result depends on the training data sets 24 with which the classifier 12 was trained (see FIG. 2).
Wie eingangs bereits erläutert, wird jeder Wert aus einem Eingangsdatensatz 18 im Betrieb den Knoten einer Eingangsschicht des diskriminativen neuronalen Netzes des Klassifika- tors 12 zugeführt. Die Ausgangswerte der Knoten der Eingangsschicht werden dann an die Knoten der nachfolgenden versteckten Schichten (hidden layer) weitergegeben bis schließlich die Knoten der Ausgangsschicht ein Signal erzeugen, das einen Zugehörigkeitswert darstellt, der angibt, wie sehr der Eingangsdatensatz - und damit das durch den Eingangsdatensatz repräsentierte Objekt, der repräsentierte Zustand oder das repräsen- tierte Ereignis -einer der Klassen zuzuordnen ist, für die der Klassifikator 12 trainiert wurde. As already explained at the beginning, each value from an input data set 18 is fed to the nodes of an input layer of the discriminative neural network of the classifier 12 during operation. The output values of the nodes of the input layer are then passed on to the nodes of the following hidden layers (hidden layer) until finally the nodes of the output layer generate a signal that represents a membership value that indicates how much the input data set - and thus that represented by the input data set The object, the represented state or the represented event - is to be assigned to one of the classes for which the classifier 12 was trained.
Das diskriminative künstliche neuronale Netz des Klassifikators 12 kann beispielsweise ein Perzeptron sein oder aber auch ein Convolutional Neural Network (CNN) mit einer oder mehreren Faltungsschichten am Eingang. Im Fall des Perzeptrons ist der Eingangsdatensatz typischerweise ein Vektor der eingangs beschriebenen Art. Im Fall eines Convolutio- nal Neural Networks (CNN) ist der Eingangsdatensatz typischerweise eine Matrix, die in den meisten Fällen ein Bild repräsentiert. The discriminative artificial neural network of the classifier 12 can for example be a perceptron or else a convolutional neural network (CNN) with one or more convolution layers at the entrance. In the case of the perceptron, the input data set is typically a vector of the type described at the beginning. In the case of a Conventional Neural Network (CNN), the input data set is typically a matrix which in most cases represents an image.
Problematisch ist, dass für einen Nutzer eines Klassifikators wie dem Klassifikator 12 typischerweise nicht leicht erkennbar ist, ob er dem jeweiligen Klassifikationsergebnis - also den von dem Klassifikator gelieferten Zugehörig keitswerten - trauen kann oder nicht. Ins- besondere weiß der Nutzer nicht, für welche Eingangsdatensätzen der Klassifikator 12 absehbar zuverlässige Ergebnisse liefert und für welche Eingangsdatensätze der Klassifikator 12 absehbar keine zuverlässigen Ergebnisse liefert. Denn das Klassifikationsergebnis hängt nicht nur von dem durch einen jeweiligen Eingangsdatensatz dargestellten Inhalt (beispielsweise einem Bild einer anatomischen Struktur) ab, sondern auch von den technischen Parametern des Datensatzes wie z.B. Auflösung und Kontrast. Ein beispielsweise mit gesunde anatomische Strukturen repräsentie- renden Trainings Datensätzen trainierter Klassifikator 12 kann einen ebenfalls gesunde anatomische Strukturen repräsentierender Eingangs-Datensatz fälschlich als einen pathologische Strukturen repräsentierenden Datensatz klassifizieren, wenn der gesunde anatomische Strukturen repräsentierende Eingangs-Datensatz aus technischen Gründen, z.B. mangelnder Auslösung, stärker von den Trainingsdatensätzen abweicht. Außerdem hängt das Klassifikationsergebnis unter Umständen auch von der Vollständigkeit oder Richtigkeit des jeweiligen Eingangsdatensatzes ab. Ein Eingangsdatensatz kann z.B. aus einer ein Bild repräsentierenden Matrix und zusätzlichen Parameterwerten (z.B. Modalität, Alter der Patientin etc.) bestehen. Wenn der Eingangsdatensatz unvollständig ist, d.h. wenn z.B. zusätzliche Parameterwerte fehlen oder völlig falsch sind (z.B. ein negatives Alter), ist der Eingangsdatensatz für eine zuverlässige Klassifikation ungeeignet. The problem is that for a user of a classifier such as the classifier 12 it is typically not easy to see whether or not he can trust the respective classification result - that is, the membership values supplied by the classifier. In particular, the user does not know for which input data sets the classifier 12 will deliver foreseeable reliable results and for which input data sets the classifier 12 will not deliver any reliable results foreseeably. This is because the classification result depends not only on the content represented by a respective input data record (for example an image of an anatomical structure), but also on the technical parameters of the data record such as resolution and contrast. A classifier 12 trained with training data sets representing healthy anatomical structures, for example, can falsely classify an input data set also representing healthy anatomical structures as a data set representing pathological structures if the input data set representing healthy anatomical structures is due to technical reasons, e.g. insufficient triggering, deviates more from the training data sets. In addition, the classification result may also depend on the completeness or correctness of the respective input data set. An input data record can consist, for example, of a matrix representing an image and additional parameter values (eg modality, age of the patient, etc.). If the input data set is incomplete, ie if, for example, additional parameter values are missing or completely incorrect (e.g. a negative age), the input data set is unsuitable for reliable classification.
Um die Grenzen zu ermitteln, innerhalb dessen der Klassifikator 12 zuverlässige und verlässliche Ergebnisse liefern kann, ist der modellbasierte Sample-Generator 14 vorgesehen. Der modellbasierte Sample-Generator 14 wird von einem generativen künstlichen neuronalen Netzwerk gebildet, das mit Trainingsdatensätzen für die Klasse oder eine der Klas- sen trainiert ist, mit denen auch der Klassifikator 12 für die entsprechende Klasse trainiert wurde. Die Trainingsdatensätze selbst stehen dem Nutzer des modellbasierten Sample- Generators jedoch nicht zur Verfügung, das heißt die Trainingsdatensätze, mit denen der Klassifikator 12 und auch der modellbasierte Sample-Generator 14 trainiert wurden, können für Außenstehende anonym bleiben. Demnach ist es nicht möglich, unmittelbar aus den Trainingsdatensätzen selbst zu schließen, unter welchen Bedingungen oder Voraussetzungen der Klassifikator 12 voraussichtlich zuverlässige Ergebnisse liefert. The model-based sample generator 14 is provided in order to determine the limits within which the classifier 12 can deliver reliable and reliable results. The model-based sample generator 14 is formed by a generative artificial neural network that is trained with training data sets for the class or one of the classes with which the classifier 12 was also trained for the corresponding class. However, the training data sets themselves are not available to the user of the model-based sample generator, that is to say the training data sets with which the classifier 12 and also the model-based sample generator 14 were trained can remain anonymous to outsiders. Accordingly, it is not possible to infer directly from the training data sets under which conditions or prerequisites the classifier 12 is likely to deliver reliable results.
Da nun aber der modellbasierte Sample-Generator 14 für eine Klasse mit den gleichen Trainingsdatensätzen trainiert wurde, wie der Klassifikator 12 für diese Klasse, ist es möglich mit dem modellbasierten Sample-Generator 14 aus einem zufälligen, typischerweise Rauschen repräsentierenden Eingangsdatensatz einen künstlichen Datensatz zu generieren. Der so generierte künstliche Datensatz stellt eine Art künstlichen Prototypen für ein Objekt, einen Zustand oder ein Ereignis dar, der die entsprechende Klasse definiert, für die auch der Klassifikator 12 trainiert ist. Durch Betrachtung des künstlichen Prototypen kann nun ermittelt werden, wie das Objekt, der Zustand oder das Ereignis aussieht, für die der Klassifikator für die entsprechende Klasse trainiert ist. Für stark von dem künstlichen Prototypen abweichende Objekte, Zustände oder Ereignisse wird der Klassifikator 12 typischerweise keinen hohen Zugehörigkeitswert für die entsprechende Klasse liefern, selbst wenn diese abweichenden Objekte, Ereignisse oder Zustände der entsprechenden Klasse zuzuordnen wären. However, since the model-based sample generator 14 for a class has been trained with the same training data sets as the classifier 12 for this class, it is possible to generate an artificial data set with the model-based sample generator 14 from a random input data set that typically represents noise . The artificial data record generated in this way represents a type of artificial prototype for an object, a state or an event, which defines the corresponding class for which the classifier 12 is also trained. By looking at the artificial prototype it can now be determined what the object, state or event looks like for which the Classifier is trained for the corresponding class. For objects, states or events that differ greatly from the artificial prototype, the classifier 12 will typically not provide a high membership value for the corresponding class, even if these differing objects, events or states were to be assigned to the corresponding class.
Hierbei ist zu beachten, dass sich abweichende Datensätze schon daraus ergeben können, wie der (Eingangs-) Datensatz generiert wurde, der ein entsprechendes Objekt, einen entsprechenden Zustand oder ein entsprechendes Ereignis repräsentiert. Das heißt die Unterschiede in den Eingangsdatensätzen hängen nicht nur von dem repräsentierten Ob- jekt, dem repräsentierten Zustand oder dem repräsentierten Ereignis ab, sondern auch davon, wie (d.h. mit welchen Mitteln oder welchen Einstellungen oder unter welchen Umständen) der entsprechende Datensatz für ein solches Objekt, ein solches Ereignis oder einen solchen Zustand generiert wurde. Beispielsweise können sich die Datensätze schlicht durch die Auflösung unterscheiden, mit der ein entsprechendes Objekt, ein ent- sprechendes Ereignis oder ein entsprechender Zustand durch den Datensatz repräsentiert wird. Unterschiedliche Auflösungen können unter Umständen zu unterschiedlichen Klassifikationsergebnissen führen. Dies kann mithilfe des von dem modellbasierten Sample-Ge- nerator 14 künstlich generierten Prototypen abgeschätzt werden. It should be noted here that different data records can already result from how the (input) data record was generated, which represents a corresponding object, a corresponding state or a corresponding event. This means that the differences in the input data records depend not only on the represented object, the represented state or the represented event, but also on how (ie with what means or what settings or under what circumstances) the corresponding data record for such a thing Object, event or state was generated. For example, the data records can simply differ in the resolution with which a corresponding object, a corresponding event or a corresponding state is represented by the data record. Different resolutions can lead to different classification results. This can be estimated with the aid of the prototype artificially generated by the model-based sample generator 14.
Von Vorteil ist, dass der Klassifikator 12 oder der Regressor 28 Teil einer vertraulichen Umgebung sein kann, beispielsweise in einem Krankenhaus mit vertraulichen Patientendaten, während der modellbasierte Sample-Generator dies nicht zu sein braucht, weil er mit anonymisierten Trainingsdatensätzen trainiert werden kann (und zwar den gleichen, mit denen auch der Klassifikator oder der Regressor trainiert wurde) und im Ergebnis ein Güterkriterium liefern kann, das dann in der vertraulichen Umgebung im Umfeld des Klas- sifikators oder Regressors zum Prüfen realer Eingangsdatensätze angewandt werden kann. It is advantageous that the classifier 12 or the regressor 28 can be part of a confidential environment, for example in a hospital with confidential patient data, while the model-based sample generator does not need to be, because it can be trained with anonymized training data sets (namely the same ones with which the classifier or the regressor was trained) and can deliver a product criterion as a result, which can then be used in the confidential environment in the vicinity of the classifier or regressor to check real input data records.
Figur 2 illustriert, dass der Klassifikator 12 (oder der Regressor 28) und der modellbasierte Sample-Generator 14 mit den gleichen Trainingsdatensätzen trainiert wurden. Die Trainingsdatensätze selbst sind dabei für den Betreiber des modellbasierten Sample-Genera- tors 14 unsichtbar, so dass auch insofern Vertraulichkeit gewahrt werden kann. FIG. 2 illustrates that the classifier 12 (or the regressor 28) and the model-based sample generator 14 were trained with the same training data sets. The training data sets themselves are invisible to the operator of the model-based sample generator 14, so that confidentiality can also be maintained in this respect.
In dem in Figur 2 dargestellten Beispiel ist der modellbasierte Sample-Generator 14 Teil eines Generative Adverserial Network 34 (GAN), das von dem modellbasierten Sample- Generator 14 und einem zugehörigen Diskriminator 16 gebildet ist. Zum Training des modellbasierten Sample-Generators 14 mit den Trainingsdatensätzen, die dem Diskriminator 16 zugeführt werden, erzeugt der modellbasierte Sample-Generator 14 aus einem Rauschen repräsentierenden Eingangsdatensatz 20 jeweils einen künstlichen (generierten) Datensatz und damit einen einen künstlichen Prototyp repräsentierenden Datensatz 22, der dem Diskriminator 16 als Eingangsdatensatz zugeführt wird. Der Diskriminator 16 kann die Abweichung zwischen dem künstlichen Prototypen und dem durch die Trainingsdatensätze definierten Modell - den Löss - bestimmen und ein diese Abweichung repräsentierendes Ausgangssignal bilden. Im Training wird das den Löss repräsentierende Ausgangs- Signal des Diskriminators 16 dem modellbasierten Sample-Generator 14 zurückgeführt und bewirkt dort eine Anpassung der Gewichte der Knoten der Schichten des modellbasierten Sample-Generators 14. Das geschieht solange, bis die Abweichung zwischen dem künstlichen Prototypen 22 und dem durch die Trainingsdatensätze 24 repräsentierten Modell hinreichend klein ist. Sobald dies der Fall ist, ist der modellbasierte Sample-Generator 14 für die entsprechende Klasse trainiert. Fürdie im Zusammenhang mit Figur 1 beschriebene Analyse wird der Diskriminator 16 nicht mehr benötigt. In the example shown in Figure 2, the model-based sample generator 14 is part of a Generative Adverserial Network 34 (GAN), which is from the model-based sample Generator 14 and an associated discriminator 16 is formed. To train the model-based sample generator 14 with the training data sets that are fed to the discriminator 16, the model-based sample generator 14 generates an artificial (generated) data set from an input data set 20 representing noise and thus a data set 22 representing an artificial prototype, the the discriminator 16 is supplied as an input data record. The discriminator 16 can determine the deviation between the artificial prototype and the model defined by the training data sets - the loess - and form an output signal representing this deviation. During training, the output signal of the discriminator 16 representing the loess is fed back to the model-based sample generator 14, where the weights of the nodes of the layers of the model-based sample generator 14 are adjusted and the model represented by the training data sets 24 is sufficiently small. As soon as this is the case, the model-based sample generator 14 is trained for the corresponding class. The discriminator 16 is no longer required for the analysis described in connection with FIG.
Bekannte Funktionen zum Bestimmen des Löss (Loss-Funktionen) sind die Kreuzentropie- Funktion, die Root-Mean-Square-Funktion (RMS) oder die Structural-Similarity-Index- Funktion (SSIM). Damit der modellbasierte Sample-Generator 14 geeignet ist, einen künstlichen Prototypen zu erzeugen, der nicht lediglich gesunde anatomische Strukturen repräsentiert, sondern auch pathologische anatomische Strukturen repräsentiert, enthalten die Trainingsdatensätze beispielsweise sowohl Datensätze, die gesunde anatomische Strukturen repräsentieren als auch Datensätze, die pathologische anatomische Strukturen repräsentieren. In diesem Fall werden die Eigenschaften des Prototyps von den allgemeineren gemeinsamen Eigenschaften der Trainingsdatensätze geprägt, d.h. insbesondere auch von deren technischen Eigenschaften. Eine Ähnlichkeit von zu klassifizierenden Eingangsdatensätzen für den Klassifikator 12 oder den Regressor 28 mit einem wie beschrieben erzeugten künstlichen Prototypen deutet daher auf eine technische Eignung der Eingangsdatensätze für eine verlässliche Klassifikation oder Regression hin. Eine starke Abweichung eines durch den Klassifikator 12 zu klassifizierenden Eingangsdatensatzes von dem künstlichen Prototypen 22 ist ein Indiz für eine mangelnde Eignung für eine verlässliche Klassifikation. Nach dem Training kann der modellbasierte Sample-Generator 14 kann dann wie folgt verwendet werden, um ein Gütekriterium für zu klassifizierende Eingangsdatensätze für den Klassifikator zu ermitteln: Known functions for determining the loess (loss functions) are the cross entropy function, the root mean square function (RMS) or the structural similarity index function (SSIM). So that the model-based sample generator 14 is suitable for generating an artificial prototype that not only represents healthy anatomical structures, but also represents pathological anatomical structures, the training data sets contain, for example, both data sets that represent healthy anatomical structures and data sets that represent pathological anatomical structures Represent structures. In this case, the properties of the prototype are shaped by the more general common properties of the training data sets, ie in particular also by their technical properties. A similarity of the input data sets to be classified for the classifier 12 or the regressor 28 with an artificial prototype generated as described therefore indicates a technical suitability of the input data sets for a reliable classification or regression. A strong deviation of an input data set to be classified by the classifier 12 from the artificial prototype 22 is an indication of a lack of suitability for a reliable classification. After the training, the model-based sample generator 14 can then be used as follows to determine a quality criterion for the input data records to be classified for the classifier:
Zunächst wird ein modellbasierter Sample-Generator 14 mit einem generativen neuronalen Netzwerk bereitgestellt und mit denselben Trainingsdatensätzen trainiert, mit denen der Klassifikator 14 trainiert wurde. First, a model-based sample generator 14 with a generative neural network is provided and trained with the same training data sets with which the classifier 14 was trained.
Anschließend wird mittels des trainierten modellbasierten Sample-Generators 14 und einem auf zufälligen Werten basierenden Eingangsdatensatz ein künstlicher Datensatz 22 generiert, der für das von dem Klassifikator verkörperten Klassifikationsmodell repräsenta- tiv ist und der im Rahmen dieser Beschreibung auch als künstlicher Prototyp 22 bezeichnet wird. Then, by means of the trained model-based sample generator 14 and an input data set based on random values, an artificial data set 22 is generated which is representative of the classification model embodied by the classifier and which is also referred to as an artificial prototype 22 in the context of this description.
Gemäß einem ersten Ansatz werden aus dem künstlichen Datensatz 22 Werte für durch diesen künstlichen Datensatz repräsentierte technische Parameter ermittelt. According to a first approach, values for technical parameters represented by this artificial data set are determined from the artificial data record 22.
Aus den ermittelten Werten der technischen Parameter wird ein Gütekriterium gebildet, indem aus den ermittelten Werten der technischen Parameter ein Werteraum oder Wertebereich bestimmt wird, der von den ermittelten Werten der technischen Parameter und einen vorgegebenen Toleranzbereich abhängt, wobei der Klassifikator für solche Eingangsdatensätze, die Werte technischer Parameter repräsentieren, welche innerhalb des Werteraums liegen und damit das Gütekriterium erfüllen, ein verlässliches Klassifikations- ergebnis liefert. A quality criterion is formed from the determined values of the technical parameters in that a value range or range of values is determined from the determined values of the technical parameters, which depends on the determined values of the technical parameters and a specified tolerance range, the classifier for such input data records, the values represent technical parameters that are within the range of values and thus meet the quality criterion, delivering a reliable classification result.
Alternativ kann der als Güterkriterium dienende Wertebereich oder Werteraum auch dadurch ermittelte werden, dass ein von dem modellbasierten Sample-Generator 14 künstlich erzeugter Datensatz (also ein künstlicher Prototyp) mit verschiedenen, auf realen Daten basierenden Eingangsdatensätzen verglichen wird. Hierzu werden Eingangsdaten- Sätze verwendet, denen unterschiedliche Parameterwerte für die relevanten Parameter wie z. B. Auflösung, Schichtdicke oder dergleichen zugrunde liegen. Für jeden Eingangsdatensatz wird der Löss gegenüber dem künstlichen Prototypen 22 oder die Ähnlichkeit zu dem künstlichen Prototypen ermittelt, und zwar mittels einer an sich bekannten Loss-Funktion (Löss Function) oder einer ebenfalls an sich bekannten Ähnlichkeitsfunktion (Similarity Function). Wenn der Vergleich ergibt, dass der Löss gering bzw. die Ähnlichkeit groß genug ist, werden die dem jeweiligen Eingangsdatensatz zugrundeliegenden Parameterwerte dem Parameterraum zugeordnet, der für eine ausreichende Güte steht. Auch auf diese alternative Weise kann mit Hilfe des modellbasierten Sample-Generators 14 ein Parameterraum gebildet werden, der als Gütekriterium für durch den Klassifikator 12 zu klassifizierende Eingangsdatensätze dienen kann - und zwar in dem Sinne, dass Eingangsdatenätze, die auf Daten beruhen, bei deren Gewinnung Parameterwerte aus dem als Gütekriterium dienenden Parameterraum stammen, das Gütekriterium erfüllen und eine verlässliche Klassifikation erwarten lassen. Alternatively, the value range or value space serving as a product criterion can also be determined by comparing a data set artificially generated by the model-based sample generator 14 (i.e. an artificial prototype) with various input data sets based on real data. For this purpose, input data records are used to which different parameter values for the relevant parameters such as B. resolution, layer thickness or the like are based. For each input data set, the loess compared to the artificial prototype 22 or the similarity to the artificial prototype is determined by means of a loss function known per se (loess function) or a similarity function known per se (similarity function). If the comparison shows that the loess is low or the similarity is high enough, the parameter values on which the respective input data set is based are assigned to the parameter space that represents sufficient quality. In this alternative way, too, a parameter space can be formed with the aid of the model-based sample generator 14, which can serve as a quality criterion for input data sets to be classified by the classifier 12 - in the sense that input data sets that are based on data are obtained when they are obtained Parameter values come from the parameter space serving as a quality criterion, meet the quality criterion and allow a reliable classification to be expected.
Gemäß einer dritten Variante ist dem Klassifikator eine Einheit 32 zur Ähnlichkeitsbestimmung zugeordnet, die von dem Klassifikator 12 oder dem Regressor 28 zu verarbeitende Eingangsdatensätze auf ihre Ähnlichkeit zu dem künstlichen Prototypen hin prüft. Die Ein- heit 32 zur Ähnlichkeitsbestimmung kann dem Klassifikator 12 der dem Regressor28 vorgeschaltet oder parallelgeschaltet sein - und ist damit Teil einer ggf. vertraulichen Umgebung. Die Einheit 32 zur Ähnlichkeitsbestimmung kann beispielsweise ein Diskriminator sein, der dazu konfiguriert ist einen Löss zwischen einem jeweiligen von dem Klassifikator 12 oder Regressor 28 zu prüfenden Eingangsdatensatz und dem künstlichen Prototypen 22 zu bestimmen. Dann kann für einen jeweils konkret zu klassifizierenden Eingangsdatensatz der Löss gegenüber einem von dem modellbasierten Sample-Generator erzeugten Ausgangsdatensatz (Prototypen) bestimmt werden, um auf diese Weise noch vorder Klassifikation des Eingangsdatensatzes eine Abschätzung über die Verlässlichkeit der Klassifikation zu erhalten. Die Einheit 34 zur Ähnlichkeitsbestimmung kann aber auch zu einem einfachen Vergleich eines jeweiligen von dem Klassifikator 12 oder Regressor 28 zu prüfenden Eingangsdatensatz mit dem künstlichen Prototypen 22 mittels einer Similarity-Funktion beispielsweise durch Bestimmen des Root-Mean-Square-Errors (RMSE), der Kreuzentropie oder des Structural-Similarity-Index (SSIM) Maßes ausgebildet sein. Dementsprechend reicht es im einfachsten Fall, wenn dem Klassifikator (oder dem Regressor) eine eine Abweichung bestimmende Instanz wie ein Diskriminator oder eine Similarity Funktion in Verbindung mit einem von dem modellbasierten Sample-Generator erzeugten, einen künstlichen Prototypen darstellenden Ausgangsdatensatz vor- oder parallelgeschaltet ist, um für jeden konkret zu klassifizierenden Eingangsdatensatz einen Löss gegenüber oder eine Ähnlichkeit mit dem Prototypen zu ermitteln. Wird ein Löss bestimmt, soll dieser möglichst klein (z.B. nahe Null auf einer Skala von 0 bis 1) sein. Wird eine Ähnlichkeit bestimmt, soll diese möglichst nahe 1 auf einer Skala von 0 bis 1 liegen. Geeignete Funktionen zielen darauf ab, die Distanz zwischen zwei Datensätzen - also dem Eingangsdatensatz und dem künstlichen Prototypen - abzubilden. Im einfachsten Fall könnte so eine Funktion eine durchschnittliche Differenz zwischen den einzelnen Elementen des Eingangsdatensatzes und entsprechenden Elementen des künstlichen Prototypen bestimmen. Dies ist aber nachteilig, da beispielsweise die Richtung der Differenz nicht berücksichtigt wird und Ausreißer nicht korrigiert werden. Eine Loss-Funktion wird typischerweise zur Optimierung eines Modells mit- tels eines Optimizers verwendet. Dafür wird bei einer Verlustfunktion ggf. noch die Skalierung geändert - damit diese den mathematischen Voraussetzungen des Optimierungsalgorithmus entspricht. According to a third variant, a unit 32 for determining similarity is assigned to the classifier, which unit checks input data records to be processed by the classifier 12 or the regressor 28 for their similarity to the artificial prototype. The unit 32 for determining similarity can be connected upstream of the classifier 12 of the regressor 28 or connected in parallel - and is thus part of a possibly confidential environment. The unit 32 for determining similarity can, for example, be a discriminator which is configured to determine a loess between a respective input data set to be checked by the classifier 12 or regressor 28 and the artificial prototype 22. The loess can then be determined for an input data set to be specifically classified in relation to an output data set (prototype) generated by the model-based sample generator in order to obtain an estimate of the reliability of the classification before the input data set is classified. However, the unit 34 for determining similarity can also be used for a simple comparison of a respective input data set to be checked by the classifier 12 or regressor 28 with the artificial prototype 22 by means of a similarity function, for example by determining the root mean square error (RMSE), the Cross entropy or the Structural Similarity Index (SSIM) measure. Accordingly, in the simplest case, it is sufficient if the classifier (or the regressor) is preceded or paralleled by an entity that determines a deviation, such as a discriminator or a similarity function, in conjunction with an output data set that is generated by the model-based sample generator and represents an artificial prototype, in order to determine a loess opposite or a similarity to the prototype for each input data set to be specifically classified. If a loess is determined, it should be as small as possible (e.g. close to zero on a scale from 0 to 1). If a similarity is determined, it should be as close as possible to 1 on a scale from 0 to 1. Suitable functions aim to map the distance between two data sets - i.e. the input data set and the artificial prototype. In the simplest case, such a function could be an average one Determine the difference between the individual elements of the input data set and corresponding elements of the artificial prototype. However, this is disadvantageous since, for example, the direction of the difference is not taken into account and outliers are not corrected. A loss function is typically used to optimize a model using an optimizer. If necessary, the scaling is changed for a loss function - so that it corresponds to the mathematical requirements of the optimization algorithm.
Vorzugsweise repräsentieren die zu klassifizierenden Eingangsdatensätze Tomographiebilder und die technischen Parameter, deren Werte aus dem künstlich erzeugten Datensatz ermittelt werden, sind vorzugsweise der Kontrastumfang, der Bildabstand, die rekonstruierte Schichtdicke, das rekonstruierte Volumen oder eine Kombination daraus. Weitere Parameter eines Eingangsdatensatzes können Daten zur aufnehmenden Modalität oder auch zu einem Patienten oder einer Patientin sein letzte genannte Daten wären z.B. Geschlecht, Alter, Körpergröße etc. Ebenso ist es bevorzugt, wenn mittels des trainierten modellbasierten Sample-Generators und mehreren verschiedenen auf zufälligen Werten basierenden Eingangsdatensätzen mehrere künstliche Datensätze generiert werden, die für das von dem Klassifikator verkörperten Klassifikationsmodell repräsentativ sind, und aus den künstlichen Datensätzen Werte für durch diese künstlichen Datensätze repräsentierte technische Parameter ermit- telt werden. The input data sets to be classified preferably represent tomographic images and the technical parameters, the values of which are determined from the artificially generated data set, are preferably the contrast range, the image distance, the reconstructed slice thickness, the reconstructed volume or a combination thereof. Further parameters of an input data set can be data on the receiving modality or also on a patient. The last data mentioned would be, for example, gender, age, body size etc. It is also preferred if using the trained model-based sample generator and several different random values based Input data sets a plurality of artificial data sets are generated which are representative of the classification model embodied by the classifier, and values for technical parameters represented by these artificial data sets are determined from the artificial data sets.
Mit Hilfe des Verfahrens und des Systems wird das Problem gelöst, dass ein Betreiber eines Klassifikators nur schwer erkennen kann, ob er sich auf von dem Klassifikator gewonnene Klassifikationsergebnisse - also von dem Klassifikator generierte Zugehörigkeitswerte - verlassen. Letzteres ist nämlich nur der Fall, wenn die zu klassifizierenden Ein- gangsdatensätze für den Klassifikator technische Kriterien erfüllen, die zu dem Klassifikationsmodell passen, das durch den Klassifikator verkörpert wird. Solche technischen Kriterien sind die Wertebereiche der technischen Parameter, die durch den jeweiligen Eingangsdatensatz repräsentiert sind. Nur wenn diese zu dem Klassifikationsmodell passen, ist die Klassifikation durch den Klassifikator verlässlich. Wie bereits zuvor erwähnt, kann eine Güteprüfung zu klassifizierender Eingangsdatensätze 18 auch dadurch erfolgen, dass der Klassifikator 12 in der vertraulichen Umgebung in Verbindung mit einem (zweiten) Diskriminator 26 betrieben wird. Figur 3 illustriert eine entsprechende Anordnung. Auf der linken Seite in Figur 3 ist die vertrauliche Umgebung mit dem Klassifikator 12 und dem (zweiten) Diskriminator 26 dargestellt. Der zweite Diskriminator 26 dient zum Ermitteln einer Loss-Funktion, also zum Ermitteln eines Maßes einer (gemittelten) Abweichung zwischen einem von dem modellbasierten Sample-Generator 14 erzeugten künstlichen Prototypen 22‘ und einem jeweils zu klassifizierenden Eingangsda- tensatz 18. Der künstliche Prototyp 22‘ kann in der nicht vertraulichen Umgebung von dem modellbasierten Sample-Generator 14 erzeugt werden und dann für die Güteprüfung in der vertraulichen Umgebung zur Verfügung gestellt werden. Tatsächlich kann der zweite Diskriminator 26 auch als ein mit dem künstlichen Prototypen 22‘ trainierter Klassifikator betrachtet werden, der für jeden zu klassifizierenden Eingangsdatensatz 18 eine Zugehörig- keit zu einer Klasse „für eine zuverlässige Klassifikation geeignet (O.K.)“ oder zu einer Klasse „für eine zuverlässige Klassifikation nicht geeignet (n.O.K.)“ bestimmt. Der zweite Diskriminator 26 kann somit als binärer Klassifikator ausgebildet sein. Der eigentliche Klassifikator 12 ist hingegen typischerweise ein Multiklassen-Klassifikator und klassifiziert die Eingangsdatensätze 18, indem jeder Eingangsdatensatz 18 einer von mehreren Klassen zugeordnet wird, für die der Klassifikator 12 trainiert wurde. With the aid of the method and the system, the problem is solved that an operator of a classifier can only recognize with difficulty whether he is relying on classification results obtained from the classifier - that is, membership values generated by the classifier. The latter is namely only the case if the input data records to be classified for the classifier meet technical criteria that match the classification model that is embodied by the classifier. Such technical criteria are the value ranges of the technical parameters that are represented by the respective input data record. The classification by the classifier is only reliable if these match the classification model. As already mentioned above, a quality check of input data sets 18 to be classified can also take place in that the classifier 12 is operated in the confidential environment in connection with a (second) discriminator 26. Figure 3 illustrates a corresponding arrangement. On the left in Figure 3 is the confidential environment with the classifier 12 and the (second) discriminator 26. The second discriminator 26 is used to determine a loss function, that is to say to determine a measure of an (averaged) deviation between an artificial prototype 22 ′ generated by the model-based sample generator 14 and an input data set 18 to be classified in each case 'can be generated in the non-confidential environment by the model-based sample generator 14 and then made available for the quality check in the confidential environment. In fact, the second discriminator 26 can also be viewed as a classifier trained with the artificial prototype 22 ', which for each input data set 18 to be classified belongs to a class “suitable for a reliable classification (OK)” or to a class “for a reliable classification unsuitable (NOK) ”. The second discriminator 26 can thus be designed as a binary classifier. The actual classifier 12, on the other hand, is typically a multi-class classifier and classifies the input data records 18 by assigning each input data record 18 to one of several classes for which the classifier 12 was trained.
In dem in Figur 4 abgebildeten Ausführungsbeispiel ist der Diskriminator 26 eine Instanz, die die Abweichung zwischen dem künstlich erzeugten Prototypen 22‘ und einem jeweils zu klassifizierenden Eingangsdatensatz 18 prüft. Der Diskriminator 26 kann somit auch eine einfache Similarity-Loss-Funktion verkörpern. Wie ebenfalls zuvor erwähnt, kann in der vertraulichen Umgebung anstelle eines Klassifikators 12 auch ein Regressor 28 vorgesehen sein. Dies ist in Figur 5 veranschaulicht. Ein Regressor liefert typischerweise als Ausgangswert keine Zuordnung zu einer von mehreren Klassen (sowie das der Klassifikator 12 tut), sondern liefert einen Zahlenwert zu einem jeweiligen Eingangsdatensatz. Beispielsweise kann der Zahlenwert das Alter einer Person repräsentieren, wenn der von dem Regressor 28 geprüfte Eingangsdatensatz ein Bild dieser Person repräsentiert. Andere von einem Regressor gelieferte Zahlenwerte können beispielsweise die wahrscheinliche Aufenthaltsdauer eines Patienten im Krankenhaus angeben. Auch der Regressor 28 verkörpert ein diskriminatives neuronales Netz, das mit entsprechenden Trainingsdatensätzen trainiert wurde, die beispielsweise Bilder von Personen verschiedenen Alters repräsentieren. In the exemplary embodiment shown in FIG. 4, the discriminator 26 is an entity which checks the discrepancy between the artificially generated prototype 22 'and an input data set 18 to be classified in each case. The discriminator 26 can thus also embody a simple similarity loss function. As also mentioned above, instead of a classifier 12, a regressor 28 can also be provided in the confidential environment. This is illustrated in FIG. A regressor typically does not provide an assignment to one of several classes as an output value (as the classifier 12 does), but rather provides a numerical value for a respective input data set. For example, the numerical value can represent the age of a person if the input data set checked by the regressor 28 represents an image of this person. Other numerical values supplied by a regressor can, for example, indicate the probable length of stay of a patient in the hospital. The regressor 28 also embodies a discriminative neural network that has been trained with corresponding training data sets which, for example, represent images of people of different ages.
Figur 6 illustriert ein Ausführungsbeispiel, bei dem das GAN 34 für das Training des modellbasierten Sample-Generators 14 zwei Diskriminatoren 16 und 30 aufweist. Von diesen beiden Diskriminatoren 16 und 30 ist der erste Diskriminator 16 des GAN wie üblich so konfiguriert, dass dessen Feedback zu dem modellbasierten Sample-Generator 14 dazu führt, dass der Löss zwischen den Trainingsdatensätzen und dem während des Trainings sich iterativ verändernden, von dem modellbasierten Sample-Generator 14 generierten Ausgangsdaten 22 minimiert wird, indem während des Trainings die Gewichte des von dem modellbasierten Sample-Generator 14 verkörperten generativen neuronalen Netz- werks schrittweise adaptiert werden. Der erste Diskriminator 16 des GAN 34 ist somit dazu konfiguriert, in an sich bekannter Weise den Löss zwischen dem künstlich erzeugten Datensatz 22 und den Trainingsdatensätzen zu bestimmen und im Laufe des Trainings zu minimieren. FIG. 6 illustrates an exemplary embodiment in which the GAN 34 has two discriminators 16 and 30 for training the model-based sample generator 14. Of these two discriminators 16 and 30, the first discriminator 16 of the GAN is configured as usual in such a way that its feedback to the model-based sample generator 14 is provided leads to the fact that the loess between the training data sets and the iteratively changing output data 22 generated by the model-based sample generator 14 during the training is minimized by the weights of the generative neural network embodied by the model-based sample generator 14 during the training be gradually adapted. The first discriminator 16 of the GAN 34 is thus configured to determine the loess between the artificially generated data set 22 and the training data sets in a manner known per se and to minimize it in the course of the training.
Der zweite Diskriminator 30 des GAN 34 ist so konfiguriert, dass er für jeden von dem modellbasierten Sample-Generator 14 während des Trainings generierten Prototypen 22 dessen Ähnlichkeit mit jedem der Trainingsdatensätze bestimmt und in Verbindung mit dem modellbasierten Sample-Generator 14 darauf hinwirkt, dass eine vorgegebene Mindestzahl von Trainingsdatensätzen eine vorgegebene Mindestähnlichkeit mit dem jeweils erzeugten Prototypen 22 aufweist, um auf diese eise zu verhindern, dass der Prototyp nur mit einem oder ganz wenigen Trainingsdatensätzen eine besonders große Ähnlichkeit aufweist. Insbesondere ist der zweite Diskriminator 30 des GAN 34 ist so konfiguriert, dass er immer dann einen hohen, zu dem von dem ersten Diskriminator 16 ermittelten Löss hinzuzuaddierenden Wert generiert, wenn weniger als eine vorgegebene Anzahl von Trainingsdatensätzen ein Ähnlichkeitsmaß ergeben, dass weniger als eine vorgegebene Maximal- abweichung von dem besten vorkommenden Ähnlichkeitsmaß hat. Nur wenn genügend viele Trainingsdatensätze eine ähnlich große Ähnlichkeit mit dem künstlich generierten Datensatz 22 haben, wie der ähnlichste Trainingsdatensatz, ist der von dem zweiten Diskriminator 30 ermittelte Wert für das Ähnlichkeitsclustermaß klein. The second discriminator 30 of the GAN 34 is configured in such a way that for each prototype 22 generated by the model-based sample generator 14 during the training it determines its similarity to each of the training data sets and, in conjunction with the model-based sample generator 14, works to ensure that a predetermined minimum number of training data records has a predetermined minimum similarity with the respectively generated prototype 22 in order to prevent the prototype from having a particularly great similarity with only one or very few training data records. In particular, the second discriminator 30 of the GAN 34 is configured in such a way that it always generates a high value to be added to the loess determined by the first discriminator 16 if less than a predetermined number of training data sets result in a degree of similarity that is less than a predetermined one Has the maximum deviation from the best occurring degree of similarity. Only when a sufficient number of training data sets have a similarly great similarity to the artificially generated data set 22 as the most similar training data set is the value determined by the second discriminator 30 for the similarity cluster measure small.
Im Training wird die Summe aus dem Maß für den Löss (das Verlustmaß, dass der erste Diskriminator 16 generiert) und dem von dem zweiten Diskriminator 30 ermittelten Wert für das Ähnlichkeitsclustermaß minimiert. Da das Ähnlichkeitsclustermaß eine Abweichung von der vorgegebenen Mindestzahl ähnlichster Trainingsdatensätze stark "bestraft", ist sichergestellt, dass diese Vorgabe typischerweise erfüllt wird. Beispielsweise werden bei zwanzig Trainingsdatensätzen ebenfalls 20 Ähnlichkeitswerte (Werte des Ähnlichkeitsma- ßes) erzeugt. Wird als Grenzwert (Mindestgröße des Clusters mit den besten Ähnlichkeitswerten innerhalb eines vorgegebenen Bereichs) bei beispielsweise 3 gewählt, muss ein Cluster mit dem höchsten Ähnlichkeitsmaß (die Höhe drückt dabei eine erhöhte Ähnlichkeit zwischen den Elementen aus) mindestens drei Elemente enthalten. Wird dieses Cluster nicht erreicht, wird ein negatives Feedback an den modellbasierten Sample-Generator 14 zurückgegeben. In dem in Figur 6 abgebildeten Ausführungsbeispiel ist das GAN 34 derart konfiguriert, dass sich beim Training wenigstens annähend ein Optimum bezüglich des von dem Diskriminator 16 ermittelten Lösses und von dem Diskriminator 30 ermittelten Ähnlichkeitskriterium ergibt. In Bezug auf alle dargestellten Ausführungsbeispiele kann auch eine Variante vorgesehen sein, bei der der von dem modellbasierten Sample-Generator 14 erzeugte Ausgangsdatensatz 22 ein Paar aus prototypischen Eingangsdaten (z.B. eine künstlich generierte Tomographie) und zugehörigem Label ist. Das Laber bezeichnet eine der Klassen, für die der Klassifikator 12 trainiert ist und für die der künstlich erzeugte Prototyp prototypisch sein soll. In the training, the sum of the measure for the loess (the measure of loss that the first discriminator 16 generates) and the value determined by the second discriminator 30 for the similarity cluster measure is minimized. Since the similarity cluster measure severely “penalizes” a deviation from the specified minimum number of very similar training data records, it is ensured that this specification is typically met. For example, in the case of twenty training data sets, 20 similarity values (values of the degree of similarity) are also generated. If, for example, 3 is selected as the limit value (minimum size of the cluster with the best similarity values within a given range), a cluster with the highest degree of similarity (the height expresses an increased similarity between the elements) must contain at least three elements. If this cluster is not reached, negative feedback is returned to the model-based sample generator 14. In the exemplary embodiment shown in FIG. 6, the GAN 34 is configured in such a way that at least approximately an optimum with regard to the loess determined by the discriminator 16 and the similarity criterion determined by the discriminator 30 results during training. With regard to all of the illustrated exemplary embodiments, a variant can also be provided in which the output data set 22 generated by the model-based sample generator 14 is a pair of prototypical input data (for example an artificially generated tomography) and the associated label. The Laber designates one of the classes for which the classifier 12 is trained and for which the artificially generated prototype is intended to be a prototype.
Ein derartiges, von dem modellbasierten Sample-Generator 14 erzeugtes Paar aus prototypischen Eingangsdatensatz und zugehörigem Label (d.h. zugehöriger Klasse) kann zum Testen des Klassifikators 12 verwendet werden, indem dem Klassifikator 12 der künstlich erzeugte, prototypische Eingangsdatensatz 22' zugeführt wird und die für diesen von dem Klassifikator ermittelte Klasse mit dem Label verglichen wird. Die vom Klassifikator 12 für den künstlich erzeugten, prototypischen Eingangsdatensatz 22' ermittelte Klasse muss mit dem Label identisch sein, wenn das System als verlässlich eingestuft werden soll. Figur 7 illustriert dies an einem Beispiel analog zu dem in 3 dargestellten Ausführungsbeispiel. Das Konzept ist aber auch auf alle anderen Ausführungsbeispiele übertragbar. In Figur 7 ist durch eine Doppellinie angedeutet, dass der von dem modellbasierten Sample-Generator 14 erzeugte Ausgangsdatensatz 22 ein Paar aus einem prototypischen Eingangsdatensatz und zugehörigem Label (d.h. zugehöriger Klasse) ist. Such a pair of prototypical input data set and associated label (ie associated class) generated by the model-based sample generator 14 can be used for testing the classifier 12 by the artificially generated, prototypical input data set 22 'being supplied to the classifier 12 and the data set for this the class determined by the classifier is compared with the label. The class determined by the classifier 12 for the artificially generated, prototypical input data set 22 'must be identical to the label if the system is to be classified as reliable. FIG. 7 illustrates this using an example analogous to the exemplary embodiment shown in FIG. However, the concept can also be transferred to all other exemplary embodiments. In FIG. 7, a double line indicates that the output data set 22 generated by the model-based sample generator 14 is a pair of a prototypical input data set and an associated label (i.e., an associated class).
Eine Prüfung des Klassifikators 12 mit Hilfe eines von dem modellbasierten Sample-Generator 14 erzeugten Paares aus prototypischen Eingangsdatensatz und zugehörigem Label ist vor allem dann hilfreich, wenn der Klassifikator im Laufe eines Betriebs nachtrainiert wird (z.B. per Online-Training). In diesem Fall kann mit Hilfe des von dem modellbasierten Sample-Generator 14 erzeugten Paares aus prototypischen Eingangsdatensatz und zugehörigem Label geprüft werden, ob das Nachtraining erfolgreich war. Sollte der nachtrainierte Klassifikator 12 Fehlklassifikationen des von dem Generator 14 erzeugten Paares aus prototypischen Eingangsdatensatzes vornehmen, kann der Klassifikator 12 wieder auf das vor dem Nachtraining herrschende Klassifikationsmodell zurück-konfiguriert werden. Hierzu ist es vorteilhaft, wenn während des Nachtrainings Log-Datensätze (Log Files) er- zeugt werden, in denen die während des Nachtrainings an dem Klassifikations-Modell vorgenommenen Änderungen festgehalten sind, um diese Änderungen gegebenenfalls rückgängig machen zu können. A check of the classifier 12 with the help of a pair generated by the model-based sample generator 14 from prototypical input data set and the associated label is particularly helpful when the classifier is retrained during operation (e.g. via online training). In this case, the pair of prototypical input data sets and associated labels generated by the model-based sample generator 14 can be used to check whether the retraining was successful. Should the retrained classifier 12 misclassify the pair of prototypical input data sets generated by the generator 14, the classifier 12 can be reconfigured back to the classification model prevailing before the retraining. For this purpose, it is advantageous if log data records (log files) are created during the post-training session. in which the changes made to the classification model during the retraining are recorded in order to be able to reverse these changes if necessary.
Die bevorzugten Ausführungsvarianten bieten den Vorteil, dass sie auch ein föderiertes Training des Klassifikators 12 oder Regressors 28 sowie auch des GAN 34 erlauben. Beim föderierten Lernen werden verschiedene, von dem modellbasierten Sample-Generator 14 zu verkörpernde trainierte generative neuronale Netzwerke (d.h. generative Modelle) von verschiedenen GANs erzeugt, die sich auch an unterschiedlichen Orten befinden können. Die dezentral - und damit föderiert - erzeugten generativen neuronalen Netzwerke (ge- nauer gesagt, die durch die generativen neuronalen Netzwerke repräsentierten Modelle, die sich vor allem durch die Gewichte in den Knoten des Netzwerks auszeichnen) können zu einem einzigen Modell (und damit zu einem einzigen generativen neuronalen Netzwerk) zusammengefasst werden, dass dann von dem modellbasierten Sample-Generator (34) verwirklicht wird. Anstelle per föderiertem Lernen kann der modellbasierte Sample-Generator (14) auch mit Trainingsdatensätzen aus verschiedenen Quellen (per Data-Pooling) trainiert werden, um ein Overfitting auf eine einzige Quelle zu vermeiden. The preferred embodiment variants offer the advantage that they also allow federated training of the classifier 12 or regressor 28 and also of the GAN 34. In federated learning, different trained generative neural networks (ie, generative models) to be embodied by the model-based sample generator 14 are generated by different GANs, which can also be located at different locations. The decentralized - and thus federated - generated generative neural networks (to be more precise, the models represented by the generative neural networks, which are characterized above all by the weights in the nodes of the network) can become a single model (and thus one single generative neural network) that is then implemented by the model-based sample generator (34). Instead of federated learning, the model-based sample generator (14) can also be trained with training data sets from different sources (via data pooling) in order to avoid overfitting to a single source.
Bezugszeichen Reference number
12 Klassifikator 12 classifier
14 modellbasierter Sample-Generator 14 model-based sample generator
16 Diskriminator, der mit dem Generator 14 verbunden ist 18 Eingangsdatensätze für zu klassifizierende Objekte 16 discriminator connected to generator 14 18 input data records for objects to be classified
20 Eingangsdatensatz 20 input data record
22, 22' Künstlicher Prototyp, vom Generator 14 erzeugt 22, 22 'Artificial prototype generated by generator 14
24 T rainingsdatensätze 24 training data sets
26 Diskriminator in der vertraulichen Umgebung 28 Regressor 30 zweiter Diskriminator, der mit dem Generator 14 verbunden sein kann 32 Einheit zur Ähnlichkeitsbestimmung 26 Discriminator in the confidential environment 28 Regressor 30 Second discriminator, which can be connected to the generator 14 32 Unit for determining similarity
34 GAN (Generative Adversial Network) 34 GAN (Generative Adversial Network)

Claims

Ansprüche Expectations
1. System zum Prüfen von Eingangsdatensätzen auf deren Eignung für ein automatischen Auswerten, insbesondere ein Klassifizieren mittels eines für eine Klasse oder mehrere Klassen approximierten oder trainierten Klassifikators (12) oderRegressors (28), der von einem ersten diskriminativen neuronalen Netz für die Klassifikation o- der die Regression an einem ersten Ort gebildet ist, wobei das System einen modellbasierten Sample-Generator (14) mit einem generativen neuronalen Netz an einem von dem ersten Ort entfernten zweiten Ort aufweist, wobei das generative neuronale Netz des modellbasierten Sample-Generators (14) mit den gleichen Trai- ningsdatensätzen (24) wie das diskriminative neuronale Netz des Klassifikators (12) oder Regressors (28) trainiert ist und dazu ausgebildet ist, aus einen zufällige Werte repräsentierenden Eingangsdatensatz (20) einen künstlichen Ausgangsdatensatz (22) zu generieren, der einen Prototyp für ein die Klasse, für die der Klassifikator (12) oder der Regressor (28) trainiert ist, repräsentiertes Modell darstellt, wobei das erste diskriminative neuronale Netz unabhängig von dem modellbasierten Sample-1. System for checking input data records for their suitability for automatic evaluation, in particular classification by means of a classifier (12) or regressor (28) approximated or trained for one class or several classes, which is operated by a first discriminative neural network for the classification o- which the regression is formed at a first location, the system having a model-based sample generator (14) with a generative neural network at a second location remote from the first location, the generative neural network of the model-based sample generator (14) is trained with the same training data sets (24) as the discriminative neural network of the classifier (12) or regressor (28) and is designed to generate an artificial output data set (22) from an input data set (20) representing random values a prototype for the class for which the classifier (12) or the recourse or (28) is trained, represents the represented model, the first discriminative neural network independent of the model-based sample
Generator (14) implementiert ist und weder von dem modellbasierten Sample-Generator (14) erzeugte Datensätze empfangen kann noch an den modellbasierten Sample-Generator (14) Datensätze liefern kann, die das erste diskriminative neuronale Netz des Klassifikators (12) oder Regressors (28) im Betrieb erzeugt, so dass das erste diskriminative neuronale Netz des Klassifikators (12) oder Regressors (28) und der modellbasierte Sample-Generator (14) voneinander unabhängige Instanzen darstellen. Generator (14) is implemented and can neither receive data sets generated by the model-based sample generator (14) nor deliver data sets to the model-based sample generator (14) that the first discriminative neural network of the classifier (12) or regressor (28 ) generated during operation, so that the first discriminative neural network of the classifier (12) or regressor (28) and the model-based sample generator (14) represent entities that are independent of one another.
2. System gemäß Anspruch 1 , bei dem der Klassifikator (12) oder der Regressor (28) Teil einer vertraulichen Umgebung ist und der modellbasierten Sample-Generator (14) in einem Software-Container verwirklicht ist und über eine VPN Verbindung mit dem Klassifikator (12) oder dem Regressor (28) verbunden ist. 2. System according to claim 1, in which the classifier (12) or the regressor (28) is part of a confidential environment and the model-based sample generator (14) is implemented in a software container and via a VPN connection with the classifier ( 12) or the regressor (28) is connected.
3. System gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass an dem ersten Ort eine Einheit (32) zur Ähnlichkeitsbestimmung vorgesehen ist, die dazu konfiguriert ist, dem Klassifikator (12) oder Regressor (28) zwecks Klassifikation oder Re- gression zuzuführenden Eingangsdatensätze mittels des von dem modellbasierten3. System according to claim 1 or 2, characterized in that a unit (32) for determining similarity is provided at the first location which is configured to supply input data records to the classifier (12) or regressor (28) for the purpose of classification or regression by means of the model-based
Sample-Generator (14) generierten künstlichen Ausgangsdatensatzes (22) hinsichtlich Ihrer Eignung für eine Klassifikation oder Regression zu Prüfen, indem ein jeweiliger Eingangsdatensatz mit dem von dem modellbasierten Sample-Generator (14) generierten künstlichen Ausgangsdatensatz (22) verglichen und als "geeignet" oder "nicht geeignet" klassifiziert wird. Sample generator (14) generated artificial output data set (22) to check with regard to their suitability for a classification or regression by a respective input data set with that of the model-based sample generator (14) generated artificial output data set (22) is compared and classified as "suitable" or "not suitable".
4. System gemäß wenigstens einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass dem modellbasierten Sample-Generator (14) ein diskriminatives neuronales Netzwerk zugeordnet ist, dass einen Diskriminator (16) bildet, der zusammen mit dem modellbasierten Sample-Generator (14) ein Generative Adversial Network (GAN) bildet. 4. System according to at least one of claims 1 to 3, characterized in that the model-based sample generator (14) is assigned a discriminative neural network that forms a discriminator (16) which, together with the model-based sample generator (14) forms a Generative Adversial Network (GAN).
5. System gemäß Anspruch 4, dadurch gekennzeichnet, dass das der Diskriminator (16) des GAN (34) dazu konfiguriert ist, einen Löss der von dem modellbasierten Sample- (14) generierten künstlichen Ausgangsdatensätze gegenüber den Trainingseingangsdatensätzen zu bestimmen. 5. System according to claim 4, characterized in that the discriminator (16) of the GAN (34) is configured to determine a loess of the artificial output data sets generated by the model-based sample (14) compared to the training input data sets.
6. System gemäß Anspruch 4 oder 5, dadurch gekennzeichnet, dass dem modellbasierten Sample-Generator (14) ein zweites diskriminatives neuronales Netzwerk zugeordnet ist, dass einen zweiten Diskriminator (30) des GAN (34) bildet und ein zwei- tes von der Ähnlichkeit zwischen den Trainingsdatensätzen (18) und dem von dem modellbasierten Sample-Generator (14) generierten künstlichen Ausgangsdatensatz (22) abhängendes Maß bildet, welches beim Training des modellbasierten Sample-Generators (14) ebenfalls optimiert oder erfüllt wird. 6. System according to claim 4 or 5, characterized in that the model-based sample generator (14) is assigned a second discriminative neural network that forms a second discriminator (30) of the GAN (34) and a second from the similarity between the training data sets (18) and the artificial output data set (22) generated by the model-based sample generator (14) forms a dependent measure, which is also optimized or fulfilled during training of the model-based sample generator (14).
7. System gemäß Anspruch 6, dadurch gekennzeichnet, dass der zweite dem modell- basierten Sample-Generator (14) zugeordnete Diskriminator (30) dazu konfiguriert ist immer dann einen hohen, zu dem von dem ersten Diskriminator (16) ermittelten Löss hinzuzuaddierenden Wert zu generieren, wenn weniger als eine vorgegebene Anzahl von Trainingsdatensätzen ein Ähnlichkeitsmaß ergeben, dass weniger als eine vorgegebene Maximalabweichung von dem besten vorkommenden Ähnlich- keitsmaß hat. 7. System according to claim 6, characterized in that the second discriminator (30) assigned to the model-based sample generator (14) is configured to always have a high value to be added to the loess determined by the first discriminator (16) generate if fewer than a predetermined number of training data sets result in a similarity measure that has less than a predetermined maximum deviation from the best occurring similarity measure.
8. System gemäß wenigstens einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der modellbasierten Sample-Generator (14) dazu konfiguriert ist, künstliche Ausgangsdatensätze (22) zu generieren, die wenigstens einen prototypischen Eingangsdatensatz für den Klassifikator (12) oder den Regressor (28) enthalten und zusätzlich zu einem jeweiligen prototypischen Eingangsdatensatz ein zugehöriges8. System according to at least one of claims 1 to 7, characterized in that the model-based sample generator (14) is configured to generate artificial output data sets (22), the at least one prototypical input data set for the classifier (12) or the regressor (28) and, in addition to a respective prototype input data set, an associated one
Label. 9. Verfahren zum Ermitteln eines Gütekriteriums für Eingangsdatensätze (18) für einen Klassifikator (12) oder einen Regressor (28) mit einem diskriminativen neuronalen Netzwerk, wobei die Eingangsdatensätze (18) von Werten technischer Parameter abhängen, die in den Eingangsdatensätzen (18) repräsentiert sind und das Gütekri- terium wenigstens einen Wert eines dieser technischen Parameter betrifft, und wobei der Klassifikator (12) oder der Regressor (28) mit Trainingsdatensätzen (24) trainiert ist und ein Klassifikationsmodell für eine Klasse bzw. ein Regressionsmodell verkörpert, dadurch gekennzeichnet, dass ein modellbasierter Sample-Generator (14) mit einem generativen neuronalen Netzwerk mit denselben Trainingsdatensätzen (24) trainiert wird, mit denen der Klassifikator (12) oder der Regressor (28) trainiert wurde, dass mittels des trainierten modellbasierten Sample-Generators (14) und einem auf zufälligen Werten basierenden Eingangsdatensatz (20) anschließend ein künstlicher Datensatz (22) generiert wird, der für das von dem Klassifikator (12) verkörperten Klassifikationsmodell oder das von dem Regressor (28) repräsentiere Regressionsmodell repräsentativ ist, dass aus dem künstlichen Datensatz (22) Werte für durch diesen künstlichen Datensatz repräsentierte technische Parameter ermittelt werden und dass aus den ermittelten Werten der technischen Parameter ein Gütekriterium derart gebildet wird, dass aus den ermittelten Werten der technischen Parameter ein Werteraum bestimmt wird, der von den ermittelten Werten der technischen Parameter und einem vorgegebenen Toleranzbereich abhängt, wobei der Klassifikator (12) o- der der Regressor (28) für solche Eingangsdatensätze (18), die Werte technischer Parameter repräsentieren, welche innerhalb des Werteraums liegen und damit das Gütekriterium erfüllen, ein verlässliches Klassifikationsergebnis bzw. Regressionsergebnis liefert. Label. 9. A method for determining a quality criterion for input data records (18) for a classifier (12) or a regressor (28) with a discriminative neural network, the input data records (18) depending on values of technical parameters represented in the input data records (18) and the quality criterion relates to at least one value of one of these technical parameters, and wherein the classifier (12) or the regressor (28) is trained with training data sets (24) and embodies a classification model for a class or a regression model, characterized in that, that a model-based sample generator (14) with a generative neural network is trained with the same training data sets (24) with which the classifier (12) or the regressor (28) was trained, that by means of the trained model-based sample generator (14) and an input data set (20) based on random values, followed by an artificial data atz (22) is generated, which is representative of the classification model embodied by the classifier (12) or the regression model represented by the regressor (28) that values for technical parameters represented by this artificial data set are determined from the artificial data set (22) and that a quality criterion is formed from the determined values of the technical parameters in such a way that a value range is determined from the determined values of the technical parameters, which depends on the determined values of the technical parameters and a predetermined tolerance range, the classifier (12) o- which the regressor (28) delivers a reliable classification result or regression result for those input data sets (18) which represent values of technical parameters which lie within the value range and thus meet the quality criterion.
10. Verfahren zum Ermitteln eines Gütekriteriums für Eingangsdatensätze (18) für einen Klassifikator (12) oder einen Regressor (28) mit einem diskriminativen neuronalen Netzwerk, wobei die Eingangsdatensätze (18) von Werten technischer Parameter abhängen, die in den Eingangsdatensätzen (18) repräsentiert sind und das Gütekriterium wenigstens einen Wert eines dieser technischen Parameter betrifft, und wo- bei der Klassifikator (12) oder der Regressor (28) mit Trainingsdatensätzen (24) trainiert ist und ein Klassifikationsmodell für eine Klasse bzw. ein Regressionsmodell verkörpert, dadurch gekennzeichnet, dass ein modellbasierter Sample-Generator (14) mit einem generativen neuronalen Netzwerk mit denselben Trainingsdatensätzen (24) trainiert wird, mit denen der Klassifikator (12) oder der Regressor (28) trainiert wurde, dass mittels des trainierten modellbasierten Sample-Generators (14) und einem auf zufälligen Werten basierenden Eingangsdatensatz (20) anschließend ein künstlicher Datensatz (22) generiert wird, der für das von dem Klassifikator (12) verkörperte Klassifikationsmodell oder das von dem Regressor (28) verkörperte Regressionsmodell repräsentativ ist, dass der künstliche Datensatz (22) mit verschiedenen, aus realen Daten basierenden Eingangsdatensätzen (18) verglichen wird, denen unterschiedliche Parameterwerte zugrunde liegen, indem für jeden Eingangsdatensatz (18) der Löss gegenüber dem künstlichen Datensatz (22) oder die Ähnlichkeit mit dem künstlichen Datensatz10. A method for determining a quality criterion for input data sets (18) for a classifier (12) or a regressor (28) with a discriminative neural network, the input data sets (18) depending on values of technical parameters represented in the input data sets (18) and the quality criterion relates to at least one value of one of these technical parameters, and where- the classifier (12) or the regressor (28) is trained with training data sets (24) and embodies a classification model for a class or a regression model, characterized in that a model-based sample generator (14) with a generative neural network with the same Training data sets (24) are trained, with which the classifier (12) or the regressor (28) was trained that by means of the trained model-based sample generator (14) and an input data set (20) based on random values, an artificial data set (22 ) is generated which is representative of the classification model embodied by the classifier (12) or the regression model embodied by the regressor (28) that the artificial data set (22) is compared with various input data sets (18) based on real data, which different parameter values are based, in that for each input data set (18) the loess compared to the artificial data set (22) or the similarity to the artificial data set
(22) ermittelt wird, und, wenn der Vergleich ergibt, dass der Löss gering bzw. die Ähnlichkeit groß genug ist, die dem jeweiligen Eingangsdatensatz (18) zugrundeliegenden Parameterwerte dem Parameterraum zugeordnet werden. (22) is determined and, if the comparison shows that the loess is low or the similarity is large enough, the parameter values on which the respective input data set (18) is based are assigned to the parameter space.
11. Verfahren zum Prüfen von Eingangsdatensätzen für einen Klassifikator (12) oder einen Regressor (28) mit einem diskriminativen neuronalen Netzwerk, wobei die Eingangsdatensätze (18) von Werten technischer Parameter abhängen, die in den Eingangsdatensätzen (18) repräsentiert sind und das Gütekriterium wenigstens einen Wert eines dieser technischen Parameter betrifft, und wobei der Klassifikator (12) oder der Regressor (28) mit Trainingsdatensätzen (24) trainiert ist und ein Klassifi- kationsmodell für eine Klasse bzw. ein Regressionsmodell verkörpert, dadurch gekennzeichnet, dass ein modellbasierter Sample-Generator (14) mit einem generativen neuronalen Netzwerk mit denselben Trainingsdatensätzen (24) trainiert wird, mit denen der Klassifikator (12) oder der Regressor (28) trainiert wurde, dass mittels des trainierten modellbasierten Sample-Generators (14) und einem auf zufälligen Werten basierenden Eingangsdatensatz (20) anschließend ein künstlicher Datensatz (22) generiert wird, der für das von dem Klassifikator verkörperte Klassifikationsmodell oder das von dem Regressor verkörperte Regressionsmodell repräsentativ ist, und dass ein jeweils konkret durch den Klassifikator (12) oder den Regressor (28) zu verarbeitender Eingangsdatensatz (18) mit dem von dem modellbasierten Sample-11. A method for checking input data sets for a classifier (12) or a regressor (28) with a discriminative neural network, the input data sets (18) depending on values of technical parameters which are represented in the input data sets (18) and the quality criterion at least relates to a value of one of these technical parameters, and wherein the classifier (12) or the regressor (28) is trained with training data sets (24) and embodies a classification model for a class or a regression model, characterized in that a model-based sample Generator (14) is trained with a generative neural network with the same training data sets (24) with which the classifier (12) or the regressor (28) was trained that by means of the trained model-based sample generator (14) and one on random values based input data set (20) then an artificial one Data set (22) is generated which is representative of the classification model embodied by the classifier or the regression model embodied by the regressor, and that an input data set (18) to be processed specifically by the classifier (12) or the regressor (28) with the from the model-based sample
Generator (14) erzeugten künstlichen Datensatz (22) verglichen wird, um den Löss gegenüber oder die Ähnlichkeit mit dem von dem modellbasierten Sample-Genera- tor (14) erzeugten künstlichen Datensatz (22) zu bestimmen und auf diese Weise noch vor der Klassifikation des Eingangsdatensatzes (18) eine Abschätzung über die Verlässlichkeit der Klassifikation zu erhalten. Generator (14) generated artificial data record (22) is compared in order to determine the loess compared to or the similarity to the artificial data record (22) generated by the model-based sample generator (14) and in this way before the classification of the Input data set (18) to obtain an estimate of the reliability of the classification.
12. Verfahren gemäß Anspruch 9, 10 oder 11 , dadurch gekennzeichnet, dass die zu klassifizierenden Eingangsdatensätze (18) Tomographiebilder repräsentieren und die technischen Parameter, deren Werte aus dem künstlich erzeugten Datensatz ermittelt werden, der Kontrastumfang, der Bildabstand, die rekonstruierte Schichtdi- cke, das rekonstruierte Volumen oder eine Kombination daraus sind. 12. The method according to claim 9, 10 or 11, characterized in that the input data sets to be classified (18) represent tomographic images and the technical parameters, the values of which are determined from the artificially generated data set, the contrast range, the image distance, the reconstructed slice thickness , which are reconstructed volumes, or a combination thereof.
13. Verfahren gemäß Anspruch 9, 10, 11 oder 12, dadurch gekennzeichnet, dass mittels des trainierten modellbasierten Sample-Generators (14) und mehreren verschiedenen auf zufälligen Werten basierenden Eingangsdatensätzen mehrere künstliche Datensätze (22) generiert werden, die für das von dem Klassifikator (12) verkörper- ten Klassifikationsmodell oder das von dem Regressor (28) verkörperte Regressionsmodell repräsentativ sind, und dass aus den künstlichen Datensätzen (22) Werte für durch diese künstlichen Datensätze (22) repräsentierte technische Parameter ermittelt werden. 13. The method according to claim 9, 10, 11 or 12, characterized in that by means of the trained model-based sample generator (14) and several different input data records based on random values, several artificial data records (22) are generated which are used by the classifier (12) embodied classification model or the regression model embodied by the regressor (28) are representative, and that values for technical parameters represented by these artificial data records (22) are determined from the artificial data records (22).
14. Verfahren gemäß wenigstens einem der Ansprüche 9 bis 13, dadurch gekennzeich- net, dass der modellbasierte Sample-Generator (14) per föderiertem Lernen (feder- ated learning) trainiert wird. 14. The method according to at least one of claims 9 to 13, characterized in that the model-based sample generator (14) is trained by federated learning (spring-ated learning).
EP20830273.7A 2019-12-23 2020-12-23 System and method for the quality assurance of data-based models Pending EP4081950A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19219525 2019-12-23
EP20176326.5A EP3843011A1 (en) 2019-12-23 2020-05-25 System and method for quality assurance for data-based models
PCT/EP2020/087822 WO2021130340A1 (en) 2019-12-23 2020-12-23 System and method for the quality assurance of data-based models

Publications (1)

Publication Number Publication Date
EP4081950A1 true EP4081950A1 (en) 2022-11-02

Family

ID=69024135

Family Applications (2)

Application Number Title Priority Date Filing Date
EP20176326.5A Pending EP3843011A1 (en) 2019-12-23 2020-05-25 System and method for quality assurance for data-based models
EP20830273.7A Pending EP4081950A1 (en) 2019-12-23 2020-12-23 System and method for the quality assurance of data-based models

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP20176326.5A Pending EP3843011A1 (en) 2019-12-23 2020-05-25 System and method for quality assurance for data-based models

Country Status (4)

Country Link
US (1) US20230023058A1 (en)
EP (2) EP3843011A1 (en)
CN (1) CN114930346A (en)
WO (1) WO2021130340A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900534B2 (en) * 2021-07-30 2024-02-13 The Boeing Company Systems and methods for synthetic image generation
CN114301637B (en) * 2021-12-11 2022-09-02 河南大学 Intrusion detection method and system for medical Internet of things
CN114553756B (en) * 2022-01-27 2023-06-13 烽火通信科技股份有限公司 Equipment fault detection method based on joint generation countermeasure network and electronic equipment
CN116128954B (en) * 2022-12-30 2023-12-05 上海强仝智能科技有限公司 Commodity layout identification method, device and storage medium based on generation network

Also Published As

Publication number Publication date
CN114930346A (en) 2022-08-19
EP3843011A1 (en) 2021-06-30
WO2021130340A1 (en) 2021-07-01
US20230023058A1 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
EP4081950A1 (en) System and method for the quality assurance of data-based models
DE69838181T2 (en) Visualization and self-organization of multi-dimensional data through compensated orthogonal imaging
EP3336800B1 (en) Determination of a training function for generating annotated training images
DE102019207238A1 (en) Providing a result image data set
EP3143592B1 (en) Method and apparatus for reducing artefacts in computed tomography images
DE102015212953A1 (en) Artificial neural networks for the classification of medical image datasets
DE102006010607A1 (en) Object localization method, involves calculating probability values for limitation boxes in input image based on probability that object is arranged in these locations, and selecting box with highest probability as location of object
DE102019208496A1 (en) Provision of a difference image data set and a trained generator function
DE112014001359T5 (en) Predictive system for deploying enterprise applications
DE102018206108A1 (en) Generate validation data with generative contradictory networks
DE102021201124A1 (en) TRAINING IMAGE CLASSIFIER NETWORKS
EP1180258A1 (en) Pattern recognition by means of an examination of supplementary features after a partial processing
DE112021005678T5 (en) Normalization of OCT image data
DE102017116016A1 (en) A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
EP3857455A1 (en) Machine learning system and a method, a computer program and a device for creating the machine learning system
DE102019210545A1 (en) Provision of a result image data set and a trained generator function
DE102019117680A1 (en) AUTOMATED SEGMENTATION PROCESS FOR QUALITY INSPECTION
EP3637362A1 (en) Method for adjusting an image impression
DE102022201347A1 (en) Method and system for the automated determination of examination results in an image sequence
DE102021133868A1 (en) Microscopy system and method for modifying microscope images in the feature space of a generative mesh
DE102020215031A1 (en) Computer-implemented method for evaluating magnetic resonance data, magnetic resonance device, computer program and electronically readable data carrier
WO2022043585A1 (en) System for the automated harmonisation of structured data from different capture devices
DE112020007371T5 (en) Method and apparatus for a neural network based on energy-based latent variable models
WO2020187394A1 (en) Method for training an autoencoder and for classifying data, and autoencoder and computer program for this purpose
EP3899809A1 (en) Method and apparatus for classifying sensor data and for ascertaining an actuation signal for actuating an actuator

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)