WO2023237608A1 - Computerimplementiertes trainings-verfahren, computerimplementiertes vorhersage-verfahren, computerprogramm, computerlesbares medium und vorrichtung - Google Patents

Computerimplementiertes trainings-verfahren, computerimplementiertes vorhersage-verfahren, computerprogramm, computerlesbares medium und vorrichtung Download PDF

Info

Publication number
WO2023237608A1
WO2023237608A1 PCT/EP2023/065239 EP2023065239W WO2023237608A1 WO 2023237608 A1 WO2023237608 A1 WO 2023237608A1 EP 2023065239 W EP2023065239 W EP 2023065239W WO 2023237608 A1 WO2023237608 A1 WO 2023237608A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
measurement
specific
location
predictions
Prior art date
Application number
PCT/EP2023/065239
Other languages
English (en)
French (fr)
Inventor
Kaustubh Raosaheb PATIL
Original Assignee
Forschungszentrum Jülich GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Forschungszentrum Jülich GmbH filed Critical Forschungszentrum Jülich GmbH
Publication of WO2023237608A1 publication Critical patent/WO2023237608A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels

Definitions

  • Computer-implemented training method computer-implemented prediction method
  • computer program computer-readable medium and device
  • the invention relates to a computer-implemented training method for training machine learning models, in which
  • each learning data set comprising a measurement data set with several measurement data entries and a target variable assigned to the measurement data set, preferably, with all learning data sets having the same structure.
  • the invention further relates to a computer-implemented prediction method for predicting a property using machine learning models, a computer program, a computer-readable medium and a device.
  • harmonization is necessary because the data from different locations is heterogeneous, and in particular there are systematic differences between the measurement setups used, such as scanners in the case of MRI images, and the data collection parameters [Chen 2021, Mali et al]. Pooling therefore requires additional processing, which is achieved by building data harmonization models.
  • the harmonization models usually require some prototypical data from the respective measurement location for training. This limits the applicability when it comes to new measurement locations for which no prototypical data is available.
  • a harmonic nization can also be problematic in terms of data protection, especially when raw data is merged.
  • Decentralized learning, e.g. B. federated learning can result in models with lower accuracy.
  • Another disadvantage is when uninterpretable models, such as methods based on deep learning, are used. The lack of interpretability makes it difficult to use in critical decision-making situations, such as those that often exist in the clinical area [Hedderich & Eickhoff 2021],
  • At least some of the measurement data entries of the measurement data sets of the at least one learning data collection are grouped into several groups, whereby group sub-measurement data sets are obtained, the group sub-measurement data sets of a group each comprising mutually corresponding measurement data entries of different measurement data sets,
  • A3 a separate machine learning model is trained and tested for each group using a resampling method, resampling-based group learning model, whereby the resampling-based method includes that at least training with a part of the group belonging to the respective group Sub-measurement data sets and the associated target variables take place, and at least one testing takes place with another part of the group sub-measurement data sets belonging to the respective group, and where- in which at least one test provides predictions for different groups, group-specific predictions,
  • At least one further machine learning model, cross-group meta-learning model is trained with the group-specific predictions and target variables of the at least one learning data collection, in particular without using a resampling method, so that it provides a group-wide prediction from several group-specific predictions assigned to different groups can,
  • a further machine learning model is trained with group sub-measurement data sets belonging to the respective group (and associated target variables, in particular without using a resampling method, prediction group learning model, the training preferably being carried out with all of them group sub-measurement data records belonging to the respective group and associated target variables.
  • the learning models trained according to the invention can in particular be used to make at least one prediction for at least one new measurement data set for which there is no target variable.
  • MRI data of a patient's brain are available and group-specific, in particular parcel-specific brain age and a cross-parcel brain age are predicted for this patient.
  • Further possible application examples for the invention can be found in genetics, medical patient data, natural language processing and computer vision.
  • step A5 the training of non-resampling Based group learning models according to step A5) can also take place earlier, for example between steps A2) and A3) or at the same time as step A3).
  • the subject of the invention is therefore also a computer-implemented prediction method for predicting a property using machine learning models that were obtained by carrying out the training method according to the invention, in which
  • step A5 prediction group learning models trained according to step A5 and/or resampling-based group learning models trained according to step A2 and at least one cross-group meta-learning model trained according to step A4, in particular without using a resampling method, are provided,
  • step B3 the measurement data entries of the measurement data set provided in step B1 are grouped analogously to step A2, whereby a group sub-measurement data set is obtained for each group,
  • the group sub-measurement data sets are each fed to the associated prediction group learning models or the associated resampling-based group learning models and a group-specific prediction is received from these as output,
  • the group-specific predictions are fed to the at least one cross-group meta-learning model, which has been trained in particular without using a resampling method, and a cross-group prediction is received from this as output.
  • the steps of the prediction method according to the invention do not necessarily take place in the aforementioned order Need to become.
  • the learning models can also be made available after grouping.
  • the present invention provides a “divide and conquer” approach in which multiple levels of machine learning models are trained. As part of the prediction using the trained models, several levels are also passed through. The outputs of one level are used - during training and prediction - as inputs for the next, “higher” level.
  • the training data is divided into groups and, in particular in the first, “lowest” level (level 0), a machine learning model is introduced for each group and trained and tested using a resampling-based method, in other words group-specific learning models or group Learning models. These are trained and tested using a resampling-based method with the learning data.
  • different parts or sections of the measurement data sets are expediently assigned to different groups.
  • a division into two or more groups takes place, with one group being assigned a part of the measurement data entries of the measurement data sets and the other group or groups being assigned the other part(s) of the measurement data entries.
  • the grouping is such that corresponding parts or areas of the measurement data sets, i.e. corresponding measurement data entries, are each assigned to the same group.
  • a first group includes the first five measurement data entries of the measurement data sets, another group includes the next seven measurement data entries of all measurement data sets and so on. If the measurement data sets are given by image data are or include such, a group includes in particular the same image section of each measurement data set, i.e. each image or each recording.
  • the groups can exclude each other, in other words be disjoint, or overlap, i.e. include common measurement data entries.
  • the group sub-measurement records of different groups should be different from each other.
  • the groups can be flat or organized in a structure, such as a hierarchy. It is possible for all measurement data entries to be assigned to one or more groups or for this to only apply to some of the measurement data entries. It is also possible for only one measurement data entry or several measurement data entries to be assigned to a group. For example, one or more groups or each group can consist of exactly one measurement data entry.
  • a grouping predefined by a user or a grouping of the measurement data sets derived from the respective learning data collection, in particular the structure of the measurement data sets, preferably obtained by clustering, can be carried out.
  • the resampling method involves, in a manner known per se, dividing the data into a training and test part one or more times; one can also speak of training and test sets.
  • the training part the sub-measurement data sets and the associated target variables are then used to train the respective group learning model so that it can predict (further) target variables in the trained state.
  • machine learning models are trained for each group, in other words trained, using measurement data sets that are assigned to the respective group.
  • Each sub-measurement data set is part of a measurement data set and is therefore assigned or associated with it.
  • Each measurement data set is assigned a Traget variable, which can accordingly be assigned to the sub-measurement data set or considered to belong to the sub-measurement data set.
  • the sub-measurement data sets of the respective group belonging to the other part, the test part are then fed to the respective group learning model (without the corresponding, associated target variables) in order to receive predictions from it. This is also referred to as “out of sample” predictions. Training with one part and testing with another part of the data can be done multiple times in a manner known per se as part of resampling-based modeling. As a purely example, it should be mentioned that the measurement data sets are divided into two parts of the same or different sizes and trained with one part in a first pass and predicted with the other and swapped in a second pass, i.e. trained with the other part and tested with one part becomes.
  • At least one meta-model can then be trained using the group-specific predictions and the target variables of the learning data set. After training, the at least one meta-model is able to deliver a common, group-wide prediction as output based on several group-specific predictions as input.
  • a further machine learning model is trained for each group with group sub-measurement data sets belonging to the respective group and associated target variables, expediently without using a resampling method.
  • These models are also referred to here as prediction group learning models because they can be used primarily for the prediction method according to the invention.
  • a learning model without using a resampling method also includes learning models that were derived or summarized from previously trained resampling-based learning models. Examples include ensemble models made from models that were previously triaged based on resampling, for example by k-fold cross-validation.
  • a new instance sequentially goes through all levels of the stack, i.e. the trained machine learning models of all levels, and predictions are obtained for each level.
  • the final prediction from the last, highest level and the intermediate predictions from the previous level or levels can be used for interpreting and making decisions.
  • various types of predictions can be made within the scope of the training and prediction method according to the invention, for example predicted values or prediction probabilities or confidence.
  • the prediction target variables can accordingly be, for example, prediction values, prediction probabilities or even confidences or they can include such.
  • target variable can also be used as an alternative to the term target variable. Since the models at each level predict the outcome or target, the output of each level is more focused on the target than on any other information contained in the raw data, particularly the measurement data sets. In other words, by outputting target predictions or estimates, each level creates a more abstract representation of the data and thus reduces private information. This makes it possible to ensure a high degree of privacy, particularly when sharing or merging data across measuring locations, which represents an important advantage of the invention. The invention makes it possible to share less private data while at the same time obtaining more accurate models using data from multiple sites (“cross-site”).
  • resampling methods that can be used within the scope of the invention are bootstrapping and cross-validation, such as leave-one-out cross-validation or k-fold cross-validation.
  • cross-validation such as leave-one-out cross-validation or k-fold cross-validation.
  • a combination of different resampling methods can also be used, both within a level and across different levels.
  • the training of machine learning models within the scope of the present invention may further include tuning hyperparameters, whereby this applies to all learning models at all levels.
  • the predictions per brain parcel could be used to predict the target variable based on their predictions from Yeo et. al defined brain networks as a group.
  • This is a hierarchical structure in which each network consists of several parcels made up of several voxels.
  • not all voxels would conveniently be used as input since this brain parcellation scheme only considers cerebral cortex.
  • Now all unused voxels could remain unconsidered in the training process or, with the addition of other parcellation schemes, could also be used for further hierarchical or non-hierarchical modeling.
  • the machine learning models used in the context of the present invention can be of any type.
  • a user can freely choose which model or models he chooses for the different groups and levels.
  • the models can in particular include or be provided by one or more machine learning algorithms. Pure examples of machine learning algorithms are decision trees and support systems. called Tor Machines. If inherently interpretable models are chosen, the overall solution can be interpreted as such.
  • the different learning data sets belong to different patients and the learning data sets include medically relevant measurement data sets, in particular measurement data sets that were obtained using medical diagnostic methods, and the target variables include characteristics of the patients, in particular age and/or relate to or are caused by a disease state of the patient.
  • the measurement data sets can, for example, be provided by or include image recordings, in particular MRI image recordings, of human brains.
  • the grouping provided according to the invention can then take place in parcels, so that each group corresponds to a specific parcel with specific, expediently connected voxels.
  • the term voxel is made up of “volumetric” and “pixel” and, as is well known, corresponds to the 3D equivalent of a pixel.
  • the measurement data entries can then in particular be voxel-by-voxel measurements of MRI data, such as the gray cell volume, with the voxels of a specific brain parcel belonging to each group.
  • the target variables can be given, for example, by the age of the respective patient or even a disease status.
  • a patient's age or patient's medical status can be predicted.
  • a further embodiment is characterized in that the different learning data sets belong to different people and the measurement data sets are given by or include image recordings of at least part of the face and/or at least part of the body of the people, and the target variables are properties of the people relate to or are given by them.
  • the measurement data entries can then each correspond to or be assigned to a pixel. Furthermore, it can be provided that the characteristics of the people do not relate to a disease state of the person or are not given by a disease state of the person.
  • training can also include images of faces or parts of faces and/or the bodies or body parts of people. ns and characteristics of the people, such as age and/or gender.
  • the trained group-specific models and the meta-model or meta-models can be used to make predictions for a provided measurement data set, for example a recording of a person's face, for example the age and/or gender of the person to predict.
  • a grouping takes place according to certain areas or parts of the face (e.g. nose, eyes, ...) and/or body.
  • the different learning data sets may belong to different sections of the earth's surface and for the measurement data sets to be given by image recordings, in particular satellite images, of the earth's surface sections or to include such, and the target variable properties of the earth's surface sections, in particular the presence of certain elements, preferably the presence of fields and/or rivers and/or lakes, relate to or are given by them.
  • training can be carried out using satellite images of the earth's surface and certain landscape features associated with the section shown, such as the existence of fields, lakes, rivers, etc.
  • the trained group-specific models and the meta-model or meta-models can be used to make predictions for a new satellite image with unknown features, such as predicting whether it shows rivers, lakes and/or fields to name just a few examples of possible characteristics.
  • the grouping provided according to the invention, in this case it can in particular apply that a grouping takes place according to certain areas or parts of the image recordings.
  • segmentation can take place, in the context of which regions or areas that are preferably related in terms of content are determined and include neighboring pixels that meet a certain homogeneity criterion.
  • the segments obtained can then each represent a group or correspond to one.
  • the different learning data sets belong to different people and the measurement data sets are given or include information about the user behavior of the people, in particular on at least one website, and the target variables contain information about actions taken by the people, in particular, purchases made by people or are the result of this. These are expediently actions taken on the at least one website, such as purchases of products and/or services that are offered on the at least one website.
  • the information about the user behavior of the people included in the measurement data sets can include, for example, information about how long the people stayed on a website, in which area or areas of the website the people moved the mouse cursor and, in particular, for how long Mouse pointer stayed in the respective areas, and/or in which areas the people clicked with the mouse pointer.
  • training can take place with information about user behavior, especially on the Internet, and associated specific user actions, such as purchases.
  • the trained group-specific models and the meta-model or meta-models can be used to make predictions about actions or probabilities of actions, such as purchase probabilities for certain products and/or, based on data on the user behavior of at least one other person Services to meet.
  • a further exemplary embodiment is characterized in that the different learning data sets belong to different DNA sequences and/or protein sequences and/or gene expressions and the measurement data sets are given by or include information about the DNA sequences and/or protein sequences and/or gene expressions. It is then expediently a matter of information relating to the structure of the DNA sequences or protein sequences or gene expressions.
  • the information may include sequence-based features of DNA sequences and/or protein sequences or gene expression data.
  • the target variables then expediently relate to (other) features of the DNA sequences and/or protein sequences and/or gene expression data, in particular binding sites and/or protein-protein interactions and/or solvent properties of these, or are given thereby.
  • the trained group-specific models and the meta-model or meta-models can then be used, for example, to create binding sites or proteins based on information for a new DNA or protein sequence or gene expression data, in particular based on an associated measurement data set -Protein interactions and solvent properties can be predicted.
  • groups it is possible, for example, for groups to be defined using domain knowledge, such as known gene regions or interaction networks.
  • the measurement data for training can come from one or more measurement locations.
  • separate group learning models in other words measuring site-specific group learning models, can be introduced for each measuring location.
  • step A1 learning data collections from and in particular at different measurement locations are provided, the learning data collections each comprising several learning data sets with measurement data entries and associated target variables.
  • the invention offers a great advantage here, because the sharing or merging of data is possible at various of the intended levels, with the higher the level at which the sharing or merging takes place, the higher the privacy or data protection.
  • the lowest level i.e. the group-specific or group-wise predictions
  • no or at least only limited private information is contained, since their information content is only related to the prediction, in other words the predicted target. Accordingly, this data can be shared across measurement locations for training ML models and privacy can still be maintained.
  • Cross-site models can be introduced or obtained in various ways within the scope of the invention. For example, an intermediate fusion can occur in which predictions from the lowest level models are shared across measurement locations in order to train an ML model with the pooled data. It is also possible to carry out a “late merger”, in which predictions of the next higher level are only shared, resulting in a weighted aggregation ZEnsemble model. In all cases in which the predictions of the models are merged, be it at the lowest or higher levels, harmonization effects are achieved and privacy is increased.
  • An embodiment of the training method according to the invention is characterized in that in step A3, separate resampling-based measurement site-specific group learning models are trained and tested for each measurement location with the learning data sets belonging to the respective measurement location, the resampling method including at least one Training takes place with a part of the measurement location-specific group sub-measurement data sets and associated measurement location-specific target variables, and at least one testing takes place with another part of the measurement location-specific group sub-measurement data sets, and wherein the at least one testing for the respective measurement location makes predictions for different groups , measurement location and group-specific predictions.
  • the data from each measurement location can be processed independently of the data or data from other measurement locations, with the grouping according to the invention and the resampling-based training and testing to obtain the group-specific predictions taking place on a measurement location-by-measurement basis.
  • group-specific predictions for the individual measuring locations which are also referred to here as measuring location and group-specific predictions.
  • step A5 separate measurement location-specific prediction group learning models are trained for each measurement location, in particular without using a resampling method, the training preferably being carried out with all measurement location-specific group sub-measurement data sets and associated measurement location-specific target variables . Measurement location-specific prediction group learning models obtained in this way can be used in particular for later prediction.
  • step A4 the measurement location- and group-specific predictions and associated measurement location-specific target variables from different measurement locations can then be brought together and thus a merging measurement location- and group-wide meta-learning model can be trained, in particular without using a resampling method. This scenario corresponds to the intermediate data fusion mentioned above.
  • a resampling-based measurement location-specific cross-group meta-learning model is trained and tested for each measurement location, the resampling method including that at least one training with a part of the measurement location- and group-specific predictions and the associated measurement location-specific Target variables of the learning data collections take place, and at least one testing with another part of the measurement location- and group-specific predictions and the associated measurement location-specific target variables of the learning data collections takes place, and the at least one testing provides measurement location-specific group-wide predictions.
  • a cross-measurement location meta-learning model can then be trained, preferably without using a resampling method, so that it delivers a measurement location- and cross-group prediction from several measurement location-specific cross-group predictions can.
  • a measurement location-specific cross-group meta-learning model is trained for each measurement location, preferably without using a resampling method, the training being carried out with the measurement location and group-specific predictions and the associated measurement location-specific target variables of the respective learning data collection, preferably each with all measurement location and group-specific predictions and associated measurement location-specific target variables.
  • the non-resampling-based measurement site-specific cross-group meta-learning models obtained in this way can be used in particular for later prediction.
  • an additional learning data collection is provided from an additional measuring location that is different from the measuring locations, and that the measurement data entries of the measurement data sets of the additional learning data collection are grouped into several groups as provided in step A2, whereby additional group sub-measurement data sets are obtained the additional group sub-measurement data sets and the target variables of the additional learning data collection are each supplied to the measurement location-specific prediction group learning models belonging to the measurement locations, which are trained in particular without using a resampling method, and from these measurement location- and group-specific predictions are obtained, which measurement location- and group-specific predictions are fed to the measurement location-specific group-wide meta-learning models belonging to the measurement locations, which are trained in particular without using a resampling method, and measurement location-specific cross-group predictions are obtained from these, With the measurement location-specific cross-group predictions and the target variables of the additional learning data collection, an additional cross-measurement location meta-learning model is preferably trained without using a resampling method.
  • learning models are trained with data from a measurement location A and learning models are trained with the data from a measurement location B, thus obtaining measurement location-specific learning models for A and B. Then data from a third measuring location C is provided and the data from C is fed to both learning models belonging to measuring location A and learning models belonging to measuring location B and predictions are obtained. It should be emphasized that the scenario with measuring locations A, B and C is purely an example and of course a different number of measuring locations is also possible.
  • the trained measuring location-specific cross-group meta-learning model of at least one measuring location is supplied with measuring location and group-specific predictions of at least one other measuring location together with associated target variables and thereby measurement location-specific cross-group cross predictions are obtained.
  • all measurement location and group-specific predictions and associated target variables from the (each) other measurement location are supplied.
  • step B2 measurement location-specific prediction group learning models of different locations, which were obtained by carrying out the training method according to the invention, and/or resampling-based measurement location-specific group learning models of different locations, which were obtained by carrying out the training method according to the invention, and a merging meta-learning model across measurement locations and groups, which was obtained by carrying out the training method according to the invention, in particular without using a resampling method, are provided, the group subs obtained in step B3 -Measurement data sets in step B4 are fed to the measurement location-specific prediction group learning models or the resampling-based measurement location-specific group learning models at different measurement locations and measurement location- and group-specific predictions are obtained, the predictions of different measurement locations belonging to a group by a statistical method, in particular averaging, are combined with each other so that a
  • step B2 measurement location-specific prediction group learning models of different locations, which were obtained by carrying out the training method according to the invention, and / or resampling-based measurement location-specific group learning models of different locations, which were obtained by carrying out the training method according to the invention, and a merging meta-learning model across measurement locations and groups, which was obtained by carrying out the training method according to the invention, in particular without using a resampling method, are provided,
  • step B4 the group sub-measurement data sets obtained in step B3 are fed in step B4 to the measurement location-specific prediction group learning models or the resampling-based measurement location-specific group learning models n of the different measurement locations and measurement location- and group-specific predictions are obtained,
  • the measurement site- and group-specific predictions are fed to the unifying meta-learning model across measurement sites and groups, and thus measurement site-specific group-wide predictions are obtained for each measurement site,
  • the measurement location-specific cross-group predictions are combined with one another using a statistical method, in particular averaging, so that a measurement location- and group-wide prediction is obtained.
  • a further advantageous embodiment of the prediction method according to the invention is further characterized in that
  • step B2 measuring site-specific prediction group learning models of different locations, which were obtained by carrying out the training method according to the invention, and / or resampling-based measuring site-specific group learning models of different locations, which were obtained by carrying out the training method according to the invention and measuring site-specific cross-groups Meta-learning models, which were obtained by carrying out the training method according to the invention, in particular without using a resampling method, and a cross-measurement location meta-learning model, which was obtained by carrying out the training method according to the invention, in particular without using a resampling method, and/or an additional cross-measurement location meta-learning model, which was obtained by carrying out the training method according to the invention, in particular without using a resampling method, are provided,
  • step B4 the group sub-measurement data sets obtained in step B3 are fed in step B4 to the measurement location-specific prediction group learning models or the resampling-based measurement location-specific group learning models of the various measurement locations and measurement location- and group-specific predictions are obtained,
  • the measurement location- and group-specific predictions are fed to the respective measurement location-specific cross-group meta-learning model, and measurement location-specific cross-group predictions are obtained (for each measurement location,
  • This exemplary embodiment is particularly suitable for the case in which a late data fusion took place as part of the training, in which predictions of the model(s) of a higher level than the lowest level were combined or merged.
  • a further subject of the present invention is a computer program comprising instructions which, when executed on at least one computer, cause the at least one computer to carry out the steps of the training method according to the invention and/or the steps of the prediction method according to the invention.
  • the invention also relates to a computer-readable medium comprising instructions which, when executed on at least one computer, cause the at least one computer to carry out the steps of the training method according to the invention and/or the steps of the prediction method according to the invention.
  • At least some of the steps of the training method according to the invention and/or at least some of the steps of the prediction method according to the invention may be carried out in a cloud.
  • SaaS Software as a Service
  • TI means prediction method, comprising a computer with a data memory on which the computer program according to the invention is stored.
  • the device according to the invention comprises an MRI scanner device. This is trained and set up to create MRI images of a patient.
  • the device according to the invention has proven particularly useful for locally carrying out the training method and/or prediction method according to the invention.
  • Figure 1 shows a first exemplary embodiment of the computer-implemented training method according to the invention for the case that the learning data sets come from a measurement location, and a first exemplary embodiment of the computer-implemented prediction method according to the invention, which uses trained models that were obtained with the training method according to this figure ;
  • Figure 2 MRI images of human brains from the learning data collection from Figure 1 together with a purely schematic representation for grouping into brain parcels;
  • Figure 3 shows a second exemplary embodiment of the computer-implemented training method according to the invention for the case that the learning data sets come from two different measurement locations, and a second embodiment of the computer-implemented prediction method according to the invention, which uses trained models obtained with the training method according to this figure;
  • FIG. 4 shows a third exemplary embodiment of the computer-implemented prediction method according to the invention, which also uses trained models that were obtained using the training method according to FIG. 3;
  • Figure 5 shows a third exemplary embodiment of the computer-implemented training method according to the invention in the case that the learning data sets come from two different measurement locations, and a fourth exemplary embodiment of the computer-implemented prediction method according to the invention, which uses trained models obtained with the training method according to this figure became;
  • Figure 6 shows a fourth exemplary embodiment of the computer-implemented training method according to the invention for the case that the learning data sets come from three different measurement locations, and a fifth exemplary embodiment of the computer-implemented prediction method according to the invention, which uses trained models obtained with the training method according to this figure became.
  • FIG. 1 shows, in a purely schematic block representation, steps of a first exemplary embodiment of the computer-implemented training method Tr according to the invention. These are summarized in a frame labeled Tr. Below this is a further frame, designated Vo, within which the steps of a first corresponding exemplary embodiment of the computer-implemented prediction method according to the invention are shown, which uses machine learning models MG1, MG2, MM obtained with the training method according to FIG. In the figure, the use is also indicated schematically by dashed arrows.
  • Figures 3, 5 and 6 have a structure analogous to Figure 1, each with an exemplary embodiment of a training method according to the invention at the top and an exemplary embodiment of a prediction method according to the invention at the bottom, which uses models from the respective above method.
  • a learning data collection L with several learning data sets LDS is provided in a step A1.
  • Each learning data set LDS includes a measurement data set MDS with several measurement data entries ME and a target variable T assigned to the measurement data set MDS.
  • all learning data sets LDS have the same structure, in particular the same number of measurement data entries MDE each with one assigned target variable T.
  • the measurement data entries ME can also be referred to as features, which is indicated in the figure by the abbreviation F.
  • the LDS learning data sets are MRI or MRI image recordings of human brains from different patients of different ages. This is shown in Figure 2, the two shows four such recordings.
  • MRI stands for magnetic resonance imaging.
  • the MRI images were obtained in a well-known manner using a magnetic resonance imaging system, which is located, for example, in a hospital in which the patients were examined.
  • the patient age for example 42, 21, 53 and 78 years, is also shown in Figure 2 for the respective recording.
  • the measurement data entries MDE are given by the voxel-wise gray cell volume (English: voxelwise gray matter volume, voxel-wise GMV for short).
  • step A2 of the training method according to FIG. 1 the measurement data entries MDE of the measurement data sets MDS of the learning data collection L are grouped into several groups G1, G2.
  • group sub-measurement data sets GUM are obtained, the group sub-measurement data sets GUM of a group G1, G2 each comprising measurement data entries ME of different measurement data sets MDS that correspond to one another.
  • this is shown as an example for 2 groups G1, G2. It should be emphasized that grouping into a larger number of groups is of course possible and will usually occur.
  • brain parcels are grouped into brain parcellation schemes, also called brain atlases.
  • one parcel can be represented by the hippocampus and other parcels by other brain regions.
  • Another brain atlant is, for example, the Schaefer Atlas [Schaefer et al. 2018], In Figure 2 - purely schematically - two plots PA1, PA2 are shown in the front MRI image.
  • the one parcel PA1 on the right in FIG. 2 which corresponds to the first group G1
  • the second parcel PA2 on the left in FIG is to be understood.
  • MDS measurement data sets in this case MRI images of other patients of a different age, the grouping is carried out completely analogously.
  • the different learning data sets LDS belong to different people and the measurement data sets MDS are given by or include images of at least part of the face and / or at least part of the body of the people, and the target variables T properties of the affect people or are given by them. Then, for example, a grouping into different areas of the face or body can take place.
  • the different learning data sets LDS belong to different sections of the earth's surface and the measurement data sets MDS are given by images, in particular satellite images, of the earth's surface sections or include such, and the target variables T properties of the earth's surface sections, in particular the presence of certain Elements, for example the presence of fields and/or rivers and/or lakes, relate to or are given by them. Then it would be possible, for example, that a grouping takes place according to certain areas or parts of the image recordings.
  • the different learning data sets LDS belong to different people and the measurement data sets MDS include information about the user behavior of the people, in particular on at least one website, and the target variables T include information about actions taken by the people, in particular by the Purchases made by people concern or arise from this.
  • different areas of the at least one website can form or correspond to different groups, in other words, a grouping into different website areas or sections can take place.
  • the different LDS learning data sets belong to different DNA sequences and/or protein sequences and/or gene expressions and the MDS measurement data sets consist of information about the DNA sequences and/or protein sequences and/or gene expressions, in particular through the structure of these relevant information, is given or includes such, and the target variables T relate to characteristics of the DNA sequences and/or protein sequences and/or gene expression data, in particular binding sites and/or protein-protein interactions and/or solvent properties of these, or thereby given are. Then, for example, different DNA or gene areas can form or correspond to different groups.
  • step A3 a separate machine learning model is trained for each group G1, G2 using a resampling method tested.
  • This is also indicated schematically in Figures 1 and 2, in Figure 1 by the arrow RsB M, where the abbreviation stands for resampling-based modeling.
  • the model RsB MG1 is trained for group G1 and the model RsB MG2 is trained for group G2 (see Figure 2).
  • the user can freely choose which type of learning models are used.
  • the models include one or more machine learning algorithms, which can be, for example, decision trees and/or support vector machines. Inherently interpretable models are preferred.
  • the resampling-based method includes at least one training with a part of the group sub-measurement data sets GUM belonging to the respective group G1, G2 and the associated target variables T, and at least one testing with another part of the Group sub-measurement data sets GUM belonging to the respective group G1, G2 are carried out, and the at least one test provides predictions for different groups G1, G2, group-specific predictions.
  • the data is divided one or more times into a training and test part; one can also speak of training and test sets.
  • the data specifically the group sub-measurement data sets GUMs with associated target variables T, belonging to the respective group G1, G2, of some patients, for example half of the patients, are used as Training and the data GUMs of the remaining patients, i.e. the second half, are used as test sets and, for example, a cross-validation, such as a leave-one-out cross-validation or k-fold cross-validation, is used carried out.
  • a cross-validation such as a leave-one-out cross-validation or k-fold cross-validation
  • group-wise “out-of-sample” predictions P1, P2 for the patient age are then obtained. Since individual predictions P1, P2 are obtained for each group as a result of the group-by-group procedure, we also speak of group-specific predictions P1, P2. The data from the second half is then used for training and the data from the first half is used for testing, so that “out-of-sample” predictions P1, P2 are also obtained for the first half. With this procedure, group-specific predictions P1, P2 can be obtained in a number that corresponds to the number of measurement data sets MDS of the learning data collection L and thus to the total number of patients. However, this is by no means absolutely necessary.
  • a further machine learning model, cross-group meta-learning model MM is trained in step A4 without using a resampling method.
  • the group training can be referred to, for example, as LevelO training and the training of the meta-model MM as LeveH training.
  • step A5 training without using a resampling method of the meta-model MM is indicated with an arrow ML M.
  • the model MM can then deliver a group-wide prediction P from several group-specific predictions P1, P2 assigned to different groups G1, G2.
  • step A5 for each group G1, G2, a further machine learning model is trained without using a resampling method with group sub-measurement data sets GMU belonging to the respective group G1, G2 and associated target variables T, prediction group learning model MG1 , MG2, whereby the training here takes place with all group sub-measurement data sets GMU belonging to the respective group G1, G2 and associated target variables T, in other words here with the learning data set data of all patients.
  • this training is indicated purely schematically with another arrow ML M and to the right of this the prediction group learning models MG1, MG2.
  • the training of MG1 and MG2 can of course also take place before the training of the model MM, e.g. before, after or in parallel to the resampling-based training of RsB MG1 and RsB MG2.
  • the trained learning models MM and MG1, MG2 obtained can then be used to estimate the age of other patients based on the MRI images of other patients' brains.
  • a purchase probability can be predicted, for example, for a measurement data set MDS with information about the user behavior of another person.
  • At least one binding site or protein-protein interaction can be predicted for an MDS measurement data set, for example.
  • a measurement data set MDS with several measurement data entries MDE is provided for the prediction in a step B1.
  • step B2 prediction group learning models MG1, MG2 trained according to step A5 above and a cross-group meta-learning model MM trained according to step A4 above are provided.
  • the measurement data entries MDE of the provided measurement data set MDS are grouped in step B3 analogously to step A2, whereby a group sub-measurement data set GUM is obtained for each group.
  • step B4 the group sub-measurement data sets GUM are each fed to the associated prediction group learning models MG1, MG2 and from these a group-specific prediction P1, P2 is received as output.
  • the models RsB MG1, RsB MG2 can also be used alternatively or additionally (not additionally shown in Figure 1 below for reasons of clarity).
  • a patient age is obtained as a prediction P1, P2 for each group, i.e. each brain parcel, whereby the group-specific, i.e. parcel-specific ages can differ from one another.
  • step B5 the group-specific predictions for the age P1, P2 are fed to the group-wide meta-learning model MM and from this exactly one group-wide prediction P, in other words a patient age for the entire brain, is obtained as output.
  • Advantages of this approach include increased prediction accuracy, improved generalizability of model predictions and increased interpretability/explainability both at the model level and at the data point level. level.
  • Interpretability at the model level means that every trained model also provides out-of-sample predictions and thus prediction accuracy. This prediction accuracy can be interpreted as an importance measure for the predictive power of the MDE measurement data entries used by this model and thus of the groupings.
  • the interpretability at the data point level is ensured by the fact that the prediction accuracies of each model are checked for - even new - data points in the prediction process and can serve as an explanation for differences in the prediction accuracy of the entire prediction process for this data point. If the prediction accuracy of models with certain measurement data entries MDE or grouping as input is different than expected, this can provide information as to why the prediction of the entire prediction process is different than expected.
  • the computer-implemented training method according to the invention is particularly suitable in the event that learning data from or at different measurement locations are available.
  • An exemplary embodiment of such a cross-site scenario is shown purely schematically in FIG. Below we will particularly look at how the method in this case differs from that according to Figure 1. Regarding the remaining, consistent aspects, reference is made to the previous description.
  • FIG. 3 shows two measuring locations A, B and of course there can be more.
  • the different measurement locations A, B are given here by different hospitals, each of which has its own MRI system, by means of which the measurement data sets MDS of the learning data collections LA, LB were obtained for patients of known age.
  • Each of the two learning data collections LA, LB is similar in structure to the learning data collection L from FIG. 1, so that reference is also made to the above description in this regard.
  • step A3 separate resampling-based measurement location-specific group learning models are trained and tested for each and at each measurement location A, B with the LDS learning data sets belonging to the respective measurement location A, B.
  • the resampling method here also includes that at least one training with a part of the measurement location-specific group sub-measurement data sets GUM, i.e. belonging to the respective measurement locations A, B, and associated measurement location-specific target variables T, and at least one testing with another Part of the measurement site-specific group sub-measurement data sets GUM.
  • the testing then delivers - for the respective measuring location A, B - predictions for different groups, in other words measuring location and group-specific predictions AP1, AP2, BP1, BP2.
  • hatching is tilted to the left for measuring location A and to the right for measuring location B.
  • the predictions AP1, BP1 specific for measuring locations A or B and group G1 are correspondingly those hatched to the left and right and labeled P1.
  • Group G2 behaves analogously.
  • a cross-validation such as a leave-one-out cross-validation or k-fold cross-validation, can be carried out, with the only proviso that this is also done separately for the two measuring locations A, B.
  • a number of is determined in this way for each measuring location A, B Receive “out-of-sample” predictions that correspond to the number of measurement data sets MDS of the respective learning data collection LA, LB. Again, this is not mandatory.
  • step A5 separate measurement location-specific prediction group learning models MA1, MA2, MB1, MB2 are trained for each measurement location without using a resampling method, the training being carried out here with all measurement location-specific group sub-measurement data sets GUM and associated measurement location-specific target -Variables T takes place.
  • training the measurement location-specific prediction group learning models MA1, MA2, MB1, MB2 is optional.
  • step A4 the measurement location and group-specific predictions AP1, AP2, BP1, BP2 and associated measurement location-specific target variables T from the two different measurement locations A, B are merged (“data pooling”) and with these data from both measurement locations A, B A non-resampling-based merging meta-learning model MA+B trained across measurement locations and groups.
  • the merging of the measurement location and group-specific predictions AP1, AP2, BP1, BP2 and associated measurement location-specific target variables T can be done, for example, by measurement location A passing its predictions AP1, AP2 and target variables T to measurement location B or vice versa.
  • both measuring locations A, B can also transfer the data to a third party, which then uses it together for training.
  • Data from different measurement locations are usually heterogeneous.
  • the training method according to Figure 3 enables harmonization here, since the predictions of measurement location-specific group learning models are focused on the target variable itself and not on the measurement location-specific associations between the measurement data entries MDE and the target variable T. For example, if the intensity of each brain parcel is higher for measurement location A than in measurement location B, this would lead to different measurement location-dependent representations using normal data pooling methods, such as determining the arithmetic mean.
  • step B2 the obtained measurement location-specific prediction group learning models MA1, MA2, MB1, MB2 (alternatively or additionally the measurement location-specific prediction group learning models MA1, MA2, MB1, MB2, which is not additionally shown in Figure 3 for reasons of clarity ) and the resulting unifying meta-learning model MA+B across measurement locations and groups.
  • the group sub-measurement data sets GUM of the measurement data set MDS provided in step B1 are fed to the measurement location-specific prediction group learning models MA1, MA2, MB1, MB2 in step B4.
  • the group sub-measurement data sets GUM are fed to both the prediction group learning models MA1, MA2 from measurement location A and the prediction group learning models MB1, MB2 from measurement location B, so that for each measurement location A, B measurement location and group-specific Predictions P1, P2 are obtained (also hatched accordingly).
  • a predicted patient age is obtained for each group, i.e. each brain parcel, once using the models MA1, MA2 trained with the data LA from measurement location A and once using the models MB1, MB2 trained with the data LB from measurement location B .
  • the predictions AP1, AP2, BP1, BP2 of the two different measuring locations A, B, each belonging to a group G1, G2, are combined with one another using a statistical method, in the present case by forming their mean value, so that exactly one group-specific prediction P1, P2 across measuring locations is created for each group will receive.
  • the average of AP1 and BP1 and the average of AP2 and BP2 are formed.
  • the (only) group-specific predictions P1, P2 obtained by averaging are fed to the non-resampling-based merging meta-learning model MA+B across measurement locations and groups, and this produces a prediction P across measurement locations and groups - in the present example, again a patient age - receive.
  • Figure 4 shows a further exemplary embodiment of a prediction method according to the invention, which uses learning models that are obtained according to the training method from Figure 3, i.e. using cross-site data became.
  • the difference is that no mean value is formed from the measurement location and group-specific predictions AP1, AP2, BP1, BP2, but rather these measurement location-by-measurement locations are fed to the unifying measurement location- and group-wide meta-learning model MA+B, so that measurement location-specific cross-group predictions are made
  • Predictions PA, PB are obtained. These are then combined with one another using a statistical method, in particular averaging, so that a prediction P across measuring locations and groups is obtained from PA and PB.
  • Figure 5 shows a further exemplary embodiment of a computer-implemented training method according to the invention for the cross-site case.
  • the difference from the example according to FIG. 3 is essentially that data from the two different measurement locations A, B are merged at a later point in time.
  • a resampling-based measurement location-specific cross-group meta-learning model is then trained and tested for each measurement location, whereby the resampling method includes training with at least a part of the measurement location and group-specific predictions AP1, AP2, BP1, BP2 and the associated measurement location-specific target variables T of the learning data collections LA, LB takes place, and at least one testing with another part of the measurement location and group-specific predictions AP1, AP2, BP1, BP2 and the associated measurement location-specific ones Target variables T of the learning data collections LA, LB takes place, and the at least one test provides measurement site-specific group-wide predictions PA, PB.
  • a non-resampling-based measuring site-specific cross-group meta-learning model MA, MB is trained for each measuring location A, B, the training being carried out with the measuring location and group-specific predictions AP1, AP2, BP1, BP2 and the associated measurement site-specific target variables T of the respective learning data collection LA, LB, preferably with all measurement site and group-specific predictions AP1, AP2, BP1, BP2 and associated measurement site-specific target variables T.
  • the trained, non-resampling-based measurement site-specific cross-group meta-learning models MA, MB are supplied with measurement site and group-specific predictions of the other measurement location A, B along with the associated target variables T, thereby obtaining measurement site-specific cross-group cross predictions PAB, PBA.
  • model MA is fed the predictions BP1 and BP2 and receives the predictions PAB
  • model MB is fed the predictions AP1 and AP2 and receives the predictions PBA.
  • the predictions PAB are accordingly those that were obtained using a model belonging to measuring location A and data from measuring location B and vice versa for PBA.
  • a non-resampling-based cross-measurement meta-learning model MA_B is then trained using the measurement location-specific cross-group predictions PA, PB and the measurement location-specific cross-group cross predictions PAB, PBA and the corresponding target variables T of the learning data collections LA, LB, so that it consists of several measurement site-specific cross-group predictions PA, PB can provide a measurement site- and group-wide prediction P.
  • FIG. 5 An associated exemplary embodiment of a computer-implemented prediction method according to the invention is shown in Figure 5 below. This agrees with those according to Figures 3 and 4 until the measurement location and group-specific predictions AP1, AP2, BP1, BP2 are received. However, the non-resampling-based measurement location-specific cross-group meta-learning models MA, MB are then used. Specifically, the group-specific predictions of the associated measurement location A, B are fed to these, i.e. the trained model MA receives the predictions AP1 and AP2 and the model MB receives the predictions BP1 and BP2.
  • the group-wide measurement site-specific prediction PA is obtained from the model MA and the group-wide measurement site-specific prediction PB is obtained from the model MB (one patient age from each measurement site-specific model). These predictions PA, PB are then fed to the non-resampling-based cross-location meta-learning model MA_B, which delivers the prediction P, in this case a patient age.
  • Figure 6 shows a further exemplary embodiment of a cross-site scenario.
  • an additional learning data collection LC from an additional measuring location C that is different from the measuring locations A and B is used.
  • steps of the training method from FIG. 5 must be completed, namely at least those to obtain the models MA1, MA2, MB1, MB2 as well as MA and MB, each using the corresponding learning data collections LA or LB.
  • the measurement data entries MDE of the measurement data sets MDS of the additional learning data collection are then grouped. LC into multiple groups G1, G2 as provided in step A2, thereby obtaining additional group sub-measurement data sets GUM.
  • the additional group sub-measurement data sets GUM and the target variables T of the additional learning data collection LC are then each supplied to the trained, non-resampling-based measurement location-specific group learning models MA1, MA2, MB1, MB2 belonging to the measurement locations A and B and are used by them measurement location and group-specific predictions, namely AP1, AP2 on the one hand and BP1, BP2 on the other hand.
  • the measurement location- and group-specific predictions AP1, AP2, BP1, BP2 are each fed to the trained, non-resampling-based measurement location-specific cross-group meta-learning models MA, MB belonging to the measurement locations A, B and from these measurement location-specific cross-group predictions PA, PB are obtained.
  • This is to a certain extent analogous to Figure 5, but with the proviso that AP1, AP2, BP1, BP2 are obtained with the models MA1, MA2, MB1, MB2, but not using data from these measurement locations A, B, but from independent measuring location C.
  • a non-resampling-based additional cross-measurement meta-learning model MA_Bc is then trained using the measurement location-specific cross-group predictions PA, PB and the corresponding target variables T of the additional learning data collection LC from measurement location C.
  • a corresponding exemplary embodiment of an associated computer-implemented prediction method corresponds to the example from FIG. 5, with the only proviso that to obtain P the non-resampling-based additional cross-measurement location meta- Learning model MA_Bc is used.
  • Such a system offers many advantages for federation-learning based collaborations between multiple work groups.
  • a scenario can be mentioned in which measuring site/hospital A and measuring site/hospital B use the same training procedure internally in order to then share predictions on measuring site C with each other or a third party, e.g. researchers. This means that neither the trained models nor the raw data need to be shared with each other. This allows maximum protection for the security and privacy of data from measurement locations A and B.
  • Measurement location C can be a data set that is accessible to all parties or even publicly. This means that both private and publicly shared, large and small data sets can be used ideally.
  • An example of such a now more usable large-scale data set is the UK Biobank (UKB) [Sudlow et al. 2015], Of course, this exact scenario is just an example and the use of a different number of both private and shared data sets from different measurement locations is possible.
  • the steps of the above-described exemplary embodiments of both training and prediction methods according to the invention can each be carried out using at least one computer.
  • One or more computer programs with program code means can be used which, when executed on at least one computer, cause the at least one computer to carry out the above steps.
  • the use of a (private and/or public) cloud is also possible.
  • Hedderich & Eickhoff 2021 Hedderich, D.M., and Eickhoff, S.B. (2021).
  • Yeo et al. 2011 Yeo, B.T.T., Krienen, F.M., Sepulcre, J., Sabuncu, M.R., Lashkari, D., Hollinshead, M., Roffman, J.L., Smoller, J.W., Zöllei, L., Polimeni, J.R., et al . (2011).
  • the organization of the human cerebral cortex estimated by intrinsic functional connectivity. J. Neurophysiol. 106, 1125-1165

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

Computerimplementiertes Trainings-Verfahren zum Trainieren maschineller Lernmodelle, bei dem A1) eine Lerndatensammlung (L, LA, LB, LC) mit Lerndatensätzen (LDS) bereitgestellt wird, wobei jeder Lerndatensatz (LDS) einen Messdatensatz (MDS) mit Messdaten-Einträgen (MDE) und eine Target-Variable (T) umfasst, A2) eine Gruppierung der Messdaten-Einträge (MDE) der Messdatensätze (MDS) der wenigstens einen Lerndatensammlung (L, LA, LB, LC) in mehrere Gruppen (G1, G2) erfolgt, A3) für jede Gruppe (G1, G2) ein eigenes maschinelles Lernmodell unter Nutzung einer Resampling-Methode trainiert und getestet wird, und wenigstens ein Testen mit einem anderen Teil der zu der jeweiligen Gruppe (G1, G2) gehörenden Gruppen-Unter-Messdatensätze, und wobei das Testen Vorhersagen für verschiedene Gruppen, gruppenspezifische Vorhersagen (P1, P2, AP1, AP2, BP1, BP2) liefert, A4) mit den gruppenspezifischen Vorhersagen (P1, P2, AP1, AP2, BP1, BP2) und Target-Variablen (T) wenigstes ein weiteres maschinelles Lernmodell, gruppenübergreifendes Meta-Lernmodell (MM, MA+B, MA_B), trainiert wird, so dass es aus mehreren, verschiedenen Gruppen (G1, G2) zugeordneten gruppenspezifischen Vorhersagen (P1, P2, AP1, AP2, BP1, BP2) eine gruppenübergreifende Vorhersage (P) liefern kann. Die Erfindung betrifft ferner ein computerimplementiertes Vorhersage-Verfahren zur Vorhersage einer Eigenschaft unter Nutzung maschineller Lernmodelle, ein Computerprogramm, ein computerlesbares Medium und eine Vorrichtung.

Description

Beschreibung
Computerimplementiertes Trainings-Verfahren, computerimplementiertes Vorhersage-Verfahren, Computerprogramm, computerlesbares Medium und Vorrichtung
Die Erfindung betrifft ein computerimplementiertes Trainings-Verfahren zum Trainieren maschineller Lernmodelle, bei dem
A1) wenigstens eine Lerndatensammlung mit mehreren Lerndatensätzen bereitgestellt wird, wobei jeder Lerndatensatz einen Messdatensatz mit mehreren Messdaten-Einträgen und eine dem Messdatensatz zugeordnete Target-Variable umfasst, bevorzugt, wobei alle Lerndatensätze den gleichen Aufbau aufweisen.
Die Erfindung betrifft ferner ein computerimplementiertes Vorhersage- Verfahren zur Vorhersage einer Eigenschaft unter Nutzung maschineller Lernmodelle, ein Computerprogramm, ein computerlesbares Medium und eine Vorrichtung.
Künstliche Intelligenz und maschinelles Lernen (ML) entwickeln sich zu einem wichtigen Werkzeug in der Analyse von Daten, beispielsweise Bilddaten [Myszczynska et al. 2022], Rein beispielhaft seien Bilddaten menschlicher Gehirne genannt, die durch Magnetresonanztomographie, kurz MRT (englisch: Magnetic Resonance Imaging, kurz MRI) erhalten wurden. Es existieren jedoch diverse Herausforderungen, welche die Anwendung von ML- Verfahren erschweren. Eine große Herausforderung, vor allem im klinischen Bereich, ist die Verfügbarkeit von nur vergleichsweise wenig Daten am jeweiligen Messort, beispielsweise Krankenhaus, an dem MRT-Aufnahmen ge- macht werden. Da in der Regel große Mengen von Trainingsdaten nötig sind, um genaue ML-Modelle aufzubauen, ist eine übliche Vorgehensweise, die Datenmenge zu erhöhen, indem Daten, die an verschiedenen Messorten erhalten wurden, zusammenführt. Multi-Messort Daten-Pooling ist jedoch ebenfalls mit Herausforderungen verbunden.
Einerseits wird eine Harmonisierung erforderlich, da die Daten verschiedener Standorte heterogen sind, insbesondere systematische Unterschiede zwischen den genutzten Messaufbauten, im Falle von MRT-Bildern etwa Scannern, sowie den Datensammel-Parametern existieren [Chen 2021 , Mali et al]. Das Pooling macht daher eine zusätzliche Verarbeitung erforderlich, was durch den Aufbau von Daten-Harmonisierungs-Modellen erzielt wird.
Selbst wenn Standard-Vorsichtsmaßnahmen, wie etwa die Pseudonymisie- rung von Bildern, eingehalten werden, kann ferner das standortübergreifende Teilen sensitiver Daten zu einer Reduktion der Patienten-Privatsphäre führen, da Fingerabdruck-artige Eigenschaften der Daten für eine Re- Identifikation genutzt werden können [Finn 2015, Larabi 2021], Derzeit werden verschiedene Verfahren, wie etwa das “Defacing“ von MRT-Bildern verwendet, um die Patienten-Privatsphäre zu erhöhen. Föderales Lernen (Federated Learning, kurz FL) wird verwendet, um den Datenschutz zu erhöhen [Kaissis et al. 2020],
Die bestehenden Lösungen haben verschiedene Beschränkungen bzw. Nachteile.
Beim standortübergreifenden Daten-Pooling benötigen die Harmonisierungsmodelle für das Training in der Regel einige prototypische Daten vom jeweiligen Messort. Dies schränkt die Anwendbarkeit, was neue Messorte angeht, für die keine prototypischen Daten verfügbar sind, ein. Eine Harmo- nisierung kann ferner problematisch sein, was den Datenschutz angeht, insbesondere, wenn Rohdaten zusammengeführt werden. Dezentrales Lernen, z. B. föderiertes Lernen, kann zu Modellen mit geringerer Genauigkeit führen. Ein weiterer Nachteil besteht, wenn nicht interpretierbare Modelle, beispiels- wiese auf Deep Learning basierende Methoden, genutzt werden. Der Mangel an Interpretierbarkeit macht die Nutzung für kritische Entscheidungssituationen, wie sie z.B. im klinischen Bereich oftmals bestehen, schwierig [Hed- derich & Eickhoff 2021],
Ausgehend davon ist es eine Aufgabe der vorliegenden Erfindung, eine Möglichkeit zu schaffen, besonders zutreffende Vorhersagen bei gleichzeitig besonders hohem Maß an Privatsphäre bzw. Datenschutz zu erhalten, dies auch unter Nutzung von Daten verschiedener Messorte.
Bei einem computerimplementierten Trainings-Verfahren der eingangs genannten Art wird dies dadurch gelöst, dass
A2) eine Gruppierung zumindest eines Teils der Messdaten- Einträge der Messdatensätze der wenigstens einen Lerndatensammlung in mehrere Gruppen erfolgt, wodurch Gruppen-Unter- Messdatensätze erhalten werden, wobei die Gruppen-Unter- Messdatensätze einer Gruppe jeweils zueinander korrespondierende Messdaten-Einträge verschiedener Messdatensätze umfassen,
A3) für jede Gruppe ein eigenes maschinelles Lernmodell unter Nutzung einer Resampling-Methode trainiert und getestet wird, Resampling-basiertes Gruppen-Lernmodell, wobei die Resampling- basierte Methode einschließt, dass wenigstens ein Trainieren mit einem Teil der zu der jeweiligen Gruppe gehörenden Gruppen-Unter- Messdatensätze und den zugehörigen Target-Variablen erfolgt, und wenigstens ein Testen mit einem anderen Teil der zu der jeweiligen Gruppe gehörenden Gruppen-Unter-Messdatensätze erfolgt, und wo- bei das wenigstens eine Testen Vorhersagen für verschiedene Gruppen, gruppenspezifische Vorhersagen liefert,
A4) mit den gruppenspezifischen Vorhersagen und Target- Variablen der wenigstens einen Lerndatensammlung wenigstes ein weiteres maschinelles Lernmodell, gruppenübergreifendes Meta- Lernmodell, insbesondere ohne Nutzung einer Resampling-Methode trainiert wird, so dass es aus mehreren, verschiedenen Gruppen zugeordneten gruppenspezifischen Vorhersagen eine gruppenübergreifende Vorhersage liefern kann,
A5) optional für jede Gruppe ein weiteres maschinelles Lernmodell mit zu der jeweiligen Gruppe gehörenden Gruppen-Unter- Messdatensätzen (und zugehörigen Target-Variablen insbesondere ohne Nutzung einer Resampling-Methode trainiert wird, Vorhersage- Gruppen-Lernmodell, wobei das Training bevorzugt mit allen zu der jeweiligen Gruppe gehörenden Gruppen-Unter-Messdatensätze und zugehörigen Target-Variablen erfolgt.
Die erfindungsgemäß trainierten Lernmodelle können insbesondere genutzt werden, um für wenigstens einen neuen Messdatensatz, zu dem keine Target-Variable vorliegt, wenigstens eine Vorhersage zu treffen. Rein beispielhaft sei genannt, dass MRT-Daten des Gehirns eines Patienten vorliegen und für diesen gruppen-, insbesondere parzellenspezifische Gehirnalter und ein parzellenübergreifendes Gehirnalter vorhergesagt werden. Weitere mögliche Anwendungsbeispiele für die Erfindung finden sich in der Genetik, medizinischen Patientendaten, Natural Language Processing und Computer Vision.
Es sei betont, dass die Schritte des erfindungsgemäßen Trainings- Verfahrens nicht zwingend in der vorgenannten Reihenfolge durchlaufen werden müssen. Insbesondere kann das Training der nicht Resampling- basierten Gruppen-Lernmodelle gemäß Schritt A5) auch früher, z.B. zwischen Schritt A2) und A3) oder gleichzeitig mit Schritt A3) erfolgen.
Gegenstand der Erfindung ist daher auch ein computerimplementiertes Vorhersage-Verfahren zur Vorhersage einer Eigenschaft unter Nutzung maschineller Lernmodelle, die unter Durchführung des erfindungsgemäßen Trainings-Verfahrens erhalten wurden, bei dem
B1) ein Messdatensatz mit mehreren Messdaten-Einträgen bereitgestellt wird,
B2) gemäß Schritt A5 trainierte Vorhersage-Gruppen-Lernmodelle und/oder gemäß Schritt A2 trainierte Resampling-basierte Gruppen-Lernmodelle und wenigstens ein gemäß Schritt A4 insbesondere ohne Nutzung einer Resampling-Methode trainiertes gruppenübergreifendes Meta-Lernmodell bereitgestellt werden,
B3) die Messdaten-Einträge des in Schritt B1 bereitgestellten Messdatensatzes analog zu Schritt A2 gruppiert werden, wodurch für jede Gruppe ein Gruppen-Unter-Messdatensatz erhalten wird,
B4) die Gruppen-Unter-Messdatensätze jeweils den zugehörigen Vorhersage-Gruppen-Lernmodellen oder den zugehörigen Resampling-basierten Gruppen-Lernmodellen zugeführt werden und von diesen als Ausgabe jeweils eine gruppenspezifische Vorhersage erhalten wird,
B5) die gruppenspezifischen Vorhersagen dem wenigstens einen insbesondere ohne Nutzung einer Resampling-Methode trainierten gruppenübergreifenden Meta-Lernmodell zugeführt werden und von diesem als Ausgabe eine gruppenübergreifende Vorhersage erhalten wird.
Es sei betont, dass die Schritte des erfindungsgemäßen Vorhersage- Verfahrens nicht zwingend in der vorgenannten Reihenfolge durchlaufen werden müssen. Beispielsweise können die Lernmodelle auch im Anschluss an die Gruppierung bereitgestellt werden.
Die vorliegende Erfindung sieht mit anderen Worten einen „Divide-and- conquer“-Ansatz vor, bei dem mehrere Level von maschinellen Lernmodellen trainiert werden. Im Rahmen der Vorhersage unter Nutzung der trainierten Modelle werden auch mehrere Level durchlaufen. Die Ausgaben eines Levels werden - bei Training und Vorhersage - jeweils als Eingaben für das nächste, „höhere“ Level genutzt.
Erfindungsgemäß erfolgt eine Gruppenaufteilung der Trainingsdaten und es wird, insbesondere im ersten, „niedrigsten“ Level (Level 0), ein maschinelles Lernmodell für jede Gruppe eingeführt und unter Nutzung einer Resampling- basierten Methode trainiert und getestet, mit anderen Worten gruppenspezifische Lernmodelle oder Gruppen-Lernmodelle. Diese werden unter Nutzung einer Resampling-basierten Methode mit den Lerndaten trainiert und getestet.
Im Rahmen der Gruppierung werden zweckmäßiger Weise jeweils verschiedene Teile bzw. Abschnitte der Messdatensätze verschiedenen Gruppen zugeordnet. Rein beispielhaft sei genannt, dass eine Unterteilung in zwei oder mehr Gruppen erfolgt, wobei einer Gruppe jeweils ein Teil der Messdaten- Einträge der Messdatensätze zugeordnet wird und der oder den anderen Gruppen jeweils (der) andere Teil(e) der Messdaten-Einträge. Die Gruppierung ist derart, dass korrespondierende Teile bzw. Bereiche der Messdatensätze, also korrespondierende Messdaten-Einträge, jeweils der gleichen Gruppe zugeordnet werden. Beispielhaft sei genannt, dass eine erste Gruppe die ersten fünf Messdaten-Einträge der Messdatensätze umfasst, eine weitere Gruppe die nächsten sieben Messdaten-Einträge aller Messdatensätze und so weiter. Wenn die Messdatensätze durch Bilddaten gegeben sind oder solche umfassen, gehört zu einer Gruppe insbesondere der gleiche Bildausschnitt jedes Messdatensatzes, also jedes Bildes bzw. jeder Aufnahme.
Die Gruppen können einander ausschließen, mit anderen Worten disjunkt sein, oder sich auch überlappen, also gemeinsame Messdaten-Einträge umfassen. Die Gruppen-Unter-Messdatensätze verschiedener Gruppen sollten sich voneinander unterscheiden. Die Gruppen können flach sein oder auch in einer Struktur, beispielsweise einer Hierarchie, organisiert sein. Es ist sowohl möglich, dass alle Messdaten-Einträge jeweils einer oder mehreren Gruppen zugeordnete werden als auch, dass dies nur für einen Teil der Messdaten- Einträge gilt. Weiterhin ist es möglich, dass einer Gruppe nur ein Messdaten- Eintrag oder mehrere Messdaten-Einträge zugeordnet werden. Beispielhaft kann eine oder können mehrere oder kann jede Gruppe aus genau einem Messdaten-Eintrag bestehen.
Es kann beispielsweise eine von einem Benutzer vordefinierte Gruppierung oder eine von der oder der jeweiligen Lerndatensammlung, insbesondere der Struktur der Messdatensätze, abgeleitete, bevorzugt durch Clusterbildung erhaltene Gruppierung der Messdatensätze vorgenommen wird.
Die Resampling-Methode schließt in an sich bekannter Weise mit ein, dass ein oder mehrmals eine Unterteilung der Daten in einen Trainings- und Testteil erfolgt, man kann auch von Trainings- und Test-Sets sprechen. Von dem einen Teil, dem Trainingsanteil, werden die Unter-Messdatensätze nebst zugehörigen Target-Variablen dann genutzt, um das jeweilige Gruppen- Lernmodell zu trainieren, so dass es im trainierten Zustand (weitere) Target- Variablen Vorhersagen kann. Auf diese Weise werden maschinelle Lernmodelle für jede Gruppe angelernt, mit anderen Worten trainiert, wobei jeweils Messdatensätzen genutzt werden, die der jeweiligen Gruppe zugeordnet sind. Jeder Unter-Messdatensatz ist Teil eines Messdatensatzes und somit diesem zugeordnet bzw. zugehörig. Jedem Messdatensatz ist eine Traget-Variable zugeordnet, die entsprechend als auch dem Unter-Messdatensatz zugeordnet bzw. zu dem Unter- Messdatensatz gehörig erachtet werden kann.
Die zum anderen Teil, dem Testanteil, gehörigen Unter-Messdatensätzen der jeweiligen Gruppe werden anschließend (ohne die entsprechenden, zugehörigen Target-Variablen) dem jeweiligen Gruppen-Lernmodell zugeführt, um von diesem Vorhersagen zu erhalten. Man spricht auch von „out of sample“- Vorhersagen. Das Trainieren mit einem Teil und Testen mit einem anderen Teil der Daten kann im Rahmen des Resampling-basierten Modellierens in an sich bekannter Weise mehrfach erfolgen. Rein beispielhaft sei genannt, dass die Messdatensätze in zwei gleich oder auch verschieden große Teile aufgeteilt und in einem ersten Durchgang mit dem einen Teil trainiert und mit dem anderen vorhergesagt und in einem zweiten Durchgang getauscht, also mit dem anderen Teil trainiert und dem einen Teil getestet wird. So kann man eine Anzahl von „out of sample“ Vorhersagen erhalten, die der Gesamtanzahl der Messdatensätze entspricht, wobei dies keineswegs zwingend erforderlich ist, sondern nur eine Option darstellt. Da das Resampling-basierte Modellieren erfindungsgemäß für jede Gruppe geschieht, erhält man gruppenspezifische Vorhersagen.
Mit den gruppenspezifischen Vorhersagen und den Target-Variablen des Lerndatensatzes kann dann wenigstens ein Meta-Modell trainiert werden. Das wenigstens eine Meta-Modell ist nach dem Training in der Lage, auf Basis mehrerer gruppenspezifischer Vorhersagen als Input eine gemeinsame, gruppenübergreifende Vorhersage als Output zu liefern. Optional wird in Schritt A5 für jede Gruppe ein weiteres maschinelles Lernmodell mit zu der jeweiligen Gruppe gehörenden Gruppen-Unter- Messdatensätzen und zugehörigen Target-Variablen zweckmäßiger Weise ohne Nutzung einer Resampling-Methode trainiert. Diese Modelle werden vorliegend auch als Vorhersage-Gruppen-Lernmodelle bezeichnet, da sie vor allem für das erfindungsgemäße Vorhersage-Verfahren genutzt werden können. Hierbei schließt ein Lernmodell ohne Nutzung einer Resampling- Methode auch Lernmodelle mit ein, die aus zuvor trainierten Resampling basierten Lernmodellen abgeleitet oder zusammengefasst wurden. Beispielhaft seien auch Ensemble-Modelle aus Modellen, die zuvor Resampling basiert, z.B. durch k-Fold Kreuz-Validierung, träniert wurden, genannt.
Zur Vorhersage-Zeit durchläuft eine neue Instanz nacheinander alle Level des Stapels bzw. Stacks, also die trainierten maschinellen Lernmodelle aller Level, und es werden Vorhersagen für jedes Level erhalten. Die finale Vorhersage aus dem letzten, höchsten Level und die intermediären Vorhersagen aus dem oder den vorangegangenen Leveln können für die Interpretation und das Treffen von Entscheidungen genutzt werden.
Prinzipiell können verschiedenen Arten von Vorhersagen im Rahmen des erfindungsgemäßen Trainings- sowie Vorhersage-Verfahrens getroffen werden, beispielsweise vorhergesagte Werte oder Vorhersage- Wahrscheinlichkeiten oder Konfidenz. Bei den Vorhersage-Target-Variablen kann es sich entsprechend beispielsweise um Vorhersage-Werte, Vorhersage-Wahrscheinlichkeiten oder auch Konfidenzen handeln bzw. sie können solche umfassen. Es sei angemerkt, dass alternativ zu dem Begriff Target- Variable auch der Ausdruck Zielvariable verwendet werden kann. Da die Modelle in jedem Level das Ergebnis bzw. das Target Vorhersagen, ist die Ausgabe jedes Levels mehr auf das Target ausgerichtet als auf jegliche andere Information, die in den Rohdaten, insbesondere den Messdatensätzen, enthalten sind. Mit anderen Worten erzeugt jedes Level durch das Ausgeben von Target-Vorhersagen bzw. -Schätzungen eine abstraktere Repräsentation der Daten und reduziert somit private Informationen. Dies macht es möglich, insbesondere bei dem messortübergreifenden Teilen bzw. Zusammenführen von Daten ein hohes Maß an Privatsphäre zu gewährleisten, was einen wichtigen Vorteil der Erfindung darstellt. Die Erfindung ermöglicht es, weniger private Daten zu teilen, wobei gleichzeitig genauere Modelle unter Nutzung von Daten mehrerer Standorte („Cross-Site“), erhalten werden können.
Rein beispielhaft für Resampling-Methoden, die im Rahmen der Erfindung genutzt werden können, seien das Bootstrapping und die Kreuz-Validierung, etwa die Leave-One-Out-Kreuz-Validierung bzw. die k-Fold-Kreuz- Validierung, genannt. Natürlich kann auch eine Kombination verschiedener Resampling-Methoden zum Einsatz kommen, sowohl innerhalb eines Levels als auch über verschiedene Level betrachtet.
Das im Rahmen der vorliegenden Erfindung erfolgende Training maschineller Lernmodellen kann ferner das Tunen von Hyperparametern umfassen, wobei dies für sämtliche Lernmodelle in allen Leveln gilt.
Als besonders geeignet hat es sich erwiesen, wenn im Rahmen der vorliegenden Erfindung zwei, drei oder vier Level bzw. Lagen maschineller Lernmodelle vorgesehen sind. Man kann auch von einem Stack mit zwei, drei oder vier Leveln sprechen. Es ist aber auch keineswegs ausgeschlossen, dass mehr Level genutzt werden. Es kann insbesondere eine Anzahl von Leveln bzw. Lagen des Stacks vorgesehen werden, die an die Gruppierung angepasst ist. Level können auch hierarchisch organisiert sein. Rein beispielhaft sei die hierarchische Strukturierung von Gehirn-MRT Daten anhand des Gehirn-Parzellierungs-Schemas von Yeo et al. (2011) genannt. Hier wäre es möglich, zuerst in Level 1 die Voxel anhand ihrer Gehirn- Parzellierungen als Gruppierung zum Modellieren der Target-Variable zu nutzen. In Level 2 könnten die Vorhersagen pro Gehirn-Parcel genutzt werden, um die Target-Variable anhand ihrer von Yeo et. al definierten Gehirn- Netzwerke als Gruppierung zu modellieren. Dies ist eine hierarchische Struktur, indem jedes Netzwerk aus mehreren Parcel besteht, die aus mehreren Voxel bestehen. In diesem Beispiel würden zweckmäßiger Weise nicht alle Voxel als Input verwendet werde, da dieses Gehirn-Parzellierungs-Schema ausschließlich zerebralen Kortex betrachtet. Nun könnten alle nicht genutzten Voxel bei dem Trainings-Verfahren unbetrachtet bleiben oder unter Hinzuführung anderer Parzellierungs-Schemas zusätzlich für weitere hierarchische oder nicht hierarchisch Modellierungen genutzt werden. Dies bedeutet, dass in einem Level 4 nun die Vorhersagen gruppiert anhand verschiedener Parzellierung-Schemas genutzt werden können. Dies beinhaltet entweder verschiedene Netzwerke oder Hirn-Parzellierungen oder eine Mischung aus beidem. Dies ist nur ein Beispiel der Möglichkeiten, die im Rahmen der vorliegenden Erfindung in Frage kommen. Andere Kombinationen von hierarchisch oder nicht hierarchischen, sich überlappenden oder nicht überlappenden Gruppierungen sind ebenfalls möglich.
Bei den im Rahmen der vorliegenden Erfindung zum Einsatz kommenden maschinellen Lernmodellen kann es sich um solche beliebiger Art handeln. Ein Benutzer kann insbesondere frei wählen, welches Modell bzw. welche Modelle er für die verschiedenen Gruppen und Level wählt. Die Modelle können insbesondere einen oder mehrere beliebige Maschinelles-Lernen- Algorithmen umfassen oder dadurch gegeben sein. Rein beispielhaft für Ma- schinelles-Lernen-Algorithmen seien Entscheidungsbäume und Support Vec- tor Machines genannt. Werden inhärent interpretierbare Modelle gewählt, wird die Gesamtlösung als solche interpretierbar.
Bei einer Ausführungsform des erfindungsgemäßen Trainings-Verfahrens ist vorgesehen, dass die verschiedenen Lerndatensätze zu verschiedenen Patienten gehören und die Lerndatensätze medizinisch relevante Messdatensätze, insbesondere Messdatensätze, die mittels medizinischer Diagnostikverfahren erhalten wurden, umfassen, und die Target-Variablen Eigenschaften der Patienten, insbesondere ein Alter und/oder einen Krankheitszustand der Patienten, betreffen oder dadurch gegeben sind.
Die Messdatensätze können beispielsweise durch Bildaufnahmen, insbesondere MRT-Bildaufnahmen, menschlicher Gehirne gegeben sein oder solche umfassen. Die erfindungsgemäß vorgesehene Gruppierung kann dann in Parzellen erfolgen, so dass jede Gruppe einer bestimmten Parzelle mit bestimmten, zweckmäßiger Weise zusammenhängenden Voxeln entspricht. Der Ausdruck Voxel setzt sich aus „volumetric“ und „pixel“ zusammen und entspricht in bekannter Weise dem 3D-Äquivalent zu einem Pixel. Die Mess- daten-Einträge können dann insbesondere Voxel-weise Messungen von MRT-Daten sein, etwa dem Graue-Zellen-Volumen, wobei zu jeder Gruppe die Voxel einer bestimmten Gehirnparzelle gehören.
Insbesondere im konkreten Falle des Gehirn-MRT können mittels der Erfindung bekannte Regelmäßigkeiten in den Daten ausgenutzt werden, um zunächst ortsbezogene Vorhersagen zu treffen, die von finalen, gehirnübergreifenden, mit anderen Worten dem gesamten Gehirn zugeordneten Vorhersagen gefolgt werden. Man kann sich beispielsweise eine Alters- oder Geschlechtsvorhersage vorstellen, die als Musterfälle für die Regression bzw. Klassifizierung dienen können. Diese Musterfälle bieten klinische Anwendbarkeit, sind gut etabliert, bieten bekanntermaßen eine hohe Genauigkeit und ihre Ergebnisse einschließlich der Bedeutung der Merkmale sind einfach zu verifizieren. Es ist beispielsweise erwartet, dass das Volumen der grauen Zellen mit zunehmendem Alter abnimmt, so dass von einer negativen Merkmalsgewichtung auszugehen ist. Im Rahmen der Erfindung wird das niedrigste Level des Stacks prädiktive Modelle unter Nutzung von a priori definierten Gruppierungen von Gehirnregionen aufbauen. Im Anschluss an die Trainingsphase können die trainierten gruppenspezifischen Modelle und das Meta-Modell oder die Meta-Modelle genutzt werden, um Vorhersagen für einen bereitgestellten Messdatensatz, beispielsweise eine MRT-Aufnahme eines Patienten, zu treffen.
Im Falle von MRT-Bildaufnahmen von Patienten, etwa deren Gehirne, können die Target-Variablen beispielsweise durch das Alter des jeweiligen Patienten, oder auch einen Erkrankungsstatus gegeben sein. Im Rahmen des Vorhersage-Verfahrens kann entsprechend z.B. ein Patientenalter bzw. Patientenkrankenstatus vorhergesagt werden.
Eine weitere Ausführungsform zeichnet sich dadurch aus, dass die verschiedenen Lerndatensätze zu verschiedenen Personen gehören und die Messdatensätze durch Bildaufnahmen zumindest eines Teils des Gesichts und/oder zumindest eines Teils des Körpers der Personen gegeben sind oder solche umfassen, und die Target-Variablen Eigenschaften der Personen betreffen oder dadurch gegeben sind. Die Messdaten-Einträge können dann jeweils einem Pixel entsprechen oder zugeordnet sein. Weiterhin kann vorgesehen sein, dass die Eigenschaften der Personen keinen Krankheitszustand der Personen betreffen bzw. nicht durch einen Krankheitszustand der Personen gegeben sind.
Mit anderen Worten kann auch ein Training mit Bildaufnahmen von Gesichtern bzw. Gesichtsteilen und/oder den Körpern bzw. Körperteilen von Perso- nen und Eigenschaften der Personen, wie etwa dem Alter und/oder Geschlecht, erfolgen. Im Anschluss an die Trainingsphase können die trainierten gruppenspezifischen Modelle und das Meta-Modell oder die Meta- Modelle genutzt werden, um Vorhersagen für einen bereitgestellten Messdatensatz, beispielsweise eine Aufnahme des Gesichtes einer Person, zu treffen, z.B. das Alter und/oder Geschlecht der Person vorherzusagen.
Bezüglich der erfindungsgemäß vorgesehenen Gruppierung kann in diesem Falle beispielsweise gelten, dass eine Gruppierung nach bestimmten Bereichen bzw. Teilen des Gesichtes (z.B. Nase, Augen, ...) und/oder Körpers erfolgt.
Auch ist es möglich, die verschiedenen Lerndatensätze zu verschiedenen Abschnitten der Erdoberfläche gehören und die Messdatensätze durch Bildaufnahmen, insbesondere Satellitenaufnahmen, von den Erdoberflächenabschnitten gegeben sind oder solche umfassen, und die Target-Variablen Eigenschaften der Erdoberflächenabschnitte, insbesondere das Vorhandensein bestimmter Elemente, bevorzugt das Vorhandensein von Feldern und/oder Flüssen und/oder Seen, betreffen oder dadurch gegeben sind.
Mit anderen Worten kann ein Training mit Satellitenaufnahmen der Erdoberfläche und bestimmten zu dem jeweils gezeigten Abschnitt gehörigen Landschaftsmerkmalen, wie der Existenz von Feldern, Seen, Flüssen, etc. erfolgen. Im Anschluss an die Trainingsphase können die trainierten gruppenspezifischen Modelle und das Meta-Modell oder die Meta-Modelle genutzt werden, um Vorhersagen für eine neue Satellitenaufnahme mit unbekannten Merkmalen zu treffen, etwa vorherzusagen, ob diese Flüsse, Seen und/oder Felder zeigt, um nur einige Beispiel möglicher Merkmale zu nennen. Bezüglich der erfindungsgemäß vorgesehenen Gruppierung kann in diesem Falle insbesondere gelten, dass eine Gruppierung nach bestimmten Bereichen bzw. Teilen der Bildaufnahmen erfolgt. Es kann beispielsweise eine Segmentierung (Bildsegmentierung) erfolgen, im Rahmen derer bevorzugt inhaltlich zusammenhängende Regionen bzw. Bereiche bestimmt werden, die benachbarte Pixel umfassen, die ein bestimmtes Homogenitätskriterium erfüllen. Die erhaltenen Segmente können dann jeweils eine Gruppe darstellen bzw. einer solchen entsprechen.
Als weiteres Beispiel sei genannt, dass die verschiedenen Lerndatensätze zu verschiedenen Personen gehören und die Messdatensätze durch Informationen über das Benutzerverhalten der Personen, insbesondere auf wenigstens einer Webseite, gegeben sind oder solche umfassen, und die Target- Variablen Informationen über von den Personen vorgenommene Handlungen, insbesondere von den Personen getätigte Käufe, betreffen oder dadurch gegeben sind. Es handelt sich zweckmäßiger Weise um auf der wenigstens eine Webseite vorgenommene Handlungen, etwa Käufe von Produkten und/oder Dienstleistungen, die auf der wenigstens einen Webseite angeboten werden.
Die von den Messdatensätzen umfassten Informationen über das Benutzerverhalten der Personen können beispielsweise Informationen darüber umfassen, wie lange sich die Personen auf einer Webseite aufgehalten haben, in welchen Bereich bzw. in welche Bereiche der Webseite die Personen den Mauszeiger bewegt haben und insbesondere, wie lange der Mauszeiger in den jeweiligen Bereichen verweilte, und/oder, in welche Bereiche die Personen mit dem Mauszeiger geklickt haben. Mit anderen Worten kann ein Training mit Informationen über das Benutzerverhalten, insbesondere im Internet, und zugehörige bestimmte Benutzerhandlungen, etwa Käufe, erfolgen.
Im Anschluss an die Trainingsphase können die trainierten gruppenspezifischen Modelle und das Meta-Modell oder die Meta-Modelle genutzt werden, um auf Basis von Daten zum Benutzerverhalten wenigstens einer weiteren Person Vorhersagen über Handlungen bzw. Handlungswahrscheinlichkeiten, etwa über Kaufwahrscheinlichkeiten für bestimmte Produkte und/oder Dienstleistungen, zu treffen.
Bezüglich der Gruppierung kann dann beispielsweise gelten, dass verschiedene Bereiche der wenigstens einen Webseite verschiedene Gruppen bilden bzw. solchen entsprechen, mit andere Worten eine Gruppierung in verschiedene Webseitenbereiche bzw. -abschnitte erfolgt.
Ein weiteres Ausführungsbeispiel zeichnet sich dadurch aus, dass die verschiedenen Lerndatensätze zu verschiedenen DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen gehören und die Messdatensätze durch Informationen über die DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen gegeben sind oder solche umfassen. Zweckmäßiger Weise handelt es sich dann um den Aufbau der DNA- Sequenzen bzw. Proteinsequenzen bzw. Genexpressionen betreffende Informationen. Die Informationen können Sequenz-basierte Merkmale von DNA-Sequenzen und/oder Proteinsequenzen umfassen bzw. Genexpressionsdaten. Die Target-Variablen betreffen dann zweckmäßiger Weise (andere) Merkmale der DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionendaten, insbesondere Bindungsstellen und/oder Protein- Protein-Wechselwirkungen und/oder Lösungsmittel-Eigenschaften dieser, oder sind dadurch gegeben. Im Anschluss an die Trainingsphase können die trainierten gruppenspezifischen Modelle und das Meta-Modell oder die Meta-Modelle dann z.B. genutzt werden, um basierend auf Informationen für eine neue DNA- oder Proteinsequenz oder Genexpressionsdaten, insbesondere basierend auf einem zugehörigen Messdatensatz, Bindungsstellen bzw. Protein-Protein- Wechselwirkungen bzw. Lösungsmittel-Eigenschaften vorherzusagen.
Bezüglich der Gruppierung ist beispielsweise möglich, dass Gruppen unter Nutzung von Domänen-Wissen, wie etwa bekannter Gen-Regionen bzw. Interaktions-Netzwerke, definiert werden.
Die Messdaten für das Training können von einem oder auch mehreren Messorten stammen. In letzterem Falle können für jeden Messort wiederum eigene Gruppen-Lernmodelle, mit anderen Worten messortspezifische Grup- pen-Lernmodelle eingeführt werden.
In bevorzugter Weiterbildung des erfindungsgemäßen Trainings-Verfahrens ist daher vorgesehen, dass in Schritt A1 Lerndatensammlungen von und insbesondere an verschiedenen Messorten bereitgestellt werden, wobei die Lerndatensammlungen jeweils mehrere Lerndatensätze mit Messdaten- Einträgen und zugehörigen Target-Variablen umfassen.
Sollen messortübergreifende Daten („Cross-Site-Daten“) für das Training verwendet werden, ist besteht in der Regel eine besonders große Problematik, was die Privatsphäre bzw. den Datenschutz angeht, denn die Daten der verschiedenen Messorte müssen dafür geteilt, mit anderen Worten aus der Hand gegeben werden, damit sie an einem anderen Messort oder auch dritter Stelle, für das Training von Lernmodellen genutzt werden können. Dies ganz besonders, wenn es um Daten mit medizinischer Relevanz geht und/oder andere besonders sensible Daten. Dezentrales Lernen bietet zwar die Möglichkeit höherer Privatsphäre, da die Daten nicht zentral zusammengeführt werden müssen, sondern am jeweiligen Messort verbleiben können. Wie bereits angemerkt, führt dezentrales Lernen jedoch in der Regel zu ungenaueren Modellen.
Die Erfindung bietet hier einen großen Vorteil, denn das Teilen bzw. Zusammenführen von Daten ist auf verschiedenen der vorgesehenen Level möglich, wobei die Privatsphäre bzw. der Datenschutz umso höher sind, je höher das Level ist, in welchem das Teilen bzw. Zusammenführen erfolgt. Dabei gilt jedoch, dass bereits in den Vorhersagen des niedrigsten Levels, also den gruppenspezifischen bzw. gruppenweisen Vorhersagen, keine oder jedenfalls nur limitierte private Information enthalten ist, da ihr Informationsgehalt nur auf die Vorhersage, mit anderen Worten das vorhergesagte Target, bezogen ist. Entsprechend können bereits diese Daten über Messorte hinweg zum Anlernen von ML-Modellen geteilt und dennoch die Privatsphäre gewahrt bleiben.
Messortübergreifende Modelle („Cross-Site-Modelle“) können im Rahmen der Erfindung auf verschiedene Weise eingeführt bzw. erhalten werden. So kann beispielsweise eine intermediäre Fusion erfolgen, bei der Vorhersagen der Modelle der niedrigsten Level messortübergreifend geteilt werden, um eine ML-Modell mit den gepoolten Daten anzulernen. Auch ist es möglich, eine „späte Fusion“ vorzunehmen, bei dem erst Vorhersagen des nächsthöheren Levels geteilt werden, was in eine gewichtetes Aggregations- ZEnsemble-Modell resultiert. In allen Fällen, in denen ein Zusammenführen der Vorhersagen der Modelle erfolgt, sei es im niedrigsten oder auch höheren Leveln, werden Harmonisierungseffekte erzielt und die Privatsphäre erhöht. Eine Ausführungsform des erfindungsgemäßen Trainings-Verfahrens zeichnet sich dadurch aus, dass in Schritt A3 für jeden Messort eigene Resampling-basierte messortspezifische Gruppen-Lernmodelle mit den zum jeweiligen Messort gehörigen Lerndatensätzen trainiert und getestet werden, wobei die Resampling-Methode jeweils einschließt, dass wenigstens ein Trainieren mit einem Teil der messortspezifischen Gruppen-Unter- Messdatensätze und zugehörigen messortspezifischen Target-Variablen erfolgt, und wenigstens ein Testen mit einem anderen Teil der messortspezifischen Gruppen-Unter-Messdatensätze erfolgt, und wobei das wenigstens eine Testen für den jeweiligen Messort Vorhersagen für verschiedene Gruppen, messort- und gruppenspezifische Vorhersagen, liefert.
Ein Teilen der Lerndatensammlungen, mit anderen Worten Rohdaten, ist dann nicht nötig. Die Daten jedes Messortes können unabhängig vom dem oder den Daten anderer Messorte verarbeitet werden, wobei die erfindungsgemäße Gruppierung und das Resampling-basierte Trainieren und Testen zum Erhalt der gruppenspezifischen Vorhersagen messortweise erfolgen. Im Ergebnis liegen für die einzelnen Messorte jeweils gruppenspezifische Vorhersagen vor, die vorliegend auch als messort- und gruppenspezifische Vorhersagen bezeichnet werden.
Dann kann weiterhin vorgesehen sein, dass in Schritt A5 für jeden Messort eigene messortspezifische Vorhersage-Gruppen-Lernmodelle insbesondere ohne Nutzung einer Resampling-Methode trainiert werden, wobei das Training bevorzugt jeweils mit allen messortspezifischen Gruppen-Unter- Messdatensätzen und zugehörigen messortspezifischen Target-Variablen erfolgt. Auf diese Weise erhaltene messortspezifische Vorhersage-Gruppen- Lernmodelle können insbesondere für die spätere Vorhersage genutzt werden. In Schritt A4 können dann die messort- und gruppenspezifischen Vorhersagen und zugehörigen messortspezifischen Target-Variablen verschiedener Messorte zusammengeführt werden und damit ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell insbesondere ohne Nutzung einer Resampling-Methode trainiert werden. Dieses Szenario entspricht der vorstehend bereits erwähnten intermediären Datenfusion.
Weiterhin kann vorgesehen sein, dass in Schritt A4 für jeden Messort ein Resampling-basiertes messortspezifisches gruppenübergreifendes Meta- Lernmodell trainiert und getestet wird, wobei die Resampling-Methode einschließt, dass wenigstens ein Trainieren mit einem Teil der messort- und gruppenspezifischen Vorhersagen und den zugehörigen messortspezifischen Target-Variablen der Lerndatensammlungen erfolgt, und wenigstens ein Testen mit einem anderen Teil der messort- und gruppenspezifischen Vorhersagen und den zugehörigen messortspezifischen Target-Variablen der Lerndatensammlungen erfolgt, und wobei das wenigstens eine Testen messortspezifische gruppenübergreifende Vorhersagen liefert.
Dies hat sich insbesondere als zweckmäßig erwiesen, wenn keine intermediäre Datenfusion erfolgt und die messort- und gruppenspezifischen Vorhersagen von verschiedenen Messorten nicht geteilt bzw. zusammengeführt werden.
Mit den von mehreren Messorten stammenden messortspezifischen gruppenübergreifenden Vorhersagen und zugehörigen messortspezifischen Target-Variablen kann dann ein Kreuz-Messort-Meta-Lernmodell bevorzugt ohne Nutzung einer Resampling-Methode trainiert werden, so dass es aus mehreren messortspezifischen gruppenübergreifenden Vorhersagen eine messort- und gruppenübergreifende Vorhersage liefern kann. Weiter bevorzugt wird dann insbesondere in Schritt A4 für jeden Messort ein messortspezifisches gruppenübergreifendes Meta-Lernmodell bevorzugt ohne Nutzung einer Resampling-Methode trainiert, wobei das Training jeweils mit den messort- und gruppenspezifischen Vorhersagen und den zugehörigen messortspezifischen Target-Variablen der jeweiligen Lerndatensammlung erfolgt, bevorzugt jeweils mit allen messort- und gruppenspezifischen Vorhersagen und zugehörigen messortspezifischen Target-Variablen. Die auf diese Weise erhaltenen nicht Resampling-basierten messortspezifischen gruppenübergreifenden Meta-Lernmodelle können insbesondere für die spätere Vorhersage genutzt werden.
Auch kann vorgesehen sein, dass eine zusätzliche Lerndatensammlung von einem von den Messorten verschiedenen zusätzlichen Messort bereitgestellt wird, und eine Gruppierung der Messdaten-Einträge der Messdatensätze der zusätzlichen Lerndatensammlung in mehrere Gruppen wie in Schritt A2 vorgesehen erfolgt, wodurch zusätzliche Gruppen-Unter- Messdatensätze erhalten werden, die zusätzlichen Gruppen-Unter-Messdatensätze und die Target- Variablen der zusätzlichen Lerndatensammlung jeweils den zu den Messorten gehörigen insbesondere ohne Nutzung einer Resampling- Methode trainierten messortspezifischen Vorhersage-Gruppen- Lernmodellen zugeführt und von diesen messort- und gruppenspezifische Vorhersagen erhalten werden, die messort- und gruppenspezifische Vorhersagen jeweils den zu den Messorten gehörenden insbesondere ohne Nutzung einer Resampling-Methode trainierten messortspezifischen gruppenübergreifenden Meta-Lernmodellen zugeführt und von diesen messortspezifische gruppenübergreifende Vorhersagen erhalten werden, mit den messortspezifischen gruppenübergreifenden Vorhersagen und den Target-Variablen der zusätzlichen Lerndatensammlung ein Zu- satz-Kreuz-Messort-Meta-Lernmodell bevorzugt ohne Nutzung einer Resampling-Methode trainiert wird.
Es ist mit anderen Worten möglich, zu verschiedenen Messorten gehörige trainierte Lernmodelle zu nutzen, um Vorhersagen für Daten von noch einem weiteren Messort zu treffen. Rein beispielhaft sei genannt, dass mit Daten eines Messortes A Lernmodelle und mit den Daten eines Messortes B Lernmodelle trainiert und somit messortspezifische Lernmodelle für A und B erhalten werden. Dann werden Daten eines dritten Messortes C bereitgestellt und die Daten von C sowohl zu Messort A gehörigen Lernmodelle als auch zu Messort B gehörigen Lernmodellen zugeführt und Vorhersagen erhalten. Es sei betont, dass das Szenario mit Messorten A, B und C rein beispielhaft und natürlich auch eine andere Anzahl von Messorten möglich ist.
In vorteilhafter Weiterbildung des erfindungsgemäßen Trainings-Verfahrens ist ferner vorgesehen, dass dem trainierten messortspezifischen gruppenübergreifenden Meta-Lernmodell wenigstens eines Messortes messort- und gruppenspezifische Vorhersagen wenigstens eines anderen Messortes nebst zugehöriger Target-Variablen zugeführt und hierdurch messortspezifische gruppenübergreifende Kreuz-Vorhersagen erhalten werden. Bevorzugt werden alle messort- und gruppenspezifische Vorhersagen und zugehörigen Target-Variablen des (jeweils) anderen Messortes zugeführt.
Das Kreuz-Messort-Meta-Lernmodell kann dann mit den messortspezifischen gruppenübergreifenden Vorhersagen und den messortspezifischen gruppenübergreifenden Kreuz-Vorhersagen trainiert werden. Bei dem erfindungsgemäßen Vorhersage-Verfahren ist in vorteilhafter Weiterbildung vorgesehen, dass in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings-Verfahrens erhalten wurden, und/oder Resampling- basierte messortspezifische Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings- Verfahrens erhalten wurden, und ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell, das unter Durchführung des erfindungsgemäßen Trainings-Verfahrens insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, bereitgestellt werden, die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze in Schritt B4 den messortspezifischen Vorhersage-Gruppen-Lernmodellen oder den Resampling-basierten messortspezifische Gruppen-Lernmodelle verschiedenen Messorte zugeführt und messort- und gruppenspezifische Vorhersagen erhalten werden, die jeweils zu einer Gruppe gehörenden Vorhersagen verschiedener Messorte durch ein statistisches Verfahren, insbesondere Mittelung, miteinander kombiniert werden, so dass eine gruppenspezifische Vorhersage für jede Gruppe erhalten wird, die gruppenspezifischen Vorhersagen dem zusammenführenden messort- und gruppenübergreifenden Meta-Lernmodell zugeführt werden und von diesem eine messort- und gruppenübergreifende Vorhersage erhalten wird.
Diese Vorgehensweise hat sich insbesondere für den Fall bewährt, dass im Rahmen des Trainings eine intermediäre Datenfusion erfolgte, im Rahmen derer Vorhersagen der Modelle des niedrigsten Levels kombiniert bzw. zusammengeführt wurden. Alternativ oder zusätzlich kann vorgesehen sein, dass
- in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings-Verfahrens erhalten wurden, und/oder Resampling- basierte messortspezifische Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings- Verfahrens erhalten wurden, und ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell, das unter Durchführung des erfindungsgemäßen Trainings-Verfahrens insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, bereitgestellt werden,
- die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze in Schritt B4 den messortspezifischen Vorhersage-Gruppen-Lernmodellen oder den Resampling-basierten messortspezifischen Gruppen-Lernmodelle n der verschiedenen Messorte zugeführt und messort- und gruppenspezifische Vorhersagen erhalten werden,
- die messort- und gruppenspezifischen Vorhersagen messortweise dem zusammenführenden messort- und gruppenübergreifenden Meta- Lernmodell zugeführt und so messortspezifische gruppenübergreifende Vorhersagen für jeden Messort erhalten werden,
- die messortspezifischen gruppenübergreifenden Vorhersagen durch ein statistisches Verfahren, insbesondere Mittelung, miteinander kombiniert werden, so dass eine messort- und gruppenübergreifende Vorhersage erhalten wird.
Dies hat sich vor allem als weitere geeignete Vorhersagevariante für denjenigen Fall erwiesen, dass im Rahmen des Trainings eine intermediäre Datenfusion erfolgte. Eine weitere vorteilhafte Ausführungsform des erfindungsgemäßen Vorhersage-Verfahrens zeichnet sich ferner dadurch aus, dass
- in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings-Verfahrens erhalten wurden, und/oder Resampling- basierten messortspezifischen Gruppen-Lernmodelle verschiedener Standorte, die unter Durchführung des erfindungsgemäßen Trainings- Verfahrens erhalten wurden und messortspezifische gruppenübergreifende Meta-Lernmodelle, die unter Durchführung des erfindungsgemäßen Trainings-Verfahrens insbesondere ohne Nutzung einer Resampling-Methode erhalten wurden, und ein Kreuz-Messort-Meta- Lernmodell, das unter Durchführung des erfindungsgemäßen Trainings-Verfahrens insbesondere ohne Nutzung einer Resampling- Methode erhalten wurde, und/oder ein Zusatz-Kreuz-Messort-Meta- Lernmodell, das unter Durchführung des erfindungsgemäßen Trainings-Verfahrens insbesondere ohne Nutzung einer Resampling- Methode erhalten wurde, bereitgestellt werden,
- die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze in Schritt B4 den messortspezifischen Vorhersage-Gruppen-Lernmodellen oder den Resampling-basierten messortspezifischen Gruppen- Lernmodellen der verschiedenen Messorte zugeführt und messort- und gruppenspezifische Vorhersagen erhalten werden,
- die messort- und gruppenspezifischen Vorhersagen messortweise dem jeweiligen zugehörigen messortspezifischen gruppenübergreifenden Meta-Lernmodell zugeführt werden und so messortspezifische gruppenübergreifende Vorhersagen (für jeden Messort erhalten werden,
- die messortspezifischen gruppenübergreifenden Vorhersagen dem Kreuz-Messort-Meta-Lernmodell oder dem Zusatz-Kreuz-Messort- Meta-Lernmodell zugeführt und von diesem eine messort- und gruppenübergreifende Vorhersage erhalten wird.
Dieses Ausführungsbeispiel eignet sich besonders für denjenigen Fall, dass im Rahmen des Trainings eine späte Datenfusion erfolgte, im Rahmen derer Vorhersagen des bzw. der Modelle eines höheren als des niedrigsten Levels kombiniert bzw. zusammengeführt wurden.
Ein weiterer Gegenstand der vorliegenden Erfindung ist ein Computerprogramm, das Instruktionen umfasst, die, wenn sie auf wenigstens einem Computer ausgeführt werden, den wenigstens einen Computer veranlassen, die Schritte des erfindungsgemäßen Trainings-Verfahrens und/oder die Schritte des erfindungsgemäßen Vorhersage-Verfahrens durchzuführen.
Gegenstand der Erfindung ist auch ein computerlesbares Medium, das Instruktionen umfasst, die, wenn sie auf wenigstens einem Computer ausgeführt werden, den wenigstens einen Computer veranlassen, die Schritte des erfindungsgemäßen Trainings-Verfahrens und/oder die Schritte des erfindungsgemäßen Vorhersage-Verfahrens durchzuführen.
Es ist auch möglich, dass zumindest ein Teil der Schritte des erfindungsgemäßen Trainings-Verfahrens und/oder zumindest ein Teil Schritte des erfindungsgemäßen Vorhersage-Verfahrens in einer Cloud durchgeführt werden. Darunter ist insbesondere die Nutzung von extern bzw. entfernt bzw. verteilt betriebenen Diensten über das Internet (Cloud-Computing) zu verstehen, wobei sowohl „Infrastructure as a Service“ (laaS) als auch „Platform as a Service“ (PaaS) als auch „Software as a Service“ (SaaS) darunterfallen.
Schließlich ist Gegenstand der Erfindung eine Vorrichtung zur Durchführung des erfindungsgemäßen Trainings-Verfahrens und/oder des erfindungsge- TI mäßen Vorhersage-Verfahrens, umfassend einen Computer mit einem Datenspeicher, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
In bevorzugter Ausgestaltung umfasst die erfindungsgemäße Vorrichtung einen MRT-Scanner-Einrichtung. Diese ist ausgebildet und eingerichtet, um MRT-Aufnahmen von einem Patienten zu erstellen. Die erfindungsgemäße Vorrichtung hat sich insbesondere bewährt, um das erfindungsgemäße Trainings-Verfahren und/oder Vorhersage-Verfahren lokal auszuführen.
Hinsichtlich der Ausgestaltungen der Erfindung wird auch auf die Unteransprüche sowie auf die nachfolgende Beschreibung mehrerer Ausführungsbeispiele unter Bezugnahme auf die beiliegende Zeichnung verwiesen.
In der Zeichnung zeigt in rein schematischer Darstellung:
Figur 1 ein erstes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Trainings-Verfahrens für den Fall, dass die Lerndatensätze von einem Messort stammen, und ein erstes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens, das trainierte Modelle nutzt, die mit dem Trainings-Verfahren gemäß dieser Figur erhalten wurden;
Figur 2 MRT-Aufnahmen menschlicher Gehirne der Lerndatensammlung aus Figur 1 nebst einer rein schematischen Darstellung zur Gruppierung in Hirn-Parzellen;
Figur 3 ein zweites Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Trainings-Verfahrens für den Fall, dass die Lerndatensätze von zwei verschiedenen Messorten stammen, und ein zweites Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens, das trainierte Modelle nutzt, die mit dem Trainings-Verfahren gemäß dieser Figur erhalten wurden;
Figur 4 ein drittes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens, das ebenfalls trainierte Modelle nutzt, die mit dem Trainings-Verfahren gemäß Figur 3 erhalten wurden;
Figur 5 ein drittes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Trainings-Verfahrens für den Fall, dass die Lerndatensätze von zwei verschiedenen Messorten stammen, und ein viertes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens, das trainierte Modelle nutzt, die mit dem Trainings-Verfahren gemäß dieser Figur erhalten wurden; und
Figur 6 ein viertes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Trainings-Verfahrens für den Fall, dass die Lerndatensätze von drei verschiedenen Messorten stammen, und ein fünftes Ausführungsbeispiel des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens, das trainierte Modelle nutzt, die mit dem Trainings-Verfahren gemäß dieser Figur erhalten wurden.
In den Figuren sind gleiche bzw. korrespondierende Elemente mit gleichen Bezugszeichen versehen. Die Figur 1 zeigt oben in rein schematischer Blockdarstellung Schritte eines ersten Ausführungsbeispiels des erfindungsgemäßen computerimplementierten Trainings-Verfahrens Tr. Diese sind in einer mit Tr bezeichneten Umrahmung zusammengefasst. Darunter befindet sich ein weiterer, mit Vo bezeichneter Rahmen, innerhalb dem die Schritte eines ersten korrespondierenden Ausführungsbeispiels des erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens dargestellt sind, das mit dem Trainings- Verfahren gemäß Figur 1 erhaltene maschinelle Lernmodelle MG1 , MG2, MM nutzt. In der Figur ist die Nutzung auch über gestrichelte Pfeile schematisch angedeutet.
Die Figuren 3, 5 und 6 haben einen zu der Figur 1 analogen Aufbau, jeweils mit einem Ausführungsbeispiel eines erfindungsgemäßen Trainings- Verfahrens oben und einem Ausführungsbeispiel eines erfindungsgemäßen Vorhersage-Verfahrens unten, das Modelle vom jeweils obigen Verfahren nutzt.
Bei dem Trainings-Verfahren gemäß Figur 1 wird in einem Schritt A1 eine Lerndatensammlung L mit mehreren Lerndatensätzen LDS bereitgestellt. Jeder Lerndatensatz LDS umfasst einen Messdatensatz MDS mit mehreren Messdaten-Einträgen ME und eine dem Messdatensatz MDS zugeordnete Target-Variable T. Alle Lerndatensätze LDS haben bei dem hier gezeigten Beispiel den gleichen Aufbau, insbesondere jeweils die gleiche Anzahl von Messdaten-Einträger MDE mit jeweils einer zugeordneten Target-Variable T. Die Messdaten-Einträgen ME können auch als Features bezeichnet werden, was in der Figur durch die Abkürzung F angedeutet ist.
Bei dem hier gezeigten Beispiel handelt es sich bei den Lerndatensätzen LDS um MRT- bzw. MRI-Bildaufnahmen menschlicher Gehirne verschiedener Patienten unterschiedlichen Alters. Dies ist in Figur 2 dargestellt, die bei- spielhaft vier solche Aufnahmen zeigt. MRI steht dabei in bekannter Weise für die Magnetresonanztomographie. Die MRI-Aufnahmen wurden in hinlänglich vorbekannter Weise mittels eines Magnetresonanztomographiesystems erhalten, das sich beispielsweise in einem Krankenhaus befindet, in welchem die Patienten untersucht wurden. Das Patientenalter von hier beispielhaft 42, 21 , 53 und 78 Jahren sind ebenfalls in Figur 2 zu der jeweiligen Aufnahme angegeben. Die Messdaten-Einträge MDE sind durch das Voxel-weise Graue-Zellen-Volumen (englisch: voxelwise gray matter volume, kurz voxel- wise GMV) gegeben.
In Schritt A2 des Trainings-Verfahrens gemäß Figur 1 erfolgt ein Gruppierung Gr der Messdaten-Einträge MDE der Messdatensätze MDS der Lerndatensammlung L in mehrere Gruppen G1 , G2. Hierdurch werden Gruppen-Unter- Messdatensätze GUM erhalten, wobei die Gruppen-Unter-Messdatensätze GUM einer Gruppe G1 , G2 jeweils zueinander korrespondierende Messdaten-Einträge ME verschiedener Messdatensätze MDS umfassen. In Figur 1 ist dies aus Gründen der Übersichtlichkeit beispielhaft für 2 Gruppen G1 , G2 dargestellt. Es sei betont, dass selbstverständlich eine Gruppierung in eine größere Anzahl von Gruppen möglich ist und in der Regel erfolgen wird.
Bei dem hier gezeigten Beispiel erfolgt eine Gruppierung in Hirn-Parzellen eines Hirn-Parzellierungs-Schemas, auch Gehirn-Atlanten genannt. Eine Parzelle kann beispielswiese durch den Hippocampus gegeben sein und weitere Parzellen durch andere Hirnregionen. Ein weiterer Gehirn Atlant ist zum Beispiel der Schaefer Atlas [Schaefer et al. 2018], In Figur 2 sind - rein schematisch - zwei Parzellen PA1 , PA2 in der vorderste MRT-Aufnahme eingezeichnet. Wie man erkennt, umfasst die eine, in Figur 2 rechte Parzelle PA1 , die der ersten Gruppe G1 entspricht, neun benachbarte Voxel und die zweite, in Figur 2 linke Parzelle PA2, die Gruppe G2 entspricht, vier benachbarte Voxel, wobei auch dies rein beispielhaft zu verstehen ist. Bei den weite- ren Messdatensätzen MDS, hier also MRT-Aufnahmen weiterer Patienten anderen Alters, erfolgt die Gruppierung völlig analog. Es sein angemerkt, dass, wenngleich in der Figur 1 aus Gründen der Übersichtlichkeit jeweils eine andere Anzahl von Messdaten-Einträgen MDE je Gruppe G1 , G2 gezeigt ist, das Prinzip hier gleichermaßen entnommen werden kann. Weiterhin sei angemerkt, dass in der rein schematischen Darstellung des Lerndatensatzes L in Figur 1 jeweils eine Zeile einem Patienten entspricht.
Schließlich sei betont, dass, auch wenn sich das erfindungsgemäße Verfahren besonders für MRT-Aufnahmen geeignet hat, es prinzipiell auch auf beliebige Daten anderer Art angewendet werden kann.- Weitere Anwendungsbeispiele sind etwa durch andere medizinische Patientendaten, genetische Daten, Natural Language Processing und Computer Vision gegeben.
Es ist beispielweise auch möglich, dass die verschiedenen Lerndatensätze LDS zu verschiedenen Personen gehören und die Messdatensätze MDS durch Bildaufnahmen zumindest eines Teils des Gesichts und/oder zumindest eines Teils des Körpers der Personen gegeben sind oder solche umfassen, und die Target-Variablen T Eigenschaften der Personen betreffen oder dadurch gegeben sind. Dann kann beispielsweise eine Gruppierung in verschiedene Bereiche des Gesichtes bzw. Körpers erfolgen.
Als weiteres Beispiel sei genannt, dass die verschiedenen Lerndatensätze LDS zu verschiedenen Abschnitten der Erdoberfläche gehören und die Messdatensätze MDS durch Bildaufnahmen, insbesondere Satellitenaufnahmen, von den Erdoberflächenabschnitten gegeben sind oder solche umfassen, und die Target-Variablen T Eigenschaften der Erdoberflächenabschnitte, insbesondere das Vorhandensein bestimmter Elemente, zum Beispiel das Vorhandensein von Feldern und/oder Flüssen und/oder Seen, betreffen oder dadurch gegeben sind. Dann wäre es beispielsweise möglich, dass eine Gruppierung nach bestimmten Bereichen bzw. Teilen der Bildaufnahmen erfolgt.
Auch ist es möglich, dass die verschiedenen Lerndatensätze LDS zu verschiedenen Personen gehören und die Messdatensätze MDS Informationen über das Benutzerverhalten der Personen, insbesondere auf wenigstens einer Webseite, umfassen, und die Target-Variablen T Informationen über von den Personen vorgenommenen Handlungen, insbesondere von den Personen getätigte Käufe, betreffen oder dadurch gegeben sind. Dann können z.B. verschiedene Bereiche der wenigstens einen Webseite verschiedene Gruppen bilden bzw. solchen entsprechen, mit andere Worten eine Gruppierung in verschiedene Webseitenbereiche bzw. -abschnitte erfolgen.
Als weiteres Beispiel sei genannt, dass die verschiedenen Lerndatensätze LDS zu verschiedenen DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen gehören und die Messdatensätze MDS durch Informationen über die DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen, insbesondere durch den Aufbau dieser betreffende Informationen, gegeben sind oder solche umfassen, und die Target- Variablen T Merkmale der DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionendaten, insbesondere Bindungsstellen und/oder Protein-Protein-Wechselwirkungen und/oder Lösungsmittel-Eigenschaften dieser, betreffen oder dadurch gegeben sind. Dann können z.B. verschiedene DNA- bzw. Genbereiche verschiedene Gruppen bilden bzw. solchen entsprechen.
Nachdem die erfindungsgemäße Gruppierung in Hirn-Parzellen - oder eine der anderen vorstehend beispielhaft beschriebenen Gruppierungen - vorgenommen wurde, wird in Schritt A3 für jede Gruppe G1 , G2 ein eigenes maschinelles Lernmodell unter Nutzung einer Resampling-Methode trainiert und getestet. Dies ist in den Figuren 1 und 2 ebenfalls schematisch angedeutet, in der Figur 1 durch den Pfeil RsB M, wobei die Abkürzung für Resampling- basiertes modellieren steht. Für die Gruppe G1 wird das Modell RsB MG1 trainiert und für die Gruppe G2 das Modell RsB MG2 (vgl. Figur 2).
Dabei kann der Benutzer prinzipiell frei wählen, welche Art von Lernmodellen zum Einsatz kommen. Die Modelle umfassen einen oder mehrere Maschinel- les-Lernen-Algorithmen, bei denen es sich beispielsweise um Entscheidungsbäume und/oder Support Vector Machines handeln kann. Bevorzugt werden inhärent interpretierbare Modelle gewählt.
Die Resampling-basierte Methode schließt ein, dass wenigstens ein Trainieren mit einem Teil der zu der jeweiligen Gruppe G1 , G2 gehörenden Grup- pen-Unter-Messdatensätze GUM und den zugehörigen Target-Variablen T erfolgt, und wenigstens ein Testen mit einem anderen Teil der zu der jeweiligen Gruppe G1 , G2 gehörenden Gruppen-Unter-Messdatensätze GUM erfolgt, und wobei das wenigstens eine Testen Vorhersagen für verschiedene Gruppen G1 , G2, gruppenspezifische Vorhersagen, liefert. Es erfolgt in an sich bekannter Weise ein oder mehrmals eine Unterteilung der Daten in einen Trainings- und Testteil, man kann auch von Trainings- und Test-Sets sprechen. Bei dem vorliegenden Beispiel werden - für die jeweilige Gruppe G1 , G2 - die Daten, konkret die zur jeweiligen gruppe G1 , G2 gehörigen Gruppen-Unter-Messdatensätze GUMs mit zugehörigen Target-Variablen T, einiger Patienten, beispielsweise der einen Hälfte der Patienten, als Trainings- und die die Daten GUMs der verbleibenden Patienten, also zweiten Hälfte, als Test-Sets genutzt und es wird zum Beispiel eine Kreuz- Validierung, etwa eine Leave-One-Out-Kreuz-Validierung oder auch k-Fold- Kreuz-Validierung durchgeführt. Die gruppenweise Zuführung der Trainings- Set GUMs und zugehörigen Target-Variablen T zu den Gruppen- Lernmodellen RsB MG1 , RsB MG2 ist auch rein schematisch in Figur 2 rechts angedeutet.
Mit den Test-Set GLIMs werden dann gruppenweise „out-of-sample“ Vorhersagen P1 , P2 (vgl. Figur 1) für das Patientenalter erhalten. Da infolge des gruppenweisen Vorgehens für jede Gruppe eigene Vorhersagen P1 , P2 erhalten werden, wird auch von gruppenspezifischen Vorhersagen P1 , P2 gesprochen. Im Anschluss wird gewechselt, mit anderen Worten werden die Daten der zweiten Hälfte für das Trainieren und die der ersten Hälfte für das Testen genutzt, so dass auch für die erste Hälfte „out-of-sample“ Vorhersagen P1 , P2 erhalten werden. Bei dieser Vorgehensweise können gruppenspezifische Vorhersagen P1 , P2 in einer Anzahl erhalten werden, die der Anzahl der Messdatensätze MDS der Lerndatensammlung L und somit der Gesamtanzahl der Patienten entspricht. Dies ist jedoch keinesfalls zwingend erforderlich.
Mit den gruppenspezifischen Vorhersagen P1 , P2 der Patientenalter und den bekannten Patientenaltern, also Target-Variablen T der Lerndatensammlung L wird in Schritt A4 ein weiteres maschinelles Lernmodell, gruppenübergreifendes Meta-Lernmodell MM, ohne Nutzung einer Resampling-Methode trainiert. Man kann auch sagen, dass mehrere, bei diesem Beispiel zwei, .Level von maschinellen Lernmodellen trainiert werden, wobei man das gruppenweise Training z.B. als LevelO- und das Training des Meta-Modells MM als LeveH -Training bezeichnen kann.
In Figur 1 ist das Training ohne Nutzung einer Resampling-Methode des Meta-Modells MM mit einem Pfeil ML M angedeutet. Im Anschluss an dieses Training kann das Modell MM dann aus mehreren, verschiedenen Gruppen G1 , G2 zugeordneten gruppenspezifischen Vorhersagen P1 , P2 eine gruppenübergreifende Vorhersage P liefern. Weiterhin wird in Schritt A5 für jede Gruppe G1 , G2 ein weiteres maschinelles Lernmodell ohne Nutzung einer Resampling-Methode mit zu der jeweiligen Gruppe G1 , G2 gehörenden Gruppen-Unter-Messdatensätzen GMU und zugehörigen Target-Variablen T trainiert, Vorhersage-Gruppen-Lernmodell MG1 , MG2, wobei das Training hier mit allen zu der jeweiligen Gruppe G1 , G2 gehörenden Gruppen-Unter-Messdatensätze GMU und zugehörigen Target-Variablen T, mit anderen Worten hier mit den Lerndatensatz-Daten aller Patienten, erfolgt. In der Figur 1 ist dieses Training rein schematisch mit einem weiteren Pfeil ML M und rechts von diesem den Vorhersage-Gruppen- Lernmodellen MG1 , MG2 angedeutet. Das Training von MG1 und MG2 kann natürlich auch vor dem Training des Modells MM erfolgen, z.B. vor, nach o- der parallel zum Resampling-basierten Training von RsB MG1 und RsB MG2.
Die erhaltenen trainierten Lernmodelle MM und MG1 , MG2 können anschließend genutzt werden, um basierend auf den MRT-Aufnahmen von Gehirnen anderer Patienten deren Alter zu schätzen.
Dies ist, wie oben angemerkt, rein schematisch in Figur 1 unten dargestellt. Es sei angemerkt, dass das Trainieren der Vorhersage-Gruppen- Lernmodellen MG1 , MG2 optional ist, da alternativ zu diesen für die Vorhersage prinzipiell auch die Resampling-basierten Gruppen-Lernmodelle RsB MG1 , RsB MG2 genutzt werden können. Auch eine zusätzliche Nutzung ist möglich.
Für den Fall, dass ein Training mit Messdatensätzen MDS mit Bildaufnahmen zumindest eines Teils des Gesichts und/oder zumindest eines Teils des Körpers von Personen und zugehörigen Target-Variablen mit Eigenschaften der Personen erfolgte, kann basierend auf einer neuen Aufnahme für eine weitere Person beispielsweise deren Alter und/oder Geschlecht vorhergesagt werden.
Für den Fall, dass ein Training mit Messdatensätze MDS mit Bildaufnahmen, insbesondere Satellitenaufnahmen, von Erdoberflächenabschnitte und zugehörigen Target-Variablen (T) mit Eigenschaften der Erdoberflächenabschnitte erfolgte, kann zum Beispiel für eine neue Aufnahme eines weiteren Erdoberflächenabschnitts vorhergesagt werden, ob diese wenigstens einen Fluss und/oder wenigstens einen See und/oder wenigstens ein Feld umfasst.
Für den Fall, dass ein Training mit Messdatensätze MDS mit Informationen über das Benutzerverhalten von Personen und zugehörigen Target-Variablen T mit Informationen über von den Personen vorgenommenen Handlungen erfolgte, kann beispielsweise für einen Messdatensatz MDS mit Informationen zum Benutzerverhalten einerweiteren Person eine Kaufwahrscheinlichkeit vorhergesagt werden.
Für den Fall, dass ein Training mit Messdatensätze MDS mit Informationen über DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen erfolgte, kann beispielsweise für einen Messdatensatz MDS wenigstens eine Bindungsstelle bzw. Protein-Protein-Wechselwirkung vorhergesagt werden.
Konkret wird für die Vorhersage in einem Schritt B1 ein Messdatensatz MDS mit mehreren Messdaten-Einträgen MDE bereitgestellt. Man kann auch von Test Sample Features sprechen.
In Schritt B2 werden gemäß obigem Schritt A5 trainierte Vorhersage- Gruppen-Lernmodelle MG1 , MG2 und ein gemäß obigem Schritt A4 trainiertes gruppenübergreifendes Meta-Lernmodell MM bereitgestellt. Die Messdaten-Einträge MDE des bereitgestellten Messdatensatzes MDS werden in Schritt B3 analog zu Schritt A2 gruppiert, wodurch für jede Gruppe ein Gruppen-Unter-Messdatensatz GUM erhalten wird. Zu Schritt A2 analog bedeutet vorliegend bzw. für den Fall des Trainings mit MRT-Aufnahmen, dass die neue MRT-Aufnahme des Patienten unbekannten Alters bzw. die entsprechenden voxelweisen Graue-Zellen-Volumen in die gleichen Hirn- Parzellen unterteilt wird, wie es im Rahmen des Trainings-Verfahrens erfolgt. Es versteht sich, dass auch wenn im Folgenden beispielhaft auf den Fall der MRT-Aufnahmen von Hirnen eingegangen wird, bezüglich der anderen vorgenannten Beispiele völlig analog vorgegangen werden kann.
In Schritt B4 werden die Gruppen-Unter-Messdatensätze GUM jeweils den zugehörigen Vorhersage-Gruppen-Lernmodellen MG1 , MG2 zugeführt und von diesen wird als Ausgabe jeweils eine gruppenspezifische Vorhersage P1 , P2 erhalten. Wie angemerkt können alternativ oder zusätzlich auch die Modelle RsB MG1 , RsB MG2 genutzt werden (in Figur 1 unten aus Gründen der Übersichtlichkeit nicht zusätzlich dargestellt). Bei dem hier beschriebenen Ausführungsbeispiel wird für jede Gruppe, also jede Hirn-Parzelle ein Patientenalter als Vorhersage P1 , P2 erhalten, wobei sich die gruppen-, also parzellenspezifischen Alter voneinander unterscheiden können.
In Schritt B5 werden die gruppenspezifischen Vorhersagen für das Alter P1 , P2 dem gruppenübergreifenden Meta-Lernmodell MM zugeführt und von diesem wird als Ausgabe genau eine gruppenübergreifende Vorhersage P, mit anderen Worten ein Patientenalter für das gesamte Gehirn, erhalten.
Vorteile dieses Vorgehens beinhalten eine erhöhte Vorhersagegenauigkeit, verbesserte Generalisierbarkeit der Modellvorhersagen und erhöhte Interpre- tierbarkeit/Erklärbarkeit sowohl auf Modellebene als auch auf Datenpunkt- ebene. Interpretierbarkeit auf Modellebene meint dabei, dass jedes trainierte Modell auch out-of-sample Vorhersagen und somit Vorhersagegenauigkeit bereitstellt. Diese Vorhersagegenauigkeit kann als Wichtigkeitsmaß für die Vorhersagekraft der von diesem Modell benutzten Messdaten-Einträge MDE und somit der Gruppierungen interpretiert werden. Die Interpretierbarkeit auf Datenpunktebene ist dadurch gegeben, dass für - auch neue - Datenpunkte im Vorhersage-Verfahren die Vorhersagegenauigkeiten jedes Modelles geprüft werden und als Erklärung für Unterschiede in der Vorhersagegenauigkeit des gesamten Vorhersage-Verfahrens für diesen Datenpunkt dienen kann. Ist die Vorhersagegenauigkeit bei Modellen mit bestimmten Messda- ten-Einträgen MDE bzw. Gruppierung als Input anders als erwartet, kann dies Informationen bieten, weshalb die Vorhersage des gesamten Vorhersage-Verfahrens anders als erwartet ausfällt.
Das erfindungsgemäße computerimplementierte Trainings-Verfahren eignet sich besonders gut für den Fall, dass Lerndaten von bzw. an verschiedenen Messsorten zur Verfügung stehen. Ein Ausführungsbeispiel für ein solches Cross-Site-Szenario ist rein schematisch in der Figur 3 dargestellt. Im Folgenden wird insbesondere darauf eingegangen, wie sich das Verfahren in diesem Falle von demjenigen gemäß Figur 1 unterscheidet. Bezüglich der verbleibenden, übereinstimmenden Aspekte wird auf die vorangegangene Beschreibung verwiesen.
In Abweichung zu dem Beispiel aus Figur 1 werden im Cross-Site-Szenario in Schritt A1 mehrere, von verschiedenen Messorten stammende Lerndatensammlungen bereitgestellt. Bei dem Beispiel gemäß Figur 3 konkret zwei von den Messorten A, B stammende Lerndatensammlungen LA, LB. Es versteht sich, dass rein beispielhaft und aus Gründen der Übersichtlichkeit Figur 3 zwei Messorte A, B zeigt und es natürlich auch mehr sein können. Die verschiedenen Messorte A, B sind hier durch verschiedene Krankenhäuser gegeben, die jeweils ein eigenes MRT-System haben, mittels dem die Messdatensätze MDS der Lerndatensammlungen LA, LB für Patienten bekannten Alters erhalten wurden. Jede der beiden Lerndatensammlungen LA, LB gleicht von ihrem Aufbau her der Lerndatensammlung L aus Figur 1 , so dass auch diesbezüglich auf obige Beschreibung verwiesen wird.
In dem Cross-Site-Szenario gemäß Figur 3 werden in Schritt A3 für jeden und an jedem Messort A, B eigene Resampling-basierte messortspezifische Gruppen-Lernmodelle mit den zum jeweiligen Messort A, B gehörigen Lerndatensätzen LDS trainiert und getestet. Dies ist in der Figur wiederum durch mit RsB M bezeichnete Pfeile angedeutet. Die Resampling-Methode schließt auch hier mit ein, dass wenigstens ein Trainieren mit einem Teil der messortspezifischen, also zum jeweiligen Messort A, B gehörigen Gruppen- Unter-Messdatensätze GUM und zugehörigen messortspezifischen Target- Variablen T erfolgt, und wenigstens ein Testen mit einem anderen Teil der messortspezifischen Gruppen-Unter-Messdatensätze GUM. Das Testen liefert dann - für den jeweiligen Messort A, B - Vorhersagen für verschiedene Gruppen, mit anderen Worten messort- und gruppenspezifische Vorhersagen AP1 , AP2, BP1 , BP2. In der Figur 3 ist zur besseren Unterscheidung für den Messort A eine nach links und für den Messort B eine nach rechts gekippte Schraffierung verwendet. Die für Messort A bzw. B und Gruppe G1 spezifischen Vorhersagen AP1 , BP1 sind entsprechend die nach links bzw. rechts schraffierten und mit P1 bezeichneten. Gruppe G2 verhält es sich analog.
Es kann, genau wie bei dem Beispiel gemäß Figur 1 , eine Kreuz-Validierung, etwa eine Leave-One-Out-Kreuz-Validierung oder auch k-Fold-Kreuz- Validierung durchgeführt werden, mit der einzigen Maßgabe, dass auch dies getrennt für die beiden Messorte A, B erfolgt. Bei dem gezeigten Ausführungsbeispiel wird auf diese Weise für jeden Messort A, B eine Anzahl von „out-of-sample“ Vorhersagen erhalten, die der Anzahl der Messdatensätze MDS der jeweiligen Lerndatensammlung LA, LB entspricht. Dies ist wiederum nicht zwingend.
Es werden ferner in Schritt A5 für jeden Messort eigene messortspezifische Vorhersage-Gruppen-Lernmodelle MA1 , MA2, MB1 , MB2 hier ohne Nutzung einer Resampling-Methode trainiert, wobei das Training hier jeweils mit allen messortspezifischen Gruppen-Unter-Messdatensätzen GUM und zugehörigen messortspezifischen Target-Variablen T erfolgt. Auch hier gilt, dass das Trainieren der messortspezifischen Vorhersage-Gruppen-Lernmodelle MA1 , MA2, MB1 , MB2 optional ist.
In Schritt A4 werden dann die messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und zugehörigen messortspezifischen Target- Variablen T der beiden verschiedenen Messorte A, B zusammengeführt („Daten-Pooling“) und mit diesen Daten beider Messorte A, B wird ein nicht Resampling-basiertes zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell MA+B trainiert. Das Zusammenführen der messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und zugehörigen messortspezifischen Target-Variablen T kann beispielsweise erfolgen, indem Messort A seine Vorhersagen AP1 , AP2 und Target-Variablen T an Messort B übergibt oder umgekehrt. Natürlich können auch beide Messorte A, B die Daten an ein Dritte Stelle übergeben, welche diese dann zusammen für das Training nutzt.
Von verschiedenen Messorten stammende Daten sind in der Regel heterogen. Insbesondere bestehen systematische Unterschiede zwischen den genutzten Messaufbauten, im Falle von MRT-Bildern etwa Scannern, sowie den Datensammel-Parametern [Chen 2021 , Mali et al]. Das Trainings-Verfahren gemäß Figur 3 ermöglicht hier eine Harmonisierung, da die Vorhersagen von messortspezifischen Gruppen-Lernmodellen auf die Target-Variable selbst und nicht auf die messortspezifischen Assoziationen zwischen den Messda- ten-Einträgen MDE und der Target-Variable T ausgerichtet sind. Ist zum Beispiel für Messort A die Intensität jeder Hirnparzelle höher als in Messort B, so würde dies unter Nutzung von normalen Daten-Pooling Methoden, wie der Bestimmung des Arithmetischen Mittels, zu verschiedenen messortabhängigen Repräsentationen führen. Die Nutzung der Vorhersagen von messortspezifischen Gruppen-Lernmodellen sind nun jedoch immer vorhergesagte Target-Variablen-Werte und somit auf die Target-Variable ausgerichtet. Sie beinhalten also nicht mehr diese Unterschiede in der Intensität. Auf der anderen Seite wird ein hohes Maß an Privatsphäre trotz der Cross- Site-Daten gewährleistet, da kein Teilen der Rohdaten erforderlich ist, sondern nur die Vorhersagen AP1 , AP2, BP1 , BP2 der verschiedenen Messorte A, B zusammengeführt werden. Dies bedeutet, dass Kooperationen zwischen verschiedenen Standorten A, B ermöglicht werden, ohne Rohdaten oder andere geschützten Daten zu teilen.
Für eine anschließende Vorhersage (vgl. Figur 3 unten) gilt dann folgendes, wobei wieder die Unterschiede zu dem Ausführungsbeispiel des erfindungsgemäßen Vorhersage-Verfahrens gemäß Figur 1 erläutert und im Übrigen auf dessen obige Beschreibung verweisen wird.
In Schritt B2 werden die erhaltenen messortspezifischen Vorhersage- Gruppen-Lernmodelle MA1 , MA2, MB1 , MB2 (alternativ oder zusätzlich die messortspezifischen Vorhersage-Gruppen-Lernmodelle MA1 , MA2, MB1 , MB2, was in Figur 3 aus Gründen der Übersichtlichkeit nicht zusätzlich dargestellt ist) und das erhaltene zusammenführende messort- und gruppenübergreifende Meta-Lernmodell MA+B bereitgestellt. Die Gruppen-Unter-Messdatensätze GUM des in Schritt B1 bereitgestellten Messdatensatzes MDS werden in Schritt B4 den messortspezifischen Vor- hersage-Gruppen-Lernmodellen MA1 , MA2, MB1 , MB2 zugeführt. Dabei werden die Gruppen-Unter-Messdatensätze GUM sowohl den Vorhersage- Gruppen-Lernmodellen MA1 , MA2 von Messort A als auch den Vorhersage- Gruppen-Lernmodellen MB1 , MB2 von Messort B zugeführt, so dass für jeden Messort A, B messort- und gruppenspezifische Vorhersagen P1 , P2 erhalten werden (ebenfalls entsprechend schraffiert). Man erhält bei dem vorliegenden Beispiel für jede Gruppe, also jede Hirnparzelle ein vorhergesagtes Patientenalter, einmal unter Nutzung der mit den Daten LA von Messort A trainierten Modelle MA1 , MA2 und einmal unter Nutzung der mit den Daten LB von Messort B trainierten Modelle MB1 , MB2.
Die jeweils zu einer Gruppe G1 , G2 gehörenden Vorhersagen AP1 , AP2, BP1 , BP2 der beiden verschiedenen Messorte A, B werden durch ein statistisches Verfahren, vorliegend durch Bildung deren Mittelwertes, miteinander kombiniert, so dass genau eine messortübergreifende gruppenspezifische Vorhersage P1 , P2 für jede Gruppe erhalten wird. Es wird mit anderen Worten der Mittelwert von AP1 und BP1 sowie der Mittelwert von AP2 und BP2 gebildet.
Die durch Mittelwertbildung erhaltenen (nur noch) gruppenspezifischen Vorhersagen P1 , P2 werden dem nicht Resampling-basierten zusammenführenden messort- und gruppenübergreifenden Meta-Lernmodell MA+B zugeführt und von diesem wird eine messort- und gruppenübergreifende Vorhersage P - bei dem vorliegenden Beispiel wiederum ein Patientenalter - erhalten.
Die Figur 4 zeigt ein weiteres Ausführungsbeispiel eines erfindungsgemäßen Vorhersage-Verfahrens, das Lernmodelle nutzt, die gemäß dem Trainings- Verfahren aus Figur 3, also unter Nutzung von Cross-Site-Daten, erhalten wurden. Wie man erkennt, besteht der Unterschied darin, dass aus den messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 kein Mittelwert gebildet, sondern diese messortweise dem zusammenführenden messort- und gruppenübergreifenden Meta-Lernmodell MA+B zugeführt werden, so dass messortspezifische gruppenübergreifende Vorhersagen PA, PB erhalten werden. Diese werden dann durch ein statistisches Verfahren, insbesondere Mittelung, miteinander kombiniert, so dass aus PA und PB eine messort- und gruppenübergreifende Vorhersage P erhalten wird.
Die Figur 5 zeigt ein weiteres Ausführungsbeispiel eines erfindungsgemäßen computerimplementierten Trainings-Verfahrens für den Cross-Site-Fall. Der Unterschied zu dem Beispiel gemäß Figur 3 besteht im Wesentlichen darin, dass ein Zusammenführen von Daten von den beiden verschiedenen Messorten A, B zu einem späteren Zeitpunkt erfolgt. Man kann auch von einer „späten Datenfusion“ sprechen, während das Beispiel aus Figur 3 einer „intermediäre Datenfusion“ bereits der Vorhersagen von LevelO entspricht.
Das Szenario aus Figur 5 oben stimmt mit demjenigen aus Figur 3 bis zum Erhalt der messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 überein. Diese werden jedoch nicht zusammengeführt, sondern weiter getrennt voneinander verarbeitet, z.B. weiter an dem jeweiligen Messort A, B.
In Schritt A4 wird dann für jeden Messort ein Resampling-basiertes messortspezifisches gruppenübergreifendes Meta-Lernmodell trainiert und getestet, wobei die Resampling-Methode einschließt, dass wenigstens ein Trainieren mit einem Teil der messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und den zugehörigen messortspezifischen Target- Variablen T der Lerndatensammlungen LA, LB erfolgt, und wenigstens ein Testen mit einem anderen Teil der messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und den zugehörigen messortspezifischen Target-Variablen T der Lerndatensammlungen LA, LB erfolgt, und wobei das wenigstens eine Testen messortspezifische gruppenübergreifende Vorhersagen PA, PB liefert.
Es wird ferner, insbesondere ebenfalls in Schritt A4, für jeden Messort A, B ein nicht Resampling-basiertes messortspezifisches gruppenübergreifendes Meta-Lernmodell MA, MB trainiert, wobei das Training jeweils mit den mess- ort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und den zugehörigen messortspezifischen Target-Variablen T der jeweiligen Lerndatensammlung LA, LB erfolgt, bevorzugt jeweils mit allen messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 und zugehörigen messortspezifischen Target-Variablen T.
Den trainierten nicht Resampling-basierten messortspezifischen gruppenübergreifenden Meta-Lernmodellen MA, MB werden messort- und gruppenspezifische Vorhersagen des jeweils anderen Messortes A, B nebst zugehöriger Target-Variablen T zugeführt und hierdurch messortspezifische gruppenübergreifende Kreuz-Vorhersagen PAB, PBA erhalten werden. Mit anderen Worten werden Modell MA die Vorhersagen BP1 Und BP2 zugeführt und die Vorhersagen PAB erhalten und Modell MB die Vorhersagen AP1 und AP2 zugeführt und die Vorhersagen PBA erhalten. Die Vorhersagen PAB sind entsprechend solche, die unter Nutzung eines zu Messort A gehörigen Modells und Daten von Messort B erhalten wurden und für PBA umgekehrt.
Mit den messortspezifische gruppenübergreifende Vorhersagen PA, PB und den und den messortspezifischen gruppenübergreifenden Kreuz- Vorhersagen PAB, PBA und den entsprechenden Target-Variablen T der Lerndatensammlungen LA, LB wird dann ein nicht Resampling-basiertes Kreuz-Messort-Meta-Lernmodell MA_B trainiert, so dass es aus mehreren messortspezifischen gruppenübergreifenden Vorhersagen PA, PB eine messort- und gruppenübergreifende Vorhersage P liefern kann.
Ein zugehöriges Ausführungsbeispiel eines erfindungsgemäßen computerimplementierten Vorhersage-Verfahrens ist in Figur 5 unten dargestellt. Dieses stimmt, bis zum Erhalt der messort- und gruppenspezifischen Vorhersagen AP1 , AP2, BP1 , BP2 mit denjenigen gemäß Figur 3 und 4 überein. Dann werden jedoch die nicht Resampling-basierten messortspezifischen gruppenübergreifenden Meta-Lernmodelle MA, MB genutzt. Konkret werden diesen jeweils die gruppenspezifischen Vorhersagen des zugehörigen Messortes A, B, also dem trainierten Modell MA die Vorhersagen AP1 Und AP2 und dem Modell MB die Borhersagen BP1 Und BP2 zugeführt. Aus dem Modell MA wird die gruppenübergreifend messortspezifische Vorhersage PA und aus dem Modell MB die gruppenübergreifend messortspezifische Vorhersage PB erhalten (ein Patientenalter von jedem messortspezifischen Modell). Diese Vorhersagen PA, PB werden dann dem nicht Resampling-basierten Kreuz-Messort-Meta-Lernmodell MA_B zugeführt, welches die Vorhersage P, vorliegend ein Patientenalter, liefert.
Die Figur 6 zeigt ein weiteres Ausführungsbeispiel für ein Cross-Site- Szenario. Bei diesem kommt eine zusätzliche Lerndatensammlung LC von einem von den Messorten A und B verschiedenen zusätzlichen Messort C zum Einsatz. Es sein angemerkt, dass zusätzlich zu den Schritten gemäß Figur 6 Schritte des Trainings- Verfahrens aus Figur 5 absolviert werden müssen und zwar zumindest diejenigen zum Erhalt der Modelle MA1 , MA2, MB1 , MB2 sowie MA und MB, jeweils unter Nutzung der entsprechenden Lerndatensammlungen LA bzw. LB.
Wie in Figur 6 erkennbar erfolgt dann eine Gruppierung der Messdaten- Einträge MDE der Messdatensätze MDS der zusätzlichen Lerndatensamm- lung LC in mehrere Gruppen G1 , G2 wie in Schritt A2 vorgesehen, wodurch zusätzliche Gruppen-Unter-Messdatensätze GUM erhalten werden.
Die zusätzlichen Gruppen-Unter-Messdatensätze GUM und die Target- Variablen T der zusätzlichen Lerndatensammlung LC werden dann jeweils den zu den Messorten A und B gehörigen trainierten nicht Resampling- basierten messortspezifischen Gruppen-Lernmodellen MA1 , MA2, MB1 , MB2 zugeführt und von diesen werden messort- und gruppenspezifische Vorhersagen, nämlich einerseits AP1 , AP2 und andererseits BP1 , BP2 erhalten.
Die messort- und gruppenspezifische Vorhersagen AP1 , AP2, BP1 , BP2 werden jeweils den zu den Messorten A, B gehörenden trainierten nicht Resampling-basierten messortspezifischen gruppenübergreifenden Meta- Lernmodellen MA, MB zugeführt und von diesen messortspezifische gruppenübergreifende Vorhersagen PA, PB erhalten. Die ist in gewissem Maße analog zu Figur 5 jedoch mit der Maßgabe, dass AP1 , AP2, BP1 , BP2 zwar mit den Modellen MA1 , MA2, MB1 , MB2 erhalten werden, jedoch nicht unter Nutzung von Daten dieser Messorte A, B, sondern des unabhängigen Messortes C.
Mit den messortspezifische gruppenübergreifende Vorhersagen PA, PB und den entsprechenden Target-Variablen T der zusätzlichen Lerndatensammlung LC von Messort C wird dann ein nicht Resampling-basiertes Zusatz- Kreuz-Messort-Meta-Lernmodell MA_Bc trainiert.
Wie der Figur 6 unten entnommen werden kann, stimmt ein entsprechendes Ausführungsbeispiel eines zugehörigen computerimplementierten Vorhersage-Verfahrens mit dem Beispiel aus Figur 5 überein, mit der einzigen Maßgabe, dass zum Erhalt von P das nicht Resampling-basiertes Zusatz-Kreuz- Messort-Meta-Lernmodell MA_Bc genutzt wird. Ein solches System bietet viele Vorteile für Federation-Learning basierte Kollaborationen mehrerer Arbeitsgruppen. Als Beispiel kann ein Szenario genannt werden, in dem Mess- ort/Krankenhaus A und Messort/Krankenhaus B intern dasselbe Trainings- Verfahren anwenden, um dann Vorhersagen auf Messort C mit einander o- der einer dritten Partei, z.B. Forschenden, zu teilen. Dies bedeutet, dass weder die trainierten Modelle noch die Rohdaten miteinander geteilt werden müssen. Dies erlaubt maximalen Schutz für die Sicherheit und Privatsphäre der Daten von Messort A und B. Messort C kann ein allen Parteien oder sogar öffentlich zugängliches Datenset sein. Dies bedeutet, dass sowohl private als auch öffentlich oder anderes geteilte, große und kleine Datensätze ideal genutzt werden können. Ein Beispiel für einen solchen nun besser nutzbaren großangelegten Datensatz ist die UK Biobank (UKB) [Sudlow et al. 2015], Natürlich ist dieses genaue Szenario nur ein Beispiel und die Nutzung einer anderen Anzahl an sowohl privaten als auch geteilten Datensätze verschiedener Messorte ist möglich.
Die Schritte der oben beschriebenen Ausführungsbeispiele sowohl erfindungsgemäßer Trainings- als auch Vorhersage-Verfahren können jeweils mittels wenigstens eines Computers ausgeführt werden. Es kann ein bzw. können mehrere Computerprogramme mit Programmcode-Mittel zum Einsatz kommen die, wenn sie auf wenigstens einem Computer ausgeführt werden, den wenigstens einen Computer veranlassen, die obigen Schritte durchzuführen. Auch die Nutzung einer (privaten und/oder öffentlichen) Cloud ist möglich.
REFERENZEN
Chen et al. 2021 : Chen, J., Müller, V.I., Dukart, J., Hoffstaedter, F., Baker, J.T., Holmes, A.J., Vatansever, D., Nickl-Jockschat, T., Liu, X., Derntl, B., et al. (2021). Intrinsic Connectivity Patterns of Task-Defined Brain Networks Allow Individual Prediction of Cognitive Symptom Dimension of Schizophrenia and Are Linked to Molecular Architecture. Biol. Psychiatry 89, 308-319.
Finn et al. 2015: Finn, E.S., Shen, X., Scheinost, D., Rosenberg, M.D., Huang, J., Chun, M.M., Papademetris, X., and Constable, R.T. (2015). Functional connectome fingerprinting: identifying individuals using patterns of brain connectivity. Nat. Neurosci. 18, 1664-1671
Hedderich & Eickhoff 2021 : Hedderich, D.M., and Eickhoff, S.B. (2021).
Machine learning for psychiatry: getting doctors at the black box? Mol. Psychiatry 26, 23-25
Kaissis et al. 2020: Kaissis, G.A., Makowski, M.R., Rückert, D., and
Braren, R.F. (2020). Secure, privacy-preserving and federated machine learning in medical imaging. Nat. Mach. Intell
Larabi et al. 2021 : Larabi, D.I., Gell, M., Amico, E., Eickhoff, S.B., and Patil, K.R. (2021). Highly accurate local functional fingerprints and their stability. BioRxiv
Mali et al 2021 : Mali, S.A., Ibrahim, A., Woodruff, H.C., Andrearczyk, V., Müller, H., Primakov, S., Salahuddin, Z., Chatterjee, A., and Lambin, P. (2021). Making Radiomics More Reproducible across Scanner and Imaging Protocol Variations: A Review of Harmonization Methods. J. Pers. Med. 11 Myszczynska et al. 2020: Myszczynska, M.A., Ojamies, P.N., Lacoste, A.M.B., Neil, D., Saffari, A., Mead, R., Hautbergue, G.M., Holbrook, J.D., and Ferraiuolo, L. (2020). Applications of machine learning to diagnosis and treatment of neurodegenerative diseases. Nat. Rev. Neurol. 16, 440-456 Schaefer et al. 2018: Schaefer, A., Kong, R., Gordon, E.M., Laumann,
T.O., Zuo, X.-N., Holmes, A.J., Eickhoff, S.B., and Yeo, B.T.T. (2018). Local- Global Parcellation of the Human Cerebral Cortex from Intrinsic Functional Connectivity MRI. Cereb. Cortex 28, 3095-3114
Sudlow C et al. 2015: Sudlow, C., Gallacher, J., Allen, N., Beral, V., Burton, P., Danesh, J., Downey, P., Elliott, P., Green, J., Landray, M., et al. (2015). UK Biobank: an open access resource for identifying the causes of a wide range of complex diseases of middle and old age. PLoS Med. 12, e1001779
Yeo et al. 2011 : Yeo, B.T.T., Krienen, F.M., Sepulcre, J., Sabuncu, M.R., Lashkari, D., Hollinshead, M., Roffman, J.L., Smoller, J.W., Zöllei, L., Poli- meni, J.R., et al. (2011). The organization of the human cerebral cortex estimated by intrinsic functional connectivity. J. Neurophysiol. 106, 1125-1165

Claims

ANSPRÜCHE
1. Computerimplementiertes Trainings-Verfahren zum Trainieren maschineller Lernmodelle, bei dem
A1) wenigstens eine Lerndatensammlung (L, LA, LB, LC) mit mehreren Lerndatensätzen (LDS) bereitgestellt wird, wobei jeder Lerndatensatz (LDS) einen Messdatensatz (MDS) mit mehreren Messdaten- Einträgen (MDE) und eine dem Messdatensatz (MDS) zugeordnete Target-Variable (T) umfasst, bevorzugt, wobei alle Lerndatensätze (LDS) den gleichen Aufbau aufweisen, dadurch gekennzeichnet, dass
A2) eine Gruppierung zumindest eines Teils der Messdaten- Einträge (MDE) der Messdatensätze (MDS) der wenigstens einen Lerndatensammlung (L, LA, LB, LC) in mehrere Gruppen (G1 , G2) erfolgt, wodurch Gruppen-Unter-Messdatensätze erhalten werden, wobei die Gruppen-Unter-Messdatensätze (GUM) einer Gruppe (G1 , G2) jeweils zueinander korrespondierende Messdaten-Einträge (MDE) verschiedener Messdatensätze (MDS) umfassen,
A3) für jede Gruppe (G1 , G2) ein eigenes maschinelles Lernmodell unter Nutzung einer Resampling-Methode trainiert und getestet wird, Resampling-basiertes Gruppen-Lernmodell (RsB MG1 , RsB MG2), wobei die Resampling-basierte Methode einschließt, dass wenigstens ein Trainieren mit einem Teil der zu der jeweiligen Gruppe (G1 , G2) gehörenden Gruppen-Unter-Messdatensätze (GUM) und den zugehörigen Target-Variablen (T) erfolgt, und wenigstens ein Testen mit einem anderen Teil der zu der jeweiligen Gruppe (G1 , G2) gehörenden Gruppen-Unter-Messdatensätze (GUM) erfolgt, und wobei das we- nigstens eine Testen Vorhersagen für verschiedene Gruppen, gruppenspezifische Vorhersagen (P1 , P2, AP1 , AP2, BP1 , BP2) liefert,
A4) mit den gruppenspezifischen Vorhersagen (P1 , P2, AP1 , AP2, BP1 , BP2) und Target-Variablen (T) der wenigstens einen Lerndatensammlung (L, LA, LB, LC) wenigstes ein weiteres maschinelles Lernmodell, gruppenübergreifendes Meta-Lernmodell (MM, MA+B, MA_B), insbesondere ohne Nutzung einer Resampling-Methode trainiert wird, so dass es aus mehreren, verschiedenen Gruppen (G1 , G2) zugeordneten gruppenspezifischen Vorhersagen (P1 , P2, AP1 , AP2, BP1 , BP2) eine gruppenübergreifende Vorhersage (P) liefern kann,
A5) optional für jede Gruppe (G1 , G2) ein weiteres maschinelles Lernmodell mit zu der jeweiligen Gruppe (G1 , G2) gehörenden Grup- pen-Unter-Messdatensätzen (GUM) und zugehörigen Target- Variablen (T) insbesondere ohne Nutzung einer Resampling-Methode trainiert wird, Vorhersage-Gruppen-Lernmodell (MG1 , MG2), wobei das Training bevorzugt mit allen zu der jeweiligen Gruppe (G1 , G2) gehörenden Gruppen-Unter-Messdatensätze (GUM) und zugehörigen Target-Variablen (T) erfolgt.
2. Computerimplementiertes Trainings-Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die verschiedenen Lerndatensätze (LDS) zu verschiedenen Patienten gehören und die Lerndatensätze (LDS) medizinisch relevante Messdatensätze (MDS), insbesondere Messdatensätze (MDS), die mittels medizinischer Diagnostikverfahren erhalten wurden, umfassen, und die Target-Variablen (T) Eigenschaften der Patienten, insbesondere ein Alter und/oder einen Krankheitszustand der Patienten, betreffen oder dadurch gegeben sind.
3. Computerimplementiertes Trainings-Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Messdatensätze (MDS) durch Bildauf- nahmen, insbesondere MRT-Bildaufnahmen, menschlicher Gehirne oder Teile dieser gegeben sind oder solche umfassen, und die Messdaten-Einträge (MDE) jeweils einem Voxel entsprechen oder zugeordnet sind, und dass eine Gruppierung in Hirn-Parzellen erfolgt.
4. Computerimplementiertes Trainings-Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die verschiedenen Lerndatensätze (LDS) zu verschiedenen Personen gehören und die Messdatensätze (MDS) durch Bildaufnahmen zumindest eines Teils des Gesichts und/oder zumindest eines Teils des Körpers der Personen gegeben sind oder solche umfassen, und die Target-Variablen (T) Eigenschaften der Personen betreffen oder dadurch gegeben sind, bevorzugt, wobei die Messdaten-Einträge (MDE) jeweils einem Pixel entsprechen oder zugeordnet sind, und/oder wobei die Eigenschaften der Personen keinen Krankheitszustand der Personen betreffen bzw. nicht dadurch gegeben sind.
5. Computerimplementiertes Trainings-Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die verschiedenen Lerndatensätze (LDS) zu verschiedenen Abschnitten der Erdoberfläche gehören und die Messdatensätze (MDS) durch Bildaufnahmen, insbesondere Satellitenaufnahmen, von den Erdoberflächenabschnitten gegeben sind oder solche umfassen, und die Target-Variablen (T) Eigenschaften der Erdoberflächenabschnitte, insbesondere das Vorhandensein bestimmter Elemente, bevorzugt das Vorhandensein von Feldern und/oder Flüssen und/oder Seen, betreffen oder dadurch gegeben sind.
6. Computerimplementiertes Trainings-Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die verschiedenen Lerndatensätze (LDS) zu verschiedenen Personen gehören und die Messdatensätze (MDS) durch Informationen über das Benutzerverhalten der Personen, insbesondere auf wenigstens einer Webseite, gegeben sind oder solche umfassen, und die Target-Variablen (T) Informationen über von den Personen vorgenommene Handlungen, insbesondere von den Personen getätigte Käufe, betreffen oder dadurch gegeben sind.
7. Computerimplementiertes Trainings-Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die verschiedenen Lerndatensätze (LDS) zu verschiedenen DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen gehören und die Messdatensätze (MDS) durch Informationen über die DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionen, insbesondere durch den Aufbau dieser betreffende Informationen, gegeben sind oder solche umfassen, und die Target-Variablen (T) Merkmale der DNA-Sequenzen und/oder Proteinsequenzen und/oder Genexpressionendaten, insbesondere Bindungsstellen und/oder Protein-Protein- Wechselwirkungen und/oder Lösungsmittel-Eigenschaften dieser, betreffen oder dadurch gegeben sind.
8. Computerimplementiertes Trainings-Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Schritt A2 eine von einem Benutzer vordefinierte Gruppierung oder eine von der wenigstens einen Lerndatensammlung (L, LA, LB, LC), insbesondere der Struktur der Messdatensätze (MDS), abgeleitete, bevorzugt durch Clusterbildung erhaltene Gruppierung der Messdatensätze (MDS) vorgenommen wird.
9. Computerimplementiertes Trainings-Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Schritt A1 Lerndatensammlungen (L, LA, LB LC) von und insbesondere an verschiedenen Messorten (A, B, C) bereitgestellt werden, wobei die Lerndatensammlungen (L, LA, LB LC) jeweils mehrere Lerndatensätze (LDS) mit Messdaten- Einträgen (MDE) und zugehörigen Target-Variablen (T) umfassen.
10. Computerimplementiertes Trainings-Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass in Schritt A3 für jeden Messort (A, B, C) eigene Resampling-basierte messortspezifische Gruppen-Lernmodelle mit den zum jeweiligen Messort (A, B, C) gehörigen Lerndatensätzen (LDS) trainiert und getestet werden, wobei die Resampling-Methode jeweils einschließt, dass wenigstens ein Trainieren mit einem Teil der messortspezifischen Gruppen-Unter-Messdatensätze (GUM) und zugehörigen messortspezifischen Target-Variablen (T) erfolgt, und wenigstens ein Testen mit einem anderen Teil der messortspezifischen Gruppen-Unter-Messdatensätze (GUM) erfolgt, und wobei das wenigstens eine Testen für den jeweiligen Messort (A, B, C) Vorhersagen für verschiedene Gruppen, messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2), liefert.
11. Computerimplementiertes Trainings-Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass in Schritt A5 für jeden Messort (A, B, C) eigene messortspezifische Vorhersage-Gruppen-Lernmodelle (MA1 , MA2, MB1 , MB2) insbesondere ohne Nutzung einer Resampling-Methode trainiert werden, wobei das Training bevorzugt jeweils mit allen messortspezifischen Gruppen-Unter-Messdatensätzen (GUM) und zugehörigen messortspezifischen Target-Variablen (T) erfolgt.
12. Computerimplementiertes Trainings-Verfahren nach einem der Ansprüche 9 bis 11 , dadurch gekennzeichnet, dass in Schritt A4 die messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) und zugehörigen messortspezifischen Target-Variablen (T) verschiedener Messorte (A, B, C) zusammengeführt werden und damit ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell (MA+B) insbesondere ohne Nutzung einer Resampling-Methode trainiert wird.
13. Computerimplementiertes Trainings-Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass in Schritt A4 für jeden Messort (A, B, C) ein Resampling-basiertes messortspezifisches gruppenübergreifendes Meta-Lernmodell trainiert und getestet wird, wobei die Resampling-Methode einschließt, dass wenigstens ein Trainieren mit einem Teil der messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) und den zugehörigen messortspezifischen Target-Variablen (T) der Lerndatensammlungen (L, LA, LB, LC) erfolgt, und wenigstens ein Testen mit einem anderen Teil der messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) und den zugehörigen messortspezifischen Target- Variablen (T) der Lerndatensammlungen (L, LA, LB, LC) erfolgt, und wobei das wenigstens eine Testen messortspezifische gruppenübergreifende Vorhersagen (PA, PB) liefert.
14. Computerimplementiertes Trainings-Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass mit den von mehreren Messorten (A, B, C) stammenden messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) und zugehörigen messortspezifischen Target-Variablen (T) ein Kreuz- Messort-Meta-Lernmodell (MA_B) insbesondere ohne Nutzung einer Resampling-Methode trainiert wird, so dass es aus mehreren messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) eine messort- und gruppenübergreifende Vorhersage (P) liefern kann.
15. Computerimplementiertes Trainings-Verfahren nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass insbesondere in Schritt A4 für jeden Messort ein messortspezifisches gruppenübergreifendes Meta- Lernmodell (MA, MB) insbesondere ohne Nutzung einer Resampling- Methode trainiert wird, wobei das Training jeweils mit den messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) und den zugehörigen messortspezifischen Target-Variablen (T) der jeweiligen Lerndaten- Sammlung (L, LA, LB, LC) erfolgt, bevorzugt jeweils mit allen messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) und zugehörigen messortspezifischen Target-Variablen (T).
16. Computerimplementiertes Trainings-Verfahren nach Anspruch 11 und 15, dadurch gekennzeichnet, dass eine zusätzliche Lerndatensammlung (LC) von einem von den Messorten (A, B) verschiedenen zusätzlichen Messort (C) bereitgestellt wird, und eine Gruppierung der Messdaten-Einträge (MDE) der Messdatensätze (MDS) der zusätzlichen Lerndatensammlung (LC) in mehrere Gruppen (G1 , G2) wie in Schritt A2 vorgesehen erfolgt, wodurch zusätzliche Gruppen-Unter-Messdatensätze (GUM) erhalten werden, die zusätzlichen Gruppen-Unter-Messdatensätze (GUM) und die Target-Variablen (T) der zusätzlichen Lerndatensammlung (LC) jeweils den zu den Messorten (A, B) gehörigen insbesondere ohne Nutzung einer Resampling-Methode trainierten messortspezifischen Vorhersa- ge-Gruppen-Lernmodellen (MA1 , MA2, MB1 , MB2) zugeführt und von diesen messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) erhalten werden, die messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) jeweils den zu den Messorten (A, B) gehörenden insbesondere ohne Nutzung einer Resampling-Methode trainierten messortspezifischen gruppenübergreifenden Meta-Lernmodellen (MA, MB) zugeführt und von diesen messortspezifische gruppenübergreifende Vorhersagen (PA, PB) erhalten werden, mit den messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) und den Target-Variablen (T) der zusätzlichen Lerndatensammlung (LC) ein Zusatz-Kreuz-Messort-Meta-Lernmodell MA_Bc insbesondere ohne Nutzung einer Resampling-Methode trainiert wird.
17. Computerimplementiertes Trainings-Verfahren nach Anspruch 15 oder
16, dadurch gekennzeichnet, dass dem trainierten messortspezifischen gruppenübergreifenden Meta-Lernmodell (MA, MB) wenigstens eines Messortes (A, B, C) messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) wenigstens eines anderen Messortes (A, B, C) zugeführt und hierdurch messortspezifische gruppenübergreifende Kreuz-Vorhersagen (PAB, PBA) erhalten werden.
18. Computerimplementiertes Trainings-Verfahren nach Anspruch 14 und
17, dadurch gekennzeichnet, dass das Kreuz-Messort-Meta-Lernmodell MA_Bc mit den messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) und den messortspezifischen gruppenübergreifenden Kreuz- Vorhersagen (PAB, PBA) trainiert wird.
19. Computerimplementiertes Vorhersage-Verfahren zur Vorhersage einer Eigenschaft unter Nutzung maschineller Lernmodelle, die unter Durchführung des Trainings-Verfahrens nach einem der vorhergehenden Ansprüche erhalten wurden, bei dem
B1) ein Messdatensatz (MDS) mit mehreren Messdaten-Einträgen (MDE) bereitgestellt wird,
B2) gemäß Schritt A5 trainierte Vorhersage-Gruppen-Lernmodelle (MG1 , MG2, MA1 , MA2, MB1 , MB2) und/oder gemäß Schritt A2 trainierte Resampling-basierte Gruppen-Lernmodelle (RsB MG1 , RsB MG2) und wenigstens ein gemäß Schritt A4 insbesondere ohne Nutzung einer Resampling-Methode trainiertes gruppenübergreifendes Meta-Lernmodell (MM, MA+B, MA_B) bereitgestellt werden,
B3) die Messdaten-Einträge (MDE) des in Schritt B1 bereitgestellten Messdatensatzes (MDS) analog zu Schritt A2 gruppiert werden, wodurch für jede Gruppe (G1 , G2) ein Gruppen-Unter-Messdatensatz (GUM) erhalten wird,
B4) die Gruppen-Unter-Messdatensätze (GUM) jeweils den zugehörigen Vorhersage-Gruppen-Lernmodellen (MG1 , MG2, MA1 , MA2, MB1 , MB2) oder den zugehörigen Resampling-basierten Gruppen- Lernmodellen (RsB MG1 , RsB MG2) zugeführt werden und von diesen als Ausgabe jeweils eine gruppenspezifische Vorhersage (P1 , P2) erhalten wird,
B5) die gruppenspezifischen Vorhersagen (P1 , P2, AP1 , AP2, BP1 , BP2) dem wenigstens einen insbesondere ohne Nutzung einer Resampling-Methode trainierten gruppenübergreifenden Meta- Lernmodell (MM, MA+B, MA_B) zugeführt werden und von diesem als Ausgabe eine gruppenübergreifende Vorhersage (P) erhalten wird.
20. Computerimplementiertes Vorhersage-Verfahren nach Anspruch 19, bei dem
- in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle (MA1 , MA2, MB1 , MB2) verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 11 erhalten wurden, und/oder Resampling-basierte messortspezifische Gruppen- Lernmodelle verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 10 erhalten wurden, und ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell (MA+B), das unter Durchführung des Trainings- Verfahrens nach Anspruch 12 insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, bereitgestellt werden,
- die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze (GUM) in
Schritt B4 den messortspezifischen Vorhersage-Gruppen-
Lernmodellen (MA1 , MA2, MB1 , MB2) oder den Resampling-basierten messortspezifischen Gruppen-Lernmodellen der verschiedenen Messorte (A, B, C) zugeführt und messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) erhalten werden,
- die jeweils zu einer Gruppe (G1 , G2) gehörenden Vorhersagen (AP1 , AP2, BP1 , BP2) verschiedener Messorte (A, B, C) durch ein statistisches Verfahren, insbesondere Mittelung, miteinander kombiniert werden, so dass eine gruppenspezifische Vorhersage (P1 , P2) für jede Gruppe (G1 , G2) erhalten wird,
- die gruppenspezifischen Vorhersagen (P1 , P2) dem zusammenführenden messort- und gruppenübergreifenden Meta-Lernmodell (MA+B) zugeführt werden und von diesem eine messort- und gruppenübergreifende Vorhersage (P) erhalten wird.
21. Computerimplementiertes Vorhersage-Verfahren nach Anspruch 19 oder 20, bei dem in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle (MA1 , MA2, MB1 , MB2) verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 11 erhalten wurden, und/oder Resampling-basierte messortspezifische Gruppen- Lernmodelle verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 10 erhalten wurden, und ein zusammenführendes messort- und gruppenübergreifendes Meta-Lernmodell (MA+B), das unter Durchführung des Trainings- Verfahrens nach Anspruch 12 insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, bereitgestellt werden, die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze (GUM) in Schritt B4 den messortspezifischen Vorhersage-Gruppen- Lernmodellen (MA1 , MA2, MB1 , MB2) oder den Resampling-basierten messortspezifischen Gruppen-Lernmodellen der verschiedenen Messorte (A, B, C) zugeführt und messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) erhalten werden, - die messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) messortweise dem zusammenführenden messort- und gruppenübergreifenden Meta-Lernmodell (MA+B) zugeführt und so messortspezifische gruppenübergreifende Vorhersagen (PA, PB) für jeden Messort (A, B, C) erhalten werden,
- die messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) durch ein statistisches Verfahren, insbesondere Mittelung, miteinander kombiniert werden, so dass eine messort- und gruppenübergreifende Vorhersage (P) erhalten wird.
22. Computerimplementiertes Vorhersage-Verfahren nach einem der Ansprüche 19 bis 21 , bei dem
- in Schritt B2 messortspezifische Vorhersage-Gruppen-Lernmodelle (MA1 , MA2, MB1 , MB2) verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 11 erhalten wurden, und/oder Resampling-basierte messortspezifische Gruppen- Lernmodelle verschiedener Standorte (A, B, C), die unter Durchführung des Trainings-Verfahrens nach Anspruch 10 erhalten wurden, und messortspezifische gruppenübergreifende Meta-Lernmodelle (MA, MB), die unter Durchführung des Trainings-Verfahrens nach Anspruch 15 insbesondere ohne Nutzung einer Resampling-Methode erhalten wurden, und ein Kreuz-Messort-Meta-Lernmodell (MA_B), das unter Durchführung des Trainings-Verfahrens nach Anspruch 14 insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, und/ oder ein Zusatz-Kreuz-Messort-Meta-Lernmodell (MA_Bc), das unter Durchführung des Trainings-Verfahrens nach Anspruch 16 insbesondere ohne Nutzung einer Resampling-Methode erhalten wurde, bereitgestellt werden,
- die in Schritt B3 erhaltenen Gruppen-Unter-Messdatensätze (GUM) in Schritt B4 den messortspezifischen Vorhersage-Gruppen- Lernmodellen (MA1 , MA2, MB1 , MB2) der verschiedenen Messorte (A, B, C) zugeführt und messort- und gruppenspezifische Vorhersagen (AP1 , AP2, BP1 , BP2) erhalten werden,
- die messort- und gruppenspezifischen Vorhersagen (AP1 , AP2, BP1 , BP2) messortweise dem jeweiligen zugehörigen messortspezifischen gruppenübergreifenden Meta-Lernmodell (MA, MB) zugeführt werden und so messortspezifische gruppenübergreifende Vorhersagen (PA, PB) für jeden Messort (A, B, C) erhalten werden,
- die messortspezifischen gruppenübergreifenden Vorhersagen (PA, PB) dem Kreuz-Messort-Meta-Lernmodell (MA_B) oder dem Zusatz- Kreuz-Messort-Meta-Lernmodell (MA_Bc) zugeführt und von diesem eine messort- und gruppenübergreifende Vorhersage (P) erhalten wird.
23. Computerprogramm umfassend Programmcode-Mittel die, wenn sie auf wenigstens einem Computer ausgeführt werden, den wenigstens einen Computer veranlassen, die Schritte des Trainings-Verfahrens nach einem der Ansprüche 1 bis 18 und/oder die Schritte des Vorhersage-Verfahrens nach einem der Ansprüche 19 bis 22 durchzuführen.
24. Computerlesbares Medium, das Instruktionen umfasst, die, wenn sie auf wenigstens einem Computer ausgeführt werden, den wenigstens einen Computer veranlassen, die Schritte des Trainings-Verfahrens nach einem der Ansprüche 1 bis 18 und/oder die Schritte des Vorhersage-Verfahrens nach einem der Ansprüche 19 bis 22 durchzuführen.
25. Vorrichtung zur Durchführung des computerimplementierten Trainings- Verfahrens nach einem der Ansprüche 1 bis 18 und/oder des computerimplementierten Vorhersage-Verfahrens nach einem der Ansprüche 19 bis 22, umfassend einen Prozessor und einen Datenspeicher, auf dem das Computerprogramm nach Anspruch 23 gespeichert ist.
PCT/EP2023/065239 2022-06-10 2023-06-07 Computerimplementiertes trainings-verfahren, computerimplementiertes vorhersage-verfahren, computerprogramm, computerlesbares medium und vorrichtung WO2023237608A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022114713.4 2022-06-10
DE102022114713.4A DE102022114713A1 (de) 2022-06-10 2022-06-10 Computerimplementiertes Trainings-Verfahren, computerimplementiertes Vorhersage-Verfahren, Computerprogramm, computerlesbares Medium und Vorrichtung

Publications (1)

Publication Number Publication Date
WO2023237608A1 true WO2023237608A1 (de) 2023-12-14

Family

ID=86899237

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/065239 WO2023237608A1 (de) 2022-06-10 2023-06-07 Computerimplementiertes trainings-verfahren, computerimplementiertes vorhersage-verfahren, computerprogramm, computerlesbares medium und vorrichtung

Country Status (2)

Country Link
DE (1) DE102022114713A1 (de)
WO (1) WO2023237608A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102328229B1 (ko) * 2021-04-16 2021-11-19 주식회사 휴런 인공지능 기반의 3차원 의료 영상을 이용한 종양 검출 및 진단 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102328229B1 (ko) * 2021-04-16 2021-11-19 주식회사 휴런 인공지능 기반의 3차원 의료 영상을 이용한 종양 검출 및 진단 방법
EP4075380B1 (de) * 2021-04-16 2023-03-15 Heuron Co., Ltd. Auf medizinischem bild basierende tumordetektions- und -diagnosevorrichtung

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
CHEN, J.MÜLLER, V.I.DUKART, J.HOFFSTAEDTER, F.BAKER, J.T.HOLMES, A.J.VATANSEVER, D.NICKL-JOCKSCHAT, T.LIU, X.DERNTL, B. ET AL.: "Intrinsic Connectivity Patterns of Task-Defined Brain Networks Allow Individual Prediction of Cognitive Symptom Dimension of Schizophrenia and Are Linked to Molecular Architecture. Biol", PSYCHIATRY, vol. 89, 2021, pages 308 - 319, XP086420869, DOI: 10.1016/j.biopsych.2020.09.024
FINN, E.S.SHEN, X.SCHEINOST, D.ROSENBERG, M.D.HUANG, J.CHUN, M.M.PAPADEMETRIS, X.CONSTABLE, R.T.: "Functional connectome fingerprinting: identifying individuals using patterns of brain connectivity", NAT. NEUROSCI., vol. 18, 2015, pages 1664 - 1671, XP037549570, DOI: 10.1038/nn.4135
HEDDERICH, D.M.EICKHOFF, S.B.: "Machine learning for psychiatry: getting doctors at the black box?", MOL. PSYCHIATRY, vol. 26, 2021, pages 23 - 25, XP037340971, DOI: 10.1038/s41380-020-00931-z
KAISSIS, G.A.MAKOWSKI, M.R.RÜCKERT, D.BRAREN, R.F.: "Secure, privacy-preserving and federated machine learning in medical imaging", NAT. MACH. INTELL, 2020
LARABI, D.I.GELL, M.AMICO, E.EICKHOFF, S.B.PATIL, K.R.: "Highly accurate local functional fingerprints and their stability", BIORXIV, 2021
LI YUN ET AL: "Online Aggregation: A Review", 20 November 2018, ADVANCES IN DATABASES AND INFORMATION SYSTEMS; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER INTERNATIONAL PUBLISHING, CHAM, PAGE(S) 103 - 114, ISBN: 978-3-319-10403-4, XP047494756 *
MALI, S.A., IBRAHIM, A., WOODRUFF, H.C., ANDREARCZYK, V.,MÜLLER, H., PRIMAKOV, S., SALAHUDDIN, Z., CHATTERJEE, A., AND LAMBIN, P.: "Making Radiomics More Reproducible across Scanner and Imaging Protocol Variations: A Review of Harmonization Methods", J. PERS. MED, 2021, pages 11
MYSZCZYNSKA, M.A.OJAMIES, P.N.LACOSTE, A.M.B.NEIL, D.SAFFARI, A.MEAD, R.HAUTBERGUE, G.M.HOLBROOK, J.D.FERRAIUOLO, L.: "Applications of machine learning to diagnosis and treatment of neurodegenerative diseases", NAT. REV. NEUROL., vol. 16, 2020, pages 440 - 456, XP037205416, DOI: 10.1038/s41582-020-0377-8
SCHAEFER, A.KONG, R.GORDON, E.M.LAUMANN, T.O.ZUO, X.-N.HOLMES, A.J.EICKHOFF, S.B.YEO, B.T.T.: "Local-Global Parcellation of the Human Cerebral Cortex from Intrinsic Functional Connectivity MRI", CEREB. CORTEX, vol. 28, 2018, pages 3095 - 3114
SUDLOW, C., GALLACHER, J., ALLEN, N., BERAL, V., BURTON, P., DANESH, J., DOWNEY, P., ELLIOTT, P., GREEN, J., LANDRAY, M.: "UK Biobank: an open access resource for identifying the causes of a wide range of complex diseases of middle and old age", PLOS MED, vol. 12, 2015, pages 1001779
YEO, B.T.T.KRIENEN, F.M.SEPULCRE, J.SABUNCU, M.R.LASHKARI, D.HOLLINSHEAD, M.ROFFMAN, J.L.SMOLLER, J.W.ZÖLLEI, L.POLIMENI, J.R. ET : "The organization of the human cerebral cortex estimated by intrinsic functional connectivity", J. NEUROPHYSIOL., vol. 106, 2011, pages 1125 - 1165

Also Published As

Publication number Publication date
DE102022114713A1 (de) 2023-12-21

Similar Documents

Publication Publication Date Title
Hossen et al. Federated machine learning for detection of skin diseases and enhancement of internet of medical things (IoMT) security
Diez et al. A novel brain partition highlights the modular skeleton shared by structure and function
DE102017219307B4 (de) Verfahren und System zur Kompensation von Bewegungsartefakten mittels maschinellen Lernens
DE102005024326B3 (de) Nachbearbeitung von medizinischen Messdaten
DE112019002206B4 (de) Knockout-autoencoder zum erkennen von anomalien in biomedizinischen bildern
EP3545468A1 (de) Verfahren und system zum erstellen einer medizinischen bilddatenbank mittels eines konvolutionellen neuronalen netzwerk
DE102015212953A1 (de) Künstliche neuronale Netze zur Klassifizierung von medizinischen Bilddatensätzen
DE102012201169A1 (de) Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
DE112005000569T5 (de) System und Verfahren zur Patientenidentifikation für klinische Untersuchungen unter Verwendung von inhaltsbasiertem Erlangen und Lernen
DE112012001902T5 (de) Vorrichtung, System und Verfahren zur Beurteilung der Wirksamkeit von Arzneistoffen anhand holistischer Analyse und Visualisierung von pharmakologischen Daten
DE102021202189A1 (de) Maschinell erlernte anomalieerkennung
DE102018214325A1 (de) Verfahren und Bereitstellungseinheit zum Bereitstellen eines virtuellen tomographischen Schlaganfall-Nachfolgeuntersuchungsbildes
DE112021004559T5 (de) System zur robusten vorhersage bei unregelmässigen zeitreihen in dialysepatientenakten
DE102018206108A1 (de) Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
EP4081950A1 (de) System und verfahren zur qualitätszusicherung von datenbasierten modellen
DE10162927A1 (de) Auswerten von mittels funktionaler Magnet-Resonanz-Tomographie gewonnenen Bildern des Gehirns
DE112021004926T5 (de) Bildkodiervorrichtung, bildkodierverfahren, bildkodierprogramm,bilddekodiervorrichtung, bilddekodierverfahren, bilddekodierprogramm,bildverarbeitungsvorrichtung, lernvorrichtung, lernverfahren, lernprogramm, suchvorrichtung für ähnliche bilder, suchverfahren für ähnliche bilder, und suchprogramm für ähnliche bilder
EP3404436B1 (de) Funktionelle magnetresonanz-bildgebung
Azcona et al. Interpretation of brain morphology in association to Alzheimer’s disease dementia classification using graph convolutional networks on triangulated meshes
DE102020206059A1 (de) Computerimplementiertes Verfahren und System zum Trainieren eines Auswertungsalgorithmus, Computerprogramm und elektronisch lesbarer Datenträger
EP4016543A1 (de) Verfahren und vorrichtung zur bereitstellung einer medizinischen information
EP1869620B1 (de) Verfahren zur verarbeitung von bild- und volumendaten auf basis statistischer modelle
DE112021006734T5 (de) Generieren einer abbildungsfunktion zum verfolgen einer position einer elektrode
DE112018005891T5 (de) Bibliotheks-Screening auf Krebswahrscheinlichkeit
WO2023237608A1 (de) Computerimplementiertes trainings-verfahren, computerimplementiertes vorhersage-verfahren, computerprogramm, computerlesbares medium und vorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23732833

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)