DE102021122720A1 - SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES - Google Patents

SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES Download PDF

Info

Publication number
DE102021122720A1
DE102021122720A1 DE102021122720.8A DE102021122720A DE102021122720A1 DE 102021122720 A1 DE102021122720 A1 DE 102021122720A1 DE 102021122720 A DE102021122720 A DE 102021122720A DE 102021122720 A1 DE102021122720 A1 DE 102021122720A1
Authority
DE
Germany
Prior art keywords
training
images
reference images
sample
denoising
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021122720.8A
Other languages
German (de)
Inventor
Alexander Freytag
Anselm Brachmann
Christian Kungel
Matthias Eibl
Daniel Haase
Manuel Amthor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102021122720.8A priority Critical patent/DE102021122720A1/en
Publication of DE102021122720A1 publication Critical patent/DE102021122720A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

Es werden Techniken offenbart, um einen maschinengelernten Vorhersagealgorithmus (205) zu trainieren (6001), der synthetische Fluoreszenzbilder (202) basierend auf Messbildern (201), die mit einem Mikroskop erfasst werden, zu bestimmen.

Figure DE102021122720A1_0000
Techniques are disclosed for training (6001) a machine-learned prediction algorithm (205) that determines synthetic fluorescence images (202) based on measurement images (201) acquired with a microscope.
Figure DE102021122720A1_0000

Description

TECHNISCHES GEBIETTECHNICAL AREA

Verschiedene Beispiele der Offenbarung betreffen allgemein Techniken zur digitalen Nachbearbeitung von Messbildern, die mit einer mikroskopischen Bildgebungsmodalität erfasst werden. Insbesondere können synthetische Fluoreszenzbilder bestimmt werden.Various examples of the disclosure relate generally to techniques for digitally post-processing measurement images acquired with a microscopic imaging modality. In particular, synthetic fluorescence images can be determined.

HINTERGRUNDBACKGROUND

Die Fluoreszenzbildgebung wird in verschiedenen Bereichen der „grünen Wissenschaften“ (engl. Life Sciences) verwendet. Mittels Fluoreszenzbildgebung ist es möglich, Bereiche und Strukturen in biologischen Proben mit großer Sensitivität und Spezifität zu erkennen. Dabei wird die Spezifität durch Marker erreicht, die ausgebildet sind, um spezifisch an bestimmte Moleküle oder Zellstrukturen zu binden. Die Spezifität kann auch durch Marker erreicht werden, die nur in bestimmten chemischen Umgebungen aktiviert werden. Die Spezifität kann auch durch Marker erreicht werden, die in der Zelle selbst produziert werden. Dies kann zum Beispiel Autofluoreszenz betreffen oder Marker nach einem geeigneten genetischen Manipulationsschritt. Die Sensitivität wird durch die Fluoreszenz der Marker bei bestimmten Wellenlängen erreicht. Dadurch kann das Signal im Spektralbereich gefiltert werden.Fluorescence imaging is used in various areas of "green science" (life sciences). Using fluorescence imaging, it is possible to identify areas and structures in biological samples with great sensitivity and specificity. The specificity is achieved by markers that are designed to bind specifically to certain molecules or cell structures. Specificity can also be achieved by markers that are only activated in specific chemical environments. Specificity can also be achieved by markers produced within the cell itself. This can concern, for example, autofluorescence or markers after a suitable genetic manipulation step. The sensitivity is achieved through the fluorescence of the markers at specific wavelengths. This allows the signal to be filtered in the spectral range.

Typischerweise umfasst ein Marker Fluorophore oder besteht aus einem Fluorophor. Ein Fluorophor ist ein Molekül, dessen Elektronenhülle mittels Licht bei einer bestimmten Wellenlänge angeregt werden kann und dann Licht bei einer längeren Wellenlänge emittiert. Die Verwendung von Fluorophoren ermöglicht es, die Anregung und Lichtemission im Spektrum zu separieren. Dadurch kann ein Signal gemessen werden, welches nur einen geringen Anteil von Hintergrundlicht beinhaltet. Dadurch kann ein großes Signal-zu-Rausch-Verhältnis (SNR) erzielt werden.Typically, a label includes fluorophores or consists of a fluorophore. A fluorophore is a molecule whose electron shell can be excited by light at a specific wavelength and then emits light at a longer wavelength. The use of fluorophores makes it possible to separate excitation and light emission in the spectrum. This allows a signal to be measured that contains only a small proportion of background light. This allows a high signal-to-noise ratio (SNR) to be achieved.

Diese beiden Vorteile der Fluoreszenzbildgebung - das heißt Spezifität und Sensitivität - ermöglichen es, Zellstrukturen eines bestimmten Typs in einem entsprechenden Ensemble zu identifizieren, zum Beispiel den Zellkern oder Organelle. Eine weitere Anwendung betrifft zum Beispiel die Erkennung eines Tumors.These two advantages of fluorescence imaging - i.e. specificity and sensitivity - make it possible to identify cell structures of a certain type in a corresponding ensemble, for example the cell nucleus or organelle. Another application concerns, for example, the detection of a tumor.

Bei der Verwendung einer mikroskopischen Fluoreszenzbildgebung können Nachteile auftreten. Zum Beispiel tritt ein sog. Fotobleichen aufgrund der Exposition mit Licht zur Anregung der Fluoreszenz auf. Ein Fluorophor verliert dabei die Fähigkeit zur Fluoreszenz. Die Verwendung von Licht zur Anregung der Fluoreszenz kann auch eine Foto-Toxizität bewirken. Das bedeutet, dass die Zellstrukturen einer entsprechenden Probe geschädigt werden können. Dadurch kann das Experiment verfälscht werden.Disadvantages can arise when using microscopic fluorescence imaging. For example, photobleaching occurs due to exposure to light to excite fluorescence. A fluorophore loses the ability to fluoresce. The use of light to excite fluorescence can also cause phototoxicity. This means that the cell structures of a corresponding sample can be damaged. This can falsify the experiment.

Außerdem ist es bekannt, dass durch die Verwendung eines Markers bereits chemische und/oder physiologische Effekte auftreten, ohne dass eine Belichtung stattfinden müsste. Die Probe kann also durch die Anwesenheit der Marker degradieren.In addition, it is known that chemical and/or physiological effects occur as a result of the use of a marker without exposure having to take place. The sample can therefore degrade due to the presence of the markers.

Es sind folgende Publikationen bekannt: EP3553165A1 ; Wagner, Nils, et al. „Deep learning-enhanced light-field imaging with continuous validation.“ Nature Methods 18.5 (2021): 557-563.The following publications are known: EP3553165A1 ; Wagner, Nils, et al. "Deep learning-enhanced light-field imaging with continuous validation." Nature Methods 18.5 (2021): 557-563.

KURZE ZUSAMMENFASSUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION

Deshalb besteht ein Bedarf für verbesserte Techniken, um Fluoreszenzbilder zu erhalten. Insbesondere besteht ein Bedarf für Techniken, die zumindest einige der oben genannten Nachteile beheben.Therefore, there is a need for improved techniques to obtain fluorescence images. In particular, there is a need for techniques that overcome at least some of the disadvantages noted above.

Diese Aufgabe wird gelöst von den Merkmalen der unabhängigen Patentansprüche. Die Merkmale der abhängigen Patentansprüche definieren Ausführungsformen.This object is solved by the features of the independent patent claims. The features of the dependent claims define embodiments.

Einige hierin beschriebene Beispiele beruhen allgemein auf der Erkenntnis, dass die klassische hardware-basierte Fluoreszenzbildgebung durch die Verwendung von Licht zur Anregung der Fluoreszenz einen großen Einfluss auf das Verhalten der untersuchten Proben, insbesondere auf das Verhalten von Zellen haben kann. Andererseits beruhen die hierin beschriebenen Verfahren auf der Erkenntnis, dass andere Bildgebungsmodalitäten weniger invasiv sind, weil eine geringere Lichtexposition der Probe notwendig ist, um entsprechende Bilddaten zu erfassen. Die hierin beschriebenen Beispiele beruhen ferner auf der Kenntnis, dass auch bei solchen weniger invasiven Bildgebungsmodalitäten eine Korrelation zwischen dem Kontrast ansprechender Messbilder und einem Kontrast, der für entsprechende Fluoreszenzbilder erwartet werden würde, vorliegt. Deshalb ist es möglich, mittels einer wenig invasiven Bildgebungsmodalitäten - zum Beispiel herkömmlicher Durchlicht-Mikroskopie im Hellfeld - Messbilder zu erfassen, ohne die Integrität der Probe zu kompromittieren. Insbesondere können auch sehr viele Messbilder, zum Beispiel mit einer hohen Zeitauflösung, erfasst werden.Some examples described herein are generally based on the realization that classical hardware-based fluorescence imaging, by using light to excite fluorescence, can have a major impact on the behavior of the samples being examined, in particular on the behavior of cells. On the other hand, the methods described herein are based on the recognition that other imaging modalities are less invasive because less light exposure of the sample is required to acquire corresponding image data. The examples described herein are further based on the knowledge that even with such less invasive imaging modalities there is a correlation between the contrast of pleasing measurement images and a contrast that would be expected for corresponding fluorescence images. It is therefore possible to acquire measurement images by means of a less invasive imaging modality - for example conventional brightfield transmitted light microscopy - without compromising the integrity of the sample. In particular, a large number of measurement images, for example with a high time resolution, can also be recorded.

Verschiedene hierin beschriebene Beispiele beruhen auf der Verwendung eines maschinengelernten (ML) Vorhersagealgorithmus, um synthetische Fluoreszenzbilder zu bestimmen. Verschiedene Beispiele der Erfindung betreffen insbesondere das Training von Parametern des ML Vorhersagealgorithmus. Verschiedene Beispiele beruhen auf der Erkenntnis, dass zum Training des ML Vorhersagealgorithmus jeweils Paare von Trainings-Messbildern und Trainings-Referenzbildern verwendet werden können, wobei die Trainings-Referenzbilder mittels mikroskopischer Fluoreszenzbildgebung erfasst werden. Dadurch können die Trainings-Referenzbilder als Vorwissen bzw. Grundwahrheit (engl. „ground truth“) beim Training verwendet werden und die Trainings-Messbilder können als Trainingseingabe verwendet werden. Es kann dann überprüft werden, inwiefern eine Abweichung zwischen der Vorhersage des ML Vorhersagealgorithmus und der Grundwahrheit vorliegt und basierend darauf können die Parameter des ML Vorhersagealgorithmus angepasst werden.Various examples described herein rely on the use of a machine-learned (ML) prediction algorithm to determine synthetic fluorescence images. Various examples of the invention relate in particular to the training of parameters of the ML prediction algorithm mus. Various examples are based on the knowledge that pairs of training measurement images and training reference images can be used to train the ML prediction algorithm, with the training reference images being acquired by means of microscopic fluorescence imaging. As a result, the training reference images can be used as prior knowledge or ground truth during training, and the training measurement images can be used as training input. It can then be checked to what extent there is a deviation between the prediction of the ML prediction algorithm and the basic truth, and based on this the parameters of the ML prediction algorithm can be adjusted.

Verschiedene Beispiele beruhen ferner auf der weiteren Erkenntnis, dass insbesondere auch das Erfassen der Trainings-Referenzbilder eine Belastung einer Probe bedeuten kann. Dies kann mehrere Auswirkungen haben. Erstens: es kann oftmals erstrebenswert sein, Trainings-Referenzbilder während eines ausgedehnten Beobachtungszeitraums zu erfassen, der beispielsweise die Länge eines Zellzyklus einer Vielzahl von Zellen der Probe abdeckt. Derart soll nämlich erreicht werden, dass der ML Vorhersagealgorithmus präzise Vorhersagen für unterschiedliche Zellstadien bereitstellt. Wird aber andererseits durch die mikroskopische Fluoreszenzbildgebung, die zum Erfassen der Trainings-Referenzbilder verwendet wird, die Probe geschädigt, so kann es vorkommen, dass durch das Erfassen der Trainings-Referenzbilder die Probe selbst verändert wird. Dann kann der ML Vorhersagealgorithmus keine akkurate Vorhersage mehr bereitstellen. Solche Effekte treten insbesondere auch auf, wenn die Trainings-Messbilder und die Trainings-Referenzbilder in einem Referenzexperiment erfasst werden. Zweitens: Manchmal kann es auch vorkommen, dass die Trainings-Referenzbilder für eine Probe erfasst werden sollen, die gleichzeitig in einem Experiment vermessen werden sollen (Proben-spezifisches Training). Das bedeutet, dass zusätzlich zu den Trainings-Messbildern und den Trainings-Referenzbildern auch Messbilder an der Probe erfasst werden und der ML Vorhersagealgorithmus - nach dem Durchführen des Trainings - dann auf die Messbilder angewendet wird, um derart synthetische Fluoreszenzbilder für die Probe vorherzusagen. Diese synthetischen Fluoreszenzbilder weisen dann einen synthetischen Fluoreszenzkontrast auf, der dem Fluoreszenzkontrast entspricht, mit dem die Trainings-Referenzbilder erfasst wurden, mit denen der ML Vorhersagealgorithmus trainiert wurde. In einem solchen Proben-spezifischen Training kann eine hohe Lichtexposition zum Erfassen der Trainings-Referenzbilder die Foto-Toxizität und/oder Foto-Bleichen bewirken und damit das Experiment verfälschen. Die Probe kann geschädigt werden.Various examples are also based on the further finding that, in particular, the acquisition of the training reference images can mean that a sample is subjected to stress. This can have several implications. First, it may often be desirable to acquire training reference images over an extended observation period, covering, for example, the length of a cell cycle of a variety of cells in the sample. This is to ensure that the ML prediction algorithm provides precise predictions for different cell stages. On the other hand, if the sample is damaged by the microscopic fluorescence imaging that is used to capture the training reference images, it can happen that the sample itself is changed by capturing the training reference images. Then the ML prediction algorithm can no longer provide an accurate prediction. Such effects also occur in particular when the training measurement images and the training reference images are recorded in a reference experiment. Second: Sometimes it can also happen that the training reference images are to be acquired for a sample that is to be measured in an experiment at the same time (sample-specific training). This means that in addition to the training measurement images and the training reference images, measurement images are also acquired on the sample and the ML prediction algorithm - after performing the training - is then applied to the measurement images in order to predict such synthetic fluorescence images for the sample. These synthetic fluorescence images then have a synthetic fluorescence contrast that corresponds to the fluorescence contrast with which the training reference images with which the ML prediction algorithm was trained were acquired. In such sample-specific training, high light exposure for capturing the training reference images can cause photo-toxicity and/or photo-bleaching, thus falsifying the experiment. The sample can be damaged.

In einfachen Referenzszenarien könnte die Lichtexposition pro Trainings-Referenzbild reduziert werden. Eine solche Reduktion der Lichtexposition pro Trainings-Referenzbild führt zu einem reduzierten Signal-zu-Rausch-Verhältnis für die Trainings-Referenzbilder. Es wurde beobachtet, dass ein solches reduziertes Signal-zu-Rausch-Verhältnis die Qualität des Trainings der Parameter des ML Vorhersagealgorithmus reduzieren kann. Ein solches reduziertes Signal-zu-Rausch-Verhältnis wird typischerweise beobachtet, weil das Photon-Rauschen, Dunkel-Rauschen und Auslese-Rauschen nicht so stark abnimmt - bei reduzierter Lichtintensität - wie das eigentliche Signal.In simple reference scenarios, the light exposure per training reference image could be reduced. Such a reduction in light exposure per training reference image results in a reduced signal-to-noise ratio for the training reference images. It was observed that such a reduced signal-to-noise ratio can reduce the quality of the training of the parameters of the ML prediction algorithm. Such a reduced signal-to-noise ratio is typically observed because the photon noise, dark noise and readout noise do not decrease as much - with reduced light intensity - as the actual signal.

Aus allen diesen oben genannten Gründen kann es mittels der hierin beschriebenen Techniken möglich sein, die Foto-Toxizität und/oder das Foto-Bleichen beim Erfassen von Trainings-Referenzbildern mittels mikroskopischer Fluoreszenzbildgebung zu reduzieren.For all of the above reasons, it may be possible to reduce photo-toxicity and/or photo-bleaching when acquiring training reference images using fluorescence microscopic imaging using the techniques described herein.

Ein Computer-implementiertes Verfahren umfasst das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet ein oder mehrere Zellstrukturen ab, d.h. z.B. eine Vielzahl von Zellen. Außerdem umfasst das Verfahren das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Ferner umfasst das Verfahren das Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Das computerimplementierte Verfahren umfasst außerdem noch das Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A computer-implemented method includes driving at least one imaging device to acquire one or more training measurement images in a sample using microscopic imaging. The sample depicts one or more cell structures, i.e. e.g. a large number of cells. The method also includes driving at least one imaging device to capture one or more training reference images of a sample using microscopic fluorescence imaging. The method further includes applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. The computer-implemented method also includes performing a training of parameters of an ML prediction algorithm. The training is performed based on the one or more training measurement images as training input and based on the denoised one or more training reference images as ground truth.

Zellstrukturen können z.B. ganze Zellen oder Zellbestandteile beinhalten, also z.B. Zellkern, Nukleoli, usw.Cell structures can contain e.g. entire cells or cell components, e.g. cell nucleus, nucleoli, etc.

Durch solche Techniken kann es möglich sein, hochqualitative entrauschte Trainings-Referenzbilder zu erhalten, welche ein genaues Training der Parameter des ML Vorhersagealgorithmus ermöglichen. Auf der anderen Seite kann es möglich sein, die Lichtexposition der Probe, die mit dem Erfassen der ein oder mehreren Trainings-Referenzbilder assoziiert ist, zu reduzieren. Beispielsweise kann eine Zeitdauer der Belichtung zum Anregen der Fluoreszenz reduziert werden. Alternativ oder zusätzlich kann auch der Lichtfluss des Anregungslichts reduziert werden. Das bedeutet, dass die Lichtexposition pro Trainings-Referenzbild reduziert werden kann. Dies kann es ermöglichen, insgesamt die akkumulierte Lichtexposition zu reduzieren. Alternativ oder zusätzlich könnte auch eine größere Anzahl von Trainings-Referenzbildern der Probe pro „Lichtbudget“ erfasst werden - im Vergleich zu Referenzszenarien, bei denen keine Entrauschung stattfindet. Dadurch kann wiederum der Trainingsdatensatz erweitert werden, was ein genaueres Training ermöglicht.Through such techniques, it may be possible to obtain high-quality denoised training reference images, which allow accurate training of the parameters of the ML prediction algorithm. On the other hand, it may be possible to reduce the light exposure of the sample associated with detecting the one or more training reference images is associated to reduce. For example, a duration of exposure to excitation of fluorescence can be reduced. Alternatively or additionally, the luminous flux of the excitation light can also be reduced. This means that the light exposure per training reference image can be reduced. This may make it possible to reduce the overall accumulated light exposure. Alternatively or additionally, a larger number of training reference images of the sample could be recorded per "light budget" - in comparison to reference scenarios in which no denoising takes place. This in turn allows the training data set to be expanded, allowing for more accurate training.

Die Trainings-Messbilder und die Trainings-Referenzbilder können miteinander registriert sein oder können miteinander registriert werden.The training measurement images and the training reference images can be registered with each other or can be registered with each other.

Paare von Trainings-Messbildern und Trainings-Referenzbildern können in einem kurzen zeitlichen Abstand zueinander erfasst werden. Der kurze zeitliche Abstand kann insbesondere so kurz sein, dass keine wesentlichen Veränderungen auf zellulärer Ebene der Probe zu erwarten sind. Derart kann die Registrierung einfach durchgeführt werden.Pairs of training measurement images and training reference images can be captured at a short time interval from one another. In particular, the short time interval can be so short that no significant changes are to be expected at the cellular level of the sample. In this way, registration can be performed easily.

Paare von Trainings-Messbildern und Trainings-Referenzbildern, die zusammen für das Durchführen des Trainings von Parametern des ML Vorhersagealgorithmus verwendet werden, können miteinander registriert sein. Dies kann möglich sein, weil zum Beispiel dieselbe Optik für das Erfassen der Trainings-Messbilder und für das Erfassen der Trainings-Referenzbilder verwendet wird. Es wäre auch möglich, eine digitale Registrierung beider Bilder aufeinander vorzunehmen.Pairs of training measurement images and training reference images that are used together for performing the training of parameters of the ML prediction algorithm can be registered with each other. This can be possible because, for example, the same optics are used for capturing the training measurement images and for capturing the training reference images. It would also be possible to carry out a digital registration of both images on one another.

Die hierin beschriebenen Techniken können für ein Proben-spezifisches Training des ML Vorhersagealgorithmus eingesetzt werden - oder aber auch für das Proben-unspezifische Training des ML Vorhersagealgorithmus, wobei Referenz-Trainingsbilder an einer gesonderten Referenzprobe (d.h. getrennt vom eigentlichen Experiment) erfasst werden.The techniques described herein can be used for sample-specific training of the ML prediction algorithm - or for sample-unspecific training of the ML prediction algorithm, where reference training images are acquired on a separate reference sample (i.e. separate from the actual experiment).

Zum Beispiel wäre es denkbar, dass das Computer-implementierte Verfahren ferner umfasst: nach dem Durchführen des Trainings: Anwenden des ML Vorhersagealgorithmus auf weitere Messbilder der Probe oder einer weiteren Probe, die ein oder mehrere weitere Zellstrukturen abbildet, zum Erhalten von synthetischen Fluoreszenzbildern.For example, it would be conceivable that the computer-implemented method further comprises: after performing the training: applying the ML prediction algorithm to further measurement images of the sample or a further sample imaging one or more further cell structures to obtain synthetic fluorescence images.

Diese synthetischen Fluoreszenzbilder können einen Fluoreszenzkontrast aufweisen, der dem Fluoreszenzkontrast der ein oder mehreren Trainings-Referenzbilder entspricht.These synthetic fluorescence images can have a fluorescence contrast that corresponds to the fluorescence contrast of the one or more training reference images.

Es wäre grundsätzlich denkbar, dass mindestens eine Bildgebungsvorrichtung angesteuert wird, um mehrere Trainings-Messbilder und mehrere Trainings-Referenzbilder verteilt über einen Beobachtungszeitraum zu erfassen.In principle, it would be conceivable for at least one imaging device to be controlled in order to capture a number of training measurement images and a number of training reference images distributed over an observation period.

Der Beobachtungszeitraum kann dabei z.B. eine Länge von mindestens Minuten oder Stunden bis hin zu Tagen haben.The observation period can, for example, have a length of at least minutes or hours up to days.

Der Beobachtungszeitraum kann eine Länge aufweisen, die in derselben Größenordnung liegt, wie die Länge eines Zellzyklus.The observation period can have a length which is of the same order of magnitude as the length of a cell cycle.

Der Zellzyklus hat dabei keine genau fest definierte Länge. Vielmehr weist die Dauer des Zellzyklus für ein Ensemble von Zellen eine Streuung auf. Allgemein formuliert, kann der Beobachtungszeitraum die Länge des Zellzyklus abdecken, das heißt so lange sein, dass zumindest signifikante Anteile des Zellzyklus abgebildet werden.The cell cycle does not have a precisely defined length. Rather, the duration of the cell cycle for an ensemble of cells shows a spread. In general terms, the observation period can cover the length of the cell cycle, ie it can be long enough for at least significant parts of the cell cycle to be imaged.

Der Beobachtungszeitraum kann beispielsweise die Länge eines Zellzyklus der Zellen der Probe abdecken.The observation period can cover, for example, the length of a cell cycle of the cells in the sample.

In einem weiteren Beispiel kann der Beobachtungszeitraum auch die Dauer eines Experiments mit Zellgruppen umfassen, beispielsweise während des Wachstums von Sphäroiden oder Organoiden, beispielsweise aus Primärzellen oder Stammzellen.In a further example, the observation period can also include the duration of an experiment with groups of cells, for example during the growth of spheroids or organoids, for example from primary cells or stem cells.

Wie obenstehend schon beschrieben, kann durch die reduzierte Lichtbelastung pro Trainings-Referenzbild ein verlängerter Beobachtungszeitraum bzw. eine größere Anzahl von Trainings-Referenzbildern pro Zeiteinheit ermöglicht werden. So wäre es denkbar, dass mindestens eine Bildgebungsvorrichtung angesteuert wird, um mehrere Trainings-Messbilder und mehrere Trainings-Referenzbilder verteilt über einen Beobachtungszeitraum zu erfassen, dessen Länge die Länge eines Zellzyklus der Vielzahl von Zellen abdeckt.As already described above, the reduced light exposure per training reference image allows for a longer observation period or a larger number of training reference images per time unit. It would thus be conceivable for at least one imaging device to be controlled in order to acquire a number of training measurement images and a number of training reference images distributed over an observation period whose length covers the length of a cell cycle of the multiplicity of cells.

Als allgemeine Regel gibt es unterschiedliche Techniken, um den Entrauschungsalgorithmus zu implementieren. In einem Beispiel wäre es denkbar, dass der Entrauschungsalgorithmus maschinengelernt ist, das bedeutet, dass Parameter des Entrauschungsalgorithmus in einem weiteren Training bestimmt werden können.As a general rule, there are different techniques to implement the denoising algorithm. In one example, it would be conceivable that the denoising algorithm is machine-learned, which means that parameters of the denoising algorithm can be determined in further training.

Dabei gibt es unterschiedliche Techniken, um einen maschinengelernten Entrauschungsalgorithmus zu trainieren. Zum Beispiel wäre es in einer Variante denkbar, dass der Entrauschungsalgorithmus in einem selbst-überwachten Training maschinengelernt wird (englisch: „unsupervised“ oder auch „selfsupervised“). Ein solches selbst-überwachtes Training erfordert typischerweise lediglich rauschbehaftete Bilder; eine Grundwahrheit in Form von entrauschten Bildern beziehungsweise Bildern mit hohem Signal-zu-Rausch-Verhältnis wird aber nicht benötigt. Zum Beispiel kann ein solches Training so gestaltet werden, dass bei solchen Entrauschungs-Trainings-Referenzbildern ein zentraler Pixel oder Bereich entfernt bzw. maskiert wird und der Entrauschungsalgorithmus dahingehend trainiert wird, dass der Kontrast bzw. Pixelwert dieses entfernten bzw. maskierten Pixels in der Ausgabe wiederhergestellt wird. Da das Rauschen typischerweise statistisch verteilt ist, kann dadurch eine Entrauschung gelernt werden. Solche Techniken sind zum Beispiel beschrieben in Krull, Alexander, Tim-Oliver Buchholz, and Florian Jug. „Noise2void-learning denoising from single noisy images.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. Eine weitere Technik ist beschriebenen in Broaddus, Coleman, et al. „Removing structured noise with self-supervised blind-spot networks.“ 2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI). IEEE, 2020.There are different techniques to train a machine-learned denoising algorithm. For example, in one variant it would be conceivable for the noise reduction algorithm to be machine-learned in a self-supervised training session. Such a self-monitored one Training typically only requires noisy images; however, a basic truth in the form of noise-free images or images with a high signal-to-noise ratio is not required. For example, such training can be designed such that, for such denoising training reference images, a central pixel or region is removed or masked and the denoising algorithm is trained such that the contrast or pixel value of that removed or masked pixel is in the output is restored. Since the noise is typically statistically distributed, noise reduction can be learned in this way. Such techniques are described, for example, in Krull, Alexander, Tim-Oliver Buchholz, and Florian Jug. "Noise2void-learning denoising from single noisy images." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. Another technique is described in Broaddus, Coleman, et al. "Removing structured noise with self-supervised blind-spot networks." 2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI). IEEE, 2020.

Die oben genannten Beispiele für Entrauschungsalgorithmen, die mittels selbst-überwachten Trainings trainiert werden, sind nur einige Beispiele. Es gibt auch andere Beispiele, zum Beispiel eine probabilistischen Entrauschung, wie beschrieben in Krull, Alexander, et al. „Probabilistic noise2void: Unsupervised content-aware denoising.“ Frontiers in Computer Science 2 (2020): 5.The above examples of denoising algorithms trained using self-supervised training are just a few examples. There are also other examples, for example probabilistic denoising, as described in Krull, Alexander, et al. "Probabilistic noise2void: Unsupervised content-aware denoising." Frontiers in Computer Science 2 (2020): 5.

Ein weiteres Beispiel ist Entrauschung mit Diversifizierung, wie beschrieben in Prakash, Mangal, Alexander Krull, and Florian Jug. „Fully Unsupervised Diversity Denoising with Con-volutional Variational Autoencoders.“ arXiv preprint arXiv:2006.06072 (2020). Siehe hierzu auch: Prakash, Mangal, et al. „Removing Pixel Noises and Spatial Artifacts with Generative Diversity De-noising Methods.“ arXiv preprint arXiv:2104.01374 (2021). Zum Beispiel verwenden solche Techniken, die eine Diversifizierung einsetzen, Variations-Autoencoder-Netzwerke zur Implementierung des Entrauschungsalgorithmus.Another example is denoising with diversification as described in Prakash, Mangal, Alexander Krull, and Florian Jug. "Fully Unsupervised Diversity Denoising with Convolutional Variational Autoencoders." arXiv preprint arXiv:2006.06072 (2020). See also: Prakash, Mangal, et al. "Removing Pixel Noises and Spatial Artifacts with Generative Diversity De-noising Methods." arXiv preprint arXiv:2104.01374 (2021). For example, such techniques employing diversification use variational autoencoder networks to implement the denoising algorithm.

Als allgemeine Regel wäre es möglich, dass der Entrauschungsalgorithmus bereits vortrainiert ist. Das bedeutet, dass der Entrauschungsalgorithmus basierend auf einer Trainingseingabe trainiert werden kann, die für eine Referenzprobe erfasst wurde, das heißt für eine andere Probe, als diejenige Probe, für welche die Trainings-Referenzbilder erfasst werden und mittels des Entrauschungsalgorithmus entrauscht werden. Ein solches Vortrainieren ist gut möglich, weil die Übertragbarkeit von entsprechenden Parametern des Entrauschungsalgorithmus von Probe zu Probe besonders gut sein kann, weil das Rauschen typischerweise keine oder keine signifikante Abhängigkeit von der Probe aufweist. Sog. Transfer-Learning kann verwendet werden. Es wäre aber auch denkbar, dass das selbst-überwachte Training Proben-spezifisch durchgeführt wird, das heißt basierend auf Entrauschungs-Trainings-Referenzbildern, die für die Probe selbst erfasst werden.As a general rule, it would be possible for the denoising algorithm to already be pre-trained. This means that the denoising algorithm can be trained based on a training input acquired for a reference sample, ie for a different sample than the sample for which the training reference images are acquired and denoised by the denoising algorithm. Such pre-training is easily possible because the transferability of corresponding parameters of the denoising algorithm from sample to sample can be particularly good, because the noise typically has no or no significant dependency on the sample. So-called transfer learning can be used. However, it would also be conceivable for the self-monitored training to be carried out in a sample-specific manner, ie based on noise reduction training reference images that are recorded for the sample itself.

Dabei kann der Entrauschunsalgorithmus ein probabilistisches Modell umfassen, das Wahrscheinlichkeitsverteilungen für das Vorliegen bestimmter Merkmale bestimmt; diese Wahrscheinlichkeitsverteilungen können dann abgetastet werden. Ein Beispiel wären Variations-Autoencoder-Netzwerke. Durch mehrfaches Abtasten einer latenten Merkmalsrepräsentation (engl. „feature embedding“) des probabilistischen Modells können pro Trainings-Referenzbild mehrere entrauschte Trainings-Referenzbilder erhalten werden. Dies entspricht einer Augmentierung des Trainingsdatensatzes. Durch eine solche Augmentierung des Trainingsdatensatzes kann ein umfassenderes Training des ML Vorhersagealgorithmus erfolgen. Dadurch können robustere und genauere Vorhersagen für die synthetischen Fluoreszenzbilder erzeugt werden.The denoising algorithm can include a probabilistic model that determines probability distributions for the presence of specific features; these probability distributions can then be sampled. An example would be variational autoencoder networks. By multiple sampling of a latent feature representation (engl. "feature embedding") of the probabilistic model, several noise-free training reference images can be obtained per training reference image. This corresponds to an augmentation of the training data set. Such an augmentation of the training data set allows the ML prediction algorithm to be trained more comprehensively. This allows more robust and accurate predictions to be generated for the synthetic fluorescence images.

Dabei ist es nicht in allen Beispielen notwendig, ein selbst-überwachtes Training für den Entrauschungsalgorithmus durchzuführen. Es könnte auch ein überwachtes Training durchgeführt werden. Dazu kann der Entrauschungsalgorithmus basierend auf Paaren von ersten und zweiten Entrauschungs-Trainings-Referenzbildern trainiert werden. Die ersten Entrauschungs-Trainings-Referenzbilder werden dabei mittels der mikroskopischen Fluoreszenzbildgebung und niedrigem Signal-zu-Rausch-Verhältnis erfasst. Die zweiten Entrauschungs-Trainings-Referenzbilder werden dabei mittels der mikroskopischen Fluoreszenzbildgebung und hohem Signal-zu-Rausch-Verhältnis erfasst. Die ersten Entrauschungs-Trainings-Referenzbilder können insbesondere mit einem im Vergleich zu den zweiten Entrauschungs-Trainings-Referenzbildern niedrigerem Signal-zu-Rausch-Verhältnis erfasst werden. Die ersten und zweiten Entrauschungs-Trainings-Referenzbilder können miteinander registriert sein. Dadurch wird erreicht, dass mittels einer Bild-zu-Bild-Transformation eine Entrauschung erzielt wird, wenn die zweiten Entrauschungs-Trainings-Referenzbilder als Grundwahrheit beim Training verwendet werden und die ersten Entrauschung-Trainings-Referenzbilder als Trainingseingabe (manchmal auch als Quelle bezeichnet). Es können unterschiedlichste neuronale Netzwerke verwendet werden, die für eine solche Bild-zu Bild-Transformation eingerichtet sind, zum Beispiel Faltungsnetzwerke (engl. convolutional networks).It is not necessary in all examples to carry out self-monitored training for the denoising algorithm. Supervised training could also be performed. For this purpose, the denoising algorithm can be trained based on pairs of first and second denoising training reference images. The first denoising training reference images are acquired using microscopic fluorescence imaging and a low signal-to-noise ratio. The second denoising training reference images are recorded using microscopic fluorescence imaging and a high signal-to-noise ratio. The first noise reduction training reference images can be captured in particular with a lower signal-to-noise ratio compared to the second noise reduction training reference images. The first and second denoising training reference images can be registered with each other. This achieves that denoising is achieved by means of an image-to-image transformation when the second denoising training reference images are used as ground truth in training and the first denoising training reference images are used as training input (sometimes referred to as source) . A wide variety of neural networks that are set up for such an image-to-image transformation can be used, for example convolutional networks.

Ein solches überwachtes Training muss nicht Proben-spezifisch durchgeführt werden. Das bedeutet, dass die Entrauschungs-Trainings-Referenzbilder von einer Referenzprobe erfasst werden können. Die zu vermessende Probe, für die synthetische Fluoreszenzbilder bestimmt werden, wird dann keiner zusätzlichen Lichtbelastung ausgesetzt. In jedem Fall kann es erstrebenswert sein, die Anzahl der zweiten Entrauschungs-Trainings-Referenzbilder zu begrenzen, um eine Lichtbelastung der Probe (für Proben-spezifisches Training) bzw. der Referenzprobe zu begrenzen. Beispielsweise könnte die Anzahl der Entrauschungs-Trainings-Referenzbilder, die für das Training pro Probe oder pro Referenzprobe verwendet werden, nicht größer als 50% oder nicht größer als 10% der Anzahl der Trainings-Referenzbilder sein.Such supervised training need not be sample-specific. This means that the denoising training reference pic which can be detected by a reference sample. The sample to be measured, for which synthetic fluorescence images are determined, is then not exposed to any additional exposure to light. In any case, it can be desirable to limit the number of second denoising training reference images in order to limit light exposure of the sample (for sample-specific training) or the reference sample. For example, the number of denoising training reference images used for training per sample or per reference sample could be no greater than 50% or no greater than 10% of the number of training reference images.

Um eine verbesserte Entrauschung für ML Entrauschungsalgorithmen zu erzielen, kann es in den verschiedenen Beispielen möglich sein, dass der Entrauschungsalgorithmus - neben der Eingabe des Trainings-Referenzbilds - eine weitere Eingabe erhält, beispielsweise das zugehörige Trainings-Messbild und/oder Kontextinformation zur Messung (z.B. das verwendete Objektiv, die verwendete Lichtstärke für die Anregung usw.).In order to achieve improved denoising for ML denoising algorithms, it may be possible in the various examples that the denoising algorithm - in addition to the input of the training reference image - receives another input, for example the associated training measurement image and/or context information for the measurement (e.g. the lens used, the light intensity used for excitation, etc.).

Solche Techniken beruhen auf der Erkenntnis, dass in den hierin beschriebenen Anwendungen zusätzlich das mittels der mikroskopischen Bildgebung erfasste Trainings-Messbild verfügbar ist. In dessen Kontrast sind auch Informationen zur Probe codiert, sodass eine genauere Entrauschung dadurch erzeugt werden kann, dass der Entrauschungsalgorithmus auch Zugriff auf diese Informationen hat. Beim Training des Entrauschungsalgorithmus können auch entsprechende Entrauschungs-Trainings-Messbilder erfasst werden und als Eingabekanal an den Entrauschungsalgorithmus übergeben werden.Such techniques are based on the knowledge that the training measurement image captured by means of microscopic imaging is additionally available in the applications described herein. Information about the sample is also encoded in its contrast, so that more precise denoising can be generated because the denoising algorithm also has access to this information. When training the denoising algorithm, corresponding denoising training measurement images can also be acquired and passed to the denoising algorithm as an input channel.

Allgemein formuliert ist es also möglich, dass ein erster Eingabekanal der Eingabe des Entrauschungsalgorithmus die ein oder mehreren Trainings-Referenzbilder umfasst und ein zweiter Eingabekanal der Eingabe des Entrauschungsalgorithmus die ein oder mehreren Trainings-Messbilder umfasst.In general terms, it is therefore possible for a first input channel of the input of the noise reduction algorithm to include one or more training reference images and a second input channel of the input of the noise reduction algorithm to include one or more training measurement images.

Voranstehend wurden Techniken beschrieben, bei denen der Entrauschungsalgorithmus maschinengelernt ist. Es wären aber auch Beispiele denkbar, wo der Entrauschungsalgorithmus nicht maschinengelernt ist, das heißt klassisch, basierend auf Heuristiken, parametrisiert ist. Beispiele betreffen zum Beispiel Homomorphisches Filtern, Gaußfilter, nicht lokale Mittelwerte, Poisson-Fit, usw.Techniques in which the denoising algorithm is machine-learned have been described above. However, examples would also be conceivable where the noise reduction algorithm is not machine-learned, i.e. is classically parameterized based on heuristics. Examples include homomorphic filtering, Gaussian filtering, non-local means, Poisson fitting, etc.

Als allgemeine Regel sind unterschiedliche Implementierungen für die mikroskopische Bildgebung zur Erfassung der Trainings-Messbilder denkbar. Beispielsweise wäre es möglich, dass die Trainings-Messbilder nicht mit Fluoreszenzbildgebung erfasst werden. Die Trainings-Messbilder können zum Beispiel mit Durchlicht-Bildgebung erfasst werden.As a general rule, different implementations for the microscopic imaging to acquire the training measurement images are conceivable. For example, it would be possible that the training measurement images are not captured using fluorescence imaging. The training measurement images can be acquired with transmitted light imaging, for example.

In anderen Beispielen können die Trainings-Messbilder zumindest teilweise auch mit einer weiteren Fluoreszenzbildgebung erfasst werden, die einen anderen Fluoreszenzkontrast bereitstellt, als die Fluoreszenzbildgebung, mit welcher die Trainings-Referenzbilder erfasst werden. Beispielsweise könnten weniger sensible Färbungen, wie beispielsweise GFP, verwendet werden, um eine sensitivere Färbung, wie zum Beispiel tdTomato vorherzusagen. Ein weiteres Beispiel betrifft die Vorhersage von F-Actin basierend auf Vinculin.In other examples, the training measurement images can also be acquired, at least in part, with an additional fluorescence imaging that provides a different fluorescence contrast than the fluorescence imaging with which the training reference images are acquired. For example, less sensitive stains such as GFP could be used to predict a more sensitive stain such as tdTomato. Another example concerns the prediction of F-actin based on vinculin.

In einem solchen Szenario (Trainings-Messbilder mit Fluoreszenzkontrast) wäre es möglich, dass der Entrauschungsalgorithmus - oder auch ein weiterer Entrauschungsalgorithmus - auf die Trainings-Messbilder angewendet wird, um derart ein oder mehrere entrauschte Trainings-Messbilder zu erhalten. Das Training des ML Vorhersagealgorithmus kann basierend auf den ein oder mehreren entrauschten Trainings-Messbildern als Trainingseingabe durchgeführt werden.In such a scenario (training measurement images with fluorescence contrast), it would be possible for the noise reduction algorithm—or also another noise reduction algorithm—to be applied to the training measurement images in order to obtain one or more noise-free training measurement images in this way. The ML prediction algorithm can be trained based on the one or more denoised training measurement images as training input.

Sofern ein weiterer Entrauschungsalgorithmus spezifisch für das Entrauschen der Trainings-Messbilder verwendet wird, so können die obenstehend im Zusammenhang mit dem Entrauschungsalgorithmus für die Trainings-Referenzbilder beschriebenen Aspekte auch für den weiteren Entrauschungsalgorithmus umgesetzt werden. Dies betrifft zum Beispiel die Implementierung als maschinengelernter Algorithmus, das Proben-spezifische oder Proben-unspezifische Training, das selbst-überwachte oder überwachte Training, usw.If a further denoising algorithm is used specifically for denoising the training measurement images, the aspects described above in connection with the denoising algorithm for the training reference images can also be implemented for the further denoising algorithm. This concerns, for example, the implementation as a machine-learned algorithm, sample-specific or sample-unspecific training, self-supervised or supervised training, etc.

Insbesondere wäre es möglich, dass auch die Trainings-Messbilder augmentiert werden. Dazu kann der Entrauschungsalgorithmus oder der weitere Entrauschungsalgorithmus mittels eines probabilistischen Modells (z.B. Variations-Autoencoder-Netzwerk) implementiert werden. Es ist dann möglich, eine entsprechende latente Merkmalsrepräsentation des probabilistischen Modells pro Trainings-Messbild mehrfach abzutasten, um derart pro Trainings-Messbild mehrere entrauschte Trainings-Messbilder zu erhalten.In particular, it would be possible for the training measurement images to be augmented as well. For this purpose, the noise reduction algorithm or the further noise reduction algorithm can be implemented using a probabilistic model (e.g. variation autoencoder network). It is then possible to scan a corresponding latent feature representation of the probabilistic model multiple times per training measurement image in order to obtain a plurality of noise-free training measurement images per training measurement image.

Ein Computerprogramm oder ein Computerprogramm-Produkt oder ein computerlesbares Speichermedium umfasst Programmcode. Der Programmcode kann von einem Prozessor geladen und ausgeführt werden. Das bewirkt, dass der Prozessor ein Verfahren ausführt. Das Verfahren umfasst das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet eine Vielzahl von Zellen ab. Außerdem umfasst das Verfahren das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Ferner umfasst das Verfahren das Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Das computerimplementierte Verfahren umfasst außerdem noch das Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten und/oder falls vorliegend rauscharm aufgenommenen ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A computer program or a computer program product or a computer-readable storage medium includes program code. The program code can be loaded and executed by a processor. This causes the processor to execute a method. The method includes controlling at least one imaging device in order to use microscopic imaging to generate one or more training measurement images to capture a sample. The sample images a multitude of cells. The method also includes driving at least one imaging device to capture one or more training reference images of a sample using microscopic fluorescence imaging. The method further includes applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. The computer-implemented method also includes performing a training of parameters of an ML prediction algorithm. The training is carried out based on the one or more training measurement images as training input and based on the noise-free and/or, if present, one or more training reference images recorded with little noise as basic truth.

Eine Vorrichtung umfasst einen Prozessor. Der Prozessor ist eingerichtet um folgendes auszuführen: Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet eine Vielzahl von Zellen ab. Außerdem ist der Prozessor eingerichtet, um auszuführen: Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Außerdem ist der Prozessor eingerichtet, um auszuführen: Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Außerdem ist der Prozessor eingerichtet, um auszuführen: Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A device includes a processor. The processor is configured to: drive at least one imaging device to acquire one or more training measurement images in a sample using microscopic imaging. The sample images a multitude of cells. The processor is also configured to perform: driving at least one imaging device to acquire one or more training reference images of a sample using fluorescence microscopic imaging. In addition, the processor is configured to perform: applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. In addition, the processor is configured to perform: performing training of parameters of an ML prediction algorithm. The training is performed based on the one or more training measurement images as training input and based on the denoised one or more training reference images as ground truth.

Die oben dargelegten Merkmale und Merkmale die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.The features presented above and features that are described below can be used not only in the corresponding combinations explicitly presented, but also in further combinations or in isolation, without departing from the scope of protection of the present invention.

Figurenlistecharacter list

  • 1 illustriert ein System mit mindestens einer Bildgebungsvorrichtung und einer Vorrichtung zur digitalen Nachbearbeitung von Bildern, die von der mindestens einen Bildgebungsvorrichtung erfasst werden. 1 12 illustrates a system having at least one imaging device and a device for digital post-processing of images captured by the at least one imaging device.
  • 2 illustriert schematisch eine digitale Kontrastnachbearbeitung von Messbildern, die mit mindestens einer Bildgebungsvorrichtung erfasst werden. 2 schematically illustrates a digital contrast post-processing of measurement images that are acquired with at least one imaging device.
  • 3 ist ein Flussdiagramm eines beispielhaften Verfahrens. 3 Figure 12 is a flow diagram of an example method.

DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSFORMENDETAILED DESCRIPTION OF EMBODIMENTS

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden.The properties, features and advantages of this invention described above, and the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the exemplary embodiments, which are explained in more detail in connection with the drawings.

Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich werden. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.The present invention is explained in more detail below on the basis of preferred embodiments with reference to the drawings. In the figures, the same reference symbols designate the same or similar elements. The figures are schematic representations of various embodiments of the invention. Elements depicted in the figures are not necessarily drawn to scale. Rather, the various elements shown in the figures are presented in such a way that their function and general purpose can be understood by those skilled in the art. Connections and couplings between functional units and elements shown in the figures can also be implemented as an indirect connection or coupling. A connection or coupling can be implemented wired or wireless. Functional units can be implemented in hardware, software, or a combination of hardware and software.

Nachfolgend werden Techniken beschrieben, um den Kontrast von Messbildern von biologischen Proben digital nachzubearbeiten. Insbesondere kann es mittels der hierin beschriebenen Techniken möglich sein, cComputer-implementiert synthetische Bilder zu erzeugen, die einen Kontrast einer bestimmten Bildgebungsmodalität oder einen bestimmten Kontrast nachbilden, ohne dass die entsprechende Bildgebungsmodalität tatsächlich angewendet werden müsste oder der bestimmte Kontrast tatsächlich erfasst werden müsste.Techniques are described below for digitally post-processing the contrast of measurement images of biological samples. In particular, it may be possible using the techniques described herein to generate cComputer-implemented synthetic images that emulate a contrast of a particular imaging modality or contrast without actually having to apply the corresponding imaging modality or actually having to detect the particular contrast.

Gemäß verschiedenen hierin beschriebenen Beispielen ist es möglich, synthetische Bilder zu erzeugen, die die Bildgebung von gefärbten Proben nachbilden (engl. „virtual staining“). Bei einer solchen Bildgebung von gefärbten Proben wird die biologische Probe herkömmlicherweise mit einem entsprechenden Farbstoff gefärbt. Dies erfolgt in einem Färbeprozess. Dabei wird ein Farbstoff in Kontakt mit der Probe gebracht. Der Farbstoff beinhaltet ein oder mehrere Marker. Solche Marker erzeugen in der Bildgebung einen spezifischen Kontrast. Z.B. könnten die Marker spezifisch an bestimmte Zellteile binden, z.B. an den Zellkern oder Mitochondrien. Mittels der Marker könnte Tumorgewebe sichtbar gemacht werden. Es wären zum Beispiel Marker denkbar, die durch Beleuchtung mit einer bestimmten Wellenlänge aktiviert werden und dann Licht bei einer anderen Wellenlänge aussenden, das heißt Fluoreszenzmarker.According to various examples described herein, it is possible to generate synthetic images that mimic imaging of stained samples (“virtual staining”). In the case of such imaging of stained samples, the biological sample is conventionally stained with an appropriate dye. This is done in a dyeing process. Here, a dye is in contact with brought to the sample. The dye includes one or more markers. Such markers create a specific contrast in the imaging. For example, the markers could specifically bind to certain parts of the cell, such as the cell nucleus or mitochondria. The markers could be used to visualize tumor tissue. For example, markers that are activated by illumination with a specific wavelength and then emit light at a different wavelength, i.e. fluorescent markers, would be conceivable.

Als weitere allgemeine Regel können in den hierin beschriebenen Beispielen unterschiedlichste Arten von Proben untersucht werden. Es können biologische Proben untersucht werden. Beispielsweise wäre es möglich, lebende oder tote Zellen zu untersuchen, z.B. in einer Gewebeprobe. Es könnten zum Beispiel Zellkulturen untersucht werden. Die biologische Probe kann also ein biologisches Modellsystem bezeichnen, z.B. Zellen oder Sphäroide (d.h. Cluster von allgemeinen Zellen, z.B. von Tumoren oder Nervenzellen) oder Organoide (d.h. Cluster organspezifischer Zellen). Die biologische Probe kann also insbesondere Zellen oder Gewebe umfassen. Es kann eine Zellkultur untersucht werden. Z.B. könnte eine primäre Zellkultur untersucht werden, d.h. aus einem Organismus gewonnene und am Leben gehaltene Zellen. Es könnten auch tote Zellen untersucht werden. Diese Probe umfasst also z.B. ein Ensemble von Zellstrukturen.As a further general rule, a wide variety of sample types can be analyzed in the examples described herein. Biological samples can be examined. For example, it would be possible to examine living or dead cells, e.g. in a tissue sample. For example, cell cultures could be examined. The biological sample can thus denote a biological model system, e.g. cells or spheroids (i.e. clusters of general cells, e.g. of tumors or nerve cells) or organoids (i.e. clusters of organ-specific cells). The biological sample can therefore include cells or tissue in particular. A cell culture can be examined. For example, a primary cell culture could be examined, i.e. cells obtained from an organism and maintained alive. Dead cells could also be examined. This sample thus comprises, for example, an ensemble of cell structures.

Nachfolgend werden insbesondere Techniken im Zusammenhang mit der Fluoreszenzbildgebung beschrieben. Diese Techniken ermöglichen die Bestimmung von synthetischen Fluoreszenzbildern. Fluoreszenzbilder weisen einen Kontrast auf, der bestimmte Zellstrukturen aus einer Vielzahl von Zellstrukturen mit hoher Spezifität und Sensitivität charakteristisch darstellt. Derart ist es möglich, Zellstrukturen eines bestimmten Typs von anderen Zellstrukturen eines anderen Typs zu unterscheiden.In the following, techniques in connection with fluorescence imaging are described in particular. These techniques allow the determination of synthetic fluorescence images. Fluorescence images exhibit a contrast characteristic of certain cell structures from a variety of cell structures with high specificity and sensitivity. In this way it is possible to distinguish cell structures of a certain type from other cell structures of a different type.

Während nachfolgend verschiedene Techniken insbesondere im Zusammenhang mit der Färbung von Proben für die Fluoreszenzbildgebung beschrieben werden, wäre es in anderen Beispielen auch möglich, die Färbung für andere Anwendungsgebiete zu verwenden, z.B. der Histopathologie.While various techniques are described below, particularly in the context of staining samples for fluorescence imaging, in other examples it would also be possible to use the staining for other applications, such as histopathology.

Mittels der hierin beschriebenen Techniken kann ein maschinengelernter Vorhersagealgorithmus trainiert werden, um mit diesem basierend auf Messbildern, die mittels mikroskopischer Bildgebung erfasst werden, synthetische Fluoreszenzbilder zu bestimmen. Insbesondere werden Techniken beschrieben, um Trainingsdatensätze für den maschinengelernten Vorhersagealgorithmus vorzubearbeiten, bevor das Training durchgeführt wird. Die Trainingsdatensätze können aufbereitet werden, d.h. deren Qualität kann erhöht werden.Using the techniques described herein, a machine-learned prediction algorithm can be trained to determine synthetic fluorescence images based on measurement images acquired using microscopic imaging. In particular, techniques are described to pre-process training data sets for the machine-learned prediction algorithm before the training is performed. The training data sets can be processed, i.e. their quality can be increased.

In den hierin beschriebenen Techniken ist es möglich, Trainings-Referenzbilder des Trainingsdatensatzes mittels mikroskopischer Fluoreszenzbildgebung für eine Probe zu erfassen. Die Trainings-Referenzbilder können die Grundlage für die Ground-Truth des Trainings bilden.In the techniques described herein, it is possible to acquire training reference images of the training data set using fluorescence microscopic imaging for a sample. The training reference images can form the basis for the ground truth of the training.

Diese Trainings-Referenzbilder können so erfasst werden, dass sie ein vergleichsweise geringes Signal-zu-Rausch-Verhältnis aufweisen. Dann kann ein Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder angewendet werden, um ein oder mehrere entrauschte Trainings-Referenzbilder zu erhalten. Die entrauschten Trainings-Referenzbilder können einen reduzierten Rauschanteil im Vergleich zu den ursprünglich erfassten Trainings-Referenzbildern aufweisen, das heißt die entrauschten Trainings-Referenzbilder können ein erhöhtes Signal-zu-Rausch-Verhältnis aufweisen. Basierend auf diesen entrauschten Trainings-Referenzbildern kann dann der maschinengelernte Vorhersagealgorithmus trainiert werden, um diesen dann zu verwenden, um synthetische Fluoreszenzbilder vorherzusagen.These training reference images can be acquired in such a way that they have a comparatively low signal-to-noise ratio. A denoising algorithm can then be applied to the one or more training reference images to obtain one or more denoised training reference images. The noise-free training reference images can have a reduced noise component compared to the originally acquired training reference images, ie the noise-free training reference images can have an increased signal-to-noise ratio. Based on these denoised training reference images, the machine-learned prediction algorithm can then be trained to then use it to predict synthetic fluorescence images.

Der Vorhersagealgorithmus kann eine Korrelation zwischen einem Bildkontrast der Messbilder und einem Bildkontrast von Fluoreszenzbildern ausnutzen. Eine solche Technik kann auch als „virtuelles Einfärben“ (engl. virtual staining) bezeichnet werden, weil der Kontrast der Messbilder durch die digitale Nachbearbeitung mittels des Vorhersagealgorithmus verändert oder verstärkt wird, so dass das synthetische Fluoreszenzbild erhalten wird. Durch ein solches virtuelles Einfärben können verschiedene Vorteile erzielt werden, zum Beispiel eine reduzierte Belichtungszeit, eine reduzierte Zeit zum Scannen der Probe, ein erhöhtes SNR, eine reduzierte Foto-Toxizität, reduzierter experimenteller Aufwand, usw.The prediction algorithm can use a correlation between an image contrast of the measurement images and an image contrast of fluorescence images. Such a technique can also be referred to as “virtual staining” because the contrast of the measurement images is changed or enhanced by the digital post-processing using the prediction algorithm, so that the synthetic fluorescence image is obtained. Various advantages can be achieved by such virtual staining, for example reduced exposure time, reduced sample scanning time, increased SNR, reduced photo-toxicity, reduced experimental effort, etc.

Die Probe kann eine Vielzahl von Zellen aufweisen. Es handelt sich also um eine biologische Probe.The sample can contain a large number of cells. It is therefore a biological sample.

Die biologische Probe kann also ein biologisches Modellsystem bezeichnen, z.B. Zellen oder Sphäroide (d.h. Cluster von allgemeinen Zellen, z.B. von Tumoren oder Nervenzellen) oder Organoide (d.h. Cluster organspezifischer Zellen). Die biologische Probe kann also insbesondere Zellen oder Gewebe umfassen. Es kann eine Zellkultur untersucht werden. Z.B. könnte eine primäre Zellkultur untersucht werden, d.h. aus einem Organismus gewonnene und am Leben gehaltene Zellen. Es könnten auch tote Zellen untersucht werden.The biological sample can thus denote a biological model system, e.g. cells or spheroids (i.e. clusters of general cells, e.g. of tumors or nerve cells) or organoids (i.e. clusters of organ-specific cells). The biological sample can therefore include cells or tissue in particular. A cell culture can be examined. For example, a primary cell culture could be examined, i.e. cells obtained from an organism and maintained alive. Dead cells could also be examined.

Der ML Vorhersagealgorithmus kann durch ein künstliches neuronales Netzwerk (KNN) implementiert werden.The ML prediction algorithm can be implemented by an artificial neural network (ANN).

Ein KNN umfasst eine Vielzahl von Schichten, die verschiedene Operationen ausführen. Ein Beispiel für ein KNN ist ein Faltungsnetzwerk (engl. convolutional neural network), bei denen Faltungsschichten verwendet werden, die eine Faltung von Eingangswerten mit einem Kern durchführen. Die verschiedenen Schichten können über geeignete Gewichte miteinander verbunden werden. Nichtlineare Aktivierungen sind denkbar. Pooling-Operationen können durchgeführt werden: dort werden Informationen verworfen. Ein Beispiel ist das Max-Pooling, wo nur die stärksten Werte eines Bereichs (z.B. aus 2x2 Nachbarschaftsbereichen) beibehalten werden. KNNs können eine Feedforward-Architektur haben. So kann beispielsweise das Ergebnis einer Schicht immer nur an eine nachfolgende Schicht weitergegeben werden. Wenn sog. Sprung-Verbindungen vorhanden sind, kann die Ausgabe einer Schicht an mehrere nachfolgende Schichten weitergegeben werden. Es können grundsätzlich unterschiedliche Arten von KNNs verwendet werden, z.B. insbesondere auch Generative Adversarial Networks (GANs) oder Autoencoder Netzwerke, z. B. Variations-Autoencoder-Netzwerke.An ANN includes a variety of layers that perform various operations. An example of an ANN is a convolutional neural network, which uses convolutional layers that perform convolution of input values with a kernel. The various layers can be connected to one another using suitable weights. Nonlinear activations are conceivable. Pooling operations can be performed: information is discarded there. An example is max-pooling, where only the strongest values of a range (e.g. from 2x2 neighborhood ranges) are kept. ANNs can have a feedforward architecture. For example, the result of one shift can only be passed on to a subsequent shift. If so-called hop connections are present, the output of one layer can be passed on to several subsequent layers. In principle, different types of ANNs can be used, e.g. in particular also generative adversarial networks (GANs) or autoencoder networks, e.g. B. Variation autoencoder networks.

Beim Variations-Autoencoder-Netzwerk wird eine Kodier-Dekodier-Struktur verwendet (engl. encoder decoder architecture). In ein oder mehreren Kodier-Zweigen erfolgt eine Kontraktion von Merkmalen im Ortsraum, hin zu einem Flaschenhals (engl. bottleneck). In ein oder mehreren Dekodier-Zweigen erfolgt eine Expansion von Merkmalen im Ortsraum, weg vom Flaschenhals. Die Ausgabe des Dekodier-Zweigs kann die Eingabe in den Kodier-Zweig rekonstruieren. Der Flaschenhals bezeichnet die latente Merkmalsrepräsentation. Die latente Merkmalsrepräsentation wird beim Variations-Autoencoder-Netzwerk durch Wahrscheinlichkeitsverteilungen der entsprechenden Merkmale implementiert. Jede Wahrscheinlichkeitsverteilung kann durch einen Mittelwert und eine Standardabweichung beschrieben werden. Entsprechend wird ein zweidimensionaler Vektor erhalten. In einer Abtast-Operation werden diese Verteilungen abgetastet (dies gilt allgemein für probabilistische Modelle) und das Abtast-Ergebnis dient als Eingabe in die ein oder mehreren Dekodier-Zweige.The variation autoencoder network uses an encoder decoder architecture. In one or more coding branches, features in the local space are contracted towards a bottleneck. In one or more decoding branches, there is an expansion of features in the spatial space, away from the bottleneck. The output of the decode branch can reconstruct the input to the encode branch. The bottleneck denotes the latent feature representation. In the variational autoencoder network, the latent feature representation is implemented by probability distributions of the corresponding features. Each probability distribution can be described by a mean and a standard deviation. Accordingly, a two-dimensional vector is obtained. In a sampling operation, these distributions are sampled (this applies in general to probabilistic models) and the sampling result serves as input to the one or more decoding branches.

1 illustriert schematisch ein System 100 gemäß verschiedenen Beispielen. Das System 100 umfasst eine Vorrichtung 101. Die Vorrichtung 101 könnte zum Beispiel ein Computer oder ein Server sein. Die Vorrichtung 101 umfasst einen Prozessor 102 und einen Speicher 103. Die Vorrichtung 101 umfasst auch eine Schnittstelle 104. Über die Schnittstelle 104 kann die Vorrichtung 101 Bilddaten, zum Beispiel Messbilder und/oder Trainings-Referenzbilder und /oder Trainings-Messbilder, von ein oder mehreren Bildgebungsvorrichtungen 111, 112 empfangen. Mittels der Bildgebungsvorrichtungen 111, 112 kann eine Probe 199 abgebildet werden. Die Trainings-Messbilder und Trainings-Referenzbilder können zum Training eines ML Vorhersagealgorithmus, der synthetische Fluoreszenzbilder erzeugt, verwendet werden. Es können über die Schnittstelle 104 auf Entrauschungs-Trainings-Referenzbilder erhalten werden, mit denen ein ML Entrauschungsalgorithmus trainiert werden kann. Der Prozessor 102 könnte auch Steuerdaten über die Schnittstelle 104 an die ein oder mehreren Bildgebungsvorrichtungen 111, 112 senden, um diese zur Erfassung von Bilddaten anzusteuern. Mittels der Steuerdaten könnte der Prozessor 102 auch die Werte von ein oder mehreren Bildgebungsparametern, zum Beispiel von Beleuchtungsparametern, einstellen. 1 12 schematically illustrates a system 100 according to various examples. The system 100 includes a device 101. The device 101 could be, for example, a computer or a server. The device 101 includes a processor 102 and a memory 103. The device 101 also includes an interface 104. Via the interface 104, the device 101 can receive image data, for example measurement images and/or training reference images and/or training measurement images, from one or multiple imaging devices 111, 112 received. A sample 199 can be imaged by means of the imaging devices 111 , 112 . The training measurement images and training reference images can be used to train an ML prediction algorithm that generates synthetic fluorescence images. Denoising training reference images can also be obtained via the interface 104, with which an ML denoising algorithm can be trained. The processor 102 could also send control data over the interface 104 to the one or more imaging devices 111, 112 to control them to acquire image data. Using the control data, the processor 102 could also adjust the values of one or more imaging parameters, for example lighting parameters.

Der Prozessor 102 kann als zentrale Recheneinheit (CPU) ausgebildet sein und/oder über spezialisierte Recheneinheiten verfügen, beispielsweise über mind. eine Graphik-Prozessierungs-Einheit (GPU) und/oder über mind. eine Tensor-Prozessierungs-Einheit (TPU).The processor 102 can be embodied as a central processing unit (CPU) and/or have specialized processing units, for example at least one graphics processing unit (GPU) and/or at least one tensor processing unit (TPU).

Der Prozessor 102 kann, allgemein formuliert, eingerichtet sein, um Steueranweisungen aus dem Speicher 103 zu laden und auszuführen. Wenn der Prozessor 102 die Steueranweisungen lädt und ausführt, bewirkt dies, dass der Prozessor 102 Techniken ausführt, wie sie hierin beschrieben sind. Solche Techniken werden zum Beispiel das Ansteuern der Bildgebungsvorrichtung 111 und optional der Bildgebungsvorrichtung 112, um Bilddaten zu erfassen. Zum Beispiel könnte der Prozessor 102 eingerichtet sein, um die Bildgebungsvorrichtung 111 anzusteuern, um mittels mikroskopischer Bildgebung während eines Beobachtungszeitraums ein oder mehrere Trainings-Messbilder einer Probe zu erfassen. Der Prozessor 102 kann auch eingerichtet sein, um die Bildgebungsvorrichtung 111 anzusteuern, um während desselben Beobachtungszeitraums mehrere Trainings-Referenzbilder der Probe zu erfassen. Die Trainings-Referenzbilder können grundsätzlich mit einer anderen Bildgebungsmodalität erfasst werden, wie die Messbilder. Je nach Fähigkeit der Bildgebungsvorrichtung 111 betreffend die Bildgebungsmodalität, die zur Erfassung der Trainings-Referenzbilder verwendet wird, kann der Prozessor 102 auch die Bildgebungsvorrichtung 112 ansteuern, um die Trainings-Referenzbilder zu erfassen.In general terms, the processor 102 can be set up to load and execute control instructions from the memory 103 . When the processor 102 loads and executes the control instructions, it causes the processor 102 to perform techniques as described herein. Such techniques include driving imaging device 111 and optionally imaging device 112 to acquire image data. For example, the processor 102 could be set up to control the imaging device 111 in order to acquire one or more training measurement images of a sample by means of microscopic imaging during an observation period. The processor 102 may also be configured to drive the imaging device 111 to acquire multiple training reference images of the sample during the same observation period. In principle, the training reference images can be acquired with a different imaging modality than the measurement images. Depending on the capability of the imaging device 111 regarding the imaging modality used to acquire the training reference images, the processor 102 may also drive the imaging device 112 to acquire the training reference images.

Außerdem kann der Prozessor 102 basierend auf den Steueranweisungen aus dem Speicher 103 eingerichtet sein, um synthetische Fluoreszenzbilder basierend auf den Messbildern und basierend auf einem ML Vorhersagealgorithmus zu bestimmen. Das bedeutet, dass der Prozessor 102 ein virtuelles Einfärben durchführen kann.In addition, the processor 102 can be set up based on the control instructions from the memory 103 to determine synthetic fluorescence images based on the measurement images and based on an ML prediction algorithm. This means that processor 102 can perform virtual coloring.

Außerdem kann der Prozessor 102 eingerichtet sein, um den ML Vorhersagealgorithmus zu trainieren. Dazu können ein oder mehrere Trainings-Messbilder als Trainingseingabe verwendet werden und ein oder mehrere entrauschte Trainings-Referenzbilder als Grundwahrheit.In addition, the processor 102 can be configured to train the ML prediction algorithm. To this end, one or more training measurement images can be used as training input and one or more noise-free training reference images can be used as basic truth.

Der Prozessor 102 kann auch eingerichtet sein, um einen Entrauschungsalgorithmus auf ein oder mehrere Trainings-Referenzbilder anzuwenden, um derart die ein oder mehreren entrauschten Trainings-Referenzbilder zu erhalten.The processor 102 can also be set up to apply a denoising algorithm to one or more training reference images in order to obtain the one or more denoised training reference images in this way.

Der Prozessor 102 kann auch eingerichtet sein, um den Entrauschungsalgorithmus zu trainieren.The processor 102 can also be configured to train the denoising algorithm.

2 illustriert schematisch Aspekte im Zusammenhang mit dem virtuellen Einfärben von Messbildern 201, die eine Probe abbilden, wobei die Probe ein Ensemble von Zellstrukturen umfasst. Ein Messbild 201 dient als Eingabe des ML Vorhersagealgorithmus 205, der als Ausgabe ein synthetisches Fluoreszenzbild 202 liefert. 2 FIG. 12 schematically illustrates aspects related to the virtual coloring of measurement images 201 depicting a sample, the sample comprising an ensemble of cell structures. A measurement image 201 serves as input to the ML prediction algorithm 205, which provides a synthetic fluorescence image 202 as an output.

Der Vorhersagealgorithmus könnte z.B. durch ein KNN implementiert sein. Die Architektur des KNN könnte z.B. entsprechend Christiansen, Eric M., et al. „In silico labeling: predicting fluorescent labels in unlabeled images.“ Cell 173.3 (2018): 792-803; oder Ounkomol, Chawin, et al. „Label-free prediction of three-dimensional fluorescence images from transmitted-light microscopy.“ Nature methods 15.11 (2018): 917-920 umgesetzt sein.For example, the prediction algorithm could be implemented by an ANN. The architecture of the ANN could e.g. according to Christiansen, Eric M., et al. "In silico labeling: predicting fluorescent labels in unlabeled images." Cell 173.3 (2018): 792-803; or Ounkomol, Chawin, et al. "Label-free prediction of three-dimensional fluorescence images from transmitted-light microscopy." Nature methods 15.11 (2018): 917-920.

Eine weitere Architektur könnte gemäß einem U-Netz implementiert sein, das Faltungsschichten und Sprungverbindungen aufweist, die bestimmte Schichten übergehen. Sh. z.B. Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham; wobei aber eine Grauwert-Regression als Ausgabe verwendet wird, statt einer Klassifikationsschicht (um eine Bild-zu-Bild-Vorhersage zu erhalten). Das U-Netz könnte auch mit zusätzlichem Adversarial Verlustbeitrag trainiert werden. Das wird auch als „Conditional Generative Adversarial Net“ bezeichnet.Another architecture could be implemented according to a U-network having convolutional layers and hopping connections that override certain layers. sh e.g. Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham; but using grayscale regression as output instead of a classification layer (to get frame-to-frame prediction). The underground network could also be trained with additional adversarial loss contribution. This is also known as the conditional generative adversarial net.

Ein weiteres Beispiel wäre z.B. ein Autoencoder Netzwerke, z.B. Variations Autoencoder Netzwerke.Another example would be an autoencoder network, e.g. Variations autoencoder networks.

Zum Training 6001 des Vorhersagealgorithmus 205 werden Trainings-Messbilder 251 verwendet sowie Trainings-Referenzbilder 252.Training measurement images 251 and training reference images 252 are used for training 6001 of the prediction algorithm 205.

Die Trainings-Messbilder 251 können mittels derselben Bildgebungsmodalität und desselben Kontrasts erfasst werden, wie die Messbilder 201.The training measurement images 251 can be captured using the same imaging modality and the same contrast as the measurement images 201.

Die Trainings-Referenzbilder 252 können mit einer Fluoreszenzbildgebung erfasst werden und weisen einen Fluoreszenzkontrast auf, der dem synthetischen Fluoreszenzkontrast synthetischer Fluoreszenzbilder 202 entspricht.The training reference images 252 can be acquired with fluorescence imaging and have a fluorescence contrast that corresponds to the synthetic fluorescence contrast of synthetic fluorescence images 202 .

Die Trainings-Referenzbilder 252 können mittels eines Entrauschungsalgorithmus 209 entrauscht werden, bevor sie dem Training 6001 zugeführt werden.The training reference images 252 can be denoised by means of a denoising algorithm 209 before they are fed to the training 6001 .

Optional können die Trainings-Messbilder 251 auch mittels des Entrauschungsalgorithmus 209 (oder eines anderen Entrauschungsalgorithmus) entrauscht werden.Optionally, the training measurement images 251 can also be denoised by means of the denoising algorithm 209 (or another denoising algorithm).

Der Entrauschungsalgorithmus 209 kann mittels Paaren von ersten Entrauschungs-Trainings-Referenzbildern 281 und zweiten Entrauschungs-Trainings-Referenzbilder 282 trainiert werden, 6002. Diese Paare sind miteinander registriert und weisen unterschiedliches Signal-zu-Rausch-Verhältnis auf. Es wäre aber auch selbst-überwachtes Training möglich.The denoising algorithm 209 can be trained 6002 by means of pairs of first denoising training reference images 281 and second denoising training reference images 282. These pairs are registered with one another and have different signal-to-noise ratios. However, self-monitored training would also be possible.

3 ist ein Flussdiagramm eines beispielhaften Verfahrens. Zum Beispiel könnte das Verfahren von einem Gerät mit einem Prozessor und einem Speicher ausgeführt werden, wenn der Prozessor Steueranweisungen vom Speicher lädt und ausführt. Zum Beispiel könnte das Verfahren gemäß 3 vom Gerät 101 aus 1 ausgeführt werden, insb. vom Prozessor 102 wenn dieser Programmcode aus dem Speicher 103 lädt. Optionale Blöcke sind in 3 mit gestrichelten Linien dargestellt. 3 Figure 12 is a flow diagram of an example method. For example, the method could be performed by a device having a processor and memory when the processor loads and executes control instructions from memory. For example, the method according to 3 from device 101 1 be executed, especially by the processor 102 when this program code loads from the memory 103. Optional blocks are in 3 shown with dashed lines.

In Box 3005 werden ein oder mehrere Trainings-Messbilder erhalten (z.B. eine Zeitabfolge). Die ein oder mehreren Trainings-Messbilder werden während eines Beobachtungszeitraums in einer entsprechenden Messung erfasst (vgl. 2, Trainings-Messbilder 251). Dazu kann eine Bildgebungsvorrichtung geeignet angesteuert werden.In box 3005, one or more training measurement images are obtained (eg, a time series). The one or more training measurement images are recorded in a corresponding measurement during an observation period (cf. 2 , training measurement images 251). For this purpose, an imaging device can be controlled in a suitable manner.

Die Trainings-Messbilder bilden eine biologische Probe ab, die z.B. ein Ensemble von Zellstrukturen umfasst. Die Zellstrukturen können dabei einem biologischen Veränderungsvorgang ausgesetzt sein. Dieser biologische Veränderungsvorgang kann über das Ensemble und den Beobachtungszeitraum verteilt auftreten. Ziel der Messung kann es also sein, diesen biologischen Veränderungsvorgang abzubilden bzw. zu vermessen. Allgemeiner formuliert kann es Ziel der Messung sein, die biologische Probe zu charakterisieren.The training measurement images depict a biological sample that includes, for example, an ensemble of cell structures. The cell structures can be exposed to a biological change process. This biological change process can occur distributed over the ensemble and the observation period. The aim of the measurement can therefore be this biological change process to map or measure. In more general terms, the aim of the measurement can be to characterize the biological sample.

Da der biologische Veränderungsvorgang im Zeitraum und im Ortsraum verteilt auftritt, das heißt an unterschiedlichen Orten zu unterschiedlichen Zeitpunkten zu beobachten ist, kann es hilfreich sein, die Trainings-Messbilder mit einer hohen Wiederholungsrate zu erfassen. Das bedeutet, dass pro Zeiteinheit viele Trainings-Messbilder erfasst werden. Alternativ oder zusätzlich können die Trainings-Messbilder auch mit einer hohen Ortsraumdichte erfasst werden, d.h. es kann z.B. (wiederholt) ein Z-Stapel von Trainings-Messbildern erfasst werden. Dadurch kann erreicht werden, dass der biologische Veränderungsvorgang abgebildet werden kann. Dies kann insbesondere dann hilfreich sein, wenn eine Zeitdauer jedes individuellen Auftretens des biologischen Veränderungsvorgangs viel kleiner ist als die zeitliche Streuung des Auftretens der biologischen Veränderungsvorgänge im Ensemble.Since the biological change process occurs distributed over time and space, that is to say can be observed at different locations at different times, it can be helpful to record the training measurement images with a high repetition rate. This means that many training measurement images are recorded per unit of time. Alternatively or additionally, the training measurement images can also be recorded with a high spatial density, i.e. a Z stack of training measurement images can be recorded (repeatedly), for example. In this way it can be achieved that the biological change process can be mapped. This can be particularly helpful when the duration of each individual occurrence of the biological change process is much smaller than the time spread of the occurrence of the biological change processes in the ensemble.

Zum Erfassen der Trainings-Messbilder 3005 kann das Gerät eine entsprechende Bildgebungsvorrichtung geeignet ansteuern. Zum Beispiel könnte der Prozessor Steuerbefehle an die Bildgebungsvorrichtung senden. Die Steuerbefehle können indikativ für Zeitpunkte zum Auslösen der Belichtung und/oder Werte von ein oder mehreren Beleuchtungsparametern sein.In order to acquire the training measurement images 3005, the device can suitably control a corresponding imaging device. For example, the processor could send control commands to the imaging device. The control commands can be indicative of points in time for triggering the exposure and/or values of one or more lighting parameters.

In Box 3010 kann optional ein Entrauschungsalgorithmus (vgl. 2, Entrauschungsalgorithmus 209) trainiert werden, der für das Entrauschen der Trainings-Messbilder verwendet wird.In box 3010, a denoising algorithm (cf. 2 , denoising algorithm 209) that is used for denoising the training measurement images.

Der Entrauschungsalgorithmus kann z.B. basierend auf weiteren Trainings-Messbildern Proben-spezifisch trainiert werden. Selbst-überwachtes Training ist möglich.The denoising algorithm can be trained sample-specifically, e.g. based on further training measurement images. Self-supervised training is possible.

Es könnte aber auch ein vortrainierter Entrauschungsalgorithmus verwendet werden. Dieser könnte in einem gesonderten Experiment anhand von Daten, die für eine Referenzprobe erfasst werden, trainiert werden, wiederum selbstüberwacht. Es könnte auch eine Grundwahrheit zum Training verwendet werden, nämlich Paare von Entrauschungs-Trainings-Referenzbildern (vgl. 2: Entrauschungs-Trainings-Referenzbilder 281, 282).However, a pre-trained denoising algorithm could also be used. This could be trained in a separate experiment using data recorded for a reference sample, again self-monitored. A ground truth could also be used for training, namely pairs of denoising training reference images (cf. 2 : denoising training reference images 281, 282).

Optional kann dann in Box 3015 der trainierte Entrauschungsalgorithmus auf die Trainings-Messbilder angewendet werden, um derart entrauschte Trainings-Messbilder zu erhalten.Optionally, the trained denoising algorithm can then be applied to the training measurement images in box 3015 in order to obtain such denoised training measurement images.

Das Entrauschen von Trainings-Messbildern kann insbesondere dann hilfreich sein, wenn die Trainings-Messbilder selbst mit einer Fluoreszenzbildgebung erfasst werden.The denoising of training measurement images can be particularly helpful when the training measurement images themselves are acquired using fluorescence imaging.

Optional wäre es in Box 3020 möglich, die Trainings-Messbilder zu augmentieren. Dazu kann für den Entrauschungsalgorithmus in Box 3015 ein Variations-Autoencoder-Netzwerk verwendet werden. Durch mehrfaches Abtasten einer latenten Merkmalsrepräsentation des Variations-Autoencoder-Netzwerks pro Trainings-Messbild können so mehrere entrauschte Trainings-Messbilder pro Trainings-Messbild erhalten werden.Optionally, it would be possible in box 3020 to augment the training measurement images. To do this, a variational autoencoder network can be used for the denoising algorithm in box 3015. By multiple sampling of a latent feature representation of the variation autoencoder network per training measurement image, multiple noise-free training measurement images can be obtained per training measurement image.

In Box 3025 werden ein oder mehrere Trainings-Referenzbilder erhalten. Dazu kann eine Bildgebungsvorrichtung geeignet angesteuert werden. Dabei kann für jedes Trainings-Messbild aus Box 3005 ein zugehöriges Trainings-Referenzbild erhalten werden, welches denselben Probenbereich der Probe abbildet. Sofern die Trainings-Messbilder und die Trainings-Referenzbilder nicht durch Verwendung desselben optischen Pfads zur Bildgebung bereits inhärent registriert sind, kann optional eine digitale Registrierung erfolgen, so dass dieselben Probenbereiche am selben Bildort abgebildet werden.In box 3025, one or more training reference images are obtained. For this purpose, an imaging device can be controlled in a suitable manner. For each training measurement image, an associated training reference image can be obtained from box 3005, which images the same sample area of the sample. If the training measurement images and the training reference images are not already inherently registered by using the same optical path for imaging, a digital registration can optionally take place so that the same sample areas are imaged at the same image location.

Zum Erfassen der Trainings-Referenzbilder wird eine Fluoreszenzbildgebung verwendet. Dabei können Belichtungsparameter, zum Beispiel Lichtsensitivitäten des anregenden Lichts oder Belichtungsdauer, so eingestellt werden, dass die Trainings-Referenzbilder ein vergleichsweise geringes Signal-zu-Rausch-Verhältnis aufweisen. Das bedeutet, dass die Lichtexposition der Probe pro Trainings-Referenzbild vergleichsweise klein sein kann. Die Trainings-Referenzbilder weisen also ein vergleichsweise hohes Rauschen auf.Fluorescence imaging is used to acquire the training reference images. Exposure parameters, for example light sensitivities of the exciting light or exposure duration, can be set in such a way that the training reference images have a comparatively low signal-to-noise ratio. This means that the light exposure of the sample per training reference image can be comparatively small. The training reference images therefore have a comparatively high level of noise.

Optional kann in Box 3030 ein Proben-spezifisches selbst-überwachtes Training für die Probe und für den Entrauschungsalgorithmus durchgeführt werden. Für Box 3030 gelten die oben im Zusammenhang mit Box 3010 diskutierten Aspekte. Optionally, in box 3030, sample-specific self-supervised training can be performed for the sample and for the denoising algorithm. For box 3030, the aspects discussed above in connection with box 3010 apply.

Ein solches Proben-spezifisches Training ist aber nicht in allen Varianten erforderlich. Beispielsweise könnte der Entrauschungsalgorithmus, der auf die Trainings-Referenzbilder angewendet wird, gleich dem Entrauschungsalgorithmus sein, der auf die Trainings-Messbilder angewendet wird. In einem solchen Fall könnte der Entrauschungsalgorithmus bereits in Box 3010 trainiert worden sein. Alternativ oder zusätzlich wäre es denkbar, dass der Entrauschungsalgorithmus nicht Proben-spezifisch trainiert wird. Das bedeutet, dass der Entrauschungsalgorithmus an einer Referenzprobe trainiert werden kann. Auch in einem solchen Fall wäre ein selbst-überwachtes Training denkbar. Es wäre aber auch ein überwachtes Training denkbar. Zum Beispiel wäre es möglich, dass für die Referenzprobe erste und zweite Entrauschungs-Trainings-Referenzbilder erfasst werden, die Paare bilden (vgl. 2: Entrauschungs-Trainings-Referenzbilder 281, 282). Die ersten Entrauschungs-Trainings-Referenzbilder weisen dabei ein niedriges Signal-zu-Rausch-Verhältnis auf, das heißt werden mit Bildgebungsparametern erfasst, die eine geringe Lichtexposition pro Entrauschungs-Trainings-Referenzbild bewirken. Die zweiten Entrauschungs-Trainings-Referenzbilder weisen ein hohes Signal-zu-Rausch-Verhältnis auf, das heißt werden mit Bildgebungsparametern erfasst, die eine hohe Lichtexposition bewirken. Dann kann eine Bild zu Bild Transformation für den Entrauschungsalgorithmus basierend auf den ersten Entrauschungs-Trainings-Referenzbildern als Trainingseingabe und den zweiten Entrauschungs-Trainings-Referenzbildern als Grundwahrheit trainiert werden. Optional können die Entrauschungs-Trainings-Referenzbilder der Paare auch miteinander registriert sein. Die Entrauschungs-Trainings-Referenzbilder der Paare können so orientiert sein, dass gleiche Pixelkoordinaten in den Paaren dem gleichen physischen Teil der Probe entsprechen. Weiter ist es denkbar, zusätzlich zu den Paaren aus ersten und zweiten Entrauschungs-Trainings-Referenzbildern weitere Paare aus Entrauschungs-Trainings-Referenzbildern zu verwenden, die beide ein niedriges Signal-zu-Rausch-Verhältnis aufweisen. Auch eine Kombination aus selbstüberwachtem Lernen und überwachtem Lernen ist möglich Es wäre auch denkbar, dass der Entrauschungsalgorithmus nicht maschinengelernt ist, sondern die Parameterwerte des Entrauschungsalgorithmus basierend auf Heuristiken oder Expertenwissen manuell gesetzt werden. Dann braucht auch kein gesondertes Training erfolgen.However, such sample-specific training is not required in all variants. For example, the denoising algorithm applied to the training reference images could be the same as the denoising algorithm applied to the training measurement images. In such a case, the denoising algorithm could already have been trained in box 3010. Alternatively or additionally, it would be conceivable that the denoising algorithm is not trained in a sample-specific manner. This means that the denoising algorithm can be trained on a reference sample. In such a case, self-monitored training would also be conceivable. However, supervised training would also be conceivable. For example would be it is possible for the reference sample to acquire first and second denoising training reference images that form pairs (cf. 2 : denoising training reference images 281, 282). The first noise reduction training reference images have a low signal-to-noise ratio, ie they are recorded with imaging parameters that result in low light exposure per noise reduction training reference image. The second denoising training reference images have a high signal-to-noise ratio, ie are acquired with imaging parameters that cause high light exposure. Then an image-to-image transformation for the denoising algorithm can be trained based on the first denoising training reference images as training input and the second denoising training reference images as ground truth. Optionally, the noise reduction training reference images of the pairs can also be registered with one another. The pairs' denoising training reference images may be oriented such that like pixel coordinates in the pairs correspond to the same physical part of the sample. It is also conceivable to use further pairs of noise reduction training reference images, both of which have a low signal-to-noise ratio, in addition to the pairs of first and second noise reduction training reference images. A combination of self-monitored learning and supervised learning is also possible. It would also be conceivable that the denoising algorithm is not machine-learned, but instead the parameter values of the denoising algorithm are set manually based on heuristics or expert knowledge. Then no separate training is required.

In Box 3035 kann dann der Entrauschungsalgorithmus auf die Trainings-Referenzbilder angewendet werden, um entrauschte Trainings-Referenzbilder zu erhalten.In box 3035, the denoising algorithm can then be applied to the training reference images to obtain denoised training reference images.

Wie oben bereits dargelegt, kann derselbe oder ein anderer Entrauschungsalgorithmus auf die Trainings-Referenzbilder und die Trainings-Messbilder angewendet werden.As already explained above, the same or a different denoising algorithm can be applied to the training reference images and the training measurement images.

In Box 3040 wäre es möglich, dass die Trainings-Referenzbilder augmentiert werden. Dabei wäre es denkbar, dass der Entrauschungsalgorithmus ein Variations-Autoencoder-Netzwerk ist. Die latente Merkmalsrepräsentation des Variations-Autoencoder Netzwerks kann dann pro Trainings-Referenzbild mehrfach abgetastet werden, um derart mehrere entrauschte Trainings-Referenzbilder pro Trainings-Referenzbild zu erhalten.In box 3040, it would be possible for the training reference images to be augmented. It would be conceivable that the noise reduction algorithm is a variation autoencoder network. The latent feature representation of the variation autoencoder network can then be sampled multiple times per training reference image in order to obtain a plurality of noise-free training reference images per training reference image.

Beim Entrauschen der Trainings-Referenzbildern können als weiterer Eingabekanal an den Entrauschungsalgorithmus auch die Trainings-Messbilder, die in Box 3005 erfasst werden, übergeben werden. Derart kann ein genaueres Entrauschen ermöglicht werden.When removing noise from the training reference images, the training measurement images that are recorded in box 3005 can also be transferred as a further input channel to the noise removal algorithm. In this way, more precise denoising can be made possible.

Dann kann in Box 3045 das Training des Vorhersagealgorithmus bzw. genauer dessen Parameter durchgeführt werden (vgl. 2, 6001).Then, in box 3045, the prediction algorithm or, more precisely, its parameters can be trained (cf. 2 , 6001).

Zum Training des Vorhersagealgorithmus können Techniken des Maschinenlernens eingesetzt werden. Z.B. könnte ein KNN trainiert werden. Das bedeutet, dass zum Beispiel ein Gradientenabstiegsverfahren eingesetzt werden kann, um ausgehend von einem Wert einer Verlustfunktion, die basierend auf einem Vergleich (zum Beispiel einem Bildpunkt-Vergleich) zwischen dem jeweiligen entrauschten Trainings-Referenzbild und dem zugehörigen ggf. entrauschten Trainings-Messbild die Parameterwerte des Vorhersagealgorithmus anpasst. Es können unterschiedliche Verlustfunktionen verwendet werden, z.B. eine Summe über die Abweichungsquadrate zwischen Pixelwerten. Es kann eine sog. Rückwärtsanpassung (engl. Backpropagation) zur Anpassung der Parameterwerte verwendet werden.Machine learning techniques can be used to train the prediction algorithm. For example, an ANN could be trained. This means that, for example, a gradient descent method can be used, based on a value of a loss function based on a comparison (e.g. a pixel comparison) between the respective noise-free training reference image and the associated possibly noise-free training measurement image Adjusts parameter values of prediction algorithm. Different loss functions can be used, e.g. a sum over the squared deviations between pixel values. A so-called backpropagation can be used to adapt the parameter values.

Die entrauschten Trainings-Referenzbilder dienen als Grundwahrheit für die Trainings-Messbilder. Um die Paare zwischen Trainings-Referenzbildern und Trainings-Messbildern zu bestimmen, die zum Ermitteln des Werts der Verlustfunktion basierend auf einem entsprechenden Vergleich verwendet werden, kann der Abstand zwischen den Trainings-Referenzbildern und Trainings-Messbildern im Zeitraum und/oder Ortsraum berücksichtigt werden. Zum Beispiel könnte ein Trainings-Referenzbild als Grundwahrheit für ein Trainings-Messbild dienen, wenn das Trainings-Referenzbild und das Trainings-Messbild denselben Bereich der Probe abbilden und mit geringem Zeitabstand erfasst wurden. Ein geringer Zeitabstand kann einen solchen Zeitabstand bezeichnen, der so kurz ist, dass der biologische Veränderungsprozess nicht oder nur mit einer hinreichend geringen Wahrscheinlichkeit auftreten kann. Zum Beispiel kann es erstrebenswert sein, dass ein Zeitabstand zwischen dem Erfassen eines Trainings-Messbildes und dem Erfassen eines Referenzbildes nicht größer als 1 Sekunde ist, optional nicht größer als 500 ms, weiter optional nicht größer als 10 ms. Das beruht auf der Erkenntnis, dass solche Zeitskalen kurz genug sind, sodass keine signifikante Veränderung der Probe zwischen dem Messbild und dem zugehörigen Referenzbild eintritt.The denoised training reference images serve as ground truth for the training measurement images. In order to determine the pairs between training reference images and training measurement images that are used to determine the value of the loss function based on a corresponding comparison, the distance between the training reference images and training measurement images in time and/or space can be taken into account. For example, a training reference image could serve as the ground truth for a training measurement image if the training reference image and the training measurement image depict the same area of the sample and were acquired closely in time. A short time interval can denote such a time interval that is so short that the biological change process cannot occur or can only occur with a sufficiently low probability. For example, it may be desirable that a time interval between capturing a training measurement image and capturing a reference image is no greater than 1 second, optionally no greater than 500 ms, further optionally no greater than 10 ms. This is based on the knowledge that such time scales are short enough so that there is no significant change in the sample between the measurement image and the associated reference image.

Manchmal kann es möglich sein, dass das Trainings-Referenzbild und das Trainings-Messbild inhärent substantiell denselben Bereich der Probe mit derselben Pose abbilden. Dies kann der Fall sein, wenn dieselbe Bildgebungsoptik verwendet wird - das wäre zum Beispiel im Beispiel der 1 der Fall, wenn sowohl für das Erfassen der Trainings-Referenzbilder, wie auch für das Erfassen der Trainings-Messbilder ein bestimmtes Objektiv der Bildgebungsvorrichtung 111 verwendet wird. Wenn unterschiedliche Bildgebungsoptiken verwendet werden, kann es erforderlich sein, die Paare von Trainings-Referenzbildern und Trainings-Messbildern jeweils aufeinander zu registrieren, das heißt eine Zuordnung von korrespondierenden Probenorten in den Bildern zu treffen.Sometimes it may be possible that the training reference image and the training measurement image inherently image substantially the same area of the sample with the same pose. This can be the case if the same imaging optics are used - that would be the example of the 1 This is the case when a specific lens of the imaging device 111 is used both for capturing the training reference images and for capturing the training measurement images. If different imaging optics are used, it may be necessary to register the pairs of training reference images and training measurement images with one another, ie to match corresponding sample locations in the images.

Dabei ist es aber nicht in allen Beispielen notwendig, dass inhärent derselbe Bereich der Probe abgebildet wird oder eine Registrierung zwischen den Trainings-Messbildern und den Trainings-Referenzbildern durchgeführt wird, um korrespondierende Probenorte zu identifizieren. In manchen Beispielen wäre es möglich, dass durch die geeignete Wahl einer entsprechenden Verlustfunktion, die beim Training berücksichtigt wird, grundsätzliche morphologische Eigenschaften des Kontrasts in den basierend auf den Trainings-Messbildern rekonstruierten synthetischen Fluoreszenzbildern und den Trainings-Referenzbildern miteinander verglichen werden, unabhängig von den konkreten mikroskopischen Strukturen, die abgebildet werden. Insbesondere kann dies bei einer Verlustfunktion der Fall sein, die einen Verlustbeitrag ohne Pixel-basierten Vergleich zwischen den synthetischen Fluoreszenzbildern und den Trainings-Referenzbildern verwendet.However, it is not necessary in all examples that the same area of the sample is inherently imaged or that the training measurement images and the training reference images are registered in order to identify corresponding sample locations. In some examples, it would be possible that, through the appropriate choice of a corresponding loss function, which is taken into account during training, basic morphological properties of the contrast in the synthetic fluorescence images reconstructed based on the training measurement images and the training reference images are compared with one another, independently of the concrete microscopic structures that are imaged. In particular, this can be the case for a loss function that uses a loss contribution with no pixel-based comparison between the synthetic fluorescence images and the training reference images.

Nicht-registrierte Bilder können z.B. durch Verwendung von zyklischen Generative Adverserial Netzwerken miteinander verglichen werden. Dort wird ein nicht Pixelbezogener Adverserial Verlustbeitrag bzw. Cycle Verlust in der Verlustfunktion beim Training berücksichtigt.Unregistered images can be compared using cyclic generative adverserial networks, for example. There, a non-pixel-related adverserial loss contribution or cycle loss is taken into account in the loss function during training.

Als weiteres Beispiel für einen nicht Pixel-basierten Verlustbeitrag könnte z.B. ein semantischer Informationsgehalt der synthetischen Fluoreszenzbilder mit den Referenzbildern verglichen werden. Der semantische Informationsgehalt kann durch Auswertung der jeweiligen Bilder bestimmt werden. Der semantische Informationsgehalt kann z.B. eine biologische Eigenschaft der Probe beschreiben. Z.B. könnte der semantische Informationsgehalt ausgewählt sein aus folgender Gruppe: Anzahl oder Flächendichte bestimmter biologischer Strukturen; Durchschnittliche Größe oder Größenverteilung bestimmter biologischer Strukturen; Durchschnittlicher Abstand zwischen bestimmter biologischer Strukturen. Die biologischen Strukturen könnten z.B. Zellbestandteile sein, z.B. Zellkerne oder Mitochondrien. Z.B. könnten solche biologischen Eigenschaften mittels eines Objekterkennungsalgorithmus bestimmt werden. Dieser könnte z.B. wiederum durch ein KNN implementiert sein. Mittels des Trainings in Box 3045 können also Korrelationen zwischen den Trainings-Mess- und Trainings-Referenzbildern gelernt werden.As a further example of a non-pixel-based loss contribution, e.g. a semantic information content of the synthetic fluorescence images could be compared with the reference images. The semantic information content can be determined by evaluating the respective images. The semantic information content can, for example, describe a biological property of the sample. For example, the semantic information content could be selected from the following group: number or areal density of certain biological structures; Average size or size distribution of specific biological structures; Average distance between certain biological structures. The biological structures could be e.g. cell components, e.g. cell nuclei or mitochondria. For example, such biological properties could be determined using an object recognition algorithm. This could, for example, in turn be implemented by an ANN. The training in box 3045 can therefore be used to learn correlations between the training measurement images and the training reference images.

Dann werden in Box 3050 Messbilder erhalten (vgl. 2, Messbilder 201). Z.B. kann dazu eine Bildgebungsvorrichtung angesteuert werden, um die Messbilder zu erfassen. Grundsätzlich können die Messbilder für dieselbe Probe, für die auch die Trainings-Referenzbilder in Box 3025 und die Trainings-Messbilder in Box 3005 erfasst wurden, erfasst werden. Dies entspräche einem proben-spezifischen Training des Vorhersagealgorithmus in Box 3045. Es wäre aber auch denkbar, dass die Messbilder für eine weitere Probe erfasst werden.Then 3050 measurement images are obtained in box (cf. 2 , measurement images 201). For example, an imaging device can be controlled for this purpose in order to capture the measurement images. In principle, the measurement images can be acquired for the same sample for which the training reference images in box 3025 and the training measurement images in box 3005 were also acquired. This would correspond to sample-specific training of the prediction algorithm in box 3045. However, it would also be conceivable for the measurement images to be recorded for a further sample.

In Box 3055 erfolgt dann das Bestimmen von synthetischen Fluoreszenzbildern basierend auf den Messbildern aus Box 3050 und basierend auf dem Vorhersagealgorithmus, der zuvor in Box 3045 trainiert wird. Der Vorhersagealgorithmus erhält also als Eingabe jeweils eins der Messbilder aus Block 3015 und bestimmt ein zugeordnetes Fluoreszenzbild.In box 3055, synthetic fluorescence images are then determined based on the measurement images from box 3050 and based on the prediction algorithm, which is previously trained in box 3045. The prediction algorithm thus receives one of the measurement images from block 3015 as input and determines an associated fluorescence image.

Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen.Of course, the features of the embodiments and aspects of the invention described above can be combined with one another. In particular, the features can be used not only in the combinations described, but also in other combinations or taken on their own, without departing from the field of the invention.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • EP 3553165 A1 [0007]EP 3553165 A1 [0007]

Claims (14)

Computer-implementiertes Verfahren, das umfasst: - Ansteuern (3005) mindestens einer Bildgebungsvorrichtung (111, 112), um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder (251) einer Probe (199) zu erfassen, die ein oder mehrere Zellstrukturen abbildet, - Ansteuern (3025) der mindestens einen Bildgebungsvorrichtung (111, 112), um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder (252) der Probe (199) zu erfassen, - Anwenden (3035) eines Entrauschungsalgorithmus (209) auf die ein oder mehreren Trainings-Referenzbilder (252), um ein oder mehrere entrauschte Trainings-Referenzbilder (252) zu erhalten, und - Durchführen (3045) eines Trainings (6001) eines maschinengelernten Vorhersagealgorithmus (205) basierend auf den ein oder mehreren Trainings-Messbilder (251) als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbilder (252) als Grundwahrheit.Computer-implemented method that includes: - Controlling (3005) at least one imaging device (111, 112) in order to capture one or more training measurement images (251) of a sample (199) by means of microscopic imaging, which images one or more cell structures, - Controlling (3025) the at least one imaging device (111, 112) in order to capture one or more training reference images (252) of the sample (199) by means of microscopic fluorescence imaging, - applying (3035) a denoising algorithm (209) to the one or more training reference images (252) to obtain one or more denoised training reference images (252), and - Performing (3045) a training (6001) of a machine-learned prediction algorithm (205) based on the one or more training measurement images (251) as training input and based on the denoised one or more training reference images (252) as ground truth. Computer-implementiertes Verfahren nach Anspruch 1, wobei das Verfahren weiterhin umfasst: - nach dem Durchführen des Trainings: Anwenden (3055) des maschinengelernten Vorhersagealgorithmus (205) auf weitere Messbilder (201) der Probe oder einer weiteren Probe, die ein oder mehrere weitere Zellstrukturen abbildet, zum Erhalten von synthetischen Fluoreszenzbildern (202).Computer-implemented method claim 1 , wherein the method further comprises: - after performing the training: applying (3055) the machine-learned prediction algorithm (205) to further measurement images (201) of the sample or a further sample that maps one or more further cell structures, to obtain synthetic fluorescence images (202). Computer-implementiertes Verfahren nach Anspruch 1 oder 2, wobei die mindestens eine Bildgebungsvorrichtung (111, 112) angesteuert wird, um mehrere Trainings-Messbilder (251) und mehrere Trainings-Referenzbilder (252) verteilt über einen Beobachtungszeitraum zu erfassen, wobei eine Länge des Beobachtungszeitraums eine Länge eines Zellzyklus der Vielzahl von Zellen abdeckt.Computer-implemented method claim 1 or 2 , wherein the at least one imaging device (111, 112) is controlled in order to acquire a plurality of training measurement images (251) and a plurality of training reference images (252) distributed over an observation period, a length of the observation period being a length of a cell cycle of the plurality of cells covers. Computer-implementiertes Verfahren nach einem der voranstehenden Ansprüche, wobei der Entrauschungsalgorithmus (209) maschinengelernt ist.A computer-implemented method as claimed in any preceding claim, wherein the denoising algorithm (209) is machine learned. Computer-implementiertes Verfahren nach Anspruch 4, wobei der Entrauschungsalgorithmus (209) in einem selbst-überwachten Training (6002, 3010) maschinengelernt wird.Computer-implemented method claim 4 , wherein the denoising algorithm (209) is machine-learned in a self-supervised training (6002, 3010). Computer-implementiertes Verfahren nach Anspruch 5, wobei das selbst-überwachte Training (6002, 3010) Proben-spezifisch für die Probe (199) durchgeführt wird.Computer-implemented method claim 5 , wherein the self-supervised training (6002, 3010) is sample-specific for the sample (199). Computer-implementiertes Verfahren nach einem der Ansprüche 4 bis 6, wobei der Entrauschungsalgorithmus (209) ein probabilistisches Modell umfasst, wobei durch mehrfaches Abtasten (3040) einer latenten Merkmalsrepräsentation des probabilistischen Modells pro Trainings-Referenzbild (252) mehrere entrauschte Trainings-Referenzbilder (252) erhalten werden.Computer-implemented method according to one of Claims 4 until 6 , wherein the denoising algorithm (209) comprises a probabilistic model, a plurality of denoised training reference images (252) being obtained by multiple sampling (3040) of a latent feature representation of the probabilistic model per training reference image (252). Computer-implementiertes Verfahren nach Anspruch 4, wobei der Entrauschungsalgorithmus (209) basierend auf Paaren von ersten Entrauschungs-Trainings-Referenzbildern (281) und zweiten Entrauschungs-Trainings-Referenzbildern (282) trainiert wird, wobei die ersten Entrauschungs-Trainings-Referenzbilder (281) mittels der mikroskopischen Fluoreszenzbildgebung und niedrigem Signal-zu-Rausch-Verhältnis erfasst werden, wobei die zweiten Entrauschungs-Trainings-Referenzbilder (292) mittels der mikroskopischen Fluoreszenzbildgebung und hohem Signal-zu-Rausch-Verhältnis erfasst werden.Computer-implemented method claim 4 , wherein the denoising algorithm (209) is trained based on pairs of first denoising training reference images (281) and second denoising training reference images (282), the first denoising training reference images (281) being generated by means of the microscopic fluorescence imaging and low Signal-to-noise ratio are detected, wherein the second denoising training reference images (292) are captured using the microscopic fluorescence imaging and high signal-to-noise ratio. Computer-implementiertes Verfahren nach einem der Ansprüche 4 bis 8, wobei ein erster Eingabekanal der Eingabe des Entrauschungsalgorithmus (209) die ein oder mehreren Trainings-Referenzbilder (252) umfasst, wobei ein zweiter Eingabekanal der Eingabe des Entrauschungsalgorithmus (209) die ein oder mehreren Trainings-Messbilder (251) umfasst.Computer-implemented method according to one of Claims 4 until 8th , wherein a first input channel of the input of the denoising algorithm (209) comprises the one or more training reference images (252), wherein a second input channel of the input of the denoising algorithm (209) comprises the one or more training measurement images (251). Computer-implementiertes Verfahren nach einem der Ansprüche 1 bis 3, wobei der Entrauschungsalgorithmus (209) basierend auf Heuristiken parametrisiert ist.Computer-implemented method according to one of Claims 1 until 3 , where the denoising algorithm (209) is parameterized based on heuristics. Computer-implementiertes Verfahren nach einem der voranstehenden Ansprüche, wobei die mikroskopische Bildgebung, mit der die ein oder mehreren Trainings-Messbilder (251) erfasst werden, eine weitere mikroskopische Fluoreszenzbildgebung ist, die verschieden von der mikroskopischen Fluoreszenzbildgebung ist, mit der die ein oder mehreren Trainings-Referenzbilder (252) erfasst werden, wobei das Verfahren weiterhin umfasst: - Anwenden (3015) des Entrauschungsalgorithmus (209) oder eines weiteren Entrauschungsalgorithmus (209) auf die ein oder mehreren Trainings-Messbilder (251), um ein oder mehrere entrauschte Trainings-Messbilder (251) zu erhalten.Computer-implemented method according to one of the preceding claims, wherein the microscopic imaging with which the one or more training measurement images (251) are captured is a further microscopic fluorescence imaging that is different from the microscopic fluorescence imaging with which the one or more training reference images (252) are captured, the method further comprising: - Applying (3015) the denoising algorithm (209) or a further denoising algorithm (209) to the one or more training measurement images (251) in order to obtain one or more denoised training measurement images (251). Computer-implementiertes Verfahren nach Anspruch 11, wobei der Entrauschungsalgorithmus (209) oder der weitere Entrauschungsalgorithmus (209) ein probabilistisches Modell umfasst, wobei durch mehrfaches Abtasten (3020) einer latenten Merkmalsrepräsentation des probabilistischen Modells pro Trainings-Messbild (251) mehrere entrauschte Trainings-Messbilder (251) erhalten werden.Computer-implemented method claim 11 , wherein the denoising algorithm (209) or the further denoising algorithm (209) a proba includes a bilistic model, multiple sampling (3020) of a latent feature representation of the probabilistic model per training measurement image (251) resulting in a plurality of noise-free training measurement images (251) being obtained. Vorrichtung mit einem Prozessor, der eingerichtet ist, um folgende Schritte auszuführen: - Ansteuern mindestens einer Bildgebungsvorrichtung (111, 112), um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder (251) einer Probe zu erfassen, die ein oder mehrere Zellstrukturen abbildet, - Ansteuern der mindestens einen Bildgebungsvorrichtung (111, 112), um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder (252) einer Probe zu erfassen, - Anwenden eines Entrauschungsalgorithmus (209) auf die ein oder mehreren Trainings-Referenzbilder (252), um ein oder mehrere entrauschte Trainings-Referenzbilder (252) zu erhalten, und - Durchführen eines Trainings eines maschinengelernten Vorhersagealgorithmus (205) basierend auf den ein oder mehreren Trainings-Messbilder (251) als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbilder (252) als Grundwahrheit.Device with a processor configured to perform the following steps: - Controlling at least one imaging device (111, 112) in order to use microscopic imaging to capture one or more training measurement images (251) of a sample that depicts one or more cell structures, - Controlling the at least one imaging device (111, 112) in order to capture one or more training reference images (252) of a sample by means of microscopic fluorescence imaging, - applying a denoising algorithm (209) to the one or more training reference images (252) to obtain one or more denoised training reference images (252), and - performing a training of a machine-learned prediction algorithm (205) based on the one or more training measurement images (251) as training input and based on the denoised one or more training reference images (252) as ground truth. Vorrichtung nach Anspruch 13, wobei der Prozessor eingerichtet ist, um das Verfahren nach einem der Ansprüche 1 bis 12 auszuführen.device after Claim 13 , wherein the processor is set up to carry out the method according to one of Claims 1 until 12 to execute.
DE102021122720.8A 2021-09-02 2021-09-02 SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES Pending DE102021122720A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021122720.8A DE102021122720A1 (en) 2021-09-02 2021-09-02 SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021122720.8A DE102021122720A1 (en) 2021-09-02 2021-09-02 SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES

Publications (1)

Publication Number Publication Date
DE102021122720A1 true DE102021122720A1 (en) 2023-03-02

Family

ID=85174941

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021122720.8A Pending DE102021122720A1 (en) 2021-09-02 2021-09-02 SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES

Country Status (1)

Country Link
DE (1) DE102021122720A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018104616A1 (en) 2018-02-28 2019-08-29 Carl Zeiss Microscopy Gmbh A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data
EP3553165A1 (en) 2016-12-06 2019-10-16 Fujifilm Corporation Cell image evaluation device and cell image evaluation control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3553165A1 (en) 2016-12-06 2019-10-16 Fujifilm Corporation Cell image evaluation device and cell image evaluation control program
DE102018104616A1 (en) 2018-02-28 2019-08-29 Carl Zeiss Microscopy Gmbh A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BROADDUS, Coleman; KRULL, Alexander; WEIGERT, Martin; SCHMIDT, Uwe; MYERS, Gene: Removing structured noise with self-supervised blind-spot networks. In: IEEE Int. Symp.Biomedical Imaging (ISBI), April 2020, Iowa City, IA, USA, 2020, pp.159-163. URL: doi.org/10.1109/ISBI45749.2020.9098336
CHRISTIANSEN, Eric M.; YANG, Samuel J.; ANDO, Michael; JAVAHERIAN, Ashkan; SKIBINSKI, Gaia; LIPNICK, Scott; MOUNT, Elliot; O’NEIL, Alison; SHAH, Kevan; LEE, Alicia K.; GOYAL, Piyush; FEDUS, William; POPLIN, Ryan; ESTEVA, Andre; BERNDL, Marc; RUBIN, Lee L; NELSON, Philip; FINKBEINER, Steven: In Silico labeling: Predicting fluorescent labels in unlabeled images. In: Cell, vol.173, 2018, no.3, S.792-803. URL: doi.org/10.1016/j.cell.2018.03.040
KRULL, Alexander; BUCHHOLZ, Tim-Oliver; JUG, Florian: Noise2Void - Learning denoising from single noisy images. In: IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 15.-20. Juni 2019, Long Beach, CA, USA, pp.2124-2132. URL: doi.org/10.1109/CVPR.2019.00223
KRULL, Alexander; VICAR, Tomas; PRAKASH, Mangal; LALIT, Manan; JUG, Florian Jug: Probabilistic noise2void: Unsupervised content-aware denoising. In: Frontiers in Computer Science, vol.2, 2020, no.5, pp.1-9. URL: doi.org/10.3389/fcomp.2020.00005
Noise reduction. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 08.06.2021. URL: https://en.wikipedia.org/w/index.php?title=Noise_reduction&oldid=1027590235 [abgerufen am 23.08.2022]
PRAKASH, Mangal; DELBRACIO, Mauricio; MILANFAR, Peyman: Removing pixel noises and spatial artifacts with generative diversity denoising methods. Ver.1, 03.04.2021. URL: https://arxiv.org/abs/2104.01374v1
PRAKASH, Mangal; KRULL, Alexander; JUG, Florian: DivNoising: Diversity denoising with fully convolutional variational autoencoders. ICLR 2021. Ver.1, 10.06.2020. URL: https://arxiv.org/abs/2006.06072v1

Similar Documents

Publication Publication Date Title
EP2660639B1 (en) Method and apparatus for single-particle localization using wavelet analysis
Coupé et al. A CANDLE for a deeper in vivo insight
US8639043B2 (en) Classifying image features
Güraksin et al. Underwater image enhancement based on contrast adjustment via differential evolution algorithm
DE102009005953A1 (en) Method and system for characterizing a sample by means of imaging fluorescence microscopy
DE102018104616A1 (en) A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data
DE112019005143T5 (en) SYSTEM FOR CO-REGISTRATION OF MEDICAL IMAGES USING A CLASSIFICATOR
DE102021100444A1 (en) MICROSCOPY SYSTEM AND METHOD FOR EVALUATION OF IMAGE PROCESSING RESULTS
EP4229397A1 (en) Method and fluorescence microscope for determining the location of individual fluorescent dye molecules by means of adaptive scanning
DE102020105697B3 (en) Computer-implemented method for finding possible artifacts in a virtually colored histological image
DE102021122720A1 (en) SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES
EP3430565A1 (en) Method for examining distributed objects by segmenting an overview image
CN115293981A (en) Denoising and super-resolution reconstruction method and system for structured light illumination fluorescence microscopic image
DE102021114307A1 (en) DIGITAL CONTRAST POST-PROCESSING OF MICROSCOPY IMAGES
DE102021114288A1 (en) SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SPECIFIC REFERENCE
Rebollo et al. Automated macro approach to quantify synapse density in 2D confocal images from fixed immunolabeled neural tissue sections
EP4016081A1 (en) Method and device for detecting a presence of a fluorescence pattern type on an organ segment by means of immunofluorescence microscopy
Mannam Overcoming fundamental limits of three-dimensional in vivo fluorescence imaging using machine learning
Zang et al. Fast fluorescence lifetime imaging analysis via extreme learning machine
DE10065783B4 (en) Method, arrangement and system for determining process variables
CN113191981B (en) Deep two-photon calcium imaging method and device based on non-negative matrix decomposition
US20230316595A1 (en) Microscopy Virtual Staining Systems and Methods
WO2022253574A1 (en) Method and device for recording training data
DE102022114888A1 (en) Method for evaluating a consistency of a virtual processing image, method for training a machine learning system with a processing model, machine learning system, computer program product, and image processing system
DE102005062673A1 (en) Fluorochrome movement parameter determining method for computer based evaluation unit, involves calculating rate of deviation between simulated measurement series and associated series, and determining parameter from standard deviation

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R163 Identified publications notified