DE102021122720A1 - SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES - Google Patents
SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES Download PDFInfo
- Publication number
- DE102021122720A1 DE102021122720A1 DE102021122720.8A DE102021122720A DE102021122720A1 DE 102021122720 A1 DE102021122720 A1 DE 102021122720A1 DE 102021122720 A DE102021122720 A DE 102021122720A DE 102021122720 A1 DE102021122720 A1 DE 102021122720A1
- Authority
- DE
- Germany
- Prior art keywords
- training
- images
- reference images
- sample
- denoising
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
Es werden Techniken offenbart, um einen maschinengelernten Vorhersagealgorithmus (205) zu trainieren (6001), der synthetische Fluoreszenzbilder (202) basierend auf Messbildern (201), die mit einem Mikroskop erfasst werden, zu bestimmen. Techniques are disclosed for training (6001) a machine-learned prediction algorithm (205) that determines synthetic fluorescence images (202) based on measurement images (201) acquired with a microscope.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Verschiedene Beispiele der Offenbarung betreffen allgemein Techniken zur digitalen Nachbearbeitung von Messbildern, die mit einer mikroskopischen Bildgebungsmodalität erfasst werden. Insbesondere können synthetische Fluoreszenzbilder bestimmt werden.Various examples of the disclosure relate generally to techniques for digitally post-processing measurement images acquired with a microscopic imaging modality. In particular, synthetic fluorescence images can be determined.
HINTERGRUNDBACKGROUND
Die Fluoreszenzbildgebung wird in verschiedenen Bereichen der „grünen Wissenschaften“ (engl. Life Sciences) verwendet. Mittels Fluoreszenzbildgebung ist es möglich, Bereiche und Strukturen in biologischen Proben mit großer Sensitivität und Spezifität zu erkennen. Dabei wird die Spezifität durch Marker erreicht, die ausgebildet sind, um spezifisch an bestimmte Moleküle oder Zellstrukturen zu binden. Die Spezifität kann auch durch Marker erreicht werden, die nur in bestimmten chemischen Umgebungen aktiviert werden. Die Spezifität kann auch durch Marker erreicht werden, die in der Zelle selbst produziert werden. Dies kann zum Beispiel Autofluoreszenz betreffen oder Marker nach einem geeigneten genetischen Manipulationsschritt. Die Sensitivität wird durch die Fluoreszenz der Marker bei bestimmten Wellenlängen erreicht. Dadurch kann das Signal im Spektralbereich gefiltert werden.Fluorescence imaging is used in various areas of "green science" (life sciences). Using fluorescence imaging, it is possible to identify areas and structures in biological samples with great sensitivity and specificity. The specificity is achieved by markers that are designed to bind specifically to certain molecules or cell structures. Specificity can also be achieved by markers that are only activated in specific chemical environments. Specificity can also be achieved by markers produced within the cell itself. This can concern, for example, autofluorescence or markers after a suitable genetic manipulation step. The sensitivity is achieved through the fluorescence of the markers at specific wavelengths. This allows the signal to be filtered in the spectral range.
Typischerweise umfasst ein Marker Fluorophore oder besteht aus einem Fluorophor. Ein Fluorophor ist ein Molekül, dessen Elektronenhülle mittels Licht bei einer bestimmten Wellenlänge angeregt werden kann und dann Licht bei einer längeren Wellenlänge emittiert. Die Verwendung von Fluorophoren ermöglicht es, die Anregung und Lichtemission im Spektrum zu separieren. Dadurch kann ein Signal gemessen werden, welches nur einen geringen Anteil von Hintergrundlicht beinhaltet. Dadurch kann ein großes Signal-zu-Rausch-Verhältnis (SNR) erzielt werden.Typically, a label includes fluorophores or consists of a fluorophore. A fluorophore is a molecule whose electron shell can be excited by light at a specific wavelength and then emits light at a longer wavelength. The use of fluorophores makes it possible to separate excitation and light emission in the spectrum. This allows a signal to be measured that contains only a small proportion of background light. This allows a high signal-to-noise ratio (SNR) to be achieved.
Diese beiden Vorteile der Fluoreszenzbildgebung - das heißt Spezifität und Sensitivität - ermöglichen es, Zellstrukturen eines bestimmten Typs in einem entsprechenden Ensemble zu identifizieren, zum Beispiel den Zellkern oder Organelle. Eine weitere Anwendung betrifft zum Beispiel die Erkennung eines Tumors.These two advantages of fluorescence imaging - i.e. specificity and sensitivity - make it possible to identify cell structures of a certain type in a corresponding ensemble, for example the cell nucleus or organelle. Another application concerns, for example, the detection of a tumor.
Bei der Verwendung einer mikroskopischen Fluoreszenzbildgebung können Nachteile auftreten. Zum Beispiel tritt ein sog. Fotobleichen aufgrund der Exposition mit Licht zur Anregung der Fluoreszenz auf. Ein Fluorophor verliert dabei die Fähigkeit zur Fluoreszenz. Die Verwendung von Licht zur Anregung der Fluoreszenz kann auch eine Foto-Toxizität bewirken. Das bedeutet, dass die Zellstrukturen einer entsprechenden Probe geschädigt werden können. Dadurch kann das Experiment verfälscht werden.Disadvantages can arise when using microscopic fluorescence imaging. For example, photobleaching occurs due to exposure to light to excite fluorescence. A fluorophore loses the ability to fluoresce. The use of light to excite fluorescence can also cause phototoxicity. This means that the cell structures of a corresponding sample can be damaged. This can falsify the experiment.
Außerdem ist es bekannt, dass durch die Verwendung eines Markers bereits chemische und/oder physiologische Effekte auftreten, ohne dass eine Belichtung stattfinden müsste. Die Probe kann also durch die Anwesenheit der Marker degradieren.In addition, it is known that chemical and/or physiological effects occur as a result of the use of a marker without exposure having to take place. The sample can therefore degrade due to the presence of the markers.
Es sind folgende Publikationen bekannt:
KURZE ZUSAMMENFASSUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION
Deshalb besteht ein Bedarf für verbesserte Techniken, um Fluoreszenzbilder zu erhalten. Insbesondere besteht ein Bedarf für Techniken, die zumindest einige der oben genannten Nachteile beheben.Therefore, there is a need for improved techniques to obtain fluorescence images. In particular, there is a need for techniques that overcome at least some of the disadvantages noted above.
Diese Aufgabe wird gelöst von den Merkmalen der unabhängigen Patentansprüche. Die Merkmale der abhängigen Patentansprüche definieren Ausführungsformen.This object is solved by the features of the independent patent claims. The features of the dependent claims define embodiments.
Einige hierin beschriebene Beispiele beruhen allgemein auf der Erkenntnis, dass die klassische hardware-basierte Fluoreszenzbildgebung durch die Verwendung von Licht zur Anregung der Fluoreszenz einen großen Einfluss auf das Verhalten der untersuchten Proben, insbesondere auf das Verhalten von Zellen haben kann. Andererseits beruhen die hierin beschriebenen Verfahren auf der Erkenntnis, dass andere Bildgebungsmodalitäten weniger invasiv sind, weil eine geringere Lichtexposition der Probe notwendig ist, um entsprechende Bilddaten zu erfassen. Die hierin beschriebenen Beispiele beruhen ferner auf der Kenntnis, dass auch bei solchen weniger invasiven Bildgebungsmodalitäten eine Korrelation zwischen dem Kontrast ansprechender Messbilder und einem Kontrast, der für entsprechende Fluoreszenzbilder erwartet werden würde, vorliegt. Deshalb ist es möglich, mittels einer wenig invasiven Bildgebungsmodalitäten - zum Beispiel herkömmlicher Durchlicht-Mikroskopie im Hellfeld - Messbilder zu erfassen, ohne die Integrität der Probe zu kompromittieren. Insbesondere können auch sehr viele Messbilder, zum Beispiel mit einer hohen Zeitauflösung, erfasst werden.Some examples described herein are generally based on the realization that classical hardware-based fluorescence imaging, by using light to excite fluorescence, can have a major impact on the behavior of the samples being examined, in particular on the behavior of cells. On the other hand, the methods described herein are based on the recognition that other imaging modalities are less invasive because less light exposure of the sample is required to acquire corresponding image data. The examples described herein are further based on the knowledge that even with such less invasive imaging modalities there is a correlation between the contrast of pleasing measurement images and a contrast that would be expected for corresponding fluorescence images. It is therefore possible to acquire measurement images by means of a less invasive imaging modality - for example conventional brightfield transmitted light microscopy - without compromising the integrity of the sample. In particular, a large number of measurement images, for example with a high time resolution, can also be recorded.
Verschiedene hierin beschriebene Beispiele beruhen auf der Verwendung eines maschinengelernten (ML) Vorhersagealgorithmus, um synthetische Fluoreszenzbilder zu bestimmen. Verschiedene Beispiele der Erfindung betreffen insbesondere das Training von Parametern des ML Vorhersagealgorithmus. Verschiedene Beispiele beruhen auf der Erkenntnis, dass zum Training des ML Vorhersagealgorithmus jeweils Paare von Trainings-Messbildern und Trainings-Referenzbildern verwendet werden können, wobei die Trainings-Referenzbilder mittels mikroskopischer Fluoreszenzbildgebung erfasst werden. Dadurch können die Trainings-Referenzbilder als Vorwissen bzw. Grundwahrheit (engl. „ground truth“) beim Training verwendet werden und die Trainings-Messbilder können als Trainingseingabe verwendet werden. Es kann dann überprüft werden, inwiefern eine Abweichung zwischen der Vorhersage des ML Vorhersagealgorithmus und der Grundwahrheit vorliegt und basierend darauf können die Parameter des ML Vorhersagealgorithmus angepasst werden.Various examples described herein rely on the use of a machine-learned (ML) prediction algorithm to determine synthetic fluorescence images. Various examples of the invention relate in particular to the training of parameters of the ML prediction algorithm mus. Various examples are based on the knowledge that pairs of training measurement images and training reference images can be used to train the ML prediction algorithm, with the training reference images being acquired by means of microscopic fluorescence imaging. As a result, the training reference images can be used as prior knowledge or ground truth during training, and the training measurement images can be used as training input. It can then be checked to what extent there is a deviation between the prediction of the ML prediction algorithm and the basic truth, and based on this the parameters of the ML prediction algorithm can be adjusted.
Verschiedene Beispiele beruhen ferner auf der weiteren Erkenntnis, dass insbesondere auch das Erfassen der Trainings-Referenzbilder eine Belastung einer Probe bedeuten kann. Dies kann mehrere Auswirkungen haben. Erstens: es kann oftmals erstrebenswert sein, Trainings-Referenzbilder während eines ausgedehnten Beobachtungszeitraums zu erfassen, der beispielsweise die Länge eines Zellzyklus einer Vielzahl von Zellen der Probe abdeckt. Derart soll nämlich erreicht werden, dass der ML Vorhersagealgorithmus präzise Vorhersagen für unterschiedliche Zellstadien bereitstellt. Wird aber andererseits durch die mikroskopische Fluoreszenzbildgebung, die zum Erfassen der Trainings-Referenzbilder verwendet wird, die Probe geschädigt, so kann es vorkommen, dass durch das Erfassen der Trainings-Referenzbilder die Probe selbst verändert wird. Dann kann der ML Vorhersagealgorithmus keine akkurate Vorhersage mehr bereitstellen. Solche Effekte treten insbesondere auch auf, wenn die Trainings-Messbilder und die Trainings-Referenzbilder in einem Referenzexperiment erfasst werden. Zweitens: Manchmal kann es auch vorkommen, dass die Trainings-Referenzbilder für eine Probe erfasst werden sollen, die gleichzeitig in einem Experiment vermessen werden sollen (Proben-spezifisches Training). Das bedeutet, dass zusätzlich zu den Trainings-Messbildern und den Trainings-Referenzbildern auch Messbilder an der Probe erfasst werden und der ML Vorhersagealgorithmus - nach dem Durchführen des Trainings - dann auf die Messbilder angewendet wird, um derart synthetische Fluoreszenzbilder für die Probe vorherzusagen. Diese synthetischen Fluoreszenzbilder weisen dann einen synthetischen Fluoreszenzkontrast auf, der dem Fluoreszenzkontrast entspricht, mit dem die Trainings-Referenzbilder erfasst wurden, mit denen der ML Vorhersagealgorithmus trainiert wurde. In einem solchen Proben-spezifischen Training kann eine hohe Lichtexposition zum Erfassen der Trainings-Referenzbilder die Foto-Toxizität und/oder Foto-Bleichen bewirken und damit das Experiment verfälschen. Die Probe kann geschädigt werden.Various examples are also based on the further finding that, in particular, the acquisition of the training reference images can mean that a sample is subjected to stress. This can have several implications. First, it may often be desirable to acquire training reference images over an extended observation period, covering, for example, the length of a cell cycle of a variety of cells in the sample. This is to ensure that the ML prediction algorithm provides precise predictions for different cell stages. On the other hand, if the sample is damaged by the microscopic fluorescence imaging that is used to capture the training reference images, it can happen that the sample itself is changed by capturing the training reference images. Then the ML prediction algorithm can no longer provide an accurate prediction. Such effects also occur in particular when the training measurement images and the training reference images are recorded in a reference experiment. Second: Sometimes it can also happen that the training reference images are to be acquired for a sample that is to be measured in an experiment at the same time (sample-specific training). This means that in addition to the training measurement images and the training reference images, measurement images are also acquired on the sample and the ML prediction algorithm - after performing the training - is then applied to the measurement images in order to predict such synthetic fluorescence images for the sample. These synthetic fluorescence images then have a synthetic fluorescence contrast that corresponds to the fluorescence contrast with which the training reference images with which the ML prediction algorithm was trained were acquired. In such sample-specific training, high light exposure for capturing the training reference images can cause photo-toxicity and/or photo-bleaching, thus falsifying the experiment. The sample can be damaged.
In einfachen Referenzszenarien könnte die Lichtexposition pro Trainings-Referenzbild reduziert werden. Eine solche Reduktion der Lichtexposition pro Trainings-Referenzbild führt zu einem reduzierten Signal-zu-Rausch-Verhältnis für die Trainings-Referenzbilder. Es wurde beobachtet, dass ein solches reduziertes Signal-zu-Rausch-Verhältnis die Qualität des Trainings der Parameter des ML Vorhersagealgorithmus reduzieren kann. Ein solches reduziertes Signal-zu-Rausch-Verhältnis wird typischerweise beobachtet, weil das Photon-Rauschen, Dunkel-Rauschen und Auslese-Rauschen nicht so stark abnimmt - bei reduzierter Lichtintensität - wie das eigentliche Signal.In simple reference scenarios, the light exposure per training reference image could be reduced. Such a reduction in light exposure per training reference image results in a reduced signal-to-noise ratio for the training reference images. It was observed that such a reduced signal-to-noise ratio can reduce the quality of the training of the parameters of the ML prediction algorithm. Such a reduced signal-to-noise ratio is typically observed because the photon noise, dark noise and readout noise do not decrease as much - with reduced light intensity - as the actual signal.
Aus allen diesen oben genannten Gründen kann es mittels der hierin beschriebenen Techniken möglich sein, die Foto-Toxizität und/oder das Foto-Bleichen beim Erfassen von Trainings-Referenzbildern mittels mikroskopischer Fluoreszenzbildgebung zu reduzieren.For all of the above reasons, it may be possible to reduce photo-toxicity and/or photo-bleaching when acquiring training reference images using fluorescence microscopic imaging using the techniques described herein.
Ein Computer-implementiertes Verfahren umfasst das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet ein oder mehrere Zellstrukturen ab, d.h. z.B. eine Vielzahl von Zellen. Außerdem umfasst das Verfahren das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Ferner umfasst das Verfahren das Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Das computerimplementierte Verfahren umfasst außerdem noch das Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A computer-implemented method includes driving at least one imaging device to acquire one or more training measurement images in a sample using microscopic imaging. The sample depicts one or more cell structures, i.e. e.g. a large number of cells. The method also includes driving at least one imaging device to capture one or more training reference images of a sample using microscopic fluorescence imaging. The method further includes applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. The computer-implemented method also includes performing a training of parameters of an ML prediction algorithm. The training is performed based on the one or more training measurement images as training input and based on the denoised one or more training reference images as ground truth.
Zellstrukturen können z.B. ganze Zellen oder Zellbestandteile beinhalten, also z.B. Zellkern, Nukleoli, usw.Cell structures can contain e.g. entire cells or cell components, e.g. cell nucleus, nucleoli, etc.
Durch solche Techniken kann es möglich sein, hochqualitative entrauschte Trainings-Referenzbilder zu erhalten, welche ein genaues Training der Parameter des ML Vorhersagealgorithmus ermöglichen. Auf der anderen Seite kann es möglich sein, die Lichtexposition der Probe, die mit dem Erfassen der ein oder mehreren Trainings-Referenzbilder assoziiert ist, zu reduzieren. Beispielsweise kann eine Zeitdauer der Belichtung zum Anregen der Fluoreszenz reduziert werden. Alternativ oder zusätzlich kann auch der Lichtfluss des Anregungslichts reduziert werden. Das bedeutet, dass die Lichtexposition pro Trainings-Referenzbild reduziert werden kann. Dies kann es ermöglichen, insgesamt die akkumulierte Lichtexposition zu reduzieren. Alternativ oder zusätzlich könnte auch eine größere Anzahl von Trainings-Referenzbildern der Probe pro „Lichtbudget“ erfasst werden - im Vergleich zu Referenzszenarien, bei denen keine Entrauschung stattfindet. Dadurch kann wiederum der Trainingsdatensatz erweitert werden, was ein genaueres Training ermöglicht.Through such techniques, it may be possible to obtain high-quality denoised training reference images, which allow accurate training of the parameters of the ML prediction algorithm. On the other hand, it may be possible to reduce the light exposure of the sample associated with detecting the one or more training reference images is associated to reduce. For example, a duration of exposure to excitation of fluorescence can be reduced. Alternatively or additionally, the luminous flux of the excitation light can also be reduced. This means that the light exposure per training reference image can be reduced. This may make it possible to reduce the overall accumulated light exposure. Alternatively or additionally, a larger number of training reference images of the sample could be recorded per "light budget" - in comparison to reference scenarios in which no denoising takes place. This in turn allows the training data set to be expanded, allowing for more accurate training.
Die Trainings-Messbilder und die Trainings-Referenzbilder können miteinander registriert sein oder können miteinander registriert werden.The training measurement images and the training reference images can be registered with each other or can be registered with each other.
Paare von Trainings-Messbildern und Trainings-Referenzbildern können in einem kurzen zeitlichen Abstand zueinander erfasst werden. Der kurze zeitliche Abstand kann insbesondere so kurz sein, dass keine wesentlichen Veränderungen auf zellulärer Ebene der Probe zu erwarten sind. Derart kann die Registrierung einfach durchgeführt werden.Pairs of training measurement images and training reference images can be captured at a short time interval from one another. In particular, the short time interval can be so short that no significant changes are to be expected at the cellular level of the sample. In this way, registration can be performed easily.
Paare von Trainings-Messbildern und Trainings-Referenzbildern, die zusammen für das Durchführen des Trainings von Parametern des ML Vorhersagealgorithmus verwendet werden, können miteinander registriert sein. Dies kann möglich sein, weil zum Beispiel dieselbe Optik für das Erfassen der Trainings-Messbilder und für das Erfassen der Trainings-Referenzbilder verwendet wird. Es wäre auch möglich, eine digitale Registrierung beider Bilder aufeinander vorzunehmen.Pairs of training measurement images and training reference images that are used together for performing the training of parameters of the ML prediction algorithm can be registered with each other. This can be possible because, for example, the same optics are used for capturing the training measurement images and for capturing the training reference images. It would also be possible to carry out a digital registration of both images on one another.
Die hierin beschriebenen Techniken können für ein Proben-spezifisches Training des ML Vorhersagealgorithmus eingesetzt werden - oder aber auch für das Proben-unspezifische Training des ML Vorhersagealgorithmus, wobei Referenz-Trainingsbilder an einer gesonderten Referenzprobe (d.h. getrennt vom eigentlichen Experiment) erfasst werden.The techniques described herein can be used for sample-specific training of the ML prediction algorithm - or for sample-unspecific training of the ML prediction algorithm, where reference training images are acquired on a separate reference sample (i.e. separate from the actual experiment).
Zum Beispiel wäre es denkbar, dass das Computer-implementierte Verfahren ferner umfasst: nach dem Durchführen des Trainings: Anwenden des ML Vorhersagealgorithmus auf weitere Messbilder der Probe oder einer weiteren Probe, die ein oder mehrere weitere Zellstrukturen abbildet, zum Erhalten von synthetischen Fluoreszenzbildern.For example, it would be conceivable that the computer-implemented method further comprises: after performing the training: applying the ML prediction algorithm to further measurement images of the sample or a further sample imaging one or more further cell structures to obtain synthetic fluorescence images.
Diese synthetischen Fluoreszenzbilder können einen Fluoreszenzkontrast aufweisen, der dem Fluoreszenzkontrast der ein oder mehreren Trainings-Referenzbilder entspricht.These synthetic fluorescence images can have a fluorescence contrast that corresponds to the fluorescence contrast of the one or more training reference images.
Es wäre grundsätzlich denkbar, dass mindestens eine Bildgebungsvorrichtung angesteuert wird, um mehrere Trainings-Messbilder und mehrere Trainings-Referenzbilder verteilt über einen Beobachtungszeitraum zu erfassen.In principle, it would be conceivable for at least one imaging device to be controlled in order to capture a number of training measurement images and a number of training reference images distributed over an observation period.
Der Beobachtungszeitraum kann dabei z.B. eine Länge von mindestens Minuten oder Stunden bis hin zu Tagen haben.The observation period can, for example, have a length of at least minutes or hours up to days.
Der Beobachtungszeitraum kann eine Länge aufweisen, die in derselben Größenordnung liegt, wie die Länge eines Zellzyklus.The observation period can have a length which is of the same order of magnitude as the length of a cell cycle.
Der Zellzyklus hat dabei keine genau fest definierte Länge. Vielmehr weist die Dauer des Zellzyklus für ein Ensemble von Zellen eine Streuung auf. Allgemein formuliert, kann der Beobachtungszeitraum die Länge des Zellzyklus abdecken, das heißt so lange sein, dass zumindest signifikante Anteile des Zellzyklus abgebildet werden.The cell cycle does not have a precisely defined length. Rather, the duration of the cell cycle for an ensemble of cells shows a spread. In general terms, the observation period can cover the length of the cell cycle, ie it can be long enough for at least significant parts of the cell cycle to be imaged.
Der Beobachtungszeitraum kann beispielsweise die Länge eines Zellzyklus der Zellen der Probe abdecken.The observation period can cover, for example, the length of a cell cycle of the cells in the sample.
In einem weiteren Beispiel kann der Beobachtungszeitraum auch die Dauer eines Experiments mit Zellgruppen umfassen, beispielsweise während des Wachstums von Sphäroiden oder Organoiden, beispielsweise aus Primärzellen oder Stammzellen.In a further example, the observation period can also include the duration of an experiment with groups of cells, for example during the growth of spheroids or organoids, for example from primary cells or stem cells.
Wie obenstehend schon beschrieben, kann durch die reduzierte Lichtbelastung pro Trainings-Referenzbild ein verlängerter Beobachtungszeitraum bzw. eine größere Anzahl von Trainings-Referenzbildern pro Zeiteinheit ermöglicht werden. So wäre es denkbar, dass mindestens eine Bildgebungsvorrichtung angesteuert wird, um mehrere Trainings-Messbilder und mehrere Trainings-Referenzbilder verteilt über einen Beobachtungszeitraum zu erfassen, dessen Länge die Länge eines Zellzyklus der Vielzahl von Zellen abdeckt.As already described above, the reduced light exposure per training reference image allows for a longer observation period or a larger number of training reference images per time unit. It would thus be conceivable for at least one imaging device to be controlled in order to acquire a number of training measurement images and a number of training reference images distributed over an observation period whose length covers the length of a cell cycle of the multiplicity of cells.
Als allgemeine Regel gibt es unterschiedliche Techniken, um den Entrauschungsalgorithmus zu implementieren. In einem Beispiel wäre es denkbar, dass der Entrauschungsalgorithmus maschinengelernt ist, das bedeutet, dass Parameter des Entrauschungsalgorithmus in einem weiteren Training bestimmt werden können.As a general rule, there are different techniques to implement the denoising algorithm. In one example, it would be conceivable that the denoising algorithm is machine-learned, which means that parameters of the denoising algorithm can be determined in further training.
Dabei gibt es unterschiedliche Techniken, um einen maschinengelernten Entrauschungsalgorithmus zu trainieren. Zum Beispiel wäre es in einer Variante denkbar, dass der Entrauschungsalgorithmus in einem selbst-überwachten Training maschinengelernt wird (englisch: „unsupervised“ oder auch „selfsupervised“). Ein solches selbst-überwachtes Training erfordert typischerweise lediglich rauschbehaftete Bilder; eine Grundwahrheit in Form von entrauschten Bildern beziehungsweise Bildern mit hohem Signal-zu-Rausch-Verhältnis wird aber nicht benötigt. Zum Beispiel kann ein solches Training so gestaltet werden, dass bei solchen Entrauschungs-Trainings-Referenzbildern ein zentraler Pixel oder Bereich entfernt bzw. maskiert wird und der Entrauschungsalgorithmus dahingehend trainiert wird, dass der Kontrast bzw. Pixelwert dieses entfernten bzw. maskierten Pixels in der Ausgabe wiederhergestellt wird. Da das Rauschen typischerweise statistisch verteilt ist, kann dadurch eine Entrauschung gelernt werden. Solche Techniken sind zum Beispiel beschrieben in Krull, Alexander, Tim-Oliver Buchholz, and Florian Jug. „Noise2void-learning denoising from single noisy images.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. Eine weitere Technik ist beschriebenen in Broaddus, Coleman, et al. „Removing structured noise with self-supervised blind-spot networks.“ 2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI). IEEE, 2020.There are different techniques to train a machine-learned denoising algorithm. For example, in one variant it would be conceivable for the noise reduction algorithm to be machine-learned in a self-supervised training session. Such a self-monitored one Training typically only requires noisy images; however, a basic truth in the form of noise-free images or images with a high signal-to-noise ratio is not required. For example, such training can be designed such that, for such denoising training reference images, a central pixel or region is removed or masked and the denoising algorithm is trained such that the contrast or pixel value of that removed or masked pixel is in the output is restored. Since the noise is typically statistically distributed, noise reduction can be learned in this way. Such techniques are described, for example, in Krull, Alexander, Tim-Oliver Buchholz, and Florian Jug. "Noise2void-learning denoising from single noisy images." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. Another technique is described in Broaddus, Coleman, et al. "Removing structured noise with self-supervised blind-spot networks." 2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI). IEEE, 2020.
Die oben genannten Beispiele für Entrauschungsalgorithmen, die mittels selbst-überwachten Trainings trainiert werden, sind nur einige Beispiele. Es gibt auch andere Beispiele, zum Beispiel eine probabilistischen Entrauschung, wie beschrieben in Krull, Alexander, et al. „Probabilistic noise2void: Unsupervised content-aware denoising.“ Frontiers in Computer Science 2 (2020): 5.The above examples of denoising algorithms trained using self-supervised training are just a few examples. There are also other examples, for example probabilistic denoising, as described in Krull, Alexander, et al. "Probabilistic noise2void: Unsupervised content-aware denoising." Frontiers in Computer Science 2 (2020): 5.
Ein weiteres Beispiel ist Entrauschung mit Diversifizierung, wie beschrieben in Prakash, Mangal, Alexander Krull, and Florian Jug. „Fully Unsupervised Diversity Denoising with Con-volutional Variational Autoencoders.“ arXiv preprint arXiv:2006.06072 (2020). Siehe hierzu auch: Prakash, Mangal, et al. „Removing Pixel Noises and Spatial Artifacts with Generative Diversity De-noising Methods.“ arXiv preprint arXiv:2104.01374 (2021). Zum Beispiel verwenden solche Techniken, die eine Diversifizierung einsetzen, Variations-Autoencoder-Netzwerke zur Implementierung des Entrauschungsalgorithmus.Another example is denoising with diversification as described in Prakash, Mangal, Alexander Krull, and Florian Jug. "Fully Unsupervised Diversity Denoising with Convolutional Variational Autoencoders." arXiv preprint arXiv:2006.06072 (2020). See also: Prakash, Mangal, et al. "Removing Pixel Noises and Spatial Artifacts with Generative Diversity De-noising Methods." arXiv preprint arXiv:2104.01374 (2021). For example, such techniques employing diversification use variational autoencoder networks to implement the denoising algorithm.
Als allgemeine Regel wäre es möglich, dass der Entrauschungsalgorithmus bereits vortrainiert ist. Das bedeutet, dass der Entrauschungsalgorithmus basierend auf einer Trainingseingabe trainiert werden kann, die für eine Referenzprobe erfasst wurde, das heißt für eine andere Probe, als diejenige Probe, für welche die Trainings-Referenzbilder erfasst werden und mittels des Entrauschungsalgorithmus entrauscht werden. Ein solches Vortrainieren ist gut möglich, weil die Übertragbarkeit von entsprechenden Parametern des Entrauschungsalgorithmus von Probe zu Probe besonders gut sein kann, weil das Rauschen typischerweise keine oder keine signifikante Abhängigkeit von der Probe aufweist. Sog. Transfer-Learning kann verwendet werden. Es wäre aber auch denkbar, dass das selbst-überwachte Training Proben-spezifisch durchgeführt wird, das heißt basierend auf Entrauschungs-Trainings-Referenzbildern, die für die Probe selbst erfasst werden.As a general rule, it would be possible for the denoising algorithm to already be pre-trained. This means that the denoising algorithm can be trained based on a training input acquired for a reference sample, ie for a different sample than the sample for which the training reference images are acquired and denoised by the denoising algorithm. Such pre-training is easily possible because the transferability of corresponding parameters of the denoising algorithm from sample to sample can be particularly good, because the noise typically has no or no significant dependency on the sample. So-called transfer learning can be used. However, it would also be conceivable for the self-monitored training to be carried out in a sample-specific manner, ie based on noise reduction training reference images that are recorded for the sample itself.
Dabei kann der Entrauschunsalgorithmus ein probabilistisches Modell umfassen, das Wahrscheinlichkeitsverteilungen für das Vorliegen bestimmter Merkmale bestimmt; diese Wahrscheinlichkeitsverteilungen können dann abgetastet werden. Ein Beispiel wären Variations-Autoencoder-Netzwerke. Durch mehrfaches Abtasten einer latenten Merkmalsrepräsentation (engl. „feature embedding“) des probabilistischen Modells können pro Trainings-Referenzbild mehrere entrauschte Trainings-Referenzbilder erhalten werden. Dies entspricht einer Augmentierung des Trainingsdatensatzes. Durch eine solche Augmentierung des Trainingsdatensatzes kann ein umfassenderes Training des ML Vorhersagealgorithmus erfolgen. Dadurch können robustere und genauere Vorhersagen für die synthetischen Fluoreszenzbilder erzeugt werden.The denoising algorithm can include a probabilistic model that determines probability distributions for the presence of specific features; these probability distributions can then be sampled. An example would be variational autoencoder networks. By multiple sampling of a latent feature representation (engl. "feature embedding") of the probabilistic model, several noise-free training reference images can be obtained per training reference image. This corresponds to an augmentation of the training data set. Such an augmentation of the training data set allows the ML prediction algorithm to be trained more comprehensively. This allows more robust and accurate predictions to be generated for the synthetic fluorescence images.
Dabei ist es nicht in allen Beispielen notwendig, ein selbst-überwachtes Training für den Entrauschungsalgorithmus durchzuführen. Es könnte auch ein überwachtes Training durchgeführt werden. Dazu kann der Entrauschungsalgorithmus basierend auf Paaren von ersten und zweiten Entrauschungs-Trainings-Referenzbildern trainiert werden. Die ersten Entrauschungs-Trainings-Referenzbilder werden dabei mittels der mikroskopischen Fluoreszenzbildgebung und niedrigem Signal-zu-Rausch-Verhältnis erfasst. Die zweiten Entrauschungs-Trainings-Referenzbilder werden dabei mittels der mikroskopischen Fluoreszenzbildgebung und hohem Signal-zu-Rausch-Verhältnis erfasst. Die ersten Entrauschungs-Trainings-Referenzbilder können insbesondere mit einem im Vergleich zu den zweiten Entrauschungs-Trainings-Referenzbildern niedrigerem Signal-zu-Rausch-Verhältnis erfasst werden. Die ersten und zweiten Entrauschungs-Trainings-Referenzbilder können miteinander registriert sein. Dadurch wird erreicht, dass mittels einer Bild-zu-Bild-Transformation eine Entrauschung erzielt wird, wenn die zweiten Entrauschungs-Trainings-Referenzbilder als Grundwahrheit beim Training verwendet werden und die ersten Entrauschung-Trainings-Referenzbilder als Trainingseingabe (manchmal auch als Quelle bezeichnet). Es können unterschiedlichste neuronale Netzwerke verwendet werden, die für eine solche Bild-zu Bild-Transformation eingerichtet sind, zum Beispiel Faltungsnetzwerke (engl. convolutional networks).It is not necessary in all examples to carry out self-monitored training for the denoising algorithm. Supervised training could also be performed. For this purpose, the denoising algorithm can be trained based on pairs of first and second denoising training reference images. The first denoising training reference images are acquired using microscopic fluorescence imaging and a low signal-to-noise ratio. The second denoising training reference images are recorded using microscopic fluorescence imaging and a high signal-to-noise ratio. The first noise reduction training reference images can be captured in particular with a lower signal-to-noise ratio compared to the second noise reduction training reference images. The first and second denoising training reference images can be registered with each other. This achieves that denoising is achieved by means of an image-to-image transformation when the second denoising training reference images are used as ground truth in training and the first denoising training reference images are used as training input (sometimes referred to as source) . A wide variety of neural networks that are set up for such an image-to-image transformation can be used, for example convolutional networks.
Ein solches überwachtes Training muss nicht Proben-spezifisch durchgeführt werden. Das bedeutet, dass die Entrauschungs-Trainings-Referenzbilder von einer Referenzprobe erfasst werden können. Die zu vermessende Probe, für die synthetische Fluoreszenzbilder bestimmt werden, wird dann keiner zusätzlichen Lichtbelastung ausgesetzt. In jedem Fall kann es erstrebenswert sein, die Anzahl der zweiten Entrauschungs-Trainings-Referenzbilder zu begrenzen, um eine Lichtbelastung der Probe (für Proben-spezifisches Training) bzw. der Referenzprobe zu begrenzen. Beispielsweise könnte die Anzahl der Entrauschungs-Trainings-Referenzbilder, die für das Training pro Probe oder pro Referenzprobe verwendet werden, nicht größer als 50% oder nicht größer als 10% der Anzahl der Trainings-Referenzbilder sein.Such supervised training need not be sample-specific. This means that the denoising training reference pic which can be detected by a reference sample. The sample to be measured, for which synthetic fluorescence images are determined, is then not exposed to any additional exposure to light. In any case, it can be desirable to limit the number of second denoising training reference images in order to limit light exposure of the sample (for sample-specific training) or the reference sample. For example, the number of denoising training reference images used for training per sample or per reference sample could be no greater than 50% or no greater than 10% of the number of training reference images.
Um eine verbesserte Entrauschung für ML Entrauschungsalgorithmen zu erzielen, kann es in den verschiedenen Beispielen möglich sein, dass der Entrauschungsalgorithmus - neben der Eingabe des Trainings-Referenzbilds - eine weitere Eingabe erhält, beispielsweise das zugehörige Trainings-Messbild und/oder Kontextinformation zur Messung (z.B. das verwendete Objektiv, die verwendete Lichtstärke für die Anregung usw.).In order to achieve improved denoising for ML denoising algorithms, it may be possible in the various examples that the denoising algorithm - in addition to the input of the training reference image - receives another input, for example the associated training measurement image and/or context information for the measurement (e.g. the lens used, the light intensity used for excitation, etc.).
Solche Techniken beruhen auf der Erkenntnis, dass in den hierin beschriebenen Anwendungen zusätzlich das mittels der mikroskopischen Bildgebung erfasste Trainings-Messbild verfügbar ist. In dessen Kontrast sind auch Informationen zur Probe codiert, sodass eine genauere Entrauschung dadurch erzeugt werden kann, dass der Entrauschungsalgorithmus auch Zugriff auf diese Informationen hat. Beim Training des Entrauschungsalgorithmus können auch entsprechende Entrauschungs-Trainings-Messbilder erfasst werden und als Eingabekanal an den Entrauschungsalgorithmus übergeben werden.Such techniques are based on the knowledge that the training measurement image captured by means of microscopic imaging is additionally available in the applications described herein. Information about the sample is also encoded in its contrast, so that more precise denoising can be generated because the denoising algorithm also has access to this information. When training the denoising algorithm, corresponding denoising training measurement images can also be acquired and passed to the denoising algorithm as an input channel.
Allgemein formuliert ist es also möglich, dass ein erster Eingabekanal der Eingabe des Entrauschungsalgorithmus die ein oder mehreren Trainings-Referenzbilder umfasst und ein zweiter Eingabekanal der Eingabe des Entrauschungsalgorithmus die ein oder mehreren Trainings-Messbilder umfasst.In general terms, it is therefore possible for a first input channel of the input of the noise reduction algorithm to include one or more training reference images and a second input channel of the input of the noise reduction algorithm to include one or more training measurement images.
Voranstehend wurden Techniken beschrieben, bei denen der Entrauschungsalgorithmus maschinengelernt ist. Es wären aber auch Beispiele denkbar, wo der Entrauschungsalgorithmus nicht maschinengelernt ist, das heißt klassisch, basierend auf Heuristiken, parametrisiert ist. Beispiele betreffen zum Beispiel Homomorphisches Filtern, Gaußfilter, nicht lokale Mittelwerte, Poisson-Fit, usw.Techniques in which the denoising algorithm is machine-learned have been described above. However, examples would also be conceivable where the noise reduction algorithm is not machine-learned, i.e. is classically parameterized based on heuristics. Examples include homomorphic filtering, Gaussian filtering, non-local means, Poisson fitting, etc.
Als allgemeine Regel sind unterschiedliche Implementierungen für die mikroskopische Bildgebung zur Erfassung der Trainings-Messbilder denkbar. Beispielsweise wäre es möglich, dass die Trainings-Messbilder nicht mit Fluoreszenzbildgebung erfasst werden. Die Trainings-Messbilder können zum Beispiel mit Durchlicht-Bildgebung erfasst werden.As a general rule, different implementations for the microscopic imaging to acquire the training measurement images are conceivable. For example, it would be possible that the training measurement images are not captured using fluorescence imaging. The training measurement images can be acquired with transmitted light imaging, for example.
In anderen Beispielen können die Trainings-Messbilder zumindest teilweise auch mit einer weiteren Fluoreszenzbildgebung erfasst werden, die einen anderen Fluoreszenzkontrast bereitstellt, als die Fluoreszenzbildgebung, mit welcher die Trainings-Referenzbilder erfasst werden. Beispielsweise könnten weniger sensible Färbungen, wie beispielsweise GFP, verwendet werden, um eine sensitivere Färbung, wie zum Beispiel tdTomato vorherzusagen. Ein weiteres Beispiel betrifft die Vorhersage von F-Actin basierend auf Vinculin.In other examples, the training measurement images can also be acquired, at least in part, with an additional fluorescence imaging that provides a different fluorescence contrast than the fluorescence imaging with which the training reference images are acquired. For example, less sensitive stains such as GFP could be used to predict a more sensitive stain such as tdTomato. Another example concerns the prediction of F-actin based on vinculin.
In einem solchen Szenario (Trainings-Messbilder mit Fluoreszenzkontrast) wäre es möglich, dass der Entrauschungsalgorithmus - oder auch ein weiterer Entrauschungsalgorithmus - auf die Trainings-Messbilder angewendet wird, um derart ein oder mehrere entrauschte Trainings-Messbilder zu erhalten. Das Training des ML Vorhersagealgorithmus kann basierend auf den ein oder mehreren entrauschten Trainings-Messbildern als Trainingseingabe durchgeführt werden.In such a scenario (training measurement images with fluorescence contrast), it would be possible for the noise reduction algorithm—or also another noise reduction algorithm—to be applied to the training measurement images in order to obtain one or more noise-free training measurement images in this way. The ML prediction algorithm can be trained based on the one or more denoised training measurement images as training input.
Sofern ein weiterer Entrauschungsalgorithmus spezifisch für das Entrauschen der Trainings-Messbilder verwendet wird, so können die obenstehend im Zusammenhang mit dem Entrauschungsalgorithmus für die Trainings-Referenzbilder beschriebenen Aspekte auch für den weiteren Entrauschungsalgorithmus umgesetzt werden. Dies betrifft zum Beispiel die Implementierung als maschinengelernter Algorithmus, das Proben-spezifische oder Proben-unspezifische Training, das selbst-überwachte oder überwachte Training, usw.If a further denoising algorithm is used specifically for denoising the training measurement images, the aspects described above in connection with the denoising algorithm for the training reference images can also be implemented for the further denoising algorithm. This concerns, for example, the implementation as a machine-learned algorithm, sample-specific or sample-unspecific training, self-supervised or supervised training, etc.
Insbesondere wäre es möglich, dass auch die Trainings-Messbilder augmentiert werden. Dazu kann der Entrauschungsalgorithmus oder der weitere Entrauschungsalgorithmus mittels eines probabilistischen Modells (z.B. Variations-Autoencoder-Netzwerk) implementiert werden. Es ist dann möglich, eine entsprechende latente Merkmalsrepräsentation des probabilistischen Modells pro Trainings-Messbild mehrfach abzutasten, um derart pro Trainings-Messbild mehrere entrauschte Trainings-Messbilder zu erhalten.In particular, it would be possible for the training measurement images to be augmented as well. For this purpose, the noise reduction algorithm or the further noise reduction algorithm can be implemented using a probabilistic model (e.g. variation autoencoder network). It is then possible to scan a corresponding latent feature representation of the probabilistic model multiple times per training measurement image in order to obtain a plurality of noise-free training measurement images per training measurement image.
Ein Computerprogramm oder ein Computerprogramm-Produkt oder ein computerlesbares Speichermedium umfasst Programmcode. Der Programmcode kann von einem Prozessor geladen und ausgeführt werden. Das bewirkt, dass der Prozessor ein Verfahren ausführt. Das Verfahren umfasst das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet eine Vielzahl von Zellen ab. Außerdem umfasst das Verfahren das Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Ferner umfasst das Verfahren das Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Das computerimplementierte Verfahren umfasst außerdem noch das Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten und/oder falls vorliegend rauscharm aufgenommenen ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A computer program or a computer program product or a computer-readable storage medium includes program code. The program code can be loaded and executed by a processor. This causes the processor to execute a method. The method includes controlling at least one imaging device in order to use microscopic imaging to generate one or more training measurement images to capture a sample. The sample images a multitude of cells. The method also includes driving at least one imaging device to capture one or more training reference images of a sample using microscopic fluorescence imaging. The method further includes applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. The computer-implemented method also includes performing a training of parameters of an ML prediction algorithm. The training is carried out based on the one or more training measurement images as training input and based on the noise-free and/or, if present, one or more training reference images recorded with little noise as basic truth.
Eine Vorrichtung umfasst einen Prozessor. Der Prozessor ist eingerichtet um folgendes auszuführen: Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Bildgebung ein oder mehrere Trainings-Messbilder in einer Probe zu erfassen. Die Probe bildet eine Vielzahl von Zellen ab. Außerdem ist der Prozessor eingerichtet, um auszuführen: Ansteuern mindestens einer Bildgebungsvorrichtung, um mittels mikroskopischer Fluoreszenzbildgebung ein oder mehrere Trainings-Referenzbilder einer Probe zu erfassen. Außerdem ist der Prozessor eingerichtet, um auszuführen: Anwenden eines Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder. Derart werden ein oder mehrere entrauschte (engl. „denoised“) Trainings-Referenzbilder erhalten. Außerdem ist der Prozessor eingerichtet, um auszuführen: Durchführen eines Trainings von Parametern eines ML Vorhersagealgorithmus. Das Training wird basierend auf den ein oder mehreren Trainings-Messbildern als Trainingseingabe und basierend auf den entrauschten ein oder mehreren Trainings-Referenzbildern als Grundwahrheit durchgeführt.A device includes a processor. The processor is configured to: drive at least one imaging device to acquire one or more training measurement images in a sample using microscopic imaging. The sample images a multitude of cells. The processor is also configured to perform: driving at least one imaging device to acquire one or more training reference images of a sample using fluorescence microscopic imaging. In addition, the processor is configured to perform: applying a denoising algorithm to the one or more training reference images. In this way, one or more denoised training reference images are obtained. In addition, the processor is configured to perform: performing training of parameters of an ML prediction algorithm. The training is performed based on the one or more training measurement images as training input and based on the denoised one or more training reference images as ground truth.
Die oben dargelegten Merkmale und Merkmale die nachfolgend beschrieben werden, können nicht nur in den entsprechenden explizit dargelegten Kombinationen verwendet werden, sondern auch in weiteren Kombinationen oder isoliert, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.The features presented above and features that are described below can be used not only in the corresponding combinations explicitly presented, but also in further combinations or in isolation, without departing from the scope of protection of the present invention.
Figurenlistecharacter list
-
1 illustriert ein System mit mindestens einer Bildgebungsvorrichtung und einer Vorrichtung zur digitalen Nachbearbeitung von Bildern, die von der mindestens einen Bildgebungsvorrichtung erfasst werden.1 12 illustrates a system having at least one imaging device and a device for digital post-processing of images captured by the at least one imaging device. -
2 illustriert schematisch eine digitale Kontrastnachbearbeitung von Messbildern, die mit mindestens einer Bildgebungsvorrichtung erfasst werden.2 schematically illustrates a digital contrast post-processing of measurement images that are acquired with at least one imaging device. -
3 ist ein Flussdiagramm eines beispielhaften Verfahrens.3 Figure 12 is a flow diagram of an example method.
DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSFORMENDETAILED DESCRIPTION OF EMBODIMENTS
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden.The properties, features and advantages of this invention described above, and the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the exemplary embodiments, which are explained in more detail in connection with the drawings.
Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsformen unter Bezugnahme auf die Zeichnungen näher erläutert. In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder ähnliche Elemente. Die Figuren sind schematische Repräsentationen verschiedener Ausführungsformen der Erfindung. In den Figuren dargestellte Elemente sind nicht notwendigerweise maßstabsgetreu dargestellt. Vielmehr sind die verschiedenen in den Figuren dargestellten Elemente derart wiedergegeben, dass ihre Funktion und genereller Zweck dem Fachmann verständlich werden. In den Figuren dargestellte Verbindungen und Kopplungen zwischen funktionellen Einheiten und Elementen können auch als indirekte Verbindung oder Kopplung implementiert werden. Eine Verbindung oder Kopplung kann drahtgebunden oder drahtlos implementiert sein. Funktionale Einheiten können als Hardware, Software oder eine Kombination aus Hardware und Software implementiert werden.The present invention is explained in more detail below on the basis of preferred embodiments with reference to the drawings. In the figures, the same reference symbols designate the same or similar elements. The figures are schematic representations of various embodiments of the invention. Elements depicted in the figures are not necessarily drawn to scale. Rather, the various elements shown in the figures are presented in such a way that their function and general purpose can be understood by those skilled in the art. Connections and couplings between functional units and elements shown in the figures can also be implemented as an indirect connection or coupling. A connection or coupling can be implemented wired or wireless. Functional units can be implemented in hardware, software, or a combination of hardware and software.
Nachfolgend werden Techniken beschrieben, um den Kontrast von Messbildern von biologischen Proben digital nachzubearbeiten. Insbesondere kann es mittels der hierin beschriebenen Techniken möglich sein, cComputer-implementiert synthetische Bilder zu erzeugen, die einen Kontrast einer bestimmten Bildgebungsmodalität oder einen bestimmten Kontrast nachbilden, ohne dass die entsprechende Bildgebungsmodalität tatsächlich angewendet werden müsste oder der bestimmte Kontrast tatsächlich erfasst werden müsste.Techniques are described below for digitally post-processing the contrast of measurement images of biological samples. In particular, it may be possible using the techniques described herein to generate cComputer-implemented synthetic images that emulate a contrast of a particular imaging modality or contrast without actually having to apply the corresponding imaging modality or actually having to detect the particular contrast.
Gemäß verschiedenen hierin beschriebenen Beispielen ist es möglich, synthetische Bilder zu erzeugen, die die Bildgebung von gefärbten Proben nachbilden (engl. „virtual staining“). Bei einer solchen Bildgebung von gefärbten Proben wird die biologische Probe herkömmlicherweise mit einem entsprechenden Farbstoff gefärbt. Dies erfolgt in einem Färbeprozess. Dabei wird ein Farbstoff in Kontakt mit der Probe gebracht. Der Farbstoff beinhaltet ein oder mehrere Marker. Solche Marker erzeugen in der Bildgebung einen spezifischen Kontrast. Z.B. könnten die Marker spezifisch an bestimmte Zellteile binden, z.B. an den Zellkern oder Mitochondrien. Mittels der Marker könnte Tumorgewebe sichtbar gemacht werden. Es wären zum Beispiel Marker denkbar, die durch Beleuchtung mit einer bestimmten Wellenlänge aktiviert werden und dann Licht bei einer anderen Wellenlänge aussenden, das heißt Fluoreszenzmarker.According to various examples described herein, it is possible to generate synthetic images that mimic imaging of stained samples (“virtual staining”). In the case of such imaging of stained samples, the biological sample is conventionally stained with an appropriate dye. This is done in a dyeing process. Here, a dye is in contact with brought to the sample. The dye includes one or more markers. Such markers create a specific contrast in the imaging. For example, the markers could specifically bind to certain parts of the cell, such as the cell nucleus or mitochondria. The markers could be used to visualize tumor tissue. For example, markers that are activated by illumination with a specific wavelength and then emit light at a different wavelength, i.e. fluorescent markers, would be conceivable.
Als weitere allgemeine Regel können in den hierin beschriebenen Beispielen unterschiedlichste Arten von Proben untersucht werden. Es können biologische Proben untersucht werden. Beispielsweise wäre es möglich, lebende oder tote Zellen zu untersuchen, z.B. in einer Gewebeprobe. Es könnten zum Beispiel Zellkulturen untersucht werden. Die biologische Probe kann also ein biologisches Modellsystem bezeichnen, z.B. Zellen oder Sphäroide (d.h. Cluster von allgemeinen Zellen, z.B. von Tumoren oder Nervenzellen) oder Organoide (d.h. Cluster organspezifischer Zellen). Die biologische Probe kann also insbesondere Zellen oder Gewebe umfassen. Es kann eine Zellkultur untersucht werden. Z.B. könnte eine primäre Zellkultur untersucht werden, d.h. aus einem Organismus gewonnene und am Leben gehaltene Zellen. Es könnten auch tote Zellen untersucht werden. Diese Probe umfasst also z.B. ein Ensemble von Zellstrukturen.As a further general rule, a wide variety of sample types can be analyzed in the examples described herein. Biological samples can be examined. For example, it would be possible to examine living or dead cells, e.g. in a tissue sample. For example, cell cultures could be examined. The biological sample can thus denote a biological model system, e.g. cells or spheroids (i.e. clusters of general cells, e.g. of tumors or nerve cells) or organoids (i.e. clusters of organ-specific cells). The biological sample can therefore include cells or tissue in particular. A cell culture can be examined. For example, a primary cell culture could be examined, i.e. cells obtained from an organism and maintained alive. Dead cells could also be examined. This sample thus comprises, for example, an ensemble of cell structures.
Nachfolgend werden insbesondere Techniken im Zusammenhang mit der Fluoreszenzbildgebung beschrieben. Diese Techniken ermöglichen die Bestimmung von synthetischen Fluoreszenzbildern. Fluoreszenzbilder weisen einen Kontrast auf, der bestimmte Zellstrukturen aus einer Vielzahl von Zellstrukturen mit hoher Spezifität und Sensitivität charakteristisch darstellt. Derart ist es möglich, Zellstrukturen eines bestimmten Typs von anderen Zellstrukturen eines anderen Typs zu unterscheiden.In the following, techniques in connection with fluorescence imaging are described in particular. These techniques allow the determination of synthetic fluorescence images. Fluorescence images exhibit a contrast characteristic of certain cell structures from a variety of cell structures with high specificity and sensitivity. In this way it is possible to distinguish cell structures of a certain type from other cell structures of a different type.
Während nachfolgend verschiedene Techniken insbesondere im Zusammenhang mit der Färbung von Proben für die Fluoreszenzbildgebung beschrieben werden, wäre es in anderen Beispielen auch möglich, die Färbung für andere Anwendungsgebiete zu verwenden, z.B. der Histopathologie.While various techniques are described below, particularly in the context of staining samples for fluorescence imaging, in other examples it would also be possible to use the staining for other applications, such as histopathology.
Mittels der hierin beschriebenen Techniken kann ein maschinengelernter Vorhersagealgorithmus trainiert werden, um mit diesem basierend auf Messbildern, die mittels mikroskopischer Bildgebung erfasst werden, synthetische Fluoreszenzbilder zu bestimmen. Insbesondere werden Techniken beschrieben, um Trainingsdatensätze für den maschinengelernten Vorhersagealgorithmus vorzubearbeiten, bevor das Training durchgeführt wird. Die Trainingsdatensätze können aufbereitet werden, d.h. deren Qualität kann erhöht werden.Using the techniques described herein, a machine-learned prediction algorithm can be trained to determine synthetic fluorescence images based on measurement images acquired using microscopic imaging. In particular, techniques are described to pre-process training data sets for the machine-learned prediction algorithm before the training is performed. The training data sets can be processed, i.e. their quality can be increased.
In den hierin beschriebenen Techniken ist es möglich, Trainings-Referenzbilder des Trainingsdatensatzes mittels mikroskopischer Fluoreszenzbildgebung für eine Probe zu erfassen. Die Trainings-Referenzbilder können die Grundlage für die Ground-Truth des Trainings bilden.In the techniques described herein, it is possible to acquire training reference images of the training data set using fluorescence microscopic imaging for a sample. The training reference images can form the basis for the ground truth of the training.
Diese Trainings-Referenzbilder können so erfasst werden, dass sie ein vergleichsweise geringes Signal-zu-Rausch-Verhältnis aufweisen. Dann kann ein Entrauschungsalgorithmus auf die ein oder mehreren Trainings-Referenzbilder angewendet werden, um ein oder mehrere entrauschte Trainings-Referenzbilder zu erhalten. Die entrauschten Trainings-Referenzbilder können einen reduzierten Rauschanteil im Vergleich zu den ursprünglich erfassten Trainings-Referenzbildern aufweisen, das heißt die entrauschten Trainings-Referenzbilder können ein erhöhtes Signal-zu-Rausch-Verhältnis aufweisen. Basierend auf diesen entrauschten Trainings-Referenzbildern kann dann der maschinengelernte Vorhersagealgorithmus trainiert werden, um diesen dann zu verwenden, um synthetische Fluoreszenzbilder vorherzusagen.These training reference images can be acquired in such a way that they have a comparatively low signal-to-noise ratio. A denoising algorithm can then be applied to the one or more training reference images to obtain one or more denoised training reference images. The noise-free training reference images can have a reduced noise component compared to the originally acquired training reference images, ie the noise-free training reference images can have an increased signal-to-noise ratio. Based on these denoised training reference images, the machine-learned prediction algorithm can then be trained to then use it to predict synthetic fluorescence images.
Der Vorhersagealgorithmus kann eine Korrelation zwischen einem Bildkontrast der Messbilder und einem Bildkontrast von Fluoreszenzbildern ausnutzen. Eine solche Technik kann auch als „virtuelles Einfärben“ (engl. virtual staining) bezeichnet werden, weil der Kontrast der Messbilder durch die digitale Nachbearbeitung mittels des Vorhersagealgorithmus verändert oder verstärkt wird, so dass das synthetische Fluoreszenzbild erhalten wird. Durch ein solches virtuelles Einfärben können verschiedene Vorteile erzielt werden, zum Beispiel eine reduzierte Belichtungszeit, eine reduzierte Zeit zum Scannen der Probe, ein erhöhtes SNR, eine reduzierte Foto-Toxizität, reduzierter experimenteller Aufwand, usw.The prediction algorithm can use a correlation between an image contrast of the measurement images and an image contrast of fluorescence images. Such a technique can also be referred to as “virtual staining” because the contrast of the measurement images is changed or enhanced by the digital post-processing using the prediction algorithm, so that the synthetic fluorescence image is obtained. Various advantages can be achieved by such virtual staining, for example reduced exposure time, reduced sample scanning time, increased SNR, reduced photo-toxicity, reduced experimental effort, etc.
Die Probe kann eine Vielzahl von Zellen aufweisen. Es handelt sich also um eine biologische Probe.The sample can contain a large number of cells. It is therefore a biological sample.
Die biologische Probe kann also ein biologisches Modellsystem bezeichnen, z.B. Zellen oder Sphäroide (d.h. Cluster von allgemeinen Zellen, z.B. von Tumoren oder Nervenzellen) oder Organoide (d.h. Cluster organspezifischer Zellen). Die biologische Probe kann also insbesondere Zellen oder Gewebe umfassen. Es kann eine Zellkultur untersucht werden. Z.B. könnte eine primäre Zellkultur untersucht werden, d.h. aus einem Organismus gewonnene und am Leben gehaltene Zellen. Es könnten auch tote Zellen untersucht werden.The biological sample can thus denote a biological model system, e.g. cells or spheroids (i.e. clusters of general cells, e.g. of tumors or nerve cells) or organoids (i.e. clusters of organ-specific cells). The biological sample can therefore include cells or tissue in particular. A cell culture can be examined. For example, a primary cell culture could be examined, i.e. cells obtained from an organism and maintained alive. Dead cells could also be examined.
Der ML Vorhersagealgorithmus kann durch ein künstliches neuronales Netzwerk (KNN) implementiert werden.The ML prediction algorithm can be implemented by an artificial neural network (ANN).
Ein KNN umfasst eine Vielzahl von Schichten, die verschiedene Operationen ausführen. Ein Beispiel für ein KNN ist ein Faltungsnetzwerk (engl. convolutional neural network), bei denen Faltungsschichten verwendet werden, die eine Faltung von Eingangswerten mit einem Kern durchführen. Die verschiedenen Schichten können über geeignete Gewichte miteinander verbunden werden. Nichtlineare Aktivierungen sind denkbar. Pooling-Operationen können durchgeführt werden: dort werden Informationen verworfen. Ein Beispiel ist das Max-Pooling, wo nur die stärksten Werte eines Bereichs (z.B. aus 2x2 Nachbarschaftsbereichen) beibehalten werden. KNNs können eine Feedforward-Architektur haben. So kann beispielsweise das Ergebnis einer Schicht immer nur an eine nachfolgende Schicht weitergegeben werden. Wenn sog. Sprung-Verbindungen vorhanden sind, kann die Ausgabe einer Schicht an mehrere nachfolgende Schichten weitergegeben werden. Es können grundsätzlich unterschiedliche Arten von KNNs verwendet werden, z.B. insbesondere auch Generative Adversarial Networks (GANs) oder Autoencoder Netzwerke, z. B. Variations-Autoencoder-Netzwerke.An ANN includes a variety of layers that perform various operations. An example of an ANN is a convolutional neural network, which uses convolutional layers that perform convolution of input values with a kernel. The various layers can be connected to one another using suitable weights. Nonlinear activations are conceivable. Pooling operations can be performed: information is discarded there. An example is max-pooling, where only the strongest values of a range (e.g. from 2x2 neighborhood ranges) are kept. ANNs can have a feedforward architecture. For example, the result of one shift can only be passed on to a subsequent shift. If so-called hop connections are present, the output of one layer can be passed on to several subsequent layers. In principle, different types of ANNs can be used, e.g. in particular also generative adversarial networks (GANs) or autoencoder networks, e.g. B. Variation autoencoder networks.
Beim Variations-Autoencoder-Netzwerk wird eine Kodier-Dekodier-Struktur verwendet (engl. encoder decoder architecture). In ein oder mehreren Kodier-Zweigen erfolgt eine Kontraktion von Merkmalen im Ortsraum, hin zu einem Flaschenhals (engl. bottleneck). In ein oder mehreren Dekodier-Zweigen erfolgt eine Expansion von Merkmalen im Ortsraum, weg vom Flaschenhals. Die Ausgabe des Dekodier-Zweigs kann die Eingabe in den Kodier-Zweig rekonstruieren. Der Flaschenhals bezeichnet die latente Merkmalsrepräsentation. Die latente Merkmalsrepräsentation wird beim Variations-Autoencoder-Netzwerk durch Wahrscheinlichkeitsverteilungen der entsprechenden Merkmale implementiert. Jede Wahrscheinlichkeitsverteilung kann durch einen Mittelwert und eine Standardabweichung beschrieben werden. Entsprechend wird ein zweidimensionaler Vektor erhalten. In einer Abtast-Operation werden diese Verteilungen abgetastet (dies gilt allgemein für probabilistische Modelle) und das Abtast-Ergebnis dient als Eingabe in die ein oder mehreren Dekodier-Zweige.The variation autoencoder network uses an encoder decoder architecture. In one or more coding branches, features in the local space are contracted towards a bottleneck. In one or more decoding branches, there is an expansion of features in the spatial space, away from the bottleneck. The output of the decode branch can reconstruct the input to the encode branch. The bottleneck denotes the latent feature representation. In the variational autoencoder network, the latent feature representation is implemented by probability distributions of the corresponding features. Each probability distribution can be described by a mean and a standard deviation. Accordingly, a two-dimensional vector is obtained. In a sampling operation, these distributions are sampled (this applies in general to probabilistic models) and the sampling result serves as input to the one or more decoding branches.
Der Prozessor 102 kann als zentrale Recheneinheit (CPU) ausgebildet sein und/oder über spezialisierte Recheneinheiten verfügen, beispielsweise über mind. eine Graphik-Prozessierungs-Einheit (GPU) und/oder über mind. eine Tensor-Prozessierungs-Einheit (TPU).The
Der Prozessor 102 kann, allgemein formuliert, eingerichtet sein, um Steueranweisungen aus dem Speicher 103 zu laden und auszuführen. Wenn der Prozessor 102 die Steueranweisungen lädt und ausführt, bewirkt dies, dass der Prozessor 102 Techniken ausführt, wie sie hierin beschrieben sind. Solche Techniken werden zum Beispiel das Ansteuern der Bildgebungsvorrichtung 111 und optional der Bildgebungsvorrichtung 112, um Bilddaten zu erfassen. Zum Beispiel könnte der Prozessor 102 eingerichtet sein, um die Bildgebungsvorrichtung 111 anzusteuern, um mittels mikroskopischer Bildgebung während eines Beobachtungszeitraums ein oder mehrere Trainings-Messbilder einer Probe zu erfassen. Der Prozessor 102 kann auch eingerichtet sein, um die Bildgebungsvorrichtung 111 anzusteuern, um während desselben Beobachtungszeitraums mehrere Trainings-Referenzbilder der Probe zu erfassen. Die Trainings-Referenzbilder können grundsätzlich mit einer anderen Bildgebungsmodalität erfasst werden, wie die Messbilder. Je nach Fähigkeit der Bildgebungsvorrichtung 111 betreffend die Bildgebungsmodalität, die zur Erfassung der Trainings-Referenzbilder verwendet wird, kann der Prozessor 102 auch die Bildgebungsvorrichtung 112 ansteuern, um die Trainings-Referenzbilder zu erfassen.In general terms, the
Außerdem kann der Prozessor 102 basierend auf den Steueranweisungen aus dem Speicher 103 eingerichtet sein, um synthetische Fluoreszenzbilder basierend auf den Messbildern und basierend auf einem ML Vorhersagealgorithmus zu bestimmen. Das bedeutet, dass der Prozessor 102 ein virtuelles Einfärben durchführen kann.In addition, the
Außerdem kann der Prozessor 102 eingerichtet sein, um den ML Vorhersagealgorithmus zu trainieren. Dazu können ein oder mehrere Trainings-Messbilder als Trainingseingabe verwendet werden und ein oder mehrere entrauschte Trainings-Referenzbilder als Grundwahrheit.In addition, the
Der Prozessor 102 kann auch eingerichtet sein, um einen Entrauschungsalgorithmus auf ein oder mehrere Trainings-Referenzbilder anzuwenden, um derart die ein oder mehreren entrauschten Trainings-Referenzbilder zu erhalten.The
Der Prozessor 102 kann auch eingerichtet sein, um den Entrauschungsalgorithmus zu trainieren.The
Der Vorhersagealgorithmus könnte z.B. durch ein KNN implementiert sein. Die Architektur des KNN könnte z.B. entsprechend Christiansen, Eric M., et al. „In silico labeling: predicting fluorescent labels in unlabeled images.“ Cell 173.3 (2018): 792-803; oder Ounkomol, Chawin, et al. „Label-free prediction of three-dimensional fluorescence images from transmitted-light microscopy.“ Nature methods 15.11 (2018): 917-920 umgesetzt sein.For example, the prediction algorithm could be implemented by an ANN. The architecture of the ANN could e.g. according to Christiansen, Eric M., et al. "In silico labeling: predicting fluorescent labels in unlabeled images." Cell 173.3 (2018): 792-803; or Ounkomol, Chawin, et al. "Label-free prediction of three-dimensional fluorescence images from transmitted-light microscopy." Nature methods 15.11 (2018): 917-920.
Eine weitere Architektur könnte gemäß einem U-Netz implementiert sein, das Faltungsschichten und Sprungverbindungen aufweist, die bestimmte Schichten übergehen. Sh. z.B. Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham; wobei aber eine Grauwert-Regression als Ausgabe verwendet wird, statt einer Klassifikationsschicht (um eine Bild-zu-Bild-Vorhersage zu erhalten). Das U-Netz könnte auch mit zusätzlichem Adversarial Verlustbeitrag trainiert werden. Das wird auch als „Conditional Generative Adversarial Net“ bezeichnet.Another architecture could be implemented according to a U-network having convolutional layers and hopping connections that override certain layers. sh e.g. Ronneberger, O., Fischer, P., & Brox, T. (2015, October). U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention (pp. 234-241). Springer, Cham; but using grayscale regression as output instead of a classification layer (to get frame-to-frame prediction). The underground network could also be trained with additional adversarial loss contribution. This is also known as the conditional generative adversarial net.
Ein weiteres Beispiel wäre z.B. ein Autoencoder Netzwerke, z.B. Variations Autoencoder Netzwerke.Another example would be an autoencoder network, e.g. Variations autoencoder networks.
Zum Training 6001 des Vorhersagealgorithmus 205 werden Trainings-Messbilder 251 verwendet sowie Trainings-Referenzbilder 252.
Die Trainings-Messbilder 251 können mittels derselben Bildgebungsmodalität und desselben Kontrasts erfasst werden, wie die Messbilder 201.The
Die Trainings-Referenzbilder 252 können mit einer Fluoreszenzbildgebung erfasst werden und weisen einen Fluoreszenzkontrast auf, der dem synthetischen Fluoreszenzkontrast synthetischer Fluoreszenzbilder 202 entspricht.The
Die Trainings-Referenzbilder 252 können mittels eines Entrauschungsalgorithmus 209 entrauscht werden, bevor sie dem Training 6001 zugeführt werden.The
Optional können die Trainings-Messbilder 251 auch mittels des Entrauschungsalgorithmus 209 (oder eines anderen Entrauschungsalgorithmus) entrauscht werden.Optionally, the
Der Entrauschungsalgorithmus 209 kann mittels Paaren von ersten Entrauschungs-Trainings-Referenzbildern 281 und zweiten Entrauschungs-Trainings-Referenzbilder 282 trainiert werden, 6002. Diese Paare sind miteinander registriert und weisen unterschiedliches Signal-zu-Rausch-Verhältnis auf. Es wäre aber auch selbst-überwachtes Training möglich.The
In Box 3005 werden ein oder mehrere Trainings-Messbilder erhalten (z.B. eine Zeitabfolge). Die ein oder mehreren Trainings-Messbilder werden während eines Beobachtungszeitraums in einer entsprechenden Messung erfasst (vgl.
Die Trainings-Messbilder bilden eine biologische Probe ab, die z.B. ein Ensemble von Zellstrukturen umfasst. Die Zellstrukturen können dabei einem biologischen Veränderungsvorgang ausgesetzt sein. Dieser biologische Veränderungsvorgang kann über das Ensemble und den Beobachtungszeitraum verteilt auftreten. Ziel der Messung kann es also sein, diesen biologischen Veränderungsvorgang abzubilden bzw. zu vermessen. Allgemeiner formuliert kann es Ziel der Messung sein, die biologische Probe zu charakterisieren.The training measurement images depict a biological sample that includes, for example, an ensemble of cell structures. The cell structures can be exposed to a biological change process. This biological change process can occur distributed over the ensemble and the observation period. The aim of the measurement can therefore be this biological change process to map or measure. In more general terms, the aim of the measurement can be to characterize the biological sample.
Da der biologische Veränderungsvorgang im Zeitraum und im Ortsraum verteilt auftritt, das heißt an unterschiedlichen Orten zu unterschiedlichen Zeitpunkten zu beobachten ist, kann es hilfreich sein, die Trainings-Messbilder mit einer hohen Wiederholungsrate zu erfassen. Das bedeutet, dass pro Zeiteinheit viele Trainings-Messbilder erfasst werden. Alternativ oder zusätzlich können die Trainings-Messbilder auch mit einer hohen Ortsraumdichte erfasst werden, d.h. es kann z.B. (wiederholt) ein Z-Stapel von Trainings-Messbildern erfasst werden. Dadurch kann erreicht werden, dass der biologische Veränderungsvorgang abgebildet werden kann. Dies kann insbesondere dann hilfreich sein, wenn eine Zeitdauer jedes individuellen Auftretens des biologischen Veränderungsvorgangs viel kleiner ist als die zeitliche Streuung des Auftretens der biologischen Veränderungsvorgänge im Ensemble.Since the biological change process occurs distributed over time and space, that is to say can be observed at different locations at different times, it can be helpful to record the training measurement images with a high repetition rate. This means that many training measurement images are recorded per unit of time. Alternatively or additionally, the training measurement images can also be recorded with a high spatial density, i.e. a Z stack of training measurement images can be recorded (repeatedly), for example. In this way it can be achieved that the biological change process can be mapped. This can be particularly helpful when the duration of each individual occurrence of the biological change process is much smaller than the time spread of the occurrence of the biological change processes in the ensemble.
Zum Erfassen der Trainings-Messbilder 3005 kann das Gerät eine entsprechende Bildgebungsvorrichtung geeignet ansteuern. Zum Beispiel könnte der Prozessor Steuerbefehle an die Bildgebungsvorrichtung senden. Die Steuerbefehle können indikativ für Zeitpunkte zum Auslösen der Belichtung und/oder Werte von ein oder mehreren Beleuchtungsparametern sein.In order to acquire the
In Box 3010 kann optional ein Entrauschungsalgorithmus (vgl.
Der Entrauschungsalgorithmus kann z.B. basierend auf weiteren Trainings-Messbildern Proben-spezifisch trainiert werden. Selbst-überwachtes Training ist möglich.The denoising algorithm can be trained sample-specifically, e.g. based on further training measurement images. Self-supervised training is possible.
Es könnte aber auch ein vortrainierter Entrauschungsalgorithmus verwendet werden. Dieser könnte in einem gesonderten Experiment anhand von Daten, die für eine Referenzprobe erfasst werden, trainiert werden, wiederum selbstüberwacht. Es könnte auch eine Grundwahrheit zum Training verwendet werden, nämlich Paare von Entrauschungs-Trainings-Referenzbildern (vgl.
Optional kann dann in Box 3015 der trainierte Entrauschungsalgorithmus auf die Trainings-Messbilder angewendet werden, um derart entrauschte Trainings-Messbilder zu erhalten.Optionally, the trained denoising algorithm can then be applied to the training measurement images in
Das Entrauschen von Trainings-Messbildern kann insbesondere dann hilfreich sein, wenn die Trainings-Messbilder selbst mit einer Fluoreszenzbildgebung erfasst werden.The denoising of training measurement images can be particularly helpful when the training measurement images themselves are acquired using fluorescence imaging.
Optional wäre es in Box 3020 möglich, die Trainings-Messbilder zu augmentieren. Dazu kann für den Entrauschungsalgorithmus in Box 3015 ein Variations-Autoencoder-Netzwerk verwendet werden. Durch mehrfaches Abtasten einer latenten Merkmalsrepräsentation des Variations-Autoencoder-Netzwerks pro Trainings-Messbild können so mehrere entrauschte Trainings-Messbilder pro Trainings-Messbild erhalten werden.Optionally, it would be possible in
In Box 3025 werden ein oder mehrere Trainings-Referenzbilder erhalten. Dazu kann eine Bildgebungsvorrichtung geeignet angesteuert werden. Dabei kann für jedes Trainings-Messbild aus Box 3005 ein zugehöriges Trainings-Referenzbild erhalten werden, welches denselben Probenbereich der Probe abbildet. Sofern die Trainings-Messbilder und die Trainings-Referenzbilder nicht durch Verwendung desselben optischen Pfads zur Bildgebung bereits inhärent registriert sind, kann optional eine digitale Registrierung erfolgen, so dass dieselben Probenbereiche am selben Bildort abgebildet werden.In
Zum Erfassen der Trainings-Referenzbilder wird eine Fluoreszenzbildgebung verwendet. Dabei können Belichtungsparameter, zum Beispiel Lichtsensitivitäten des anregenden Lichts oder Belichtungsdauer, so eingestellt werden, dass die Trainings-Referenzbilder ein vergleichsweise geringes Signal-zu-Rausch-Verhältnis aufweisen. Das bedeutet, dass die Lichtexposition der Probe pro Trainings-Referenzbild vergleichsweise klein sein kann. Die Trainings-Referenzbilder weisen also ein vergleichsweise hohes Rauschen auf.Fluorescence imaging is used to acquire the training reference images. Exposure parameters, for example light sensitivities of the exciting light or exposure duration, can be set in such a way that the training reference images have a comparatively low signal-to-noise ratio. This means that the light exposure of the sample per training reference image can be comparatively small. The training reference images therefore have a comparatively high level of noise.
Optional kann in Box 3030 ein Proben-spezifisches selbst-überwachtes Training für die Probe und für den Entrauschungsalgorithmus durchgeführt werden. Für Box 3030 gelten die oben im Zusammenhang mit Box 3010 diskutierten Aspekte. Optionally, in
Ein solches Proben-spezifisches Training ist aber nicht in allen Varianten erforderlich. Beispielsweise könnte der Entrauschungsalgorithmus, der auf die Trainings-Referenzbilder angewendet wird, gleich dem Entrauschungsalgorithmus sein, der auf die Trainings-Messbilder angewendet wird. In einem solchen Fall könnte der Entrauschungsalgorithmus bereits in Box 3010 trainiert worden sein. Alternativ oder zusätzlich wäre es denkbar, dass der Entrauschungsalgorithmus nicht Proben-spezifisch trainiert wird. Das bedeutet, dass der Entrauschungsalgorithmus an einer Referenzprobe trainiert werden kann. Auch in einem solchen Fall wäre ein selbst-überwachtes Training denkbar. Es wäre aber auch ein überwachtes Training denkbar. Zum Beispiel wäre es möglich, dass für die Referenzprobe erste und zweite Entrauschungs-Trainings-Referenzbilder erfasst werden, die Paare bilden (vgl.
In Box 3035 kann dann der Entrauschungsalgorithmus auf die Trainings-Referenzbilder angewendet werden, um entrauschte Trainings-Referenzbilder zu erhalten.In
Wie oben bereits dargelegt, kann derselbe oder ein anderer Entrauschungsalgorithmus auf die Trainings-Referenzbilder und die Trainings-Messbilder angewendet werden.As already explained above, the same or a different denoising algorithm can be applied to the training reference images and the training measurement images.
In Box 3040 wäre es möglich, dass die Trainings-Referenzbilder augmentiert werden. Dabei wäre es denkbar, dass der Entrauschungsalgorithmus ein Variations-Autoencoder-Netzwerk ist. Die latente Merkmalsrepräsentation des Variations-Autoencoder Netzwerks kann dann pro Trainings-Referenzbild mehrfach abgetastet werden, um derart mehrere entrauschte Trainings-Referenzbilder pro Trainings-Referenzbild zu erhalten.In
Beim Entrauschen der Trainings-Referenzbildern können als weiterer Eingabekanal an den Entrauschungsalgorithmus auch die Trainings-Messbilder, die in Box 3005 erfasst werden, übergeben werden. Derart kann ein genaueres Entrauschen ermöglicht werden.When removing noise from the training reference images, the training measurement images that are recorded in
Dann kann in Box 3045 das Training des Vorhersagealgorithmus bzw. genauer dessen Parameter durchgeführt werden (vgl.
Zum Training des Vorhersagealgorithmus können Techniken des Maschinenlernens eingesetzt werden. Z.B. könnte ein KNN trainiert werden. Das bedeutet, dass zum Beispiel ein Gradientenabstiegsverfahren eingesetzt werden kann, um ausgehend von einem Wert einer Verlustfunktion, die basierend auf einem Vergleich (zum Beispiel einem Bildpunkt-Vergleich) zwischen dem jeweiligen entrauschten Trainings-Referenzbild und dem zugehörigen ggf. entrauschten Trainings-Messbild die Parameterwerte des Vorhersagealgorithmus anpasst. Es können unterschiedliche Verlustfunktionen verwendet werden, z.B. eine Summe über die Abweichungsquadrate zwischen Pixelwerten. Es kann eine sog. Rückwärtsanpassung (engl. Backpropagation) zur Anpassung der Parameterwerte verwendet werden.Machine learning techniques can be used to train the prediction algorithm. For example, an ANN could be trained. This means that, for example, a gradient descent method can be used, based on a value of a loss function based on a comparison (e.g. a pixel comparison) between the respective noise-free training reference image and the associated possibly noise-free training measurement image Adjusts parameter values of prediction algorithm. Different loss functions can be used, e.g. a sum over the squared deviations between pixel values. A so-called backpropagation can be used to adapt the parameter values.
Die entrauschten Trainings-Referenzbilder dienen als Grundwahrheit für die Trainings-Messbilder. Um die Paare zwischen Trainings-Referenzbildern und Trainings-Messbildern zu bestimmen, die zum Ermitteln des Werts der Verlustfunktion basierend auf einem entsprechenden Vergleich verwendet werden, kann der Abstand zwischen den Trainings-Referenzbildern und Trainings-Messbildern im Zeitraum und/oder Ortsraum berücksichtigt werden. Zum Beispiel könnte ein Trainings-Referenzbild als Grundwahrheit für ein Trainings-Messbild dienen, wenn das Trainings-Referenzbild und das Trainings-Messbild denselben Bereich der Probe abbilden und mit geringem Zeitabstand erfasst wurden. Ein geringer Zeitabstand kann einen solchen Zeitabstand bezeichnen, der so kurz ist, dass der biologische Veränderungsprozess nicht oder nur mit einer hinreichend geringen Wahrscheinlichkeit auftreten kann. Zum Beispiel kann es erstrebenswert sein, dass ein Zeitabstand zwischen dem Erfassen eines Trainings-Messbildes und dem Erfassen eines Referenzbildes nicht größer als 1 Sekunde ist, optional nicht größer als 500 ms, weiter optional nicht größer als 10 ms. Das beruht auf der Erkenntnis, dass solche Zeitskalen kurz genug sind, sodass keine signifikante Veränderung der Probe zwischen dem Messbild und dem zugehörigen Referenzbild eintritt.The denoised training reference images serve as ground truth for the training measurement images. In order to determine the pairs between training reference images and training measurement images that are used to determine the value of the loss function based on a corresponding comparison, the distance between the training reference images and training measurement images in time and/or space can be taken into account. For example, a training reference image could serve as the ground truth for a training measurement image if the training reference image and the training measurement image depict the same area of the sample and were acquired closely in time. A short time interval can denote such a time interval that is so short that the biological change process cannot occur or can only occur with a sufficiently low probability. For example, it may be desirable that a time interval between capturing a training measurement image and capturing a reference image is no greater than 1 second, optionally no greater than 500 ms, further optionally no greater than 10 ms. This is based on the knowledge that such time scales are short enough so that there is no significant change in the sample between the measurement image and the associated reference image.
Manchmal kann es möglich sein, dass das Trainings-Referenzbild und das Trainings-Messbild inhärent substantiell denselben Bereich der Probe mit derselben Pose abbilden. Dies kann der Fall sein, wenn dieselbe Bildgebungsoptik verwendet wird - das wäre zum Beispiel im Beispiel der
Dabei ist es aber nicht in allen Beispielen notwendig, dass inhärent derselbe Bereich der Probe abgebildet wird oder eine Registrierung zwischen den Trainings-Messbildern und den Trainings-Referenzbildern durchgeführt wird, um korrespondierende Probenorte zu identifizieren. In manchen Beispielen wäre es möglich, dass durch die geeignete Wahl einer entsprechenden Verlustfunktion, die beim Training berücksichtigt wird, grundsätzliche morphologische Eigenschaften des Kontrasts in den basierend auf den Trainings-Messbildern rekonstruierten synthetischen Fluoreszenzbildern und den Trainings-Referenzbildern miteinander verglichen werden, unabhängig von den konkreten mikroskopischen Strukturen, die abgebildet werden. Insbesondere kann dies bei einer Verlustfunktion der Fall sein, die einen Verlustbeitrag ohne Pixel-basierten Vergleich zwischen den synthetischen Fluoreszenzbildern und den Trainings-Referenzbildern verwendet.However, it is not necessary in all examples that the same area of the sample is inherently imaged or that the training measurement images and the training reference images are registered in order to identify corresponding sample locations. In some examples, it would be possible that, through the appropriate choice of a corresponding loss function, which is taken into account during training, basic morphological properties of the contrast in the synthetic fluorescence images reconstructed based on the training measurement images and the training reference images are compared with one another, independently of the concrete microscopic structures that are imaged. In particular, this can be the case for a loss function that uses a loss contribution with no pixel-based comparison between the synthetic fluorescence images and the training reference images.
Nicht-registrierte Bilder können z.B. durch Verwendung von zyklischen Generative Adverserial Netzwerken miteinander verglichen werden. Dort wird ein nicht Pixelbezogener Adverserial Verlustbeitrag bzw. Cycle Verlust in der Verlustfunktion beim Training berücksichtigt.Unregistered images can be compared using cyclic generative adverserial networks, for example. There, a non-pixel-related adverserial loss contribution or cycle loss is taken into account in the loss function during training.
Als weiteres Beispiel für einen nicht Pixel-basierten Verlustbeitrag könnte z.B. ein semantischer Informationsgehalt der synthetischen Fluoreszenzbilder mit den Referenzbildern verglichen werden. Der semantische Informationsgehalt kann durch Auswertung der jeweiligen Bilder bestimmt werden. Der semantische Informationsgehalt kann z.B. eine biologische Eigenschaft der Probe beschreiben. Z.B. könnte der semantische Informationsgehalt ausgewählt sein aus folgender Gruppe: Anzahl oder Flächendichte bestimmter biologischer Strukturen; Durchschnittliche Größe oder Größenverteilung bestimmter biologischer Strukturen; Durchschnittlicher Abstand zwischen bestimmter biologischer Strukturen. Die biologischen Strukturen könnten z.B. Zellbestandteile sein, z.B. Zellkerne oder Mitochondrien. Z.B. könnten solche biologischen Eigenschaften mittels eines Objekterkennungsalgorithmus bestimmt werden. Dieser könnte z.B. wiederum durch ein KNN implementiert sein. Mittels des Trainings in Box 3045 können also Korrelationen zwischen den Trainings-Mess- und Trainings-Referenzbildern gelernt werden.As a further example of a non-pixel-based loss contribution, e.g. a semantic information content of the synthetic fluorescence images could be compared with the reference images. The semantic information content can be determined by evaluating the respective images. The semantic information content can, for example, describe a biological property of the sample. For example, the semantic information content could be selected from the following group: number or areal density of certain biological structures; Average size or size distribution of specific biological structures; Average distance between certain biological structures. The biological structures could be e.g. cell components, e.g. cell nuclei or mitochondria. For example, such biological properties could be determined using an object recognition algorithm. This could, for example, in turn be implemented by an ANN. The training in
Dann werden in Box 3050 Messbilder erhalten (vgl.
In Box 3055 erfolgt dann das Bestimmen von synthetischen Fluoreszenzbildern basierend auf den Messbildern aus Box 3050 und basierend auf dem Vorhersagealgorithmus, der zuvor in Box 3045 trainiert wird. Der Vorhersagealgorithmus erhält also als Eingabe jeweils eins der Messbilder aus Block 3015 und bestimmt ein zugeordnetes Fluoreszenzbild.In
Selbstverständlich können die Merkmale der vorab beschriebenen Ausführungsformen und Aspekte der Erfindung miteinander kombiniert werden. Insbesondere können die Merkmale nicht nur in den beschriebenen Kombinationen, sondern auch in anderen Kombinationen oder für sich genommen verwendet werden, ohne das Gebiet der Erfindung zu verlassen.Of course, the features of the embodiments and aspects of the invention described above can be combined with one another. In particular, the features can be used not only in the combinations described, but also in other combinations or taken on their own, without departing from the field of the invention.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- EP 3553165 A1 [0007]EP 3553165 A1 [0007]
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021122720.8A DE102021122720A1 (en) | 2021-09-02 | 2021-09-02 | SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021122720.8A DE102021122720A1 (en) | 2021-09-02 | 2021-09-02 | SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021122720A1 true DE102021122720A1 (en) | 2023-03-02 |
Family
ID=85174941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021122720.8A Pending DE102021122720A1 (en) | 2021-09-02 | 2021-09-02 | SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021122720A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018104616A1 (en) | 2018-02-28 | 2019-08-29 | Carl Zeiss Microscopy Gmbh | A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data |
EP3553165A1 (en) | 2016-12-06 | 2019-10-16 | Fujifilm Corporation | Cell image evaluation device and cell image evaluation control program |
-
2021
- 2021-09-02 DE DE102021122720.8A patent/DE102021122720A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3553165A1 (en) | 2016-12-06 | 2019-10-16 | Fujifilm Corporation | Cell image evaluation device and cell image evaluation control program |
DE102018104616A1 (en) | 2018-02-28 | 2019-08-29 | Carl Zeiss Microscopy Gmbh | A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data |
Non-Patent Citations (7)
Title |
---|
BROADDUS, Coleman; KRULL, Alexander; WEIGERT, Martin; SCHMIDT, Uwe; MYERS, Gene: Removing structured noise with self-supervised blind-spot networks. In: IEEE Int. Symp.Biomedical Imaging (ISBI), April 2020, Iowa City, IA, USA, 2020, pp.159-163. URL: doi.org/10.1109/ISBI45749.2020.9098336 |
CHRISTIANSEN, Eric M.; YANG, Samuel J.; ANDO, Michael; JAVAHERIAN, Ashkan; SKIBINSKI, Gaia; LIPNICK, Scott; MOUNT, Elliot; O’NEIL, Alison; SHAH, Kevan; LEE, Alicia K.; GOYAL, Piyush; FEDUS, William; POPLIN, Ryan; ESTEVA, Andre; BERNDL, Marc; RUBIN, Lee L; NELSON, Philip; FINKBEINER, Steven: In Silico labeling: Predicting fluorescent labels in unlabeled images. In: Cell, vol.173, 2018, no.3, S.792-803. URL: doi.org/10.1016/j.cell.2018.03.040 |
KRULL, Alexander; BUCHHOLZ, Tim-Oliver; JUG, Florian: Noise2Void - Learning denoising from single noisy images. In: IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 15.-20. Juni 2019, Long Beach, CA, USA, pp.2124-2132. URL: doi.org/10.1109/CVPR.2019.00223 |
KRULL, Alexander; VICAR, Tomas; PRAKASH, Mangal; LALIT, Manan; JUG, Florian Jug: Probabilistic noise2void: Unsupervised content-aware denoising. In: Frontiers in Computer Science, vol.2, 2020, no.5, pp.1-9. URL: doi.org/10.3389/fcomp.2020.00005 |
Noise reduction. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 08.06.2021. URL: https://en.wikipedia.org/w/index.php?title=Noise_reduction&oldid=1027590235 [abgerufen am 23.08.2022] |
PRAKASH, Mangal; DELBRACIO, Mauricio; MILANFAR, Peyman: Removing pixel noises and spatial artifacts with generative diversity denoising methods. Ver.1, 03.04.2021. URL: https://arxiv.org/abs/2104.01374v1 |
PRAKASH, Mangal; KRULL, Alexander; JUG, Florian: DivNoising: Diversity denoising with fully convolutional variational autoencoders. ICLR 2021. Ver.1, 10.06.2020. URL: https://arxiv.org/abs/2006.06072v1 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2660639B1 (en) | Method and apparatus for single-particle localization using wavelet analysis | |
Coupé et al. | A CANDLE for a deeper in vivo insight | |
US8639043B2 (en) | Classifying image features | |
Güraksin et al. | Underwater image enhancement based on contrast adjustment via differential evolution algorithm | |
DE102009005953A1 (en) | Method and system for characterizing a sample by means of imaging fluorescence microscopy | |
DE102018104616A1 (en) | A method of dividing one or more images of a sample into color-separated image data, computer program product, computer-readable medium on which the computer program product is stored, and a system for splitting one or more images of a sample into color-separated image data | |
DE112019005143T5 (en) | SYSTEM FOR CO-REGISTRATION OF MEDICAL IMAGES USING A CLASSIFICATOR | |
DE102021100444A1 (en) | MICROSCOPY SYSTEM AND METHOD FOR EVALUATION OF IMAGE PROCESSING RESULTS | |
EP4229397A1 (en) | Method and fluorescence microscope for determining the location of individual fluorescent dye molecules by means of adaptive scanning | |
DE102020105697B3 (en) | Computer-implemented method for finding possible artifacts in a virtually colored histological image | |
DE102021122720A1 (en) | SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SAVING CAPTURE OF REFERENCE IMAGES | |
EP3430565A1 (en) | Method for examining distributed objects by segmenting an overview image | |
CN115293981A (en) | Denoising and super-resolution reconstruction method and system for structured light illumination fluorescence microscopic image | |
DE102021114307A1 (en) | DIGITAL CONTRAST POST-PROCESSING OF MICROSCOPY IMAGES | |
DE102021114288A1 (en) | SYNTHETIC FLUORESCENCE IMAGES WITH SAMPLE-SPECIFIC REFERENCE | |
Rebollo et al. | Automated macro approach to quantify synapse density in 2D confocal images from fixed immunolabeled neural tissue sections | |
EP4016081A1 (en) | Method and device for detecting a presence of a fluorescence pattern type on an organ segment by means of immunofluorescence microscopy | |
Mannam | Overcoming fundamental limits of three-dimensional in vivo fluorescence imaging using machine learning | |
Zang et al. | Fast fluorescence lifetime imaging analysis via extreme learning machine | |
DE10065783B4 (en) | Method, arrangement and system for determining process variables | |
CN113191981B (en) | Deep two-photon calcium imaging method and device based on non-negative matrix decomposition | |
US20230316595A1 (en) | Microscopy Virtual Staining Systems and Methods | |
WO2022253574A1 (en) | Method and device for recording training data | |
DE102022114888A1 (en) | Method for evaluating a consistency of a virtual processing image, method for training a machine learning system with a processing model, machine learning system, computer program product, and image processing system | |
DE102005062673A1 (en) | Fluorochrome movement parameter determining method for computer based evaluation unit, involves calculating rate of deviation between simulated measurement series and associated series, and determining parameter from standard deviation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009000000 Ipc: G06V0010000000 |
|
R163 | Identified publications notified |