WO2021228894A1 - Image analysis method in microscopy - Google Patents

Image analysis method in microscopy Download PDF

Info

Publication number
WO2021228894A1
WO2021228894A1 PCT/EP2021/062539 EP2021062539W WO2021228894A1 WO 2021228894 A1 WO2021228894 A1 WO 2021228894A1 EP 2021062539 W EP2021062539 W EP 2021062539W WO 2021228894 A1 WO2021228894 A1 WO 2021228894A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
type
image recording
simulated
differences
Prior art date
Application number
PCT/EP2021/062539
Other languages
German (de)
French (fr)
Inventor
Manuel AMTHOR
Daniel Haase
Original Assignee
Carl Zeiss Microscopy Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy Gmbh filed Critical Carl Zeiss Microscopy Gmbh
Priority to CN202180034442.6A priority Critical patent/CN115552462A/en
Publication of WO2021228894A1 publication Critical patent/WO2021228894A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the invention relates to an image evaluation method in microscopy according to the preamble of the independent claim.
  • Image evaluation methods are used in microscopy, among other things, to find areas of interest and / or unusual areas and differences in microscope images.
  • faulty sample preparations can be recognized or an atypical reaction (anomalies) of certain sample areas can be recorded.
  • Approaches such as Novelty Detection or Autoencoder are known, for example.
  • an image of the sample can be simulated in another type of image recording.
  • Ounkomol et al. 2018; Nature methods 11: 917) a simulation of a 3D fluorescence image based on a transmitted light image or the prediction of an immunofluorescence image based on an electron microscope image.
  • the quality of the simulation results is assessed on the basis of the degree of correspondence between a simulated image and an actual image of the other image recording type.
  • the invention is based on the object of proposing a possibility by means of which deviations from structures of a sample and their images can be recognized.
  • the object is achieved in a first alternative with an image evaluation method in microscopy, in which a first image of a sample is recorded with a first type of image recording and the image values are stored. Using the image values, an image of the sample or the same sample area is predicted in a second type of image recording. In addition, a second image of the sample or of the same sample area is recorded and stored with the second type of image recording.
  • the method is characterized in that the predicted (henceforth also: simulated) image of the second image recording type and the second image recorded with the second image recording type are compared with one another in order to find differences between them. The differences found are recorded, analyzed and assessed.
  • the first image recorded with the first type of image recording serves as an output data record for generating a predicted or simulated image.
  • the terms of prediction or simulation are understood to be synonymous in the sense of an image or a virtual projection using a mathematical function.
  • the order in which the first or second image is captured is not decisive.
  • the functions, rules or mathematical and / or logical models on which the prediction or simulation is based are also summarized under the term simulation models.
  • differences between the simulated second image and the second image can be recognized better or even at all if similarities and differences between at least two types of image recording are exploited and taken into account. Differences can be based, for example, on the noise that usually occurs in image and signal processing. Artifacts of the sample treatment, for example the sample preparation, the sample coloring or the sample marking, also represent differences and are also referred to as anomalies. Anomalies are, for example, incorrectly colored cells or cell structures. Differences (abnormalities) can also arise from cells or cell constituents have assumed or not assumed color in an undesired or unexpected manner. Furthermore, a dye that is used can exhibit unexpected behavior, as can be the case, for example, due to the bleaching behavior of a fluorescent dye.
  • Differences can also be caused by structurally conspicuous sample areas, e.g. B. deformed cell areas may be conditional. If the presence or absence of a known structure is viewed as a difference, this can be recognized and recorded by means of the method according to the invention. As a result, the method according to the invention advantageously differs from known methods such as, for example, auto-encoders or one-class classification.
  • Differences can be of particular interest to the user.
  • a region of the sample in which differences occur can therefore also be identified and identified as a so-called ROI (region of interest).
  • ROI region of interest
  • anomalies and ROI are simply referred to as differences.
  • the first and the second type of image recording can, for example, be different contrasting methods and / or different channels of a contrasting method.
  • Different channels can be fluorescence channels, for example, by means of which different structures can be imaged.
  • an image of a DAPI fluorescence channel (DAPI is the abbreviation for a marker for AT-rich region of DNA) can be generated as a simulated second image based on a first image of a fluorescence channel showing fluorescence-labeled microtubules.
  • the types of image recording from which the simulation is based, or which are a result of a simulation can be, for example, the contrasting methods brightfield, darkfield, DIC (differential interference contrast) and fluorescence methods. In the latter, structures of the sample are specifically provided with fluorescent markers and their fluorescent light is detected.
  • the image data of the first and second types of image recording can be, for example, 2D data, 3D data and / or time series data.
  • a (first) simulated image can be generated and provided on the basis of the first image.
  • a (second) simulated image can be generated and provided.
  • a simulated image can be generated that corresponds to the first image of the first image recording type.
  • the first simulated image and the second simulated image can be mapped onto the image of the second image recording type or onto the image of the first image recording type.
  • analyzes are carried out starting from the first image of the first image recording type and starting from the second image of the second image recording type.
  • a second alternative of the method according to the invention advantageously manages without the acquisition of the image of the second image recording type.
  • a simulated image of the second type of image recording is predicted. This in turn is used as an output for predicting a simulated image of the first type of image recording.
  • predictions are made in a loop.
  • the image of the first type of image recording serving as the output data set is compared with the simulated image of the first type of image recording.
  • the approach of this refinement is that the simulation models used cannot predict occurring anomalies, so that when comparing the image of the first image recording type with the simulated image of the first image recording type There are differences that can be recorded and evaluated. Results of the comparison can also be used to assess the suitability of the simulation model.
  • the image data of the images in the at least two image recording types can also already be held as stored data and can be called up and processed on request. The same applies to a simulated image based on the image of the first image recording type and optionally for the simulated image of the second image recording type.
  • the image data of the images in the at least two types of image recording can be used, for example, to be improved, reconstructed or converted into a different contrast, optionally by means of machine learning.
  • context information for example on the type of sample, the sample color, the contrast method, etc., can be included in further refinements of the method.
  • the image of the first image recording type can optionally also be taken into account.
  • more than two types of image recording can also be used.
  • the probability of finding differences, in particular of anomalies and / or areas of interest is advantageously increased or the presence of specific anomalies can be checked through a targeted selection of the types of image recording used.
  • the sample can be changed between the recordings of the images of the different types of image recording. It is possible for the sample to be colored differently, for example chemically, in the meantime.
  • One example can be such a staining with flematoxylin-eosin (HE staining).
  • these can be assigned to categories that were previously defined in one embodiment of the method. Such categories are, for example, simulation errors; simulated structures, however, not recorded in the second image; and / or the presence / absence of at least one previously defined structure in the second image. At least one category can also contain those differences that are classified as noise artifacts, for example, and should no longer be taken into account in the further analyzes.
  • a difference image can be generated from the simulated image of the second type of image recording and the second image recorded with the second type of image recording and shown on a display, e.g. B. a monitor, are displayed.
  • This difference image can be evaluated by a user with regard to differences that occur.
  • the prediction or simulation of the simulated image can also take place using machine learning methods.
  • image-to-image images known from the prior art can be used, for example.
  • Such an image is created on the basis of a number N of corresponding image pairs learned both types of image acquisition.
  • an image of a first type of image recording and l B denotes an image of a second type of image recording.
  • An image simulated on the basis of an image is also referred to below with the index.
  • the trained model for the image-to-image mapping can then usually mimic the correspondences between the two types of image recording in the training data very well, so the prediction> B is very similar to the true image IB. Cases that deviate greatly from this training data can generally no longer be well covered by the model, and consequently lead to a discrepancy between the simulated image> B and the recorded image IB, which is ultimately the basis of the method according to the invention presented here forms.
  • differences in particular anomalies, can be recognized automatically by means of image analysis.
  • simple metrics between the simulated image> B and the second image 1 B can be quantified on the basis of the difference, the amount, at least one correlation, the variance, the application of threshold values, etc.
  • machine learning can be used, for example to use metrics for image evaluation.
  • a classification model when used, it is possible to predict the occurrence of an anomaly / a difference in an image (yes / no decision). Predictions can also be made about the type of difference (e.g. no difference; type 1; type 2; ).
  • a segmentation model it is possible, for example, to segment the image into areas without differences (“normal”) and into areas with differences (“abnormal”).
  • the image can be segmented into areas which are assigned to predetermined categories of differences / anomaly types (e.g. no difference; type 1; type 2; ).
  • Differences can be recognized as such or even with a finer granularity (type 1; type 2; 7) if the image data (detection) are consulted and used for the evaluation.
  • a difference can be found computationally, for example by calculating regressions, and, if necessary, further specified. For example, the proportion of cells that are affected by an anomaly or the image coordinates of the differences can be used.
  • unsupervised learning for example, clustering algorithms or "classic” anomaly detection, for example by an autoencoder, which uses both the predicted and the true image as input, can be used.
  • the data of the simulated images> B and the data of the second images 1 B can serve as input values.
  • the data of the first images as well as manually or automatically determined context information such as the type of sample and information about the contrast methods (type, dyes used, wavelengths, etc.) and / or information about the recording conditions (lens, immersion liquid, etc.) can be entered.
  • the method according to the invention can additionally or alternatively be used for the detection, analysis and evaluation of differences found on the basis of the comparison of the simulated image ( ⁇ B ) of the second image recording type with the image (l B ) of the second image recording type for an evaluation of the quality of the simulation model.
  • a suitability of the simulation model for the prediction of a certain type of image recording and / or a suitability for the imaging of a certain type of sample by checking whether predetermined quality criteria are met.
  • a currently achieved training state of the simulation model used to predict the respective simulated image subjected to the test can be determined as a function of a result of the test for compliance with the quality criteria.
  • This determined training status is advantageously shown on a display.
  • a query for the input or selection of at least one control command by means of which, for example, further iterations of the training sequence of the simulation model in question can be triggered if the current training status is not assessed to be sufficient.
  • the determined current training status can be displayed to the user and, in the event of an insufficient training status, training data of the current sample can be automatically recorded again and the simulation model retrained.
  • the information made available to the user can also give indications of artifacts to be expected in the respective simulated images, in particular if the training state of the simulation model is classified as unsuitable or only conditionally suitable.
  • a microscope is sufficient that allows image recordings with at least two types of contrast or with at least two channels of one type of contrast.
  • an evaluation unit for example in the form of a computer, is required which is configured to carry out the image evaluation method according to the invention.
  • a display can be present on which, for example, the difference image is displayed.
  • the described invention relates to a method which can automatically recognize anomalies or areas of interest in images of a sample.
  • anomaly detection methods e.g. autoencoder, one-class classification
  • Finding and optionally classifying differences such as anomalies and / or areas of interest is a technical challenge that will become even more relevant in the future due to the ever increasing amounts of data.
  • a great advantage of the method according to the invention is that the simulated image data is compared with actually measured target data (so-called “inference”). However, this comparison makes the evaluation of the respective model quality more precise and reliable. In addition, it is independent of the evaluation. In contrast to the method according to the invention, in methods according to the prior art, input data or output data of the model are evaluated directly (commonly referred to as “validation”). It is assessed whether these match the input or output distribution.
  • FIG. 1 shows a microscope and a schematic sequence of a first embodiment of the image evaluation method according to the invention.
  • FIG. 2 shows a microscope and a schematic sequence of a second embodiment of the image evaluation method according to the invention.
  • a first image of a first type of image is captured by means of a microscope 1, which allows image recordings in at least two types of contrast or additionally or alternatively in at least two channels of one type of contrast.
  • the microscope 1 is connected to an evaluation unit 2 in the form of a computer and a monitor as a display 3.
  • the evaluation unit 2 additionally has a data memory (not shown) and is configured in such a way that, starting from the first image, it simulates an image ⁇ B by means of a simulation model as if the simulated image I A ⁇ B were with a second type of image recording, for example with a second type of contrast such as B. as a fluorescent image would have been recorded.
  • the data of the simulated image I A ⁇ B are stored.
  • Fig. 1 it is indicated that the structures with little puncturing present in the first image are no longer present in the simulated image I A ⁇ B.
  • the decision criteria that lead to the omission of these structures can be based on a machine learning process (machine learning).
  • a second image B l is the sample in the secondssenabilityart (eg., Fluorescence image) detected and stored.
  • the simulated image I A ⁇ B and the second image l B are then compared with one another, for example by means of the correspondingly configured evaluation unit 2, in order to find differences between them.
  • a difference image I Diff is generated, for example, in which any differences found are visualized.
  • the difference between the simulated image I A ⁇ B and the second image l B is a structure provided with network-like hatching in the lower right part of the difference image l Diff. This structure was predicted for the simulated image ⁇ B , can but in the second image l B actually cannot be confirmed.
  • the structure embodying the difference cannot be detected with the second type of image recording, for example due to insufficient sample preparation. It could also be a structure type (shown with dotted lines in the image) of the sample which cannot be distinguished from other structure types (also shown with dotted lines in the image) with the first type of image recording.
  • the difference can be categorized manually or - preferably - automatically using existing and retrievable stored prior information and / or using the characteristics of the types of image recording.
  • a second alternative of the method according to the invention comprises the prediction of a simulated image I A ⁇ B of the second type of image recording by means of a simulation model based on the image of the first type of image recording.
  • the simulated image I A ⁇ B of the second type of image recording is in turn used in a further step as the basis for predicting a simulated image (IA ⁇ B)> IA of the first type of image recording.
  • the simulated image (IA ⁇ B)> IA of the first type of image recording thus obtained is compared with the image I A of the first type of image recording.
  • Existing differences can be recorded and analyzed from the comparison and conclusions can be drawn about the suitability of the simulation model used for predicting the simulated image I A ⁇ B of the second type of image recording and the simulated image ( ⁇ B)> IA of the first type of image recording.
  • Compliance with or failure to meet certain quality criteria in advance can serve as a decision-making basis from a comparison.
  • This refinement of the method does not require any actual acquisition of the second image 1 B , but advantageously uses its virtual equivalent.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to an image analysis method in microscopy, in which method a first image (IA) of a specimen is recorded with a first image recording type and the image data is stored, wherein an image (IA→B) of the specimen with a second image recording type is simulated using the image data. The method also records a second image with the second image recording type and stores same. The method compares the simulated image of the second image recording type and the second recorded image to find differences which are captured, analysed and evaluated.

Description

Bildauswertungsverfahren in der Mikroskopie Image evaluation methods in microscopy
Die Erfindung betrifft ein Bildauswertungsverfahren in der Mikroskopie entsprechend dem Oberbegriff des unabhängigen Anspruchs. The invention relates to an image evaluation method in microscopy according to the preamble of the independent claim.
Bildauswertungsverfahren werden in der Mikroskopie unter anderem zum Auffinden interessierender und/oder ungewöhnlicher Bereiche und von Unterschieden in Mikroskopbildern angewendet. Image evaluation methods are used in microscopy, among other things, to find areas of interest and / or unusual areas and differences in microscope images.
Beispielsweise können anhand von Unterschieden fehlerhafte Probenpräparationen erkannt oder eine untypische Reaktion (Anomalien) gewisser Probenbereiche erfasst werden. Bekannt sind dazu beispielsweise Ansätze wie Novelty Detection oder Autoencoder. For example, on the basis of differences, faulty sample preparations can be recognized or an atypical reaction (anomalies) of certain sample areas can be recorded. Approaches such as Novelty Detection or Autoencoder are known, for example.
Aus dem Stand der Technik ist ebenfalls bekannt, dass auf der Grundlage von Bilddaten einer Bildaufnahmeart ein Bild der Probe in einer anderen Bildaufnahmeart simuliert werden kann. So beschreiben Ounkomol et al. (2018; Nature methods 11: 917) eine Simulation eines 3D- Fluoreszenbildes ausgehend von einem Durchlichtbild oder die Vorhersage eines Immunofluoreszenzbildes basierend auf einem Elektronenmikroskopiebild. Die Qualität der Simulationsergebnisse wird anhand des Grads der Übereinstimmung eines simulierten Bildes mit einem tatsächlichen Bild der anderen Bildaufnahmeart bewertet. It is also known from the prior art that, on the basis of image data of one type of image recording, an image of the sample can be simulated in another type of image recording. For example, Ounkomol et al. (2018; Nature methods 11: 917) a simulation of a 3D fluorescence image based on a transmitted light image or the prediction of an immunofluorescence image based on an electron microscope image. The quality of the simulation results is assessed on the basis of the degree of correspondence between a simulated image and an actual image of the other image recording type.
Der Erfindung liegt die Aufgabe zugrunde eine Möglichkeit vorzuschlagen, mittels der Abweichungen von Strukturen einer Probe und deren Abbildungen erkannt werden können. The invention is based on the object of proposing a possibility by means of which deviations from structures of a sample and their images can be recognized.
Die Aufgabe wird in einer ersten Alternative mit einem Bildauswertungsverfahren in der Mikroskopie gelöst, bei dem mit einer ersten Bildaufnahmeart ein erstes Bild einer Probe aufgenommen wird und die Bildwerte gespeichert werden. Anhand der Bildwerte wird ein Bild der Probe beziehungsweise des gleichen Probenbereichs in einer zweiten Bildaufnahmeart vorhergesagt. Zudem wird ein zweites Bild der Probe beziehungsweise des gleichen Probenbereichs mit der zweiten Bildaufnahmeart aufgenommen und gespeichert. The object is achieved in a first alternative with an image evaluation method in microscopy, in which a first image of a sample is recorded with a first type of image recording and the image values are stored. Using the image values, an image of the sample or the same sample area is predicted in a second type of image recording. In addition, a second image of the sample or of the same sample area is recorded and stored with the second type of image recording.
Gekennzeichnet ist das Verfahren dadurch, dass das vorhergesagte (fortan auch: simulierte) Bild der zweiten Bildaufnahmeart und das mit der zweiten Bildaufnahmeart aufgenommene zweite Bild miteinander verglichen werden, um Unterschiede zwischen diesen aufzufinden. Die aufgefundenen Unterschiede werden erfasst, analysiert und bewertet. The method is characterized in that the predicted (henceforth also: simulated) image of the second image recording type and the second image recorded with the second image recording type are compared with one another in order to find differences between them. The differences found are recorded, analyzed and assessed.
Das mit der ersten Bildaufnahmeart aufgenommene erste Bild dient als Ausgangsdatensatz für die Erzeugung eines vorhergesagten oder simulierten Bildes. Die Begriffe der Vorhersage oder Simulation werden im Zusammenhang mit der Erfindung gleichbedeutend im Sinne einer Abbildung oder einer virtuellen Projektion unter Anwendung einer mathematischen Funktion verstanden. Die Reihenfolge der Erfassung von erstem beziehungsweise zweitem Bild ist nicht entscheidend. Die der Vorhersage oder Simulation zu Grunde liegenden Funktionen, Regeln beziehungsweise mathematischen und/oder logischen Modelle werden auch unter dem Begriff der Simulationsmodelle zusammengefasst. The first image recorded with the first type of image recording serves as an output data record for generating a predicted or simulated image. In connection with the invention, the terms of prediction or simulation are understood to be synonymous in the sense of an image or a virtual projection using a mathematical function. The order in which the first or second image is captured is not decisive. The functions, rules or mathematical and / or logical models on which the prediction or simulation is based are also summarized under the term simulation models.
Es wurde erkannt, dass sich Unterschiede zwischen dem simulierten zweiten Bild und dem zweiten Bild besser oder sogar überhaupt erst erkennen lassen, wenn zwischen mindestens zwei Bildaufnahmearten bestehende Gemeinsamkeiten und Unterschiede ausgenutzt und berücksichtigt werden. Unterschiede können beispielsweise auf dem üblicherweise in der Bild- und Signalverarbeitung auftretendem Rauschen beruhen. Artefakte der Probenbehandlung, beispielsweise der Probenpräparation, der Probenfärbung oder der Probenmarkierung, stellen ebenfalls Unterschiede dar und werden auch als Anomalien bezeichnet. Anomalien sind zum Beispiel fehlerhaft gefärbte Zellen oder Zellstrukturen. Unterschiede (Anomalien) können auch daher rühren, dass Zellen oder Zellbestandteile in unerwünschter beziehungsweis in unerwarteter Weise Färbung angenommen beziehungsweise nicht angenommen haben. Ferner kann ein verwendeter Farbstoff ein unerwartetes Verhalten zeigen, wie dies beispielsweise durch das Bleichverhalten eines Fluoreszenzfarbstoffes gegeben sein kann. It was recognized that differences between the simulated second image and the second image can be recognized better or even at all if similarities and differences between at least two types of image recording are exploited and taken into account. Differences can be based, for example, on the noise that usually occurs in image and signal processing. Artifacts of the sample treatment, for example the sample preparation, the sample coloring or the sample marking, also represent differences and are also referred to as anomalies. Anomalies are, for example, incorrectly colored cells or cell structures. Differences (abnormalities) can also arise from cells or cell constituents have assumed or not assumed color in an undesired or unexpected manner. Furthermore, a dye that is used can exhibit unexpected behavior, as can be the case, for example, due to the bleaching behavior of a fluorescent dye.
Unterschiede können auch durch strukturell auffällige Probenbereiche, z. B. verformte Zellbereiche, bedingt sein. Wird das Vorhandensein beziehungsweise Nichtvorhandensein einer bekannten Struktur als Unterschied angesehen, so kann dies mittels des erfindungsgemäßen Verfahrens erkannt und erfasst werden. Dadurch unterscheidet sich das erfindungsgemäße Verfahren vorteilhaft von bekannten Methoden wie zum Beispiel Autoencodern oder One-Class-Classification. Differences can also be caused by structurally conspicuous sample areas, e.g. B. deformed cell areas may be conditional. If the presence or absence of a known structure is viewed as a difference, this can be recognized and recorded by means of the method according to the invention. As a result, the method according to the invention advantageously differs from known methods such as, for example, auto-encoders or one-class classification.
Unterschiede können für den Nutzer von besonderem Interesse sein. Ein Bereich der Probe, in dem Unterschiede auftreten, kann daher auch als sogenannte ROI (region of interest) erkannt und gekennzeichnet werden. Im Rahmen dieser Beschreibung werden Anomalien und ROI vereinfachend als Unterschiede bezeichnet. Differences can be of particular interest to the user. A region of the sample in which differences occur can therefore also be identified and identified as a so-called ROI (region of interest). In the context of this description, anomalies and ROI are simply referred to as differences.
Die erste und die zweite Bildaufnahmeart können beispielsweise unterschiedliche Kontrastverfahren und/oder verschiedene Kanäle eines Kontrastverfahrens sein. Unterschiedliche Kanäle können beispielsweise Fluoreszenzkanäle sein, mittels denen unterschiedliche Strukturen abgebildet werden können. So kann beispielsweise ein Bild eines DAPI-Fluoreszenzkanals (DAPI ist die Abkürzung für einen Marker für AT-reiche Region der DNS) als simuliertes zweites Bild ausgehend von einem ersten Bild eines Fluoreszenzkanals erzeugt werden, der fluoreszenzmarkierte Mikrotubuli zeigt. The first and the second type of image recording can, for example, be different contrasting methods and / or different channels of a contrasting method. Different channels can be fluorescence channels, for example, by means of which different structures can be imaged. For example, an image of a DAPI fluorescence channel (DAPI is the abbreviation for a marker for AT-rich region of DNA) can be generated as a simulated second image based on a first image of a fluorescence channel showing fluorescence-labeled microtubules.
Die Bildaufnahmearten, von denen ausgehend die Simulation erfolgt, beziehungsweise die ein Ergebnis einer Simulation sind, können beispielsweise die Kontrastverfahren Hellfeld, Dunkelfeld, DIC (differentieller Interferenzkontrast) und Fluoreszenzverfahren sein. In Letzteren werden Strukturen der Probe spezifisch mit Fluoreszenzmarkern versehen und deren Fluoreszenzlicht detektiert. The types of image recording from which the simulation is based, or which are a result of a simulation, can be, for example, the contrasting methods brightfield, darkfield, DIC (differential interference contrast) and fluorescence methods. In the latter, structures of the sample are specifically provided with fluorescent markers and their fluorescent light is detected.
Die Bilddaten der ersten und zweiten Bildaufnahmearten können zum Beispiel 2D-Daten, 3D-Daten und/oder Zeitreihen-Daten sein. The image data of the first and second types of image recording can be, for example, 2D data, 3D data and / or time series data.
In einer weiteren Ausführungsmöglichkeit des Verfahrens kann ausgehend von dem ersten Bild ein (erstes) simuliertes Bild erzeugt und bereitgestellt werden. Zusätzlich kann ausgehend von dem Bild der zweiten Bildaufnahmeart ein (zweites) simuliertes Bild erzeugt und bereitgestellt werden. Dabei kann ausgehend von dem zweiten Bild der zweiten Bildaufnahmeart ein simuliertes Bild erzeugt werden, dass dem ersten Bild der ersten Bildaufnahmeart entspricht. Das erste simulierte Bild und das zweite simulierte Bild können auf das Bild der zweiten Bildaufnahmeart beziehungsweise auf das Bild der ersten Bildaufnahmeart abgebildet werden. In dieser Ausgestaltungsmöglichkeit des erfindungsgemäßen Verfahrens werden also ähnlich einer Kreuzkorrelation Analysen ausgehend von dem ersten Bild der ersten Bildaufnahmeart und ausgehend von dem zweiten Bild der zweiten Bildaufnahmeart durchgeführt. In a further possible embodiment of the method, a (first) simulated image can be generated and provided on the basis of the first image. In addition, based on the image of the second type of image recording, a (second) simulated image can be generated and provided. Starting from the second image of the second image recording type, a simulated image can be generated that corresponds to the first image of the first image recording type. The first simulated image and the second simulated image can be mapped onto the image of the second image recording type or onto the image of the first image recording type. In this embodiment of the method according to the invention, similar to a cross-correlation, analyzes are carried out starting from the first image of the first image recording type and starting from the second image of the second image recording type.
Eine zweite Alternative des erfindungsgemäßen Verfahrens kommt vorteilhaft ohne die Erfassung des Bildes der zweiten Bildaufnahmeart aus. Ausgehend von einem Bild der ersten Bildaufnahmeart wird ein simuliertes Bild der zweiten Bildaufnahmeart vorhergesagt. Diese wiederum wird als Ausgang für die Vorhersage eines simulierten Bildes der ersten Bildaufnahmeart verwendet. Vereinfacht ausgedrückt werden Vorhersagen in einer Schleife vorgenommen. Das als Ausgangsdatensatz dienende Bild der ersten Bildaufnahmeart wird mit dem simulierten Bild der ersten Bildaufnahmeart verglichen. Der Ansatz dieser Ausgestaltung ist, dass die genutzten Simulationsmodelle auftretende Anomalien nicht Vorhersagen können, sodass es beim Vergleich des Bildes der ersten Bildaufnahmeart mit dem simulierten Bild der ersten Bildaufnahmeart zu Unterschieden kommt, die erfasst und ausgewertet werden können. Ergebnisse des Vergleichs können auch für eine Bewertung der Eignung des Simulationsmodells genutzt werden. A second alternative of the method according to the invention advantageously manages without the acquisition of the image of the second image recording type. Starting from an image of the first type of image recording, a simulated image of the second type of image recording is predicted. This in turn is used as an output for predicting a simulated image of the first type of image recording. In simple terms, predictions are made in a loop. The image of the first type of image recording serving as the output data set is compared with the simulated image of the first type of image recording. The approach of this refinement is that the simulation models used cannot predict occurring anomalies, so that when comparing the image of the first image recording type with the simulated image of the first image recording type There are differences that can be recorded and evaluated. Results of the comparison can also be used to assess the suitability of the simulation model.
Die Bilddaten der Bilder in den mindestens zwei Bildaufnahmearten können auch bereits als gespeicherte Daten vorgehalten und auf Anforderung abgerufen und verarbeitet werden. Das gleiche gilt für ein simuliertes Bild basierend auf dem Bild der ersten Bildaufnahmeart und optional für das simulierte Bild der zweiten Bildaufnahmeart. Die Bilddaten der Bilder in den mindestens zwei Bildaufnahmearten können beispielsweise genutzt werden, um, optional mittels machine learning, verbessert, rekonstruiert oder in einen anderen Kontrast überführt zu werden. The image data of the images in the at least two image recording types can also already be held as stored data and can be called up and processed on request. The same applies to a simulated image based on the image of the first image recording type and optionally for the simulated image of the second image recording type. The image data of the images in the at least two types of image recording can be used, for example, to be improved, reconstructed or converted into a different contrast, optionally by means of machine learning.
Für die Vorhersage respektive Simulation der Bilder können in weiteren Ausgestaltungen des Verfahrens Kontextinformationen beispielsweise zur Probenart, zur Probenfärbung, zur Kontrastmethode etc. mit einbezogen werden. For the prediction or simulation of the images, context information, for example on the type of sample, the sample color, the contrast method, etc., can be included in further refinements of the method.
Für die Analyse und den Schritt der Ermittlung von Unterschieden kann neben dem Bild der zweiten Bildaufnahmeart und dem simulierten Bild optional auch das Bild der ersten Bildaufnahmeart berücksichtigt werden. For the analysis and the step of ascertaining differences, in addition to the image of the second image recording type and the simulated image, the image of the first image recording type can optionally also be taken into account.
In weiteren Ausgestaltungen des Bildauswertungsverfahrens können auch mehr als zwei Bildaufnahmearten verwendet werden. Auf diese Weise wird die Wahrscheinlichkeit des Auffindens von Unterschieden, insbesondere von Anomalien und/oder interessierenden Bereichen vorteilhaft erhöht beziehungsweise kann durch eine gezielte Auswahl der genutzten Bildaufnahmearten das Vorhandensein spezifischer Anomalien überprüft werden. In further refinements of the image evaluation method, more than two types of image recording can also be used. In this way, the probability of finding differences, in particular of anomalies and / or areas of interest, is advantageously increased or the presence of specific anomalies can be checked through a targeted selection of the types of image recording used.
Einer der Vorteile des erfindungsgemäßen Verfahrens besteht darin, dass die Probe zwischen den Aufnahmen der Bilder der unterschiedlichen Bildaufnahmearten verändert werden kann. So ist es möglich, dass die Probe zwischenzeitlich unterschiedlich, beispielsweise chemisch, (an-)gefärbt wird. Ein Beispiel kann eine solche Färbung mit Flämatoxylin-Eosin (HE-Färbung) erfolgen. One of the advantages of the method according to the invention is that the sample can be changed between the recordings of the images of the different types of image recording. It is possible for the sample to be colored differently, for example chemically, in the meantime. One example can be such a staining with flematoxylin-eosin (HE staining).
Werden im Zuge des Vergleichens Unterschiede aufgefunden, so können diese in einer Ausgestaltung des Verfahrens zuvor festgelegten Kategorien zugewiesen werden. Solche Kategorien sind beispielsweise Simulationsfehler; simulierte, jedoch im zweiten Bild nicht erfasste Strukturen; und/oder das Vorhandensein/Nichtvorhandensein wenigstens einer vorab definierten Struktur im zweiten Bild. Wenigstens eine Kategorie kann auch diejenigen Unterschiede beinhalten, die beispielsweise als Rauschartefakte eingeordnet werden und bei den weiteren Analysen nicht mehr berücksichtigt werden sollen. If differences are found in the course of the comparison, these can be assigned to categories that were previously defined in one embodiment of the method. Such categories are, for example, simulation errors; simulated structures, however, not recorded in the second image; and / or the presence / absence of at least one previously defined structure in the second image. At least one category can also contain those differences that are classified as noise artifacts, for example, and should no longer be taken into account in the further analyzes.
Aus dem simulierten Bild der zweiten Bildaufnahmeart und dem mit der zweiten Bildaufnahmeart aufgenommenen zweiten Bild kann in einer weiteren Ausgestaltung des Verfahrens ein Differenzbild erzeugt und auf einer Anzeige, z. B. einem Monitor, angezeigt werden. Dieses Differenzbild kann von einem Nutzer hinsichtlich auftretender Unterschiede bewertet werden. In a further embodiment of the method, a difference image can be generated from the simulated image of the second type of image recording and the second image recorded with the second type of image recording and shown on a display, e.g. B. a monitor, are displayed. This difference image can be evaluated by a user with regard to differences that occur.
Von Vorteil ist jedoch eine automatisierte Analyse der aufgefundenen Unterschiede und/oder eine Kategorisierung aufgefundener Unterschiede mittels Bildanalyse, insbesondere mittels maschinellen Lernens (engl.: machine learning). However, an automated analysis of the differences found and / or a categorization of differences found by means of image analysis, in particular by means of machine learning, is advantageous.
Auch die Vorhersage oder Simulation des simulierten Bildes kann unter Nutzung von Methoden des maschinellen Lernens erfolgen. Dazu können zum Beispiel aus dem Stand der Technik bekannt Bild-zu- Bild-Abbildungen genutzt werden. Eine solche Abbildung wird dabei auf Basis einer Anzahl N korrespondierender Bildpaare
Figure imgf000005_0001
beider Bildaufnahmearten gelernt. Dabei bezeichnet ein Bild einer ersten Bildaufnahmeart und lB ein Bild einer zweiten Bildaufnahmeart. Ein auf der Basis eines Bildes simuliertes Bild wird nachfolgend auch mit dem Index bezeichnet. Das trainierte Modell für die Bild-zu-Bild-Abbildung kann anschließend üblicherweise die in den Trainingsdaten vorhandenen Korrespondenzen zwischen den beiden Bildaufnahmearten sehr gut nachahmen, die Vorhersage >B ist also sehr ähnlich dem wahrem Bild IB. Fälle, welche stark von diesen Trainingsdaten abweichen, können im Allgemeinen durch das Modell nicht mehr gut abgedeckt werden, und führen in der Folge zu einer Diskrepanz zwischen dem simulierten Bild >B und dem aufgenommenen Bild IB, was letztendlich die Grundlage des hier vorgestellten erfindungsgemäßen Verfahrens bildet.
The prediction or simulation of the simulated image can also take place using machine learning methods. For this purpose, image-to-image images known from the prior art can be used, for example. Such an image is created on the basis of a number N of corresponding image pairs
Figure imgf000005_0001
learned both types of image acquisition. Here, an image of a first type of image recording and l B denotes an image of a second type of image recording. An image simulated on the basis of an image is also referred to below with the index. The trained model for the image-to-image mapping can then usually mimic the correspondences between the two types of image recording in the training data very well, so the prediction> B is very similar to the true image IB. Cases that deviate greatly from this training data can generally no longer be well covered by the model, and consequently lead to a discrepancy between the simulated image> B and the recorded image IB, which is ultimately the basis of the method according to the invention presented here forms.
Wie bereits ausgeführt, kann das Erkennen von Unterschieden, insbesondere von Anomalien, automatisch mittels Bildanalyse erfolgen. So kann ein Quantifizieren von einfachen Metriken zwischen simuliertem Bild >B und zweitem Bild lB beispielsweise anhand der Differenz, des Betrags, wenigstens einer Korrelation, der Varianz, der Anwendung von Schwellenwerten etc. erfolgen. Alternativ kann maschinelles Lernen eingesetzt werden, beispielsweise um Metriken für die Bildauswertung zu verwenden. As already stated, differences, in particular anomalies, can be recognized automatically by means of image analysis. For example, simple metrics between the simulated image> B and the second image 1 B can be quantified on the basis of the difference, the amount, at least one correlation, the variance, the application of threshold values, etc. Alternatively, machine learning can be used, for example to use metrics for image evaluation.
Beim maschinellen Lernen sind dabei Methoden des überwachten Lernens und des unüberwachten Lernens zu unterscheiden. Beim überwachten Lernen wird basierend auf einem Lerndatensatz bestehend aus wahren Bildern, (vorhergesagten) simulierten Bildern sowie entsprechenden Annotationen bezüglich vorhandener Unterschiede gelernt, diese und weitere Unterschiede zu erkennen. Dabei können Klassifikationsmodelle und/oder Segmentierungsmodelle verwendet werden. Es können außerdem Unterschiede anhand von Bilddaten oder rechnerisch erkannt werden. In machine learning, a distinction must be made between methods of supervised learning and unsupervised learning. In the case of monitored learning, learning is carried out on the basis of a learning data set consisting of true images, (predicted) simulated images and corresponding annotations with regard to existing differences, in order to recognize these and other differences. Classification models and / or segmentation models can be used. Differences can also be recognized using image data or by calculation.
Beispielsweise sind bei der Nutzung eines Klassifikationsmodells Vorhersagen zum Auftreten einer Anomalie/eines Unterschieds in einem Bild (Ja/Nein-Entscheidung) möglich. Es können auch Vorhersagen zur Art des Unterschieds (z. B. kein Unterschied; Typ 1; Typ 2; ...) getroffen werden.For example, when a classification model is used, it is possible to predict the occurrence of an anomaly / a difference in an image (yes / no decision). Predictions can also be made about the type of difference (e.g. no difference; type 1; type 2; ...).
Wird ein Segmentierungsmodell angewandt, sind beispielsweise Segmentierungen des Bildes in Bereiche ohne Unterschiede („normal") und in Bereiche mit Unterschieden („abnormal") möglich. Alternativ kann eine Segmentierung des Bildes in Bereiche erfolgen, die vorbestimmten Kategorien von Unterschieden / Anomalietypen zugeordnet sind (z. B. kein Unterschied; Typ 1; Typ 2; ...). If a segmentation model is used, it is possible, for example, to segment the image into areas without differences (“normal”) and into areas with differences (“abnormal”). Alternatively, the image can be segmented into areas which are assigned to predetermined categories of differences / anomaly types (e.g. no difference; type 1; type 2; ...).
Unterschiede können als solche oder sogar mit einer feineren Granularität (Typ 1; Typ 2; ...) erkannt werden, wenn zur Auswertung die Bilddaten (Detektion) herangezogen und genutzt werden. Differences can be recognized as such or even with a finer granularity (type 1; type 2; ...) if the image data (detection) are consulted and used for the evaluation.
Rechnerisch kann ein Unterschied beispielsweise mittels Berechnung von Regressionen aufgefunden und gegebenenfalls weiter spezifiziert werden. Dabei können zum Beispiel der Anteil der Zellen, welche von einer Anomalie betroffen sind oder Bild-Koordinaten der Unterschiede genutzt werden.A difference can be found computationally, for example by calculating regressions, and, if necessary, further specified. For example, the proportion of cells that are affected by an anomaly or the image coordinates of the differences can be used.
Beim unüberwachten Lernen können zum Beispiel Clustering-Algorithmen oder eine „klassische" Anomaliedetektion, z. B. durch Autoencoder, welcher als Eingabe das vorhergesagte als auch das wahre Bild verwendet, genutzt werden. In unsupervised learning, for example, clustering algorithms or "classic" anomaly detection, for example by an autoencoder, which uses both the predicted and the true image as input, can be used.
Für die machine-learning-basierten Verfahren können die Daten der simulierten Bilder >B und die Daten der zweiten Bilder lB als Eingabewerte dienen. Optional können außerdem die Daten der ersten Bilder sowie manuell oder automatisch ermittelte Kontextinformationen wie die Art der Probe und Informationen über die Kontrastmethoden (Art, verwendete Farbstoffe, Wellenlängen, etc.) und/oder Informationen über die Aufnahmebedingungen (Objektiv, Immersionsflüssigkeit, etc.) eingegeben werden. For the machine-learning-based method, the data of the simulated images> B and the data of the second images 1 B can serve as input values. Optionally, the data of the first images as well as manually or automatically determined context information such as the type of sample and information about the contrast methods (type, dyes used, wavelengths, etc.) and / or information about the recording conditions (lens, immersion liquid, etc.) can be entered.
Das erfindungsgemäße Verfahren kann zusätzlich oder alternativ zur Erfassung, Analyse und Bewertung aufgefundener Unterschiede anhand des Vergleichs des simulierten Bildes ( ^B) der zweiten Bildaufnahmeart mit dem Bild (lB) der zweiten Bildaufnahmeart für eine Bewertung der Güte des Simulationsmodells genutzt werden. Insbesondere wird eine Eignung des Simulationsmodells für die Vorhersage einer bestimmten Bildaufnahmeart und/oder eine Eignung für die Abbildung einer bestimmten Probenart indem eine Erfüllung vorbestimmter Gütekriterien überprüft wird. The method according to the invention can additionally or alternatively be used for the detection, analysis and evaluation of differences found on the basis of the comparison of the simulated image ( ^ B ) of the second image recording type with the image (l B ) of the second image recording type for an evaluation of the quality of the simulation model. In particular, a suitability of the simulation model for the prediction of a certain type of image recording and / or a suitability for the imaging of a certain type of sample by checking whether predetermined quality criteria are met.
Um einem Nutzer des erfindungsgemäßen Verfahrens eine Interaktion mit dem Verfahrensablauf zu eröffnen, kann in Abhängigkeit eines Ergebnisses der Prüfung zur Einhaltung der Gütekriterien ein aktuell erreichter Trainingszustand des zur Vorhersage des jeweiligen der Prüfung unterzogenen simulierten Bildes verwendeten Simulationsmodells ermittelt werden. Vorteilhaft wird dieser ermittelte Trainingszustand auf einer Anzeige dargestellt. Damit verbunden ist vorzugsweise eine Abfrage nach der Eingabe oder Auswahl mindestens eines Steuerbefehls, mittels dem beispielsweise weitere Iterationen des Trainingsablaufs des betreffenden Simulationsmodells getriggert werden können, wenn der aktuelle Trainingszustand nicht als ausreichend eingeschätzt wird. In weiteren Ausgestaltungen kann der ermittelte aktuelle Trainingszustand dem Nutzer angezeigt und im Falle eines nicht ausreichenden Trainingszustands automatisch erneut Trainingsdaten der aktuellen Probe erfasst und das Simulationsmodell nachtrainiert werden. In order to enable a user of the method according to the invention to interact with the process sequence, a currently achieved training state of the simulation model used to predict the respective simulated image subjected to the test can be determined as a function of a result of the test for compliance with the quality criteria. This determined training status is advantageously shown on a display. Associated with this is preferably a query for the input or selection of at least one control command, by means of which, for example, further iterations of the training sequence of the simulation model in question can be triggered if the current training status is not assessed to be sufficient. In further refinements, the determined current training status can be displayed to the user and, in the event of an insufficient training status, training data of the current sample can be automatically recorded again and the simulation model retrained.
Die dem Nutzer zur Verfügung gestellten Informationen können außerdem Hinweise auf zu erwartende Artefakte in den jeweiligen simulierten Bildern geben, insbesondere wenn der Trainingszustand des Simulationsmodells als nicht geeignet oder nur bedingt geeignet eingestuft wird.The information made available to the user can also give indications of artifacts to be expected in the respective simulated images, in particular if the training state of the simulation model is classified as unsuitable or only conditionally suitable.
Eine derartige Interaktion mit einem Nutzer erlaubt diesem, Modelle selbst zu trainieren. Außerdem können aufgrund der vorgestellten Interaktion auch Nutzer ohne ausgewiesene Expertise auf dem Gebiet des maschinellen Lernens mit entsprechenden Systemen umgehen und werden vor fehlerhaften Ergebnissen aufgrund unzureichend trainierter Simulationsmodelle geschützt. Such an interaction with a user allows him to train models himself. In addition, due to the interaction presented, users without proven expertise in the field of machine learning can also deal with corresponding systems and are protected from incorrect results due to insufficiently trained simulation models.
Um das erfindungsgemäße Bildauswertungsverfahren ausführen zu können, ist ein Mikroskop ausreichend, das Bildaufnahmen mit mindestens zwei Kontrastarten beziehungsweise mit mindestens zwei Kanälen einer Kontrastart erlaubt. Außerdem wird eine Auswerteeinheit, beispielsweise in Form eines Rechners, benötigt, die zur Ausführung des erfindungsgemäßen Bildauswertungsverfahrens konfiguriert ist. Optional kann eine Anzeige (Bildschirm, Monitor, Display) vorhanden sein, auf der beispielsweise das Differenzbild angezeigt wird. Zusätzlich kann eine Möglichkeit zur Eingabe von Daten und Befehlen (Schnittstelle, Tastatur, etc.) vorhanden sein. In order to be able to carry out the image evaluation method according to the invention, a microscope is sufficient that allows image recordings with at least two types of contrast or with at least two channels of one type of contrast. In addition, an evaluation unit, for example in the form of a computer, is required which is configured to carry out the image evaluation method according to the invention. Optionally, a display (screen, monitor, display) can be present on which, for example, the difference image is displayed. In addition, there may be an option for entering data and commands (interface, keyboard, etc.).
Die beschriebene Erfindung betrifft ein Verfahren, welches Anomalien bzw. interessierende Bereiche in Bildern einer Probe automatisch erkennen kann. Mit dem erfindungsgemäßen Verfahren können im Vergleich zu vorbekannten Anomaliedetektionsverfahren (z. B. Autoencoder, One-Class-Classification) beispielsweise auch Fehler im Anfärben der Probe erkannt werden. Das Auffinden und optionale Klassifizieren von Unterschieden wie Anomalien und/oder interessierenden Bereichen ist eine technische Herausforderung, welche aufgrund immer größer werdender Datenmengen in Zukunft noch an Relevanz gewinnen wird. The described invention relates to a method which can automatically recognize anomalies or areas of interest in images of a sample. With the method according to the invention, in comparison to previously known anomaly detection methods (e.g. autoencoder, one-class classification), for example, errors in the staining of the sample can also be recognized. Finding and optionally classifying differences such as anomalies and / or areas of interest is a technical challenge that will become even more relevant in the future due to the ever increasing amounts of data.
Ein großer Vorteil des erfindungsgemäßen Verfahrens ist darin zu sehen, dass ein Vergleich der simulierten Bilddaten mit tatsächlich gemessenen Zieldaten stattfindet (sogenannte „Inferenz"). Durch diesen Vergleich jedoch ist die Bewertung der jeweiligen Modellgüte genauer und verlässlicher. Außerdem ist sie unabhängig von der Bewertung einer Zielverteilung. Im Gegensatz zum erfindungsgemäßen Verfahren werden in Verfahren nach dem Stand der Technik Eingabedaten oder Ausgabedaten des Modells direkt bewertet (gemeinhin als „Validierung" bezeichnet). Dabei wird beurteilt, ob diese zur Eingabe- beziehungsweise Ausgabe-Verteilung passen. A great advantage of the method according to the invention is that the simulated image data is compared with actually measured target data (so-called "inference"). However, this comparison makes the evaluation of the respective model quality more precise and reliable. In addition, it is independent of the evaluation In contrast to the method according to the invention, in methods according to the prior art, input data or output data of the model are evaluated directly (commonly referred to as “validation”). It is assessed whether these match the input or output distribution.
Das Auffinden von Unterschieden gemäß des erfindungsgemäßen Verfahrens erfolgt auf der Grundlage von neuen und bis dato nicht bekannten Bilddaten (Inferenz), indem ein zuvor abschließend trainiertes Modell in einem Arbeitsablauf angewendet wird. Das bedeutet auch, dass Bilddaten, in denen im Zuge der Inferenz mittels des erfindungsgemäßen Verfahrens potenzielle Unterschiede entdeckt werden sollen, nicht zuvor zum Training des Simulationsmodells verwendet worden sein dürfen. Im Gegensatz dazu wird bei einer Validierung, wie im Stand der Technik, die Performance eines Simulationsmodells anhand von Daten der Trainingsverteilung bewertet. The finding of differences according to the method according to the invention takes place on the basis of new and previously unknown image data (inference) by using a previously finally trained model in a workflow. This also means that image data, in which potential differences are to be discovered in the course of the inference by means of the method according to the invention, must not have previously been used to train the simulation model. In contrast to this, in a validation, as in the prior art, the performance of a simulation model is assessed on the basis of data from the training distribution.
Die Erfindung wird nachfolgend anhand zweier Figuren beispielhaft erläutert. Die The invention is explained below by way of example with the aid of two figures. the
Fig. 1 zeigt ein Mikroskop und einen schematischen Ablauf einer ersten Ausgestaltung des erfindungsgemäßen Bildauswertungsverfahrens; und 1 shows a microscope and a schematic sequence of a first embodiment of the image evaluation method according to the invention; and
Fig. 2 zeigt ein Mikroskop und einen schematischen Ablauf einer zweiten Ausgestaltung des erfindungsgemäßen Bildauswertungsverfahrens. 2 shows a microscope and a schematic sequence of a second embodiment of the image evaluation method according to the invention.
Mittels eines Mikroskops 1, das Bildaufnahmen in mindestens zwei Kontrastarten beziehungsweise zusätzlich oder alternativ in mindestens zwei Kanälen einer Kontrastart erlaubt, wird ein erstes Bild einer ersten Bildaufnahmeart, beispielsweise im Hellfeld, erfasst. Das Mikroskop 1 ist mit einer Auswerteeinheit 2 in Form eines Rechners und einem Monitor als Anzeige 3 verbunden. Die Auswerteeinheit 2 weist zusätzlich einen Datenspeicher (nicht gezeigt) auf und ist derart konfiguriert, dass diese ausgehend von dem ersten Bild ein Bild ^B mittels eines Simulationsmodells derart simuliert, als ob das simulierte Bild IA^B mit einer zweiten Bildaufnahmeart, beispielsweise mit einer zweiten Kontrastart wie z. B. als ein Fluoreszenzbild, aufgenommen worden wäre. Die Daten des simulierten Bildes IA^B werden gespeichert. In Fig. 1 ist angedeutet, dass die im ersten Bild vorhandenen Strukturen mit geringer Punktierung im simulierten Bild IA^B nicht mehr vorhanden sind. Die Entscheidungskriterien, die zum Weglassen dieser Strukturen führen, können auf einem machine- learning-Verfahren (maschinelles Lernen) basieren. A first image of a first type of image, for example in brightfield, is captured by means of a microscope 1, which allows image recordings in at least two types of contrast or additionally or alternatively in at least two channels of one type of contrast. The microscope 1 is connected to an evaluation unit 2 in the form of a computer and a monitor as a display 3. The evaluation unit 2 additionally has a data memory (not shown) and is configured in such a way that, starting from the first image, it simulates an image ^ B by means of a simulation model as if the simulated image I A ^ B were with a second type of image recording, for example with a second type of contrast such as B. as a fluorescent image would have been recorded. The data of the simulated image I A ^ B are stored. In Fig. 1 it is indicated that the structures with little puncturing present in the first image are no longer present in the simulated image I A ^ B. The decision criteria that lead to the omission of these structures can be based on a machine learning process (machine learning).
Außerdem wird ein zweites Bild lB der Probe in der zweiten Bildaufnahmeart (z. B. Fluoreszenzbild) erfasst und gespeichert. Anschließend werden das simulierte Bild IA^B und das zweite Bild lB miteinander, beispielsweise mittels der entsprechend konfigurierten Auswerteeinheit 2, verglichen, um Unterschiede zwischen diesen aufzufinden. Aufgrund des Vergleichs wird beispielsweise ein Differenzbild lDiff erzeugt, in dem gegebenenfalls aufgefundene Unterschiede visualisiert sind. In addition, a second image B l is the sample in the second Bildaufnahmeart (eg., Fluorescence image) detected and stored. The simulated image I A ^ B and the second image l B are then compared with one another, for example by means of the correspondingly configured evaluation unit 2, in order to find differences between them. On the basis of the comparison, a difference image I Diff is generated, for example, in which any differences found are visualized.
Der im Differenzbild lDiff exemplarisch dargestellte Unterschied zwischen dem simulierten Bild IA^B und dem zweiten Bild lB ist eine mit einer netzartigen Schraffur versehene Struktur im rechten unteren Teil des Differenzbildes lDiff Diese Struktur wurde für das simulierte Bild ^B vorhergesagt, kann aber in dem zweiten Bild lB tatsächlich nicht bestätigt werden. The difference between the simulated image I A ^ B and the second image l B , shown as an example in the difference image l Diff, is a structure provided with network-like hatching in the lower right part of the difference image l Diff. This structure was predicted for the simulated image ^ B , can but in the second image l B actually cannot be confirmed.
Die den Unterschied verkörpernde Struktur ist beispielweise aufgrund mangelnder Probenpräparation nicht mit der zweiten Bildaufnahmeart detektierbar. Es könnte sich auch um einen Strukturtyp (in Bild dicht punktiert dargestellt) der Probe handeln, der sich mit der ersten Bildaufnahmeart nicht von anderen (in Bild ebenfalls dicht punktiert dargestellten) Strukturtypen unterscheiden lässt. Eine Kategorisierung des Unterschieds kann anhand vorhandener und abrufbar gespeicherter Vorinformationen und/oder anhand der Charakteristika der Bildaufnahmearten manuell oder - vorzugsweise - automatisiert erfolgen. The structure embodying the difference cannot be detected with the second type of image recording, for example due to insufficient sample preparation. It could also be a structure type (shown with dotted lines in the image) of the sample which cannot be distinguished from other structure types (also shown with dotted lines in the image) with the first type of image recording. The difference can be categorized manually or - preferably - automatically using existing and retrievable stored prior information and / or using the characteristics of the types of image recording.
Der weitere Umgang mit dem aufgefundenen Unterschied kann in Abhängigkeit seiner Kategorisierung erfolgen. Beispielsweise kann der Unterschied in der weiteren Bildauswertung ignoriert werden, gewichtet in die weitere Auswertung eingehen oder explizit ausgewählt und als interessierender Bereich (ROI) behandelt werden. Eine zweite Alternative des erfindungsgemäßen Verfahrens umfasst die Vorhersage eines simulierten Bildes IA^B der zweiten Bildaufnahmeart mittels eines Simulationsmodells ausgehend von dem Bild der ersten Bildaufnahmeart . Das simulierte Bild IA^B der zweiten Bildaufnahmeart dient wiederum in einem weiteren Schritt als Basis für die Vorhersage eines simulierten Bildes (IA^B)>IA der ersten Bildaufnahmeart. Das so erhaltene simulierte Bild (IA^B)>IA der ersten Bildaufnahmeart wird mit dem Bild IA der ersten Bildaufnahmeart verglichen. Aus dem Vergleich können sowohl vorhandene Unterschiede erfasst und analysiert werden als auch Rückschlüsse auf die Eignung des für die Vorhersage des simulierten Bildes IA^B der zweiten Bildaufnahmeart und des simulierten Bildes ( ^ B)>IA der ersten Bildaufnahmeart verwendeten Simulationsmodells gezogen werden. Als Entscheidungsgrundlage aus einem Vergleich kann das Einhalten beziehungsweise das Verfehlen vorab bestimmter Gütekriterien dienen. Diese Ausgestaltung des Verfahrens erfordert kein tatsächliches Erfassen des zweiten Bildes lB, sondern nutzt vorteilhaft dessen virtuelle Entsprechung. The further handling of the found difference can take place depending on its categorization. For example, the difference in the further image evaluation can be ignored, weighted into the further evaluation or explicitly selected and treated as an area of interest (ROI). A second alternative of the method according to the invention comprises the prediction of a simulated image I A ^ B of the second type of image recording by means of a simulation model based on the image of the first type of image recording. The simulated image I A ^ B of the second type of image recording is in turn used in a further step as the basis for predicting a simulated image (IA ^ B)> IA of the first type of image recording. The simulated image (IA ^ B)> IA of the first type of image recording thus obtained is compared with the image I A of the first type of image recording. Existing differences can be recorded and analyzed from the comparison and conclusions can be drawn about the suitability of the simulation model used for predicting the simulated image I A ^ B of the second type of image recording and the simulated image ( ^ B)> IA of the first type of image recording. Compliance with or failure to meet certain quality criteria in advance can serve as a decision-making basis from a comparison. This refinement of the method does not require any actual acquisition of the second image 1 B , but advantageously uses its virtual equivalent.
Bezugszeichen Reference number
1 Mikroskop 1 microscope
2 Auswerteeinheit 2 evaluation unit
3 Anzeige 3 display
IA erstes Bild (erste Bildaufnahmeart) lB zweites Bild (zweite Bildaufnahmeart) IA first image (first type of image recording) l B second image (second type of image recording)
IA->B simuliertes Bild loiff Differenzbild IA-> B simulated image loi ff difference image

Claims

Patentansprüche Claims
1. Bildauswertungsverfahren in der Mikroskopie, bei dem mit einer ersten Bildaufnahmeart ein erstes Bild ( ) einer Probe aufgenommen wird und die Bildwerte gespeichert werden; anhand der Bildwerte mittels eines Simulationsmodells ein simuliertes Bild (IA^B) der Probe in einer zweiten Bildaufnahmeart vorhergesagt wird, und entweder in einer ersten Alternative ein zweites Bild (lB) mit der zweiten Bildaufnahmeart aufgenommen und gespeichert wird, das simulierte Bild (IA^B) der zweiten Bildaufnahmeart und das mit der zweiten Bildaufnahmeart aufgenommene zweite Bild (lB) miteinander verglichen werden, um Unterschiede zwischen diesen aufzufinden, und aufgefundene Unterschiede erfasst, analysiert und bewertet werden.; oder in einer zweiten Alternative ausgehend von einem Bild ( ) der ersten Bildaufnahmeart ein simuliertes Bild ( ^B) der zweiten Bildaufnahmeart vorhergesagt wird, ausgehend von dem simulierten Bild ( ^B) der zweiten Bildaufnahmeart ein simuliertes Bilde ( ^B)>IA der ersten Bildaufnahmeart vorhergesagt wird, das Bild ( ) der ersten Bildaufnahmeart mit dem simulierten Bild (IA^B)>IA der ersten Bildaufnahmeart verglichen wird, um Unterschiede zwischen diesen aufzufinden, und aufgefundene Unterschiede erfasst, analysiert und bewertet werden. 1. Image evaluation method in microscopy in which a first image () of a sample is recorded with a first type of image recording and the image values are stored; a simulated image (I A ^ B ) of the sample in a second type of image recording is predicted on the basis of the image values by means of a simulation model, and either in a first alternative a second image (l B ) is recorded and stored with the second type of image recording, the simulated image ( I A ^ B ) of the second type of image recording and the second image (l B ) recorded with the second type of image recording are compared with one another in order to find differences between them, and differences found are recorded, analyzed and assessed .; or in a second alternative, based on an image () of the first image recording type, a simulated image ( ^ B ) of the second image recording type is predicted, based on the simulated image ( ^ B ) of the second image recording type, a simulated image (^ B)> IA of the first Image recording type is predicted, the image () of the first image recording type is compared with the simulated image (IA ^ B)> IA of the first image recording type in order to find differences between these, and differences found are recorded, analyzed and evaluated.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Bilddaten der Bilder ( ;IB) in den mindestens zwei Bildaufnahmearten und/oder Bilddaten des simulierten Bildes (IA^B) der zweiten Bildaufnahmeart und/oder des simulierten Bildes (IA^B)>IA der ersten Bildaufnahmeart als gespeicherte Daten vorgehalten und auf Anforderung abgerufen und verarbeitet werden. 2. The method according to claim 1, characterized in that image data of the images (IB) in the at least two image recording types and / or image data of the simulated image (I A ^ B ) of the second image recording type and / or the simulated image (IA ^ B) > IA of the first type of image recording are held as stored data and can be called up and processed on request.
3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die aufgefundenen Unterschiede zuvor festgelegten Kategorien zugewiesen werden. 3. The method according to any one of the preceding claims, characterized in that the differences found are assigned to previously defined categories.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass als Kategorien Simulationsfehler, simulierte, jedoch in der ersten Alternative im zweiten Bild (lB) beziehungsweise in der zweiten Alternative im Bild ( ) der ersten Bildaufnahmeart nicht erfasste Strukturen und/oder das Vorhandensein wenigstens einer vorab definierten Struktur im zweiten Bild (lB) beziehungsweise im ersten Bild ( ) festgelegt sind. 4. The method according to claim 3, characterized in that the categories simulation errors, simulated, but in the first alternative in the second image (l B ) or in the second alternative in the image () of the first image recording type not recorded structures and / or the presence at least a previously defined structure in the second image (l B ) or in the first image () are set.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Bildaufnahmearten unterschiedliche Kontrastverfahren und/oder verschiedene Kanäle eines Kontrastverfahrens verwendet werden. 5. The method according to any one of the preceding claims, characterized in that different contrasting methods and / or different channels of a contrasting method are used as image recording types.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das erste simulierte Bild ( ^B) mit dem Bild (lB) der zweiten Bildaufnahmeart beziehungsweise das zweite simuliertes Bild (IB^A) mit dem Bild ( ) der ersten Bildaufnahmeart beziehungsweise das erste Bild ( ) mit dem simulierten Bild (IA^B)>IA der ersten Bildaufnahmeart unter Berücksichtigung einer ausgewählten Metrik verglichen wird. 6. The method according to any one of the preceding claims, characterized in that the first simulated image ( ^ B ) with the image (l B ) of the second image recording type or the second simulated image (I B ^ A ) with the image () of the first image recording type or the first image () is compared with the simulated image (I A ^ B )> I A of the first image recording type, taking into account a selected metric.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Analyse der Unterschiede und/oder eine Kategorisierung aufgefundener Unterschiede mittels maschinellen Lernens erfolgt. 7. The method according to any one of the preceding claims, characterized in that an analysis of the differences and / or a categorization of found differences takes place by means of machine learning.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vorhersage des ersten simulierten Bildes (IA^B) der zweiten Bildaufnahmeart und/oder des zweiten simulierten Bildes (IB^A) der ersten Bildaufnahmeart oder des simulierten Bildes (IA^B)>IA der ersten Bildaufnahmeart mittels maschinellen Lernens erfolgt. 8. The method according to any one of the preceding claims, characterized in that the prediction of the first simulated image (I A ^ B ) of the second type of image recording and / or of the second simulated image (I B ^ A ) of the first type of image recording or of the simulated image (I. A ^ B )> I A of the first type of image recording takes place by means of machine learning.
9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass eine Analyse und/oder Kategorisierung mittels mindestens eines Verfahrens aus einer Gruppe umfassend Klassifikation, Segmentierung, Detektion und Regression als Methoden des überwachten maschinellen Lernens und Cluster-Analyse und klassische Anomaliedetektion als Methoden des unüberwachten Lernens ausgeführt wird. 9. The method according to claim 7, characterized in that an analysis and / or categorization by means of at least one method from a group comprising classification, segmentation, detection and regression as methods of monitored machine learning and cluster analysis and classic anomaly detection as methods of unsupervised learning is performed.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zusätzlich oder alternativ zur Erfassung, Analyse und Bewertung aufgefundener Unterschiede anhand des Vergleichs des simulierten Bildes (IA^B) der zweiten Bildaufnahmeart mit dem Bild (lB) der zweiten Bildaufnahmeart beziehungsweise anhand des Vergleichs des simulierten Bildes (IA^B)>IA der ersten Bildaufnahmeart mit dem Bild ( ) der ersten Bildaufnahmeart eine Bewertung der Güte des Simulationsmodells vorgenommen wird, indem eine Erfüllung vorbestimmter Gütekriterien überprüft wird. 10. The method according to claim 1, characterized in that in addition or as an alternative to the detection, analysis and evaluation of differences found on the basis of the comparison of the simulated image (I A ^ B ) of the second image recording type with the image (l B ) of the second image recording type or using the Comparison of the simulated image (I A ^ B )> I A of the first type of image recording with the image () of the first type of image recording an evaluation of the quality of the simulation model is carried out by checking whether predetermined quality criteria are met.
PCT/EP2021/062539 2020-05-14 2021-05-11 Image analysis method in microscopy WO2021228894A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202180034442.6A CN115552462A (en) 2020-05-14 2021-05-11 Image analysis method in microscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020206088.6 2020-05-14
DE102020206088.6A DE102020206088A1 (en) 2020-05-14 2020-05-14 Image evaluation methods in microscopy

Publications (1)

Publication Number Publication Date
WO2021228894A1 true WO2021228894A1 (en) 2021-11-18

Family

ID=76034612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/062539 WO2021228894A1 (en) 2020-05-14 2021-05-11 Image analysis method in microscopy

Country Status (3)

Country Link
CN (1) CN115552462A (en)
DE (1) DE102020206088A1 (en)
WO (1) WO2021228894A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022238343A1 (en) * 2021-05-11 2022-11-17 Carl Zeiss Microscopy Gmbh Assessment method for simulation models in microscopy

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022121543A1 (en) 2022-08-25 2024-03-07 Carl Zeiss Microscopy Gmbh Microscopy system and method for checking the quality of a machine-learned image processing model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172901A1 (en) * 2018-03-07 2019-09-12 Google Llc Virtual staining for tissue slide images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172901A1 (en) * 2018-03-07 2019-09-12 Google Llc Virtual staining for tissue slide images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LAHIANI AMAL ET AL: "Perceptual Embedding Consistency for Seamless Reconstruction of Tilewise Style Transfer", 10 October 2019, ADVANCES IN INTELLIGENT DATA ANALYSIS XIX; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER INTERNATIONAL PUBLISHING, CHAM, PAGE(S) 568 - 576, ISBN: 978-3-540-28540-3, ISSN: 0302-9743, XP047522564 *
OUNKOMOL ET AL., NATURE METHODS, vol. 11, 2018, pages 917

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022238343A1 (en) * 2021-05-11 2022-11-17 Carl Zeiss Microscopy Gmbh Assessment method for simulation models in microscopy

Also Published As

Publication number Publication date
DE102020206088A1 (en) 2021-11-18
CN115552462A (en) 2022-12-30

Similar Documents

Publication Publication Date Title
DE102019110721A1 (en) WORKFLOW FOR TRAINING A CLASSIFICATOR FOR QUALITY INSPECTION IN MEASUREMENT TECHNOLOGY
WO2021228894A1 (en) Image analysis method in microscopy
EP3671632A1 (en) Image-based maintenance prediction and erroneous operation detection
DE102018128289A1 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
DE102020126554A1 (en) MICROSCOPY SYSTEM AND METHOD OF VERIFYING INPUT DATA
DE102019204139A1 (en) Training for artificial neural networks with better utilization of the learning data sets
DE112017008149T5 (en) DEVICE FOR COMMUNICATION FROM A VEHICLE, METHOD FOR COMMUNICATING A VEHICLE OUTSIDE, INFORMATION PROCESSING DEVICE AND PROGRAM FOR COMMUNICATION FROM A VEHICLE
EP3529744A1 (en) Method for analysing object labels in images on the basis of models
EP3430565B1 (en) Method for testing distributed objects by segmenting an overview image
WO2022238343A1 (en) Assessment method for simulation models in microscopy
DE102019117680A1 (en) AUTOMATED SEGMENTATION PROCESS FOR QUALITY INSPECTION
DE102019209566A1 (en) Method and device for training a machine learning system
DE102018133092B3 (en) Computer-implemented method for analyzing measurement data from a measurement of an object
EP4016081B1 (en) Method and device for detecting a presence of a fluorescence pattern type on an organ segment by means of immunofluorescence microscopy
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
DE102021114287A1 (en) Microscopy system and method for generating stylized contrast images
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
DE102019209228A1 (en) Method and device for checking the robustness of an artificial neural network
DE102022201161A1 (en) Object classification with a one-level meta-based object detector using class prototypes
DE102020212005B4 (en) Procedure for determining the image parts that are relevant for an image classifier
DE102022208384A1 (en) Method for determining a quality condition of a test object
DE102022213064A1 (en) Detection of unknown objects using neural networks for vehicles
DE102022203067A1 (en) Method for recognizing objects in image data
DE102022204623A1 (en) Object recognition by neural network with uncertainty measure
EP4099272A1 (en) Microscopy system and method for generating stylized contrast images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21726861

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21726861

Country of ref document: EP

Kind code of ref document: A1