DE102020126549A1 - MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE - Google Patents

MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE Download PDF

Info

Publication number
DE102020126549A1
DE102020126549A1 DE102020126549.2A DE102020126549A DE102020126549A1 DE 102020126549 A1 DE102020126549 A1 DE 102020126549A1 DE 102020126549 A DE102020126549 A DE 102020126549A DE 102020126549 A1 DE102020126549 A1 DE 102020126549A1
Authority
DE
Germany
Prior art keywords
overview
image
overview images
images
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020126549.2A
Other languages
German (de)
Inventor
Manuel Amthor
Daniel Haase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102020126549.2A priority Critical patent/DE102020126549A1/en
Priority to CN202111129866.9A priority patent/CN114326078A/en
Publication of DE102020126549A1 publication Critical patent/DE102020126549A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30072Microarray; Biochip, DNA array; Well plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

Ein Mikroskopiesystem umfasst eine Übersichtskamera (9) zum Aufnehmen von Übersichtsbildern (11, 12) einer Probenortumgebung und eine Recheneinrichtung (20), welche eingerichtet ist zum Auswerten der Übersichtsbilder (11, 12). Die Recheneinrichtung (20) verfügt über Kalibrierparameter (P) zur Interpretation von Bildkoordinaten der Übersichtsbilder (11, 12) Die Übersichtskamera (9) nimmt mindestens zwei Übersichtsbilder (11, 12) bei verschiedenen Probenpositionen oder Probentischpositionen auf. Sodann wird eine Verschiebungsabbildung (31) zum Überlagern der Übersichtsbilder (11, 12; 21, 22) berechnet, wobei mit Hilfe der Kalibrierparameter (P) eine Umrechnung der Übersichtsbilder (11, 12; 21, 22) auf eine gleiche Perspektive erfolgt. Basierend auf einer Übereinstimmungsgüte (Q) zwischen den überlagerten Übersichtsbildern (32) wird bewertet, ob die Kalibrierparameter (P) gültig sind. Zudem wird ein Verfahren zur Kalibrierungsüberprüfung beschrieben.A microscopy system comprises an overview camera (9) for recording overview images (11, 12) of a sample location environment and a computing device (20) which is set up to evaluate the overview images (11, 12). The computing device (20) has calibration parameters (P) for interpreting image coordinates of the overview images (11, 12). The overview camera (9) records at least two overview images (11, 12) at different sample positions or sample table positions. A displacement image (31) for superimposing the overview images (11, 12; 21, 22) is then calculated, the overview images (11, 12; 21, 22) being converted to the same perspective with the aid of the calibration parameters (P). Based on a quality of agreement (Q) between the superimposed overview images (32), it is evaluated whether the calibration parameters (P) are valid. A calibration verification procedure is also described.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Offenbarung bezieht sich auf ein Mikroskopiesystem und ein Verfahren zur Kalibrierungsüberprüfung.The present disclosure relates to a microscopy system and a method for calibration verification.

HINTERGRUNDBACKGROUND

In modernen Mikroskopiesystemen spielt eine Automatisierung eine zunehmend wichtige Rolle. Eine zu untersuchende Probe soll teil- oder vollautomatisiert vom Mikroskopiesystem erfasst, angefahren und näher untersucht werden. Hierfür nimmt eine Übersichtskamera Übersichtsbilder der Probe und einer Probenumgebung auf. Aus einem Übersichtsbild kann z.B. eine Navigationskarte gebildet werden, in welcher ein Nutzer einen Ort auswählen kann, der sodann automatisch mit einem motorisierten Probentisch angefahren werden kann. Das Übersichtsbild kann zudem für eine automatische Probenerkennung genutzt werden, indem beispielsweise die Näpfchen einer Mikrotiterplatte erkannt und optional automatisch genauer untersucht werden. Auch für eine Autofokussierung kann ein Übersichtsbild verwendet werden, beispielsweise indem aus dem Übersichtsbild eine Probenhöhe geschätzt wird oder eine geeignete Position ermittelt wird, an welcher sodann ein Autofokussierungsverfahren durchgeführt wird.Automation plays an increasingly important role in modern microscopy systems. A sample to be examined is to be recorded, approached and examined in more detail by the microscopy system in a partially or fully automated manner. For this purpose, an overview camera records overview images of the sample and a sample environment. For example, a navigation map can be formed from an overview image, in which a user can select a location that can then be automatically approached with a motorized sample table. The overview image can also be used for automatic sample recognition, for example by recognizing the wells of a microtiter plate and optionally examining them more closely. An overview image can also be used for autofocusing, for example by estimating a sample height from the overview image or by determining a suitable position at which an autofocusing method is then carried out.

Um ein Übersichtsbild in dieser Weise nutzen zu können, muss ein Bezug zwischen Bildkoordinaten des Übersichtsbildes und Rauminformationen bekannt sein, beispielsweise durch eine Pose der Übersichtskamera (Blickwinkel und Position) relativ zu einem Bezugspunkt am Mikroskop. Hierzu wird eine Kalibrierung der Übersichtskamera durchgeführt. Beispielsweise kann ein Übersichtsbild eines Kalibrierobjekts mit bekannten Abmessungen aufgenommen werden, so dass ein Zusammenhang zu Bildkoordinaten ermittelt werden kann. Auch können Verzeichnungen der Übersichtskamera durch eine solche Kalibrierung ermittelt und rechnerisch korrigiert werden.In order to be able to use an overview image in this way, a relationship between image coordinates of the overview image and spatial information must be known, for example through a pose of the overview camera (viewing angle and position) relative to a reference point on the microscope. For this purpose, the overview camera is calibrated. For example, an overview image of a calibration object with known dimensions can be recorded so that a relationship to image coordinates can be determined. Distortions of the overview camera can also be determined by such a calibration and corrected by calculation.

Ein gattungsgemäßes Mikroskopiesystem umfasst dementsprechend eine Übersichtskamera zum Aufnehmen von Übersichtsbildern einer Probenortumgebung und eine Recheneinrichtung, welche zum Auswerten der Übersichtsbilder eingerichtet ist, wobei die Recheneinrichtung über Kalibrierparameter zur Interpretation von Bildkoordinaten der Übersichtsbilder verfügt.Accordingly, a generic microscopy system comprises an overview camera for recording overview images of a sample location environment and a computing device which is set up for evaluating the overview images, the computing device having calibration parameters for interpreting image coordinates of the overview images.

In US 9 344 650 B2 und DE 10 2013 012 987 A1 wurde von der Anmelderin beschrieben, eine Kalibrierung mit Hilfe eines Referenzobjektes durchzuführen, um anschließend aufgenommene Bilder mit Hilfe von Kalibrierdaten zu verarbeiten. In DE 10 2017 109 698 A1 wurde von der Anmelderin ein Mikroskop offenbart, bei dem Übersichtsbilder einer kalibrierten Übersichtskamera ausgewertet werden, beispielsweise um Mikroskopkomponenten zu klassifizieren und Informationen zu erkannten Komponenten zu laden. Ein weiteres Kalibrierverfahren wurde von der Anmelderin in DE 10 2013 222 295 A1 für ein Mikroskop mit Schwenkstativ beschrieben, um eine automatische Fokus- und Bildmittennachführung zu ermöglichen. Die Auswertung eines Übersichtsbildes, beispielsweise zum Ermitteln und automatischen Anfahren einer Probenposition, wurde von der Anmelderin in DE 10 2013 006 994 A1 beschrieben. Weitere Bildauswertungen zum automatischen Ausführen von Workflows eines Mikroskops sind von der Anmelderin in DE 10 2019 114 117 beschrieben, wozu in einem Übersichtsbild Kalibrier- und Spezialproben erkannt werden. Auswertungen von Übersichtsbildern eines Mikroskops sind außerdem von der Anmelderin in DE 10 2020 118 801 beschrieben. Hierbei wird insbesondere aus dem Übersichtsbild ein Abstand einer Übersichtskamera zur Probenebene geschätzt, wozu Referenzmarkierungen im Sichtfeld der Übersichtskamera genutzt werden können. In DE 10 2020 101 191 hat die Anmelderin eine Auswertung von Übersichtsbildern eines Mikroskops beschrieben, wobei eine Homographie ermittelt wird, durch die das Übersichtsbild in eine andere Darstellung überführt wird; die Ermittlung der perspektivisch korrekten Homographie kann unter anderem durch Aufnahmen von Kalibriermustern bekannter Abmessungen erfolgen.In U.S. 9,344,650 B2 and DE 10 2013 012 987 A1 was described by the applicant to carry out a calibration using a reference object in order to then process recorded images using calibration data. In DE 10 2017 109 698 A1 the applicant disclosed a microscope in which overview images from a calibrated overview camera are evaluated, for example in order to classify microscope components and to load information on recognized components. Another calibration method was developed by the applicant in DE 10 2013 222 295 A1 described for a microscope with a swivel stand to enable automatic focus and image center tracking. The evaluation of an overview image, for example to determine and automatically move to a sample position, was carried out by the applicant in DE 10 2013 006 994 A1 described. Further image evaluations for automatically executing workflows of a microscope are available from the applicant in DE 10 2019 114 117 described, for which purpose calibration and special samples are recognized in an overview image. Evaluations of overview images of a microscope are also available from the applicant in DE 10 2020 118 801 described. In this case, a distance of an overview camera from the sample plane is estimated from the overview image in particular, for which purpose reference markings in the field of view of the overview camera can be used. In DE 10 2020 101 191 the applicant has described an evaluation of overview images of a microscope, with a homograph being determined by which the overview image is converted into a different representation; the determination of the correct perspective homography can be done, among other things, by recording calibration patterns of known dimensions.

In DE 10 2018 133 188 A1 wurde von der Anmelderin ein Mikroskop beschrieben, bei dem unter anderem zwei Übersichtsbilder zu verschiedenen Probentischpositionen aufgenommen werden. In den beiden Übersichtsbildern wird ein Ort einer bestimmten Struktur ermittelt. Ein Pixelabstand zwischen den Orten in den beiden Übersichtsbildern gibt Aufschluss über eine Höhe bzw. einen Abstand der dargestellten Struktur.In DE 10 2018 133 188 A1 the applicant has described a microscope in which, among other things, two overview images are recorded for different sample stage positions. A location of a specific structure is determined in the two overview images. A pixel distance between the locations in the two overview images provides information about a height or a distance of the structure shown.

Die Sicherstellung einer korrekten Kalibrierung wird erschwert, wenn ein Anwender Komponenten neu konfigurieren, austauschen oder unterschiedlich positionieren kann. Beispielsweise können Endlagenschalter von motorisierten Tischen neu konfiguriert werden. Auch wenn eine Anleitung den Hinweis gibt, dass nach solchen Maßnahmen eine neue Kalibrierung durchzuführen ist, mag ein Anwender diesen Hinweis übersehen. Veränderungen können auch unwissentlich durch Stöße, sich lösende Verbindungen oder Temperaturänderungen hervorgerufen werden. Damit besteht die Gefahr, dass eine Navigation nur noch mit reduzierter Genauigkeit erfolgt und zu Kollisionen mit Beschädigungen von Gerätekomponenten oder der Probe führt.Ensuring proper calibration is made more difficult when a user can reconfigure, swap out, or reposition components. For example, limit switches of motorized tables can be reconfigured. Even if instructions indicate that a new calibration must be carried out after such measures, a user may overlook this information. Changes can also be caused unknowingly by impacts, loose connections or temperature changes. This means there is a risk that navigation will only take place with reduced accuracy and that collisions with damage will result ments of device components or the sample.

Um zu erkennen, ob eine Kalibrierung notwendig ist, wurde von der Anmelderin in DE 10 2018 133 196 A1 ein Maschinenlernmodell vorgestellt, welches in Übersichtsbildern Abweichungen zu korrekten Fällen erkennt, beispielsweise durch ein zur Anomaliedetektion trainiertes neuronales Netz. Dadurch kann basierend auf einem Übersichtsbild prinzipiell eine Fehlermeldung erzeugt werden, wenn eine Wartung nötig ist. Wünschenswert wäre eine präzisere Ermittlung, ob oder inwiefern eine Kalibrierung noch zutreffend ist.In order to recognize whether a calibration is necessary, the applicant in DE 10 2018 133 196 A1 presented a machine learning model that recognizes deviations from correct cases in overview images, for example using a neural network trained to detect anomalies. In this way, based on an overview image, an error message can be generated if maintenance is required. A more precise determination of whether or to what extent a calibration is still correct would be desirable.

KURZFASSUNGSHORT VERSION

Als eine Aufgabe der Erfindung kann angesehen werden, ein Mikroskopiesystem und ein Verfahren zur Kalibrierungsüberprüfung anzugeben, welche eine möglichst präzise und zuverlässige Auswertung ermöglichen, ob oder inwiefern Kalibrierparameter, die zur Interpretation eines Übersichtsbildes verwendet werden, zutreffend sind.An object of the invention can be seen as specifying a microscopy system and a method for checking the calibration, which enable an evaluation that is as precise and reliable as possible as to whether or to what extent calibration parameters that are used to interpret an overview image are correct.

Diese Aufgabe wird durch das Mikroskopiesystem mit den Merkmalen des Anspruchs 1 und durch das Verfahren zur Kalibrierungsüberprüfung mit den Merkmalen des Anspruchs 2 gelöst.This object is achieved by the microscopy system having the features of claim 1 and by the method for checking the calibration having the features of claim 2 .

Bei dem Mikroskopiesystem der oben genannten Art ist erfindungsgemäß die Recheneinrichtung dazu eingerichtet, die Übersichtskamera zum Aufnehmen von mindestens zwei Übersichtsbildern bei verschiedenen Probenpositionen oder Probentischpositionen anzusteuern. Die Recheneinrichtung ist weiterhin dazu eingerichtet, eine Verschiebungsabbildung zum Überlagern der Übersichtsbilder zu berechnen, wobei mit Hilfe der Kalibrierparameter eine Umrechnung der Übersichtsbilder auf eine gleiche Perspektive erfolgt. Basierend auf einer Übereinstimmungsgüte zwischen den überlagerten Übersichtsbildern bewertet die Recheneinrichtung, ob die Kalibrierparameter gültig sind.In the microscopy system of the type mentioned above, the computing device is set up according to the invention to control the overview camera for recording at least two overview images at different sample positions or sample table positions. The computing device is also set up to calculate a displacement image for superimposing the overview images, with the overview images being converted to the same perspective with the aid of the calibration parameters. Based on a quality of agreement between the superimposed overview images, the computing device assesses whether the calibration parameters are valid.

Ein erfindungsgemäßes Verfahren zur Kalibrierungsüberprüfung umfasst: Erhalten von mindestens zwei Übersichtsbildern eines Mikroskopiesystems bei verschiedenen Probenpositionen oder Probentischpositionen; Berechnen einer Verschiebungsabbildung zum Überlagern der Übersichtsbilder, wobei mit Hilfe von Kalibrierparametern eine Umrechnung der Übersichtsbilder auf eine gleiche Perspektive erfolgt; und Bewerten, basierend auf einer Übereinstimmungsgüte zwischen den überlagerten Übersichtsbildern, ob die Kalibrierparameter gültig sind.A method according to the invention for checking the calibration comprises: Obtaining at least two overview images of a microscope system at different sample positions or sample stage positions; Calculating a displacement image for superimposing the overview images, with the overview images being converted to the same perspective with the aid of calibration parameters; and assessing whether the calibration parameters are valid based on a goodness of fit between the overlaid overview images.

Zum schnelleren Verständnis wird ein Beispiel erläutert: Die Bildinhalte von zwei Übersichtsbildern, welche zu verschiedenen Probentischpositionen aufgenommen sind, sollten bei idealen Kalibrierparametern sehr genau übereinander in Deckung gebracht werden können. Werden beispielsweise mit Hilfe der Kalibrierparameter Aufsichten aus den Übersichtsbildern berechnet, so sollte ein Bildinhalt aus einer beobachteten Ebene in den zwei Aufsichten nur zueinander verschoben, aber nicht zueinander perspektivisch verzerrt sein. Daher sollte bei idealen Kalibrierparametern eine Bildverschiebung möglich sein, durch welche die Bildinhalte sehr gut miteinander übereinstimmen und demnach eine hohe Übereinstimmungsgüte haben. Sind jedoch die Bildinhalte in den beiden Aufsichten verzerrt zueinander bzw. verschieden skaliert, so ist die Übereinstimmungsgüte niedriger. Es kann in diesem Fall darauf geschlossen werden, dass nur ungenaue Aufsichten mit Hilfe der Kalibrierparameter berechnet wurden. Infolgedessen kann eine mangelhafte Genauigkeit oder Gültigkeit der Kalibrierparameter festgestellt werden.An example is explained for quicker understanding: The image contents of two overview images, which are recorded at different sample stage positions, should be able to be superimposed very precisely given ideal calibration parameters. If, for example, top views are calculated from the overview images with the help of the calibration parameters, an image content from an observed plane in the two top views should only be shifted relative to one another, but not distorted in terms of perspective. Therefore, with ideal calibration parameters, an image shift should be possible through which the image contents agree very well with one another and therefore have a high quality of agreement. However, if the image content in the two top views is distorted in relation to one another or scaled differently, the quality of agreement is lower. In this case, it can be concluded that only imprecise top views were calculated using the calibration parameters. As a result, poor accuracy or validity of the calibration parameters can be identified.

Optionale GestaltungenOptional designs

Vorteilhafte Varianten des erfindungsgemäßen Mikroskopiesystems und des erfindungsgemäßen Verfahrens sind Gegenstand der abhängigen Ansprüche und werden in der folgenden Beschreibung erläutert.Advantageous variants of the microscopy system according to the invention and the method according to the invention are the subject matter of the dependent claims and are explained in the following description.

Perspektivische Abbildung mittels Kalibrierparameter; Übersichtsbilder als AufsichtenPerspective mapping using calibration parameters; Overview images as views

Mit Hilfe der Kalibrierparameter werden die Übersichtsbilder auf eine gleiche Perspektive umgerechnet. Unter der Perspektive kann insbesondere eine Blickrichtung der Übersichtskamera aus einem bestimmten Abstand auf eine Ebene, eine Struktur oder ein Objekt im jeweiligen Übersichtsbild verstanden werden. Wird bei ortsfester Übersichtskamera ein Probentisch verschoben, so ändern sich in Übersichtsbildern allgemein Form und Größe von Strukturen am Probentisches. Durch die Umrechnung der Übersichtsbilder auf eine gleiche Perspektive mit Hilfe der Kalibrierparameter kann erreicht werden, dass Form und Größe der Strukturen einer Ebene trotz verschiedener Probentischpositionen in den umgerechneten Übersichtsbildern gleich sind.With the help of the calibration parameters, the overview images are converted to the same perspective. The perspective can be understood in particular as a viewing direction of the overview camera from a certain distance onto a plane, a structure or an object in the respective overview image. If a sample table is moved with a stationary overview camera, the shape and size of structures on the sample table change in general in overview images. By converting the overview images to the same perspective using the calibration parameters, it is possible to ensure that the shape and size of the structures in a plane are the same in the converted overview images, despite different sample stage positions.

Die Umrechnung der Übersichtsbilder auf eine gleiche Perspektive kann als homographische Abbildung erfolgen, welche eine Ebene im Raum in eine andere Ebene abbildet oder projiziert. Eine Homographie kann beispielsweise durch eine 3x3-Matrix beschrieben werden, deren Einträge von einer Höhe (entlang der optischen Achse des Mikroskops) einer abzubildenden Ebene abhängen, wobei diese Höhe über die Kalibrierparameter beschrieben wird.The overview images can be converted to the same perspective as a homographic image, which maps or projects one level in space into another level. A homography can be described, for example, by a 3×3 matrix whose entries depend on a height (along the optical axis of the microscope) of a plane to be imaged, with this height being described via the calibration parameters.

Insbesondere kann aus jedem Übersichtsbild eine Aufsicht / Draufsicht berechnet werden. Die Aufsicht entspricht einer senkrechten Betrachtung einer bestimmten Ebene. Die Ebene kann z.B. einer Probentischoberfläche, einer Probenträgerober- oder -unterseite oder einer Ebene eines Halterahmens entsprechen. In der Aufsicht auf die Ebene sollte eine Struktur, die in dieser Ebene liegt, stets die gleiche Größe und Form haben, egal an welchem Ort in der Ebene sie sich befindet. Wird der Probentisch in dieser Ebene verfahren, so sollten Form und Größe von Strukturen in dieser Ebene demnach in Aufsichten gleich bleiben. Allein eine Verschiebung der Strukturen in den als Aufsichten vorliegenden Übersichtsbildern sollte eintreten. Voraussetzung hierfür ist, dass eine Lage der Ebene bezüglich der Übersichtskamera korrekt berücksichtigt wurde. Dies erfolgt mittels der Kalibrierparameter. Abhängig von einer Präzision der Kalibrierparameter weichen berechnete Aufsichten geringfügig von tatsächlichen Aufsichten ab, sodass sich Form und Größe von Strukturen bei einer Probentischbewegung geringfügig ändern. Die Auswertung solcher Abweichungen wird später näher beschrieben. Die Umrechnungen zweier Übersichtsbilder zu Aufsichten können mathematisch identisch erfolgen, wenn eine Bewegung zwischen den Aufnahmen der Übersichtsbilder innerhalb einer Ebene erfolgt ist, welche in die Aufsicht abgebildet wird. Bei der Bewegung kann es sich um eine Verschiebung und/oder eine Drehung handeln. Prinzipiell kann auch eine Bewegung schräg oder senkrecht zu eine Ebene, die in die Aufsicht überführt wird, erfolgen. In diesen Fällen wird in den Umrechnungen auf die Aufsichten auch der geänderte Abstand der Ebene zur Kamera mit Hilfe der Kalibrierparameter berücksichtigt.In particular, a top view/top view can be calculated from each overview image. The top view corresponds to a vertical view of a specific plane. The level can, for example, correspond to a sample table surface, a top or bottom side of the sample carrier or a level of a holding frame. In plan view, a structure lying in that plane should be the same size and shape no matter where it is in the plane. If the sample table is moved in this plane, the shape and size of structures in this plane should therefore remain the same in top views. Only a shift in the structures in the overview images available as top views should occur. The prerequisite for this is that a position of the plane in relation to the overview camera has been correctly taken into account. This is done using the calibration parameters. Depending on the precision of the calibration parameters, calculated views deviate slightly from actual views, so that the shape and size of structures change slightly when the sample stage is moved. The evaluation of such deviations will be described in more detail later. The conversions of two overview images into top views can be mathematically identical if there is a movement between the recordings of the overview images within a plane that is mapped into the top view. The movement can be a displacement and/or a rotation. In principle, a movement can also take place obliquely or perpendicularly to a plane that is transferred to the top view. In these cases, the changed distance of the plane to the camera is also taken into account in the conversions to the top views with the help of the calibration parameters.

Aufsichten eignen sich unter anderem auch, weil optionale Berechnungen, wie die später näher beschriebene Segmentierung, oftmals robuster oder mit weniger Trainingsdaten umgesetzt werden können. Allerdings ist eine Umrechnung zu Aufsichten nicht zwingend. Es kann mit Hilfe der Kalibrierparameter auch eine beliebige andere Pose, die bezüglich auszuwertender Strukturen für beide Bilder gleich ist, berechnet werden. Eine gleiche Pose bezeichnet eine umgerechnet gleiche Position und Orientierung der Kamera bezüglich einer Struktur in den Übersichtsbildern.Overheads are also suitable, among other things, because optional calculations, such as the segmentation described in more detail later, can often be implemented more robustly or with less training data. However, a conversion to supervision is not mandatory. Any other pose that is the same for both images with regard to the structures to be evaluated can also be calculated with the aid of the calibration parameters. An identical pose denotes a converted identical position and orientation of the camera with respect to a structure in the overview images.

Optional können auch weitere Bildtransformationen erfolgen, beispielsweise eine Umrechnung auf eine isometrische Perspektive.Optionally, further image transformations can also take place, for example a conversion to an isometric perspective.

Segmentierungsegmentation

Die Übersichtsbilder können optional segmentiert werden. Dies kann insbesondere mit einem gelernten Modell (Segmentierungsmodell) erfolgen, welches anhand von Trainingsdaten mit Hilfe eines Lernalgorithmus gelernt wurde. Eine Ausgabe des Segmentierungsmodells ist eine Segmentierungsmaske, insbesondere eine Binärmaske, in welcher eine bestimmte Struktur durch einen gleichen Pixelwert gekennzeichnet ist, während ein anderer Pixelwert einen Hintergrund beschreibt bzw. angibt, dass die entsprechenden Pixel nicht zu dieser Struktur gehören. Welche Strukturen durch die Segmentierung gekennzeichnet werden, wurde dem Modell durch die Trainingsdaten vorgegeben. Beispielsweise kann das Segmentierungsmodell zur Segmentierung von Proben, Probenträgern, Probenträgergefäßen oder Halterahmen / Halterahmenklammern zum Halten eines Probenträgers trainiert sein. Prinzipiell kann eine Segmentierung auch durch einen klassischen Algorithmus, ohne Maschinenlernmodell, durchgeführt werden. Allgemein muss eine Segmentierungsmaske nicht durch verschiedene Pixelwerte segmentierte Objekte kennzeichnen, stattdessen können auch z.B. die Ränder segmentierter Objekte in ein Bild eingetragen werden oder eine Tabelle mit Koordinaten lokalisierter Objektformen kann als Segmentierungsmaske dienen.The overview images can optionally be segmented. This can be done in particular with a learned model (segmentation model) which was learned using training data with the aid of a learning algorithm. An output of the segmentation model is a segmentation mask, in particular a binary mask, in which a certain structure is characterized by a same pixel value, while another pixel value describes a background or indicates that the corresponding pixels do not belong to this structure. Which structures are characterized by the segmentation was given to the model by the training data. For example, the segmentation model can be trained to segment samples, sample carriers, sample carrier vessels or holding frames/holding frame clamps for holding a sample carrier. In principle, segmentation can also be carried out using a classic algorithm without a machine learning model. In general, a segmentation mask does not have to identify objects segmented by different pixel values, instead, e.g. the edges of segmented objects can be entered into an image or a table with coordinates of localized object shapes can serve as a segmentation mask.

Die Berechnung der Segmentierung kann nach der Berechnung der gleichen Perspektive erfolgen. So können insbesondere die Übersichtsbilder zunächst zu Draufsichten transformiert werden und anschließend segmentiert werden. Werden ausschließlich Draufsichten segmentiert, sind als ein Vorteil in der Regel weniger Trainingsdaten nötig, um die Segmentierung zu erlernen. Beispielsweise haben Halterahmenklammern am Probentisch in Aufsichten stets die gleiche Form, unabhängig von ihrer Position. Näpfchen einer Mikrotiterplatte sollten in Draufsichten eine gemeinsame Größe und Kreisform haben, während sie in anderen Ansichten verschiedene Größen und verschieden stark ausgeprägte Ovalformen haben. Wird die Segmentierung vor der Registrierung (dem Berechnen der Verschiebungsabbildung) durchgeführt, hat dies zum Vorteil, dass Bildinhalte aus anderen Höhenebenen keine störenden Auswirkungen auf die Berechnung der Verschiebungsabbildung haben. Beispielsweise kann die Segmentierung bezüglich einer Oberseite einer (teil- )transparenten Mikrotiterplatte erfolgen; aufgrund der Transparenz sind auch Komponenten aus anderen Höhenebenen im Übersichtsbild enthalten und nach der perspektivischen Umrechnung (in z.B. eine Draufsicht) weiterhin störend enthalten, was aber durch die Segmentierung entfernt wird.The calculation of the segmentation can be done after the calculation of the same perspective. In particular, the overview images can first be transformed into top views and then segmented. If only top views are segmented, as an advantage, less training data is usually required to learn the segmentation. For example, holding frame clamps on the sample table always have the same shape in plan views, regardless of their position. Wells of a microtiter plate should have a common size and circular shape in plan views, while in other views they have different sizes and different degrees of ovality. If the segmentation is carried out before the registration (the calculation of the displacement map), this has the advantage that image content from other height levels does not have a disruptive effect on the calculation of the displacement map. For example, the segmentation can take place with respect to a top side of a (partially) transparent microtiter plate; Due to the transparency, components from other height levels are also included in the overview image and after the perspective conversion (e.g. into a top view) they are still disturbingly included, but this is removed by the segmentation.

Prinzipiell kann eine Segmentierung aber auch vor einer Umrechnung der Übersichtsbilder auf eine gleiche Perspektive erfolgen. Hierdurch kann unter Umständen eine Beeinträchtigung der Segmentierung vermieden werden, welche bei einem fehlerhaften Versuch einer Umrechnung der Übersichtsbilder auf eine gleiche Perspektive möglich wäre.In principle, however, segmentation can also take place before the overview images are converted to the same perspective. In this way, under certain circumstances, an impairment of the segmentation can be avoided, which would be possible in the event of an incorrect attempt to convert the overview images to the same perspective.

Die Segmentierung kann eine semantische Segmentierung sein, bei welcher einem Segmentierungsbereich eine Bedeutung zugewiesen wird. Beispielsweise können Semantiken einen „Probenträger“, „Halterahmen“, „Probentisch“ oder „Hintergrund“ angeben. Optional kann ein Segmentierungsmodell auch für eine Instanz-Segmentierung gestaltet sein. Hierbei werden verschiedene Objekte desselben Objekttyps voneinander unterschieden. Insbesondere bei sich berührenden oder überlappenden Objekten desselben Objekttyps kann die Instanz-Segmentierung vorteilhaft sein, z.B. wenn Lagen oder Abstände dieser Objekte zwischen den beiden Übersichtsbildern verglichen werden.The segmentation can be a semantic segmentation in which a meaning is assigned to a segmentation area. For example, semantics can specify a "samples carrier", "clamping frame", "stage", or "background". Optionally, a segmentation model can also be designed for instance segmentation. Here, different objects of the same object type are distinguished from one another. Instance segmentation can be particularly advantageous in the case of objects of the same object type that are touching or overlapping, for example if the positions or distances of these objects are compared between the two overview images.

Verschiebungsabbildungdisplacement mapping

Die Verschiebungsabbildung zwischen den Übersichtsbildern kann insbesondere eine Verschiebung und/oder Drehung eines Bildinhalts von einem der Übersichtsbilder relativ zu einem Bildinhalt des anderen Übersichtsbildes sein. Grundsätzlich können auch beide Übersichtsbilder verschoben und/oder gedreht werden, beispielsweise um eine in beiden Übersichtsbildern abgebildete Kante in eine vorgegebene Richtung auszurichten.The displacement mapping between the overview images can in particular be a displacement and/or rotation of an image content from one of the overview images relative to an image content of the other overview image. In principle, both overview images can also be shifted and/or rotated, for example in order to align an edge depicted in both overview images in a specified direction.

Die Verschiebungsabbildung kann als diejenige Verschiebung und/oder Rotation berechnet werden, welche eine Übereinstimmung zwischen Bildinhalten der Übersichtsbilder maximiert. Die Übersichtsbilder können insbesondere segmentiert und zu Aufsichten umgerechnet sein. In diesem Fall kann eine Verschiebungsabbildung, welche die Übereinstimmung maximiert, verhältnismäßig leicht aus den segmentierten Übersichtsbildern berechnet werden. Die Maximierung kann iterativ berechnet werden oder beispielsweise über ein Maximum der Faltung der beiden Bilder. Grundsätzlich kann die Verschiebungsabbildung aber auch anhand der Übersichtsbilder, ohne Berechnung einer Segmentierung, erfolgen.The displacement mapping can be calculated as that displacement and/or rotation that maximizes correspondence between image contents of the overview images. In particular, the overview images can be segmented and converted into top views. In this case, a displacement map that maximizes the correspondence can be calculated relatively easily from the segmented overview images. The maximization can be calculated iteratively or, for example, via a maximum of the convolution of the two images. In principle, however, the displacement mapping can also take place using the overview images, without calculating a segmentation.

Für die Berechnung der Verschiebungsabbildung können erlaubte Grenzwerte der Verschiebung und/oder Rotation vorgegeben sein. Die erlaubten Grenzwerte begrenzen einen möglichen Verschiebungsbereich oder Rotationsbereich der Bilder zueinander und können insbesondere abhängig von den Kalibrierparametern festgelegt sein. Bei einer iterativen Berechnung der Verschiebungsabbildung können alternativ oder zusätzlich auch Startwerte der Iteration abhängig von den Kalibrierparametern festgelegt werden. Die Grenzwerte und Startwerte können außer von den Kalibrierparametern auch von erhaltenen Daten abhängen, welche die Probentischposition oder eine durchgeführte Probentischbewegung zwischen den Aufnahmen der Übersichtsbilder betreffen. Wird ein Probentisch zwischen den Aufnahmen zweier Übersichtsbilder verfahren, so kann eine Verschiebung der Bilder beispielsweise durch die Kalibrierparameter und einen Ansteuerbefehl an den verfahrbaren Probentisch, durch welchen der Probentisch zwischen den Aufnahmen verfahren wurde, bzw. durch einen von einem Probentischsensor gelieferten Positionswert geschätzt werden. Diese geschätzte Verschiebung kann als Startwert der Iteration und/oder zum Festlegen von Grenzwerten der zu ermittelnden Verschiebung genutzt werden. Ist bekannt, dass zwischen den Aufnahmen der Übersichtsbilder allein eine Probentischverschiebung erfolgt ist, kann zudem die Verschiebungsabbildung auf eine Verschiebung ohne Rotation eingeschränkt sein.Allowed limit values of the displacement and/or rotation can be specified for the calculation of the displacement mapping. The permitted limit values delimit a possible displacement range or rotation range of the images relative to one another and can be specified in particular as a function of the calibration parameters. In the case of an iterative calculation of the displacement mapping, alternatively or additionally, starting values of the iteration can also be specified as a function of the calibration parameters. In addition to the calibration parameters, the limit values and start values can also depend on data received which relate to the sample stage position or a sample stage movement carried out between the recordings of the overview images. If a sample table is moved between the recordings of two overview images, a displacement of the images can be estimated, for example, by the calibration parameters and a control command to the movable sample table, by which the sample table was moved between the recordings, or by a position value supplied by a sample table sensor. This estimated displacement can be used as a starting value for the iteration and/or for setting limit values for the displacement to be determined. If it is known that between the recordings of the overview images only a sample stage displacement has taken place, the displacement mapping can also be restricted to a displacement without rotation.

Prinzipiell kann die Verschiebungsabbildung auch mit Hilfe oder allein aus einer bekannten Verstellung zwischen den Probentischpositionen der mindestens zwei Übersichtsbilder berechnet werden. Bei dieser Variante müssen also Bildinhalte der Übersichtsbilder nicht zwingend zum Festlegen der Verschiebungsabbildung ausgewertet werden. Bei anderen Ausführungen muss hingegen die Bewegungsstrecke einer Probentischverstellung nicht bekannt sein und auch nicht geschätzt werden, da die Übersichtsbildern aufeinander geschoben werden, ohne dass die Größe der entsprechenden Bildverschiebung für die weitere Auswertung berücksichtigt werden muss.In principle, the displacement mapping can also be calculated with the aid of or solely from a known adjustment between the sample stage positions of the at least two overview images. In this variant, therefore, the image contents of the overview images do not necessarily have to be evaluated in order to define the displacement mapping. In other embodiments, on the other hand, the movement distance of a sample stage adjustment does not have to be known and also does not have to be estimated, since the overview images are shifted onto one another without the size of the corresponding image shift having to be taken into account for the further evaluation.

Werden mit Hilfe der Kalibrierparameter die mindestens zwei Übersichtsbilder zunächst in Draufsichten transformiert, kann danach die Verschiebungsabbildung als Linearverschiebung berechnet werden.If the at least two overview images are first transformed into plan views using the calibration parameters, the displacement image can then be calculated as a linear displacement.

Werden aus den mindestens zwei Übersichtsbildern zunächst jeweils eine Segmentierungsmaske berechnet, so kann die Verschiebungsabbildung basierend auf den Segmentierungsmasken berechnet werden.If a segmentation mask is first calculated from the at least two overview images, the displacement mapping can be calculated on the basis of the segmentation masks.

In weiteren Varianten erfolgt die perspektivische Umrechnung mit Hilfe der Kalibrierparameter zusammen oder gleichzeitig mit der Berechnung der Verschiebungsabbildung. In diesem Fall können insbesondere die unveränderten Übersichtsbilder iterativ zueinander verschoben oder gedreht werden, wobei für jede dieser Verschiebungen/Drehungen eine von der Verschiebung/Drehung abhängige perspektivische Umrechnung des verschobenen bzw. gedrehten Übersichtsbildes erfolgt.In further variants, the perspective conversion takes place with the aid of the calibration parameters together with or at the same time as the calculation of the displacement image. In this case, in particular, the unchanged overview images can be iteratively shifted or rotated relative to one another, with a perspective conversion of the shifted or rotated overview image, which is dependent on the shift/rotation, taking place for each of these shifts/rotations.

Gesamtes Übersichtsbild oder nur Teil hiervonEntire overview image or only part of it

Zum sprachlich einfacheren Verständnis nennen verschiedene Erfindungsvarianten ein Übersichtsbild, worunter das gesamte Übersichtsbild oder auch nur ein Teil hiervon verstanden werden kann. Insbesondere kann die Verschiebungsabbildung auch allein an einem oder mehreren Bildbereichen aus den Übersichtsbildern ermittelt werden. Die Übereinstimmungsgüte kann ebenfalls entweder anhand der gesamten Übersichtsbilder oder nur anhand eines oder mehrerer Bildbereiche berechnet werden.For easier linguistic understanding, various variants of the invention call an overview image, which can be understood to mean the entire overview image or just a part of it. In particular, the displacement mapping can also be determined solely from one or more image areas from the overview images. The quality of agreement can likewise be calculated either using the entire overview images or only using one or more image areas.

Übrige Bereiche der Übersichtsbilder können entweder weggeschnitten werden oder ebenfalls mit verrechnet werden; beispielsweise können in der Verschiebungsabbildung zwar die gesamten Übersichtsbilder zueinander verschoben werden, wobei aber die Festlegung der Verschiebungsabbildung allein anhand bestimmter relevanter Bereiche erfolgt und übrige Bildbereiche nicht die Festlegung der Verschiebungsabbildung beeinflussen. Insbesondere kann aus den Übersichtsbildern zunächst mindestens ein relevanter Bereich ermittelt werden; sodann wird die Verschiebungsabbildung bezüglich des mindestens einen relevanten Bereichs berechnet. Der mindestens eine relevante Bereich kann z.B. über ein Maschinenlernmodell ermittelt wird, welches zur Segmentierung oder Detektion trainiert ist. Beispielsweise kann ein Segmentierungsmodell dazu trainiert sein, Halterahmenklammern von einem übrigen Bildinhalt (=Hintergrund) zu unterscheiden. Nach einer solchen Segmentierung spielt nur eine Verschiebung oder Drehung der Halterahmenklammern zwischen den zwei Übersichtsbildern eine Rolle, während Änderungen übriger Bildinhalte keine Auswirkungen auf die Ermittlung der Verschiebungsabbildung haben. Im Fall einer Detektion können die Bildbereiche von einem oder mehreren vorgegebenen Objekten ermittelt werden. Beispielsweise können durch eine Detektion Ränder oder Ecken von Halterahmenkomponenten oder Probenträgern gesucht werden. Anschließend werden allein Bildbereiche um diese Objekte für die Ermittlung der Verschiebungsabbildung berücksichtigt. Zum Beispiel kann eine Verschiebung zwischen den Übersichtsbildern so bestimmt werden, dass in Bildausschnitten um die Ecken eines Halterahmens eine Übereinstimmung zwischen den Übersichtsbildern maximal ist, während es unberücksichtigt bleibt, ob in anderen Bildausschnitten die Übereinstimmung zwischen den beiden Übersichtsbildern nur gering ist.Remaining areas of the overview images can either be cut out or also included in the calculation; For example, the entire overview images can be shifted relative to one another in the displacement image, but the displacement image is defined solely on the basis of certain relevant areas and other image areas do not influence the definition of the displacement image. In particular, at least one relevant area can first be determined from the overview images; then the displacement map is calculated with respect to the at least one relevant area. The at least one relevant area can be determined, for example, using a machine learning model that is trained for segmentation or detection. For example, a segmentation model can be trained to distinguish holding frame brackets from the rest of the image content (=background). After such a segmentation, only a displacement or rotation of the holding frame clamps between the two overview images plays a role, while changes in the remaining image content have no effect on the determination of the displacement mapping. In the case of a detection, the image areas of one or more specified objects can be determined. For example, edges or corners of holding frame components or sample carriers can be searched for by a detection. Then only image areas around these objects are taken into account for determining the displacement mapping. For example, a shift between the overview images can be determined in such a way that in image sections around the corners of a holding frame a match between the overview images is maximum, while it is not taken into account whether in other image sections the match between the two overview images is only slight.

Die Berechnungen der Verschiebungsabbildung und der Übereinstimmungsgüte können somit entweder am gesamten Bildinhalt oder nur an Bildbereichen erfolgen, wobei die Bildbereiche entweder fest vorgegeben sind oder anhand eines Bildinhalts ermittelt werden, z.B. über ein Detektionsmodell und/oder ein Segmentierungsmodells.The displacement mapping and the quality of agreement can thus be calculated either for the entire image content or only for image areas, with the image areas either being fixed or determined using image content, e.g. using a detection model and/or a segmentation model.

Übersichtsbilder bei verschiedenen Proben- oder ProbentischpositionenOverview images for different sample or sample stage positions

Ein Sichtfeld der mindestens zwei Übersichtsbilder deckt eine Probenortumgebung ab. Ein Probenort soll den Ort bezeichnen, an dem eine Probe im Messbetrieb angeordnet wird. In den Übersichtsbildern muss aber nicht eine Probe sichtbar oder überhaupt vorhanden sein. Beispielsweise können Übersichtsbilder auch von einem leeren Probenträger oder allein von einem Probentisch (ohne Probenträger) aufgenommen werden.A field of view of the at least two overview images covers a sample site environment. A sample location is intended to denote the location at which a sample is placed in the measurement mode. In the overview images, however, a sample does not have to be visible or present at all. For example, overview images can also be recorded from an empty sample carrier or solely from a sample table (without sample carrier).

Zwischen zwei aufgenommenen Übersichtsbildern erfolgt eine Bewegung der Probe oder des Probentisches. Insbesondere kann ein motorisch verstellbarer Probentisch lateral verstellt werden, also innerhalb der Ebene, die durch eine Probentischoberseite aufgespannt wird. Prinzipiell sind aber auch Bewegungen in andere Richtungen möglich. Ein Probentisch oder die Probe selbst kann auch manuell zwischen den Aufnahmen der Übersichtsbilder bewegt, insbesondere lateral verschoben, werden. The sample or the sample stage moves between two recorded overview images. In particular, a motorized adjustable sample table can be adjusted laterally, ie within the plane that is spanned by a sample table top. In principle, however, movements in other directions are also possible. A sample table or the sample itself can also be moved manually between the recordings of the overview images, in particular shifted laterally.

Für die Funktionsweise der beschriebenen Erfindung ist die Gestaltung des Probentisches im Wesentlichen unerheblich, weshalb hierunter sehr allgemein eine bewegbare Komponente verstanden werden kann, über welche ein zu untersuchendes Objekt bewegt werden kann. Das Objekt selbst kann auf dem Probentisch aufliegen, in einer Aufnahme aufgenommen sein oder durch z.B. Klammern oder einen Greifarm gehalten sein. Der Probentisch selbst kann im Übersichtsbild sichtbar sein, oder alternativ kann nur das Objekt oder nur eine Objekthalterung des Probentisches sichtbar sein.The design of the sample table is essentially irrelevant for the functioning of the described invention, which is why this can be understood very generally as a movable component via which an object to be examined can be moved. The object itself can lie on the sample table, be held in a holder or be held by clamps or a gripper arm, for example. The sample table itself can be visible in the overview image, or alternatively only the object or only an object holder of the sample table can be visible.

Als Objekt oder Probe kann ein beliebiges Untersuchungsobjekt dienen, z.B. eine biologische Probe, Halbleiter- oder Elektronikteile, Gesteins- oder Materialproben.Any object to be examined can serve as an object or sample, e.g. a biological sample, semiconductor or electronic parts, rock or material samples.

Überlagerte ÜbersichtsbilderSuperimposed overview images

Unter überlagerten Übersichtsbildern können die zwei Übersichtsbilder nach Berechnung einer Verschiebungsabbildung, durch welche ihre Bildinhalte übereinander geschoben werden, verstanden werden. Dies wird auch als Registrierung der zwei Übersichtsbilder bezeichnet. Die überlagerten Übersichtsbilder können durch separat vorliegende Bilder geformt sein oder durch ein einziges Bild, dessen Inhalt eine Überlagerung der entsprechenden Übersichtsbilder darstellt. Werden aus den Übersichtsbildern beispielsweise Segmentierungsmasken berechnet, können die Segmentierungsmasken zu einem einzigen Bild überlagert werden. Verschiedene Pixelwerte in diesem einzigen Bild geben an, ob der entsprechende Pixel nur im ersten Übersichtsbild, nur im zweiten Übersichtsbild, in beiden Übersichtsbildern oder in keinem der Übersichtsbilder zu einem segmentierten Objekt gehört. Es können auch allein relevante Bildbereiche der Übersichtsbilder ausgewählt und wie beschrieben überlagert werden.Superimposed overview images can be understood to mean the two overview images after calculation of a displacement mapping, through which their image contents are shifted over one another. This is also referred to as registration of the two overview images. The superimposed overview images can be formed by separate images or by a single image whose content represents an overlay of the corresponding overview images. If, for example, segmentation masks are calculated from the overview images, the segmentation masks can be superimposed to form a single image. Different pixel values in this single image indicate whether the corresponding pixel belongs to a segmented object only in the first overview image, only in the second overview image, in both overview images or in neither overview image. It can too only relevant image areas of the overview images are selected and superimposed as described.

Übereinstimmungsgütegoodness of fit

Die Übereinstimmungsgüte stellt ein Maß dafür dar, wie sehr sich die mindestens zwei überlagerten Übersichtsbilder ähneln. Die Ähnlichkeit wird nach Anwendung der Verschiebungsabbildung ermittelt, so dass die Übersichtsbilder bei Gültigkeit der Kalibrierparameter miteinander wesentlich übereinstimmen sollten. Zumindest bei flachen Objekten oder ebenen Oberflächen, die in einer Ebene liegen, welche von den Kalibrierparametern angenommen wird, sollte die Übereinstimmung besonders hoch sein.The quality of agreement represents a measure of how similar the at least two superimposed overview images are. The similarity is determined after the displacement mapping has been applied, so that the overview images should essentially match one another if the calibration parameters are valid. At least in the case of flat objects or even surfaces that lie in a plane that is assumed by the calibration parameters, the agreement should be particularly high.

Als einfache Methode zur Berechnung einer Übereinstimmungsgüte kann die Bildfläche übereinander gelegter Segmentierungsmasken (nach der Verschiebung) ermittelt werden, in welchem sich die beiden Segmentierungsmasken unterscheiden. Diese Bildfläche kann mit einem vorgegebenen Schwellwert verglichen werden, um eine korrekte von einer inkorrekten Kalibrierung zu unterscheiden.As a simple method for calculating a goodness of fit, the image area of superimposed segmentation masks (after the shift) can be determined in which the two segmentation masks differ. This image area can be compared to a predetermined threshold value in order to distinguish between correct and incorrect calibration.

Die Verschiebungsabbildung und die Berechnung der Übereinstimmungsgüte können auch durch einen gemeinsamen Rechenvorgang erfolgen, z.B. über eine Faltung der beiden Übersichtsbilder.The displacement mapping and the calculation of the quality of agreement can also be carried out by a joint calculation process, e.g. by convolving the two overview images.

Die Übereinstimmungsgüte zwischen den überlagerten Übersichtsbildern kann alternativ auch über ein Verhältnis von Überlappbereichen zu nicht überlappenden Bereichen der überlagerten Übersichtsbilder berechnet werden. Zu jedem der nicht überlappenden Bereiche kann zudem eine jeweilige Abweichungsrichtung berechnet werden. Beispielsweise können die Übersichtsbilder als segmentierte Übersichtsbilder (Segmentierungsmasken) übereinander geschoben und überlagert werden. In einem Überlappbereich haben beide Segmentierungsmasken denselben Pixelwert. In nicht überlappenden Bereichen haben hingegen die beiden Segmentierungsmasken verschiedene Pixelwerte. Sind die Kalibrierparameter ungenau, kommt es bei einem segmentierten Objekt in der Regel an dessen Rändern zu mehreren nicht überlappenden Bereichen. Die Abweichungs- oder Verschiebungsrichtung eines nicht überlappenden Bereichs gibt an, in welcher Bildrichtung sich der nächste Überlappungsbereich (des segmentierten Objekts) befindet. Das Verhältnis von Überlappbereichen zu nicht überlappenden Bereichen sowie die jeweiligen Abweichungsrichtungen sind charakteristisch für Kalibrierparameter, die von korrekten Kalibrierparametern abweichen. Hierbei kann genutzt werden, dass durch ungenaue Kalibrierparameter feldabhängige Verschiebungen und Skalierungen der Segmentierungsmasken bzw. des Bildinhalts auftreten, welche sich von z.B. ungenauen Segmentierungen qualitativ unterscheiden.Alternatively, the quality of correspondence between the superimposed overview images can also be calculated via a ratio of overlapping areas to non-overlapping areas of the superimposed overview images. A respective deviation direction can also be calculated for each of the non-overlapping areas. For example, the overview images can be superimposed and superimposed as segmented overview images (segmentation masks). In an overlap area, both segmentation masks have the same pixel value. In non-overlapping areas, on the other hand, the two segmentation masks have different pixel values. If the calibration parameters are imprecise, a segmented object usually has several non-overlapping areas at its edges. The deviation or displacement direction of a non-overlapping area indicates in which image direction the next overlapping area (of the segmented object) is located. The ratio of overlapping areas to non-overlapping areas and the respective directions of deviation are characteristic of calibration parameters that deviate from correct calibration parameters. It can be used here that field-dependent shifts and scaling of the segmentation masks or the image content occur due to imprecise calibration parameters, which qualitatively differ from, for example, imprecise segmentations.

Die Übereinstimmungsgüte kann anhand der gesamten überlagerten Übersichtsbilder oder nur anhand bestimmter Bildbereiche (Bewertungsbildbereiche) der Übersichtsbilder ermittelt werden. Es können insbesondere durch ein Maschinenlernmodell Bewertungsbildbereiche ausgewählt werden, an welchen die Übereinstimmungsgüte berechnet wird. Dem Maschinenlernmodell wird mindestens eines der Übersichtsbilder oder mindestens ein aus einem oder beiden der Übersichtsbilder berechnetes Bild eingegeben. Als Ausgabe gibt das Maschinenlernmodell Bildbereiche an, welche als die Bewertungsbildbereiche verwendet werden. Beispielsweise kann ein gelerntes Detektionsmodell verwendet werden, welches anhand vorgegebener Trainingsbilder mit annotierten Bildbereichen gelernt hat, in Eingabebildern bestimmte Bildbereiche zu markieren. Das Detektionsmodell kann z.B. dazu trainiert sein, alle Ecken eines Halterahmens oder eines Probenträgers zu lokalisieren, oder nur bestimmte Ecken, z.B. diejenigen Halterahmenecken, die an Halterahmenkanten angrenzen, welche einen Probenträger halten bzw. dem Probenträger zugewandt sind.The quality of agreement can be determined using the entire superimposed overview images or only using specific image areas (evaluation image areas) of the overview images. In particular, a machine learning model can be used to select evaluation image areas on which the quality of agreement is calculated. At least one of the overview images or at least one image calculated from one or both of the overview images is input to the machine learning model. As an output, the machine learning model indicates image areas that are used as the evaluation image areas. For example, a learned detection model can be used, which has learned to mark certain image regions in input images using predefined training images with annotated image regions. For example, the detection model can be trained to locate all corners of a rack or sample carrier, or only certain corners, e.g., those rack corners that are adjacent to rack edges that hold a sample carrier or face the sample carrier.

Die Berechnung der Übereinstimmungsgüte zwischen den überlagerten Übersichtsbildern kann auch über ein (weiteres) trainiertes Maschinenlernmodell erfolgen, welches die überlagerten Übersichtsbilder oder Bildbereiche hiervon als Eingabe erhält und als Ausgabe die Übereinstimmungsgüte berechnet.The quality of match between the superimposed overview images can also be calculated using a (further) trained machine learning model, which receives the superimposed overview images or image areas thereof as input and calculates the quality of match as output.

Anstelle oder zusätzlich zur Berechnung des Verhältnisses zwischen Überlappbereichen zu nicht überlappenden Bereichen, kann die Übereinstimmungsgüte auch anhand von Bildabständen zwischen einander korrespondierenden Strukturen in den überlagerten Übersichtsbildern ermittelt werden. Als Strukturen können bestimmte Objekte oder Objektteile lokalisiert werden, beispielsweise mehrere Ecken eines Objekts. Die Übersichtsbilder können so zueinander verschoben und/oder gedreht sein, dass Bildabstände zwischen den Ecken, die in den beiden Übersichtsbildern einander entsprechenden, minimal sind. Die Bildabstände können z.B. jeweils als Pixelabstand gemessen werden. Bei nicht idealen Kalibrierparametern gibt es aufgrund von Skalierungseffekten systematische Fehler, insbesondere zeigen die Bildabstände für die Ecken in verschiedene Richtungen, wobei aus den Größen und Richtungen der Bildabstände auf eine Gültigkeit oder Ungültigkeit der Kalibrierparameter geschlossen werden kann.Instead of or in addition to calculating the ratio between overlapping areas and non-overlapping areas, the quality of match can also be determined using image distances between corresponding structures in the overlaid overview images. Specific objects or parts of objects can be localized as structures, for example several corners of an object. The overview images can be shifted and/or rotated relative to one another in such a way that the image distances between the corners that correspond to one another in the two overview images are minimal. The image distances can be measured, for example, as pixel distances. If the calibration parameters are not ideal, there are systematic errors due to scaling effects, in particular the image distances for the corners point in different directions, it being possible to conclude from the sizes and directions of the image distances that the calibration parameters are valid or invalid.

Überlagerte Übersichtsbilder, an denen die Übereinstimmungsgüte ermittelt wird, können auch durch zweidimensionale Punktfolgen dargestellt werden. Hierbei werden anstelle des gesamten Bildinhaltes eines Übersichtsbildes nur einzelne Punkte des Übersichtsbildes verwendet. Als Übereinstimmungsgüte wird berechnet, wie präzise die Punktfolgen der verschiedenen Übersichtsbilder in Übereinstimmung gebracht werden können.Superimposed overview images, on the basis of which the quality of agreement is determined, can also be used be represented by two-dimensional sequences of points. In this case, only individual points of the overview image are used instead of the entire image content of an overview image. The quality of agreement is calculated as to how precisely the point sequences of the various overview images can be matched.

Zeitlicher Verlauf der ÜbereinstimmungsgüteGoodness of fit over time

Optional werden mehr als zwei Übersichtsbilder nacheinander aufgenommen und mit Hilfe dieser Übersichtsbilder wird ein zeitlicher Verlauf der Übereinstimmungsgüte berechnet. Insbesondere kann aus jeweils einem Paar an nacheinander aufgenommenen Übersichtsbildern eine jeweilige Übereinstimmungsgüte berechnet werden. Anhand des zeitlichen Verlaufs der Übereinstimmungsgüte kann bewertet wird, ob die Kalibrierparameter gültig sind.Optionally, more than two overview images are recorded one after the other and with the help of these overview images, a time profile of the quality of agreement is calculated. In particular, a respective quality of match can be calculated from a pair of overview images recorded one after the other. The time profile of the quality of agreement can be used to assess whether the calibration parameters are valid.

Über einen zeitlichen Verlauf kann eine einmalig schlechtere Übereinstimmungsgüte von einer dauerhaft schlechteren Übereinstimmungsgüte unterschieden werden. Ein einmalig schlechterer Wert kann z.B. durch eine fehlerhafte Segmentierung oder Verschiebungsberechnung hervorgerufen sein und muss nicht zwingend aus unzutreffenden Kalibrierparametern resultieren. Ist die Übereinstimmungsgüte hingegen mehrmals unter einem vorgegebenen Grenzwert, kann sicher auf eine Ungültigkeit der Kalibrierparameter geschlossen werden.A uniquely poorer quality of agreement can be distinguished from a permanently poorer quality of agreement over a period of time. A one-off worse value can be caused, for example, by incorrect segmentation or shift calculation and does not necessarily have to result from incorrect calibration parameters. If, on the other hand, the quality of agreement is several times below a predetermined limit value, it can be concluded with certainty that the calibration parameters are invalid.

Eine wiederholte Aufnahme von Übersichtsbildern mit zueinander verschobenem Probentisch kann im üblichen Mikroskopiebetrieb häufig zur Höhenschätzung mittels Triangulationsverfahren vorgesehen sein. Diese Aufnahmen von Übersichtsbildern, die also ohnehin zur Höhenschätzung erfolgen, können zusätzlich in der beschriebenen Weise von der Erfindung genutzt werden. Dadurch müssen für die dargelegte Überprüfung der Kalibrierparameter keine zusätzlichen Übersichtsbildaufnahmen und Probentischbewegungen erfolgen, die nicht ohnehin zur Höhenschätzung vorgesehen wären.A repeated acquisition of overview images with the sample stage shifted relative to one another can often be provided in normal microscopy operation for estimating the height by means of triangulation methods. These recordings of overview images, which are therefore made anyway for height estimation, can also be used by the invention in the manner described. As a result, no additional overview image recordings and sample table movements, which would not be provided for height estimation anyway, have to be carried out for the verification of the calibration parameters presented.

Gültigkeit der Kalibrierparameter, FolgeaktionenValidity of calibration parameters, follow-up actions

Die Bestimmung, ob Kalibrierparameter gültig sind, kann als eine kategorische Einteilung erfolgen (z.B. ja/nein) oder durch eine Qualitätsangabe mittels einer diskreten oder kontinuierlichen Zahlenangabe in einem Wertebereich.The determination of whether calibration parameters are valid can be made as a categorical classification (e.g. yes/no) or by an indication of quality using a discrete or continuous number in a range of values.

Die berechnete Übereinstimmungsgüte kann direkt als Qualitätsangabe der Kalibrierparameter bzw. als Maß hierfür verwendet werden. Alternativ kann aus einer Mittelung oder dem oben beschriebenen zeitlichen Verlauf der Übereinstimmungsgüte auf eine Qualitätsangabe der Kalibrierparameter geschlossen werden.The calculated quality of agreement can be used directly as an indication of the quality of the calibration parameters or as a measure for this. Alternatively, an indication of the quality of the calibration parameters can be inferred from an averaging or from the above-described time profile of the quality of agreement.

Werden die Kalibrierparameter als ungültig eingestuft, kann eine Warnung oder ein Hinweis an einen Nutzer ausgegeben werden, dass eine Kalibrierung erforderlich ist. Alternativ oder zusätzlich kann auch ein automatisches Auslösen eines Kalibriervorgangs erfolgen.If the calibration parameters are classified as invalid, a warning or notice can be issued to a user that a calibration is required. Alternatively or additionally, a calibration process can also be triggered automatically.

Allgemeine EigenschaftenGeneral properties

Als Mikroskopiesystem wird eine Vorrichtung verstanden, die zumindest eine Recheneinrichtung und ein Mikroskop umfasst. Unter einem Mikroskop kann ein prinzipiell beliebiges vergrößerndes Messgerät verstanden werden, insbesondere ein Lichtmikroskop, Röntgenmikroskop, Elektronenmikroskop, Makroskop oder auch ein anders gestaltetes vergrößerndes Bildaufnahmegerät.A microscopy system is understood to mean a device which comprises at least one computing device and one microscope. In principle, a microscope can be understood to mean any magnifying measuring device, in particular a light microscope, X-ray microscope, electron microscope, macroscope or also a differently designed magnifying image recording device.

Die Recheneinrichtung kann physisch als Teil des Mikroskops gestaltet sein, separat in der Mikroskopumgebung angeordnet sein oder an einem vom Mikroskop beliebig entfernten Ort angeordnet sein. Die Recheneinrichtung kann auch dezentral gestaltet sein und über eine Datenverbindung mit dem Mikroskop kommunizieren. Sie kann allgemein durch eine beliebige Kombination aus Elektronik und Software gebildet sein und insbesondere einen Computer, einen Server, ein cloud-basiertes Rechensystem oder einen oder mehrere Mikro- oder Graphikprozessoren umfassen. Die Recheneinrichtung kann auch zur Steuerung der Mikroskopkamera, der Bildaufnahme, der Probentischansteuerung und/oder anderer Mikroskopkomponenten eingerichtet sein.The computing device may be physically designed as part of the microscope, located separately in the microscope environment, or located at any location remote from the microscope. The computing device can also be decentralized and communicate with the microscope via a data connection. It can generally be formed by any combination of electronics and software and in particular can include a computer, a server, a cloud-based computing system or one or more microprocessors or graphics processors. The computing device can also be set up to control the microscope camera, the image recording, the sample stage control and/or other microscope components.

Die Übersichtskamera zum Aufnehmen eines Übersichtsbildes kann zusätzlich zu einer Probenkamera vorhanden sein, mit welcher stärker vergrößerte Bilder eines Probenbereichs aufgenommen werden. Alternativ kann es sich hierbei aber auch um dieselbe Kamera handeln, wobei verschiedene Objektive oder Optiksysteme für die Aufnahme eines Übersichtsbildes und eines stärker vergrößerten Probenbildes verwendet werden. Die Übersichtskamera kann an einem ortsfesten Geräterahmen, z.B. einem Mikroskopstativ, angebracht sein oder an einer beweglichen Komponente, z.B. einem Probentisch, Fokussiertrieb oder Objektivrevolver. Bei dem Übersichtsbild kann es sich um ein Rohbild handeln, wie es von einer Kamera aufgenommen wird, oder um ein verarbeitetes Bild aus einem oder mehreren Rohbildern. Ein aufgenommenes Rohbild / Übersichtsbild kann weiterverarbeitet werden, bevor es in der hier beschriebenen Weise ausgewertet wird. Verfahrensvarianten der Erfindung können auf vorab aufgenommen Übersichtsbildern beruhen und diese aus z.B. einem Speicher erhalten, oder alternativ kann das Aufnehmen der Übersichtsbilder ebenfalls Teil der beanspruchten Verfahrensvarianten sein. Vorliegend beschriebene Bilder, z.B. Übersichtsbilder, können aus Pixeln bestehen, Vektorgraphiken sein oder als Mischungen hieraus gebildet sein. Insbesondere Segmentierungsmasken können Vektorgraphiken sein oder in solche umgewandelt werden. Zum leichteren Verständnis werden verschiedene Ausführungen in Bezug auf zwei Übersichtsbilder beschrieben, was im Sinne von genau zwei oder mindestens zwei Übersichtsbilder verstanden werden kann.The overview camera for recording an overview image can be present in addition to a sample camera, with which more enlarged images of a sample area are recorded. Alternatively, however, this can also be the same camera, with different lenses or optical systems being used for recording an overview image and a more greatly enlarged sample image. The overview camera can be attached to a stationary device frame, eg a microscope stand, or to a movable component, eg a sample table, focusing drive or objective turret. The overview image can be a raw image as captured by a camera, or a processed image from one or more raw images. A recorded raw image / overview image can be further processed before it is evaluated in the manner described here. Method variants of the invention can be based on previously recorded overview images and obtain them from a memory, for example, or alternatively the recording of the overview images can also be part of the claimed method variants. Presently described images, e.g. About visual images may be composed of pixels, vector graphics, or mixtures thereof. In particular, segmentation masks can be vector graphics or can be converted into such. For easier understanding, various embodiments are described in relation to two overview images, which can be understood in the sense of exactly two or at least two overview images.

Ein erfindungsgemäßes Computerprogramm umfasst Befehle, die bei Ausführung durch einen Computer die Ausführung einer der beschriebenen Verfahrensvarianten veranlassen.A computer program according to the invention comprises instructions which, when executed by a computer, cause one of the method variants described to be carried out.

Vorliegend beschriebene gelernte Modelle bzw. Maschinenlernmodelle bezeichnen jeweils ein Modell, welches von einem Lernalgorithmus anhand von Trainingsdaten gelernt wurde. Die Maschinenlernmodelle können beispielsweise jeweils ein oder mehrere faltende neuronale Netze (englisch: convolutional neural network, CNN) umfassen, welche als Eingabe mindestens ein Eingabebild erhalten, insbesondere ein Übersichtsbild oder ein hiermit berechnetes Bild. Das Training des Maschinenlernmodells kann durch einen überwachten Lernvorgang erfolgt sein, in welchem Trainings-Übersichtsbilder mit jeweiliger Annotation/Kennzeichnung vorgegeben wurden. Ein Lernalgorithmus wird verwendet, um Modellparameter des Maschinenlernmodells an Hand der annotierten Trainings-Übersichtsbilder festzulegen. Hierzu kann eine vorgegebene Zielfunktion optimiert werden, z.B. eine Verlustfunktion minimiert werden. Die Verlustfunktion beschreibt Abweichungen zwischen den vorgegebenen Kennzeichnungen und momentanen Ausgaben des Maschinenlernmodells, welche mit den momentanen Modellparameterwerten aus Trainings-Übersichtsbildern berechnet werden. Die Modellparameterwerte werden zum Minimieren der Verlustfunktion verändert, was z.B. durch einen (stochastischen) Gradientenabstieg berechnet werden kann. Im Fall eines CNN können die Modellparameter insbesondere Einträge von Faltungsmatrizen der verschiedenen Schichten des CNN umfassen. Auch andere Modellarchitekturen eines tiefen neuronalen Netzes (englisch: deep neural network) sind statt eines CNN möglich. Anstelle eines überwachten Lernvorgangs kann auch ein unüberwachtes Training erfolgen, in welchem keine Annotationen zu den Trainingsbildern vorgegeben werden. Möglich sind auch ein teilüberwachtes Training oder ein Lernverfahren des bestärkenden Lernens (englisch: reinforcement learning).The learned models or machine learning models described here each refer to a model that was learned by a learning algorithm using training data. The machine learning models can, for example, each include one or more convolutional neural networks (CNN), which receive at least one input image as input, in particular an overview image or an image calculated therewith. The training of the machine learning model can have taken place through a monitored learning process, in which training overview images with the respective annotation/identification were specified. A learning algorithm is used to set model parameters of the machine learning model based on the annotated training overview images. For this purpose, a given target function can be optimized, e.g. a loss function can be minimized. The loss function describes deviations between the given labels and current outputs of the machine learning model, which are calculated with the current model parameter values from training overview images. The model parameter values are changed to minimize the loss function, which can be calculated, for example, by (stochastic) gradient descent. In the case of a CNN, the model parameters can in particular include entries from convolution matrices of the various layers of the CNN. Other model architectures of a deep neural network are also possible instead of a CNN. Instead of a supervised learning process, unsupervised training can also take place, in which no annotations are specified for the training images. Partially supervised training or a learning method of reinforcement learning are also possible.

Die als zusätzliche Vorrichtungsmerkmale beschriebenen Eigenschaften der Erfindung ergeben bei bestimmungsgemäßer Verwendung auch Varianten der erfindungsgemäßen Verfahren. In umgekehrter Weise kann ein Mikroskopiesystem auch zum Ausführen der beschriebenen Verfahrensvarianten eingerichtet sein. Insbesondere kann die Recheneinrichtung dazu eingerichtet sein, die beschriebenen Verfahrensvarianten durchzuführen und/oder Steuerbefehle zur Ausführung von beschriebenen Verfahrensschritten auszugeben. Zudem kann die Recheneinrichtung das beschriebene Computerprogramm umfassen. Während bei einigen Varianten ein fertig trainiertes Maschinenlernmodell verwendet wird, ergeben sich weitere Erfindungsvarianten durch die Ausführung der entsprechenden Trainingsschritte.The properties of the invention described as additional device features also result in variants of the method according to the invention when used as intended. Conversely, a microscopy system can also be set up to carry out the method variants described. In particular, the computing device can be set up to carry out the method variants described and/or to output control commands for carrying out the method steps described. In addition, the computing device can include the computer program described. While a fully trained machine learning model is used in some variants, further variants of the invention result from the execution of the corresponding training steps.

Figurenlistecharacter list

Weitere Vorteile und Merkmale der Erfindung werden nachstehend mit Bezug auf die beigefügten schematischen Figuren beschrieben:

  • 1 ist eine schematische Darstellung eines Ausführungsbeispiels eines Mikroskopiesystems der Erfindung;
  • 2 ist eine schematische Darstellung von Prozessen eines Ausführungsbeispiels eines Verfahrens der Erfindung;
  • 3 ist eine Fortführung der Darstellung aus 2;
  • 4 ist eine schematische Darstellung von Prozessen zur Verarbeitung eines Übersichtsbildes gemäß Varianten der Erfindung;
  • 5 ist ein Flussdiagramm von Prozessen eines Ausführungsbeispiels der Erfindung; und
  • 6 ist ein Flussdiagramm von Prozessen eines Ausführungsbeispiels der Erfindung.
Further advantages and features of the invention are described below with reference to the attached schematic figures:
  • 1 Fig. 12 is a schematic representation of an embodiment of a microscopy system of the invention;
  • 2 Fig. 12 is a schematic representation of processes of an embodiment of a method of the invention;
  • 3 is a continuation of the presentation 2 ;
  • 4 12 is a schematic representation of processes for processing an overview image according to variants of the invention;
  • 5 Fig. 12 is a flowchart of processes of an embodiment of the invention; and
  • 6 Figure 12 is a flow chart of processes of an embodiment of the invention.

DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELENDETAILED DESCRIPTION OF EXEMPLARY EMBODIMENTS

Verschiedene Ausführungsbeispiele werden nachstehend mit Bezug auf die Figuren beschrieben. Gleiche und gleich wirkende Bestandteile sind in der Regel mit denselben Bezugszeichen gekennzeichnet.Various exemplary embodiments are described below with reference to the figures. Components that are the same and have the same effect are usually identified by the same reference symbols.

FIG. 1FIG. 1

1 zeigt ein Ausführungsbeispiel eines erfindungsgemäßen Mikroskopiesystems 100. Dieses umfasst eine Recheneinrichtung 20 und ein Mikroskop 1, welches im dargestellten Beispiel ein Lichtmikroskop ist, prinzipiell aber auch eine andere Art von Mikroskop sein kann. Das Mikroskop 1 umfasst ein Stativ 2, über welches weitere Mikroskopkomponenten gehalten sind. Hierunter können insbesondere fallen: ein Objektivwechsler oder -revolver 3, an dem im dargestellten Beispiel ein Objektiv 4 montiert ist; ein Probentisch 5 mit einem Halterahmen 6 zum Halten eines Probenträgers 7 und eine Mikroskopkamera 8. Ist das Objektiv 4 in den Mikroskopstrahlengang eingeschwenkt, empfängt die Mikroskopkamera 8 Detektionslicht von einer oder mehreren Proben, die vom Probenträger 7 gehalten sind, um ein Probenbild aufzunehmen. Der Probenträger 7 kann beispielsweise eine Mikrotiterplatte, ein Objektträger aus einem flachen Träger mit Deckglas, ein Kammerobjektträger, eine Petrischale, ein Gel oder eine Gelhalterung sein. 1 12 shows an exemplary embodiment of a microscopy system 100 according to the invention. This comprises a computing device 20 and a microscope 1, which in the example shown is a light microscope, but in principle can also be a different type of microscope. The microscope 1 includes a stand 2, over which further microscope components are held. This can include in particular: an objective changer or turret 3, on which an objective 4 is mounted in the example shown; a sample table 5 with a holding frame 6 for holding a sample carrier 7 and a micro scope camera 8. If the lens 4 is swiveled into the microscope beam path, the microscope camera 8 receives detection light from one or more samples held by the sample carrier 7 in order to record a sample image. The sample carrier 7 can be, for example, a microtiter plate, a slide made of a flat carrier with a cover glass, a chamber slide, a Petri dish, a gel or a gel holder.

Das Mikroskop 1 umfasst außerdem eine Übersichtskamera 9 zum Aufnehmen eines Übersichtsbildes einer Probenumgebung. Das Übersichtsbild kann dadurch insbesondere den Probenträger 7 oder einen Teil hiervon zeigen. Ein Sichtfeld 9A der Übersichtskamera 9 ist größer als ein Sichtfeld bei einer Aufnahme eines Probenbildes. Im dargestellten Beispiel blickt die Übersichtskamera 9 über einen Spiegel 9B auf den Probenträger 7. Der Spiegel 9B ist am Objektivrevolver 3 angeordnet und kann anstelle des Objektivs 4 ausgewählt werden. In Abwandlungen dieser Ausführung kann der Spiegel oder ein anderes Umlenkelement auch an anderer Stelle angeordnet sein. Alternativ kann die Übersichtskamera 9 auch so angeordnet sein, dass sie ohne Spiegel 9B direkt auf den Probenträger 7 blickt. Während im gezeigten Beispiel die Übersichtskamera 9 auf eine Oberseite des Probenträgers 7 blickt, kann alternativ die Übersichtskamera 9 auch auf eine Unterseite des Probenträgers 7 gerichtet sein. Prinzipiell kann auch die Mikroskopkamera 8 eine Übersichtskamera darstellen, wenn zur Aufnahme eines Übersichtsbildes ein anderes Objektiv, insbesondere ein Makroobjektiv, über den Objektivrevolver 3 ausgewählt wird.The microscope 1 also includes an overview camera 9 for recording an overview image of a sample environment. As a result, the overview image can in particular show the sample carrier 7 or a part thereof. A field of view 9A of the overview camera 9 is larger than a field of view when recording a sample image. In the example shown, the overview camera 9 looks at the sample carrier 7 via a mirror 9B. The mirror 9B is arranged on the objective turret 3 and can be selected instead of the objective 4 . In modifications of this embodiment, the mirror or another deflection element can also be arranged at a different location. Alternatively, the overview camera 9 can also be arranged in such a way that it looks directly at the sample carrier 7 without a mirror 9B. While the overview camera 9 looks at an upper side of the sample carrier 7 in the example shown, the overview camera 9 can alternatively also be directed at an underside of the sample carrier 7 . In principle, the microscope camera 8 can also represent an overview camera if a different lens, in particular a macro lens, is selected via the lens turret 3 to record an overview image.

Die Recheneinrichtung 20 nutzt ein erfindungsgemäßes Computerprogramm 80, um Übersichtsbilder zu verarbeiten und optional basierend auf Verarbeitungsergebnissen Mikroskopkomponenten zu steuern. Beispielsweise kann die Recheneinrichtung 20 ein Übersichtsbild dahingehend auswerten, wo sich Näpfchen einer Mikrotiterplatte befinden, um anschließend den Probentisch 5 so anzusteuern, dass ein bestimmtes Näpfchen angefahren wird. Für eine korrekte Verarbeitung eines Übersichtsbildes und auch für die Umsetzung, wie Mikroskopkomponenten basierend auf Ortsinformationen aus einem Übersichtsbild anzusteuern sind, nutzt die Recheneinrichtung 20 Kalibrierparameter P. Diese ermöglichen eine Interpretation des Übersichtsbildes, beispielsweise wie Richtungen im Übersichtsbild mit Richtungen am Probentisch zusammenhängen, insbesondere auch quantitativ. Die Kalibrierparameter P können auch Information zu einer Skalierung umfassen, insbesondere in welcher Form oder Größe Objekte im Übersichtsbild bei einer bestimmten Probentischhöhe erscheinen. Für eine Auswertung eines Übersichtsbildes können sodann die Kalibrierparameter P und optional aktuelle Einstellungen von Mikroskopkomponenten, beispielsweise eine aktuelle Höhe eines motorisierten Probentischs berücksichtigt werden. Alternativ kann auch ohne Kenntnis der Einstellungen von Mikroskopkomponenten mit Hilfe der Kalibrierparameter P beispielsweise eine Höhe eines Probenträgers aus dem Übersichtsbild geschätzt werden. Durch die Kalibrierparameter P kann insbesondere ein Zusammenhang zwischen Ortsinformationen aus einem Übersichtsbild und Ortsinformationen bezüglich eines Mikroskopreferenzortes beschrieben werden.The computing device 20 uses a computer program 80 according to the invention in order to process overview images and optionally to control microscope components based on processing results. For example, the computing device 20 can evaluate an overview image to determine where the wells of a microtiter plate are located, in order to then control the sample stage 5 in such a way that a specific well is approached. The computing device 20 uses calibration parameters P for correct processing of an overview image and also for the implementation of how microscope components are to be controlled based on location information from an overview image. These enable an interpretation of the overview image, for example how directions in the overview image are related to directions on the sample table, in particular quantitatively. The calibration parameters P can also include information about a scaling, in particular the shape or size of objects in the overview image at a specific sample stage height. For an evaluation of an overview image, the calibration parameters P and optionally current settings of microscope components, for example a current height of a motorized sample table, can then be taken into account. Alternatively, without knowing the settings of microscope components, the height of a sample carrier can also be estimated from the overview image using the calibration parameters P, for example. In particular, the calibration parameters P can be used to describe a relationship between location information from an overview image and location information relating to a microscope reference location.

Die Kalibrierparameter P können an Gültigkeit verlieren, wenn ein Nutzer Mikroskopkomponenten austauscht oder neu positioniert. Auch Stöße, sich lösende Verbindungen oder Auswirkungen von Umgebungsparametern wie Luftfeuchtigkeits- oder Temperaturänderungen können zu Dejustierungen von Mikroskopkomponenten führen, durch welche die Kalibrierparameter P ungenau bzw. unzutreffend werden. Um solche Änderungen automatisiert festzustellen, analysiert die Recheneinrichtung 20 Übersichtsbilder, die zu verschiedenen Positionen aufgenommen wurden. Dies wird näher mit Bezug auf die folgenden Figuren beschrieben.The calibration parameters P can become invalid if a user exchanges or repositions microscope components. Impacts, loose connections or the effects of environmental parameters such as changes in air humidity or temperature can also lead to maladjustments of microscope components, as a result of which the calibration parameters P become inaccurate or incorrect. In order to determine such changes automatically, the computing device 20 analyzes overview images that were recorded at different positions. This is described in more detail with reference to the following figures.

FIG. 2 und 3FIG. 2 and 3

Die 2 und 3 illustrieren schematisch Abläufe eines Ausführungsbeispiels eines Verfahrens der Erfindung. Das Verfahren kann von dem Computerprogramm oder der Recheneinrichtung aus 1 ausgeführt werden.the 2 and 3 schematically illustrate sequences of an embodiment of a method of the invention. The method can start from the computer program or the computing device 1 to be executed.

In 2 werden zunächst mindestes zwei Übersichtsbilder 11 und 12 über dieselbe Übersichtskamera erhalten, wobei zwischen den Bildaufnahmen die aufgenommenen Strukturen bewegt wurden. Im abgebildeten Beispiel zeigen die Übersichtsbilder 11 und 12 einen im Querschnitt rundlichen Probenträger 7, welcher zwischen zwei Halterahmenklammern 6A und 6B eines Halterahmens gehalten ist. Als Hintergrund ist außerdem eine Fläche des Probentisches 5 sichtbar. Zwischen den beiden Bildaufnahmen wurde der Probentisch verfahren, wodurch die Halterahmenklammern 6A, 6B und der Probenträger 7 im Übersichtsbild 12 nach rechts verschoben sind. Prinzipiell könnten dargestellte Objekte auch manuell zwischen den zwei Bildaufnahmen verschoben werden.In 2 At least two overview images 11 and 12 are first obtained via the same overview camera, with the recorded structures being moved between the image recordings. In the example shown, the overview images 11 and 12 show a sample carrier 7 with a round cross section, which is held between two holding frame clamps 6A and 6B of a holding frame. A surface of the sample table 5 is also visible as a background. The sample table was moved between the two image recordings, as a result of which the holding frame clamps 6A, 6B and the sample carrier 7 are shifted to the right in the overview image 12 . In principle, displayed objects could also be shifted manually between the two image recordings.

In dem dargestellten Beispiel wurden Bildinhalte aufgenommener Rohbilder bereits in Draufsichten umgewandelt, was durch eine homographische Abbildung mit Hilfe der Kalibrierparameter erfolgen kann. Draufsichten entsprechen einer senkrechten Betrachtung auf eine Probentischebene und dadurch auch senkrecht auf eine Oberseite der Halterahmenklammern 6A, 6B sowie eine Oberseite des Probenträgers 7. Für beide Bilder kann dieselbe homographische Abbildung erfolgen. Dies hat zur Folge, dass eine zwischen den Bildaufnahmen erfolgte Verschiebung des Probentisches (in eine Richtung senkrecht zur Blickrichtung der Draufsichten) lediglich zu einer Verschiebung in den als Draufsichten vorliegenden Übersichtsbilder 11 und 12 führen sollte. Würden keine Draufsichten berechnet, würde die Verschiebung des Probentisches dazu führen, dass Bildinhalte zwischen den Übersichtsbildern nicht nur verschoben, sondern zusätzlich auch entsprechend der Verschiebung perspektivisch verzerrt wären.In the example shown, the image content of recorded raw images has already been converted into top views, which can be done by homographic imaging using the calibration parameters. Top views correspond to a vertical view of a sample stage plane and thus also perpendicular to a top side of the holding frame clamps 6A, 6B and a top side of the sample rägers 7. The same homographic mapping can be done for both images. The result of this is that a displacement of the sample table between the image recordings (in a direction perpendicular to the direction of view of the top views) should only lead to a displacement in the overview images 11 and 12 present as top views. If no top views were calculated, the displacement of the sample table would result in image content not only being displaced between the overview images, but also being perspectively distorted in accordance with the displacement.

Die Ausführungsvariante von 2 nutzt, dass bei einer exakten Berechnung von Draufsichten die Verschiebung des Probentisches zu einer exakten Verschiebung von Bildinhalten einer Ebene in den als Draufsichten vorliegenden Übersichtsbildern 11, 12 führen sollte. Ist dies nicht der Fall, kann darauf geschlossen werden, dass die Draufsichten nicht präzise berechnet wurden. Weil die Draufsichten anhand der Kalibrierparameter berechnet wurden, heißt dies, dass die verwendeten Kalibrierparameter ungenau bzw. ungültig sind.The execution variant of 2 uses the fact that with an exact calculation of top views, the displacement of the sample table should lead to an exact displacement of image contents of a plane in the overview images 11, 12 present as top views. If this is not the case, it can be concluded that the plan views were not precisely calculated. Because the top views were calculated using the calibration parameters, this means that the calibration parameters used are inaccurate or invalid.

Die Umsetzung dieser Schritte erfolgt gemäß 2, indem in Schritt S1 zunächst die beiden als Draufsichten vorliegenden Übersichtsbilder 11 und 12 einem Segmentierungsmodell S eingegeben werden. Das Segmentierungsmodell S ist ein gelerntes Modell, welches ein tiefes neuronales Netz umfassen kann, z.B. ein CNN. Das vorliegende Segmentierungsmodell S wurde anhand von annotierten Trainingsdaten dazu trainiert, Halterahmenklammern von einem übrigen Bildinhalt zu unterscheiden. Zu jedem Eingabebild gibt das Segmentierungsmodell S eine Segmentierungsmaske aus, das heißt, das eingegebene Übersichtsbild 11 wird zu einem segmentierten Übersichtsbild 21 verrechnet und das eingegebene Übersichtsbild 12 wird zu einem segmentierten Übersichtsbild 22 verrechnet, Schritt S2.The implementation of these steps takes place according to 2 , in that the two overview images 11 and 12 present as plan views are first entered into a segmentation model S in step S1. The segmentation model S is a learned model, which can include a deep neural network, eg a CNN. The present segmentation model S was trained using annotated training data to distinguish holding frame brackets from the rest of the image content. The segmentation model S outputs a segmentation mask for each input image, ie the inputted overview image 11 is calculated to form a segmented overview image 21 and the inputted overview image 12 is calculated to form a segmented overview image 22, step S2.

In den segmentierten Übersichtsbildern 21, 22 bezeichnet ein bestimmter Pixelwert Bildbereiche 26, die als Halterahmenklammer eingestuft wurden, während die übrigen Bildbereiche durch einen anderen Pixelwert als Hintergrund 27 eingestuft werden. Wie in den beispielhaften segmentierten Übersichtsbildern 21, 22 ersichtlich, können geringfügige Segmentierungsfehler hierbei auftreten.In the segmented overview images 21, 22, a specific pixel value designates image areas 26 that have been classified as holding frame brackets, while the remaining image areas are classified as background 27 by a different pixel value. As can be seen in the exemplary segmented overview images 21, 22, minor segmentation errors can occur here.

Die segmentierten Übersichtsbilder 21, 22 werden nun in Schritt S3 einem Verschiebungsberechnungsprogramm 30 eingegeben, welches dazu eingerichtet ist, eine Verschiebungsabbildung 31 zu berechnen, um die segmentierten Übersichtsbilder 21, 22 möglichst übereinstimmend übereinander zu legen. Da in diesem Beispiel Draufsichten vorliegen und die Probentischbewegung innerhalb oder parallel zu der in den Draufsichten abgebildeten Ebene erfolgt ist, kann die Verschiebungsabbildung 31 als lineare Verschiebung vorgegeben sein. Das Verschiebungsberechnungsprogramm 30 berechnet nun iterativ, für welche Verschiebung zwischen den beiden segmentierten Übersichtsbilder 21, 22 eine Übereinstimmung der Bildinhalte maximal ist. Eine Kenntnis über die erfolgte Probentischbewegung ist nicht zwingend nötig und kann optional verwendet werden, z.B. um Startwerte der Iteration oder Grenzwerte der zu berechnenden Verschiebung festzulegen. Alternativ kann aus einer bekannten Probentischbewegung mit Hilfe der Kalibrierparameter auch eine Verschiebung für die segmentierten Übersichtsbilder 21, 22 berechnet werden, ohne dass in dieser Berechnung der Bildinhalt der segmentierten Übersichtsbilder 21, 22 für die Größe der Verschiebung eine Rolle spielt.The segmented overview images 21, 22 are now entered in step S3 into a shift calculation program 30, which is set up to calculate a shift image 31 in order to superimpose the segmented overview images 21, 22 as consistently as possible. In this example, since there are plan views and the sample stage movement is within or parallel to the plane depicted in the plan views, the displacement map 31 may be set as a linear displacement. The shift calculation program 30 now iteratively calculates for which shift between the two segmented overview images 21, 22 a match of the image contents is maximum. Knowledge of the movement of the sample table is not absolutely necessary and can be used optionally, e.g. to define start values of the iteration or limit values of the displacement to be calculated. Alternatively, a shift for the segmented overview images 21, 22 can also be calculated from a known sample stage movement using the calibration parameters, without the image content of the segmented overview images 21, 22 playing a role in this calculation for the size of the shift.

Mit der berechneten Verschiebungsabbildung 31 wird in Schritt S4 ein überlagertes Übersichtsbild 32 berechnet. Dieses entspricht einer pixelweisen Zusammenrechnung der beiden Übersichtsbilder 21, 22, nachdem diese gemäß der Verschiebungsabbildung 31 relativ zueinander verschoben wurden. Im gezeigten Beispiel wird also das Übersichtsbild 22 nach links verschoben und anschließend kann eine pixelweise Zusammenrechnung durch z.B. Addition, Subtraktion, Multiplikation oder Division der jeweiligen Pixelwerte der Übersichtsbilder 21 und 22 erfolgen.A superimposed overview image 32 is calculated in step S4 with the calculated displacement image 31 . This corresponds to a pixel-by-pixel addition of the two overview images 21, 22 after they have been shifted relative to one another according to the shift image 31. In the example shown, the overview image 22 is shifted to the left and then a pixel-by-pixel addition can take place, for example by addition, subtraction, multiplication or division of the respective pixel values of the overview images 21 and 22.

Das überlagerte Übersichtsbild 32 umfasst Überlappbereiche 38, in welchen die segmentierten und gemäß Verschiebungsabbildung 31 zueinander verschobenen Übersichtsbilder 21 und 22 beide ein segmentiertes Objekt (hier eine der Halterahmenklammern 6A, 6B) zeigen. Das überlagerte Übersichtsbild 32 umfasst zudem einen Hintergrund 37 in Bildbereichen, in denen die segmentierten und gemäß Verschiebungsabbildung 31 zueinander verschobenen Übersichtsbilder 21 und 22 beide einen Hintergrund 27 zeigen. Außerdem umfasst das überlagerte Übersichtsbild 32 nicht überlappende Bereiche 38 und 39. In nicht überlappenden Bereichen 38 wurde nur im Übersichtsbilder 21 ein Objekt (Halterahmenklammer) ermittelt, nicht aber im gemäß Verschiebungsabbildung 31 verschobenen Übersichtsbild 22. Analog wurde in den nicht überlappenden Bereichen 39 nur im Übersichtsbilder 22 ein Objekt lokalisiert, nicht aber im Übersichtsbild 21, wobei die Übersichtsbilder 21, 22 nach Anwendung der Verschiebungsabbildung 31 miteinander verglichen werden.The superimposed overview image 32 includes overlapping areas 38 in which the segmented overview images 21 and 22, which have been shifted relative to one another according to the displacement image 31, both show a segmented object (here one of the holding frame clamps 6A, 6B). The superimposed overview image 32 also includes a background 37 in image areas in which the segmented overview images 21 and 22 , which have been shifted relative to one another according to the displacement image 31 , both show a background 27 . In addition, the superimposed overview image 32 includes non-overlapping areas 38 and 39. In non-overlapping areas 38, an object (holding frame clamp) was only determined in the overview image 21, but not in the overview image 22 shifted according to the displacement image 31. Similarly, in the non-overlapping areas 39, only in the Overview images 22 locate an object, but not in the overview image 21, the overview images 21, 22 being compared to one another after the displacement image 31 has been applied.

Die Beschreibung des weiteren Verfahrensablauf wird mit Bezug auf 3 fortgesetzt. In Schritt S5 wird das überlagerte Übersichtsbild 32 einem Detektionsmodell 40 zugeführt, welches dazu trainiert ist, bestimmte Bildbereiche, nachfolgend Bewertungsbildbereiche 41-44, zu detektieren. Das Detektionsmodell 40 ist ein anhand von annotierten Trainingsbildern gelerntes Maschinenlernmodell. Anstelle des überlagerten Übersichtsbildes 32 kann prinzipiell auch eines oder mehrere der Übersichtsbilder 11, 12, 21, 22 als Eingabe dienen. Das Detektionsmodell 40 gibt in Schritt S6 Begrenzungen der ermittelten Bewertungsbildbereiche 41-44 aus, welche in 3 zum besseren Verständnis in das überlagerte Übersichtsbild 32 eingezeichnet sind.The description of the further procedure is with reference to 3 continued. In step S5, the superimposed overview image 32 is supplied to a detection model 40, which is trained to detect specific image areas, subsequently evaluation image areas 41-44. That Detection model 40 is a machine learning model learned from annotated training images. In principle, instead of the superimposed overview image 32, one or more of the overview images 11, 12, 21, 22 can also serve as input. In step S6, the detection model 40 outputs delimitations of the determined evaluation image areas 41-44, which in 3 are drawn into the superimposed overview image 32 for better understanding.

Zudem sind die Bewertungsbildbereiche 41-44 vergrößert in der linken Hälfte von 3 gezeigt. Die rechte Hälfte von 3 zeigt beispielhaft entsprechende Bewertungsbildbereiche 41-44, die zu zwei anderen Übersichtsbildern in der bisher beschriebenen Weise berechnet wurden.In addition, the evaluation image areas 41-44 are enlarged in the left half of FIG 3 shown. The right half of 3 shows, by way of example, corresponding evaluation image areas 41-44 which were calculated for two other overview images in the manner described above.

Das Detektionsmodell 40 kann insbesondere dazu trainiert sein, Kanten oder Ecken von Segmentierungsmasken zu finden und als Bewertungsbildbereiche 41-44 festzulegen. An Bildbereichen um solche Kanten oder Ecken kann besonders aussagekräftig bewertet werden, wie hoch eine Bildübereinstimmung ist. Zudem kann berücksichtigt werden, in welche Richtung innerhalb der Bewertungsbildbereiche 41-44 dargestellte Bildinhalte, die aus den beiden zugrundeliegenden Übersichtsbildern 11, 12 bzw. 21, 22 stammen, fehlerhaft verschoben sind oder abweichen. Beispielsweise ist der nicht überlappende Bereich 38 im Bewertungsbildbereich 42 im linken Beispiel aus 3 relativ schmal, im rechten Beispiel hingegen verhältnismäßig breit. Eine Abweichungsrichtung kann als Richtung des Bereichs 38 zum Überlappbereich 36 definiert sein.In particular, the detection model 40 can be trained to find edges or corners of segmentation masks and to define them as evaluation image areas 41-44. Image areas around such edges or corners can be evaluated in a particularly meaningful way as to how high an image match is. In addition, it can be taken into account in which direction within the evaluation image areas 41-44 displayed image contents, which originate from the two underlying overview images 11, 12 or 21, 22, have been incorrectly shifted or deviate. For example, the non-overlapping area 38 in the evaluation image area 42 in the example on the left is off 3 relatively narrow, but relatively wide in the example on the right. A deviation direction can be defined as the direction of the area 38 to the overlapping area 36 .

Die Genauigkeit der Kalibrierparameter bestimmt eine Flächengröße der nicht überlappenden Bereiche 38 und 39, wie die nicht überlappenden Bereiche 38, 39 zueinander stehen und wie ihre jeweiligen Abweichungsrichtungen sind. Anhand der vorgenannten Merkmale kann zudem eine ungenaue Segmentierung von ungenauen Kalibrierparametern unterschieden werden. Die Bewertung dieser Merkmale kann prinzipiell durch einen klassischen Algorithmus ohne gelerntes Modell erfolgen, wobei im dargestellten Beispiel hierzu ein trainiertes Maschinenlernmodell 50 verwendet wird. Dieses kann ein tiefes neuronales Netz, beispielsweise ein CNN, umfassen, von dem Modellparameter P1-P9 als Einträge einer Faltungsmatrix exemplarisch dargestellt sind. Das Maschinenlernmodell 50 kann als Klassifikations- oder Regressionsmodell gestaltet sein und erhält in Schritt S7 die mehreren Bewertungsbildbereiche 41-44 als eine gemeinsame Eingabe. Aus dieser Eingabe berechnet das Maschinenlernmodell 50 in Schritt S8 eine Übereinstimmungsgüte Q als Maß für eine Übereinstimmung zwischen den überlagerten Übersichtsbildern. Die Übereinstimmungsgüte Q ist beispielhaft eine Klassifikation in eine gute oder schlechte Übereinstimmung, wobei aber auch feinere Klasseneinteilungen oder kontinuierliche Werte als Ausgabe möglich sind. Die Übereinstimmungsgüte Q wird in diesem Beispiel direkt als Bewertung verwendet, ob die Kalibrierparameter gültig sind. Im linken Beispiel aus 3 wird eine Gültigkeit bejaht, im rechten Beispiel hingegen verneint. Bei einer feineren Abstufung der Gültigkeit der Kalibrierparameter kann hierdurch auch eine Genauigkeit der Kalibrierparameter angegeben werden.The accuracy of the calibration parameters determines an area size of the non-overlapping areas 38 and 39, how the non-overlapping areas 38, 39 relate to one another and what their respective directions of deviation are. In addition, an imprecise segmentation can be distinguished from imprecise calibration parameters on the basis of the aforementioned features. In principle, these features can be evaluated by a classic algorithm without a learned model, with a trained machine learning model 50 being used for this purpose in the example shown. This can include a deep neural network, for example a CNN, of which model parameters P1-P9 are shown as examples as entries in a convolution matrix. The machine learning model 50 can be designed as a classification or regression model and receives the multiple evaluation image areas 41-44 as a common input in step S7. From this input, the machine learning model 50 calculates a quality of match Q as a measure of a match between the superimposed overview images in step S8. The quality of agreement Q is, for example, a classification into good or bad agreement, although finer classifications or continuous values are also possible as output. In this example, the quality of agreement Q is used directly as an assessment of whether the calibration parameters are valid. In the left example off 3 a validity is affirmed, but denied in the example on the right. With a finer gradation of the validity of the calibration parameters, an accuracy of the calibration parameters can also be specified in this way.

FIG. 4FIG. 4

4 illustriert, wie bei verschiedenen Ausführungsbeispielen der Erfindung ein Übersichtsbild zu einem Draufsichtbild und weiter zu einer Segmentierungsmaske verarbeitet wird. 4 1 illustrates how, in various exemplary embodiments of the invention, an overview image is processed into a top view image and further into a segmentation mask.

Im dargestellten Beispiel wurde ein Übersichtsbild 11' aufgenommen, wobei eine Übersichtskamera schräg auf eine Oberseite eines Probenträgers 7 blickt. Beim Probenträger 7 handelt es sich um eine Mikrotiterplatte mit mehreren kreisförmigen Näpfchen als Probengefäßen. Ebenfalls sichtbar ist ein Kondensor 10.In the example shown, an overview image 11 ′ was recorded, with an overview camera viewing an upper side of a sample carrier 7 at an angle. The sample carrier 7 is a microtiter plate with several circular wells as sample vessels. Also visible is a condenser 10.

In Schritt S0 rechnet das Computerprogramm 80 mit Hilfe der Kalibrierparameter P das Übersichtsbild 11' in eine andere Perspektive um, nämlich in eine Aufsicht, wie im Übersichtsbild 11" veranschaulicht. Für eine Ebene der Oberseite des Probenträgers 7 entspricht die Aufsicht einer Betrachtung senkrecht auf die Oberseite des Probenträgers 7. Die Darstellungen anderer Ebenen im Übersichtsbild 11" (z.B. Bodenbereiche des teilweise transparenten Probenträgers 7) entsprechen hingegen nicht einer Aufsicht. Um die Ebene der Oberseite des Probenträgers 7 korrekt in eine Aufsicht zu überführen, muss durch die Kalibrierparameter eine Höhenebene der Oberseite des Probenträgers 7 präzise bekannt sein.In step S0, the computer program 80 uses the calibration parameters P to convert the overview image 11' into a different perspective, namely into a top view, as illustrated in the overview image 11". For a plane of the top side of the sample carrier 7, the top view corresponds to a view perpendicular to Top of the sample carrier 7. The representations of other levels in the overview image 11" (e.g. bottom areas of the partially transparent sample carrier 7), on the other hand, do not correspond to a top view. In order to convert the plane of the upper side of the sample carrier 7 correctly into a plan view, a height plane of the upper side of the sample carrier 7 must be precisely known through the calibration parameters.

Das als Aufsicht vorliegende Übersichtsbild 11" wird als nächstes segmentiert, wie auch zu 2 beschrieben. Das Übersichtsbild 11" wird also in Schritt S1 einem Segmentierungsmodell S' zugeführt, welches in diesem Fall dazu trainiert ist, Probengefäße von Probenträgern 7 zu segmentieren. In Schritt S2 gibt das Segmentierungsmodell S' eine Segmentierungsmaske aus, wobei eine Überlagerung 21' aus dem Übersichtsbild 11" und der Segmentierungsmaske dargestellt ist.The overview image 11" present as a top view is segmented next, as is also the case with 2 described. In step S1, the overview image 11" is thus supplied to a segmentation model S', which in this case is trained to segment sample vessels from sample carriers 7. In step S2, the segmentation model S' outputs a segmentation mask, with an overlay 21' from the overview image 11" and the segmentation mask.

Die weiteren Verfahrensschritte können wie zu 2 und 3 beschrieben durchgeführt werden.The further process steps can as to 2 and 3 be carried out as described.

FIG. 5FIG. 5

5 zeigt ein Flussdiagramm zur Erläuterung verschiedener Reihenfolgen der Schritte von Ausführungsbeispielen des erfindungsgemäßen Verfahrens. 5 shows a flowchart to explain different sequences of the steps of exemplary embodiments of the method according to the invention.

In Schritt S10 werden mindestens zwei Übersichtsbilder aufgenommen, insbesondere von derselben Kamera. Zwischen den Aufnahmen wird ein aufgenommenes Objekt, z.B. eine Probe oder ein Probentisch, verschoben oder anders bewegt.At least two overview images are recorded in step S10, in particular by the same camera. A recorded object, e.g. a sample or a sample table, is shifted or otherwise moved between the recordings.

Anschließend werden in Schritt S11 bezüglich der Übersichtsbilder die Prozesse Segmentieren, Verschieben und Umrechnen mit Hilfe der Kalibrierparameter auf eine gemeinsame Perspektive durchgeführt. Die Reihenfolge dieser Prozesse kann variabel gewählt sein.Subsequently, in step S11, the processes of segmenting, shifting and converting to a common perspective are carried out with the aid of the calibration parameters with regard to the overview images. The order of these processes can be chosen variably.

Beispielsweise kann wie auch bei den 2 bis 4 zuerst ein homographisches Umrechnen von einem oder mehreren der Übersichtsbilder auf eine gemeinsame Perspektive erfolgen, insbesondere eine homographische Abbildung aller Übersichtsbilder auf eine Draufsicht, Schritt S12. Anschließend werden in Schritt S13 die als Draufsichten vorliegenden Übersichtsbilder segmentiert. Sodann wird in Schritt S14 eine Verschiebungsabbildung zum Überlagern der segmentierten, als Draufsichten vorliegenden Übersichtsbilder berechnet.For example, as with the 2 until 4 First, a homographic conversion of one or more of the overview images to a common perspective takes place, in particular a homographic mapping of all overview images to a top view, step S12. Then, in step S13, the overview images present as plan views are segmented. Then, in step S14, a displacement map for superimposing the segmented overview images present as plan views is calculated.

Die Reihenfolge kann dahingehend geändert werden, dass zuerst in Schritt S13' ein Segmentieren der Übersichtsbilder erfolgt und anschließend in Schritt S12' eine homographische Abbildung der segmentierten Übersichtsbilder zu Draufsichten mit Hilfe der Kalibrierparameter berechnet wird. Darauf kann Schritt S14 folgen.The sequence can be changed such that the overview images are first segmented in step S13' and then in step S12' a homographic mapping of the segmented overview images into plan views is calculated with the aid of the calibration parameters. This may be followed by step S14.

Eine weitere mögliche Reihenfolge sieht vor, dass zuerst die Segmentierung gemäß Schritt S13' erfolgt und danach in Schritt S14' eine Verschiebungsabbildung berechnet wird, bei welcher gleichzeitig eine perspektivische Anpassung mit Hilfe der Kalibrierparameter erfolgt. Bei einer Verschiebung eines Bildinhalts eines Übersichtsbildes um eine bestimmte Strecke erfolgt eine perspektivische Anpassung so, wie es einer Verschiebung der dargestellten Objekte im tatsächlichen Raum entsprechen würde, was mit Hilfe der Kalibrierparameter berechnet werden kann.A further possible sequence provides that the segmentation takes place first according to step S13' and then in step S14' a displacement mapping is calculated, in which at the same time a perspective adjustment takes place with the aid of the calibration parameters. If the image content of an overview image is shifted by a certain distance, a perspective adjustment takes place in the same way as would correspond to a shift of the objects shown in actual space, which can be calculated with the aid of the calibration parameters.

Nach Schritt S14 oder S14' folgt Schritt S15, in welchem die Übereinstimmungsgüte zwischen den überlagerten (aufeinander geschobenen), als Segmentierungsmasken vorliegenden Übersichtsbildern berechnet wird, um eine Gültigkeit der Kalibrierparameter zu bewerten.Step S14 or S14' is followed by step S15, in which the quality of correspondence between the superimposed (shifted one on top of the other) overview images present as segmentation masks is calculated in order to evaluate the validity of the calibration parameters.

Weitere Varianten der dargestellten Ausführungsbeispiele sind möglich. Beispielsweise kann die beschriebene Segmentierung als semantische Segmentierung oder als Instanz-Segmentierung durchgeführt werden. Die zu 3 beschriebene Ermittlung von Bewertungsbildbereichen kann dadurch ersetzt werden, dass ein oder mehrere Objekte, die durch die Instanz-Segmentierung ermittelt wurden, oder vorgegebene Objektteile hiervon, als Bewertungsbildbereiche ausgewählt werden. Zudem kann auch das gesamte überlagerte Übersichtsbild 32 aus 2 als Eingabe für das Maschinenlernmodell 50 verwendet werden, um die Übereinstimmungsgüte Q zu berechnen. In weiteren Ausführungen kann die Segmentierung entfallen. Es kann z.B. die Detektion gemäß Schritt S6 aus 3 auch auf Übersichtsbilder, welche optional zu Draufsichten umgerechnet wurden, durchgeführt werden, ohne dass zuvor eine Segmentierung berechnet wurde. Further variants of the illustrated exemplary embodiments are possible. For example, the segmentation described can be implemented as semantic segmentation or as instance segmentation. the to 3 The determination of evaluation image areas described above can be replaced by selecting one or more objects, which were determined by instance segmentation, or predetermined object parts thereof, as evaluation image areas. In addition, the entire superimposed overview image 32 can also be switched off 2 can be used as input to the machine learning model 50 to calculate the goodness of fit Q . In further versions, the segmentation can be omitted. For example, the detection according to step S6 can be switched off 3 can also be carried out on overview images, which have optionally been converted to top views, without a segmentation having been calculated beforehand.

Insbesondere können durch die Detektion Orte mehrerer Objekte im jeweiligen Übersichtsbild ermittelt werden, wobei die Orte pro Übersichtsbild ein Punktmuster bilden. Eine Übereinstimmung zwischen den Punktmustern nach Verschiebung bestimmt die Übereinstimmungsgüte.In particular, the locations of a number of objects in the respective overview image can be determined by the detection, with the locations forming a point pattern for each overview image. A match between the dot patterns after displacement determines the goodness of fit.

FIG. 6FIG. 6

6 zeigt ein Flussdiagramm einer Verfahrensvariante, bei welcher die Überprüfung der Kalibrierparameter in eine Prozedur zur triangulationsbasierten Höhenschätzung integriert ist. Wie erläutert wird, sind keine zusätzlichen Bildaufnahmen und keine zusätzlichen Geräte oder Markierungen nötig, um die Überprüfung der Kalibrierparameter zu einer triangulationsbasierten Höhenschätzung zu ergänzen. 6 shows a flowchart of a method variant in which the verification of the calibration parameters is integrated into a procedure for triangulation-based height estimation. As will be explained, no additional image acquisitions and no additional devices or markings are required to supplement the verification of the calibration parameters for a triangulation-based height estimation.

In Schritt S20 wird eine Prozedur zur triangulationsbasierten Höhenschätzung gestartet. Dies kann beispielsweise im Rahmen einer automatischen Navigation an einem Mikroskop erfolgen.In step S20, a procedure for triangulation-based height estimation is started. This can be done, for example, as part of an automatic navigation on a microscope.

In Schritt S21 werden mindestens zwei Übersichtsbilder derselben Objekte bei zwei lateral zueinander verschobenen Probentischpositionen aufgenommen.In step S21, at least two overview images of the same objects are recorded at two sample stage positions that are laterally shifted relative to one another.

In Schritt S22 erfolgt eine Höhenschätzung gemäß dem Triangulationsprinzip. Hierfür wird genutzt, dass die Größe einer Bildverschiebung, die durch die Probentischverschiebung hervorgerufen wird, von einer Höhenebene abhängt, an welcher sich die dargestellten Strukturen befinden. Die dargestellten Strukturen oder Objekte können z.B. Teile eines Probenträgers, eines Halterahmens oder eines Probentisches sein. Die Strecke der Probentischverschiebung kann hierbei bekannt sein. Ein Zusammenhang der Bildverschiebung zu einer Höhenebene wird mit Hilfe vorgegebener Kalibrierparameter ermittelt.In step S22, the height is estimated according to the triangulation principle. For this purpose, the fact that the size of an image shift caused by the sample stage shift is dependent on a height level at which the structures shown are located is used. The structures or objects shown can be, for example, parts of a sample carrier, a holding frame or a sample table. The distance of the sample table displacement can be known here. A connection of the image displacement to a Elevation level is determined using specified calibration parameters.

Zusätzlich zu Schritt S22 erfolgt nun (gleichzeitig, zuvor oder anschließend) in Schritt S23 eine Schätzung der Gültigkeit oder Genauigkeit der Kalibrierparameter in der bereits beschriebenen Weise, insbesondere gemäß den Schritten S11 und S15 aus 5.In addition to step S22, the validity or accuracy of the calibration parameters is now estimated in step S23 (simultaneously, beforehand or subsequently) in the manner already described, in particular according to steps S11 and S15 5 .

Anschließend kann in Schritt S24 der geschätzte Wert der Höhenebene zusammen mit einer Angabe der Genauigkeit dieser Schätzung, basierend auf der wie beschrieben ermittelten Übereinstimmungsgüte, ausgegeben werden.Then, in step S24, the estimated value of the elevation level can be output together with an indication of the accuracy of this estimate, based on the quality of agreement determined as described.

Die in Draufsichten umgewandelten, segmentierten Übersichtsbilder können sowohl für die Kalibrierungsüberprüfung als auch für die Höhenschätzung verwendet werden. Ebenso kann optional auch die ermittelte Verschiebung für die triangulationsbasierte Höhenschätzung genutzt werden.The segmented overview images converted to plan views can be used for both calibration verification and height estimation. Likewise, the determined displacement can optionally be used for the triangulation-based height estimation.

Abhängig vom Ergebnis aus S24 kann z.B. ein Kalibriervorgang gestartet werden oder eine Komponentensteuerung / -bewegung angepasst werden. Beispielsweise kann ein Sicherheitsabstand zur Kollisionsvermeidung abhängig von der Genauigkeit oder Gültigkeit der Kalibrierparameter festgelegt werden. In einer Modifikation dieser Ausführung erfolgt zunächst Schritt S23 zur Überprüfung der Kalibrierparameter und nur wenn hierbei eine Gültigkeit der Kalibrierparameter bejaht wird, folgt Schritt S22 zur Schätzung der Höhenebene.Depending on the result from S24, for example, a calibration process can be started or a component control/movement can be adjusted. For example, a safety distance to avoid collisions can be defined depending on the accuracy or validity of the calibration parameters. In a modification of this embodiment, step S23 is carried out first to check the calibration parameters, and step S22 to estimate the height level follows only if the calibration parameters are confirmed to be valid.

Die beschriebenen Ausführungsbeispiele sind rein illustrativ und Abwandlungen hiervon sind im Rahmen der beigefügten Ansprüche möglich.The embodiments described are purely illustrative and modifications thereof are possible within the scope of the appended claims.

BezugszeichenlisteReference List

11
Mikroskopmicroscope
22
Stativtripod
33
Objektivrevolvernosepiece
44
Mikroskopobjektivmicroscope lens
55
Probentischrehearsal table
66
Halterahmenholding frame
6A6A
Halterahmenklammerholding frame clamp
6B6B
Halterahmenklammerholding frame clamp
77
Probenträgersample carrier
88th
Mikroskopkameramicroscope camera
99
Übersichtskameraoverview camera
9A9A
Sichtfeld der ÜbersichtskameraField of view of the overview camera
9B9B
Spiegelmirror
1010
Kondensorcondenser
11, 1211, 12
Übersichtsbildoverview screen
11'11'
Übersichtsbild vor perspektivischer Umrechnung zu einer AufsichtOverview image before perspective conversion to a top view
11''11''
Übersichtsbild nach perspektivischer Umrechnung zu einer AufsichtOverview image after perspective conversion to a top view
2020
Recheneinrichtungcomputing device
2121
segmentiertes Übersichtsbildsegmented overview image
21'21'
Überlagerung aus dem Übersichtsbild 11" und einer zugehörigen SegmentierungsmaskeOverlay of the overview image 11" and an associated segmentation mask
2626
Bildbereiche, die als Halterahmenklammern segmentiert wurdenImage areas segmented as holding frame brackets
2727
Bildbereiche, die als Hintergrund segmentiert wurdenImage areas that have been segmented as background
3030
Verschiebungsberechnungsprogrammdisplacement calculation program
3131
Verschiebungsabbildungdisplacement mapping
3232
überlagertes Übersichtsbildsuperimposed overview image
3636
Überlappbereiche im überlagerten ÜbersichtsbildOverlapping areas in the superimposed overview image
3737
Hintergrund im überlagerten ÜbersichtsbildBackground in the overlaid overview image
3838
nicht überlappende Bereiche im überlagerten Übersichtsbildnon-overlapping areas in the overlaid overview image
3939
nicht überlappende Bereiche im überlagerten Übersichtsbildnon-overlapping areas in the overlaid overview image
4040
Detektionsmodell / MaschinenlernmodellDetection model / machine learning model
41-4441-44
Bewertungsbildbereicheevaluation screen areas
5050
Maschinenlernmodellmachine learning model
8080
Computerprogramm der ErfindungComputer program of the invention
100100
Mikroskopiesystem der ErfindungMicroscopy system of the invention
PP
Kalibrierparametercalibration parameters
P1-P9P1-P9
Modellparametermodel parameters
QQ
Übereinstimmungsgütegoodness of fit
SS
Segmentierungsmodellsegmentation model
S'S'
Segmentierungsmodellsegmentation model
S0-S8S0-S8
Verfahrensschritte von Ausführungsbeispielen der ErfindungProcess steps of embodiments of the invention
S10-S15, S12'-S 14'S10-S15, S12'-S14'
Verfahrensschritte von Ausführungsbeispielen der ErfindungProcess steps of embodiments of the invention
S20-S24S20-S24
Verfahrensschritte von Ausführungsbeispielen der ErfindungProcess steps of embodiments of the invention

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 9344650 B2 [0005]US9344650B2 [0005]
  • DE 102013012987 A1 [0005]DE 102013012987 A1 [0005]
  • DE 102017109698 A1 [0005]DE 102017109698 A1 [0005]
  • DE 102013222295 A1 [0005]DE 102013222295 A1 [0005]
  • DE 102013006994 A1 [0005]DE 102013006994 A1 [0005]
  • DE 102019114117 [0005]DE 102019114117 [0005]
  • DE 102020118801 [0005]DE 102020118801 [0005]
  • DE 102020101191 [0005]DE 102020101191 [0005]
  • DE 102018133188 A1 [0006]DE 102018133188 A1 [0006]
  • DE 102018133196 A1 [0008]DE 102018133196 A1 [0008]

Claims (16)

Mikroskopiesystem umfassend eine Übersichtskamera (9) zum Aufnehmen von Übersichtsbildern (11, 12) einer Probenortumgebung und eine Recheneinrichtung (20), welche eingerichtet ist zum Auswerten der Übersichtsbilder (11, 12), wobei die Recheneinrichtung (20) über Kalibrierparameter (P) zur Interpretation von Bildkoordinaten der Übersichtsbilder (11, 12) verfügt; dadurch gekennzeichnet, dass die Recheneinrichtung (20) dazu eingerichtet ist, - die Übersichtskamera (9) zum Aufnehmen von mindestens zwei Übersichtsbildern (11, 12) bei verschiedenen Probenpositionen oder Probentischpositionen anzusteuern; - eine Verschiebungsabbildung (31) zum Überlagern der Übersichtsbilder (11, 12; 21, 22) zu berechnen, wobei mit Hilfe der Kalibrierparameter (P) eine Umrechnung der Übersichtsbilder (11, 12; 21, 22) auf eine gleiche Perspektive erfolgt; und - basierend auf einer Übereinstimmungsgüte (Q) zwischen den überlagerten Übersichtsbildern (32) zu bewerten, ob die Kalibrierparameter (P) gültig sind.Microscopy system comprising an overview camera (9) for recording overview images (11, 12) of a sample location environment and a computing device (20) which is set up for evaluating the overview images (11, 12), the computing device (20) using calibration parameters (P) for interpretation of image coordinates of the overview images (11, 12); characterized in that the computing device (20) is set up to - control the overview camera (9) to record at least two overview images (11, 12) at different sample positions or sample stage positions; - to calculate a displacement image (31) for superimposing the overview images (11, 12; 21, 22), the overview images (11, 12; 21, 22) being converted to the same perspective with the aid of the calibration parameters (P); and - to assess whether the calibration parameters (P) are valid based on a quality of agreement (Q) between the superimposed overview images (32). Verfahren zur Kalibrierungsüberprüfung, umfassend Erhalten von mindestens zwei Übersichtsbildern (11, 12) einer Probenortumgebung bei verschiedenen Probenpositionen oder Probentischpositionen eines Mikroskopiesystems; Berechnen einer Verschiebungsabbildung (31) zum Überlagern der Übersichtsbilder (11, 12; 21, 22), wobei mit Hilfe von Kalibrierparametern (P) eine Umrechnung der Übersichtsbilder (11, 12; 21, 22) auf eine gleiche Perspektive erfolgt; und Bewerten, basierend auf einer Übereinstimmungsgüte (Q) zwischen den überlagerten Übersichtsbildern (32), ob die Kalibrierparameter (P) gültig sind.Calibration verification method comprising Obtaining at least two overview images (11, 12) of a sample location environment at different sample positions or sample stage positions of a microscope system; calculating a displacement image (31) for superimposing the overview images (11, 12; 21, 22), the overview images (11, 12; 21, 22) being converted to the same perspective with the aid of calibration parameters (P); and Assess whether the calibration parameters (P) are valid based on a goodness of fit (Q) between the overlaid overview images (32). Verfahren nach vorstehendem Anspruch, wobei mit Hilfe der Kalibrierparameter (P) die mindestens zwei Übersichtsbilder (11, 12) in eine Draufsicht transformiert werden (S0) und danach die Verschiebungsabbildung (31) als Linearverschiebung berechnet wird.Method according to the preceding claim, wherein the at least two overview images (11, 12) are transformed into a plan view (S0) with the aid of the calibration parameters (P) and the displacement image (31) is then calculated as a linear displacement. Verfahren nach Anspruch 2 oder 3, wobei die mindestens zwei Übersichtsbilder (11, 12) zunächst durch ein Segmentierungsmodell (S) segmentiert werden (S2) und die Verschiebungsabbildung (31) basierend auf den segmentierten Übersichtsbildern (21, 22) berechnet wird.procedure after claim 2 or 3 , wherein the at least two overview images (11, 12) are first segmented (S2) by a segmentation model (S) and the displacement mapping (31) is calculated based on the segmented overview images (21, 22). Verfahren nach einem der Ansprüche 2 bis 4, wobei die Verschiebungsabbildung (31) als eine Verschiebung, die eine Übereinstimmung zwischen den Übersichtsbildern (11-12; 21-22) maximiert, berechnet wird.Procedure according to one of claims 2 until 4 , wherein the displacement map (31) is calculated as a displacement that maximizes correspondence between the overview images (11-12; 21-22). Verfahren nach einem der Ansprüche 2 bis 5, wobei abhängig von den Kalibrierparametern (P) erlaubte Verschiebungsgrenzwerte für die Berechnung der Verschiebungsabbildung (31) festgelegt werden und/oder wobei abhängig von den Kalibrierparametern (P) Startwerte einer iterativen Berechnung der Verschiebungsabbildung (31) festgelegt werden.Procedure according to one of claims 2 until 5 , wherein depending on the calibration parameters (P) allowed displacement limit values for the calculation of the displacement image (31) are specified and / or wherein depending on the calibration parameters (P) starting values of an iterative calculation of the displacement image (31) are specified. Verfahren nach einem der Ansprüche 2 bis 6, wobei die Verschiebungsabbildung (31) mit Hilfe einer bekannten Verstellung zwischen den Probentischpositionen der mindestens zwei Übersichtsbildern (11, 12) berechnet wird.Procedure according to one of claims 2 until 6 , wherein the displacement image (31) is calculated using a known displacement between the sample stage positions of the at least two overview images (11, 12). Verfahren nach einem der Ansprüche 2 bis 7, wobei zusammen mit der Berechnung der Verschiebungsabbildung (31) auch mit Hilfe der Kalibrierparameter (P) eine der Verschiebungsabbildung (31) entsprechende perspektivische Änderung berechnet wird.Procedure according to one of claims 2 until 7 , a perspective change corresponding to the displacement image (31) being calculated together with the calculation of the displacement image (31), also with the aid of the calibration parameters (P). Verfahren nach einem der Ansprüche 2 bis 8, wobei aus den Übersichtsbildern (11, 12) mindestens ein relevanter Bereich ermittelt wird und die Verschiebungsabbildung (31) bezüglich des mindestens einen relevanten Bereichs berechnet wird.Procedure according to one of claims 2 until 8th , wherein at least one relevant area is determined from the overview images (11, 12) and the displacement image (31) is calculated with respect to the at least one relevant area. Verfahren nach dem unmittelbar vorstehenden Anspruch, wobei der mindestens eine relevante Bereich über ein Maschinenlernmodell ermittelt wird, welches zur Segmentierung oder Detektion trainiert ist.Method according to the immediately preceding claim, wherein the at least one relevant area is determined via a machine learning model which is trained for segmentation or detection. Verfahren nach einem der Ansprüche 2 bis 10, wobei zur Berechnung der Übereinstimmungsgüte (Q) zwischen den überlagerten Übersichtsbildern (32) ein Verhältnis von Überlappbereichen (36) zu nicht überlappenden Bereichen (38, 39) der überlagerten Übersichtsbilder (32) berechnet wird, wobei zu jedem nicht überlappenden Bereich (38, 39) eine jeweilige Abweichungsrichtung berechnet wird.Procedure according to one of claims 2 until 10 , wherein a ratio of overlapping regions (36) to non-overlapping regions (38, 39) of the superimposed overview images (32) is calculated to calculate the quality of agreement (Q) between the superimposed overview images (32), with each non-overlapping region (38, 39) a respective deviation direction is calculated. Verfahren nach einem der Ansprüche 2 bis 11, wobei durch ein Maschinenlernmodell (40) Bewertungsbildbereiche (41-44) ausgewählt werden, an welchen die Übereinstimmungsgüte (Q) berechnet wird, wobei dem Maschinenlernmodell (40) mindestens eines der Übersichtsbilder (11, 12) oder mindestens ein hiermit berechnetes Bild (32) eingegeben wird und das Maschinenlernmodell (40) als Ausgabe Bildbereiche angibt, welche als die Bewertungsbildbereiche (41-44) verwendet werden.Procedure according to one of claims 2 until 11 , wherein a machine learning model (40) selects evaluation image areas (41-44) on which the quality of agreement (Q) is calculated, wherein the machine learning model (40) is assigned at least one of the overview images (11, 12) or at least one image (32 ) is input and the machine learning model (40) indicates as output image areas which are used as the evaluation image areas (41-44). Verfahren nach einem der Ansprüche 2 bis 12, wobei die Berechnung der Übereinstimmungsgüte (Q) zwischen den überlagerten Übersichtsbildern (32) über ein trainiertes Maschinenlernmodell (50) erfolgt, welches die überlagerten Übersichtsbilder (32) oder Bildbereiche hiervon als Eingabe erhält und als Ausgabe die Übereinstimmungsgüte (Q) berechnet.Procedure according to one of claims 2 until 12 , wherein the calculation of the quality of agreement (Q) between the superimposed overview images (32) takes place via a trained machine learning model (50), which receives the superimposed overview images (32) or image areas thereof as input and calculates the quality of conformity (Q) as output. Verfahren nach einem der Ansprüche 2 bis 13, wobei die Übereinstimmungsgüte (Q) anhand von Bildabständen zwischen einander korrespondierenden Strukturen in den überlagerten Übersichtsbildern (11, 12) ermittelt wird.Procedure according to one of claims 2 until 13 , wherein the quality of agreement (Q) is determined on the basis of image distances between corresponding structures in the superimposed overview images (11, 12). Verfahren nach einem der Ansprüche 2 bis 14, dass mehr als zwei Übersichtsbilder (11, 12) nacheinander aufgenommen werden und mit Hilfe dieser Übersichtsbilder (11, 12) ein zeitlicher Verlauf der Übereinstimmungsgüte (Q) berechnet wird, dass anhand des zeitlichen Verlaufs der Übereinstimmungsgüte (Q) bewertet wird, ob die Kalibrierparameter (P) gültig sind.Procedure according to one of claims 2 until 14 that more than two overview images (11, 12) are recorded one after the other and with the help of these overview images (11, 12) a chronological progression of the quality of agreement (Q) is calculated, that the chronological progression of the quality of agreement (Q) is used to assess whether the Calibration parameters (P) are valid. Computerprogramm mit Befehlen, die bei Ausführung durch einen Computer die Ausführung des Verfahrens nach einem der Ansprüche 2 bis 15 veranlassen.Computer program with instructions which, when executed by a computer, carry out the method according to one of claims 2 until 15 cause.
DE102020126549.2A 2020-10-09 2020-10-09 MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE Pending DE102020126549A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020126549.2A DE102020126549A1 (en) 2020-10-09 2020-10-09 MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE
CN202111129866.9A CN114326078A (en) 2020-10-09 2021-09-26 Microscope system and method for calibration checking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020126549.2A DE102020126549A1 (en) 2020-10-09 2020-10-09 MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE

Publications (1)

Publication Number Publication Date
DE102020126549A1 true DE102020126549A1 (en) 2022-04-14

Family

ID=80817897

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020126549.2A Pending DE102020126549A1 (en) 2020-10-09 2020-10-09 MICROSCOPY SYSTEM AND CALIBRATION CHECK PROCEDURE

Country Status (2)

Country Link
CN (1) CN114326078A (en)
DE (1) DE102020126549A1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013006994A1 (en) 2013-04-19 2014-10-23 Carl Zeiss Microscopy Gmbh Digital microscope and method for optimizing the workflow in a digital microscope
DE102013012987A1 (en) 2013-08-03 2015-02-05 Carl Zeiss Microscopy Gmbh Method for calibrating a digital optical device and optical device
DE102013222295A1 (en) 2013-11-04 2015-05-07 Carl Zeiss Microscopy Gmbh Digital microscope, method for calibration and method for automatic focus and image center tracking for such a digital microscope
DE102017109698A1 (en) 2017-05-05 2018-11-08 Carl Zeiss Microscopy Gmbh Determining context information for change components of an optical system
DE102018133196A1 (en) 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh IMAGE-BASED MAINTENANCE PROPERTY AND MISUSE DETECTION
DE102018133188A1 (en) 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh DISTANCE DETERMINATION OF A SAMPLE LEVEL IN A MICROSCOPE SYSTEM
DE102019114117B3 (en) 2019-05-27 2020-08-20 Carl Zeiss Microscopy Gmbh Automatic workflows based on recognition of calibration samples
DE102020101191A1 (en) 2020-01-20 2021-07-22 Carl Zeiss Microscopy Gmbh Microscope and method for determining a measurement location of a microscope
DE102020118801A1 (en) 2020-07-16 2022-01-20 Carl Zeiss Microscopy Gmbh MICROSCOPE AND PROCEDURE FOR DISTANCE DETERMINATION OF A SAMPLE REFERENCE PLANE

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013006994A1 (en) 2013-04-19 2014-10-23 Carl Zeiss Microscopy Gmbh Digital microscope and method for optimizing the workflow in a digital microscope
DE102013012987A1 (en) 2013-08-03 2015-02-05 Carl Zeiss Microscopy Gmbh Method for calibrating a digital optical device and optical device
US9344650B2 (en) 2013-08-03 2016-05-17 Carl Zeiss Microscopy Gmbh Method for calibrating a digital optical instrument and digital optical instrument
DE102013222295A1 (en) 2013-11-04 2015-05-07 Carl Zeiss Microscopy Gmbh Digital microscope, method for calibration and method for automatic focus and image center tracking for such a digital microscope
DE102017109698A1 (en) 2017-05-05 2018-11-08 Carl Zeiss Microscopy Gmbh Determining context information for change components of an optical system
DE102018133196A1 (en) 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh IMAGE-BASED MAINTENANCE PROPERTY AND MISUSE DETECTION
DE102018133188A1 (en) 2018-12-20 2020-06-25 Carl Zeiss Microscopy Gmbh DISTANCE DETERMINATION OF A SAMPLE LEVEL IN A MICROSCOPE SYSTEM
DE102019114117B3 (en) 2019-05-27 2020-08-20 Carl Zeiss Microscopy Gmbh Automatic workflows based on recognition of calibration samples
DE102020101191A1 (en) 2020-01-20 2021-07-22 Carl Zeiss Microscopy Gmbh Microscope and method for determining a measurement location of a microscope
DE102020118801A1 (en) 2020-07-16 2022-01-20 Carl Zeiss Microscopy Gmbh MICROSCOPE AND PROCEDURE FOR DISTANCE DETERMINATION OF A SAMPLE REFERENCE PLANE

Also Published As

Publication number Publication date
CN114326078A (en) 2022-04-12

Similar Documents

Publication Publication Date Title
DE112010005008B4 (en) System and method for determining camera calibration in runtime
DE102006055758B4 (en) Method for calibrating cameras and projectors
DE10354752B4 (en) Method and device for the automatic equalization of single-channel or multi-channel images
DE102016001337A1 (en) Workpiece positioning device using a imaging unit
DE102020101191A1 (en) Microscope and method for determining a measurement location of a microscope
DE102014205726A1 (en) Improved edge detection tool for edges of irregular surfaces
WO2018202454A2 (en) Determination of contextual information for interchangeable components of an optical system
DE102019114012A1 (en) Microscopy method, microscope and computer program with verification algorithm for image processing results
WO2019238518A2 (en) Material testing of optical test pieces
DE102020126554A1 (en) MICROSCOPY SYSTEM AND METHOD OF VERIFYING INPUT DATA
DE102012216908A1 (en) A method using image correlation for determining position measurements in a machine vision system
DE202019105838U1 (en) Arrangement with a coordinate measuring machine or microscope
DE102014207095A1 (en) Edge measurement video tool with robust edge discrimination travel
DE102017220106A1 (en) EXPANDING A FOCUS AREA IN AN IMAGEING SYSTEM WITH A LENS WITH A HIGH-SPEED VARIABLE HEAT-LENGTH
DE102021100444A1 (en) MICROSCOPY SYSTEM AND METHOD FOR EVALUATION OF IMAGE PROCESSING RESULTS
DE102019131678A1 (en) Microscope and method for processing microscope images
EP1022541A2 (en) Procedure and device to determine the geometrical form of sheetlike articles or piles thereof
DE102021101439A1 (en) MICROSCOPY SYSTEM AND METHOD OF ROTATIONAL CHECKING OF A MICROSCOPE CAMERA
DE102017113615A1 (en) System, method and marker for determining the position of a moving object in space
DE102020126602A1 (en) MICROSCOPY SYSTEM AND METHODS FOR IMAGE SEGMENTATION
DE102020126610A1 (en) MICROSCOPY SYSTEM AND METHOD FOR GENERATION OF TRAINING DATA
DE102020124416A1 (en) MICROSCOPY SYSTEM, METHOD AND COMPUTER PROGRAM FOR ALIGNING A SPECIMEN SLIDE
DE102020126598A1 (en) MICROSCOPY SYSTEM AND METHOD OF VERIFICATION OF A TRAINED IMAGE PROCESSING MODEL
EP1098268A2 (en) Method for the threedimensional optical measurement of object surfaces
DE102020118801A1 (en) MICROSCOPE AND PROCEDURE FOR DISTANCE DETERMINATION OF A SAMPLE REFERENCE PLANE

Legal Events

Date Code Title Description
R163 Identified publications notified