DE102022201258A1 - Process for separating objects - Google Patents

Process for separating objects Download PDF

Info

Publication number
DE102022201258A1
DE102022201258A1 DE102022201258.5A DE102022201258A DE102022201258A1 DE 102022201258 A1 DE102022201258 A1 DE 102022201258A1 DE 102022201258 A DE102022201258 A DE 102022201258A DE 102022201258 A1 DE102022201258 A1 DE 102022201258A1
Authority
DE
Germany
Prior art keywords
objects
image
data
region
carrier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022201258.5A
Other languages
German (de)
Inventor
Manuel Amthor
Daniel Haase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102022201258.5A priority Critical patent/DE102022201258A1/en
Publication of DE102022201258A1 publication Critical patent/DE102022201258A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts

Abstract

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Identifizieren von Objekten, insbesondere Deckgläsern, auf einem Bild eines Probenträgers, insbesondere Objektträgers, eines Mikroskopsystems, die folgenden Arbeitsschritte aufweisend:• Einlesen des Bilds, insbesondere als Bilddaten;• Segmentieren wenigstens einer Region auf dem Probenträger, in welcher die Objekte auf dem Probenträger angeordnet sind, auf der Grundlage des Bilds, insbesondere der Bilddaten, mittels eines ersten Bilderkennungsmodells, wobei das erste Bilderkennungsmodell auf einem ersten Maschinenlernmodell beruht, wobei Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region charakterisieren, erzeugt werden;• Einlesen von Hilfsdaten, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte charakterisieren;• Separieren von Objekten in der wenigstens einen Region mittels eines Bildverarbeitungsverfahrens auf der Grundlage der Trägerdaten und der Hilfsdaten; und• Ausgeben von Informationen in Bezug auf die separierten Objekte.The invention relates to a computer-implemented method for identifying objects, in particular cover slips, on an image of a sample carrier, in particular a specimen slide, of a microscope system, having the following work steps: • Reading in the image, in particular as image data; • Segmenting at least one region on the sample carrier, in which the objects are arranged on the sample carrier, on the basis of the image, in particular the image data, by means of a first image recognition model, the first image recognition model being based on a first machine learning model, carrier data which characterize at least one property of the at least one region being generated; • reading in auxiliary data, the auxiliary data characterizing at least one property of the objects;• separating objects in the at least one region by means of an image processing method on the basis of the carrier data and the auxiliary data; and• outputting information related to the separated objects.

Description

Die Erfindung betrifft ein Verfahren zum Identifizieren von Objekten, insbesondere Deckgläsern, auf einem Bild eines Probenträgers, insbesondere Objektträgers, eines Mikroskopsystems, wobei das Bild eingelesen wird und wenigstens eine Region auf dem Probenträger, in welchem die Objekte auf dem Probenträger angeordnet sind, auf der Grundlage des Bilds mittels eines ersten Bilderkennungsmodells segmentiert wird und Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region charakterisieren, erzeugt werden.The invention relates to a method for identifying objects, in particular cover slips, on an image of a sample carrier, in particular a specimen slide, of a microscope system, the image being read in and at least one region on the specimen carrier, in which the objects are arranged on the specimen carrier, on which Based on the image is segmented by means of a first image recognition model and carrier data, which characterize at least one property of the at least one region, are generated.

Bei klassischen Mikroskopen blickt ein Benutzer sitzend oder stehend durch ein Okular auf einen Probenträger. Dabei kann er direkt mit der Probe in der Weise interagieren, dass er sich einerseits einen kursorischen Überblick über das Sichtfeld des Objektivs, insbesondere über den Probenträger, die Position von Deckgläsern und von Proben verschaffen kann, und zum anderen den Probenträger mit der Probe entweder direkt oder mithilfe eines verstellbaren Probentischs lateral verschieben kann, um andere Bereiche des Probenträgers ins Sichtfeld des Objektivs zu bringen. Der Benutzer des Mikroskops kann dabei an seinem Platz bleiben und muss seinen Kopf nur minimal bewegen, so dass die klassischen Mikroskope in dieser Hinsicht höchst ergonomisch sind.In classic microscopes, a user looks at a sample carrier through an eyepiece while sitting or standing. He can interact directly with the sample in such a way that on the one hand he can obtain a cursory overview of the field of view of the objective, in particular of the sample carrier, the position of cover glasses and samples, and on the other hand the sample carrier with the sample either directly or can be shifted laterally using an adjustable sample stage in order to bring other areas of the sample carrier into the field of view of the objective. The user of the microscope can remain in his place and only has to move his head minimally, so that the classic microscopes are highly ergonomic in this respect.

Heutige Mikroskopsysteme erlauben es dagegen, sogenannte Blitzstapel entlang einer Beobachtungsrichtung aufzunehmen und daraus ein räumliches Bild einer Probe zu rekonstruieren. Hierfür werden Bilder mithilfe von Detektoren erzeugt. Als Detektoren dienen vorzugsweise Kameras, die mit entsprechenden Flächensensoren, insbesondere CD-Chips, ausgestattet sind, oder auch sogenannte Photomultiplier.Today's microscope systems, on the other hand, allow so-called flash stacks to be recorded along an observation direction and a three-dimensional image of a sample to be reconstructed from them. For this purpose, images are generated using detectors. Cameras that are equipped with appropriate area sensors, in particular CD chips, or so-called photomultipliers are preferably used as detectors.

Bei diesen neuartigen Mikroskopsystemen hat sich daher der Arbeitsplatz weg vom Mikroskopstativ und damit weg von der Probe hin zum Computer bzw. zum Bildschirm eines solchen verschoben. Oftmals wird aber auch der Arbeitsplatz vor dem Mikroskopstativ noch benutzt und auch benötigt, um den Probenträger oder die Probe für eine Analyse vorzubereiten oder einzurichten.With these new types of microscope systems, the workplace has therefore shifted away from the microscope stand and thus away from the sample to the computer or the screen of such a system. However, the work station in front of the microscope stand is often still used and also required to prepare or set up the sample carrier or the sample for an analysis.

Dies umfasst die Arbeitsschritte:

  • • den Probenträger in das Sichtfeld des Objektivs zu bringen;
  • • eine Region auf dem Probenträger auszuwählen, in welchem eine Probe angeordnet ist;
  • • diese anzufahren; und
  • • schließlich das Mikroskop auf den Probenträger oder die Probe zu fokussieren.
This includes the work steps:
  • • bring the sample carrier into the field of view of the objective;
  • • select a region on the sample carrier in which a sample is arranged;
  • • drive to them; and
  • • finally to focus the microscope on the sample carrier or the sample.

Der Arbeitsauflauf bei der Verwendung moderner, komplexer Mikroskopsysteme ist daher oftmals mit zwei Arbeitsbereichen verbunden, an denen unterschiedliche Arbeitsschritte stattfinden und welche räumlich voneinander getrennt sind. Auf der einen Seite das Mikroskopstativ mit Okular zur direkten Beobachtung, und auf der anderen Seite der Bildschirm eines Computers.The workload when using modern, complex microscope systems is therefore often associated with two work areas in which different work steps take place and which are spatially separated from one another. On the one hand the microscope stand with eyepiece for direct observation, and on the other hand the screen of a computer.

Das Dokument DE 10 2017 111 718 A1 betrifft ein Verfahren zur Erzeugung und Analyse eines Übersichtskontrastbilds eines Probenträgers und/oder auf einem Probenträger angeordneter Proben, bei dem ein mindestens teilweise im Fokus einer Detektionsoptik angeordneter Probenträger im Durchlicht mit einem zweidimensionalen, arrayförmigen Beleuchtungsmuster beleuchtet wird, wobei mindestens zwei Übersichtsrohbilder mit unterschiedlichen Beleuchtungen des Probenträgers detektiert werden und in Abhängigkeit von aus dem Übersichtskontrastbild zu extrahierenden Informationen ein Verrechnungsalgorithmus ausgewählt wird, mittels dessen die mindestens zwei Übersichtsrohbilder zu dem Übersichtskontrastbild verrechnet werden und in Abhängigkeit von aus dem Übersichtskontrastbild zu extrahierenden Informationen ein Bildauswertungsalgorithmus ausgewählt wird, mittels dessen Informationen aus dem Übersichtskontrastbild extrahiert werden.The document DE 10 2017 111 718 A1 relates to a method for generating and analyzing an overview contrast image of a sample carrier and/or samples arranged on a sample carrier, in which a sample carrier arranged at least partially in the focus of a detection optics is illuminated in transmitted light with a two-dimensional, array-shaped illumination pattern, with at least two overview raw images with different illuminations of the Sample carrier are detected and, depending on information to be extracted from the overview contrast image, a calculation algorithm is selected, by means of which the at least two overview raw images are calculated to form the overview contrast image and, depending on information to be extracted from the overview contrast image, an image evaluation algorithm is selected, by means of which information from the overview contrast image be extracted.

Es ist eine Aufgabe der Erfindung, ein Verfahren und System bereitzustellen, mittels welchem Objekte auf einem Bild eines Probenträgers automatisiert identifiziert werden können.It is an object of the invention to provide a method and system by means of which objects on an image of a sample carrier can be identified in an automated manner.

Diese Aufgabe wird durch die Lehre der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen werden in den Unteransprüchen beansprucht.This object is solved by the teaching of the independent claims. Advantageous developments are claimed in the dependent claims.

Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Identifizieren von Objekten, insbesondere Deckgläsern, auf einem Bild eines Probenträgers, insbesondere Objektträgers, eines Mikroskopsystems, die folgenden Arbeitsschritte aufweisend:

  • • Einlesen des Bilds, insbesondere als Bilddaten;
  • • Segmentieren wenigstens einer Region auf dem Probenträger, in welcher die Objekte auf dem Probenträger angeordnet sind, auf der Grundlage des Bilds, insbesondere der Bilddaten, mittels eines ersten Bilderkennungsmodells, wobei das erste Bilderkennungsmodell auf einem ersten Maschinenlernmodell, insbesondere einem ersten künstlichen neuronalen Netz, beruht, wobei Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region charakterisieren, erzeugt werden;
  • • Einlesen von Hilfsdaten, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte charakterisieren;
  • • Separieren von Objekten in der wenigstens einen Region mittels eines Bildverarbeitungsverfahrens auf der Grundlage der Trägerdaten und der Hilfsdaten; und
  • • Ausgeben von Informationen in Bezug auf die separierten Objekte.
A first aspect of the invention relates to a computer-implemented method for identifying objects, in particular cover slips, on an image of a sample carrier, in particular a specimen slide, of a microscope system, having the following work steps:
  • • Reading in the image, in particular as image data;
  • • segmenting at least one region on the sample carrier, in which the objects are arranged on the sample carrier, based on the image, in particular the image data, using a first image recognition model, the first image recognition model being based on a first machine learning model, in particular a first artificial neural network, is based, wherein carrier data characterizing at least one property of the at least one region is generated;
  • • Reading in auxiliary data, the auxiliary data characterizing at least one property of the objects;
  • • separating objects in the at least one region by means of an image processing method based on the carrier data and the auxiliary data; and
  • • Outputting information related to the separated objects.

Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zum Trainieren eines künstlichen neuronalen Netzes zum Identifizieren von Objekten, wobei das künstliche neuronale Netz zwei Pfade aufweist, wobei ein erster Pfad ein Bilderkennungsmodell zum Segmentieren von Objekten, insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers eines Mikroskopsystems, bildet und ein zweiter Pfad ein Bilderkennungsmodell zum Erfassen von Eigenschaften der Objekte bildet.A second aspect of the invention relates to a method for training an artificial neural network for identifying objects, the artificial neural network having two paths, a first path being an image recognition model for segmenting objects, in particular cover glasses, on an overview image of a sample carrier of a microscope system, forms and a second path forms an image recognition model for detecting properties of the objects.

Der zweite Aspekt betrifft auch ein Verfahren zum Trainieren von zwei künstlichen neuronalen Netzen zum Identifizieren von Objekten, wobei das erste künstliche neuronale Netz ein Bilderkennungsmodell zum Segmentieren von Objekten, insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers eines Mikroskopsystems, bildet und das zweite künstliche neuronale Netz ein Bilderkennungsmodell zum Erfassen von Eigenschaften der Objekte bildet.The second aspect also relates to a method for training two artificial neural networks for identifying objects, the first artificial neural network forming an image recognition model for segmenting objects, in particular cover glasses, on an overview image of a sample carrier of a microscope system, and the second artificial neural network forms an image recognition model for detecting properties of the objects.

Das Verfahren weist, die folgenden Arbeitsschritte auf:

  • • Erzeugen eines Datenstroms, insbesondere eines Bildstroms einer Vielzahl von Übersichtsbildern, welche Probenträger eines Mikroskopsystems abbilden, auf welchem Objekte angeordnet sind;
  • • Einlesen von Ground Truth-Trägerdaten, welche wenigstens eine Eigenschaft wenigstens einen Region charakterisieren, in welcher die Objekte auf dem Probenträger angeordnet sind; und
  • • Bereitstellen des Datenstroms mit den dazugehörigen jeweiligen Ground Truth-Trägerdaten an das künstliche neuronale Netz oder die künstlichen neuronalen Netze.
The procedure has the following work steps:
  • • Generating a data stream, in particular an image stream of a multiplicity of overview images which depict sample carriers of a microscope system on which objects are arranged;
  • • Reading in ground truth carrier data which characterize at least one property of at least one region in which the objects are arranged on the sample carrier; and
  • • Providing the data stream with the associated respective ground truth carrier data to the artificial neural network or artificial neural networks.

Auf diese Weise kann ein künstliches neuronales Netz oder zwei künstliche neuronale Netze erzeugt werden, welches oder welche in einem Verfahren zum Identifizieren von Objekten zum Einsatz kommen kann bzw. können.In this way, an artificial neural network or two artificial neural networks can be generated, which can be used in a method for identifying objects.

Vorzugsweise können die Verfahren von einem Computer, insbesondere einem System mit verschiedenen Mitteln, vorzugsweise automatisiert, ausgeführt werden.The methods can preferably be carried out by a computer, in particular a system with various means, preferably automated.

Ein dritter Aspekt der Erfindung betrifft ein System zum Identifizieren von Objekten, insbesondere Deckgläsern, auf einem Bild eines Probenträgers eines Mikroskopsystems, aufweisend:

  • • eine erste Schnittstelle zum Einlesen des Bilds, insbesondere als Bilddaten, und von Hilfsdaten, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte charakterisieren;
  • • Mittel zum Segmentieren wenigstens einer Region auf dem Probenträger, in welcher die Objekte auf dem Probenträger angeordnet sind, auf der Grundlage des Bilds, insbesondere der Bilddaten, mittels eines ersten Bilderkennungsmodells, wobei das erste Bilderkennungsmodell auf einem ersten künstlichen neuronalen Netz beruht, wobei Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region charakterisieren, erzeugt werden;
  • • Mittel zum Separieren von Objekten in der wenigstens einen Region mittels eines Bildverarbeitungsverfahrens auf der Grundlage der Trägerdaten und der Hilfsdaten; und
  • • eine zweite Schnittstelle zum Ausgeben von Informationen in Bezug auf die separierten Objekte.
A third aspect of the invention relates to a system for identifying objects, in particular cover glasses, on an image of a sample carrier of a microscope system, having:
  • • a first interface for reading in the image, in particular as image data, and auxiliary data, the auxiliary data characterizing at least one property of the objects;
  • • Means for segmenting at least one region on the sample carrier, in which the objects are arranged on the sample carrier, on the basis of the image, in particular the image data, by means of a first image recognition model, the first image recognition model being based on a first artificial neural network, with carrier data , which characterize at least one property of the at least one region, are generated;
  • • means for separating objects in the at least one region by means of an image processing method based on the carrier data and the auxiliary data; and
  • • a second interface for outputting information related to the separated objects.

Ein vierter Aspekt der Erfindung betrifft ein Mikroskopsystem mit einem solchen System zum Identifizieren von Objekten. Weitere Aspekte betreffen ein Computerprogramm und ein computer-lesbares Medium zum Identifizieren von Objekten.A fourth aspect of the invention relates to a microscope system with such a system for identifying objects. Further aspects relate to a computer program and a computer-readable medium for identifying objects.

Die Trägerdaten entsprechen erfindungsgemäß vorzugsweise einer Segmentierungsmaske.According to the invention, the carrier data preferably correspond to a segmentation mask.

Vorzugsweise weist die Segmentierungsmaske hierbei folgende Klassen auf:

  • Klasse 1: Objekt
  • Klasse 2: Hintergrund oder Probenträger
  • Klasse 3: Rand der Objekte.
The segmentation mask preferably has the following classes:
  • Class 1: Object
  • Class 2: background or sample carrier
  • Class 3: Edge of objects.

Eine Segmentierungsmaske im Sinne der Erfindung gibt vorzugsweise an, zu welcher Klasse ein bestimmtes Pixel eines Bildes gehört. In diesem Fall kann die Segmentierung als Klassifizierungsaufgabe betrachtet werden, weil jedes einzelne Pixel einer vordefinierten Klasse identifiziert werden muss.A segmentation mask within the meaning of the invention preferably indicates which class a specific pixel of an image belongs to. In this case, the segmentation can be considered as a classification task, because every single pixel of a predefined class has to be identified.

Ein Übersichtsbild im Sinne der Erfindung ist vorzugsweise ein Bild eines Probenträgers, in welchem vorzugsweise der ganze Probenträger, besonders bevorzugt mehr als die Hälfte des Probenträgers und am meisten bevorzugt wenigstens ein Drittel des Probenträgers sichtbar sind.An overview image within the meaning of the invention is preferably an image of a sample carrier, in which preferably the entire sample carrier, particularly preferably more than half of the sample carrier gers and most preferably at least one third of the sample carrier are visible.

Eine Segmentierung im Sinne der Erfindung ist insbesondere eine semantische Bild-Segmentierung. Vorzugsweise weist die Segmentierung eine gleichzeitige Clusterung eines Bildes und Klassifikation der durch die Clusterung entstandenen Bildsegmente in eine feste Anzahl von Klassen auf. Dazu werden vorzugsweise künstliche neuronale Netze eingesetzt. Vorzugsweise wird das Problem der Segmentierung als ein Klassifikationsproblem für jeden einzelnen Pixel des Bildes formuliert. Vorzugsweise können nach einer Trainingsphase des künstlichen neuronalen Netzes neuartige Eingabedaten, welche das künstliche neuronale Netz nicht während der Trainingsphase verarbeitet hat, semantisch segmentiert werden.A segmentation within the meaning of the invention is in particular a semantic image segmentation. The segmentation preferably has a simultaneous clustering of an image and classification of the image segments created by the clustering into a fixed number of classes. Artificial neural networks are preferably used for this purpose. The segmentation problem is preferably formulated as a classification problem for each individual pixel of the image. Preferably, after a training phase of the artificial neural network, novel input data which the artificial neural network has not processed during the training phase can be segmented semantically.

Ein Separieren im Sinne der Erfindung ist vorzugsweise ein Identifizieren von einzelnen Objekten in einer Region, in welcher sich mehrere Objekte befinden.A separation within the meaning of the invention is preferably an identification of individual objects in a region in which several objects are located.

Ein Einlesen im Sinne der Erfindung bedeutet vorzugsweise ein Erfassen von Daten, welche bereitgestellt sind. Weiter vorzugsweise bedeutet Einlesen ein Bereitstellen und Erfassen der Daten.Reading in within the meaning of the invention preferably means capturing data that are provided. More preferably, reading in means providing and acquiring the data.

Ein Ausgeben im Sinne der Erfindung ist insbesondere ein Bereitstellen an einer Datenschnittstelle oder einer Benutzerschnittstelle.An output within the meaning of the invention is in particular a provision at a data interface or a user interface.

Ein Mittel im Sinne der Erfindung kann hard- und/oder softwaretechnisch ausgebildet sein und insbesondere eine, vorzugsweise mit einem Speicher- und/oder Bussystem daten- bzw. signalverbundene, insbesondere digitale, Verarbeitungs-, insbesondere Mikroprozessoreinheit (CPU) und/oder ein oder mehrere Programm(e) oder Programmmodul(e) aufweisen. Die CPU kann dazu ausgebildet sein, Befehle, die als ein in einem Speichersystem abgelegtes Programm implementiert sind, abzuarbeiten, Eingangssignale von einem Datenbus zu erfassen und/oder Ausgangssignale an einen Datenbus abzugeben. Ein Speichersystem kann ein oder mehrere, insbesondere verschiedene, Speichermedien, insbesondere optische, magnetische, Festkörper- und/oder andere nicht-flüchtige Medien aufweisen. Das Programm kann derart beschaffen sein, dass es die hier beschriebenen Verfahren verkörpert bzw. auszuführen imstande ist, so dass die CPU die Schritte solcher Verfahren ausführen kann.A means within the meaning of the invention can be configured as hardware and/or software and in particular a processing unit (CPU) and/or a or have several program(s) or program module(s). The CPU can be designed to process commands that are implemented as a program stored in a memory system, to detect input signals from a data bus and/or to emit output signals to a data bus. A storage system can have one or more, in particular different, storage media, in particular optical, magnetic, solid-state and/or other non-volatile media. The program may be arranged to embody or be capable of performing the methods described herein such that the CPU can perform the steps of such methods.

Die Erfindung beruht auf dem Ansatz, zusätzlich zu einer Segmentierung eines Übersichtsbilds eines Probenträgers mittels eines Bilderkennungsmodells des Weiteren ein Bildverarbeitungsverfahren zur Analyse des Übersichtsbilds einzusetzen, welches Hilfsinformationen berücksichtigt. Auf diese Weise kann zunächst eine Region auf einem Probenträger identifiziert werden, welche unterschiedlich zu dem Probenträger, der im Hintergrund angeordnet ist, ist und in welcher daher mit hoher Wahrscheinlichkeit Objekte angeordnet sind.The invention is based on the approach of using an image processing method for analyzing the overview image in addition to segmenting an overview image of a sample carrier by means of an image recognition model, which method takes auxiliary information into account. In this way, a region can first be identified on a sample carrier which is different from the sample carrier which is arranged in the background and in which there is therefore a high probability that objects are arranged.

In einem zweiten Schritt können einzelne Objekte, sofern vorhanden, in dieser Region unter der Verwendung von Hilfsdaten, welche wenigstens eine Eigenschaft der Objekte charakterisieren, separiert werden.In a second step, individual objects, if present, can be separated in this region using auxiliary data that characterize at least one property of the objects.

Durch das Separieren von Objekten kann beispielsweise deren Lage, deren Anzahl, deren Form und/oder deren Ausrichtung etc. ermittelt werden.By separating objects, their position, their number, their shape and/or their orientation, etc. can be determined, for example.

Diese Informationen können wiederum zur Navigation auf dem Probenträger oder auf einer Probe verwendet werden. Vorzugsweise kann das Mikroskopsystem die Position einer Probe auf der Grundlage der Informationen aus dem erfindungsgemäßen Verfahren automatisiert anfahren.This information can in turn be used for navigating on the sample carrier or on a sample. The microscope system can preferably move to the position of a sample automatically on the basis of the information from the method according to the invention.

Des Weiteren können die Informationen aber auch im Rahmen einer automatisierten Untersuchung, beispielsweise einer High-through-put-Untersuchungen von Proben verwendet werden.Furthermore, however, the information can also be used within the framework of an automated examination, for example a high-throughput examination of samples.

In einer vorteilhaften Ausgestaltung des Verfahrens umfasst das Bildverarbeitungsverfahren ein Ermitteln der wenigstens einen Region, wobei einzelne Regionen auf der Grundlage ihrer Form und Ausrichtung zu einer Region verschmolzen oder in mehrere Regionen aufgesplittet werden.In an advantageous embodiment of the method, the image processing method includes determining the at least one region, with individual regions being merged into one region or splitting up into a plurality of regions on the basis of their shape and orientation.

Hierdurch können Objekte, welche jeweils eine Region bilden, identifiziert werden.In this way, objects that each form a region can be identified.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfasst das Bildverarbeitungsverfahren ein Bestimmen von Parametern eines Modells der Objekte auf der Grundlage der Trägerdaten und der Hilfsdaten mittels einer Ausgleichsrechnung.In a further advantageous embodiment of the method, the image processing method includes determining parameters of a model of the objects on the basis of the carrier data and the auxiliary data by means of a fitting calculation.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfasst das Bildverarbeitungsverfahren ein Optimieren einer Bewertungsfunktion, wobei in die Bewertungsfunktion Trägerdaten sowie die Hilfsdaten eingehen, wobei die Bewertungsfunktion vorzugsweise als Ausgleichsrechnung ausgebildet ist. Durch das Anwenden einer Ausgleichsrechnung und/oder einer Bewertungsfunktion können Objekte, von welchen Eigenschaften, wie beispielsweise Anzahl und Form, bekannt sind, durch das Fitting des Modells separiert werden.In a further advantageous embodiment of the method, the image processing method includes an optimization of an evaluation function, with carrier data and the auxiliary data entering into the evaluation function, with the evaluation function preferably being designed as a correction calculation. By applying a best fit calculation and/or an evaluation function, objects whose properties, such as number and shape, are known can be separated by fitting the model.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfasst das Bildverarbeitungsverfahren ein Region-Growing auf der Grundlage der Trägerdaten sowie der Hilfsdaten, wobei homogene Bildelemente der Region zu Objekten verschmolzen werden.In a further advantageous embodiment of the method, the image processing method includes a region growing on the basis of Carrier data and the auxiliary data, with homogeneous image elements of the region being merged into objects.

Bei einem Region-Growing im Sinne der Erfindung wird vorzugsweise, ausgehend von einem identifizierten Mittelpunkt oder Schwerpunkt eines Objekts als Anfangsbereich, dieser Anfangsbereich anhand eines Kriteriums, insbesondere der Differenz eines Grauwerts zu den Nachbarzellen, verglichen. Trifft das Kriterium zu, wird die Nachbarzelle zu dem Bereich hinzugefügt. Dieser Vorgang wird vorzugsweise rekursiv wiederholt, indem die Nachbarbereiche der neu hinzugefügten Bereiche ebenfalls untersucht werden. Wenn keine Bereiche mehr hinzugenommen werden können, ist das Objekt identifiziert.In a region growing according to the invention, starting from an identified center or focus of an object as the starting area, this starting area is compared using a criterion, in particular the difference of a gray value to the neighboring cells. If the criterion applies, the neighboring cell is added to the range. This process is preferably repeated recursively by examining the neighboring areas of the newly added areas as well. If no more areas can be added, the object is identified.

Durch ein Region-Growing-Verfahren können die Objekte besonders einfach identifiziert werden.The objects can be identified particularly easily using a region-growing method.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfasst das Bildverarbeitungsverfahren ein Identifizieren von Rändern um die Objekte auf der Grundlage der Trägerdaten sowie der Hilfsdaten.In a further advantageous embodiment of the method, the image processing method includes identifying edges around the objects on the basis of the carrier data and the auxiliary data.

In einer weiteren vorteilhaften Ausgestaltung umfasst das Einlesen der Hilfsdaten ein Ermitteln wenigstens einer Eigenschaft der Objekte mittels des ersten Bilderkennungsmodells oder eines zweiten Bilderkennungsmodells, welches auf einem zweiten künstlichen neuronalen Netz beruht, auf der Grundlage des Übersichtsbilds, wobei die Hilfsdaten in Bezug auf die wenigstens eine Eigenschaft der Objekte erzeugt werden. In diesem Fall werden die Hilfsdaten ebenfalls mittels dem ersten künstlichen neuronalen Netz oder dem zweiten künstlichen neuronalen Netz auf der Grundlage des Übersichtsbilds erzeugt.In a further advantageous embodiment, reading in the auxiliary data includes determining at least one property of the objects using the first image recognition model or a second image recognition model, which is based on a second artificial neural network, on the basis of the overview image, with the auxiliary data relating to the at least one Property of the objects are generated. In this case, the auxiliary data is also generated using the first artificial neural network or the second artificial neural network on the basis of the overview image.

Werden auch die Hilfsdaten von dem ersten künstlichen neuronalen Netz erzeugt, so wird vorzugsweise ein künstliches neuronales Netz mit mehreren sogenannten Heads eingesetzt. Dies ist insbesondere von Vorteil bei der Bestimmung der Anzahl von Objekten, insbesondere der Anzahl von Deckgläsern.If the auxiliary data is also generated by the first artificial neural network, an artificial neural network with a plurality of so-called heads is preferably used. This is particularly advantageous when determining the number of objects, in particular the number of cover glasses.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens beruhen die Hilfsdaten vorzugsweise auf Eingaben eines Benutzers über eine Benutzerschnittstelle. Hierdurch kann Wissen des Benutzers berücksichtigt werden.In a further advantageous refinement of the method, the auxiliary data are preferably based on inputs by a user via a user interface. As a result, the user's knowledge can be taken into account.

Eine Benutzerschnittstelle im Sinne der Erfindung ist vorzugsweise eine Tastatur, eine Vorrichtung zur Spracheingabe, ein berührungsempfindliches Display, etc.A user interface within the meaning of the invention is preferably a keyboard, a device for voice input, a touch-sensitive display, etc.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens betreffen die Hilfsdaten wenigstens eine der Eigenschaften aus der nachfolgenden Liste an Eigenschaften:

  • • Art des Mikroskopsystems;
  • • Art, insbesondere Form, des Probenträgers;
  • • Benutzerinformationen.
In a further advantageous embodiment of the method, the auxiliary data relate to at least one of the properties from the following list of properties:
  • • type of microscope system;
  • • Type, in particular shape, of the sample carrier;
  • • User Information.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfasst das Einlesen der Hilfsdaten ein Ermitteln von wenigstens einer Eigenschaft der Objekte mittels eines zweiten Bilderkennungsverfahrens, wobei die Hilfsdaten in Bezug auf die wenigstens eine Eigenschaft der Objekte erzeugt werden.In a further advantageous embodiment of the method, reading in the auxiliary data includes determining at least one property of the objects using a second image recognition method, the auxiliary data being generated in relation to the at least one property of the objects.

Durch ein zweites Bilderkennungsverfahren können weitere Erkenntnisse in Bezug auf Eigenschaften der Objekte gewonnen werden.A second image recognition method can be used to gain further insights into the properties of the objects.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens betreffen die Hilfsdaten wenigstens eine der Eigenschaften der Objekte aus der nachfolgenden Liste von Eigenschaften:

  • • Anzahl der Objekte;
  • • Form der Objekte;
  • • Größe der Objekte;
  • • Rand der Objekte;
  • • Ausrichtung der Objekte;
  • • Mittelpunkte oder Schwerpunkte der Objekte.
In a further advantageous embodiment of the method, the auxiliary data relate to at least one of the properties of the objects from the following list of properties:
  • • number of objects;
  • • shape of objects;
  • • size of objects;
  • • edge of objects;
  • • Alignment of objects;
  • • Centers or centroids of the objects.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens betreffen die Trägerdaten wenigstens eine der Eigenschaften der wenigstens einen Region aus der nachfolgenden Liste an Eigenschaften:

  • • Anzahl der Regionen;
  • • Form der wenigstens einen Region;
  • • Größe der wenigstens einen Region;
  • • Rand der wenigstens einen Region;
  • • Ausrichtung der wenigstens einen Region.
In a further advantageous embodiment of the method, the carrier data relate to at least one of the properties of the at least one region from the following list of properties:
  • • number of regions;
  • • shape of the at least one region;
  • • size of the at least one region;
  • • edge of the at least one region;
  • • Alignment of the at least one region.

In einer weiteren vorteilhaften Ausgestaltung des Verfahrens ist das erste künstliche neuronale Netz ein mehrschichtiges künstliches neuronales Netz, insbesondere ein convolutional artificial neural network, und weist wenigstens einen Verarbeitungsabschnitt (engl.: backbone) und wenigstens zwei Pfade (engl.: heads) auf, wobei ein ersten Pfad die Trägerdaten erzeugt und ein zweiter Pfad die Hilfsdaten erzeugt.In a further advantageous embodiment of the method, the first artificial neural network is a multi-layer artificial neural network, in particular a convolutional artificial neural network, and has at least one processing section (backbone) and at least two paths (heads). a first path generates the bearer data and a second path generates the auxiliary data.

Durch ein künstliches neuronales Netz mit mehreren Pfaden können die Hilfsdaten und die Trägerdaten besonders effizient erzeugt werden.The auxiliary data and the carrier data can be generated particularly efficiently by an artificial neural network with a plurality of paths.

In einer weiteren vorteilhaften Ausgestaltung weist das Verfahren des Weiteren folgende Arbeitsschritte auf:

  • • Labeln der Objekte in dem Übersichtsbild auf der Grundlage der Informationen in Bezug auf die Objekte, wobei ein gelabeltes Übersichtsbild, insbesondere gelabelte Bilddaten, erzeugt wird bzw. werden; und
  • • Ausgeben des gelabelten Übersichtsbilds, insbesondere der gelabelten Bilddaten.
In a further advantageous embodiment, the method also has the following work steps:
  • • labeling the objects in the overview image based on the information relating to the objects, wherein a labeled overview image, in particular labeled image data, is/are generated; and
  • • Output of the labeled overview image, in particular the labeled image data.

Hierdurch können anhand der Bilddaten Objekte unmittelbar identifiziert werden.In this way, objects can be identified directly using the image data.

In einer weiteren vorteilhaften Ausgestaltung weist das Verfahren des Weiteren den Arbeitsschritt des Steuerns des Mikroskopsystems auf der Grundlage der Informationen auf.In a further advantageous embodiment, the method also has the work step of controlling the microscope system on the basis of the information.

Hierdurch kann das Mikroskopsystem, insbesondere das Mikroskop an sich, automatisiert betrieben und beispielsweise eine Probe angefahren werden.As a result, the microscope system, in particular the microscope itself, can be operated in an automated manner and, for example, a sample can be approached.

Die vorhergenannten Merkmale und Vorteile in Bezug auf den ersten Aspekt der Erfindung gelten entsprechend für den zweiten, dritten und vierten sowie weitere Aspekte der Erfindung und umgekehrt.The aforementioned features and advantages in relation to the first aspect of the invention apply correspondingly to the second, third and fourth as well as further aspects of the invention and vice versa.

Weitere Merkmale und Vorteile ergeben sich aus der Beschreibung in Bezug auf die Figuren. Es zeigen wenigstens teilweise schematisch:

  • 1a: ein Beispiel eines Übersichtsbilds eines Probenträgers;
  • 1b: ein Ausführungsbeispiel eines Übersichtsbilds mit einer segmentierten Region;
  • 1c: ein Ausführungsbeispiel von Hilfsdaten in Bezug auf Objekte auf einem Probenträger;
  • 1d: ein Ausführungsbeispiel von separierten Objekten auf einem Probenträger;
  • 2: ein Ausführungsbeispiel eines Verfahrens zum Identifizieren von Objekten auf einem Übersichtsbild eines Probenträgers;
  • 3: ein Ausführungsbeispiel eines Mikroskopsystems mit einem System zum Identifizieren von Objekten; und
  • 4: ein Ausführungsbeispiel eines Verfahrens zum Trainieren eines künstlichen neuronalen Netzes für ein Bilderkennungsmodell zum Trennen von Objekten auf einem Übersichtsbild eines Probenträgers
Further features and advantages result from the description with reference to the figures. They show at least partially schematically:
  • 1a : an example of an overview image of a sample carrier;
  • 1b : an embodiment of an overview image with a segmented region;
  • 1c : an embodiment of auxiliary data related to objects on a sample carrier;
  • 1d : an embodiment of separated objects on a sample carrier;
  • 2 : an embodiment of a method for identifying objects on an overview image of a sample carrier;
  • 3 : an embodiment of a microscope system with a system for identifying objects; and
  • 4 1: an embodiment of a method for training an artificial neural network for an image recognition model for separating objects on an overview image of a sample carrier

Ein Verfahren 100 zum Identifizieren von Objekten wird in Bezug auf die 1 und 2 im Nachfolgenden erläutert.A method 100 for identifying objects is described in relation to 1 and 2 explained below.

Die in diesem Ausführungsbeispiel identifizierten Objekte sind Deckgläser 11, 12, 13, welche auf einem Probenträger 10, insbesondere einem Objektträger, angeordnet sind.The objects identified in this exemplary embodiment are cover glasses 11, 12, 13, which are arranged on a sample carrier 10, in particular an object carrier.

Grundlage für das Verfahren ist ein Übersichtsbild eines Probenträgers 10, welches vorzugsweise durch eine an einem Mikroskop 7, insbesondere eine am Mikroskopstativ angebrachte Übersichtskamera 8 (beide nicht dargestellt), aufgenommen werden kann.The method is based on an overview image of a sample carrier 10, which can preferably be recorded by an overview camera 8 (both not shown) attached to a microscope 7, in particular an overview camera 8 attached to the microscope stand.

In einem ersten Arbeitsschritt 101 werden die Bilddaten eines Übersichtsbilds eingelesen.In a first work step 101, the image data of an overview image are read.

Ein solches Übersichtsbild ist beispielhaft in 1a dargestellt.An example of such an overview is shown in 1a shown.

In einem zweiten Arbeitsschritt 102 wird wenigstens eine Region 14 auf dem Probenträger 10 auf der Grundlage des Übersichtsbilds segmentiert. Hierfür kommt ein Bilderkennungsmodell zum Einsatz, welches durch ein trainiertes erstes künstliches neuronales Netz gebildet wird.In a second work step 102, at least one region 14 on the sample carrier 10 is segmented on the basis of the overview image. An image recognition model is used for this, which is formed by a trained first artificial neural network.

Vorzugsweise weist das künstliche neuronale Netz mehrere Schichten auf und ist vorzugsweise ein faltendes künstliches neuronales Netz (engl.: convolutional neural network).Preferably, the artificial neural network has multiple layers and is preferably a convolutional artificial neural network.

Mittels des Bilderkennungsmodells können Trägerdaten erzeugt werden, welche wenigstens eine Eigenschaft der wenigstens einen Region charakterisieren.The image recognition model can be used to generate carrier data which characterize at least one property of the at least one region.

Vorzugsweise sind solche Eigenschaften eine Anzahl an Regionen 14, eine Form der wenigstens einen Region 14, eine Größe der wenigstens einen Region 14, ein Rand der wenigstens einen Region 14 und/oder eine Ausrichtung der wenigstens einen Region 14. Such properties are preferably a number of regions 14, a shape of the at least one region 14, a size of the at least one region 14, an edge of the at least one region 14 and/or an orientation of the at least one region 14.

Der Einsatz eines künstlichen neuronalen Netzes ermöglicht es, dass das Bilderkennungsmodell die Region 14 auf dem Probenträger 10 mit Deckgläsern 11, 12, 13, wie in 1a gezeigt, anhand verschiedenster Eigenschaften oder auch in der Interaktion von Merkmalen der Deckgläser 11, 12, 13 und des Probenträgers 10 erkennen kann. Solche Merkmale können beispielsweise die Reflektivität, die Farbe, Artefakte, etc. sein.The use of an artificial neural network enables the image recognition model to cover the region 14 on the sample carrier 10 with cover glasses 11, 12, 13, as in 1a shown, based on various properties or in the interaction of features of the cover glasses 11, 12, 13 and the sample carrier 10 can recognize. Such features can be, for example, the reflectivity, the color, artefacts, etc.

Bei der erfindungsgemäßen Segmentierung handelt es sich vorzugsweise um eine semantische Bild-Segmentierung. Hierbei werden vorzugsweise einzelne Pixel oder Bereiche des Übersichtsbilds in einem Klassifikationsproblem den einzelnen Klassen zugeordnet. Hierfür werden vorzugsweise die Klassen vorgegeben.The segmentation according to the invention is preferably a semantic image segmentation. In this case, individual pixels or areas of the overview image are preferably assigned to the individual classes in a classification problem. The classes are preferably specified for this.

Im vorliegenden Fall können solche Klassen beispielsweise sein:

  • Klasse 1: Deckglas
  • Klasse 2: Hintergrund
  • Klasse 3: Deckglasrand.
In the present case, such classes can be, for example:
  • Class 1: coverslip
  • Class 2: Background
  • Class 3: coverslip edge.

Eine auf einem Probenträger 10 segmentierte Region 14 ist in 1b dargestellt.A region 14 segmented on a sample carrier 10 is in 1b shown.

Die Trägerdaten umfassen hierbei die Lage der Region 14, die Ausrichtung der Region 14, den Rand 15a, 15b, 15c der Region 14, und die Fläche der Region 14.The carrier data include the position of region 14, the alignment of region 14, the edge 15a, 15b, 15c of region 14, and the area of region 14.

In einem dritten Arbeitsschritt 103 werden Hilfsdaten eingelesen, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte charakterisieren.In a third work step 103, auxiliary data is read in, with the auxiliary data characterizing at least one property of the objects.

Je nach Art der Hilfsdaten können diese auf verschiedene Art eingelesen werden.Depending on the type of auxiliary data, these can be read in in different ways.

So können die Hilfsdaten vorzugsweise aus dem Übersichtsbild ermittelt werden. Hierfür kommt vorzugsweise das Bilderkennungsmodell, welches auch zum Ermitteln der Trägerdaten eingesetzt wird, zum Einsatz. Weiter vorzugsweise weist das dem Bilderkennungsmodell zugrunde liegende künstliche neuronale Netz in diesem Fall einen Verarbeitungsabschnitt (engl.: backbone) und wenigstens zwei Pfade (engl.: heads) auf. Ein erster Pfad erzeugt in diesem Fall die Trägerdaten und ein zweiter Pfad die Hilfsdaten. In this way, the auxiliary data can preferably be determined from the overview image. The image recognition model, which is also used to determine the carrier data, is preferably used for this. In this case, the artificial neural network on which the image recognition model is based also preferably has a processing section (backbone) and at least two paths (heads). In this case, a first path generates the carrier data and a second path generates the auxiliary data.

Alternativ hierzu werden die Hilfsdaten mit einem weiteren künstlichen neuronalen Netz erzeugt, welches ein zweites Bilderkennungsmodell bildet. Auch dieses zweite künstliche neuronale Netz ist trainiert und kann auf diese Weise die Eigenschaften der Deckgläser 11, 12, 13 ermitteln.As an alternative to this, the auxiliary data are generated using a further artificial neural network, which forms a second image recognition model. This second artificial neural network is also trained and can determine the properties of the cover glasses 11, 12, 13 in this way.

Alternativ oder zusätzlich können Eigenschaften der Objekte mittels eines zweiten Bildverarbeitungsverfahrens ermittelt werden.Alternatively or additionally, properties of the objects can be determined using a second image processing method.

Auf diese Weise erzeugte Hilfsdaten können folgende Eigenschaften der Deckgläser 11, 12, 13 sein: Anzahl der Deckgläser 11, 12, 13, Form der Deckgläser 11, 12, 13, Größe der Deckgläser 11, 12, 13, Rand 15a, 15b, 15c der Deckgläser 11, 12, 13, Ausrichtung der Deckgläser 11, 12, 13, Mittelpunkte M1, M2, M3 oder Schwerpunkte der Deckgläser 11, 12, 13.Auxiliary data generated in this way can be the following properties of the cover glasses 11, 12, 13: number of cover glasses 11, 12, 13, shape of the cover glasses 11, 12, 13, size of the cover glasses 11, 12, 13, edge 15a, 15b, 15c of the cover glasses 11, 12, 13, alignment of the cover glasses 11, 12, 13, centers M1, M2, M3 or focal points of the cover glasses 11, 12, 13.

Alternativ oder zusätzlich werden Hilfsdaten durch Einlesen von Eingaben eines Benutzers über eine Benutzerschnittstelle 6 (nicht dargestellt) oder durch Einlesen eines Attributs, beispielsweise einer Systemkennung, einen bestimmten Nutzer, identifizierbar über seinen Login, oder eine Klassifikation des Probenträgers bereitgestellt.Alternatively or additionally, auxiliary data are provided by reading in a user's input via a user interface 6 (not shown) or by reading in an attribute, for example a system identifier, a specific user, identifiable via his login, or a classification of the sample carrier.

Entsprechende Eigenschaften oder Kontextinformationen können beispielsweise die Art des Mikroskopsystems 1, die Art, insbesondere Form des Probenträgers 10 oder auch eine Nutzerinformation sein. Alternativ können diese Informationen auch dazu verwendet werden, ein geeignetes Modell, insbesondere das erste Modell, welches die Segmentierung ausführt, auszuwählen oder beim Trainieren des Bilderkennungsmodells als weitere Eingabedaten einzufließen.Corresponding properties or context information can be, for example, the type of microscope system 1, the type, in particular the shape of the sample carrier 10 or also user information. Alternatively, this information can also be used to select a suitable model, in particular the first model, which carries out the segmentation, or to flow in as further input data when training the image recognition model.

In 1c werden beispielsweise die Schwerpunkte M1, M2, M3 der Deckgläser 11, 12, 13 dargestellt. Diese Schwerpunkte M1, M2, M3 können beispielsweise mittels des Bilderkennungsmodells, mittels welchem die Trägerdaten erzeugt wurden, oder mittels des weiteren Bilderkennungsmodells, vorzugsweise mittels semantischer Segmentation, ermittelt sein.In 1c For example, the focal points M1, M2, M3 of the cover glasses 11, 12, 13 are shown. These focal points M1, M2, M3 can be determined, for example, by means of the image recognition model, by means of which the carrier data were generated, or by means of the further image recognition model, preferably by means of semantic segmentation.

Ein weiteres Beispiel für Eigenschaften der Deckgläser 11, 12, 13 kann deren Anzahl, im dargestellten Fall drei, und deren Form, im dargestellten Fall rechteckig, sein. Eine solche Angabe kann auch mittels semantischer Segmentation oder über eine Eingabe eines Benutzers eingelesen werden.Another example of the properties of the cover glasses 11, 12, 13 can be their number, three in the illustrated case, and their shape, rectangular in the illustrated case. Such information can also be read in by means of semantic segmentation or via input from a user.

In einem vierten Arbeitsschritt 104 werden die Deckgläser 11, 12, 13 in der wenigstens einen Region 14 mittels eines Bildverarbeitungsverfahrens auf der Grundlage der Trägerdaten bzw. der Eigenschaften der wenigstens einen Region 14 und der Hilfsdaten bzw. der Eigenschaften der Deckgläser 11, 12, 13 separiert.In a fourth work step 104, the cover glasses 11, 12, 13 in the at least one region 14 are processed using an image processing method based on the carrier data or the properties of the at least one region 14 and the auxiliary data or the properties of the cover glasses 11, 12, 13 separated.

Das erste Bildverarbeitungsverfahren umfasst dabei vorzugsweise ein Verschmelzen von einzelnen Regionen 14 auf der Grundlage ihrer Form und Ausrichtung zu einer Region oder ein Aufsplitten einer einzelnen Region 14 in mehrere Regionen 11, 12, 13, wie in 1d dargestellt. In 1d entsprechen die aufgesplitteten Regionen 11, 12, 13 dabei jeweils einem Deckglas. Vorzugsweise kommen hierbei als Hilfsdaten die Form und Ausrichtung der zu separierenden Deckgläser 11, 12, 13 in dem Bildverarbeitungsverfahren zum Einsatz.The first image processing method preferably includes a merging of individual regions 14 based on their shape and orientation into one region or a splitting of an individual region 14 into a plurality of regions 11, 12, 13, as in 1d shown. In 1d the split regions 11, 12, 13 each correspond to a cover glass. The shape and orientation of the cover glasses 11, 12, 13 to be separated are preferably used as auxiliary data in the image processing method.

Alternativ oder zusätzlich umfasst das erste Bildverarbeitungsverfahren ein Bestimmen von Parametern eines Modells der Deckgläser 11, 12, 13 auf der Grundlage der Trägerdaten, insbesondere der Lage der Region 14 mit den Deckgläsern 11, 12, 13 und der Hilfsdaten, insbesondere der Anzahl und der Form der Deckgläser 11, 12, 13 mittels einer Ausgleichsrechnung. Vorzugsweise wird bei der Ausgleichsrechnung hierbei eine Funktion in der Weise gefittet, dass diese zu den ermittelten Trägerdaten und Hilfsdaten passt. Diesbezüglich kann vorzugsweise auch ein Optimieren einer Bewertungsfunktion zum Einsatz kommen, mit welcher die gefittete Funktion optimiert werden kann.Alternatively or additionally, the first image processing method includes determining parameters of a model of the cover glasses 11, 12, 13 on the basis of the carrier data, in particular the position of the region 14 with the cover glasses 11, 12, 13 and the auxiliary data, in particular the number and the shape the coverslips 11, 12, 13 by means of an off equal calculation. In the compensation calculation, a function is preferably fitted in such a way that it matches the determined carrier data and auxiliary data. In this regard, an optimization of an evaluation function can preferably also be used, with which the fitted function can be optimized.

Alternativ oder zusätzlich kann als erstes Bildverarbeitungsverfahren ein sogenanntes Region-Growing-Verfahren zum Einsatz kommen. Hierbei werden auf der Grundlage von Trägerdaten, insbesondere der Lage einer Region 14 sowie der Hilfsdaten, insbesondere der Anzahl der gefundenen Mittel- oder Schwerpunkte, homogene Bildelemente 11, 12, 13 der segmentierten Region 14 des Probenträgers 10 zu Bereichen, welche den Deckgläsern entsprechen, verschmolzen.Alternatively or additionally, what is known as a region-growing method can be used as the first image processing method. Here, on the basis of carrier data, in particular the position of a region 14 and the auxiliary data, in particular the number of central or focal points found, homogeneous image elements 11, 12, 13 of the segmented region 14 of the sample carrier 10 become areas which correspond to the cover glasses, merged.

Alternativ oder zusätzlich umfasst das erste Bildverarbeitungsverfahren ein Identifizieren von Rändern 15a, 15b, 15c um die Deckgläser 11, 12, 13. Hierbei werden die einzelnen Deckgläser 11, 12, 13 vorzugsweise auf der Grundlage der Trägerdaten, welche eine Segmentierungsmaske bilden, getrennt. In diesem Fall ist eine Klasse des zu lösenden Klassifizierungsproblems der Rand 15a, 15b, 15c der Deckgläser 11, 12, 13, welcher in dem Übersichtsbild des Probenträgers 10 für das Bildverarbeitungsverfahren zu erkennen sein muss.Alternatively or additionally, the first image processing method includes identifying edges 15a, 15b, 15c around the cover glasses 11, 12, 13. Here, the individual cover glasses 11, 12, 13 are preferably separated on the basis of the carrier data, which form a segmentation mask. In this case, one class of the classification problem to be solved is the edge 15a, 15b, 15c of the cover glasses 11, 12, 13, which must be recognizable in the overview image of the sample carrier 10 for the image processing method.

In einem fünften Arbeitsschritt 105 wird Information in Bezug auf die separierten Deckgläser 11, 12, 13 ausgegeben.In a fifth work step 105, information relating to the separated cover glasses 11, 12, 13 is output.

Eine solche Information kann beispielsweise Bilddaten in Bezug auf ein bearbeitetes Übersichtsbild sein, beispielsweise wie in 1d dargestellt, in welchem die Deckgläser11, 12, 13 und der Probenträger 10 sichtbar sind. Weitere Informationen können die Lage, die Anzahl, die Form, die Ausrichtung etc. der Deckgläser 11, 12, 13 sein.Such information can, for example, be image data relating to a processed overview image, for example as in 1d shown, in which the cover glasses 11, 12, 13 and the sample carrier 10 are visible. The position, number, shape, orientation, etc. of the cover glasses 11, 12, 13 can be additional information.

Diese Information kann vorzugsweise in einem Arbeitsschritt 106 zum Steuern des Mikroskopsystems 1 verwendet werden.This information can preferably be used in a work step 106 for controlling the microscope system 1 .

In einem siebten Arbeitsschritt 107 kann die erzeugte Information zum Labeln eines Übersichtsbilds verwendet werden, wobei ein gelabeltes Übersichtsbild, insbesondere gelabelte Bilddaten, erzeugt wird bzw. werden.In a seventh work step 107, the information generated can be used to label an overview image, with a labeled overview image, in particular labeled image data, being or being generated.

3 zeigt ein Ausführungsbeispiel eines Mikroskopsystems 1 mit einem System 2 zum Identifizieren von Objekten 11, 12, 13. Das Mikroskopsystem 1 weist vorzugweise ein Mikroskop 7 auf, an dessen Stativ eine Übersichtskamera 8 angebracht ist. 3 1 shows an exemplary embodiment of a microscope system 1 with a system 2 for identifying objects 11, 12, 13. The microscope system 1 preferably has a microscope 7, on the stand of which an overview camera 8 is attached.

Bilddaten eines mittels der Übersichtskamera 8 gemachten Übersichtsbilds werden über eine erste Schnittstelle 3 in das System 2 eingelesen. Des Weiteren werden vorzugsweise über die erste Schnittstelle 3 Hilfsdaten, welche eine Eigenschaft der zu identifizierenden Objekte 11, 12, 13 charakterisieren, in das System 2 eingelesen.Image data of an overview image taken by means of the overview camera 8 are read into the system 2 via a first interface 3 . Furthermore, auxiliary data, which characterize a property of the objects 11, 12, 13 to be identified, are read into the system 2, preferably via the first interface 3.

Bei dem System 2 handelt es sich vorzugsweise um eine Vorrichtung zur Datenverarbeitung.The system 2 is preferably a device for data processing.

Das System 2 weist des Weiteren vorzugsweise Mittel 4 zum Segmentieren wenigstens einer Region 14 auf dem Probenträger 10 auf, sowie Mittel 5 zum Separieren von Objekten 11, 12, 13 in der wenigstens einen Region 14.The system 2 also preferably has means 4 for segmenting at least one region 14 on the sample carrier 10, and means 5 for separating objects 11, 12, 13 in the at least one region 14.

Eine zweite Schnittstelle 6 ist schließlich eingerichtet zum Ausgeben von Informationen in Bezug auf die separierten Objekte 11, 12, 13.Finally, a second interface 6 is set up to output information relating to the separated objects 11, 12, 13.

4 zeigt ein Ausführungsbeispiel eines Verfahrens 200 zum Trainieren eines künstlichen neuronalen Netzes für ein Bilderkennungsmodell zum Trennen von Objekten 11, 12, 13 auf einem Übersichtsbild eines Probenträgers 10 eines Mikroskopsystems 1. 4 shows an exemplary embodiment of a method 200 for training an artificial neural network for an image recognition model for separating objects 11, 12, 13 on an overview image of a sample carrier 10 of a microscope system 1.

In einem ersten Arbeitsschritt 201 des Verfahrens 200 wird ein Datenstrom erzeugt, insbesondere Bildstrom einer Vielzahl von Übersichtsbildern, welche den Probenträger 10 in einem Mikroskop 7 eines Mikroskopsystems 1 abbilden, auf welchem Objekte 11, 12, 13 angeordnet sind.In a first working step 201 of the method 200, a data stream is generated, in particular an image stream of a large number of overview images which depict the sample carrier 10 in a microscope 7 of a microscope system 1 on which objects 11, 12, 13 are arranged.

In einem zweiten Arbeitsschritt 202 werden Ground-Truth-Trägerdaten eingelesen, welche wenigstens eine Eigenschaft wenigstens einer Region 14 angeben, in welcher die Objekte 11, 12, 13 auf dem Probenträger 10 angeordnet sind.In a second work step 202, ground truth carrier data are read in, which indicate at least one property of at least one region 14 in which the objects 11, 12, 13 are arranged on the sample carrier 10.

In einem dritten Arbeitsschritt 203 wird der Datenstrom mit den dazugehörigen jeweiligen Ground-Truth-Trägerdaten für das künstliche neuronale Netz zum Trainieren bereitgestellt.In a third work step 203, the data stream is provided with the associated respective ground truth carrier data for the artificial neural network for training.

Es wird darauf hingewiesen, dass es sich bei den Ausführungsbeispielen lediglich um Beispiele handelt, die den Schutzbereich der Anwendung und den Aufbau in keiner Weise einschränken sollen. Vielmehr wird dem Fachmann durch die vorausgehende Beschreibung ein Leitfaden für die Umsetzung mindestens eines Ausführungsbeispiels gegeben, wobei diverse Änderungen, insbesondere im Hinblick auf die Funktion und Anordnung der beschriebenen Bestandteile, vorgenommen werden können, ohne den Schutzbereich zu verlassen, wie er sich aus den Ansprüchen und diesen äquivalenten Merkmalskombinationen ergibt. Insbesondere können die beschriebenen Verfahren und Systeme dazu verwendet werden, andere Objekte wie Deckgläser auf einem Probenträger zu identifizieren. Nicht einschränkende Beispiele sind Proben, Artefakte, Partikel, etc.It is pointed out that the exemplary embodiments are only examples that are not intended to restrict the scope of protection of the application and the structure in any way. Rather, the above description gives the person skilled in the art a guideline for the implementation of at least one exemplary embodiment, with various changes, in particular with regard to the function and arrangement of the described components, being able to be made without departing from the scope of protection as it results from the claims and these equivalent combinations of features. In particular, the described methods and systems used to identify other objects such as coverslips on a sample carrier. Non-limiting examples are samples, artifacts, particles, etc.

BezugszeichenlisteReference List

11
Mikroskopsystemmicroscope system
22
Systemsystem
33
Schnittstelleinterface
44
Mittel zum Segmentierenmeans for segmenting
55
Mittel zum Einlesenmeans of reading
66
Zweite SchnittstelleSecond interface
1010
Probenträgersample carrier
11, 12, 1311, 12, 13
Deckglascoverslip
1414
Regionregion
15a, 15b, 15c15a, 15b, 15c
Rand eines Deckglasesedge of a coverslip

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102017111718 A1 [0007]DE 102017111718 A1 [0007]

Claims (15)

Computerimplementiertes Verfahren (100) zum Identifizieren von Objekten (11, 12, 13), insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers (10) eines Mikroskopsystems (1), die folgenden Arbeitsschritte aufweisend: Einlesen (101) des Übersichtsbilds; Segmentieren (102) wenigstens einer Region (14) auf dem Probenträger (10), in welcher die Objekte (11, 12, 13) auf dem Probenträger (10) angeordnet sind, auf der Grundlage des Übersichtsbilds, insbesondere der Bilddaten, mittels eines ersten Bilderkennungsmodells, wobei das erste Bilderkennungsmodell auf einem ersten Maschinenlernmodell, insbesondere einem ersten künstlichen neuronalen Netz, beruht, wobei Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region (14) charakterisieren, erzeugt werden; Einlesen (103) von Hilfsdaten, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte (11, 12, 13) charakterisieren; Separieren (104) von Objekten (11, 12, 13) in der wenigstens einen Region (14) mittels eines ersten Bildverarbeitungsverfahrens auf der Grundlage der Trägerdaten und der Hilfsdaten; und Ausgeben (105) von Information in Bezug auf die separierten Objekte (11, 12, 13).Computer-implemented method (100) for identifying objects (11, 12, 13), in particular cover glasses, on an overview image of a sample carrier (10) of a microscope system (1), having the following work steps: reading (101) the overview image; Segmenting (102) at least one region (14) on the sample carrier (10), in which the objects (11, 12, 13) are arranged on the sample carrier (10), on the basis of the overview image, in particular the image data, by means of a first Image recognition model, the first image recognition model being based on a first machine learning model, in particular a first artificial neural network, carrier data which characterize at least one property of the at least one region (14) being generated; Reading in (103) auxiliary data, the auxiliary data characterizing at least one property of the objects (11, 12, 13); separating (104) objects (11, 12, 13) in the at least one region (14) by means of a first image processing method on the basis of the carrier data and the auxiliary data; and outputting (105) information related to the separated objects (11, 12, 13). Verfahren (100) nach Anspruch 1, wobei das erste Bildverarbeitungsverfahren ein Ermitteln der wenigstens einen Region (14) umfasst, wobei einzelne Regionen (14) auf der Grundlage ihrer Form und Ausrichtung als Hilfsdaten zu einer Region versschmolzen oder in mehrere Regionen (11, 12, 13) aufgesplittet werden.Method (100) according to claim 1 , wherein the first image processing method comprises determining the at least one region (14), individual regions (14) being merged into one region as auxiliary data on the basis of their shape and orientation or being split into a plurality of regions (11, 12, 13). Verfahren (100) nach Anspruch 1 oder 2, wobei das erste Bildverarbeitungsverfahren ein Bestimmen von Parametern eines Modells der Objekte (11, 12, 13) auf der Grundlage der Trägerdaten und der Hilfsdaten, insbesondere die in dem Übersichtsbild vorhandene Anzahl an einzelnen Objekten oder deren Ausrichtung, mittels einer Ausgleichsrechnung, umfasst.Method (100) according to claim 1 or 2 , wherein the first image processing method includes determining parameters of a model of the objects (11, 12, 13) on the basis of the carrier data and the auxiliary data, in particular the number of individual objects present in the overview image or their orientation, by means of a fitting calculation. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei das erste Bildverarbeitungsverfahren ein Optimieren einer Bewertungsfunktion umfasst, wobei in die Bewertungsfunktion die Trägerdaten sowie die Hilfsdaten eingehen, wobei die Bewertungsfunktion vorzugsweise als Ausgleichsrechnung ausgebildet ist.Method (100) according to any one of Claims 1 until 3 , wherein the first image processing method comprises an optimization of an evaluation function, with the carrier data and the auxiliary data entering into the evaluation function, with the evaluation function preferably being designed as an adjustment calculation. Verfahren (100) nach Anspruch 1 oder 2, wobei das erste Bildverarbeitungsverfahren ein Region-Growing auf der Grundlage der Trägerdaten sowie der Hilfsdaten, insbesondere der Mittelpunkte und/oder Schwerpunkte der Objekte, umfasst, wobei homogene Bildelemente (11, 12, 13) der Region (14) zu Objekten verschmolzen werden.Method (100) according to claim 1 or 2 , wherein the first image processing method comprises region growing based on the carrier data and the auxiliary data, in particular the centers and/or focal points of the objects, with homogeneous image elements (11, 12, 13) of the region (14) being merged into objects. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei das erste Bilderkennungsmodell oder das zweite Bilderkennungsmodell ein Identifizieren von Rändern (15a, 15b, 15c) um die Objekte (11, 12, 13) auf der Grundlage des Übersichtsbilds umfasst.A method (100) according to any one of the preceding claims, wherein the first image recognition model or the second image recognition model comprises identifying edges (15a, 15b, 15c) around the objects (11, 12, 13) based on the overview image. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei das Einlesen der Hilfsdaten ein Ermitteln wenigstens einer Eigenschaft der Objekte (11, 12, 13) mittels des ersten Bilderkennungsmodells oder eines zweiten Bilderkennungsmodells, welches auf einem zweiten Maschinenlernmodell, insbesondere zweitem künstlichen neuronalen Netz, oder einem zweiten Pfad des ersten Maschinenlernmodells beruht, auf der Grundlage des Übersichtsbilds umfasst, wobei die Hilfsdaten in Bezug auf die wenigstens eine Eigenschaft der Objekte (11, 12, 13) erzeugt werden.Method (100) according to one of the preceding claims, wherein the reading in of the auxiliary data involves determining at least one property of the objects (11, 12, 13) using the first image recognition model or a second image recognition model which is based on a second machine learning model, in particular a second artificial neural network. or a second path of the first machine learning model, based on the overview image, wherein the auxiliary data are generated in relation to the at least one property of the objects (11, 12, 13). Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei das Einlesen der Hilfsdaten ein Ermitteln von wenigstens einer Eigenschaft der Objekte (11, 12, 13) mittels eines zweiten Bildverarbeitungsverfahrens, wobei die Hilfsdaten in Bezug auf die wenigstens eine Eigenschaft der Objekte (11, 12, 13) erzeugt werden, umfasst.Method (100) according to one of the preceding claims, wherein the reading in of the auxiliary data involves determining at least one property of the objects (11, 12, 13) by means of a second image processing method, the auxiliary data relating to the at least one property of the objects (11, 12, 13) are generated. Verwendung der mittels eines Verfahrens (100) nach einem der Ansprüche 1 bis 8 erzeugten Information zum Labeln (107) des Übersichtsbilds, wobei ein gelabeltes Übersichtsbild, insbesondere gelabelte Bilddaten, erzeugt wird bzw. werden.Use of by means of a method (100) according to one of Claims 1 until 8th generated information for labeling (107) the overview image, wherein a labeled overview image, in particular labeled image data, is or are generated. Verwendung der mittels eines Verfahrens (100) nach einem der Ansprüche 1 bis 9 erzeugten Information zum Steuern (106) des Mikroskopsystems (1).Use of by means of a method (100) according to one of Claims 1 until 9 generated information for controlling (106) the microscope system (1). Computerimplementiertes Verfahren (200) zum Trainieren eines künstlichen neuronalen Netzes zum Identifizieren von Objekten (11, 12, 13), wobei das künstliche neuronale Netz zwei Pfade aufweist, wobei ein erster Pfad ein Bilderkennungsmodell zum Segmentieren von Objekten (11, 12, 13), insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers (10) eines Mikroskopsystems (1), bildet und ein zweiter Pfad ein Bilderkennungsmodell zum Erfassen von Eigenschaften der Objekte bildet, die folgenden Arbeitsschritte aufweisend: Erzeugen (201) eines Datenstroms, insbesondere eines Bildstroms einer Vielzahl von Übersichtsbildern, welche Probenträger eines Mikroskopsystems (1) abbilden, auf welchem Objekte (11, 12, 13) angeordnet sind; Einlesen (202) von Ground Truth-Trägerdaten, welche wenigstens eine reale Eigenschaft wenigstens einen Region (14) charakterisieren, in welcher die Objekte (11, 12, 13) auf dem Probenträger (10) angeordnet sind, und Ground-Truth-Hilfsdaten, welche wenigstens eine reale Eigenschaft der Objekte (11, 12, 13) charakterisieren; und Bereitstellen (203) des Datenstroms mit den entsprechenden jeweiligen Ground Truth-Trägerdaten und Ground-Truth-Hilfsdaten an das künstliche neuronale Netz.Computer-implemented method (200) for training an artificial neural network for identifying objects (11, 12, 13), the artificial neural network having two paths, a first path using an image recognition model for segmenting objects (11, 12, 13), in particular cover glasses, on an overview image of a sample carrier (10) of a microscope system (1), and a second path forms an image recognition model for detecting properties of the objects, having the following work steps: generating (201) a data stream, in particular an image stream of a large number of Overview images which depict sample carriers of a microscope system (1) on which objects (11, 12, 13) are arranged; Reading (202) ground truth carrier data, wel che at least one real property characterize at least one region (14), in which the objects (11, 12, 13) are arranged on the sample carrier (10), and ground truth auxiliary data, which at least one real property of the objects (11, 12, 13) characterize; and providing (203) the data stream with the corresponding respective ground truth carrier data and ground truth auxiliary data to the artificial neural network. Computerimplementiertes Verfahren (200) zum Trainieren von zwei künstlichen neuronalen Netzen zum Identifizieren von Objekten (11, 12, 13), wobei das erste künstliche neuronale Netz ein Bilderkennungsmodell zum Segmentieren von Objekten (11, 12, 13), insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers (10) eines Mikroskopsystems (1), bildet und das zweite künstliche neuronale Netz ein Bilderkennungsmodell zum Erfassen von Eigenschaften der Objekte bildet, die folgenden Arbeitsschritte aufweisend: Erzeugen (201) eines Datenstroms, insbesondere eines Bildstroms einer Vielzahl von Übersichtsbildern, welche Probenträger eines Mikroskopsystems (1) abbilden, auf welchem Objekte (11, 12, 13) angeordnet sind; Einlesen (202) von Ground Truth-Trägerdaten, welche wenigstens eine reale Eigenschaft wenigstens einen Region (14) charakterisieren, in welcher die Objekte (11, 12, 13) auf dem Probenträger (10) angeordnet sind, und Ground-Truth-Hilfsdaten, welche wenigstens eine reale Eigenschaft der Objekte (11, 12, 13) charakterisieren; und Bereitstellen (203) des Datenstroms mit den entsprechenden jeweiligen Ground Truth-Trägerdaten und Ground-Truth-Hilfsdaten an beide künstlichen neuronalen Netze.Computer-implemented method (200) for training two artificial neural networks for identifying objects (11, 12, 13), the first artificial neural network having an image recognition model for segmenting objects (11, 12, 13), in particular cover glasses, on an overview image a sample carrier (10) of a microscope system (1), and the second artificial neural network forms an image recognition model for detecting properties of the objects, having the following work steps: Generating (201) a data stream, in particular an image stream of a multiplicity of overview images which depict sample carriers of a microscope system (1) on which objects (11, 12, 13) are arranged; Reading in (202) ground truth carrier data which characterize at least one real property of at least one region (14) in which the objects (11, 12, 13) are arranged on the sample carrier (10), and ground truth auxiliary data, which characterize at least one real property of the objects (11, 12, 13); and Providing (203) the data stream with the corresponding respective ground truth carrier data and ground truth auxiliary data to both artificial neural networks. System (2) zum Identifizieren von Objekten (11, 12, 13), insbesondere Deckgläsern, auf einem Übersichtsbild eines Probenträgers (10) eines Mikroskopsystems (1), aufweisend: eine erste Schnittstelle (3) zum Einlesen des Übersichtsbilds, insbesondere als Bilddaten, und von Hilfsdaten, wobei die Hilfsdaten wenigstens eine Eigenschaft der Objekte (11, 12, 13) charakterisieren; Mittel (4) zum Segmentieren wenigstens einer Region (14) auf dem Probenträger (10), in welcher die Objekte (11, 12, 13) auf dem Probenträger (10) angeordnet sind, auf der Grundlage des Übersichtsbilds, insbesondere der Bilddaten, mittels eines ersten Übersichtsbilderkennungsmodells, wobei das erste Übersichtsbilderkennungsmodell auf einem ersten Maschinenlernmodell, insbesondere einem ersten künstlichen neuronalen Netz, beruht, wobei Trägerdaten, welche wenigstens eine Eigenschaft der wenigstens einen Region (14) charakterisieren, erzeugt werden; Mittel (5) zum Separieren von Objekten (11, 12, 13) in der wenigstens einen Region (14) mittels eines Übersichtsbildverarbeitungsverfahrens auf der Grundlage der Trägerdaten und der Hilfsdaten; und eine zweite Schnittstelle (6) zum Ausgeben von Information in Bezug auf die separierten Objekte (11, 12, 13).System (2) for identifying objects (11, 12, 13), in particular cover glasses, on an overview image of a sample carrier (10) of a microscope system (1), having: a first interface (3) for reading in the overview image, in particular as image data, and auxiliary data, the auxiliary data characterizing at least one property of the objects (11, 12, 13); Means (4) for segmenting at least one region (14) on the sample carrier (10), in which the objects (11, 12, 13) are arranged on the sample carrier (10), on the basis of the overview image, in particular the image data, by means a first overview image recognition model, wherein the first overview image recognition model is based on a first machine learning model, in particular a first artificial neural network, wherein carrier data which characterize at least one property of the at least one region (14) is generated; means (5) for separating objects (11, 12, 13) in the at least one region (14) by means of an overview image processing method on the basis of the carrier data and the auxiliary data; and a second interface (6) for outputting information relating to the separated objects (11, 12, 13). Mikroskopsystem (1) mit einem System (2) zum Identifizieren von Objekten (11, 12, 13) nach Anspruch 13.Microscope system (1) with a system (2) for identifying objects (11, 12, 13). Claim 13 . Computerprogramm oder Computerprogrammprodukt, wobei das Computerprogramm oder Computerprogrammprodukt, insbesondere auf einem computerlesbaren und/oder nicht-flüchtigen Speichermedium gespeicherte, Anweisungen enthält, welche, wenn sie von einem Computer oder einem System (2) nach Anspruch 13 ausgeführt werden, den Computer oder das System (2) dazu veranlassen, die Schritte eines Verfahrens (100) gemäß einem der Ansprüche 1 bis 12 auszuführen.Computer program or computer program product, wherein the computer program or computer program product contains instructions, in particular stored on a computer-readable and/or non-volatile storage medium, which, when they are carried out by a computer or a system (2). Claim 13 are executed, cause the computer or the system (2) to carry out the steps of a method (100) according to one of Claims 1 until 12 to execute.
DE102022201258.5A 2022-02-07 2022-02-07 Process for separating objects Pending DE102022201258A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022201258.5A DE102022201258A1 (en) 2022-02-07 2022-02-07 Process for separating objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022201258.5A DE102022201258A1 (en) 2022-02-07 2022-02-07 Process for separating objects

Publications (1)

Publication Number Publication Date
DE102022201258A1 true DE102022201258A1 (en) 2023-08-10

Family

ID=87312847

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201258.5A Pending DE102022201258A1 (en) 2022-02-07 2022-02-07 Process for separating objects

Country Status (1)

Country Link
DE (1) DE102022201258A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017111718A1 (en) 2017-05-30 2018-12-06 Carl Zeiss Microscopy Gmbh Method for generating and analyzing an overview contrast image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017111718A1 (en) 2017-05-30 2018-12-06 Carl Zeiss Microscopy Gmbh Method for generating and analyzing an overview contrast image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BOHLENDER, Simon; OKSUZ, Ilkay; MUKHOPADHYAY, Anirban. A survey on shape-constraint deep learning for medical image segmentation. arXiv preprint arXiv:2101.07721, 2021. [abgerufen am 20.01.2023]
YANG, Linfeng, et al. NuSeT: A deep learning tool for reliably separating and analyzing crowded cells. PLoS computational biology, 2020, 16. Jg., Nr. 9, S. e1008193. https://doi.org/10.1371/journal.pcbi.1008193

Similar Documents

Publication Publication Date Title
DE2823490C2 (en)
DE112011103687B4 (en) Centromere detector and method for determining radiation exposure by chromosomal abnormalities
EP2130174B1 (en) Method and device for determining a cell contour of a cell
DE60120663T2 (en) Imaging unit with associated image database
EP1181525B1 (en) Method for the automatic analysis of microscope images
EP2656277B1 (en) Device and method for determining objects in a colour photograph
DE102013217354B4 (en) EDGE MEASUREMENT VIDEO TOOL AND INTERFACE WITH AUTOMATIC PARAMETER ALTERNATIVES
DE102019114012A1 (en) Microscopy method, microscope and computer program with verification algorithm for image processing results
DE102015114015A1 (en) MACHINE LEARNING
EP1797533B1 (en) Method and device for segmenting a digital representation of cells
DE19616997A1 (en) Process for automated microscope-assisted examination of tissue or body fluid samples
EP2400458B1 (en) Method and device for segmenting biological cells in an image
EP2034461A2 (en) Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program
DE102020126554A1 (en) MICROSCOPY SYSTEM AND METHOD OF VERIFYING INPUT DATA
DE102021100444A1 (en) MICROSCOPY SYSTEM AND METHOD FOR EVALUATION OF IMAGE PROCESSING RESULTS
EP2787485B1 (en) Method and device for automatic detection of defects in flexible bodies
DE102019131678A1 (en) Microscope and method for processing microscope images
DE60026732T2 (en) CELL LINES EXTRACTION PROCESS
DE102013210771A1 (en) DETECTION OF A COMPLEX OBJECT USING A CASCADE OF CLASSIFICATION EQUIPMENT
DE102022201258A1 (en) Process for separating objects
DE19637741B4 (en) Automatic cytology sample analysis system using individualized patient data
EP3971827B1 (en) Method for detecting a binding of antibodies of a patient sample to double-stranded dna using crithidia luciliae cells and fluorescence microscopy
DE102021125544A1 (en) TRAINING A MACHINE LEARNED ALGORITHM FOR CELL COUNTING OR CELL CONFLUENCE DETERMINATION
EP1481371A1 (en) Method for separating a group of cells which are contained in an image sample into individual cells
DE102022206025A1 (en) Population classification using point cloud features

Legal Events

Date Code Title Description
R163 Identified publications notified