DE4211904C2 - Automatic procedure for creating a list of different types for a liquid sample - Google Patents

Automatic procedure for creating a list of different types for a liquid sample

Info

Publication number
DE4211904C2
DE4211904C2 DE4211904A DE4211904A DE4211904C2 DE 4211904 C2 DE4211904 C2 DE 4211904C2 DE 4211904 A DE4211904 A DE 4211904A DE 4211904 A DE4211904 A DE 4211904A DE 4211904 C2 DE4211904 C2 DE 4211904C2
Authority
DE
Germany
Prior art keywords
objects
cluster
image
data
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4211904A
Other languages
German (de)
Other versions
DE4211904A1 (en
Inventor
Werner Maier
Christian Volk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4211904A priority Critical patent/DE4211904C2/en
Priority to DE4244708A priority patent/DE4244708C2/en
Publication of DE4211904A1 publication Critical patent/DE4211904A1/en
Application granted granted Critical
Publication of DE4211904C2 publication Critical patent/DE4211904C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • G01N33/186Water using one or more living organisms, e.g. a fish
    • G01N33/1866Water using one or more living organisms, e.g. a fish using microorganisms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Microbiology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die Erfindung betrifft ein automatisches Verfahren zum Erstellen einer Liste unterschiedlicher Arten für eine flüssige Probe mit Objekten, die form- und/oder ortsveränderlich sein können und sich z.T. gegenseitig überdecken oder überlappen, zur Ermittlung des ökologischen Zustandes der Probe. The invention relates to an automatic method for creating a list different types for a liquid sample with objects that are shape and / or can be portable and sometimes cover each other or overlap to determine the ecological condition of the sample.  

Ein derartiges, allerdings manuell durchgeführtes Verfahren ist aus der Praxis bekannt. Es dient zur Untersuchung von belebten Schlämmen u.ä. Biomassen, zur Bestimmung von Gewässergüten und/oder zur Überwachung biologischer Abwasserreinigungssysteme. Zu diesem Zweck wird das Ökosystem "belebter Schlamm" untersucht, das einen definierten Raum mit generell gleichen Eigenschaften darstellt, der in den Lebensraum, das nicht lebende Biotop, und in die Artengemeinschaften oder die Lebensgemeinschaft, die Biozönose zerfällt.Such a method, which is carried out manually, is from practice known. It is used to examine activated sludges etc. Biomass, for the determination of water quality and / or for Monitoring biological wastewater treatment systems. To this The purpose is to investigate the "activated sludge" ecosystem a defined space with generally the same properties represents that in the habitat, the non-living biotope, and into the species communities or the community, the biocenosis disintegrates.

Die Biozönose setzt sich aus unterschiedlichen Arten zusammmen, die sehr verschiedene Objektdichten aufweisen. Darüber hinaus reicht die Größe der Objekte, zu denen Algen, Pilze, Protozoen und Metazoen zählen, von 1 µm (Bakterien) bis zu mehreren mm (Kleinstlebewesen). Pro Probe finden sich bis 100 und mehr Objektarten und je Art von einem Objekt bis zu mehreren tausend Objekten.The biocenosis is composed of different species, which have very different object densities. Furthermore enough the size of the objects, including algae, fungi, protozoa and metazoa count from 1 µm (bacteria) to several mm (Microorganisms). There are up to 100 and more per sample Object types and each type from one object to several thousand Objects.

Weiterhin finden sich in der Probe nicht nur lebende Objekte, sondern auch sonstige Partikel, wie Flocken, Fasern, Haare etc.Furthermore, not only living objects are found in the sample, but also other particles such as flakes, fibers, hair etc.

Mit "Art" oder "Arten" werden im folgenden Text sämtliche Objekte des Ökosystems bezeichnet, also beispielsweise sowohl Organismen als auch Flocken, Haare etc.With "Art" or "Types" all objects in the following text of the ecosystem, for example both organisms as well as flakes, hair etc.

Zweck der Untersuchung ist es, Aussagen über Vorgeschichte, Zustand und wahrscheinliche Weiterentwicklung des Ökosystems machen zu können. Weiterhin geht es um die Überwachung des Betriebsablaufes und um einen "Gesundheitscheck" des Ökosystems eines biologischen Abwasserreinigungssystems. Die im Rahmen der Untersuchung gewonnenen Aussagen werden genutzt, um die betriebstechnischen und die chemisch-physikalischen Daten der Anlage zu bestätigen und/oder zu ergänzen bzw. im Falle eines Störfalles gezielt weitere Untersuchungen zu veranlassen. Die Daten werden weiterhin zu einer Langzeituntersuchung der Biozönose der jeweiligen Anlage verwendet.The purpose of the investigation is to make statements about prehistory, State and likely evolution of the ecosystem to be able to do. It is also about monitoring the Operations and a "health check" of the ecosystem a biological wastewater treatment system. The in the frame Statements obtained from the investigation are used to determine the operational and chemical-physical data of To confirm and / or supplement the system or in the case of a  To initiate further investigations in the event of an accident. The data will continue to be a long-term study of the Biocenosis of the respective plant used.

Im Rahmen dieser Untersuchungen ist es erforderlich, eine Artenliste sämtlicher Objekte in einer Probe (z. B. 50 µl) zu erstellen und auszuwerten. Das Erstellen der Artenliste wird zur Zeit von Personal mit unterschiedlicher Vorbildung vorge­ nommen, das dazu ein Mikroskop und ggf. eine CCD-Kamera mit Videorekorder zur Dokumentation der untersuchten Proben ver­ wendet.As part of these investigations, it is necessary to Species list of all objects in a sample (e.g. 50 µl) create and evaluate. The creation of the species list will currently featured by staff with different educational backgrounds a microscope and possibly a CCD camera Video recorder for documentation of the examined samples ver turns.

Die Einordnung der unterschiedlichen Objekte in die verschiedenen Objektklassen oder Arten ist größtenteils Wissens- und Erfah­ rungssache, wobei die dabei verwendeten Methoden je nach dem Erfahrungsstand des mit der Untersuchung Beauftragten sehr unter­ schiedlich sind. Naturgemäß ist auf diese Weise nur eine sehr unvollständige Datenerfassung möglich, die lediglich ein Teil der zu untersuchenden Biomasse repräsentiert.The classification of the different objects into the different ones Object classes or types are mostly knowledge and experience matter, the methods used depending on the Experience of the person in charge of the investigation is very low are different. Naturally, this is only one incomplete data collection possible, which is only a part represents the biomass to be examined.

Die auf diese Weise erstellte Artenliste wird für eine Fort­ schreibung der Langzeitüberwachung (Populationswachstum der einzelnen Arten; Flockenbildung und -alter; Komplexität der Biozönose; Sauerstoffgehalt anhand von Indikatororganismen; Saprobien-Stufen als Index für die Wassergüte) in einen Computer eingegeben und zur Erkennung von periodischen Prozessen schon im frühen Stadium verwendet. Weiterhin führt der Computer eine Modellerstellung der Biozönose durch, um die spezifischen Abhängigkeiten zwischen den Arten zu bestimmen und um so zwischen normalen/üblichen Veränderungen der Biozönose einerseits und von außen hervorgerufenen Abweichungen andererseits unterscheiden zu können. The species list created in this way is used for a fort Long-term monitoring (population growth of individual species; Flake formation and age; Complexity of Biocenosis; Oxygen content based on indicator organisms; Saprobia levels as an index for water quality) in a computer entered and to recognize periodic processes already used in the early stage. The computer also carries out a Modeling the biocenosis through to the specific To determine dependencies between the species and so between normal / usual changes in the biocenosis on the one hand and on the other hand, distinguish between deviations caused by the outside to be able to.  

Mit dem insoweit beschriebenen Untersuchungsverfahren werden nicht nur Kläranlagen überprüft, auch natürliche Ökosysteme wie Seen, Flüsse, Meere etc. werden damit untersucht/überwacht.With the examination procedure described so far Not only wastewater treatment plants checked, also natural ecosystems such as lakes, rivers, seas etc. are examined / monitored.

Das vom Menschen durchzuführende Erstellen der Artenliste bedingt nicht nur den limitierenden Zeitfaktor sondern auch eine unerwünscht hohe Fehlerrate. Darüber hinaus ist die auf diese Weise gewonnene Datenmenge für einen umfassenden Überblick über den Zustand des jeweils untersuchten Ökosystems oft viel zu gering.The creation of the species list to be carried out by humans requires not only the limiting time factor but also an undesirable one high error rate. In addition, this is the way Amount of data obtained for a comprehensive overview of the The state of the ecosystem in question is often far too low.

Eine umfassende chemische Analyse von Belebtschlämmen ist zwar möglich, dauert aber noch länger als die eingangs beschriebene Bestimmung unter Heranziehung einer vom Menschen erstellten Artenliste.A comprehensive chemical analysis of activated sludge is admittedly possible, but takes even longer than that described at the beginning Determination using a man-made one Species list.

Nun ist es zwar bekannt, Fluoreszenzmikroskope mit Kamerasystemen zu verwenden, die Proben sind hier jedoch fast ausschließlich zweidimensional und trocken. Flüssige Proben mit bewegten Objekten können mit solchen, insbesondere in Forschungslaboratorien zu findenden Systemen, nicht untersucht werden.Now it is known to use fluorescence microscopes with camera systems to be used, but the samples are almost exclusively here two-dimensional and dry. Liquid samples with moving Objects can be used with such, especially in research laboratories systems to be found.

Derartige Systeme suchen aber nach gewünschten Objekten, während es im Falle der Erstellung der Artenliste um ein Identifizieren unbekannter Objekte geht, deren Lage im Raum beliebig sein kann.Such systems, however, search for desired objects while in the case of the creation of the species list for identification unknown objects whose position in the room can be arbitrary.

Darüber hinaus können die Objekte in den zu untersuchenden flüssigen Proben auch als Clusterobjekte auftreten. Unter Clusterobjekten werden hier mehrere zusammenhängende Objekte verstanden, z. B. können sich an einer Flocke mehrere Mikroorganismen anheften, so daß ein Clusterobjekt entsteht, das aus unbelebten und belebten Objekten ggf. verschiedener Arten besteht. Die Objekte eines derartigen Clusterobjektes können sich darüber hinaus gegenseitig bedecken bzw. überlappend vorliegen oder gar miteinander verflochten sein, so daß zunächst eine Trennung des Clusterobjektes in die einzelnen Objekte erforderlich ist. Wie bereits erwähnt, bewegen sich einige der Objekte in der Probe, d. h. die Objekte sind ggf. orts- und formveränderlich. Eine Objektart ist darüber hinaus in verschiedenen Entwicklungsstufen anzutreffen, also in verschiedenen Größen. Weiterhin ist zu berücksichtigen, daß zwischen den Abmaßen der kleinsten und der größten Objekte nahezu vier Größenordnungen liegen können.In addition, the objects in the liquid to be examined Samples also appear as cluster objects. Among cluster objects we understand several related objects here, e.g. B. several microorganisms can attach to a flake, so that a cluster object arises that consists of inanimate and there are different types of busy objects. The objects such a cluster object can also mutually cover or overlap or even with each other  be intertwined, so that initially a separation of the cluster object in the individual objects is required. As before mentioned, some of the objects in the sample are moving, i.e. H. the objects may change in shape and location. An object type can also be found in various stages of development, so in different sizes. It must also be taken into account that between the dimensions of the smallest and the largest Objects can be almost four orders of magnitude.

Wegen der hohen Formverschiedenheit der lebenden Objekte können bei dem angestrebten Verfahren nicht alle möglichen Erscheinungsformen in einer Art Referenzdatenbank gespeichert werden, da deren Zahl astronomisch hoch ist.Because of the great variety of shapes of living objects not all possible manifestations in the desired process stored in a kind of reference database, because whose number is astronomically high.

Mit den bekannten Verfahren und Systemen der Bildverarbeitung ist das Erstellen einer Artenliste bisher nicht in dem gewünschten Umfang und mit der gewünschten Geschwindigkeit möglich.With the known image processing methods and systems is not yet the creation of a species list in the desired scope and at the desired speed.

So ist beispielsweise aus der DE 29 03 625 A1 eine Vorrichtung zur automatischen Blutanalyse bekannt. Diese Vorrichtung verwendet ein digitales Bild- und Mustererkennungssystem mit einer Mikroskopoptik, wobei ein Verschiebetisch und eine Fokuskontrolle zum Einsatz kommen. Die zu analysierenden Blutzellen müssen hier räumlich voneinander getrennt in einer einzelligen Schicht vorliegen, wobei nur Objekte in einem bestimmten Größenbereich ausgewertet werden. Als zusätzliche Kriterien werden Form und Farbe der Objekte bestimmt.For example, DE 29 03 625 A1 describes an automatic device Blood analysis known. This device uses a digital one Image and pattern recognition system with microscope optics, whereby a sliding table and focus control are used. The blood cells to be analyzed must be spatially separated from one another exist separately in a single-cell layer, whereby only objects be evaluated in a certain size range. When additional criteria determine the shape and color of the objects.

Die Probe wird in Einzelbilder zerlegt, wobei für jedes Einzelbild anhand in sich geschlossener Umrisse die einzelnen Blutzellen lokalisiert werden. Für eine derart lokalisierte Blutzelle werden geometrische Parameter wie Rundheit, Sichelförmigkeit etc. sowie andere morphologische Parameter wie Hämoglobingehalt etc. bestimmt. Anhand dieser Parameter wird die Blutzelle einer von mehreren vorgegebenen Subpopulationen zugeordnet, wobei diese Zuordnung anhand der gemessenen und berechneten Parameter erfolgt. Für die Gesamtheit der so vermessenen Blutzellen sowie für die einzelnen Subpopulationen werden statistische Daten ermittelt, die dann mit vorgegebenen Standards verglichen werden. Aufgrund dieses Vergleiches wird dann entschieden, zu welcher Anämieart das untersuchte Blut gehört.The sample is broken down into individual images, with each individual image the individual blood cells based on self-contained outlines be localized. For such a localized blood cell are geometric parameters such as roundness, crescent shape etc. as well as other morphological parameters such as hemoglobin content etc. determined. Based on these parameters, the blood cell becomes a assigned by several predetermined subpopulations, where this assignment based on the measured and calculated parameters  he follows. For all of the blood cells measured in this way as well statistical data are provided for the individual subpopulations determined, which are then compared with specified standards. Based on this comparison, it is then decided which one Type of anemia the blood examined belongs.

Dieses System hat also eine Wiederfindungserwartung bezüglich der zu sortierenden Objekte. Objekte, die in einer dem Rechner nicht vorbekannten Form vorliegen, die sich also beispielsweise zu Clustern zusammengelagert haben oder die eine nicht vorhergesehene Form angenommen haben, werden als Schmutzeffekt ausgesondert. Formveränderliche oder gar bewegliche Objekte, die sich ggf. zu größeren Clustern zusammengelagert haben, können mit dieser Vorrichtung nicht analysiert werden.So this system has a recovery expectation regarding the objects to be sorted. Objects in a computer not known form, that is, for example have clustered together or one that is not foreseen Have taken shape are considered a dirt effect discarded. Objects that change shape or even move, which may have clustered together to form larger clusters cannot be analyzed with this device.

Aus der DE 33 13 789 A1 ist eine mikroskopische Untersuchungseinrichtung bekannt, bei der im Ermittlungsbetrieb kernhaltige Objekte aufgefunden und anhand einer Reihe von Merkmalen, wie beispielsweise Farbe, Größe und Struktur, klassifiziert werden. Auch mit dieser Vorrichtung können nur Objekte klassifiziert werden, für welche eine Wiederfindungserwartung vorhanden ist. Ferner müssen sich die zu untersuchenden Objekte durch wenige aus den optischen Daten ermittelbare Merkmale eindeutig identifizieren lassen.DE 33 13 789 A1 describes a microscopic examination device known, in which in the investigative operation nucleated Objects found and based on a number of features, such as for example, color, size and structure. With this device, too, only objects can be classified  for which there is an expectation of recovery. Furthermore, the objects to be examined must pass through a few Identify characteristics that can be determined from the optical data to let.

Damit ist auch dieses Verfahren nicht geeignet, formveränderliche Objekte, die sich ggf. zu Clustern zusammenfinden können, in einer flüssigen Probe aufzufinden, zu identifizieren und zu klassifizieren.This method is therefore also unsuitable Objects that can possibly be clustered in locate, identify, and identify a liquid sample classify.

Weiterhin ist in der DE 38 36 716 A1 ein interaktives Verfahren zur Auswertung von Zellbildern beschrieben, bei dem fachlich geschultes Personal erforderlich ist, um im Dialogbetrieb den Rechner bei der Auswertung zu führen und zu unterstützen. Damit ist dieses Verfahren mit den eingangs bereits erwähnten Nachteilen - limitierender Zeitfaktor, hohe Fehlerrate - von manuellen Verfahren behaftet.Furthermore, DE 38 36 716 A1 is an interactive method described for the evaluation of cell images, in the technical trained personnel is required in order to operate the To guide and support computers in the evaluation. In order to is this method with the disadvantages already mentioned at the beginning - limiting time factor, high error rate - from manual Procedure afflicted.

Aus der WO 91/02330 ist ein Verfahren zum Differenzieren verschiedener Partikel bekannt. Zu diesem Zweck wird ein Bild der zu untersuchenden Probe aufgenommen, woraufhin für jedes der Partikel in diesem Bild ein erster Parameter gemessen wird, welcher die Farbe sein kann. Basierend auf diesem Parameter wird dann eine erste Partikelart anhand eines ersten Schwellwertes identifiziert, woraufhin für die identifizierten Partikel ein von dem ersten Parameter verschiedener zweiter Parameter gemessen wird, um einen zweiten inneren Schwellwert zu bestimmen. Dieser zweite Parameter kann die Partikelgröße sein. Jetzt wird der zweite Parameter für alle noch nicht identifizierten Partikel gemessen, um im Vergleich mit dem soeben bestimmten inneren Schwellwert eine Identifizierung der restlichen Partikel durchzuführen, die nach dem Kriterium größer oder kleiner als die erste Partikelart differenziert werden. Durch das Bestimmen des inneren Schwellwerts kann der Einfluß z. B. der Alterung der Probe ausgeschlossen werden, wenn die Beziehung der Partikel zueinander bezüglich dieser Parameter bekannt ist.A differentiation method is known from WO 91/02330 different particles known. For this purpose, an image of the sample to be examined, whereupon for each the particle in this image is measured as a first parameter which can be the color. Based on this parameter is then a first particle type based on a first threshold identified, whereupon for the identified particles a second parameter different from the first parameter is measured to determine a second inner threshold. This second parameter can be the particle size. Now will the second parameter for all unidentified particles measured to in comparison with the just determined inner Threshold an identification of the remaining particles perform that is greater or less than the first particle type can be differentiated. By determining  the influence of the inner threshold value z. B. aging the sample can be excluded if the relationship of the particles is known to each other with respect to these parameters.

Die DE 28 23 490 A1 beschreibt ein Verfahren zur Analyse von Organismus-Zellen, bei dem die zu untersuchende Probe ebenfalls optisch erfaßt wird. In einer Art Voruntersuchung mit niedriger Vergrößerung werden zunächst die Objekte markiert, die in einem bestimmten Wellenlängenbereich einen Schwellwert überschreiten. Alle anderen Partikel werden von der weiteren Analyse ausgeschlossen. Die markierten Zellen werden dann sowohl mit einer geringen Auflösung, in der die ganze Zelle zu sehen ist, bezüglich grober Merkmale wie Farbe, Dichte etc. als auch mit großer Auflösung bezüglich ihrer Feinstrukturen weiter analysiert. Ein Vergleich mit Referenzobjekten findet hier nicht statt, vielmehr werden die Partikel aufgrund von Grauwerthistogrammen klassifiziert.DE 28 23 490 A1 describes a method for the analysis of Organism cells in which the sample to be examined also is optically detected. In a kind of preliminary examination with a lower one The objects that are in a certain wavelength range exceed a threshold. All other particles are excluded from further analysis. The marked cells are then marked with both low resolution, in which the whole cell can be seen, with regard to coarse characteristics such as color, density etc. as well large resolution further analyzed with regard to their fine structures. There is no comparison with reference objects here instead, the particles are based on gray scale histograms classified.

Aus der US 4 932 044 ist ein interaktives Zählverfahren bekannt, bei dem der Anwender Zellen in einem von dem diskutierten Gerät durchgescannten dreidimensionalen Bereich markiert. Das Gerät zählt dann die markierten Zellen, wobei es den Bereich schichtweise abtastet.An interactive counting method is known from US Pat. No. 4,932,044 known in which the user cells in one of the discussed Device marked through scanned three-dimensional area. The device then counts the marked cells, taking the area scanned in layers.

Aus der EP 0 136 718 A2 ist ein Mustererkennungsgerät bekannt, welches das zu identifizierende Muster mit einer Grob- und einer Feinanalyse untersucht. Der Grobvergleich dient zur Klassifizierung und damit zur Aufwahl von Referenzparametern für die Feinanalyse. Die Grobanalyse schränkt also den Suchbereich ein, während die Feinanalyse zur endgültigen Identifizierung dient. Das zu untersuchende Muster wird dabei als zweidimensionales Array abgespeichert, wobei die Analyse für jedes Arrayelement einzeln erfolgt. A pattern recognition device is known from EP 0 136 718 A2, which the pattern to be identified with a rough and a Fine analysis examined. The rough comparison is used for classification and thus for the selection of reference parameters for the Fine analysis. So the rough analysis narrows the search area, while the fine analysis is used for final identification. The pattern to be examined is two-dimensional Array saved, with analysis for each array element done individually.  

Aus der WO 90/10273 ist ein Verfahren zur Qualitätsprüfung von Pflanzen bekannt. Zu diesem Zweck wird zunächst eine Reihe gleicher Pflanzen in einer interaktiven Lernphase analysiert und damit eine Art Musterpflanze definiert. Die jeweils zu untersuchende Pflanze wird dann durch eine Farbklassifikation nach vorgegebenen Farbklassen segmentiert, d. h. die farblich zusammengehörenden Bereiche der Pflanze wie Blattwerk, Stiele und Blüten werden für sich genommen ausgewertet und mit den entsprechenden Daten der Musterpflanze zur Qualitätsüberprüfung verglichen. Das optisch abgespeicherte Bild der Pflanze wird dabei nicht verändert, vielmehr werden die unterschiedlich gefärbten Regionen bezüglich ihrer Fläche vermessen.WO 90/10273 describes a method for quality testing known from plants. For this purpose, first a series of identical plants in an interactive learning phase analyzed and thus defined a kind of model plant. The each plant to be examined is then identified by a color classification segmented according to given color classes, d. H. the areas of the plant that belong together in color, such as foliage, Stems and flowers are evaluated separately and included the corresponding data of the model plant for quality control compared. The optically stored image of the The plant is not changed, rather they are different colored regions measured in terms of their area.

Schließlich ist in der US 4 845 765 ein Mustererkennungsverfahren für sich teilweise gegenseitig überdeckende vorbekannte Objekte beschrieben. In einer Lernphase werden die vorgegebenen Objekte so aufgearbeitet, daß unveränderbare Segmente der Umrisse sowie die Verhältnisse dieser Segmente zueinander hierarchisch bestimmt werden. Es wird davon ausgegangen, daß die einzelnen Objekte durch diese unveränderbaren Segmente hinreichend individualisiert sind, so daß auch bei teilweise gegenseitiger Überdeckung der Objekte diese unveränderbaren Segmente erkannt und damit die einzelnen Objekte identifiziert werden können. Ein Vergleich mit Referenzobjekten oder eine Bearbeitung des gespeicherten Bildes eines derartigen Clusters erfolgt nicht.Finally, there is a pattern recognition method in US 4,845,765 described for previously known objects which partially overlap each other. In a learning phase, the given Objects processed so that unchangeable segments of the outline as well as the relationships of these segments to each other hierarchically be determined. It is assumed that the individual Objects sufficient due to these unchangeable segments are individualized, so that even with some mutual Coverage of the objects recognized these unchangeable segments and so that the individual objects can be identified. A comparison with reference objects or a processing of the stored image of such a cluster does not take place.

Aus den bereits geschilderten Gründen sind alle diese Verfahren zum automatischen Erstellen einer Artenliste bei Proben mit den genannten Merkmalen nicht geeignet.For the reasons already outlined, all of these procedures are for the automatic creation of a list of species for samples with the specified characteristics not suitable.

Es ist somit die Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erstellen einer Artenliste für eine flüssige Probe zu schaffen, bei dem ein schneller und hoher Datendurchsatz gewährleistet ist, wobei auch zusammenhängende Objekte identifizierbar sein sollen.So it is the object of the present invention, a method for creating to create a list of species for a liquid sample in which  a fast and high data throughput is guaranteed, whereby related objects should also be identifiable.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst.This object is achieved by a method with the Features of claim 1 solved.

Durch das automatische Identifizieren mit Hilfe einer Identifizierungseinrichtung werden Fehler weitgehend ausgeschlossen, da die Hauptfehlerquelle und der Hauptzeitfaktor in dem Identifizieren der Objekte liegt. Das neue Verfahren arbeitet darüber hinaus wesentlich schneller als das auf sich gestellte Personal. Außerdem ist es jetzt nicht mehr unbedingt erforderlich, qualifiziertes Fachpersonal einzusetzen.By automatic identification with the help of an identification device errors are largely excluded, as the main source of error and the main time factor in identifying the objects lie. The new process works over it moreover, much faster than the staff on their own. In addition, it is no longer absolutely necessary use qualified specialist staff.

Da das Verfahren in automatisierte Einzelschritte zerlegt ist, können beispielsweise erst alle Objekte lokalisiert werden, bevor die automatischen Identifizierungsprozesse ablaufen. Andererseits ist es aber auch möglich, wenn die automatische Identifizierungseinrichtung sehr schnell arbeitet, jedes lokalisierte Objekt sofort zu identifizieren.Since the process is broken down into automated individual steps, For example, all objects can be localized before the automatic identification processes run. On the other hand it is also possible if the automatic identification device works very quickly, every localized object to identify immediately.

Das Verfahren arbeitet derart, daß zunächst aus den Bilddaten Grobmerkmale der Objekte extrahiert werden, aufgrund welcher dann aus den vorhandenen Referenzobjekten eine enge Gruppe ausgewählt wird, mit der dann die zu identifizierenden Objekte verglichen werden. Es handelt sich also sozusagen um ein wissensbasiertes Verfahren. The process works in such a way that first of all Rough features of the objects are extracted due to image data which is then a narrow one from the existing reference objects Group is selected, with which the then to be identified Objects are compared. So it is, so to speak a knowledge-based process.  

Bei dem Verfahren wird ein Clusterobjekt, das automatisch erkannt wird, in Subobjekte zerlegt, die sukzessive mit den zur Verfügung stehenden Referenzobjekten verglichen werden.In the process, a cluster object is created automatically is recognized, broken down into sub-objects, which are successively included the available reference objects are compared.

Da die Zahl der möglichen Clusterobjekte, die sich in einer flüssigen Probe finden können, riesig groß ist, wäre es nicht möglich, alle möglichen Clusterobjekte als Referenzobjekte vorrätig zu halten. Durch das Zerlegen der Clusterobjekte in Subobjekte wird die Zahl der erforderlichen Referenzobjekte und damit die Zahl der erforderlichen Vergleiche folglich stark reduziert. Dies führt zu einem schnelleren Ablauf des Verfahrens.Since the number of possible cluster objects that are in one liquid sample is huge, it wouldn't be possible, all possible cluster objects as reference objects to keep in stock. By breaking the cluster objects into Subobjects becomes the number of reference objects required and consequently the number of comparisons required is strong reduced. This leads to a faster process of the Procedure.

Dabei bevorzugt das automatische Identifizieren die weiteren Schritte:It prefers that automatically identify the next steps:

  • - Erzeugen eines modifizierten Clusterobjektes durch Vermindern des Clusterobjektes um das zu einem identifizierten Subobjekt gehörende Referenzobjekt und- Creation of a modified cluster object by reducing of the cluster object around the one identified Reference object belonging to subobject and
  • - Behandeln des modifizierten Clusterobjektes wie ein lokalisiertes Objekt.- Treat the modified cluster object like a localized object.

Diese Maßnahme ist insofern vorteilhaft, als bei dem Abspalten des Subobjektes nicht zwangsläufig ein vollständiges Hauptobjekt von dem Clusterobjekt abgespalten wurde. Es ist möglich, daß das abgespaltene Subobjekt nur ein Teil eines an dem Clusterobjekt hängenden Einzelobjektes ist. Durch das Auswählen des zu dem Teilobjekt gehörenden Referenzobjektes oder Hauptobjektes wird die Zahl der erforderlichen Zerlegungen eines Clusterobjektes reduziert. Das Clusterobjekt wird nämlich nicht nur um das Subobjekt, sondern um weitere Teilobjekte des zu dem identifizierten Subobjekt gehörenden Hauptobjektes oder Referenzobjektes reduziert. Das modifizierte Clusterobjekt enthält also ggf. wesentlich weniger Subobjekte, als wenn nur das zuvor angesprochene Subobjekt von dem Clusterobjekt abgezogen worden wäre.This measure is advantageous insofar as it is split off of the sub-object is not necessarily a complete main object was split off from the cluster object. It is possible that  the split off sub-object is only part of one on the cluster object hanging single object. By selecting the reference object or main object belonging to the sub-object becomes the number of required decompositions of a cluster object reduced. The cluster object is not just around the sub-object, but around further sub-objects of the to identified sub-object belonging to the main object or reference object reduced. Contains the modified cluster object so possibly fewer sub-objects than if only the previous one addressed sub-object has been subtracted from the cluster object would.

Ferner wird bevorzugt, wenn das automatische Erkennen des Vorliegens eines Clusterobjektes die Schritte umfaßt:It is also preferred if the automatic detection the presence of a cluster object comprises the steps:

  • - Bestimmen einer Länge oder maximalen Ausdehnung des lokalisierten Objektes,- Determine a length or maximum extent of the localized Object,
  • - Bestimmen von quer zu der Länge verlaufenden Breiten des lokalisierten Objektes und- Determination of the widths of the transverse to the length localized object and
  • - Beurteilung der Abweichungen der Breiten untereinander sowie der Lage der Breiten zu der Länge.- Assessment of the deviations of the widths among each other as well as the position of the latitudes to the longitude.

Bei diesen Maßnahmen ist von Vorteil, daß aus rein geometrischen Angaben, nämlich der Länge und den quer zu der Länge genommenen Breiten erkannt werden kann, ob ein Objekt oder ein Clusterobjekt vorliegt. Bei einem Clusterobjekt weichen nämlich die Breiten sehr stark voneinander ab, da beispielsweise lange, dünne Objekte und eher kugelförmige Objekte miteinander verbunden sind. Weiterhin liegen bei Clusterobjekten, die beliebige geometrische Formen annehmen, zumindest einige der Breiten "außerhalb" der Länge, d. h. das Clusterobjekt ist dermaßen gewunden, daß die Länge teilweise außerhalb des Umrisses des Clusterobjektes verläuft.The advantage of these measures is that they are purely geometric Information, namely the length and the taken transversely to the length Widths can be recognized whether an object or a cluster object is present. The widths of a cluster object are different very different from each other, for example, long, thin objects and spherical objects are connected to each other. Furthermore, there are arbitrary geometric objects in cluster objects Take shape, at least some of the latitude "outside" the Length, d. H. the cluster object is so tortuous that the  Length partially outside the outline of the cluster object runs.

In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn der Schritt des Erkennens und Lokalisierens der Objekte die automatische Überführung eines Objektes in ein Teilbild und danach das automatische Detektieren von in sich geschlossenen Umrissen umfaßt.In a development of the method, it is preferred if the step of recognizing and locating the objects automatic transfer of an object into a drawing file and then the automatic detection of self-contained Outlines include.

Bei dieser Maßnahme ist von Vorteil, daß durch das Überführen eines Objektes in ein Teilbild zunächst die weiter zu verarbeitenden Daten reduziert werden, es muß nicht das gesamte Bild, sondern nur das ein oder mehrere Objekte umfassende Teilbild weiter verarbeitet werden.This measure has the advantage that the transfer of an object in a drawing file first the ones to be processed Data is reduced, not all Image, but only the one or more objects Drawing file can be processed further.

Ferner ist es bevorzugt, wenn das optische Erfassen der Probe das automatische Aufnehmen von Bildfeldern unterschiedlicher Vergrößerung umfaßt, wobei von der Probe je Vergrößerung über ihr Volumen verteilte Bildfelder aufgenommen werden.It is further preferred if the optical detection of the sample the automatic recording of image fields of different Magnification includes, with the specimen each magnification above their volume distributed image fields are recorded.

Auf diese vorteilhafte Weise kann die Probe sukzessiv mit verschiedenen Vergrößerungsfaktoren abgetastet oder gescannt werden, so daß in Abhängigkeit von der Größe der zu lokalisierenden Objekte das gesamte Volumen der Probe mit einer gewissen Anzahl von Bildfeldern vollständig erfaßt werden kann. Da dieses Abtasten automatisch erfolgt, werden die beim manuellen Durchsuchen einer flüssigen Probe häufig auftretenden Fehler - es werden bestimmte Bereiche der Probe "vergessen" - vermieden. Auch wird die Probe so mit sämtlichen erforderlichen Vergrößerungsfaktoren durchsucht. Wegen der nahezu vier Größenordnungen überstreichenden verschiedenen Größen der einzelnen Objekte führt dies zu einem hohen Datenaufkommen. Durch den automatisierten Ablauf ist sichergestellt, daß sämtliche Daten erfaßt und verarbeitet werden.In this advantageous manner, the sample can be added successively various magnification factors are scanned or scanned be so that depending on the size of the to be located Objects the entire volume of the sample with a certain Number of image fields can be completely captured. Since this Scanning is done automatically when browsing manually a liquid sample common error - it certain areas of the sample are "forgotten" - avoided. The sample will also have all the required magnification factors searched. Because of the almost four orders of magnitude sweeping different sizes of each object  this leads to a high volume of data. Through the automated The process ensures that all data is recorded and processed.

Hier sei erwähnt, daß unter "Bildfelder" eine Zusammenstellung oder Zusammenfassung von "Bilddaten" verstanden wird, die einen bestimmten Abschnitt der Probe wiedergeben. Bei "Bildfeldern" handelt es sich folglich um "zusammengehörende" Bilddaten.It should be mentioned here that under "Image fields" a compilation or summary of "image data" is understood that one play back a specific section of the sample. With "image fields" it is consequently "related" image data.

Bei diesem Verfahren ist es weiterhin bevorzugt, wenn der Schritt des Lokalisierens das Zusammenfassen mehrerer Bildfelder, über die sich ein Objekt erstreckt, zu einem Überlagerungsbild umfaßt.In this method, it is further preferred if the step of localizing the merging of several image fields, via which extends an object to form an overlay image.

Durch diese vorteilhafte und einfache Maßnahme werden Objekte, deren Größe so ist, daß sie sich über mehrere Bildfelder erstrecken, dennoch als ein Objekt lokalisiert und können in einem einzigen Vergleichsablauf einem Referenzobjekt zugeordnet werden.This advantageous and simple measure makes objects, the size of which is such that they cover several image fields extend, yet localized as an object and can be in assigned a reference object to a single comparison process become.

In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn der Schritt des Erkennens und Lokalisierens der Objekte oder Subobjekte das Detektieren von Bereichen gleicher oder ähnlicher Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt.In a development of the method, it is preferred if the step of recognizing and locating the objects or Sub-objects the detection of areas of the same or similar True color, real color pattern or real color areas.

Diese Maßnahme ist insofern vorteilhaft, als es in den Bilddaten typische Farben für Flocken, Algen, Fäden etc. sowie für den Hintergrund gibt. Auf diese Weise können beispielsweise die immer grün erscheinenden Algen oder die jeweils gelblich zu erkennenden Flocken von dem immer andersfarbigen Hintergrund unterschieden werden. This measure is advantageous in that it is in the image data typical colors for flakes, algae, threads etc. as well as for the Background there. In this way, for example algae that appear green or yellowish recognizing flakes from the always different colored background be distinguished.  

Ferner ist es bevorzugt, wenn der Vergleich zwischen Objekt oder Suchobjekt einerseits und Referenzobjekt andererseits auf der Basis dreidimensionaler virtueller Vektorgraphik erfolgt.It is further preferred if the comparison between object or search object on the one hand and reference object on the other the basis of three-dimensional virtual vector graphics.

Durch den quasi-optischen virtuellen Vergleich wird gegenüber dem reinen Vergleich von extrahierten Grobmerkmalen der Vorteil erzielt, daß auch Merkmale in die Identifizierung einbezogen werden können, welche sich nicht in Form von beispielsweise Algorhythmen niederlegen lassen. So können die Referenzobjekte Feinststrukturen aufweisen, anhand derer ein leichtes Identifizieren der Suchobjekte möglich ist, während die Aufspaltung dieser Feinststrukturen in Merkmale, die einem binären Entscheidungsbaum zugrundeliegen würden, nicht möglich erscheint.The quasi-optical virtual comparison is compared the pure comparison of extracted rough features is the advantage achieved that features are also included in the identification can be, which is not in the form of, for example Have algorithms laid down. So the reference objects Have very fine structures, on the basis of which easy identification of the search objects is possible while splitting of these very fine structures in characteristics that are a binary decision tree would be based, does not seem possible.

Es ist ferner bevorzugt, wenn der Schritt des automatischen Erkennens eines Clusterobjektes das Zerlegen des Clusterobjektes in Bereiche verschiedener Echtfarben, Echtfarbbereiche und/oder Echtfarbkontraste umfaßt.It is also preferred if the step of automatically recognizing a cluster object the disassembly of the cluster object into different areas True colors, real color areas and / or real color contrasts.

Diese Maßnahme ist insofern von Vorteil, als sich ein Clusterobjekt immer in Bereiche verschiedener Farben und Farbkontraste aufspalten läßt. Auf diese Weise ist es möglich, aus den Bilddaten zusätzliche - physikalische Größen betreffende - Aussagen über ein Clusterobjekt zu gewinnen, die eine Zerlegung in Subobjekte ermöglichen.This measure is advantageous in that a cluster object always in areas of different colors and color contrasts can split up. This way it is possible to get out of the Image data additional - relating to physical quantities - To gain statements about a cluster object that is a decomposition enable in subobjects.

Außerdem ist es bevorzugt, wenn das Clusterobjekt in Bereiche unterschiedlicher Bewegung, geometrischer Form und/oder Größe zerlegt wird.It is also preferred if the cluster object is in Areas of different movement, geometric shape and / or Size is disassembled.

Auch diese Kriterien ermöglichen in vorteilhafter Weise ein automatisches Erkennen von Subobjekten in einem Clusterobjekt.These criteria also advantageously enable one automatic detection of sub-objects in a cluster object.

Die Erfindung wird mit Hilfe der nachfolgenden Beschreibung näher erläutert. Es zeigtThe invention is achieved with the help of following description explained in more detail. It shows

Fig. 1 die Vorrichtung zur Durchführung des Verfahrens in einer schematischen Gesamtansicht; Figure 1 shows the device for performing the method in a schematic overall view.

Fig. 2 die Steuer- und Auswerteeinheit der Vorrichtung nach Fig. 1 in einem Prinzipschaltbild; FIG. 2 shows the control and evaluation unit of the device according to FIG. 1 in a basic circuit diagram;

Fig. 3 eine mit der Vorrichtung nach Fig. 1 zu untersuchende Probe, mit schematisch angedeuteten Objekten; Figure 3 is a with the apparatus of Figure 1 to be examined sample with schematically shown objects..;

Fig. 4 eine Reihe von mit der Bildaufnahmevorrichtung nach Fig. 1 aufgenommenen Bildfeldern der Probe nach Fig. 3; FIG. 4 shows a series of image fields of the sample according to FIG. 3 recorded with the image recording device according to FIG. 1;

Fig. 5 die Lokalisiereinrichtung aus der Steuer- und Aus­ werteeinheit nach Fig. 2, in einem schematisierten Blockschaltbild; Fig. 5, the locating means of the control and evaluation unit according to Figure 2, in a schematic block diagram.

Fig. 6 in einer detaillierteren Darstellung ein Bildfeld der Probe nach Fig. 3, mit einer Reihe von Objekten; FIG. 6 is a more detailed representation of an image field of the sample of Figure 3, with a number of objects.

Fig. 7 die Identifizierungseinrichtung der Steuer- und Auswerteeinheit nach Fig. 2, in einem schematisierten Blockschaltbild; FIG. 7 shows the identification device of the control and evaluation unit according to FIG. 2 in a schematic block diagram;

Fig. 8 eines der Clusterobjekte aus dem Bildfeld nach Fig. 6, in einer vereinfachten Darstellung; FIG. 8 shows one of the cluster objects from the image field according to FIG. 6 in a simplified representation;

Fig. 9 die Clustererkennungseinrichtung der Identifizie­ rungseinrichtung nach Fig. 7, in einem schematisierten Blockschaltbild; und FIG. 9 shows the cluster detection device of the identification device according to FIG. 7 in a schematic block diagram; FIG. and

Fig. 10 die Sucheinrichtung der Identifizierungseinrichtung nach Fig. 7, in einem schematisierten Blockschaltbild. FIG. 10 shows the search device of the identification device according to FIG. 7 in a schematic block diagram.

Fig. 1 zeigt eine insgesamt mit 10 bezeichnete Vorrichtung zum Erstellen einer Artenliste für eine zwischen einem Objektträger 11 und einem Deckglas 12 befindliche flüssige Probe 13. Die Probe 13 weist ggf. form- und/oder ortsveränderliche Objekte 14a, 14b unterschiedlicher Arten auf. Die Vorrichtung 10 und das mit ihr durchzuführende Verfahren dienen zum Erstellen einer Artenliste und somit zur Ermittlung des ökologischen Zustandes der Probe 13, die beispielsweise einer Kläranlage oder einem natürlichen Gewässer entnommen sein kann. Fig. 1 a, generally designated 10 shows apparatus for creating a list of species for between a slide 11 and a cover glass 12 contained liquid sample 13. The sample 13 may have objects 14 a, 14 b of different types that are variable in shape and / or location. The device 10 and the method to be carried out with it serve to draw up a list of species and thus to determine the ecological condition of the sample 13 , which can be taken, for example, from a sewage treatment plant or a natural body of water.

Zur limnologischen Untersuchung ist häufig eine gesonderte Probennahme erforderlich, um Kleinstlebewesen wie Würmer, Insek­ ten oder Schnecken (Größenordnung mm bis cm) erfassen und unter­ suchen zu können. Derartige ebenfalls flüssige Proben werden nicht auf einem Objektträger gehalten, sondern in einer Petri­ schale oder einem Uhrglas.There is often a separate one for limnological examination Sampling required for microorganisms such as worms, insects or snails (range mm to cm) and under to be able to search. Such samples are also liquid not on a slide, but in a petri shell or a watch glass.

Die zu untersuchenden Probenräume sind also flüssig und in der Regel optisch durchsichtig. Wegen der hohen Formveränderlichkeit der unterschiedlichen Objekte 14 einerseits und der Tatsache, daß die Objekte 14 nicht immer vereinzelt vorliegen, sondern sich überdecken, überlappen und miteinander verflechten können, andererseits, hat die Vorrichtung 10 gegenüber dem Objekt 14 in der konkret vorliegenden Form häufig keine Wiederfindungser­ wartung, es ist ihr so "nicht bekannt". Das auf der Vorrichtung 10 durchzuführende Verfahren ist daher wissensbasiert und selbst­ adaptierend.The sample rooms to be examined are therefore liquid and generally optically transparent. Because of the high variability of the shape of the different objects 14 on the one hand and the fact that the objects 14 are not always isolated, but can overlap, overlap and interweave with one another, on the other hand, the device 10 often has no recoveries compared to the object 14 in the concrete form maintenance, it is so "unknown" to her. The method to be carried out on the device 10 is therefore knowledge-based and self-adapting.

Die Vorrichtung 10 weist eine Bildaufnahmevorrichtung 16 auf, zu der ein Bildaufnahmesystem 17 und eine einstellbare optische Vergrößerungseinrichtung 18 gehören. Weiterhin ist eine Ver­ fahreinrichtung 19 angedeutet, über welche die Probe 13 relativ zu der Vergrößerungseinrichtung 18 verfahren werden kann. Dieses Verfahren erfolgt zumindest in zwei der drei Achsen X, Y und Z eines bei 20 angedeuteten Koordinatensystems. The device 10 has an image recording device 16 , which includes an image recording system 17 and an adjustable optical magnification device 18 . Furthermore, a driving device 19 is indicated, via which the sample 13 can be moved relative to the enlarging device 18 . This method takes place in at least two of the three axes X, Y and Z of a coordinate system indicated at 20 .

In dem gezeigten Ausführungsbeispiel ist die Verfahreinrichtung 19 ein Kreuztisch 22, der in der X/Y-Ebene verfahren werden kann und ggf. eine Hubeinrichtung zur Veränderung seiner Z-Koordinate aufweist.In the exemplary embodiment shown, the moving device 19 is a cross table 22 , which can be moved in the X / Y plane and possibly has a lifting device for changing its Z coordinate.

Die Vergrößerungseinrichtung 18 umfaßt ein Mikroskop 23, das verschiedene Vergrößerungsfaktoren einstellen kann. Durch entsprechendes Fokussieren des Mikroskopes 23 kann gleichfalls die Z-Ebene, welche von dem als CCD-Kamera 24 ausgebildeten Bildaufnahmesystem 17 erfaßt wird, eingestellt bzw. verändert werden.The magnification device 18 comprises a microscope 23 , which can set various magnification factors. By correspondingly focusing the microscope 23 , the Z plane, which is captured by the image recording system 17 designed as a CCD camera 24 , can also be set or changed.

Bei einer limnologischen Untersuchung von Kleinstlebewesen wird statt des Mikroskopes 23 eine in der Zeichnung nicht dargestellte Stereolupe verwendet, an die ebenfalls eine CCD-Kamera 24 angeschlossen ist. Je nach Größe der zu untersuchenden Objekte kann auch eine Bildaufnahmevorrichtung ohne vorgeschaltete Vergrößerungseinrichtung verwendet werden.In a limnological examination of microorganisms, a stereo magnifying glass (not shown in the drawing) is used instead of the microscope 23 , to which a CCD camera 24 is also connected. Depending on the size of the objects to be examined, an image recording device without an upstream magnification device can also be used.

Weiterhin ist eine Steuer- und Auswerteeinheit 26 vorgesehen, die über eine Datenleitung 27 sowie eine Steuerleitung 28 mit der CCD-Kamera 24 verbunden ist. Auf diese Weise erfolgt eine gesteu­ erte Aufnahme und Übertragung von Bilddaten in die Steuer- und Auswerteeinheit 26. Die CCD-Kamera 24 ist außerdem über eine wei­ tere Datenleitung 29 mit einem Massenspeicher 31 verbunden, der beispielsweise ein Videorekorder ist und zur Videoarchivierung der untersuchten Probe dient. Über eine Datenleitung 32 ist der Massenspeicher 31 ebenfalls mit der Steuer- und Auswerteeinheit 26 verbunden, die somit die Bilddaten entweder direkt von der CCD-Kamera 24 oder von dem Massenspeicher 31 abfragen kann.Furthermore, a control and evaluation unit 26 is provided, which is connected to the CCD camera 24 via a data line 27 and a control line 28 . In this way, a controlled recording and transmission of image data into the control and evaluation unit 26 takes place . The CCD camera 24 is also connected via a white data line 29 to a mass storage device 31 , which is, for example, a video recorder and is used for video archiving of the examined sample. The mass storage device 31 is likewise connected to the control and evaluation unit 26 via a data line 32 , which can thus query the image data either directly from the CCD camera 24 or from the mass storage device 31 .

Über eine Verbindungsleitung 33 ist ein Datenendgerät/Terminal 34 an die Steuer- und Auswerteeinheit 26 angeschlossen, um einem Benutzer Bilddaten von der Probe 13 anzuzeigen und um ihm die Möglichkeit zu geben, in den Auswerteprozeß einzugreifen. A data terminal / terminal 34 is connected to the control and evaluation unit 26 via a connecting line 33 in order to display image data of the sample 13 to a user and to give him the opportunity to intervene in the evaluation process.

Weiterhin sind zwei Steuerleitungen 35 und 36 gestrichelt angedeutet, über welche die Steuer- und Auswerteeinheit 26 den Kreuztisch 22 sowie das Mikroskop 23 ansteuert.Furthermore, two control lines 35 and 36 are indicated by dashed lines, via which the control and evaluation unit 26 controls the cross table 22 and the microscope 23 .

Mit der insoweit beschriebenen Vorrichtung wird die Probe 13 nacheinander in X-, Y- und Z-Richtung abgetastet (gescannt), so daß am Ende des Abtastvorganges dreidimensionale Bilddaten zur Verfügung stehen. Einige der Objekte 14 sind - wie erwähnt - beweglich, so daß durch erneutes Scannen auch zusätzlich Informationen auf der Zeitachse gewonnen werden können. Die Qualität der Bilder wird dabei wesentlich durch das Objektiv des Mikroskops 23 und durch die Auflösung/Digitalisierung des aufgenommenen Bildes bestimmt. Durch die einstellbare Vergrößerung des Mikroskopes 23 können Objekte 14 unterschiedlichster Größen erfaßt werden. Die Bilddaten repräsentieren dabei Echtfarbbilder. Gleichfalls ist es möglich, die Probe 13 einer Fluoreszenzuntersuchung zu unterziehen, indem sie mit einer in Fig. 1 nicht gezeigten Lichtquelle bestrahlt wird, wobei dieses Anregungslicht durch ein entsprechendes Filter in dem Mikroskop 23 wieder herausgefiltert wird.With the device described so far, the sample 13 is scanned (scanned) one after the other in the X, Y and Z directions, so that three-dimensional image data are available at the end of the scanning process. As mentioned, some of the objects 14 are movable, so that additional information on the time axis can also be obtained by scanning again. The quality of the images is essentially determined by the lens of the microscope 23 and by the resolution / digitization of the captured image. The adjustable magnification of the microscope 23 enables objects 14 of very different sizes to be detected. The image data represent true color images. Likewise, it is possible to subject the sample 13 to a fluorescence examination by irradiating it with a light source not shown in FIG. 1, this excitation light being filtered out again by a corresponding filter in the microscope 23 .

Die Auswertung der erfaßten Bilddaten erfolgt in der in Fig. 2 detaillierter dargestellten Steuer- und Auswerteeinheit 26. Über die Datenleitungen 27 bzw. 32 werden Bilddaten entweder direkt von der CCD-Kamera 24 oder von dem Massenspeicher 31 in einen Bilddatenspeicher 38 geladen. Über dessen Ausgangsleitung 39 gelangen die Bilddaten in eine Lokalisiereinrichtung 40, die in noch näher zu beschreibender Weise die in den Bildern enthaltenen Objekte "wahrnimmt", d. h. erkennt und lokalisiert. Die derart lokalisierten Objekte werden über eine Objektdatenleitung 41 in einen Objektdatenspeicher 42 übertragen, von dem sie über seine Ausgangsleitung 43 zu einer Identifizierungseinrichtung 44 gelangen. The captured image data is evaluated in the control and evaluation unit 26 shown in more detail in FIG. 2. Via the data lines 27 and 32 , image data are loaded either directly from the CCD camera 24 or from the mass storage device 31 into an image data storage device 38 . Via its output line 39 , the image data reach a localization device 40 , which "perceives" the objects contained in the images in a manner to be described in more detail, ie recognizes and localizes them. The objects located in this way are transferred via an object data line 41 to an object data memory 42 , from which they arrive at an identification device 44 via its output line 43 .

Die Identifizierungseinrichtung identifiziert das in dem Objektdatenspeicher 42 anstehende lokalisierte Objekt, d. h. sie bestimmt dessen Art, indem sie das Objekt 14 einer jeweils übereinstimmenden Art in einem noch zu beschreibenden Referenz­ objektspeicher als Angehörigen zuordnet. Über eine Objekt­ ausgabeleitung 45 ist die Identifizierungseinrichtung 44 mit einer Zähleinrichtung 46 verbunden, die die identifizierten Objekte zählt und über eine Übergabeleitung 47 in eine bei 48 angedeutete Artenliste einträgt.The identification device identifies the localized object present in the object data memory 42 , ie it determines its type by associating the object 14 as a member with a corresponding type in a reference object memory to be described. The identification device 44 is connected via an object output line 45 to a counting device 46 , which counts the identified objects and enters a type list indicated at 48 via a transfer line 47 .

Ferner ist in Fig. 2 eine Bewertungseinrichtung 49 angedeutet, welche unter Verwendung zielangepaßter Methoden aus Ökologie, Biologie und/oder Etologie eine automatische Bewertung oder Interpretation der in die Artenliste 48 eingetragenen Daten vornimmt. Die Bewertungseinrichtung 49 liefert aufgrund der Interpretation der Artenliste 48 Aussagen über den ökologischen Zustand und ggf. eine Prognose über die Entwicklung der unter­ suchten Probe 13.Furthermore, an evaluation device 49 is indicated in FIG. 2, which carries out an automatic evaluation or interpretation of the data entered in the species list 48 using target-oriented methods from ecology, biology and / or etology. On the basis of the interpretation of the species list 48, the evaluation device 49 provides statements about the ecological condition and, if necessary, a prognosis about the development of the sample 13 under investigation.

Die insoweit beschriebene Vorrichtung 10 und das auf ihr durchzuführende Verfahren sollen jetzt anhand der Fig. 3 bis 10 näher erläutert werden:The device 10 described so far and the method to be carried out on it are now to be explained in more detail with reference to FIGS. 3 to 10:

In Fig. 3 ist die Probe 13 aus Fig. 1 in vergrößertem Maßstab dargestellt. Durch gedachte Trennlinien 50 ist die Probe 13 in ein Raster von Bildfeldern 51 unterteilt, die nacheinander von der Bildaufnahmevorrichtung 16 aus Fig. 1 abgetastet werden. Zu diesem Zweck wird der Kreuztisch 22 an eine bestimmte X/Y-Koordinate gefahren und dann werden nacheinander in Z-Richtung übereinanderliegende Bildfelder 51 eines Stapels 52 von der CCD-Kamera 24 erfaßt, digitalisiert und als Bilddaten auf die Datenleitungen 27, 29 gegeben. Die Größe der einzelnen Bildfelder 51 richtet sich nach dem Vergrößerungsfaktor, auf den das Mikroskop 23 eingestellt ist. Der Abstand zwischen zwei übereinanderliegenden Bildfeldern 51a, 51d wird bestimmt durch die Schärfentiefe des Mikroskopes; je geringer dessen Schärfentiefe nämlich ist, desto mehr Bildfelder 51 in einem Stapel 52 müssen erfaßt werden, um die ganze Dicke der Probe 13 durchzumustern.In Fig. 3, the sample 13 of FIG. 1 is shown in an enlarged scale. By imaginary dividing lines 50 , the sample 13 is divided into a grid of image fields 51 , which are scanned one after the other by the image recording device 16 from FIG. 1. For this purpose, the cross table 22 is moved to a specific X / Y coordinate and then image fields 51 of a stack 52 lying one above the other in the Z direction are captured by the CCD camera 24 , digitized and transferred to the data lines 27 , 29 as image data. The size of the individual image fields 51 depends on the magnification factor to which the microscope 23 is set. The distance between two superimposed image fields 51 a, 51 d is determined by the depth of field of the microscope; namely, the smaller its depth of field, the more image fields 51 in a stack 52 have to be captured in order to scan the entire thickness of the sample 13 .

Wenn auf diese Weise ein Stapel 52 "abgearbeitet" wurde, verfährt der Kreuztisch 22 entweder in X- oder in Y-Richtung um die Breite/Länge eines Bildfeldes, und das sukzessive Verfahren in Z-Richtung beginnt von neuem. Auf diese Weise wird die Probe 13 sozusagen mäanderförmig abgetastet. Selbstverständlich ist es auch möglich, die Bildfelder 51 in verschiedenen Z-Ebenen nicht in Form eines Stapels 52 anzuordnen, sondern jeweils um einen kleinen Betrag gegeneinander zu versetzen, so daß über alles gesehen eine Zick-Zack-Verfahrlinie entsteht. Gegenüber dem mäanderförmigen Scannen müssen dann weniger Verfahrschritte unternommen werden, um die gesamte Probe 13 abzutasten.When a stack 52 has been "processed" in this way, the cross table 22 moves either in the X or Y direction by the width / length of an image field, and the successive movement in the Z direction starts again. In this way, the sample 13 is scanned in a meandering manner, so to speak. Of course, it is also possible not to arrange the image fields 51 in different Z planes in the form of a stack 52 , but to offset them by a small amount in each case, so that a zigzag travel line is created over all. Compared to meandering scanning, fewer travel steps then have to be undertaken in order to scan the entire sample 13 .

Selbstverständlich wird eine Probe 13 für unterschiedliche Vergrößerungsfaktoren des Mikroskopes 23 jeweils erneut abgetastet. Auf diese Weise werden zunächst die großen Objekte 14 mit geringem Vergrößerungsfaktor und dann mit steigender Vergrößerung immer kleinere Objekte 14 erkannt, lokalisiert und identifiziert werden, so daß sie in die Artenliste 48 eingetragen werden können.Of course, a sample 13 is scanned again for different magnification factors of the microscope 23 . In this way, first the large objects 14 with a low magnification factor and then with increasing magnification ever smaller objects 14 are recognized, localized and identified so that they can be entered in the species list 48 .

In Fig. 3 ist zu erkennen, daß die Objekte 14 beliebige Lagen im Raum einnehmen können, so daß sie sich über mehrere Bildfelder 51 erstrecken können.In Fig. 3 it can be seen that the objects 14 can take any positions in space, so that they can extend over several image fields 51 .

Wie in Fig. 4 zu sehen ist, erzeugt ein Objekt 14, das sich in einem Stapel 52 über mehrere übereinanderliegende Bildfelder 51c, 51d und 51e erstreckt, in jedem Bildfeld 51 ein anderes Muster 14′, 14′′ bzw. 14′′′. Um das Objekt 14 identifizieren zu können, ist es zunächst erforderlich, zu entscheiden, über wieviele Bildfelder 51 sich ein Objekt 14 erstreckt. In dem in Fig. 4 gezeigten Beispiel erstreckt sich das Objekt 14 über die Bildfelder 51c-51e. Bedingt durch die Schärfentiefe des Mikroskopes 23 sind jeweils bestimmte Abschnitte des Objektes 14 in der Ebene des Bildfeldes 51 scharf abgebildet, wie dies in Fig. 4 mittels durchgezogener Linien angedeutet ist, während andere Abschnitte des Objektes 14 lediglich verschwommen zu sehen sind. Dies ist in Fig. 4 durch gestrichelte Linien angedeutet.As can be seen in FIG. 4, an object 14 , which extends in a stack 52 over a plurality of image fields 51 c, 51 d and 51 e lying one above the other, produces a different pattern 14 ′, 14 ′ ′ and 14 in each image field 51 '''. In order to be able to identify the object 14 , it is first necessary to decide how many image fields 51 an object 14 extends over. In the example shown in FIG. 4, the object 14 extends over the image fields 51 c- 51 e. Due to the depth of field of the microscope 23 , certain sections of the object 14 are depicted sharply in the plane of the image field 51 , as indicated by solid lines in FIG. 4, while other sections of the object 14 can only be seen as blurred. This is indicated in Fig. 4 by dashed lines.

Um die einzelnen Bildfelder lagerichtig übereinander legen zu können, müssen die Bildfelder 51 zunächst ggf. gedreht und in X-, Y- und/oder Z-Richtung verschoben werden, um die Bewegung des jeweils betrachteten Objektes 14 zu berücksichtigen. Um zu erkennen, ob es sich in verschiedenen Bildfeldern 51a, 51e um ein Objekt 14 handelt, das sich zwischen den Aufnahmen der aufeinanderfolgenden Bildfelder 51 weiter bewegt hat, oder ob verschiedene Objekte 14, 14b betrachtet werden, können zusätzlich Informationen herangezogen werden, die aus Bilddaten stammen, die mit einem geringeren Vergrößerungsfaktor des Bildaufnahme­ systems gewonnen wurden. Bei einem geringeren Vergrößerungs­ faktor, also bei anderer Schärfentiefe, läßt sich nämlich leichter unterscheiden, ob es sich um zwei übereinanderliegende Objekte 14b, 14 oder um ein einziges, sich bewegendes Objekt 14 handelt. Bei dieser Überlagerung der einzelnen Bildfelder 51 fällt sozusagen nebenbei bereits eine Information darüber ab, ob es sich um ein sich bewegendes Objekt 14 handelt.In order to be able to position the individual image fields one above the other in the correct position, the image fields 51 must first be rotated and shifted in the X, Y and / or Z direction in order to take into account the movement of the object 14 in question. In order to recognize whether different image fields 51 a, 51 e are an object 14 that has moved further between the exposures of the successive image fields 51 , or whether different objects 14 , 14 b are being viewed, additional information can be used that come from image data that were obtained with a lower magnification factor of the image recording system. With a lower magnification factor, that is, with a different depth of field, it is easier to distinguish whether there are two objects 14 b, 14 lying one above the other or a single, moving object 14 . With this superimposition of the individual image fields 51 , information falls off, so to speak, as to whether it is a moving object 14 .

Da zwischen den einzelnen Aufnahmen der Bilder 51c-51e eine gewisse Zeitspanne vergeht, kann sich das Objekt 14 unterdessen bewegt haben, was jedoch anhand der Abweichung zwischen scharfen Konturen und verwischten Konturen in unterschiedlichen Z-Ebenen erkannt und ausgeglichen werden kann. Bei 53b ist ein weiteres Stapelbild des Objektes 14b angedeutet.Since 51 c 51 e passes a period of time between shots of the images, the object 14 may have meanwhile moved, but that can be detected on the basis of the difference between sharp contours and blurred contours in different Z-levels and balanced. A further stack image of the object 14 b is indicated at 53 b.

Legt man die einzelnen Bildfelder 51c-51e also lagerichtig übereinander, so gelangt man zu einem Stapelbild 53, das eine Art Höhenlinienbild 54 des Objektes 14 wiedergibt. Durch dieses Stapelbild 53 liegen die Objekte 14 jetzt in Form von dreidimen­ sionalen Bilddaten vor, so daß sie in der Lokalisiereinrichtung 40 erkannt und in der automatischen Identifizierungseinrichtung 44 identifiziert werden können. Dazu werden sie als Vektor­ graphikobjekte abgelegt.If the individual image fields 51 c- 51 e are positioned one above the other in the correct position, a stack image 53 is obtained which shows a kind of contour image 54 of the object 14 . This stack image 53 means that the objects 14 are now in the form of three-dimensional image data, so that they can be recognized in the localization device 40 and identified in the automatic identification device 44 . To do this, they are stored as vector graphic objects.

Selbstverständlich erstrecken sich die Objekte nicht nur in Z-Richtung durch mehrere Bildfelder 51 hindurch, es ist durchaus möglich, in gleicher Weise, wie in Fig. 4 für die Z-Richtung gezeigt, auch in X- und/oder Y-Richtung eine derartige Erkennung eines Objektes 14 durchzuführen.Of course, the objects not only extend through a plurality of image fields 51 in the Z direction, it is quite possible, in the same way, as shown in FIG. 4 for the Z direction, also in the X and / or Y direction Recognize an object 14 .

In Fig. 5 ist die zuständige Lokalisiereinrichtung 40 detail­ lierter dargestellt. Die nacheinander auf der Ausgangsleitung 39 anstehenden Daten der einzelnen Bildfelder 51 gelangen zunächst in einen Umrißdetektor 56, der die Bilddaten nach in sich geschlossenen Umrissen und/oder Bereichen gleicher Farbe durchsucht, und so zu den scharfen (durchgezogenen) Konturen in den Bildfeldern 51a-51b aus Fig. 4 kommt. Dabei wird die Tatsache ausgenutzt, daß die Objekte 14 immer andersfarbig sind als der Hintergrund, diese sich also nicht nur durch den Kontrast sondern auch durch die Farbgebung von dem Hintergrund unter­ scheiden. Außerdem erkennt der Umrißdetektor 56 die verschwomme­ nen Konturen der Objekte 14. In Fig. 5 the competent locator 40 is shown in detail profiled. The data of the individual image fields 51 that are present in succession on the output line 39 first reach an outline detector 56 , which searches the image data for self-contained outlines and / or areas of the same color, and thus to the sharp (solid) contours in the image fields 51 a- 51 b from FIG. 4 comes. This takes advantage of the fact that the objects 14 are always different in color from the background, so that they differ from the background not only by the contrast but also by the coloring. In addition, the outline detector 56 detects the blurred outlines of the objects 14 .

Der Umrißdetektor 56 legt zu diesem Zweck wie folgt ein Overlay- Fenster über die jeweiligen Objekte: Zunächst wird Punkt für Punkt eines jeden Bildfeldes 51 daraufhin abgefragt, ob seine Echtfarbe zu dem Hintergrundfarbbereich gehört, oder sich von diesem abhebt. Ist ein Bildpunkt (Pixel) gefunden, der nicht zum Hintergrund gehört, damit also Teil eines Objektes 14 ist, so wird dieser Punkt von einem virtuellen viereckigen Fenster überdeckt. Die Kanten des Fensters werden jetzt solange iterativ in alle vier Koordinatenrichtungen voneinander weggerichtet verschoben, bis die Kanten nur noch über Pixel liegen, die dem Hintergrundfarbbereich zuzuordnen sind. Da das Ausgangspixel ein Objekt-Pixel war, ist auf diese Weise sichergestellt, daß in dem so erzeugten Overlay-Fenster zumindest ein Objekt eingegrenzt ist.For this purpose, the outline detector 56 places an overlay window over the respective objects as follows: First, point by point of each image field 51 is queried as to whether its true color belongs to the background color area or stands out from it. If a picture element (pixel) is found that does not belong to the background, so that it is part of an object 14 , then this point is covered by a virtual square window. The edges of the window are now iteratively shifted away from each other in all four coordinate directions until the edges are only over pixels that can be assigned to the background color range. Since the starting pixel was an object pixel, this ensures that at least one object is delimited in the overlay window generated in this way.

Das so eingegrenzte Objekt 14 wird in ein Teilbild umkopiert, so daß die weiterhin zu bearbeitenden Daten deutlich reduziert worden sind. Nach dem Umkopieren wird das so in dem Original- Bilddatensatz erkannte Objekt (die Objekte) dadurch "gelöscht", daß die erkannten Objekt-Pixel in Hintergrund-Pixel umgewandelt werden. In den Original-Bilddaten sind somit nur noch "nicht wahrgenommene" Objekte enthalten, die auf gleiche Weise erkannt und umkopiert werden.The object 14 thus delimited is copied into a partial image, so that the data to be processed further have been significantly reduced. After copying, the object (the objects) recognized in the original image data set is "deleted" by converting the recognized object pixels into background pixels. The original image data thus only contain "non-perceived" objects that are recognized and copied in the same way.

Während des Verschiebens der Overlay-Fensterkanten hat der Umrißdetektor 56 gleichzeitig jedes Objekt-Pixel als ein solches markiert und zusätzlich auf folgende Weise Pixel erkannt, die zum Umriß des jeweiligen Objektes 14 gehören: Jedes Pixel, das zumindest an einer seiner vier Seiten an ein Pixel mit Hinter­ grundfarbe grenzt, "gehört" zum Umriß des Objektes, während allseitig von Objekt-Pixeln umgebene Pixel "im Inneren" des Objektes liegen. Wegen des soeben beschriebenen Verfahrens ist außerdem gewährleistet, daß jede Kante des Overlay-Fensters zumindest an einer Stelle an das umschlossene Objekt angrenzt.While moving the overlay window edges, the outline detector 56 has simultaneously marked each object pixel as such and has additionally identified pixels belonging to the outline of the respective object 14 in the following way: Each pixel which is connected to a pixel on at least one of its four sides bordered with background color, "belongs" to the outline of the object, while pixels surrounded on all sides by object pixels are "inside" the object. The method just described also ensures that each edge of the overlay window adjoins the enclosed object at least at one point.

Nachdem die einzelnen Objekte in den unterschiedlichen Bildfeldern 51 so erkannt worden sind, gelangen die reduzierten Daten in einen Stapelbildüberlagerer 57, der die einzelnen Bildfelder 51 - wie anhand von Fig. 4 bereits beschrieben - so übereinander legt, daß die verschwommenen und die scharfen Konturen unterschiedlicher Bildfelder 51 übereinstimmen. Die derart zueinander ausgerichteten einzelnen Stapelbilder 51a-51e werden in dem Objektlokalisierer 58 als dreidimensionale Vektorgraphikdarstellungen abgelegt. Die Daten gelangen von hier in einen Bewegungsdetektor 59, der anhand der um zu einem Objekt 14 zu gelangenden erforderlich gewesenen Verschiebung der einzelnen Bildfelder 51 ermittelt, ob es sich um ein sich bewegendes Objekt handelt. Über die Ausgangsleitungen 60 und 61 werden die Daten des Stapelbildes 53 sowie die Bewegungsinformation einer Verknüpfungsschaltung 62 zugeführt, die diese Daten über die Objektdatenleitung 41 in den Objektdatenspeicher 42 gibt.After the individual objects in the different image fields 51 have been recognized in this way, the reduced data arrive in a stack image overlay 57 which , as already described with reference to FIG. 4, superimposes the individual image fields 51 so that the blurred and the sharp contours differ Image fields 51 match. The individual stack images 51 a- 51 e, which are aligned with one another in this way, are stored in the object locator 58 as three-dimensional vector graphic representations. From here, the data arrive in a motion detector 59 which , on the basis of the displacement of the individual image fields 51 that was necessary in order to arrive at an object 14 , determines whether it is a moving object. Via the output lines 60 and 61 , the data of the stack image 53 and the movement information are fed to a logic circuit 62 , which gives this data via the object data line 41 to the object data memory 42 .

In Fig. 6 ist ausschnittsweise die Projektion eines von der Lokalisiereinrichtung 40 erzeugten Stapelbildes 53 dargestellt, wie es typischerweise für eine Probe 13 eines Belebtschlammes gefunden wird. Das Stapelbild 53 gibt eine kleine Flocke 64, eine Protozoe 65 sowie eine Fadenbakterie 66 mit zusätzlichem bakteriellem Aufwuchs 67 wieder. Weiterhin ist eine große Flocke 68 zu erkennen, an der eine weitere Fadenbakterie 69 sitzt. Ferner weist Fig. 6 eine Kolonie von drei Glockentierchen 70a, 70b, 70c auf, die einen gemeinsamen Stiel 71 haben, der mit seinem Fußpunkt 72 an der großen Flocke 68 sitzt. Während die Objekte 64 und 65 Einzelobjekte sind, die in der Identifizierungseinrichtung 44 problemlos identifiziert werden können, stellen die Objekte 66, 67 sowie 68, 69, 70, 71 ein Clusterobjekt 73a, 73 dar. Die Zahl der möglichen Clusterobjekte ist so astronomisch hoch, daß es nicht möglich ist, für diese Clusterobjekte Referenzdatenobjekte zu erzeugen. Die Identifizierungseinrichtung 44 muß daher jedes beliebige Clusterobjekt 73 so weiterverarbeiten können, daß es mit einer begrenzten Anzahl von vorgegebenen Referenzdaten eindeutig identifiziert werden kann. Hier ist noch zu bedenken, daß die Teilobjekte eines Clusterobjektes 73 sich zumindest teilweise gegenseitig überdecken bzw. überlappen können und ggf. auch miteinander verflochten sind.In FIG. 6, the projection of a stack image 53 generated by the locator 40 is shown fragmentary, such as is typically found an activated sludge for a sample 13. The stack image 53 shows a small flake 64 , a protozoan 65 and a filamentous bacteria 66 with additional bacterial growth 67 . Furthermore, a large flake 68 can be seen on which another thread bacterium 69 is seated. Furthermore, Fig. 6 has a colony of three bell animals 70 a, 70 b, 70 c, which have a common stem 71 , which sits with its base 72 on the large flake 68 . While the objects 64 and 65 are individual objects that can be easily identified in the identification device 44 , the objects 66 , 67 and 68 , 69 , 70 , 71 represent a cluster object 73 a, 73. The number of possible cluster objects is astronomically high that it is not possible to create reference data objects for these cluster objects. The identification device 44 must therefore be able to process any cluster object 73 in such a way that it can be clearly identified with a limited number of predetermined reference data. It should also be borne in mind here that the sub-objects of a cluster object 73 can at least partially overlap or overlap one another and may also be interwoven with one another.

In Fig. 7 ist gezeigt, daß die Identifizierungseinrichtung 44 aus diesem Grunde eine Clusterzerlegungseinrichtung 74 sowie eine Objekterkennungseinrichtung 75 aufweist. Die Daten eines lokalisierten Objektes gelangen über die Ausgangsleitung 43 in eine Clustererkennungseinrichtung 76, die jedes neu anstehende Objekt daraufhin überprüft, ob es ein Einzelobjekt oder ein Clusterobjekt 73 ist. Wie dies geschieht, wird noch erläutert.In Fig. 7 it is shown that the identification device 44 comprises for this reason, a cluster decomposing means 74 as well as an object detection device 75. The data of a localized object is sent via the output line 43 to a cluster recognition device 76 , which checks each newly pending object to determine whether it is an individual object or a cluster object 73 . How this happens will be explained later.

Handelt es sich bei dem auf der Ausgangsleitung 43 anstehenden Objekt um ein Einzelobjekt, so überträgt die Clustererkennungseinrichtung 76 die Daten über seine Ausgangsleitung 77 in einen Vergleichsspeicher 78 der Objekterkennungseinrichtung 75. Handelt es sich dagegen um ein Clusterobjekt 73, so werden die Daten von der Clustererkennungseinrichtung 76 über seine Ausgangsleitung 79 in einen Clusterspeicher 80 geladen. Von dem Clusterspeicher 80 gelangen die Daten über eine Clusterdatenleitung 81 in eine Subobjekterkennungseinrichtung 82, die ein Clusterobjekt 73 in eine Reihe von Subobjekten zerlegt. Diese Zerlegung in Subobjekte erfolgt anhand weiterer Daten, die beispielsweise Aussagen über die geometrische Form bestimmter Bereiche des Clusters machen. Weiterhin werden die Farben der Clusterbereiche und/oder die unterschiedlichen Kontraste dazu herangezogen, das in Fig. 6 gezeigte Clusterobjekt 73 in einzelne Subobjekte zu zerlegen. Zurückkehrend zu Fig. 6 ist zu erkennen, daß beispielsweise die Glockentierchen 70 und ihre Stiele 71 unterschiedlich schraffiert sind, wodurch eine unterschiedliche Farbe angedeutet ist. Die Subobjekterkennungseinrichtung 82 spaltet jetzt beispielsweise das Glockentierchen 70a von dem Cluster 73 ab und übermittelt die Daten des Glockentierchens 70a über eine Subobjekt-Datenleitung 83 in den Vergleichsspeicher 78.If the object pending on the output line 43 is a single object, the cluster recognition device 76 transmits the data via its output line 77 to a comparison memory 78 of the object recognition device 75 . If, on the other hand, it is a cluster object 73 , the data is loaded into a cluster memory 80 by the cluster recognition device 76 via its output line 79 . From the cluster memory 80 , the data passes via a cluster data line 81 to a sub-object recognition device 82 , which breaks down a cluster object 73 into a number of sub-objects. This breakdown into sub-objects is based on further data that, for example, make statements about the geometric shape of certain areas of the cluster. Furthermore, the colors of the cluster areas and / or the different contrasts are used to break down the cluster object 73 shown in FIG. 6 into individual subobjects. Returning to FIG. 6, it can be seen that, for example, the bell animals 70 and their stems 71 are hatched differently, as a result of which a different color is indicated. The sub-object recognition device 82 now splits off the bell animal 70 a from the cluster 73, for example, and transmits the data of the bell animal 70 a via a sub-object data line 83 to the comparison memory 78 .

Der Vergleichsspeicher 78 enthält jetzt entweder die Daten eines Einzelobjektes 14 oder die Daten eines Subobjektes. Diese als "Suchobjekt" bezeichneten Daten gelangen über eine Suchobjekt- Datenleitung 84 in eine Sucheinrichtung 85, die ihrerseits über eine Referenzobjekt-Datenleitung 86 mit einem Referenzdaten­ speicher 87 in Verbindung steht. In dem Referenzdatenspeicher 87 sind in vektorieller, dreidimensionaler Darstellung sämtliche Objekte 14 enthalten, die in einer Probe 13 auftreten können.The comparison memory 78 now contains either the data of a single object 14 or the data of a sub-object. This data, referred to as “search object”, reaches a search device 85 via a search object data line 84 , which in turn is connected to a reference data memory 87 via a reference object data line 86 . The reference data memory 87 contains a vector, three-dimensional representation of all objects 14 that can occur in a sample 13 .

Da viele der Objekte 14 formveränderlich sind, also beispiels­ weise eine andere geometrische Gestalt aufweisen, wenn sie ruhen oder sich bewegen, muß dies bei den Referenzobjektdaten berück­ sichtigt werden. Die Zahl der möglichen Formen, die ein einziges bewegliches Objekt 14 annehmen kann, ist jedoch so groß, daß diese nicht sämtlichst vorhergesehen und abgespeichert werden können. Aus diesem Grunde erfolgt der Aufbau des Referenzdaten­ speichers 87 derart, daß die Referenzobjekte in einer oder mehreren geometrischen Grundformen abgelegt werden. Zusätzlich zu dieser Grundform sind Freiheitsgrade abgespeichert, die die möglichen und zulässigen Bewegungen und Formveränderungen des jeweiligen Objektes berücksichtigen. Beim Vergleich zwischen dem Suchobjekt und den verschiedenen Referenzobjekten werden jetzt die Referenzobjekte im Hinblick auf das Suchobjekt solange verändert (im Rahmen ihrer zulässigen Freiheitsgrade) bis sie entweder zu dem Suchobjekt "passen", oder aber bis sich ergibt, daß keine Übereinstimmung zu erzielen ist. Dieser Vergleich ist ein virtuell-optischer Vorgang, bei dem aufgrund eines wissensbasierten Verfahrens (die zulässigen Freiheitsgrade eines Referenzobjektes sind abgespeichert) die Vektorgraphikdarstellung eines Objektes/Subobjektes mit einer zweidimensionalen Projektion eines virtuellen dreidimensionalen Vektorflächengraphikmodells des jeweils zu vergleichenden Referenzobjektes verglichen wird.Since many of the objects 14 are changeable in shape, that is to say have a different geometric shape, for example, when they are at rest or moving, this must be taken into account in the reference object data. However, the number of possible shapes that a single movable object 14 can take is so great that they cannot all be predicted and stored. For this reason, the reference data memory 87 is constructed in such a way that the reference objects are stored in one or more basic geometric shapes. In addition to this basic form, degrees of freedom are stored, which take into account the possible and permissible movements and changes in shape of the respective object. When comparing the search object and the various reference objects, the reference objects are now changed with respect to the search object (within the scope of their permissible degrees of freedom) until they either "match" the search object or until it is found that no match can be achieved. This comparison is a virtual optical process in which, based on a knowledge-based method (the permissible degrees of freedom of a reference object are saved), the vector graphic representation of an object / sub-object is compared with a two-dimensional projection of a virtual three-dimensional vector surface graphic model of the reference object to be compared in each case.

Die Sucheinrichtung 85 vergleicht also jetzt die Daten, die auf der Suchobjekt-Datenleitung 84 anstehen, mit den vorhandenen Daten des Referenzdatenspeichers 87, bis das mit dem Suchobjekt übereinstimmende Referenzobjekt gefunden ist. Bei der Abspaltung in der Subobjekterkennungseinrichtung 82 kann es nun vorkommen, daß kein ganzes Objekt 14 von dem Cluster 73 abgespalten wird, sondern nur ein Teilobjekt. In dem Beispiel der Fig. 6 wird nicht ein aus Stiel 71a und Glockenteil 70a bestehendes Glocken­ tierchen abgespaltet, sondern nur das Teilobjekt 70a.The search device 85 therefore now compares the data which are present on the search object data line 84 with the existing data of the reference data memory 87 until the reference object which matches the search object is found. When splitting off in the sub-object recognition device 82 , it can now happen that not an entire object 14 is split off from the cluster 73 , but only a partial object. In the example of Fig. 6 is not cleaved from stem 71 and a bell portion 70 a existing vorticella one, but only the part of object 70 a.

In dem Referenzdatenspeicher 87 findet sich jedoch zu dem Teilobjekt 70a ein Hauptobjekt 14, bestehend aus Teilobjekt 70a und Teilobjekt 71a. Dieses Hauptobjekt wird jetzt über eine Hauptobjekt-Datenleitung 88 an einen virtuell-optisch arbeitenden Differenzbildner 89 gegeben, der über eine Leitung 90 ebenfalls mit dem Clusterspeicher 80 in Verbindung steht. Die Differenz­ bildnereinheit 89 modifiziert jetzt das ursprünglich in dem Cluster­ speicher 80 befindliche Clusterobjekt derart, daß es um das bereits erkannte Hauptobjekt reduziert wird. In the reference data memory 87 , however, there is a main object 14 for sub-object 70 a, consisting of sub-object 70 a and sub-object 71 a. This main object is now passed via a main object data line 88 to a virtual optical difference generator 89 , which is also connected to the cluster memory 80 via a line 90 . The difference forming unit 89 now modifies the cluster object originally located in the cluster memory 80 in such a way that it is reduced by the already recognized main object.

Das modifizierte Clusterobjekt gelangt über die Leitung 91 zurück in die Clustererkennungseinrichtung 76, wo die nun anstehenden Bilddaten entweder erneut als Cluster erkannt werden und in den Clusterspeicher 80 eingeschrieben werden oder aber als Einzelobjekt erkannt werden und somit unmittelbar in den Vergleichsspeicher 78 gegeben werden.The modified cluster object is returned via line 91 to the cluster recognition device 76 , where the image data now pending are either recognized again as a cluster and are written into the cluster memory 80 , or are recognized as a single object and are thus given directly to the comparison memory 78 .

Selbstverständlich wird jedes erkannte Hauptobjekt über die Objektausgabeleitung 45 an die Zähleinrichtung 46 gemeldet.Of course, each recognized main object is reported to the counter 46 via the object output line 45 .

Hier sei erwähnt, daß die in dem Referenzdatenspeicher 87 vorhandenen Referenzobjekte von Fall zu Fall um weitere neu auftretende oder neu zu bestimmende Objekte erweitert werden, die Vorrichtung 10 ist also selbstadaptierend.It should be mentioned here that the reference objects present in the reference data memory 87 are expanded on a case-by-case basis by further newly occurring or newly determined objects, the device 10 is therefore self-adapting.

Anhand von Fig. 8 wird jetzt beschrieben, nach welchen Kriterien die Clustererkennungseinrichtung 76 ermittelt, ob es sich bei den auf der Ausgangsleitung 43 anstehenden Daten um ein einzelnes Objekt 14 oder um ein Clusterobjekt 73 handelt.Referring to Fig. 8 will now be described, according to which criteria the cluster recognizer 76 determines whether it is in the forthcoming on the data output line 43 to a single object 14 or a cluster object 73rd

Aus Gründen der Übersichtlichkeit wurden in Fig. 8 die Glockentierchen 70b und 70c aus Fig. 6 weggelassen. Die Farben und der Kontrast der einzelnen Elemente des Clusters 73′ aus Fig. 8 spielen in diesem Beispiel für die Erkennung, ob es sich um ein Cluster handelt, ebenfalls keine Rolle. Das Clusterobjekt 73 ist in Fig. 8 lediglich durch seinen bei 92 angedeuteten Umriß repräsentiert. Dieser Umriß des Clusterobjektes 73 wurde bereits mit Hilfe des Umrißdetektors 56 - siehe Fig. 5 - ermittelt.For the sake of clarity, the bell animals 70 b and 70 c have been omitted from FIG. 6 in FIG. 8. The colors and the contrast of the individual elements of the cluster 73 'from FIG. 8 also play no role in this example for the detection of whether it is a cluster. The cluster object 73 is represented in FIG. 8 only by its outline indicated at 92 . This outline of the cluster object 73 has already been determined with the aid of the outline detector 56 - see FIG. 5.

Die Clustererkennungseinrichtung 76 legt jetzt einen Umkreis um das Clusterobjekt und bestimmt so seine bei 93 angedeutete Länge, seine maximale Ausdehnung in der X/Y-Ebene. Dies geschieht beispielsweise, indem zwischen sämtlichen Koordinatenpaaren (X/Y) der Abstand bestimmt wird und dann der maximale Abstand als Länge 93 in die Bilddaten aufgenommen wird.The cluster recognition device 76 now places a radius around the cluster object and thus determines its length, indicated at 93 , its maximum extent in the X / Y plane. This is done, for example, by determining the distance between all coordinate pairs (X / Y) and then recording the maximum distance as length 93 in the image data.

Als nächstes wird die Breite des Clusterobjektes 73 bzw. des Objektes 14 senkrecht zu der Länge 93 bestimmt. Dies geschieht ebenfalls durch eine Abstandsbestimmung zwischen den entspre­ chenden Koordinaten, einige Breiten sind bei 94a, 94b in Fig. 8 angedeutet. Es ist zu erkennen, daß das Clusterobjekt 73 teilweise Breiten 94c aufweist, die keinen Schnittpunkt mit der Länge 93 aufweisen. Dies ist ein Indiz für eine unregelmäßige Form des Objektes 14 bzw. des Clusterobjektes 73. Nach jeweils festzulegenden Kriterien ermittelt die Clustererkennungsein­ richtung 76 aus der Variation der verschiedenen Breiten 94a-94c sowie aus der Tatsache, wie oft die Länge 93 "außerhalb" des Objektes 14 bzw. des Clusterobjektes 73 liegt, ob es sich bei dem vorliegenden Datensatz um ein Clusterobjekt 73 handelt.Next, the width of the cluster object 73 or the object 14 is determined perpendicular to the length 93 . This is also done by determining the distance between the corresponding coordinates, some widths are indicated at 94 a, 94 b in Fig. 8. It can be seen that the cluster object 73 partially has widths 94 c that do not have an intersection with the length 93 . This is an indication of an irregular shape of the object 14 or the cluster object 73 . According to criteria to be determined in each case, the cluster detection device 76 determines from the variation of the different widths 94 a- 94 c and from the fact how often the length 93 lies "outside" of the object 14 or the cluster object 73 , whether it is the present data set is a cluster object 73 .

Die Clustererkennungseinrichtung 76 ist in Fig. 9 detaillierter dargestellt. Die auf der Ausgangsleitung 43 anstehenden Objekt­ daten eines lokalisierten Objektes werden über eine innere Datenverzweigung 95 einzelnen Baugruppen der Clustererkennungs­ einrichtung 76 zugeführt. Über einen Umschalter 96 wird dabei entweder die Ausgangsleitung 43, die von dem Objektdatenspeicher 42 kommt, oder die Leitung 91, die Informationen eines modifi­ zierten Clusterobjektes 73 enthält, auf die innere Datenver­ zweigung 95 geschaltet.The cluster recognition device 76 is shown in more detail in FIG. 9. The object data of a localized object pending on the output line 43 are fed to individual assemblies of the cluster detection device 76 via an inner data branch 95 . Via a switch 96 , either the output line 43 , which comes from the object data memory 42 , or the line 91 , which contains information from a modified cluster object 73 , is switched to the internal data branch 95 .

Diese Daten gelangen in eine Vorrichtung 97 zur Längenbestimmung, eine Vorrichtung 98 zur Breitenbestimmung und eine Qualifizie­ rungseinrichtung 99, die z. B. aus dem Verhältnis Länge zu Breite ermittelt, ob es sich bei dem zu bewertenden Objekt 14 um ein einzelnes Objekt 14 oder um ein Clusterobjekt 73 handelt. Die Funktionsweise der Vorrichtungen 97, 98 und der Qualifizierungs­ einrichtung 99 wurde bereits anhand von Fig. 8 erläutert.These data arrive in a device 97 for determining the length, a device 98 for determining the width and a qualification device 99 which, for. B. determined from the ratio of length to width, whether the object 14 to be evaluated is a single object 14 or a cluster object 73 . The operation of the devices 97 , 98 and the qualification device 99 has already been explained with reference to FIG. 8.

Die Qualifizierungseinrichtung 99 gibt die anstehenden Daten entweder auf die Ausgangsleitung 77, wenn es sich um ein einzelnes Objekt 14 handelt, oder auf die Ausgangsleitung 79, wenn es sich um ein Clusterobjekt 73 handelt.The qualification device 99 outputs the pending data either to the output line 77 if it is a single object 14 , or to the output line 79 if it is a cluster object 73 .

Die Clustererkennungseinrichtung 76 weist weiterhin eine Vorrichtung 100 auf, die anhand von Bewegungsvorgängen in Teilbereichen eines Clusters und/oder von zusammenhängenden Bereichen gleicher Echtfarben erkennt, ob das lokalisierte Objekt 14 ein Clusterobjekt 73 ist.The cluster recognition device 76 furthermore has a device 100 which recognizes on the basis of movement processes in partial areas of a cluster and / or of contiguous areas of the same true colors whether the localized object 14 is a cluster object 73 .

Als letztes soll erläutert werden, wie die Sucheinrichtung 85 die auf der Suchobjekt-Datenleitung 84 anstehenden Suchobjekte mit den auf der Referenzdatenleitung 86 zugänglichen Referenz­ daten des Referenzdatenspeichers 87 vergleicht. Dies geschieht anhand von Fig. 10.Finally, it will be explained how the search device 85 compares the search objects pending on the search object data line 84 with the reference data of the reference data memory 87 accessible on the reference data line 86 . This is done using FIG. 10.

Die Sucheinrichtung 85 weist zu diesem Zweck eine virtuell­ optisch arbeitende Vergleichereinrichtung 101 auf, die nachein­ ander die zur Verfügung stehenden Daten des Referenzdaten­ speichers 87 abfragt und mit den Suchobjektdaten auf der Suchob­ jekt-Datenleitung 84 vergleicht. Damit nicht bei jedem Suchobjekt sämtliche Referenzobjekte durchgemustert werden müssen, umfaßt die Sucheinrichtung 85 beispielsweise vier Bewertungseinheiten 102, 103, 104 und 105, welche die Suchobjekte nach Farbe, Bewe­ gung, Größe und geometrischer Form bzw. Formveränderlichkeit qualifizieren. Diese Informationen führen zu Entscheidungskri­ terien, die es der Vergleichereinrichtung 101 ermöglichen, nur einen kleinen Satz der gesamten zur Verfügung stehenden Referenz­ objekte tatsächlich mit dem jeweiligen Suchobjekt zu vergleichen. For this purpose, the search device 85 has a virtually optically operating comparator device 101 , which sequentially queries the available data of the reference data memory 87 and compares it with the search object data on the search object data line 84 . So that not all reference objects have to be screened for each search object, the search device 85 comprises, for example, four evaluation units 102 , 103 , 104 and 105 , which qualify the search objects according to color, movement, size and geometric shape or changeability in shape. This information leads to decision criteria which enable the comparator device 101 to actually compare only a small set of the total available reference objects with the respective search object.

Ist das Suchobjekt beispielsweise in seiner längsten Ausdehnung kleiner als zwei µm, werden nur die in dem Referenzdatenspeicher 87 gespeicherten Bakterien mit dem Suchobjekt verglichen. Hat das Suchobjekt dagegen eine ausgefallene, seltene Farbgebung, so werden nur die mit dem entsprechenden Farbcode identifizierten Referenzobjekte mit dem Suchobjekt verglichen. Entsprechende Überlegungen lassen sich auch für Bewegung und geometrische Form anstellen.If, for example, the longest dimension of the search object is less than two μm, only the bacteria stored in the reference data memory 87 are compared with the search object. If, on the other hand, the search object has an unusual, rare coloring, only the reference objects identified with the corresponding color code are compared with the search object. Corresponding considerations can also be made for movement and geometric shape.

Je nachdem, welches der hier beispielhaft angeführten vier Kriterien Farbe, Bewegung, Größe und geometrische Form sich als am relevantesten erweist, durchsucht die Vergleichereinrichtung 101 bestimmte Bereiche des Referenzdatenspeichers 87. Auf diese Weise läßt sich eine sehr viel schnellere Identifizierung des Objektes und in rekursiver Weise damit eines Clusters 73 durchführen.Depending on which of the four criteria color, movement, size and geometric shape that is shown here as an example proves to be the most relevant, the comparator device 101 searches certain areas of the reference data memory 87 . In this way, a much faster identification of the object and thus a cluster 73 in a recursive manner can be carried out.

Die Bewertungseinrichtungen 102-105 stellen sozusagen einen Merkmalssatzvergleicher dar, welcher aufgrund von aus den Bilddaten extrahierter Merkmalen eine Art morphologische Klassifizierung der Objekte durchführt. Wegen der hohen Formverschiedenheit der einzelnen Objekte ein- und derselben Art ist eine derartige morphologische Klassifizierung aufgrund von Grobmerkmalen jedoch nur bis zu einem bestimmten Grad möglich. Danach erfolgt - wie bereits oben beschrieben - in der Vergleichereinrichtung 101 ein quasi-visueller Vergleich, ein Vergleich auf der Basis virtueller dreidimensionaler Vektorgraphik. Dabei werden die Vektoren von Such- und Referenzobjekt hinsichtlich Betrag (Länge) und Raumwinkel (Orientierung im Raum) miteinander verglichen. Die Referenzobjekte sind dabei formveränderlich angelegt, sie werden also im Hinblick auf das jeweilige Suchobjekt solange verändert, bis sie "passen". Auf diese Weise können alle nicht ohne weiteres beschreibbaren Merkmale dennoch berücksichtigt werden, da sie in der feinstspezifischen Struktur des Referenzobjektes implementiert sind. Eine vollständige Objektidentifizierung anhand beschreibender Merkmale ist auch deshalb nicht möglich, weil sich die unterschiedlichen Arten zum Teil durch Merkmalssätze voneinander unterscheiden, die nur schwer in Algorithmen, sei es auf Hardware- oder auf Software-Ebene, erfassen lassen.The evaluation devices 102-105 represent a feature set comparator , so to speak, which performs a type of morphological classification of the objects on the basis of features extracted from the image data. Because of the great variety of shapes of the individual objects of the same type, such a morphological classification is only possible to a certain extent due to rough features. Then, as already described above, a quasi-visual comparison takes place in the comparator device 101 , a comparison based on virtual three-dimensional vector graphics. The vectors of the search and reference object are compared with one another in terms of magnitude (length) and solid angle (orientation in space). The reference objects are designed to change their shape, so they are changed with regard to the respective search object until they "fit". In this way, all features that cannot be easily described can still be taken into account, since they are implemented in the finely specific structure of the reference object. A complete object identification based on descriptive features is also not possible because the different types differ from each other in part by sets of features that are difficult to detect in algorithms, be it at the hardware or software level.

Ist das Suchobjekt als Teil eines Hauptobjektes erkannt worden, so wird das entsprechende Hauptobjekt von der Vergleichereinrichtung 101 in einen Hauptobjektspeicher 106 geladen, der über die Hauptobjekt-Datenleitung 88 mit dem Differenzbildner 89 in Verbindung steht.If the search object has been recognized as part of a main object, the corresponding main object is loaded by the comparator 101 into a main object memory 106 which is connected to the difference former 89 via the main object data line 88 .

Der Vollständigkeit halber sei erwähnt, daß die in den Fig. 2, 4, 5, 7, 9 und 10 angedeuteten Baugruppen in beliebiger Kombination ganz oder auch zum Teil entweder durch reine Hardware-Schaltungen/Mikroprogrammsteuerwerke, Rechenschaltungen oder programmgesteuerte Datenverarbeitungseinheiten realisiert sein können. Weiterhin ist es selbstverständlich, daß die einzelnen Speicher entweder getrennte Speicher sein können oder aber teilweise überlappende Bereiche eines einzigen Speichers sein können.For the sake of completeness, it should be mentioned that the modules indicated in FIGS. 2, 4, 5, 7, 9 and 10 can be implemented in any combination wholly or in part either by pure hardware circuits / microprogram control units, arithmetic circuits or program-controlled data processing units. Furthermore, it goes without saying that the individual memories can either be separate memories or can be partially overlapping areas of a single memory.

Claims (9)

1. Automatisches Verfahren zum Erstellen einer Liste (48) unterschiedlicher Arten für eine flüssige Probe (13) mit Objekten (14), die form- und/oder ortsveränderlich sein können und sich z.T. gegenseitig überdeckend oder überlappen, zur Ermittlung des ökologischen Zustandes der Probe (13), wobei die Probe (13) zumindest zweidimensional als Folge von Bilddaten optisch erfaßt und die Bilddaten abgespeichert werden und wobei daraufhin folgende Schritte automatisch durchgeführt werden:
  • - Erkennen des Vorhandenseins der Objekte (14) und Lokalisieren der Objekte (14) in den erfaßten Bilddaten mittels einer Lokalisiereinrichtung (40),
  • - Identifizieren der lokalisierten Objekte (14) mittels einer Identifizierungseinrichtung (44), die eine Clusterzerlegungseinrichtung (74) und eine Objekterkennungseinrichtung (75) umfaßt, wobei
  • - in der Clusterzerlegungseinrichtung (74) ein automatisches Erkennen des Vorliegens eines aus mehreren zusammenhängenden Objekten (14) bestehenden Clusterobjektes (73) mittels einer Clustererkennungseinrichtung (76) und ein automatisches Abspalten eines Subobjektes von dem Clusterobjekt (73) mittels einer Differenzbildnereinheit (89) erfolgt, und wobei
  • - in der Objekterkennungseinrichtung (75) die Daten der Objekte (14) und/oder Subobjekte mittels einer Sucheinrichtung (85) mit Daten von Referenzobjekten verglichen und dadurch identifiziert werden,
  • - wobei der Vergleich so erfolgt, daß aus den Bilddaten zu identifizierender Objekte (14) oder Subobjekte durch zumindest eine Bewertungseinheit (102, 103, 104, 105) zumindest ein Grobmerkmal ermittelt wird, aufgrund dessen dann aus den vorhandenen Referenzobjekten nur eine bestimmte Gruppe von Referenzobjekten zum Vergleich ausgewählt wird, der mittels Vektorgraphik durchgeführt wird,
  • - Zählen der identifizierten Objekte (14) nach den unterschiedlichen Arten und
  • - Eintragen der gezählten Objekte (14) in die Liste (48) unterschiedlicher Arten.
1. Automatic method for creating a list ( 48 ) of different types for a liquid sample ( 13 ) with objects ( 14 ), which can be shape and / or location-changing and partly overlap or overlap, to determine the ecological state of the sample ( 13 ), the sample ( 13 ) being optically recorded at least two-dimensionally as a sequence of image data and the image data being stored and the following steps then being carried out automatically:
  • Recognition of the presence of the objects ( 14 ) and localization of the objects ( 14 ) in the captured image data by means of a localization device ( 40 ),
  • - Identifying the localized objects ( 14 ) by means of an identification device ( 44 ) which comprises a cluster decomposition device ( 74 ) and an object recognition device ( 75 ), wherein
  • - The cluster decomposition device ( 74 ) automatically detects the presence of a cluster object ( 73 ) consisting of a plurality of connected objects ( 14 ) by means of a cluster detection device ( 76 ) and an automatic splitting off of a sub-object from the cluster object ( 73 ) by means of a difference-forming unit ( 89 ) , and where
  • - In the object recognition device ( 75 ), the data of the objects ( 14 ) and / or sub-objects are compared with data from reference objects by means of a search device ( 85 ) and thereby identified,
  • - The comparison is carried out in such a way that at least one rough feature is determined from the image data of objects ( 14 ) or subobjects to be identified by at least one evaluation unit ( 102, 103, 104, 105 ), on the basis of which then only a certain group of reference objects Reference objects are selected for comparison, which is carried out using vector graphics,
  • - Counting the identified objects ( 14 ) according to the different types and
  • - Enter the counted objects ( 14 ) in the list ( 48 ) of different types.
2. Verfahren nach Anspruch 1 mit den weiteren Schritten:
  • - Erzeugen eines modifizierten Clusterobjektes (73) durch Vermindern des Clusterobjektes (73) um das zu einem identifizierenden Subobjekt gehörende Referenzobjekt und
  • - Behandeln des modifizierten Clusterobjektes (73) wie ein lokalisiertes Objekt (14).
2. The method according to claim 1 with the further steps:
  • - Generating a modified cluster object ( 73 ) by reducing the cluster object ( 73 ) by the reference object belonging to an identifying sub-object and
  • - Treating the modified cluster object ( 73 ) as a localized object ( 14 ).
3. Verfahren nach einem der Ansprüche 1 oder 2, wobei das automatische Erkennen des Vorliegens eines Clusterobjektes (73) die Schritte umfaßt:
  • - Bestimmen einer Länge (93) oder maximalen Ausdehnung des lokalisierten Objektes (14),
  • - Bestimmen von quer zu der Länge (93) verlaufenden Breiten (94) des lokalisierten Objektes (14) und
  • - Bewerten der Abweichungen der Breiten (94a, 94b, 94c) untereinander sowie der Lage der Breiten (94) zu der Länge (93).
3. The method according to claim 1, wherein the automatic detection of the presence of a cluster object ( 73 ) comprises the steps:
  • Determining a length ( 93 ) or maximum extent of the localized object ( 14 ),
  • - Determining transverse to the length ( 93 ) widths ( 94 ) of the localized object ( 14 ) and
  • - Assess the deviations of the widths ( 94 a, 94 b, 94 c) with each other and the position of the widths ( 94 ) to the length ( 93 ).
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei der Schritt des Erkennens und Lokalisierens der Objekte (14) die automatische Überführung eines Objektes (14) in ein Teilbild und danach das automatische Detektieren von in sich geschlossenen Umrissen (92) umfaßt.4. The method according to any one of claims 1 to 3, wherein the step of recognizing and locating the objects ( 14 ) comprises the automatic transfer of an object ( 14 ) into a partial image and then the automatic detection of self-contained outlines ( 92 ). 5. Verfahren nach einem der Ansprüche 1 bis 4, wobei das optische Erfassen der Probe (13) das automatische Aufnehmen von Bildfeldern (51) unterschiedlicher Vergrößerung umfaßt, wobei von der Probe (13) je Vergrößerung über ihr Volumen verteilte Bildfelder (51) aufgenommen werden.5. The method according to any one of claims 1 to 4, wherein the optical detection of the sample ( 13 ) comprises the automatic recording of image fields ( 51 ) of different magnifications, with the sample ( 13 ) each image over its volume distributed image fields ( 51 ) will. 6. Verfahren nach den Ansprüchen 4 und 5, wobei der Schritt des Lokalisierens das Zusammenfassen mehrerer Bildfelder (51), über die sich ein Objekt (14) erstreckt, zu einem Überlagerungsbild (53) umfaßt. 6. The method according to claims 4 and 5, wherein the localizing step comprises combining a plurality of image fields ( 51 ) over which an object ( 14 ) extends to form an overlay image ( 53 ). 7. Verfahren nach einem der Ansprüche 1 bis 6, wobei der Schritt des Lokalisierens der Objekte (14) oder Subobjekte das Detektieren von Bereichen gleicher oder ähnlicher Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt.7. The method according to any one of claims 1 to 6, wherein the step of locating the objects ( 14 ) or sub-objects comprises the detection of areas of the same or similar real color, real color pattern or real color areas. 8. Verfahren nach einem der Ansprüche 1 bis 7, wobei der Vergleich zwischen Objekt (14) oder Subobjekt einerseits und Referenzobjekt andererseits auf der Basis dreidimensionaler virtueller Vektorgraphik erfolgt.8. The method according to any one of claims 1 to 7, wherein the comparison between object ( 14 ) or sub-object on the one hand and reference object on the other hand is based on three-dimensional virtual vector graphics. 9. Verfahren nach einem der Ansprüche 1 bis 8, wobei das Clusterobjekt (73) in Bereiche unterschiedlicher Bewegung, geometrischer Form und Größe zerlegt wird.9. The method according to any one of claims 1 to 8, wherein the cluster object ( 73 ) is broken down into areas of different movement, geometric shape and size.
DE4211904A 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample Expired - Fee Related DE4211904C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4211904A DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample
DE4244708A DE4244708C2 (en) 1992-04-09 1992-04-09 Ascertaining type list for liquid sample examintion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4111472 1991-04-09
DE4211904A DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample

Publications (2)

Publication Number Publication Date
DE4211904A1 DE4211904A1 (en) 1992-11-19
DE4211904C2 true DE4211904C2 (en) 1994-03-17

Family

ID=6429151

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4211904A Expired - Fee Related DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample

Country Status (1)

Country Link
DE (1) DE4211904C2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4337528A1 (en) * 1993-11-04 1995-07-20 Lothar Bode Determn of condition of skin tissue by image analysis
DE19709348C2 (en) * 1996-05-29 1999-07-01 Schubert Walter Dr Md Automatic multi-epitope ligand mapping process
DE19726226C2 (en) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Process for the automated recognition of structures in sections through biological cells or biological tissue
DE19845883B4 (en) * 1997-10-15 2007-06-06 LemnaTec GmbH Labor für elektronische und maschinelle Naturanalytik Method for determining the phytotoxicity of a test substance
DE19801400C2 (en) * 1998-01-16 2001-10-18 Petra Perner Process for the automatic detection, description of properties and interpretation of Hep-2 cell patterns
DE19858456A1 (en) * 1998-12-18 2000-07-06 Leica Microsystems Methods for locating, recording and possibly evaluating object structures
DE10221124A1 (en) * 2002-05-13 2003-11-27 Bayer Cropscience Ag Automatic count and/or classification of plant pests uses a transparent underlay to catch pests from the leaves, to be scanned, and the image is analyzed by a data processing unit
DE10229880A1 (en) * 2002-07-03 2004-01-29 Siemens Ag Image analysis method and device for image evaluation for in vivo small animal imaging
US20040076999A1 (en) * 2002-07-15 2004-04-22 Baylor College Of Medicine Computer user interface facilitating acquiring and analyzing of biological specimen traits
US9217694B2 (en) 2003-10-21 2015-12-22 Leica Microsystems Cms Gmbh Method for automatically generating laser cutting lines in laser microdissection processes
DE102004051508B4 (en) * 2003-10-21 2006-09-21 Leica Microsystems Cms Gmbh Method for automatic generation of laser cut lines in laser microdissection
DE10361073A1 (en) * 2003-12-22 2005-07-21 Innovatis Ag Method and device for taking microscopic images
DE102004018174B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. Method of acquiring forms from images with cases and case-based recognition of objects in digital images, computer program product and digital storage medium for carrying out this method
DE502004005734D1 (en) 2004-04-08 2008-01-24 Petra Perner METHOD OF ACQUISING SHAPES FROM HEP-2 CELL CUTS AND CASE-BASED RECOGNITION OF HEP-2 CELLS
DE102004018171B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. A method for acquiring shapes from images of airborne germs and / or pollen and for case-based recognition of those objects in digital images, computer program product and digital storage medium for carrying out this method
DE102004022484B4 (en) 2004-05-07 2007-12-20 P.A.L.M. Microlaser Technologies Ag microscope stage
DE102004023262B8 (en) * 2004-05-11 2013-01-17 Carl Zeiss Microimaging Gmbh Method for processing a mass by means of laser irradiation and control system
DE102007003448A1 (en) 2007-01-19 2008-07-24 Perner, Petra, Dr.-Ing. Method and data processing system for the automatic detection, processing, interpretation and conclusion of objects present as digital data sets
DE102007009485A1 (en) 2007-02-22 2008-08-28 Perner, Petra, Dr.-Ing. Method and data processing system for modeling the image segmentation
DE102010035908A1 (en) 2009-08-28 2011-03-10 Perner, Petra, Dr.-Ing. Device and method for automatically detecting the dynamic processes of cells of cell samples
CN113283652A (en) * 2021-05-27 2021-08-20 则思科技(苏州)有限公司 Military industry macro quality level evaluation method

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3819913A (en) * 1973-05-21 1974-06-25 Corning Glass Works Detection of eosinophil cells on a blood smeared slide
FR2350596A2 (en) * 1976-05-04 1977-12-02 Green James E METHOD AND APPARATUS FOR THE ANALYSIS OF A FIELD ACCORDING TO TWO RESOLUTIONS
US4307376A (en) * 1976-12-09 1981-12-22 Geometric Data Corporation Pattern recognition system for generating hematology profile
US4175860A (en) * 1977-05-31 1979-11-27 Rush-Presbyterian-St. Luke's Medical Center Dual resolution method and apparatus for use in automated classification of pap smear and other samples
DE2903625A1 (en) * 1978-02-03 1979-08-09 Rush Presbyterian St Luke DEVICE FOR AUTOMATIC BLOOD ANALYSIS
DE2903855A1 (en) * 1979-02-01 1980-08-14 Bloss Werner H Prof Dr Ing METHOD FOR AUTOMATICALLY MARKING CELLS AND DETERMINING THE CHARACTERISTICS OF CELLS FROM CYTOLOGICAL MEASUREMENT DEVICES
DE3044883A1 (en) * 1980-11-28 1982-07-01 Fa. Carl Zeiss, 7920 Heidenheim METHOD AND ARRANGEMENT FOR FINDING PARTICULARS, BSPW. METAPHASE PLATES
US4513438A (en) * 1982-04-15 1985-04-23 Coulter Electronics, Inc. Automated microscopy system and method for locating and re-locating objects in an image
US4521909A (en) * 1983-10-04 1985-06-04 Wang Laboratories, Inc. Dual level pattern recognition system
FR2555754A1 (en) * 1983-11-28 1985-05-31 Inter Inf METHOD AND DEVICE FOR AUTOMATICALLY ANALYZING BIOLOGICAL SAMPLES
DE3543515A1 (en) * 1985-12-10 1987-06-11 Strahlen Umweltforsch Gmbh METHOD FOR MEASURING THE MOTIONS AND CONFIGURATIONS OF BIOLOGICAL AND NON-BIOLOGICAL OBJECTS
FR2597636B1 (en) * 1986-04-18 1988-06-17 Commissariat Energie Atomique METHOD FOR AUTOMATICALLY RECOGNIZING OBJECTS THAT COULD OVERLAP
FR2609662B1 (en) * 1987-01-20 1994-09-23 Loriot Jean Marc METHOD FOR CUTTING AN OBJECT ACCORDING TO FEATURES OF SAID OBJECT
JPH0695008B2 (en) * 1987-12-11 1994-11-24 株式会社東芝 Monitoring device
US4901362A (en) * 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
US4932044A (en) * 1988-11-04 1990-06-05 Yale University Tissue analyzer
DE3906215A1 (en) * 1989-02-28 1990-08-30 Robert Prof Dr Ing Massen AUTOMATIC CLASSIFICATION OF PLANTS
AU6153290A (en) * 1989-08-10 1991-03-11 International Remote Imaging Systems Inc. A method of differentiating particles based upon a dynamically changing threshold

Also Published As

Publication number Publication date
DE4211904A1 (en) 1992-11-19

Similar Documents

Publication Publication Date Title
DE4211904C2 (en) Automatic procedure for creating a list of different types for a liquid sample
DE19747415C2 (en) Method for assisting an observer in screening a sample and cytological sample analysis system
EP1181525B1 (en) Method for the automatic analysis of microscope images
DE2823490C2 (en)
DE102008059788B4 (en) Analysis and classification of biological or biochemical objects on the basis of time series images, applicable to cytometric time-lapse cell analysis in image-based cytometry
EP1797533B1 (en) Method and device for segmenting a digital representation of cells
EP0896661A1 (en) Automated, microscope-assisted examination process of tissue or bodily fluid samples
DE112018000349T5 (en) Visual analysis system for convolutional neural network based classifiers
DE60120663T2 (en) Imaging unit with associated image database
DE3313789A1 (en) SELF-ACTING MICROSCOPIC EXAMINATION DEVICE AND METHOD FOR DETERMINING AND RECOVERING OBJECTS IN AN IMAGE
DE69532276T2 (en) AUTOMATED CYTOLOGICAL SAMPLING CLASSIFICATION METHOD
DE60310267T2 (en) MEASUREMENT OF MITOSE ACTIVITY
DE3531969A1 (en) DEVICE AND METHOD FOR DETECTING AND CLASSIFYING PARTICLES WITH THE AID OF TECHNIQUES OF FLOW CYTOMETRY
DE102012022603B3 (en) Apparatus and method for microscopy of a plurality of samples
DE102007013971A1 (en) Method and device for determining a cell contour of a cell
DE112019005143T5 (en) SYSTEM FOR CO-REGISTRATION OF MEDICAL IMAGES USING A CLASSIFICATOR
DE19801400C2 (en) Process for the automatic detection, description of properties and interpretation of Hep-2 cell patterns
DE4244708C2 (en) Ascertaining type list for liquid sample examintion
EP1381846B1 (en) Method for analyzing a biological sample
DE19637741B4 (en) Automatic cytology sample analysis system using individualized patient data
DE102020203290A1 (en) Method and apparatus for examining microscope samples using optical markers
WO2020244990A1 (en) System for determining the effect of active ingredients on acariformes, insects and other organisms in an assay plate containing wells
DE1549893A1 (en) Method and arrangement for the electronic classification of original images
DE10359780B4 (en) Method for optical image acquisition
EP4300418A1 (en) System for assisting a user in the image-based recognition of tissue degeneration

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8172 Supplementary division/partition in:

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

Q171 Divided out to:

Ref country code: DE

Ref document number: 4244708

AH Division in

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
AH Division in

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

8339 Ceased/non-payment of the annual fee