DE4211904A1 - Ascertaining type list for liquid sample examintion - using imaging pick=up and localising appts. for recognising and locating object within registered image data to enable automatic output from identifying appts. - Google Patents

Ascertaining type list for liquid sample examintion - using imaging pick=up and localising appts. for recognising and locating object within registered image data to enable automatic output from identifying appts.

Info

Publication number
DE4211904A1
DE4211904A1 DE4211904A DE4211904A DE4211904A1 DE 4211904 A1 DE4211904 A1 DE 4211904A1 DE 4211904 A DE4211904 A DE 4211904A DE 4211904 A DE4211904 A DE 4211904A DE 4211904 A1 DE4211904 A1 DE 4211904A1
Authority
DE
Germany
Prior art keywords
objects
cluster
image
sub
localized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4211904A
Other languages
German (de)
Other versions
DE4211904C2 (en
Inventor
Werner Maier
Christian Volk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4211904A priority Critical patent/DE4211904C2/en
Priority to DE4244708A priority patent/DE4244708C2/en
Publication of DE4211904A1 publication Critical patent/DE4211904A1/en
Application granted granted Critical
Publication of DE4211904C2 publication Critical patent/DE4211904C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water
    • G01N33/186Water using one or more living organisms, e.g. a fish
    • G01N33/1866Water using one or more living organisms, e.g. a fish using microorganisms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/18Water

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Microbiology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The method includes optical detection of the sample (13) as a result of image data; identification and location of the objects (14) in the detected image data; and the automatic identifying of the located objects (14) by the automatic comparison of the respective located object, with a determined group of reference objects. The reference objects are selected from a large group of reference objects on the basis of the coarse characteristics of the located objects (14), obtained from the image data. The identified objects (14) are counted according to the respective types; and the counted objects (14) are entered in the type list (48). The system for carrying out the method includes a camera type system (16), a locating unit (40), an identifying unit (44) and a counter (46). USE/ADVANTAGE - Ecosystem investigations. Subjective analysis is excluded. Automatic identification and analysis of specimens including bacteria from 1 micron size. Cluster of objects can be examined with background taken into consideration.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe mit ggf. form- und/oder ortsveränderlichen sich z. T. gegenseitig über­ deckenden und überlappenden Objekten unterschiedlicher Arten zur Ermittlung des ökologischen Zustandes der Probe. The invention relates to a method and an apparatus for Creation of a list of species for a liquid sample with shape and / or portable z. T. over each other opaque and overlapping objects of different types to determine the ecological condition of the sample.  

Ein derartiges allerdings manuelles Verfahren ist aus der Praxis bekannt. Es dient zur Untersuchung von belebten Schlämmen u.ä. Biomassen, zur Bestimmung von Gewässergüten und/oder zur Überwachung biologischer Abwasserreinigungssysteme. Zu diesem Zweck wird das Ökosystem "belebter Schlamm" untersucht, das einen definierten Raum mit generell gleichen Eigenschaften darstellt, der in den Lebensraum, das nicht lebende Biotop, und in die Artengemeinschaften oder die Lebensgemeinschaft, die Biozönose zerfällt.Such a manual method, however, is from practice known. It is used for the investigation of activated sludges etc. Biomass, for the determination of water quality and / or for Monitoring biological wastewater treatment systems. To this The purpose is to study the "living sludge" ecosystem, which a defined space with generally the same properties represents that in the habitat, the non-living biotope, and into the species communities or the community, the biocenosis disintegrates.

Die Biozönose setzt sich aus unterschiedlichen Arten zusammmen, die sehr verschiedene Objektdichten aufweisen. Darüberhinaus reicht die Größe der Objekte, zu denen Algen, Pilze, Protozoen und Metazoen zählen, von 1µm (Bakterien) bis zu mehreren mm (Kleinstlebewesen). Pro Probe finden sich bis 100 und mehr Objektarten und je Art von einem Objekt bis zu mehreren tausend Objekten.The biocenosis is composed of different species, which have very different object densities. Furthermore ranges the size of the objects, including algae, fungi, protozoa and metazoa count, from 1µm (bacteria) to several mm (Microorganisms). There are up to 100 and more per sample Object types and each type from one object to several thousand Objects.

Weiterhin finden sich in der Probe nicht nur lebende Objekte, sondern auch sonstige Partikel, wie Flocken, Fasern, Haare etc..Furthermore, not only living objects are found in the sample, but also other particles such as flakes, fibers, hair etc.

Mit "Art" oder "Arten" werden im folgenden Text sämtliche Objekte des Ökosystems bezeichnet, also beispielsweise sowohl Organismen als auch Flocken, Haare etc..With "Art" or "Types" all objects are in the following text of the ecosystem, for example both organisms as well as flakes, hair etc.

Zweck der Untersuchung ist es, Aussagen über Vorgeschichte, Zustand und wahrscheinliche Weiterentwicklung des Ökosystems machen zu können. Weiterhin geht es um die Überwachung des Betriebsablaufes und um einen "Gesundheitscheck" des Ökosystems eines biologischen Abwasserreinigungssystems. Die im Rahmen der Untersuchung gewonnenen Aussagen werden genutzt, um die betriebstechnischen und die chemisch-physikalischen Daten der Anlage zu bestätigen und/oder zu ergänzen bzw. im Falle eines Störfalles gezielt weitere Untersuchungen zu veranlassen. Die Daten werden weiterhin zu einer Langzeituntersuchung der Biozönose der jeweiligen Anlage verwendet.The purpose of the investigation is to make statements about prehistory, State and likely evolution of the ecosystem to be able to do. It is also about monitoring the Operations and a "health check" of the ecosystem a biological wastewater treatment system. The in the frame Statements obtained from the investigation are used to determine the operational and chemical-physical data of To confirm and / or supplement the system or in the case of a  To initiate further investigations in the event of an accident. The data will continue to be a long-term study of the Biocenosis of the respective plant used.

Im Rahmen dieser Untersuchungen ist es erforderlich, eine Artenliste sämtlicher Objekte in einer Probe (z. B. 50 µl) zu erstellen und auszuwerten. Das Erstellen der Artenliste wird zur Zeit von Personal mit unterschiedlicher Vorbildung vorge­ nommen, das dazu ein Mikroskop und ggf. eine CCD-Kamera mit Videorekorder zur Dokumentation der untersuchten Proben ver­ wenden.As part of these investigations, it is necessary to Species list of all objects in a sample (e.g. 50 µl) create and evaluate. The creation of the species list will currently featured by staff with different educational backgrounds a microscope and possibly a CCD camera Video recorder for documentation of the samples examined ver turn.

Die Einordnung der unterschiedlichen Objekte in die verschiedenen Objektklassen oder Arten ist größtenteils Wissens- und Erfah­ rungssache, wobei die dabei verwendeten Methoden je nach dem Erfahrungsstand des mit der Untersuchung Beauftragten sehr unter­ schiedlich sind. Naturgemäß ist auf diese Weise nur eine sehr unvollständige Datenerfassung möglich, die lediglich ein Teil der zu untersuchenden Biomasse repräsentiert.The classification of the different objects into the different ones Object classes or types are mostly knowledge and experience matter, whereby the methods used depend on the Experience of the person in charge of the investigation is very low are different. Naturally, this is only one of them incomplete data collection possible, which is only a part represents the biomass to be examined.

Die auf diese Weise erstellte Artenliste wird für eine Fort­ schreibung der Langzeitüberwachung (Populationswachstum der einzelnen Arten; Flockenbildung und -alter; Komplexität der Biozönose; Sauerstoffgehalt anhand von Indikatororganismen; Saprobien-Stufen als Index für die Wassergüte) in einen Computer eingegeben und zur Erkennung von periodischen Prozessen schon im frühen Stadium verwendet. Weiterhin führt der Computer eine Modellerstellung der Biozönose durch, um die spezifischen Abhängigkeiten zwischen den Arten zu bestimmen und um so zwischen normalen/üblichen Veränderungen der Biozönose einerseits und von außen hervorgerufenen Abweichungen andererseits unterscheiden zu können. The species list created in this way is used for a fort Long-term monitoring (population growth of individual species; Flake formation and age; Complexity of Biocenosis; Oxygen content based on indicator organisms; Saprobia levels as an index for water quality) in a computer entered and to recognize periodic processes already used in the early stage. The computer also carries out a Modeling the biocenosis through to the specific To determine dependencies between the species and so between normal / usual changes in the biocenosis on the one hand and on the other hand distinguish between deviations caused by the outside to be able to.  

Mit dem insoweit beschriebenen Untersuchungsverfahren werden nicht nur Kläranlagen überprüft, auch natürliche Ökosysteme wie Seen, Flüsse, Meere etc. werden damit untersucht/überwacht.With the examination procedure described so far Not only wastewater treatment plants checked, also natural ecosystems such as lakes, rivers, seas etc. are examined / monitored.

Das vom Menschen durchzuführende Erstellen der Artenliste bedingt nicht nur den limitierenden Zeitfaktor sondern auch eine unerwünscht hohe Fehlerrate. Darüberhinaus ist die auf diese Weise gewonnene Datenmenge für einen umfassenden Überblick über den Zustand des jeweils untersuchten Ökosystems oft viel zu gering.The creation of the species list to be carried out by humans requires not only the limiting time factor but also one undesirably high error rate. Furthermore, this is on this Amount of data obtained wisely for a comprehensive overview of the state of the ecosystem under investigation is often too great low.

Lediglich der Vollständigkeit halber sei hier erwähnt, daß eine umfassende chemische Analyse von Belebtschlämmen zwar möglich ist, aber noch länger dauert als die eingangs beschriebene Bestimmung unter Heranziehung einer vom Menschen erstellten Artenliste.For the sake of completeness, it should be mentioned here that a comprehensive chemical analysis of activated sludges is possible is, but still takes longer than that described at the beginning Determination using a man-made one Species list.

Nun ist es zwar bekannt, Fluoreszenzmikroskope mit Kamerasystemen zu verwenden, die Proben sind hier jedoch fast ausschließlich zweidimensional und trocken. Flüssige Proben mit bewegten Objekten können mit solchen, insbesondere in Forschungs­ laboratorien zu findenden Systemen, nicht untersucht werden.Now it is known to use fluorescence microscopes with camera systems to be used, but the samples are almost exclusively here two-dimensional and dry. Liquid samples with moving Objects can be used with such, especially in research systems to be found in laboratories cannot be examined.

Weiterhin ist es bekannt, auf einem Förderband transportierte Gegenstände, wie z. B. Schrauben etc. mit Hilfe eines Hand­ habungsroboters zu sortieren, wobei der Roboter über ein Bildverarbeitungssystem angesteuert wird. Das Bildverarbeitungs­ system sucht nach gewünschten (fehlerfreien) Objekten, die der Roboter in entsprechende vorgegebene Kästen transportiert. Hier hat der Rechner also eine Wiederfinderungserwartung bezüglich der zu sortierenden Objekte, d. h. es ist lediglich eine Ja/Nein- Entscheidung zu treffen, ob das Objekt mit einem im Rechner gespeicherten Referenzobjekt übereinstimmt. Ein derartiges Bildverarbeitungssystem sucht also nach gewünschten Objekten, während es im Falle der Erstellung der Artenliste um ein Identifizieren unbekannter Objekte geht, deren Lage im Raum beliebig sein kann.Furthermore, it is known to be transported on a conveyor belt Items such as B. screws etc. with the help of a hand habitation robots to sort, with the robot over a Image processing system is controlled. The image processing system searches for desired (error-free) objects that the Robots are transported in the appropriate predefined boxes. Here So the calculator has an expectation of recovery the objects to be sorted, d. H. it's just a yes / no- Decide whether to use the object in the computer stored reference object matches. Such a thing  Image processing system therefore searches for desired objects, while it is a case of creating the species list Identify unknown objects, their location in space can be any.

Darüberhinaus können die Objekte in den zu untersuchenden flüssigen Proben auch als Clusterobjekte auftreten. Unter Clusterobjekten werden hier mehrere zusammenhängende Objekte verstanden, z. B. können sich an einer Flocke mehrere Mikro­ organismen anheften, so daß ein Clusterobjekt entsteht, das aus unbelebten und belebten Objekten ggf. verschiedener Arten besteht. Die Objekte eines derartigen Clusterobjektes können sich darüberhinaus gegenseitig bedecken bzw. überlappend vorliegen oder gar miteinander verflochten sein, so daß zunächst eine Trennung des Clusterobjektes in die einzelnen Objekte erforderlich ist. Wie bereits erwähnt, bewegen sich einige der Objekte in der Probe, d. h. die Objekte sind ggf. orts- und formveränderlich. Eine Objektart ist darüberhinaus in ver­ schiedenen Entwicklungsstufen anzutreffen, also in verschiedenen Größen. Weiterhin ist zu berücksichtigen, daß zwischen den Abmaßen der kleinsten und der größten Objekte nahezu vier Größenordnungen liegen können.In addition, the objects can be examined in the liquid samples also occur as cluster objects. Under Cluster objects become several connected objects here understood, e.g. B. can have several micro on a flake attach organisms so that a cluster object arises, the from inanimate and animate objects, possibly of different types consists. The objects of such a cluster object can also cover each other or overlap be present or even intertwined, so that initially a separation of the cluster object into the individual objects is required. As mentioned earlier, some of the Objects in the sample, d. H. the objects may be local and changeable. An object type is also in ver encountered at different stages of development, i.e. in different Sizes. It should also be borne in mind that between the Dimensions of the smallest and the largest objects almost four Orders of magnitude.

Wegen der hohen Formverschiedenheit der lebenden Objekte können bei dem angestrebten Verfahren nicht alle möglichen Erscheinungs­ formen in einer Art Referenzdatenbank gespeichert werden, da deren Zahl astronomisch hoch ist.Because of the great variety of shapes of living objects not all possible appearances in the desired process forms are stored in a kind of reference database, because whose number is astronomically high.

Mit den bekannten Verfahren und Systemen der Bildverarbeitung ist damit das Erstellen der Artenliste bisher nicht möglich. With the known methods and systems of image processing it is not yet possible to create the species list.  

Aus der EP-B-00 73 140 sind ein derartiges Verfahren und eine derartige Vorrichtung zur zweidimensionalen Untersuchung von Vorlagemasken für die Erstellung von Halbleiterbauteilen bekannt. Die zu untersuchende Maske wird auf einen X/Y-Kreuztisch gelegt und im Durchlichtverfahren kontrastiert. Eine CCD-Kamera nimmt ein Bild dieser Maske auf und leitet es einer Signalverarbei­ tungseinrichtung zur Erzeugung von Bildmusterdaten zu.From EP-B-00 73 140 such a method and a Such device for two-dimensional examination of Template masks known for the creation of semiconductor devices. The mask to be examined is placed on an X / Y cross table and contrasted in transmitted light. A CCD camera picks up an image of this mask and passes it on to a signal processor device for generating image pattern data.

Die Vorrichtung weist einen Speicher für die aktuellen Daten der zu untersuchenden Maske und für vorgegebene Bildmusterdaten einer Referenzmaske auf.The device has a memory for the current data the mask to be examined and for predetermined image pattern data a reference mask.

Um das Problem der beim Ätzprozeß auftretenden abgerundeten Ecken zu berücksichtigen, werden die Referenzdaten, die recht­ winklige Ecken enthalten, derart verändert, daß Vergleichsbilder mit noch zulässigen Eckenabrundungen für einen visuellen Vergleich oder für einen automatischen Vergleich bereitgestellt werden. Der aktuelle Datensatz und der modifizierte Referenz­ datensatz werden dazu einer Vergleichereinrichtung zugeführt, die ermittelt, ob die gemessenen und die vorgegebenen Konturen innerhalb einer Fehlerschwelle übereinstimmen.To the problem of the rounded in the etching process To take corners, the reference data is right contain angled corners, modified so that comparison pictures with still permissible rounded corners for a visual Comparison or provided for automatic comparison will. The current record and the modified reference data set are fed to a comparator device for this purpose, which determines whether the measured and the specified contours match within an error threshold.

Ein ähnliches Verfahren und eine entsprechende Vorrichtung sind aus der EP-A-01 47 205 bekannt. Hier weist das zu untersuchende Muster ein regelmäßig wiederkehrendes Grundmuster auf, das dementsprechend nur einmal als Referenzbildmusterdatensatz vorhanden sein muß.A similar method and a corresponding device are known from EP-A-01 47 205. Here is what is to be examined Pattern on a regularly recurring basic pattern that accordingly only once as a reference image pattern data record must be present.

Bei diesem Verfahren werden die harten Kanten der Vorlagedaten in einer vorgewählten Breite durch nachträglich eingeführte Grau-Werte aufgelöst, um einen Vergleich innerhalb bestimmter Fehlerbreiten zu ermöglichen. With this procedure, the hard edges of the template data in a preselected width by subsequently introduced Gray values resolved to make a comparison within certain ones Enable error widths.  

Wie bereits eingangs erwähnt, werden bei diesen bekannten Verfahren die gemessenen Daten der zu untersuchenden Masken unverändert eingelesen und mit vorgegebenen Daten, die ggf. verändert werden, verglichen.As already mentioned at the beginning, these are known Process the measured data of the masks to be examined read in unchanged and with specified data, which may be changed, compared.

Ferner ist aus der DE-OS 29 03 625 eine Vorrichtung zur automati­ schen Blutanalyse bekannt. Die Vorrichtung verwendet ein digitales Bild- und Mustererkennungssystem mit einer Mikroskop­ optik, wobei ein Verschiebetisch und eine Fokuskontrolle zum Einsatz kommen. Die zu analysierenden Blutzellen müssen hier räumlich voneinander getrennt in einer einzelligen Schicht vorliegen, wobei nur Objekte in einem bestimmten Größenbereich ausgewertet werden. Als zusätzliche Kriterien werden Form und Farbe der Objekte bestimmt.Furthermore, from DE-OS 29 03 625 a device for automati blood analysis known. The device uses a digital image and pattern recognition system with a microscope optics, whereby a sliding table and a focus control for Come into play. The blood cells to be analyzed must be here spatially separated from each other in a single-cell layer exist, with only objects in a certain size range be evaluated. Form and are additional criteria Color of the objects determined.

Wie schon bei dem oben erwähnten Handhabungsroboter hat auch hier das System eine Wiederfindungserwartung bezüglich der zu sortierenden Objekte. Objekte, die in einer dem Rechner nicht vorbekannten Form vorliegen, die also beispielsweise sich zu Clustern zusammengelagert haben oder die eine nicht vorhergesehe­ ne Form angenommen haben, werden als Schmutzeffekt ausgesondert. Formveränderliche oder gar bewegliche Objekte, die sich ggf. zu größeren Clustern zusammengelagert haben, können mit dieser Vorrichtung also nicht analysiert werden.As with the handling robot mentioned above, too here the system has a recovery expectation regarding the sorting objects. Objects that are not in a computer Known form are present, which for example, too Have clustered together or one that is not foreseen have taken on form, are discarded as a dirt effect. Objects that change shape or even move, which may have clustered together to form larger clusters So the device cannot be analyzed.

Eine entsprechende Vorrichtung zur Blutanalyse ist in der DE-OS 24 15 974 beschrieben. Die bekannte Vorrichtung umfaßt einen Verschiebetisch, welcher die zu untersuchende trockene Probe unter einem Mikroskop verfährt. Ferner ist eine Fernseh­ kamera vorgesehen, welche den vom Mikroskop jeweils erfaßten Teil der Probe auf einem Bildschirm darstellt. Während das Anfahren der einzelnen Blutkörperchen automatisiert erfolgen kann, ist ein Operateur erforderlich, der die Blutkörperchen identifiziert und durch Drücken einer entsprechenden Taste klassifiziert. Damit ist dieses Verfahren mit den selben Nachteilen behaftet wie das eingangs erwähnte manuelle Verfahren zur Untersuchung von belebten Schlämmen.A corresponding device for blood analysis is in the DE-OS 24 15 974 described. The known device comprises a sliding table, which is the dry one to be examined Sample moved under a microscope. There is also a television Camera provided, which the one captured by the microscope Represents part of the sample on a screen. During that The individual blood cells are started automatically an operator who needs the blood cells is required  identified and by pressing an appropriate button classified. So this procedure is the same Disadvantages like the manual process mentioned at the beginning for the investigation of activated sludge.

Aus der DE-OS 33 13 789 ist eine mikroskopische Untersuchungsein­ richtung bekannt, bei der im Ermittlungsbetrieb kernhaltige Objekte aufgefunden und anhand einer Reihe von Merkmalen, wie beispielsweise Farbe, Größe und Struktur klassifiziert werden. Auch mit dieser Vorrichtung können nur Objekte klassifiziert werden, für welche eine Wiederfindungserwartung vorhanden ist. Ferner müssen sich die zu untersuchenden Objekte durch wenige aus den optischen Daten ermittelbare Merkmale eindeutig identifi­ zieren lassen.From DE-OS 33 13 789 is a microscopic examination direction known, in which in the investigative operation nucleated Objects found and based on a number of features, such as for example, color, size and structure can be classified. With this device, too, only objects can be classified for which there is an expectation of recovery. Furthermore, the objects to be examined must pass through a few Features identifiable from the optical data clearly identifi decorate.

Damit ist auch dieses Verfahren nicht geeignet, formveränderliche Objekte, die sich ggf. zu Clustern zusammenfinden können, in einer flüssigen Probe aufzufinden, zu identifizieren und zu klassifizieren.This method is therefore also unsuitable Objects that can possibly be clustered in locate, identify, and identify a liquid sample classify.

Weiterhin ist in der DE-OS 38 36 716 ein interaktives Verfahren zur Auswertung von Zellbildern beschrieben, bei dem fachlich geschultes Personal erforderlich ist, um im Dialogbetrieb den Rechner bei der Auswertung zu führen und zu unterstützen. Damit ist dieses Verfahren mit den eingangs bereits erwähnten Nachtei­ len - limitierender Zeitfaktor, hohe Fehlerrate - von manuellen Verfahren behaftet.Furthermore, DE-OS 38 36 716 is an interactive process described for the evaluation of cell images, in the technical trained personnel is required in order to operate the To guide and support computers in the evaluation. In order to is this method with the nightlife already mentioned at the beginning len - limiting time factor, high error rate - from manual Procedure afflicted.

Aus den bereits geschilderten Gründen sind alle diese Verfahren zum automatischen Erstellen der Artenliste nicht geeignet.For the reasons already outlined, all of these procedures are not suitable for the automatic creation of the species list.

Ausgehend von dem insoweit zitierten Stand der Technik ist es Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Erstellen einer Artenliste für eine flüssige Probe zu schaffen, bei dem bzw. bei der ein schneller und hoher Datendurchsatz gewährleistet ist und wobei nur eine geringe Fehlerhäufigkeit auftritt. Die Vorrichtung soll außerdem preiswert zu erstellen und zu betreiben sein. Ferner sollen mit dem neuen Verfahren bzw. der neuen Vorrichtung auch formver­ änderliche Objekte identifiziert werden können, für deren konkrete jeweilige Form keine Wiederfindungserwartung vorliegt, die also so nicht eindeutig vorhersehbar sind.Based on the state of the art cited so far, it is Object of the present invention, a method and Device for creating a list of species for a liquid To create a sample with which a faster and higher Data throughput is guaranteed and only a small one Error frequency occurs. The device is also intended be inexpensive to build and operate. Furthermore should with the new method and the new device also form ver changeable objects can be identified for their there is no concrete expectation of recovery, so they are not clearly predictable.

Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren der eingangs genannten Art mit den Schritten:According to the invention, this object is achieved by a method of the type mentioned at the beginning with the steps:

  • a) optisches Erfassen der Probe als Folge von Bilddaten;a) optical detection of the sample as a result of image data;
  • b) Erkennen und Lokalisieren der Objekte in den erfaßten Bilddaten;b) Recognize and localize the objects in the detected Image data;
  • c) Automatisches Identifizieren der lokalisierten Objekte durch automatisches Vergleichen des jeweiligen lokalisierten Objektes mit einer bestimmten Gruppe von Referenzobjekten, die aufgrund von aus den Bilddaten gewonnenen Grobmerkmalen des lokalisierten Objektes aus einer größeren Gruppe von Referenzobjekten ausgewählt werden;c) Automatic identification of the localized objects by automatically comparing the respective localized Object with a certain group of reference objects, the due to coarse features obtained from the image data of the localized object from a larger group of Reference objects are selected;
  • d) Zählen der identifizierten Objekte nach den jeweiligen Arten; undd) counting the identified objects according to the respective Species; and
  • e) Eintragen der gezählten Objekte in die Artenliste.e) Enter the counted objects in the species list.

Diese Aufgabe wird ebenfalls gelöst durch eine Vorrichtung mit:This object is also achieved by a device with:

  • a) einer Bildaufnahmevorrichtung zum optischen Erfassen der Probe als Folge von Bilddaten;a) an image recording device for optically detecting the Sample as a result of image data;
  • b) einer Lokalisierungseinrichtung zum Erkennen und Lokalisie­ ren der Objekte in den erfaßten Bilddaten;b) a localization device for recognition and localization ren of the objects in the captured image data;
  • c) einer Identifizierungseinrichtung zum automatischen Identifizieren der lokalisierten Objekte; undc) an identification device for automatic Identifying the localized objects; and
  • d) einer Zähleinrichtung zum Zählen der identifizierten Objekte nach den jeweiligen Arten sowie zum Eintragen der gezählten Objekte in die Artenliste, wobei die Identifizierungsein­ richtung eine Sucheinrichtung umfaßt, die die lokalisierten Objekte mit einer Gruppe von Referenzobjekten vergleicht, die sich aufgrund von aus den Bilddaten gewonnenen Grobmerk­ malen des lokalisierten Objektes aus einer größeren Gruppe von Referenzobjekten ergeben, und ein identifiziertes Objekt als solches an die Zähleinrichtung meldet.d) a counting device for counting the identified objects according to the respective types and for entering the counted Objects in the species list, the identification being direction includes a search facility that the localized Compares objects with a group of reference objects, which is due to the coarse feature obtained from the image data paint the localized object from a larger group of reference objects, and an identified object reports as such to the counting device.

Die Aufgabe wird auf diese Weise vollkommen gelöst, denn die Anmelder haben erkannt, daß die Hauptfehlerquelle und der Haupt­ zeitfaktor in dem Identifizieren der Objekte liegt. Durch das automatische Identifizieren mit Hilfe einer Identifizierungsein­ richtung werden Fehler weitgehend ausgeschlossen. Das neue Verfahren und die neue Vorrichtung arbeiten darüberhinaus wesentlich schneller als das auf sich gestellte Personal. Das Lokalisieren der Objekte in den erfaßten Bilddaten könnte zwar noch manuell erfolgen, die Bedienungsperson kann hier jedoch wesentlich ermüdungsfreier arbeiten, als wenn sie auch noch die lokalisierten Objekte identifizieren müßte. Außerdem ist es jetzt nicht mehr unbedingt erforderlich, qualifiziertes Fachpersonal einzusetzen, für das Lokalisieren von Objekten beispielsweise auf einem Datensichtgerät, können auch angelernte Kräfte eingesetzt werden.The task is completely solved in this way, because the Applicants have recognized that the main source of error and the main time factor lies in the identification of the objects. By the automatic identification with the help of an identification direction errors are largely excluded. The new The method and the new device also work much faster than the staff on their own. The Localization of the objects in the captured image data could indeed can still be done manually, but the operator can do so here work much less tired than if they also would have to identify the localized objects. Besides, is it is no longer absolutely necessary, qualified  Use specialist staff to locate objects for example on a data display device, can also be taught Forces are used.

Da das Verfahren in automatisierte/automatisierbare Einzel­ schritte zerlegt ist, können beispielsweise erst alle Objekte lokalisiert werden bevor die automatischen Identifizierungs­ prozesse ablaufen. Andererseits ist es aber auch möglich, wenn die automatische Identifizierungseinrichtung sehr schnell arbeitet, jedes lokalisierte Objekt sofort zu identifizieren.Since the process is automated / automatable single steps can be broken down, for example, all objects be localized before the automatic identification processes run. On the other hand, it is also possible if the automatic identification device very quickly works to immediately identify each localized object.

Die neue Vorrichtung bzw. das neue Verfahren arbeitet also derart, daß zunächst aus den Bilddaten Grobmerkmale der Objekte extrahiert werden, aufgrund welcher dann aus den vorhandenen Referenzobjekten eine enge Gruppe ausgewählt wird, mit der dann die zu identifizierenden Objekte verglichen werden. Es handelt sich also sozusagen um ein wissensbasiertes Verfahren.The new device or the new method therefore works in such a way that first of all rough features of the objects from the image data are extracted, based on which then from the existing Reference objects a narrow group is selected, with which then the objects to be identified are compared. It deals a knowledge-based process, so to speak.

In einer bevorzugten Weiterbildung ist das Verfahren durch den weiteren Schritt gekennzeichnet:In a preferred development, the method is characterized by the marked further step:

  • f) Automatische, interpretierende Bewertung der Eintragungen in der Artenliste unter Verwendung zielangepaßter Methoden aus Ökologie, Biologie und Ethologie.f) Automatic, interpretative evaluation of the entries in the species list using targeted methods from ecology, biology and ethology.

Diese Maßnahme hat den Vorteil, daß die Artenliste nicht nur automatisch erstellt, sondern auch automatisch interpretiert wird, so daß mit dem neuen Verfahren ohne Zwischenschaltung des Menschen eine Aussage über den ökologischen Zustand der untersuchten Probe möglich wird. This measure has the advantage that the species list is not only created automatically, but also interpreted automatically is, so that with the new method without intermediary a statement about the ecological status of human beings examined sample is possible.  

Bei dem bisher beschriebenen Verfahren ist es bevorzugt, wenn vor dem Schritt des automatischen Identifizierens das jeweils lokalisierte Objekt folgenden Verfahrensschritten unterzogen wird:In the method described so far, it is preferred if before the step of automatically identifying each localized object subjected to the following process steps becomes:

  • c1) Automatisches Erkennen des Vorliegens eines aus mehreren zusammenhängenden sich ggf. überlappenden, miteinander verflochtenen Objekten bestehenden Clusterobjektes;c1) Automatic detection of the presence of one of several contiguous, possibly overlapping, with each other intertwined objects of existing cluster object;
  • c2) Abspalten eines Subobjektes von dem Clusterobjekt undc2) splitting off a sub-object from the cluster object and
  • c3) Vergleichen des Subobjektes oder des lokalisierten Objektes mit Referenzobjekten (Schritt c von oben).c3) comparing the sub-object or the localized object with reference objects (step c from above).

Hier ist von Vorteil, daß ein Clusterobjekt, das automatisch erkannt wird, in Subobjekte zerlegt wird, die sukzessive mit den zur Verfügung stehenden Referenzobjekten verglichen werden.The advantage here is that a cluster object that automatically is recognized, broken down into sub-objects, which are successively included be compared to the available reference objects.

Da die Zahl der möglichen Clusterobjekte, die sich in einer flüssigen Probe finden können, riesig groß ist, wäre es nicht möglich, alle möglichen Clusterobjekte als Referenzobjekte vorrätig zu halten. Durch das Zerlegen der Clusterobjekte in Subobjekte wird die Zahl der erforderlichen Referenzobjekte und damit die Zahl der erforderlichen Vergleiche folglich stark reduziert. Dies führt zu einem schnelleren Ablauf des neuen Verfahrens.Since the number of possible cluster objects that are in one liquid sample is huge, it wouldn't be possible, all possible cluster objects as reference objects to keep in stock. By breaking the cluster objects into Subobjects becomes the number of reference objects required and consequently the number of comparisons required is strong reduced. This leads to a faster expiry of the new one Procedure.

In diesem Ausführungsbeispiel ist es bevorzugt, wenn das automatische Identifizieren die weiteren Schritte aufweist:In this embodiment, it is preferred if that automatic identification which includes the further steps:

  • c4) Auswählen des zu einem identifizierten Subobjekt gehörenden Referenzobjektes, c4) Selecting the one belonging to an identified sub-object Reference object,  
  • c5) Erzeugen eines modifizierten Clusterobjektes durch Vermindern des Clusterobjektes um das ausgewählte Referenzobjekt undc5) Generation of a modified cluster object by reducing the cluster object around the selected reference object and
  • c6) Behandeln des modifizierten Clusterobjektes wie ein lokalisiertes Objekt.c6) treat the modified cluster object as a localized object.

Diese Maßnahme ist insofern vorteilhaft, als bei dem Abspalten des Subobjektes nicht zwangsläufig ein vollständiges Hauptobjekt von dem Clusterobjekt abgespalten wurde. Es ist möglich, daß das abgespaltene Subobjekt nur ein Teil eines an dem Cluster­ objekt hängenden Einzelobjektes ist. Durch das Auswählen des zu dem Teilobjekt gehörenden Referenzobjektes oder Hauptobjektes wird die Zahl der erforderlichen Zerlegungen eines Cluster­ objektes reduziert. Das Clusterobjekt wird nämlich nicht nur um das Subobjekt, sondern um weitere Teilobjekte des zu dem identifizierten Subobjekt gehörenden Hauptobjektes oder Refe­ renzobjektes reduziert. Das modifizierte Clusterobjekt enthält also ggf. wesentlich weniger Subobjekte als wenn nur das zuvor angesprochene Subobjekt von dem Clusterobjekt abgezogen worden wäre.This measure is advantageous insofar as it is split off of the sub-object is not necessarily a complete main object was split off from the cluster object. It is possible that the split off sub-object is only part of one on the cluster object hanging single object. By selecting the reference object or main object belonging to the sub-object becomes the number of splits required for a cluster object reduced. The cluster object is not just around the sub-object, but around further sub-objects of the to identified sub-object belonging main object or Refe boundary object reduced. Contains the modified cluster object so possibly significantly fewer sub-objects than if only that previously addressed sub-object has been subtracted from the cluster object would.

Hier ist es weiter bevorzugt, wenn das automatische Erkennen des Vorliegens eines Clusterobjektes die Schritte umfaßt:Here it is further preferred if the automatic detection the presence of a cluster object comprises the steps:

  • c1a) Bestimmung einer Länge/maximalen Ausdehnung des lokalisierten Objektes,c1a) Determination of a length / maximum extent of the localized Object,
  • c1b) Bestimmung von quer zu der Länge verlaufenden Breiten des lokalisierten Objektes undc1b) Determination of the widths of the localized object and
  • c1c) Beurteilung der Abweichungen der Breiten untereinander sowie der Lage der Breiten zu der Länge, um das Vorliegen eines Clusterobjektes zu bestimmen.c1c) Assessment of the deviations of the widths among each other as well as the location of the latitudes to the longitude to the presence to determine a cluster object.

Bei diesen Maßnahmen ist von Vorteil, daß aus rein geometrischen Angaben, nämlich der Länge und den quer zu der Länge genommenen Breiten erkannt werden kann, ob ein Objekt oder ein Clusterobjekt vorliegt. Bei einem Clusterobjekt weichen nämlich die Breiten sehr stark voneinander ab, da beispielsweise lange, dünne Objekte und eher kugelförmige Objekte miteinander verbunden sind. Weiterhin liegen bei Clusterobjekten, die beliebige geometrische Formen annehmen, zumindest einige der Breiten ′′außerhalb′′ der Länge, d. h. das Clusterobjekt ist dermaßen gewunden, daß die Länge teilweise außerhalb des Umrisses des Clusterobjektes verläuft.The advantage of these measures is that they are purely geometric Information, namely the length and the taken transversely to the length Widths can be recognized whether an object or a cluster object is present. The widths of a cluster object are different very different from each other, for example, long, thin objects and spherical objects are connected to each other. Furthermore, there are arbitrary geometric objects in cluster objects Take shape at least some of the latitudes '' outside '' the Length, d. H. the cluster object is so tortuous that the Length partially outside the outline of the cluster object runs.

In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn der Schritt des Erkennens und Lokalisierens der Objekte die automatische Überführung eines Objektes in ein Teilbild und danach das automatische Detektieren von in sich geschlossenen Umrissen umfaßt.In a development of the method, it is preferred if the step of recognizing and locating the objects automatic transfer of an object into a drawing file and then the automatic detection of self-contained Outlines include.

Bei dieser Maßnahme ist von Vorteil, daß durch das Überführen eines Objektes in ein Teilbild zunächst die weiter zu ver­ arbeitenden Daten reduziert werden, es muß nicht das gesamte Bild, sondern nur das ein oder mehrere Objekte umfassende Teilbild weiter verarbeitet werden.This measure has the advantage that the transfer of an object in a drawing file first to be further ver working data are reduced, it does not have to be the whole Image, but only the one or more objects Drawing file can be processed further.

Ferner ist es bevorzugt, wenn der Schritt des optischen Erfassens der Probe das automatische Aufnehmen von Bildfeldern unter­ schiedlicher Vergrößerung umfaßt, wobei von der Probe je Vergrößerung über ihr Volumen verteilte Bildfelder aufgenommen werden.It is further preferred if the step of optical detection automatic recording of image fields under the sample includes different magnifications, depending on the sample Image fields spread over their volume will.

Auf diese vorteilhafte Weise kann die Probe sukzessiv mit verschiedenen Vergrößerungsfaktoren abgetastet oder gescannt werden, so daß in Abhängigkeit von der Größe der zu lokalisieren­ den Objekte das gesamte Volumen der Probe mit einer gewissen Anzahl von Bildfeldern vollständig erfaßt werden kann. Da dieses Abtasten automatisch erfolgt, werden die beim manuellen Durch­ suchen einer flüssigen Probe häufig auftretenden Fehler - es werden bestimmte Bereiche der Probe "vergessen" - vermieden. Auch wird die Probe so mit sämtlichen erforderlichen Vergröße­ rungsfaktoren durchsucht. Wegen der nahezu vier Größenordnungen überstreichenden verschiedenen Größen der einzelnen Objekte führt dies zu einem hohen Datenaufkommen. Durch den automati­ sierten Ablauf ist sichergestellt, daß sämtliche Daten erfaßt und verarbeitet werden.In this advantageous manner, the sample can be added successively various magnification factors sampled or scanned be localized so that depending on the size of the  the objects the entire volume of the sample with a certain Number of image fields can be completely captured. Because of this Scanning is done automatically, the manual through looking for a liquid sample of common mistakes - it certain areas of the sample are "forgotten" - avoided. The sample is also made with all the necessary magnifications factors searched. Because of the almost four orders of magnitude sweeping different sizes of each object this leads to a high volume of data. Through the automati Process is ensured that all data is recorded and processed.

Hier sei erwähnt, daß unter "Bildfelder" eine Zusammenstellung oder Zusammenfassung von "Bilddaten" verstanden wird, die einen bestimmten Abschnitt der Probe wiedergeben. Bei "Bildfeldern" handelt es sich folglich um "zusammengehörende" Bilddaten.It should be mentioned here that under "Image fields" a compilation or summary of "image data" is understood that one play back a specific section of the sample. With "image fields" it is consequently "related" image data.

Bei diesem Verfahren ist es weiterhin bevorzugt, wenn der Schritt des Lokalisierens das Zusammenfassen mehrerer Bildfelder, über die sich ein Objekt erstreckt, zu einem Überlagerungsbild umfaßt.In this method, it is further preferred if the step of localizing the merging of several image fields, via which extends an object to form an overlay image.

Durch diese vorteilhafte und einfache Maßnahme werden Objekte, deren Größe so ist, daß sie sich über mehrere Bildfelder erstrecken, dennoch als ein Objekt lokalisiert und können in einem einzigen Vergleichsablauf einem Referenzobjekt zugeordnet werden.This advantageous and simple measure makes objects, the size of which is such that it extends over several image fields extend, yet localized as an object and can be in assigned a reference object to a single comparison process will.

In einer Weiterbildung des Verfahrens ist es bevorzugt, wenn der Schritt des Erkennens und Lokalisierens der Objekte das Detektieren von Bereichen gleicher oder ähnlicher Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt. In a development of the method, it is preferred if the step of recognizing and locating the objects Detection of areas of the same or similar real color, True color samples or real color areas.  

Diese Maßnahme ist insofern vorteilhaft, als es in den Bilddaten typische Farben für Flocken, Algen, Fäden etc. sowie für den Hintergrund gibt. Auf diese Weise können beispielsweise die immer grün erscheinenden Algen oder die jeweils gelblich zu erkennenden Flocken von dem immer andersfarbigen Hintergrund unterschieden werden.This measure is advantageous in that it is in the image data typical colors for flakes, algae, threads etc. as well as for the Background there. In this way, for example algae that appear green or yellowish recognizing flakes from the always different colored background be distinguished.

Ferner ist es bevorzugt, wenn der Vergleich zwischen Objekt bzw. Suchobjekt einerseits und Referenzobjekt andererseits auf der Basis dreidimensionaler virtueller Vektorgraphikdarstellungen erfolgt.It is further preferred if the comparison between object or search object on the one hand and reference object on the other the basis of three-dimensional virtual vector graphics he follows.

Durch den quasi-optischen virtuellen Vergleich wird gegenüber dem reinen Vergleich von extrahierten Grobmerkmalen der Vorteil erzielt, daß auch Merkmale in die Identifizierung einbezogen werden können, welche sich nicht in Form von beispielsweise Algorhythmen niederlegen lassen. So können die Referenzobjekte Feinststrukturen aufweisen, anhand derer ein leichtes Identifi­ zieren der Suchobjekte möglich ist, während die Aufspaltung dieser Feinststrukturen in Merkmale, die einem binären Ent­ scheidungsbaum zugrundeliegen würden, nicht möglich erscheint.The quasi-optical virtual comparison is compared the pure comparison of extracted rough features is the advantage achieved that features are also included in the identification can be, which is not in the form of, for example Have algorithms laid down. So the reference objects Show very fine structures, on the basis of which an easy identification grace the search objects is possible while splitting of these very fine structures in characteristics that a binary Ent divorce tree would not be possible.

In diesem Ausführungsbeispiel ist es ferner bevorzugt, wenn der Schritt des automatischen Erkennens eines Clusterobjektes das Zerlegen des Clusterobjektes in Bereiche verschiedener Echtfarben, Echtfarbbereiche und/oder Echtfarbkontraste umfaßt.In this embodiment it is further preferred if the step of automatically recognizing a cluster object the disassembly of the cluster object into different areas True colors, real color areas and / or true color contrasts.

Diese Maßnahme ist insofern von Vorteil, als sich ein Cluster­ objekt immer in Bereiche verschiedener Farben und Farbkontraste aufspalten läßt. Auf diese Weise ist es möglich, aus den Bilddaten zusätzliche - physikalische Größen betreffende - Aussagen über ein Clusterobjekt zu gewinnen, die eine Zerlegung in Subobjekte ermöglichen. This measure is advantageous in that a cluster object always in areas of different colors and color contrasts can split. This way it is possible to get out of the Image data additional - relating to physical quantities - To gain statements about a cluster object that is a decomposition enable in subobjects.  

Außerdem ist es hier bevorzugt, wenn das Clusterobjekt in Bereiche unterschiedlicher Bewegung, geometrischer Form und/oder Größe zerlegt wird.It is also preferred here if the cluster object is in Areas of different movement, geometric shape and / or Size is disassembled.

Auch diese Kriterien ermöglichen in vorteilhafter Weise ein automatisches Erkennen von Subobjekten in einem Clusterobjekt.These criteria also advantageously enable one automatic detection of sub-objects in a cluster object.

Hinsichtlich der neuen Vorrichtung ist es bevorzugt, wenn sie eine Bewertungseinrichtung zur automatischen, interpretieren­ den Bewertung der Eintragung in die Artenliste unter Verwendung zielangepaßter Methoden aus Ökologie, Biologie und Ethologie umfaßt.With regard to the new device, it is preferred if they automatically interpret an evaluation device the assessment of the entry in the species list using Targeted methods from ecology, biology and ethology includes.

Diese Maßnahme hat den bereits erwähnten Vorteil, daß auch bei der Bewertung der Artenliste der Mensch als mögliche Fehlerquelle ausgeschaltet wird.This measure has the advantage already mentioned that the evaluation of the list of species as a possible source of error is turned off.

Hier ist es ferner bevorzugt, wenn die Sucheinrichtung einen virtuell-optischen Vergleicher umfaßt, der für den Vergleich zwischen Objekt und Referenzobjekt auf der Basis dreidimensiona­ ler virtueller Vektorgraphikdarstellungen vorgesehen ist.It is further preferred here if the search device has a includes virtual-optical comparator for comparison between object and reference object based on three dimensions Virtual vector graphic representations is provided.

Bei dieser Maßnahme ist von Vorteil, daß der quasi-optische Vergleich dreidimensionaler Darstellungen es ermöglicht, Feinststrukturen zu berücksichtigen, die sich nicht als ver­ gleichbare Einzelmerkmale aus den Bilddaten extrahieren lassen.This measure has the advantage that the quasi-optical Comparison of three-dimensional representations it allows To take into account the finest structures that are not ver Have comparable individual features extracted from the image data.

Weiterhin ist es bevorzugt, wenn die Identifizierungseinrichtung eine Clusterzerlegungseinrichtung zum Erkennen von aus mehreren zusammenhängenden, sich ggf. überlappenden oder miteinander ver­ flochtenen Objekten bestehenden Clusterobjekten und zum Zerlegen der Clusterobjekte in Subobjekte aufweist, wobei die Clusterzer­ legungseinrichtung bei Vorliegen eines Clusterobjektes eines von dessen Subobjekten der Sucheinrichtung zuführt.Furthermore, it is preferred if the identification device a cluster decomposition device for recognizing from several contiguous, possibly overlapping or ver braided objects existing cluster objects and for disassembly  the cluster objects into sub-objects, the clusterzer in the presence of a cluster object from its subobjects to the search facility.

Hier ist von Vorteil, daß mit der neuen Vorrichtung auch solche Proben untersucht werden können, in denen sich Objekte zu Clusterobjekten zusammengelagert haben. Weiterhin ist von Vorteil, daß in dem Vorrat an Referenzobjekten nicht sämtliche möglichen Clusterobjekte vorhanden sein müssen, sondern daß ein Clusterobjekt in kleinere Subobjekte zerlegt wird, welche sich ohne großen Aufwand in die vorgegebene Zahl der Referenz­ objekte einreihen lassen. Im allgemeinen ist es sogar so, daß das Subobjekt ein einzelnes Referenzobjekt oder Hauptobjekt oder zumindest ein wesentlicher Teil eines Hauptobjektes ist, so daß die vorgegebenen Referenzobjekte unmittelbar auch zur Bearbeitung von Proben verwendet werden können, in denen sich Clusterobjekte befinden.The advantage here is that with the new device also such Samples can be examined in which objects are too Have clustered objects together. Furthermore from Advantage that not all of the reference objects are in stock possible cluster objects must exist, but that a cluster object is broken down into smaller sub-objects, which yourself into the specified number of references with little effort arrange objects. In general, it is even the case that the sub-object is a single reference object or main object or at least an essential part of a main object, so that the specified reference objects are also immediately available Processing samples can be used in which Cluster objects.

In einer Weiterbildung ist es bevorzugt, wenn die Clusterzer­ legungseinrichtung eine Clustererkennungseinrichtung zum Erkennen eines Clusterobjektes sowie eine Vorrichtung aufweist, die ein Subobjekt in einem Clusterobjekt erkennt, das Subobjekt von dem Clusterobjekt abspaltet und der Sucheinrichtung zuführt.In a further development it is preferred if the clusterzer a cluster recognition device for recognition of a cluster object and a device that a Sub-object in a cluster object recognizes the sub-object of splits off the cluster object and feeds it to the search facility.

Diese Maßnahme ist insbesondere konstruktiv von Vorteil, weil die Clusterzerlegungseinrichtung sozusagen aus zwei Baugruppen aufgebaut werden kann.This measure is particularly advantageous in terms of construction because the cluster decomposition device, so to speak, from two assemblies can be built.

Ferner ist es bevorzugt, wenn die Clusterzerlegungseinrichtung einen virtuell-optisch arbeitenden Differenzbildner aufweist, der von dem Clusterobjekt das zu einem identifizierten Subobjekt ge­ hörende Referenzobjekt abzieht und so ein modifiziertes Cluster­ objekt erzeugt, das der Clustererkennungseinrichtung zugeführt wird.It is further preferred if the cluster decomposition device has a virtually optical working difference generator, which  from the cluster object to an identified sub-object subtracts listening reference object and thus a modified cluster generates object, which is fed to the cluster recognition device becomes.

Diese vorteilhafte Maßnahme ermöglicht das sukzessive oder iterative "Abarbeiten" eines Clusterobjektes. Zunächst wird ein Subobjekt erkannt und dann wird das zu dem Subobjekt gehörende Hauptobjekt, das mehr Merkmale aufweisen kann als das Subobjekt selbst, von dem Clusterobjekt abgezogen, so daß das Clusterobjekt nicht nur um das Subobjekt sondern um weitere, noch nicht verglichene Subobjekte reduziert wird. Auf diese Weise muß nicht jedes einzelne Subobjekt des Clusterobjektes mit den Referenzobjekten verglichen werden, so daß die Bear­ beitungszeit für ein Clusterobjekt deutlich verringert wird.This advantageous measure enables the successive or iterative "processing" of a cluster object. First of all a sub-object is recognized and then that becomes the sub-object main object that can have more features than the sub-object itself, subtracted from the cluster object, so that the cluster object not only around the sub-object but also around others, sub-objects not yet compared is reduced. To this Way not every single sub-object of the cluster object be compared with the reference objects so that the Bear processing time for a cluster object is significantly reduced.

Ferner ist es bevorzugt, wenn die Clustererkennungseinrichtung eine Vorrichtung zur Bestimmung einer Länge des Objektes oder Clusterobjektes sowie eine Vorrichtung aufweist, die zur Bestimmung von quer zu der Länge verlaufenden Breiten des Objektes oder Clusterobjektes vorgesehen ist, und wenn ferner eine Qualifizierungseinrichtung vorgesehen ist, die anhand von Abweichungen der Breiten zueinander und anhand der Lage der Breiten zu der Länge erkennt, ob das lokalisierte Objekt ein Clusterobjekt ist.It is further preferred if the cluster recognition device a device for determining a length of the object or Cluster object and has a device for Determination of the widths of the transverse to the length Object or cluster object is provided, and if further a qualification facility is provided which is based on Deviations of the widths from each other and based on the position of the Latitude to Longitude detects whether the localized object is a Is cluster object.

Durch diese einfache und vorteilhafte Weise wird anhand von rein geometrischen Daten entschieden, ob ein Clusterobjekt vorliegt. Die Längenbestimmung ist nichts weiter als das Schlagen eines Umkreises um das gesamte Objekt, während die Breitenbestim­ mung ggf. nach einer entsprechenden Koordinatentransformation eine reine Differenzbildung zwischen jeweils zwei Punkten auf dem Umriß des Objektes darstellt. Wie bereits oben erwähnt, unterscheiden sich Clusterobjekte von einzelnen Objekten dadurch, daß die Breiten stark variieren und daß außerdem das Cluster­ objekt dermaßen unregelmäßig geformt ist, daß die "Länge" sozusagen zumindest bereichsweise "außerhalb" des Umrisses des Clusterobjektes liegt.This simple and advantageous way is based on purely geometrical data decided whether a cluster object is present. The length determination is nothing more than hitting of a radius around the entire object, while the latitude if necessary after a corresponding coordinate transformation a pure difference between two points represents the outline of the object. As mentioned above,  cluster objects differ from individual objects in that that the latitudes vary widely and that the cluster also is irregularly shaped so that the "length" at least in some areas, so to speak, "outside" the outline of the Cluster object lies.

Weiterhin ist es bevorzugt, wenn die Clustererkennungseinrichtung eine Vorrichtung aufweist, die anhand von Bewegungsvorgängen in Teilbereichen und/oder von zusammenhängenden Bereichen gleicher Farbe erkennt, ob das lokalisierte Objekt ein Cluster­ objekt ist.It is further preferred if the cluster detection device has a device based on movement processes in partial areas and / or related areas same color detects whether the localized object is a cluster object is.

Hier ist von Vorteil, daß auch innere Bewegungsvorgänge in dem Clusterobjekt, das beispielsweise aus Flocken und beweglichen Mikroorganismen bestehen kann, zur Clustererkennung verwendet werden. Dazu können auch Bereiche gleicher oder ähnlicher Farbe herangezogen werden, denn die Flocken und verschiedene Mikroorga­ nismen weisen in den Bilddaten regelmäßig unterschiedliche Farben auf. So sind die Flocken oft gelblich, während z. B. Algen meist grünlich erscheinen.It is advantageous here that internal movement processes in the Cluster object, for example made of flakes and movable Microorganisms can exist, used for cluster detection will. This can also include areas of the same or similar color be used because the flakes and various microorganisms nisms regularly show different colors in the image data on. The flakes are often yellowish, while e.g. B. algae mostly appear greenish.

Ferner ist es bevorzugt, wenn die Lokalisiereinrichtung einen Umrißdetektor aufweist, der in den Bilddaten geschlossene Bereiche gleicher Echtfarbenbereiche detektiert, als Objekt erkennt und lokalisiert und danach in sich geschlossene Umrisse ermittelt.It is further preferred if the localization device has a Has outline detector, the closed in the image data Areas of the same true color areas are detected as an object recognizes and localizes and then self-contained outlines determined.

Diese Maßnahme ist insofern von Vorteil, als sowohl Objekte als auch Clusterobjekte in den Bilddaten immer einen in sich geschlossenen Umriß aufweisen. Auch hier ist es also anhand einfacher geometrischer Operationen möglich, ein Objekt oder Clusterobjekt zu lokalisieren. Zusätzlich können auch die Farbinformationen dazu verwendet werden, Objekte vor dem stets anders farbigen Hintergrund zu lokalisieren.This measure is advantageous in that both objects as well as cluster objects in the image data always one in itself have a closed outline. So here it is also based simple geometric operations possible, an object or  Localize cluster object. In addition, the Color information is used to keep objects in front of the locate different colored background.

Bei diesem Ausführungsbeispiel ist es ferner bevorzugt, wenn die Bildaufnahmevorrichtung ein Bildaufnahmesystem mit ein­ stellbarer optischer Vergrößerungseinrichtung sowie eine Verfahreinrichtung aufweist, durch welche die Probe relativ zu der Vergrößerungseinrichtung verfahrbar ist, derart, daß mittels des Bildaufnahmesystems von der Probe über ihr Volumen verteilt Bildfelder mit unterschiedlichen Vergrößerungsein­ stellungen aufnehmbar sind.In this embodiment it is further preferred if the image capturing device includes an image capturing system adjustable optical enlarger and a Has traversing device through which the sample is relative is movable to the enlarger, such that by means of the image acquisition system of the sample over its volume distributes image fields with different magnifications positions are recordable.

Durch diese Maßnahme wird die Probe vollständig abgetastet, wobei je nach gewählter Vergrößerung die Zahl der Bildfelder, die erforderlich ist, um das gesamte Volumen der Probe zu repräsentieren, variiert. Durch die Möglichkeit, verschiedene Vergrößerungseinstellungen zu wählen, können sowohl sehr kleine Objekte wie z. B. Bakterien (1 µm) als auch sehr große Objekte mit Abmaßen von mehreren mm detektiert werden.With this measure, the sample is completely scanned, depending on the selected magnification, the number of image fields, which is required to make up the entire volume of the sample represent, varies. Because of the possibility of different Choosing magnification settings can be both very small Objects such as B. bacteria (1 µm) as well as very large objects can be detected with dimensions of several mm.

In dieser Ausführungsform ist es bevorzugt, wenn die Lokali­ siereinrichtung eine Vorrichtung aufweist, die anhand der von dem Umrißdetektor in den Bildfeldern detektierten Umrisse für ein sich über mehrere Bildfelder erstreckendes Objekt ein Überlagerungsbild erstellt.In this embodiment, it is preferred if the loci Siereinrichtung has a device that is based on the the outline detector in the image fields for an object that extends over several image fields Overlay image created.

Durch diese Maßnahme wird in einfacher und vorteilhafter Weise erreicht, daß auch bei Objekten, die sich an sich über mehrere Bildfelder erstrecken, und somit mehrfach mit Referenzobjekten verglichen werden müßten, ein einmaliger Vergleich mit den zur Verfügung stehenden Referenzobjekten ausreicht. Dies führt zu einem schnelleren Ablauf bei dem Erstellen der Artenliste. This measure is simple and advantageous achieved that even with objects that are themselves over several Image fields extend, and therefore several times with reference objects should be compared, a one-time comparison with those for Available reference objects is sufficient. this leads to a faster process when creating the species list.  

Ferner ist es bevorzugt, wenn die Lokalisiereinrichtung einen Bewegungsdetektor aufweist, der anhand der detektierten Umrisse und/oder des Überlagerungsbildes erkennt, ob das lokalisierte Objektform- und/oder ortsveränderlich ist.It is further preferred if the localization device has a Has motion detector based on the detected outlines and / or the overlay image recognizes whether the localized Object shape and / or is changeable.

Diese Maßnahme ist insofern von Vorteil, als anhand bereits vorliegender Informationen, nämlich der detektierten Umrisse und des Überlagerungsbildes, auf eine Beweglichkeit des lokali­ sierten Objektes geschlossen wird. Diese Information kann dann bei der Abspaltung von Subobjekten und bei der Eingrenzung der durchzusuchenden Referenzobjekte verwendet werden.This measure is advantageous in that it is based on already available information, namely the detected outlines and the overlay image, on a mobility of the local object is closed. This information can then when splitting off sub-objects and when narrowing down the reference objects to be searched can be used.

Ferner ist es von Vorteil, wenn die Sucheinrichtung eine Vergleichereinrichtung aufweist, die in Abhängigkeit von Ausgangssignalen von Bewertungseinheiten für Echtfarbe, Bewegung, Größe und geometrische Form/Formveränderlichkeit des zu iden­ tifizierenden Objektes oder Subobjektes einen ausgewählten Teil der in einem Referenzobjektspeicher vorgegebenen Referenzobjekte auf virtuell-optische Weise nach dem Objekt/Subobjekt durchsucht.It is also advantageous if the search device has a Comparator device which, depending on Output signals from evaluation units for true color, movement, Size and geometric form / changeability of the iden tifying object or subobject a selected part of the reference objects specified in a reference object memory searches for the object / sub-object in a virtual-optical manner.

Der Anwender hat erkannt, daß sich die in einer Probe vorkom­ menden Objekte durch eine entsprechende Kombination der Kriterien Farbe, Bewegung, Größe und geometrische Form in bestimmte Gruppen aufteilen lassen, so daß bei Vorliegen dieser Kriterien die Zahl der durchzusuchenden Referenzobjekte stark eingeschränkt werden kann. Auch dies führt zu einem schnelleren Ablauf bei der Erstellung der Artenliste.The user has recognized that the occurring in a sample objects by an appropriate combination of the criteria Color, movement, size and geometric shape in certain groups Allow division so that when these criteria are met the The number of reference objects to be searched is severely restricted can be. This also leads to a faster process the creation of the species list.

Bei diesem Ausführungsbeispiel ist es weiterhin bevorzugt, wenn die Vorrichtung zum Erkennen und Abspalten von Subobjekten ein Clusterobjekt in Bereiche verschiedener Echtfarben und/oder Echtfarbkontraste zerlegt und diese Bereiche als Subobjekt behan­ delt. In this embodiment it is further preferred if the device for recognizing and splitting off sub-objects Cluster object in areas of different true colors and / or True color contrasts broken down and these areas treated as sub-objects delt.  

Diese Maßnahme ist insofern von Vorteil, als anhand von bereits vorliegenden physikalischen bzw. geometrischen Daten entschieden wird, welche Bereiche eines Clusterobjektes Subobjekte sind. Es ist also lediglich erforderlich, die Bildfelder mit ent­ sprechender Farbkontrastauflösung aufzunehmen, so daß aus den mit dem Bildaufnahmesystem gewonnenen Daten eine Zerlegung von Clusterobjekten in Subobjekte möglich ist.This measure is advantageous in that based on already available physical or geometric data which areas of a cluster object are subobjects. It is therefore only necessary to add the image fields with ent speaking color contrast resolution so that from the with the image acquisition system, a decomposition of Cluster objects in subobjects is possible.

Hier ist es ferner bevorzugt, wenn die Vorrichtung zum Erkennen und Abspalten von Subobjekten ein Clusterobjekt in Bereiche verschiedener Beweglichkeit, Form und/oder Größe zerlegt und diese Bereiche als Objekt behandelt.Here it is further preferred if the device for recognition and splitting off subobjects into cluster objects different mobility, shape and / or size disassembled and treated these areas as objects.

Wie die vorhergehende Maßnahme ist auch diese insofern von Vorteil, als bereits ermittelte Größen und Kennwerte zur Zerlegung des Clusterobjektes herangezogen werden können. Diese Zerlegung ist damit durch einfache beispielsweise Hardwareschal­ tungen oder Mikroprogrammsteuerwerke möglich, so daß auch hier Zeit eingespart wird.In this respect, like the previous measure, it is also of Advantage as already determined sizes and parameters for Disassembly of the cluster object can be used. These Disassembly is simple, for example, hardware scarf lines or microprogram control units possible, so that here too Time is saved.

Weiterhin ist es bei dem neuen Verfahren und bei der neuen Vorrichtung bevorzugt, wenn für die Speicherung der Referenz­ objekte ein Referenzobjektspeicher vorgesehen ist, in dem die Referenzobjekte in Form virtuell-optischer dreidimensionaler Vektorflächengraphikobjekte gespeichert sind.Furthermore, it is with the new process and with the new Device preferred if for storing the reference objects a reference object memory is provided, in which the Reference objects in the form of virtual-optical three-dimensional Vector area graphic objects are stored.

Bei dieser Maßnahme ist es von Vorteil, daß den Referenzobjekten sozusagen eine Formveränderlichkeit beigegeben werden kann. Im Rahmen einer Vektorgraphik ist es nämlich möglich, die einzelnen Referenzobjekte derart abzuspeichern, daß bestimmte Freiheitsgrade vorgesehen werden können. Das Referenzobjekt muß also lediglich in einer Grundform vorgesehen sein, die sich im Rahmen zulässiger Freiheitsgrade verändern kann. Dadurch, daß der Vergleich auf virtuell-optischer Ebene erfolgt, können zunächst Suchobjekt und Referenzobjekt durch entsprechende mathematische Operationen in größt mögliche Übereinstimmung gebracht werden. Danach wird dann das Referenzobjekt, dem entsprechende Freiheitsgrade beigegeben sind, im Hinblick auf das Suchobjekt solange verändert, bis sich herausstellt, daß es sich an das Suchobjekt anpassen läßt oder nicht. Auf diese Weise können auch Objekte identifiziert werden, für die keine Wiederfindungserwartung besteht, deren konkrete Form also in dem Referenzdatenspeicher nur als Möglichkeit, nicht jedoch unmittelbar abrufbar, gespeichert ist. Es sei noch erwähnt, daß der Vergleich derart durchgeführt wird, daß die das Suchob­ jekt und das Referenzobjekt repräsentierenden verschiedenen Vektoren nach Betrag und Orientierung verglichen werden und daß beispielsweise bei einer Übereinstimmung in 90% der verglichenen Vektoren von der Zugehörigkeit des Suchobjektes zu der durch das gefundene Referenzobjekt repräsentierten Art auszugehen ist.With this measure, it is advantageous that the reference objects a form changeability can be added, so to speak. In the context of a vector graphic it is namely possible to individual reference objects so that certain Degrees of freedom can be provided. The reference object must therefore only be provided in a basic form, which is can change within the permissible degrees of freedom. Thereby,  that the comparison takes place on a virtual-optical level, can first search object and reference object by appropriate mathematical operations in greatest possible agreement to be brought. Then the reference object, the corresponding degrees of freedom are added with regard to changed the search object until it turns out that it can be adapted to the search object or not. To this Objects can also be identified in this way for which none There is an expectation of recovery, the concrete form of which is the reference data storage only as a possibility, but not immediately available, saved. It should be mentioned that the comparison is carried out such that the search ob ject and the reference object representing various Vectors are compared by amount and orientation and that, for example, if there is a match in 90% of the compared vectors from the affiliation of the search object to the species represented by the reference object found is going out.

Es versteht sich, daß die vorstehend genannten und die nach­ stehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen und in Alleinstellung einsetzbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It is understood that the above and the following standing features to be explained not only in each specified combination, but also in other combinations and can be used alone, without the scope of the to leave the present invention.

Die Erfindung ist in der Zeichnung dargestellt und wird in der nachfolgenden Beschreibung näher erläutert. Es zeigen:The invention is illustrated in the drawing and is in the following description explained in more detail. Show it:

Fig. 1 die neue Vorrichtung zur Durchführung des neuen Verfahrens, in einer schematischen Gesamtansicht; Figure 1 shows the new device for performing the new method, in a schematic overall view.

Fig. 2 die Steuer- und Auswerteeinheit der Vorrichtung nach Fig. 1, in einem Prinzipschaltbild; FIG. 2 shows the control and evaluation unit of the device according to FIG. 1 in a basic circuit diagram;

Fig. 3 eine mit der Vorrichtung nach Fig. 1 zu untersuchende Probe, mit schematisch angedeuteten Objekten; Figure 3 is a with the apparatus of Figure 1 to be examined sample with schematically shown objects..;

Fig. 4 eine Reihe von mit der Bildaufnahmevorrichtung nach Fig. 1 aufgenommenen Bildfeldern der Probe nach Fig. 3; FIG. 4 shows a series of image fields of the sample according to FIG. 3 recorded with the image recording device according to FIG. 1;

Fig. 5 die Lokalisiereinrichtung aus der Steuer- und Aus­ werteeinheit nach Fig. 2, in einem schematisierten Blockschaltbild; Fig. 5, the locating means of the control and evaluation unit according to Figure 2, in a schematic block diagram.

Fig. 6 in einer detaillierteren Darstellung ein Bildfeld der Probe nach Fig. 3, mit einer Reihe von Objekten; FIG. 6 is a more detailed representation of an image field of the sample of Figure 3, with a number of objects.

Fig. 7 die Identifizierungseinrichtung der Steuer- und Auswerteeinheit nach Fig. 2, in einem schematisierten Blockschaltbild; FIG. 7 shows the identification device of the control and evaluation unit according to FIG. 2 in a schematic block diagram;

Fig. 8 eines der Clusterobjekte aus dem Bildfeld nach Fig. 6, in einer vereinfachten Darstellung; FIG. 8 shows one of the cluster objects from the image field according to FIG. 6 in a simplified representation;

Fig. 9 die Clustererkennungseinrichtung der Identifizie­ rungseinrichtung nach Fig. 7, in einem schematisierten Blockschaltbild; und FIG. 9 shows the cluster detection device of the identification device according to FIG. 7, in a schematic block diagram; and

Fig. 10 die Sucheinrichtung der Identifizierungseinrichtung nach Fig. 7, in einem schematisierten Blockschaltbild. FIG. 10 the search device of the identification device according to FIG. 7, in a schematic block diagram.

Fig. 1 zeigt eine insgesamt mit 10 bezeichnete Vorrichtung zum Erstellen einer Artenliste für eine zwischen einem Objektträger 11 und einem Deckglas 12 befindliche flüssige Probe 13. Die Probe 13 weist ggf. form- und/oder ortsveränderliche Objekte 14a, 14b unterschiedlicher Arten auf. Die Vorrichtung 10 und das mit ihr durchzuführende Verfahren dienen zum Erstellen einer Artenliste und somit zur Ermittlung des ökologischen Zustandes der Probe 13, die beispielsweise einer Kläranlage oder einem natürlichen Gewässer entnommen sein kann. Fig. 1 a, generally designated 10 shows apparatus for creating a list of species for between a slide 11 and a cover glass 12 contained liquid sample 13. The sample 13 may have objects 14 a, 14 b of different types that are variable in shape and / or location. The device 10 and the method to be carried out with it are used to draw up a list of species and thus to determine the ecological condition of the sample 13 , which can be taken, for example, from a sewage treatment plant or from natural water.

Zur limnologischen Untersuchung ist häufig eine gesonderte Probennahme erforderlich, um Kleinstlebewesen wie Würmer, Insek­ ten oder Schnecken (Größenordnung mm bis cm) erfassen und unter­ suchen zu können. Derartige ebenfalls flüssige Proben werden nicht auf einem Objektträger gehalten, sondern in einer Petri­ schale oder einem Uhrglas.There is often a separate one for limnological examination Sampling required for microorganisms such as worms, insects or snails (order of magnitude mm to cm) and under to be able to search. Such samples are also liquid not on a slide, but in a petri shell or a watch glass.

Die zu untersuchenden Probenräume sind also flüssig und in der Regel optisch durchsichtig. Wegen der hohen Formveränderlichkeit der unterschiedlichen Objekte 14 einerseits und der Tatsache, daß die Objekte 14 nicht immer vereinzelt vorliegen, sondern sich überdecken, überlappen und miteinander verflechten können, andererseits, hat die Vorrichtung 10 gegenüber dem Objekt 14 in der konkret vorliegenden Form häufig keine Wiederfindungser­ wartung, es ist ihr so "nicht bekannt". Das auf der Vorrichtung 10 durchzuführende Verfahren ist daher wissensbasiert und selbst­ adaptierend.The sample rooms to be examined are therefore liquid and generally optically transparent. Because of the high variability of the shape of the different objects 14 on the one hand and the fact that the objects 14 are not always isolated, but can overlap, overlap and interweave with one another, on the other hand, the device 10 often has no recoverers compared to the object 14 in the concrete form maintenance, it is so "not known" to her. The method to be carried out on the device 10 is therefore knowledge-based and self-adapting.

Die Vorrichtung 10 weist eine Bildaufnahmevorrichtung 16 auf, zu der ein Bildaufnahmesystem 17 und eine einstellbare optische Vergrößerungseinrichtung 18 gehören. Weiterhin ist eine Ver­ fahreinrichtung 19 angedeutet, über welche die Probe 13 relativ zu der Vergrößerungseinrichtung 18 verfahren werden kann. Dieses Verfahren erfolgt zumindest in zwei der drei Achsen X, Y und Z eines bei 20 angedeuteten Koordinatensystems. The device 10 has an image recording device 16 , which includes an image recording system 17 and an adjustable optical magnification device 18 . Furthermore, a driving device 19 is indicated, via which the sample 13 can be moved relative to the enlarging device 18 . This method takes place in at least two of the three axes X, Y and Z of a coordinate system indicated at 20 .

In dem gezeigten Ausführungsbeispiel ist die Verfahreinrichtung 19 ein Kreuztisch 22, der in der X/Y-Ebene verfahren werden kann und ggf. eine Hubeinrichtung zur Veränderung seiner Z-Koordinate aufweist.In the exemplary embodiment shown, the moving device 19 is a cross table 22 , which can be moved in the X / Y plane and possibly has a lifting device for changing its Z coordinate.

Die Vergrößerungseinrichtung 18 umfaßt ein Mikroskop 23, das verschiedene Vergrößerungsfaktoren einstellen kann. Durch entsprechendes Fokussieren des Mikroskopes 23 kann gleichfalls die Z-Ebene, welche von dem als CCD-Kamera 24 ausgebildetem Bildaufnahmesystem 17 erfaßt wird, eingestellt bzw. verändert werden.The magnification device 18 comprises a microscope 23 , which can set various magnification factors. By correspondingly focusing the microscope 23 , the Z plane, which is captured by the image recording system 17 designed as a CCD camera 24 , can also be set or changed.

Bei einer limnologischen Untersuchung von Kleinstlebewesen wird statt des Mikroskopes 23 eine in der Zeichnung nicht dargestellte Stereolupe verwendet, an die ebenfalls eine CCD-Kamera 24 angeschlossen ist. Je nach Größe der zu untersuchenden Objekte kann auch eine Bildaufnahmevorrichtung ohne vorgeschaltete Vergrößerungseinrichtung verwendet werden.In a limnological examination of microorganisms, a stereo magnifying glass (not shown in the drawing) is used instead of the microscope 23 , to which a CCD camera 24 is also connected. Depending on the size of the objects to be examined, an image recording device without an upstream magnification device can also be used.

Weiterhin ist eine Steuer- und Auswerteeinheit 26 vorgesehen, die über eine Datenleitung 27 sowie eine Steuerleitung 28 mit der CCD-Kamera 24 verbunden ist. Auf diese Weise erfolgt eine gesteu­ erte Aufnahme und Übertragung von Bilddaten in die Steuer- und Auswerteeinheit 26. Die CCD-Kamera 24 ist außerdem über eine wei­ tere Datenleitung 29 mit einem Massenspeicher 31 verbunden, der beispielsweise ein Videorekorder ist und zur Videoarchivierung der untersuchten Probe dient. Über eine Datenleitung 32 ist der Massenspeicher 31 ebenfalls mit der Steuer- und Auswerteeinheit 26 verbunden, die somit die Bilddaten entweder direkt von der CCD-Kamera 24 oder von dem Massenspeicher 31 abfragen kann.Furthermore, a control and evaluation unit 26 is provided, which is connected to the CCD camera 24 via a data line 27 and a control line 28 . In this way, image data is recorded and transmitted to the control and evaluation unit 26 in a controlled manner. The CCD camera 24 is also connected via a white data line 29 to a mass storage device 31 , which is, for example, a video recorder and is used for video archiving of the examined sample. The mass storage device 31 is likewise connected to the control and evaluation unit 26 via a data line 32 , which can thus query the image data either directly from the CCD camera 24 or from the mass storage device 31 .

Über eine Verbindungsleitung 33 ist ein Datenendgerät/Terminal 34 an die Steuer- und Auswerteeinheit 26 angeschlossen, um einem Benutzer Bilddaten von der Probe 13 anzuzeigen und um ihm die Möglichkeit zu geben, in den Auswerteprozeß einzugreifen. A data terminal / terminal 34 is connected to the control and evaluation unit 26 via a connecting line 33 in order to display image data of the sample 13 to a user and to give him the opportunity to intervene in the evaluation process.

Weiterhin sind zwei Steuerleitungen 35 und 36 gestrichelt angedeutet, über welche die Steuer- und Auswerteeinheit 26 den Kreuztisch 22 sowie das Mikroskop 23 ansteuert.Furthermore, two control lines 35 and 36 are indicated by dashed lines, via which the control and evaluation unit 26 controls the cross table 22 and the microscope 23 .

Mit der insoweit beschriebenen Vorrichtung wird die Probe 13 nacheinander in X-, Y- und Z-Richtung abgetastet (gescannt), so daß am Ende des Abtastvorganges dreidimensionale Bilddaten zur Verfügung stehen. Einige der Objekte 14 sind - wie erwähnt - beweglich, so daß durch erneutes Scannen auch zusätzlich Informationen auf der Zeitachse gewonnen werden können. Die Qualität der Bilder wird dabei wesentlich durch das Objektiv des Mikroskops 23 und durch die Auflösung/Digitalisierung des aufgenommenen Bildes bestimmt. Durch die einstellbare Ver­ größerung des Mikroskopes 23 können Objekte 14 unterschied­ lichster Größen erfaßt werden. Die Bilddaten repräsentieren dabei Echtbilder. Gleichfalls ist es möglich, die Probe 13 einer Fluoreszenzuntersuchung zu unterziehen, indem sie mit einer in Fig. 1 nicht gezeigten Lichtquelle bestrahlt wird, wobei dieses Anregungslicht durch ein entsprechendes Filter in dem Mikroskop 23 wieder herausgefiltert wird.With the device described so far, the sample 13 is successively scanned (scanned) in the X, Y and Z directions, so that three-dimensional image data are available at the end of the scanning process. As mentioned, some of the objects 14 are movable, so that additional information on the time axis can also be obtained by scanning again. The quality of the images is essentially determined by the lens of the microscope 23 and by the resolution / digitization of the captured image. The adjustable magnification of the microscope 23 enables objects 14 of various sizes to be detected. The image data represent real images. Likewise, it is possible to subject the sample 13 to a fluorescence examination by irradiating it with a light source not shown in FIG. 1, this excitation light being filtered out again by a corresponding filter in the microscope 23 .

Die Auswertung der erfaßten Bilddaten erfolgt in der in Fig. 2 detaillierter dargestellten Steuer- und Auswerteeinheit 26. Über die Datenleitungen 27 bzw. 32 werden Bilddaten entweder direkt von der CCD-Kamera 24 oder von dem Massenspeicher 31 in einen Bilddatenspeicher 38 geladen. Über dessen Ausgangs­ leitung 39 gelangen die Bilddaten in eine Lokalisiereinrichtung 40, die in noch näher zu beschreibender Weise die in den Bildern enthaltenen Objekte "wahrnimmt", d. h. erkennt und lokalisiert. Die derart lokalisierten Objekte werden über eine Objektdaten­ leitung 41 in einen Objektdatenspeicher 42 übertragen, von dem sie über seine Ausgangsleitung 43 zu einer Identifizierungsein­ richtung 44 gelangen. The captured image data is evaluated in the control and evaluation unit 26 shown in more detail in FIG. 2. Via the data lines 27 and 32 , image data are loaded either directly from the CCD camera 24 or from the mass storage device 31 into an image data storage device 38 . Via its output line 39 , the image data arrive in a localization device 40 , which "perceives" the objects contained in the images in a manner to be described in more detail, ie recognizes and localizes them. The objects located in this way are transferred via an object data line 41 to an object data memory 42 , from which they arrive via their output line 43 to an identification device 44 .

Die Identifizierungseinrichtung identifiziert das in dem Objektdatenspeicher 42 anstehende lokalisierte Objekt, d. h. sie bestimmt dessen Art, indem sie das Objekt 14 einer jeweils übereinstimmenden Art in einem noch zu beschreibenden Referenz­ objektspeicher als Angehörigen zuordnet. Über eine Objekt­ ausgabeleitung 45 ist die Identifizierungseinrichtung 44 mit einer Zähleinrichtung 46 verbunden, die die identifizierten Objekte zählt und über eine Übergabeleitung 47 in eine bei 48 angedeutete Artenliste einträgt.The identification device identifies the localized object pending in the object data memory 42 , ie it determines its type by associating the object 14 as a member with a corresponding type in a reference object memory to be described. The identification device 44 is connected via an object output line 45 to a counting device 46 , which counts the identified objects and enters a species list indicated at 48 via a transfer line 47 .

Ferner ist in Fig. 2 eine Bewertungseinrichtung 49 angedeutet, welche unter Verwendung zielangepaßter Methoden aus Ökologie, Biologie und/oder Etologie eine automatische Bewertung oder Interpretation der in die Artenliste 48 eingetragenen Daten vornimmt. Die Bewertungseinrichtung 49 liefert aufgrund der Interpretation der Artenliste 48 Aussagen über den ökologischen Zustand und ggf. eine Prognose über die Entwicklung der unter­ suchten Probe 13.Furthermore, an evaluation device 49 is indicated in FIG. 2, which carries out an automatic evaluation or interpretation of the data entered in the species list 48 using target-oriented methods from ecology, biology and / or etology. On the basis of the interpretation of the species list 48, the evaluation device 49 provides statements about the ecological condition and, if necessary, a prognosis about the development of the sample 13 under investigation.

Die insoweit beschriebene Vorrichtung 10 und das auf ihr durchzuführende Verfahren sollen jetzt anhand der Fig. 3 bis 10 näher erläutert werden:The device 10 described so far and the method to be carried out on it are now to be explained in more detail with reference to FIGS. 3 to 10:

In Fig. 3 ist die Probe 13 aus Fig. 1 in vergrößertem Maßstab dargestellt. Durch gedachte Trennlinien 50 ist die Probe 13 in ein Raster von Bildfeldern 51 unterteilt, die nacheinander von der Bildaufnahmevorrichtung 16 aus Fig. 1 abgetastet werden. Zu diesem Zweck wird der Kreuztisch 22 an eine bestimmte X/Y-Koordinate gefahren und dann werden nacheinander in Z-Richtung übereinanderliegende Bildfelder 51 eines Stapels 52 von der CCD-Kamera 24 erfaßt, digitalisiert und als Bilddaten auf die Datenleitungen 27, 29 gegeben. Die Größe der einzelnen Bildfelder 51 richtet sich nach dem Vergrößerungsfaktor, auf den das Mikroskop 23 eingestellt ist. Der Abstand zwischen zwei überein­ anderliegenden Bildfeldern 51a, 51d wird bestimmt durch die Schärfentiefe des Mikroskopes; je geringer dessen Schärfentiefe nämlich ist, desto mehr Bildfelder 51 in einem Stapel 52 müssen erfaßt werden, um die ganze Dicke der Probe 13 durchzumustern.In Fig. 3, the sample 13 of FIG. 1 is shown in an enlarged scale. By imaginary dividing lines 50 , the sample 13 is divided into a grid of image fields 51 , which are scanned in succession by the image recording device 16 from FIG. 1. For this purpose, the cross table 22 is moved to a specific X / Y coordinate and then image fields 51 of a stack 52 lying one above the other in the Z direction are captured, digitized and transmitted as image data to the data lines 27 , 29 by the CCD camera 24 . The size of the individual image fields 51 depends on the magnification factor to which the microscope 23 is set. The distance between two superimposed image fields 51 a, 51 d is determined by the depth of field of the microscope; namely, the smaller its depth of field, the more image fields 51 in a stack 52 have to be captured in order to scan the entire thickness of the sample 13 .

Wenn auf diese Weise ein Stapel 52 "abgearbeitet" wurde, verfährt der Kreuztisch 22 entweder in X- oder in Y-Richtung um die Breite/Länge eines Bildfeldes und das sukzessive Verfahren in Z-Richtung beginnt von neuem. Auf diese Weise wird die Probe 13 sozusagen mäanderförmig abgetastet. Selbstverständlich ist es auch möglich, die Bildfelder 51 in verschiedenen Z-Ebenen nicht in Form eines Stapels 52 anzuordnen, sondern jeweils um einen kleinen Betrag gegeneinander zu versetzen, so daß über alles gesehen eine Zick-Zack-Verfahrlinie entsteht. Gegenüber dem mäanderförmigen Scannen müssen dann weniger Verfahrschritte unternommen werden, um die gesamte Probe 13 abzutasten.When a stack 52 has been “processed” in this way, the cross table 22 moves either in the X or Y direction by the width / length of an image field and the successive movement in the Z direction begins again. In this way, the sample 13 is scanned in a meandering manner, so to speak. Of course, it is also possible not to arrange the image fields 51 in different Z planes in the form of a stack 52 , but to offset them by a small amount in each case, so that a zigzag travel line is created over all. Compared to meandering scanning, fewer travel steps then have to be undertaken to scan the entire sample 13 .

Selbstverständlich wird eine Probe 13 für unterschiedliche Vergrößerungsfaktoren des Mikroskopes 23 jeweils erneut abge­ tastet. Auf diese Weise werden zunächst die großen Objekte 14 mit geringem Vergrößerungsfaktor und dann mit steigender Vergrößerung immer kleinere Objekte 14 erkannt, lokalisiert und identifiziert werden, so daß sie in die Artenliste 48 eingetragen werden können.Of course, a sample 13 is scanned again for different magnification factors of the microscope 23 . In this way, first the large objects 14 with a low magnification factor and then with increasing magnification ever smaller objects 14 are recognized, localized and identified so that they can be entered in the species list 48 .

In Fig. 3 ist zu erkennen, daß die Objekte 14 beliebige Lagen im Raum einnehmen können, so daß sie sich über mehrere Bildfelder 51 erstrecken können.In Fig. 3 it can be seen that the objects 14 can take any positions in space, so that they can extend over several image fields 51 .

Wie in Fig. 4 zu sehen ist, erzeugt ein Objekt 14, das sich in einem Stapel 52 über mehrere übereinanderliegende Bildfelder 51c, 51d und 51e erstreckt, in jedem Bildfeld 51 ein anderes Muster 14′, 14′′ bzw. 14′′′. Um das Objekt 14 identifizieren zu können, ist es zunächst erforderlich, zu entscheiden, über wieviele Bildfelder 51 sich ein Objekt 14 erstreckt. In dem in Fig. 4 gezeigten Beispiel erstreckt sich das Objekt 14 über die Bildfelder 51c-51e. Bedingt durch die Schärfentiefe des Mikroskopes 23 sind jeweils bestimmte Abschnitte des Objektes 14 in der Ebene des Bildfeldes 51 scharf abgebildet, wie dies in Fig. 4 mittels durchgezogener Linien angedeutet ist, während andere Abschnitte des Objektes 14 lediglich verschwommen zu sehen sind. Dies ist in Fig. 4 durch gestrichelte Linien angedeutet.As can be seen in FIG. 4, an object 14 , which extends in a stack 52 over a plurality of image fields 51 c, 51 d and 51 e lying one above the other, produces a different pattern 14 ′, 14 ′ ′ and 14 in each image field 51 '''. In order to be able to identify the object 14 , it is first necessary to decide how many image fields 51 an object 14 extends over. In the example shown in FIG. 4, the object 14 extends over the image fields 51 c- 51 e. Due to the depth of field of the microscope 23 , certain sections of the object 14 are sharply depicted in the plane of the image field 51 , as indicated by solid lines in FIG. 4, while other sections of the object 14 can only be seen as blurred. This is indicated in Fig. 4 by dashed lines.

Um die einzelnen Bildfelder lagerichtig übereinander legen zu können, müssen die Bildfelder 51 zunächst ggf. gedreht und in X-, Y- und/oder Z-Richtung verschoben werden, um die Bewegung des jeweils betrachteten Objektes 14 zu berücksichtigen. Um zu erkennen, ob es sich in verschiedenen Bildfeldern 51a, 51e um ein Objekt 14 handelt, das sich zwischen den Aufnahmen der aufeinanderfolgenden Bildfelder 51 weiter bewegt hat, oder ob verschiedene Objekte 14, 14b betrachtet werden, können zusätzlich Informationen herangezogen werden, die aus Bilddaten stammen, die mit einem geringeren Vergrößerungsfaktor des Bildaufnahme­ systems gewonnen wurden. Bei einem geringeren Vergrößerungs­ faktor, also bei anderer Schärfentiefe, läßt sich nämlich leichter unterscheiden, ob es sich um zwei übereinanderliegende Objekte 14b, 14 oder um ein einziges, sich bewegendes Objekt 14 handelt. Bei dieser Überlagerung der einzelnen Bildfelder 51 fällt sozusagen nebenbei bereits eine Information darüber ab, ob es sich um ein sich bewegendes Objekt 14 handelt.In order to be able to position the individual image fields one above the other in the correct position, the image fields 51 must first be rotated and shifted in the X, Y and / or Z direction in order to take into account the movement of the object 14 in question. In order to recognize whether it is an object 14 in different image fields 51 a, 51 e that has moved further between the exposures of the successive image fields 51 , or whether different objects 14 , 14 b are being viewed, additional information can be used which originate from image data obtained with a lower magnification factor of the image recording system. At a lower magnification factor, that is, at a different depth of field, it is easier to distinguish whether there are two objects 14 b, 14 lying one above the other or a single, moving object 14 . With this superimposition of the individual image fields 51 , information falls off, so to speak, as to whether it is a moving object 14 .

Da zwischen den einzelnen Aufnahmen der Bilder 51c-51e eine gewisse Zeitspanne vergeht, kann sich das Objekt 14 unterdessen bewegt haben, was jedoch anhand der Abweichung zwischen scharfen Konturen und verwischten Konturen in unterschiedlichen Z-Ebenen erkannt und ausgeglichen werden kann. Bei 53b ist ein weiteres Stapelbild des Objektes 14b angedeutet.Since a certain period of time elapses between the individual images of the images 51 c- 51 e, the object 14 may have moved in the meantime, but this can be recognized and compensated for on the basis of the deviation between sharp contours and blurred contours in different Z planes. A further stack image of the object 14 b is indicated at 53 b.

Legt man die einzelnen Bildfelder 51c-51e also lagerichtig übereinander, so gelangt man zu einem Stapelbild 53, das eine Art Höhenlinienbild 54 des Objektes 14 wiedergibt. Durch dieses Stapelbild 53 liegen die Objekte 14 jetzt in Form von dreidimen­ sionalen Bilddaten vor, so daß sie in der Lokalisiereinrichtung 40 erkannt und in der automatischen Identifizierungseinrichtung 44 identifiziert werden können. Dazu werden sie als Vektor­ graphikobjekte abgelegt.If the individual image fields 51 c- 51 e are positioned one above the other in the correct position, a stack image 53 is obtained which shows a kind of contour line image 54 of the object 14 . This stack image 53 means that the objects 14 are now in the form of three-dimensional image data, so that they can be recognized in the localization device 40 and identified in the automatic identification device 44 . To do this, they are stored as vector graphic objects.

Selbstverständlich erstrecken sich die Objekte nicht nur in Z-Richtung durch mehrere Bildfelder 51 hindurch, es ist durchaus möglich, in gleicher Weise, wie in Fig. 4 für die Z-Richtung gezeigt, auch in X- und/oder Y-Richtung eine derartige Erkennung eines Objektes 14 durchzuführen.Of course, the objects not only extend through a plurality of image fields 51 in the Z direction, it is quite possible, in the same way, as shown in FIG. 4 for the Z direction, in the X and / or Y direction Recognize an object 14 .

In Fig. 5 ist die zuständige Lokalisiereinrichtung 40 detail­ lierter dargestellt. Die nacheinander auf der Ausgangsleitung 39 anstehenden Daten der einzelnen Bildfelder 51 gelangen zunächst in einen Umrißdetektor 56, der die Bilddaten nach in sich geschlossenen Umrissen und/oder Bereichen gleicher Farbe durchsucht, und so zu den scharfen (durchgezogenen) Konturen in den Bildfeldern 51a-51b aus Fig. 4 kommt. Dabei wird die Tatsache ausgenutzt, daß die Objekte 14 immer andersfarbig sind als der Hintergrund, diese sich also nicht nur durch den Kontrast sondern auch durch die Farbgebung von dem Hintergrund unter­ scheiden. Außerdem erkennt der Umrißdetektor 56 die verschwomme­ nen Konturen der Objekte 14. In Fig. 5 the competent locator 40 is shown in detail profiled. The data of the individual image fields 51 which are present one after the other on the output line 39 first reach an outline detector 56 which searches the image data for self-contained outlines and / or areas of the same color, and thus to the sharp (solid) contours in the image fields 51 a- 51 b from FIG. 4 comes. This takes advantage of the fact that the objects 14 are always of a different color than the background, which means that they differ from the background not only by the contrast but also by the coloring. In addition, the outline detector 56 detects the blurred outlines of the objects 14 .

Der Umrißdetektor 56 legt zu diesem Zweck wie folgt ein Overlay- Fenster über die jeweiligen Objekte: Zunächst wird Punkt für Punkt eines jeden Bildfeldes 51 daraufhin abgefragt, ob seine Echtfarbe zu dem Hintergrundfarbbereich gehört, oder sich von diesem abhebt. Ist ein Bildpunkt (Pixel) gefunden, der nicht zum Hintergrund gehört, damit also Teil eines Objektes 14 ist, so wird dieser Punkt von einem virtuellen viereckigen Fenster überdeckt. Die Kanten des Fensters werden jetzt solange iterativ in alle vier Koordinatenrichtungen voneinander weggerichtet verschoben, bis die Kanten nur noch über Pixel liegen, die dem Hintergrundfarbbereich zuzuordnen sind. Da das Ausgangspixel ein Objekt-Pixel war, ist auf diese Weise sichergestellt, daß in dem so erzeugten Overlay-Fenster zumindest ein Objekt eingegrenzt ist.For this purpose, the outline detector 56 places an overlay window over the respective objects as follows: First, point by point of each image field 51 is queried as to whether its true color belongs to the background color area or stands out from it. If an image point (pixel) is found that does not belong to the background, so that it is part of an object 14 , then this point is covered by a virtual square window. The edges of the window are now iteratively shifted away from each other in all four coordinate directions until the edges are only over pixels that can be assigned to the background color range. Since the starting pixel was an object pixel, this ensures that at least one object is delimited in the overlay window generated in this way.

Das so eingegrenzte Objekt 14 wird in ein Teilbild umkopiert, so daß die weiterhin zu bearbeitenden Daten deutlich reduziert worden sind. Nach dem Umkopieren wird das so in dem Original- Bilddatensatz erkannte Objekt (die Objekte) dadurch "gelöscht", daß die erkannten Objekt-Pixel in Hintergrund-Pixel umgewandelt werden. In den Original-Bilddaten sind somit nur noch "nicht wahrgenommene" Objekte enthalten, die auf gleiche Weise erkannt und umkopiert werden.The object 14 thus delimited is copied into a partial image, so that the data to be processed further have been significantly reduced. After copying, the object (the objects) recognized in the original image data set is "deleted" by converting the recognized object pixels into background pixels. The original image data thus only contain "non-perceived" objects that are recognized and copied in the same way.

Während des Verschiebens der Overlay-Fensterkanten hat der Umrißdetektor 56 gleichzeitig jedes Objekt-Pixel als ein solches markiert und zusätzlich auf folgende Weise Pixel erkannt, die zum Umriß des jeweiligen Objektes 14 gehören: Jedes Pixel, das zumindest an einer seiner vier Seiten an ein Pixel mit Hinter­ grundfarbe grenzt, "gehört" zum Umriß des Objektes, während allseitig von Objekt-Pixeln umgebene Pixel "im Inneren" des Objektes liegen. Wegen des soeben beschriebenen Verfahrens ist außerdem gewährleistet, daß jede Kante des Overlay-Fensters zumindest an einer Stelle an das umschlossene Objekt angrenzt.While moving the overlay window edges, the outline detector 56 has simultaneously marked each object pixel as such and additionally recognized pixels belonging to the outline of the respective object 14 in the following manner: Each pixel which is connected to a pixel on at least one of its four sides bordered with background color, "belongs" to the outline of the object, while pixels surrounded on all sides by object pixels are "inside" the object. The method just described also ensures that each edge of the overlay window adjoins the enclosed object at least at one point.

Nachdem die einzelnen Objekte in den unterschiedlichen Bildfel­ dern 51 so erkannt worden sind, gelangen die reduzierten Daten in einen Stapelbildüberlagerer 57, der die einzelnen Bildfelder 51 - wie anhand von Fig. 4 bereits beschrieben - so übereinander legt, daß die verschwommenen und die scharfen Konturen unter­ schiedlicher Bildfelder 51 übereinstimmen. Die derart zueinander ausgerichteten einzelnen Stapelbilder 51a-51e werden in dem Objektlokalisierer 58 als dreidimensionale Vektorgraphikdar­ stellungen abgelegt. Die Daten gelangen von hier in einen Bewegungsdetektor 59, der anhand der um zu einem Objekt 14 zu gelangenden erforderlich gewesenen Verschiebung der einzelnen Bildfelder 51 ermittelt, ob es sich um ein sich bewegendes Objekt handelt. Über die Ausgangsleitungen 60 und 61 werden die Daten des Stapelbildes 53 sowie die Bewegungsinformation einer Verknüpfungsschaltung 62 zugeführt, die diese Daten über die Objektdatenleitung 41 in den Objektdatenspeicher 42 gibt.After the individual objects in the different image fields 51 have been recognized in this way, the reduced data arrive in a stack image overlay 57 which , as already described with reference to FIG. 4, superimposes the individual image fields 51 so that the blurred and the sharp contours agree under different image fields 51 . The individual stack images 51 a- 51 e, which are aligned with one another in this way, are stored in the object locator 58 as three-dimensional vector graphic representations. From here, the data arrive in a motion detector 59 which , on the basis of the displacement of the individual image fields 51 that was necessary in order to arrive at an object 14 , determines whether the object in question is a moving object. Via the output lines 60 and 61 , the data of the stacked image 53 and the movement information are fed to a logic circuit 62 , which gives this data to the object data memory 42 via the object data line 41 .

In Fig. 6 ist ausschnittsweise die Projektion eines von der Lokalisiereinrichtung 40 erzeugten Stapelbildes 53 dargestellt, wie es typischerweise für eine Probe 13 eines Belebtschlammes gefunden wird. Das Stapelbild 53 gibt eine kleine Flocke 64, ein Protozoen 65 sowie eine Fadenbakterie 66 mit zusätzlichem bakteriellem Aufwuchs 67 wieder. Weiterhin ist eine große Flocke 68 zu erkennen, an der eine weitere Fadenbakterie 69 sitzt. Ferner weist Fig. 6 eine Kolonie von drei Glockentierchen 70a, 70b, 70c auf, die einen gemeinsamen Stiel 71 haben, der mit seinem Fußpunkt 72 an der großen Flocke 68 sitzt. Während die Objekte 64 und 65 Einzelobjekte sind, die in der Identifizie­ rungseinrichtung 44 problemlos identifiziert werden können, stellen die Objekte 66, 67 sowie 68, 69, 70, 71 ein Clusterobjekt 73a, 73 dar. Die Zahl der möglichen Clusterobjekte ist so astro­ nomisch hoch, daß es nicht möglich ist, für diese Clusterobjekte Referenzdatenobjekte zu erzeugen. Die Identifizierungseinrichtung 44 muß daher jedes beliebige Clusterobjekt 73 so weiter ver­ arbeiten können, daß es mit einer begrenzten Anzahl von vor­ gegebenen Referenzdaten eindeutig identifiziert werden kann. Hier ist noch zu bedenken, daß die Teilobjekte eines Cluster­ objektes 73 sich zumindest teilweise gegenseitig überdecken bzw. überlappen können und ggf. auch miteinander verflochten sind.In FIG. 6, the projection of a stack image 53 generated by the locator 40 is shown fragmentary, such as is typically found an activated sludge for a sample 13. The stacked image 53 shows a small flake 64 , a protozoan 65 and a filamentous bacteria 66 with an additional bacterial growth 67 . Furthermore, a large flake 68 can be seen on which another thread bacterium 69 is seated. Furthermore, Fig. 6 has a colony of three bell animals 70 a, 70 b, 70 c, which have a common stem 71 , which sits with its base 72 on the large flake 68 . While the objects 64 and 65 are individual objects that can be easily identified in the identification device 44 , the objects 66 , 67 and 68 , 69 , 70 , 71 represent a cluster object 73 a, 73. The number of possible cluster objects is so astro nomically high that it is not possible to generate reference data objects for these cluster objects. The identification device 44 must therefore be able to process any cluster object 73 so that it can be uniquely identified with a limited number of given reference data. It should also be borne in mind here that the sub-objects of a cluster object 73 can at least partially overlap or overlap one another and may also be interwoven with one another.

In Fig. 7 ist gezeigt, daß die Identifizierungseinrichtung 44 aus diesem Grunde eine Clusterzerlegungseinrichtung 74 sowie eine Objekterkennungseinrichtung 75 aufweist. Die Daten eines lokalisierten Objektes gelangen über die Ausgangsleitung 43 in eine Clustererkennungseinrichtung 76, die jedes neu anstehende Objekt daraufhin überprüft, ob es ein Einzelobjekt oder ein Clusterobjekt 73 ist. Wie dies geschieht, wird noch erläutert.In Fig. 7 it is shown that the identification device 44 comprises for this reason, a cluster decomposing means 74 as well as an object detection device 75. The data of a localized object is sent via the output line 43 to a cluster recognition device 76 , which checks each newly pending object to determine whether it is an individual object or a cluster object 73 . How this happens will be explained later.

Handelt es sich bei dem auf der Ausgangsleitung 43 anstehenden Objekt um ein Einzelobjekt, so überträgt die Clusterer­ kennungseinrichtung 76 die Daten über seine Ausgangsleitung 77 in einen Vergleichsspeicher 78 der Objekterkennungseinrichtung 75. Handelt es sich dagegen um ein Clusterobjekt 73, so werden die Daten von der Clustererkennungseinrichtung 76 über seine Ausgangsleitung 79 in einen Clusterspeicher 80 geladen. Von dem Clusterspeicher 80 gelangen die Daten über eine Clusterdaten­ leitung 81 in eine Subobjekterkennungseinrichtung 82, die ein Clusterobjekt 73 in eine Reihe von Subobjekten zerlegt. Diese Zerlegung in Subobjekte erfolgt anhand weiterer Daten, die beispielsweise Aussagen über die geometrische Form bestimmter Bereiche des Clusters machen. Weiterhin werden die Farben der Clusterbereiche und/oder die unterschiedlichen Kontraste dazu herangezogen, das in Fig. 6 gezeigte Clusterobjekt 73 in einzelne Subobjekte zu zerlegen. Zurückkehrend zu Fig. 6 ist zu erkennen, daß beispielsweise die Glockentierchen 70 und ihre Stiele 71 unterschiedlich schraffiert sind, wodurch eine unterschiedliche Farbe angedeutet ist. Die Subobjekterkennungseinrichtung 82 spaltet jetzt beispielsweise das Glockentierchen 70a von dem Cluster 73 ab und übermittelt die Daten des Glockentierchens 70a über eine Subobjekt-Datenleitung 83 in den Vergleichsspeicher 78.If the object pending on the output line 43 is a single object, the cluster recognition device 76 transmits the data via its output line 77 to a comparison memory 78 of the object recognition device 75 . If, on the other hand, it is a cluster object 73 , the data is loaded into a cluster memory 80 by the cluster recognition device 76 via its output line 79 . From the cluster memory 80 , the data passes via a cluster data line 81 to a sub-object recognition device 82 , which breaks down a cluster object 73 into a number of sub-objects. This breakdown into sub-objects is based on further data that, for example, make statements about the geometric shape of certain areas of the cluster. Furthermore, the colors of the cluster areas and / or the different contrasts are used to break down the cluster object 73 shown in FIG. 6 into individual subobjects. Returning to FIG. 6, it can be seen that, for example, the bell animals 70 and their stems 71 are hatched differently, which indicates a different color. The sub-object recognition device 82 now splits off the bell animal 70 a from the cluster 73 and transmits the data of the bell animal 70 a via a sub-object data line 83 to the comparison memory 78 .

Der Vergleichsspeicher 78 enthält jetzt entweder die Daten eines Einzelobjektes 14 oder die Daten eines Subobjektes. Diese als "Suchobjekt" bezeichneten Daten gelangen über eine Suchobjekt- Datenleitung 84 in eine Sucheinrichtung 85, die ihrerseits über eine Referenzobjekt-Datenleitung 86 mit einem Referenzdaten­ speicher 87 in Verbindung steht. In dem Referenzdatenspeicher 87 sind in vektorieller, dreidimensionaler Darstellung sämtliche Objekte 14 enthalten, die in einer Probe 13 auftreten können.The comparison memory 78 now contains either the data of a single object 14 or the data of a sub-object. This data, referred to as “search object”, reaches a search device 85 via a search object data line 84 , which in turn is connected to a reference data memory 87 via a reference object data line 86 . The reference data memory 87 contains a vector, three-dimensional representation of all objects 14 that can occur in a sample 13 .

Da viele der Objekte 14 formveränderlich sind, also beispiels­ weise eine andere geometrische Gestalt aufweisen, wenn sie ruhen oder sich bewegen, muß dies bei den Referenzobjektdaten berück­ sichtigt werden. Die Zahl der möglichen Formen, die ein einziges bewegliches Objekt 14 annehmen kann, ist jedoch so groß, daß diese nicht sämtlichst vorhergesehen und abgespeichert werden können. Aus diesem Grunde erfolgt der Aufbau des Referenzdaten­ speichers 87 derart, daß die Referenzobjekte in einer oder mehreren geometrischen Grundformen abgelegt werden. Zusätzlich zu dieser Grundform sind Freiheitsgrade abgespeichert, die die möglichen und zulässigen Bewegungen und Formveränderungen des jeweiligen Objektes berücksichtigen. Beim Vergleich zwischen dem Suchobjekt und den verschiedenen Referenzobjekten werden jetzt die Referenzobjekte im Hinblick auf das Suchobjekt solange verändert (im Rahmen ihrer zulässigen Freiheitsgrade) bis sie entweder zu dem Suchobjekt "passen", oder aber bis sich ergibt, daß keine Übereinstimmung zu erzielen ist. Dieser Vergleich ist ein virtuell-optischer Vorgang, bei dem aufgrund eines wissensbasierten Verfahrens (die zulässigen Freiheitsgrade eines Referenzobjektes sind abgespeichert) die Vektorgraphikdarstellung eines Objektes/Subobjektes mit einer zweidimensionalen Projektion eines virtuellen dreidimensionalen Vektorflächengraphikmodells des jeweils zu vergleichenden Referenzobjektes verglichen wird.Since many of the objects 14 are changeable in shape, that is to say have a different geometric shape, for example, when they are resting or moving, this must be taken into account in the reference object data. However, the number of possible shapes that a single movable object 14 can take is so great that they cannot all be predicted and saved. For this reason, the reference data memory 87 is constructed in such a way that the reference objects are stored in one or more basic geometric shapes. In addition to this basic shape, degrees of freedom are stored, which take into account the possible and permissible movements and changes in shape of the respective object. When comparing the search object and the various reference objects, the reference objects are now changed with regard to the search object (within the scope of their permissible degrees of freedom) until they either "match" the search object or until it is found that no match can be achieved. This comparison is a virtual-optical process in which, based on a knowledge-based method (the permissible degrees of freedom of a reference object are saved), the vector graphic representation of an object / sub-object is compared with a two-dimensional projection of a virtual three-dimensional vector surface graphic model of the respective reference object to be compared.

Die Sucheinrichtung 85 vergleicht also jetzt die Daten, die auf der Suchobjekt-Datenleitung 84 anstehen, mit den vorhandenen Daten des Referenzdatenspeichers 87, bis das mit dem Suchobjekt übereinstimmende Referenzobjekt gefunden ist. Bei der Abspaltung in der Subobjekterkennungseinrichtung 82 kann es nun vorkommen, daß kein ganzes Objekt 14 von dem Cluster 73 abgespalten wird, sondern nur ein Teilobjekt. In dem Beispiel der Fig. 6 wird nicht ein aus Stiel 71a und Glockenteil 70a bestehendes Glocken­ tierchen abgespaltet, sondern nur das Teilobjekt 70a.The search device 85 thus now compares the data that are present on the search object data line 84 with the existing data of the reference data memory 87 until the reference object that matches the search object is found. When splitting off in the sub-object recognition device 82 , it can now happen that not an entire object 14 is split off from the cluster 73 , but only a partial object. In the example of FIG. 6, an animal consisting of stem 71 a and bell part 70 a is not split off, but only partial object 70 a.

In dem Referenzdatenspeicher 87 findet sich jedoch zu dem Teilobjekt 70a ein Hauptobjekt 14 bestehend aus Teilobjekt 70a und Teilobjekt 71a. Dieses Hauptobjekt wird jetzt über eine Hauptobjekt-Datenleitung 88 an einen virtuell-optisch arbeitenden Differenzbildner 89 gegeben, der über eine Leitung 90 ebenfalls mit dem Clusterspeicher 80 in Verbindung steht. Der Differenz­ bildner 89 modifiziert jetzt das ursprünglich in dem Cluster­ speicher 80 befindliche Clusterobjekt derart, daß es um das bereits erkannte Hauptobjekt reduziert wird. In the reference data memory 87, however, is to the part of object 70 a a primary object 14 consisting of a portion of object 70 and object portion 71 a. This main object is now passed via a main object data line 88 to a virtual optical difference generator 89 , which is also connected to the cluster memory 80 via a line 90 . The difference former 89 now modifies the cluster object originally located in the cluster memory 80 in such a way that it is reduced by the already recognized main object.

Das modifizierte Clusterobjekt gelangt über die Leitung 91 zurück in die Clustererkennungseinrichtung 76, wo die nun anstehenden Bilddaten entweder erneut als Cluster erkannt werden und in den Clusterspeicher 80 eingeschrieben werden, oder aber als Einzelobjekt erkannt werden und somit unmittelbar in den Vergleichsspeicher 78 gegeben werden.The modified cluster object is returned via line 91 to the cluster recognition device 76 , where the image data now pending are either recognized again as a cluster and are written into the cluster memory 80 , or are recognized as a single object and are therefore directly transferred to the comparison memory 78 .

Selbstverständlich wird jedes erkannte Hauptobjekt über die Objektausgabeleitung 45 an die Zähleinrichtung 46 gemeldet.Of course, each recognized main object is reported to the counting device 46 via the object output line 45 .

Hier sei erwähnt, daß die in dem Referenzdatenspeicher 87 vorhandenen Referenzobjekte von Fall zu Fall um weitere neu auftretende oder neu zu bestimmende Objekte erweitert wird, die Vorrichtung 10 ist also selbstadaptierend.It should be mentioned here that the reference objects present in the reference data memory 87 are expanded on a case-by-case basis by further newly occurring or newly determined objects, the device 10 is therefore self-adapting.

Anhand von Fig. 8 wird jetzt beschrieben, nach welchen Kriterien die Clustererkennungseinrichtung 76 ermittelt, ob es sich bei den auf der Ausgangsleitung 43 anstehenden Daten um ein einzelnes Objekt 14 oder um ein Clusterobjekt 73 handelt.Referring to Fig. 8 will now be described, according to which criteria the cluster recognizer 76 determines whether it is in the forthcoming on the data output line 43 to a single object 14 or a cluster object 73rd

Aus Gründen der Übersichtlichkeit wurden in Fig. 8 die Glocken­ tierchen 70b und 70c aus Fig. 6 weggelassen. Die Farben und der Kontrast der einzelnen Elemente des Clusters 73′ aus Fig. 8 spielen in diesem Beispiel für die Erkennung, ob es sich um ein Cluster handelt, ebenfalls keine Rolle. Das Clusterobjekt 73 ist in Fig. 8 lediglich durch seinen bei 92 angedeuteten Umriß repräsentiert. Dieser Umriß des Clusterobjektes 73 wurde bereits mit Hilfe des Umrißdetektors 56 - siehe Fig. 5 - er­ mittelt.For the sake of clarity, the bell animals 70 b and 70 c from FIG. 6 have been omitted in FIG. 8. The colors and the contrast of the individual elements of the cluster 73 'from Fig. 8 also play no role in this example for the detection of whether it is a cluster. The cluster object 73 is represented in FIG. 8 only by its outline indicated at 92. This outline of the cluster object 73 has already been averaged with the aid of the outline detector 56 - see FIG. 5.

Die Clustererkennungseinrichtung 76 legt jetzt einen Umkreis um das Clusterobjekt und bestimmt so seine bei 93 angedeutete Länge, seine maximale Ausdehnung in der X/Y-Ebene. Dies geschieht beispielsweise, indem zwischen sämtlichen Koordinatenpaaren (X/Y) der Abstand bestimmt wird und dann der maximale Abstand als Länge 93 in die Bilddaten aufgenommen wird.The cluster recognition device 76 now places a radius around the cluster object and thus determines its length, indicated at 93, its maximum extent in the X / Y plane. This is done, for example, by determining the distance between all coordinate pairs (X / Y) and then recording the maximum distance as length 93 in the image data.

Als nächstes wird die Breite des Clusterobjektes 73 bzw. des Objektes 14 senkrecht zu der Länge 93 bestimmt. Dies geschieht ebenfalls durch eine Abstandsbestimmung zwischen den entspre­ chenden Koordinaten, einige Breiten sind bei 94a, 94b in Fig. 8 angedeutet. Es ist zu erkennen, daß das Clusterobjekt 73 teilweise Breiten 94c aufweist, die keinen Schnittpunkt mit der Länge 93 aufweisen. Dies ist ein Indiz für eine unregelmäßige Form des Objektes 14 bzw. des Clusterobjektes 73. Nach jeweils festzulegenden Kriterien ermittelt die Clustererkennungsein­ richtung 76 aus der Variation der verschiedenen Breiten 94a-94c sowie aus der Tatsache, wie oft die Länge 93 "außerhalb" des Objektes 14 bzw. des Clusterobjektes 73 liegt, ob es sich bei dem vorliegenden Datensatz um ein Clusterobjekt 73 handelt.Next, the width of the cluster object 73 or the object 14 is determined perpendicular to the length 93 . This is also done by determining the distance between the corresponding coordinates, some widths are indicated at 94 a, 94 b in Fig. 8. It can be seen that the cluster object 73 partially has widths 94 c that do not have an intersection with the length 93 . This is an indication of an irregular shape of the object 14 or the cluster object 73 . According to criteria to be determined in each case, the cluster detection device 76 determines from the variation of the different widths 94 a- 94 c and from the fact how often the length 93 lies "outside" of the object 14 or the cluster object 73 , whether it is the present data record is a cluster object 73 .

Die Clustererkennungseinrichtung 76 ist in Fig. 9 detaillierter dargestellt. Die auf der Ausgangsleitung 43 anstehenden Objekt­ daten eines lokalisierten Objektes werden über eine innere Datenverzweigung 95 einzelnen Baugruppen der Clustererkennungs­ einrichtung 76 zugeführt. Über einen Umschalter 96 wird dabei entweder die Ausgangsleitung 43, die von dem Objektdatenspeicher 42 kommt, oder die Leitung 91, die Informationen eines modifi­ zierten Clusterobjektes 73 enthält, auf die innere Datenver­ zweigung 95 geschaltet.The cluster recognition device 76 is shown in more detail in FIG. 9. The object data of a localized object pending on the output line 43 are fed to individual assemblies of the cluster detection device 76 via an inner data branch 95 . Via a switch 96 , either the output line 43 , which comes from the object data memory 42 , or the line 91 , which contains information of a modified cluster object 73 , is switched to the internal data branch 95 .

Diese Daten gelangen in eine Vorrichtung 97 zur Längenbestimmung, eine Vorrichtung 98 zur Breitenbestimmung und eine Qualifizie­ rungseinrichtung 99, die z. B. aus dem Verhältnis Länge zu Breite ermittelt, ob es sich bei dem zu bewertenden Objekt 14 um ein einzelnes Objekt 14 oder um ein Clusterobjekt 73 handelt. Die Funktionsweise der Vorrichtungen 97, 98 und der Qualifizierungs­ einrichtung 99 wurde bereits anhand von Fig. 8 erläutert.These data arrive in a device 97 for determining the length, a device 98 for determining the width and a qualification device 99 , the z. B. determined from the ratio of length to width whether the object 14 to be evaluated is a single object 14 or a cluster object 73 . The operation of the devices 97 , 98 and the qualification device 99 has already been explained with reference to FIG. 8.

Die Qualifizierungseinrichtung 99 gibt die anstehenden Daten entweder auf die Ausgangsleitung 77, wenn es sich um ein einzelnes Objekt 14 handelt, oder auf die Ausgangsleitung 79, wenn es sich um ein Clusterobjekt 73 handelt.The qualification device 99 outputs the pending data either to the output line 77 if it is a single object 14 , or to the output line 79 if it is a cluster object 73 .

Die Clustererkennungseinrichtung 76 weist weiterhin eine Vorrichtung 100 auf, die anhand von Bewegungsvorgängen in Teilbereichen eines Clusters und/oder von zusammenhängenden Bereichen gleicher Echtfarben erkennt, ob das lokalisierte Objekt 14 ein Clusterobjekt 73 ist.The cluster recognition device 76 furthermore has a device 100 which recognizes on the basis of movement processes in partial areas of a cluster and / or of contiguous areas of the same true colors whether the localized object 14 is a cluster object 73 .

Als letztes soll erläutert werden, wie die Sucheinrichtung 85 die auf der Suchobjekt-Datenleitung 84 anstehenden Suchobjekte mit den auf der Referenzdatenleitung 86 zugänglichen Referenz­ daten des Referenzdatenspeichers 87 vergleicht. Dies geschieht anhand von Fig. 10.Finally, it will be explained how the search device 85 compares the search objects pending on the search object data line 84 with the reference data of the reference data memory 87 accessible on the reference data line 86 . This is done using FIG. 10.

Die Sucheinrichtung 85 weist zu diesem Zweck eine virtuell­ optisch arbeitende Vergleichereinrichtung 101 auf, die nachein­ ander die zur Verfügung stehenden Daten des Referenzdaten­ speichers 87 abfragt und mit den Suchobjektdaten auf der Suchob­ jekt-Datenleitung 84 vergleicht. Damit nicht bei jedem Suchobjekt sämtliche Referenzobjekte durchgemustert werden müssen, umfaßt die Sucheinrichtung 85 beispielsweise vier Bewertungseinheiten 102, 103, 104 und 105, welche die Suchobjekte nach Farbe, Bewe­ gung, Größe und geometrischer Form bzw. Formveränderlichkeit qualifizieren. Diese Informationen führen zu Entscheidungskri­ terien, die es der Vergleichereinrichtung 101 ermöglichen, nur einen kleinen Satz der gesamten zur Verfügung stehenden Referenz­ objekte tatsächlich mit dem jeweiligen Suchobjekt zu vergleichen. For this purpose, the search device 85 has a virtually optically operating comparator device 101 , which successively queries the available data of the reference data memory 87 and compares it with the search object data on the search object data line 84 . So that not all reference objects have to be screened for each search object, the search device 85 comprises, for example, four evaluation units 102 , 103 , 104 and 105 which qualify the search objects according to color, movement, size and geometric shape or changeability in shape. This information leads to decision criteria that enable the comparator device 101 to actually compare only a small set of the total available reference objects with the respective search object.

Ist das Suchobjekt beispielsweise in seiner längsten Ausdehnung kleiner als zwei µm, werden nur die in dem Referenzdatenspeicher 87 gespeicherten Bakterien mit dem Suchobjekt verglichen. Hat das Suchobjekt dagegen eine ausgefallene, seltene Farbgebung, so werden nur die mit dem entsprechenden Farbcode identifizierten Referenzobjekte mit dem Suchobjekt verglichen. Entsprechende Überlegungen lassen sich auch für Bewegung und geometrische Form anstellen.If, for example, the longest dimension of the search object is less than two μm, only the bacteria stored in the reference data memory 87 are compared with the search object. If, on the other hand, the search object has an unusual, rare coloring, only the reference objects identified with the corresponding color code are compared with the search object. Corresponding considerations can also be made for movement and geometric shape.

Je nachdem, welches der hier beispielhaft angeführten vier Kriterien Farbe, Bewegung, Größe und geometrische Form sich als am relevantesten erweist, durchsucht die Vergleichereinrich­ tung 101 bestimmte Bereiche des Referenzdatenspeichers 87. Auf diese Weise läßt sich eine sehr viel schnellere Identifizierung des Objektes und in rekursiver Weise damit eines Clusters 73 durchführen.Depending on which of the four criteria color, movement, size and geometric shape that is shown here as an example proves to be the most relevant, the comparator device 101 searches certain areas of the reference data memory 87 . In this way, a much faster identification of the object and, in a recursive manner, of a cluster 73 can be carried out.

Die Bewertungseinrichtungen 102-105 stellen sozusagen einen Merkmalssatzvergleicher dar, welcher aufgrund von aus den Bilddaten extrahierter Merkmale eine Art morphologische Klassifi­ zierung der Objekte durchführt. Wegen der hohen Formverschieden­ heit der einzelnen Objekte ein- und derselben Art, ist eine derartige morphologische Klassifizierung aufgrund von Grobmerk­ malen jedoch nur bis zu einem bestimmten Grad möglich. Danach erfolgt - wie bereits oben beschrieben - in der Vergleicher­ einrichtung 101 ein quasi-visueller Vergleich, ein Vergleich auf der Basis virtueller dreidimensionaler Vektorgraphik. Dabei werden die Vektoren von Such- und Referenzobjekt hinsichtlich Betrag (Länge) und Raumwinkel (Orientierung im Raum) miteinander verglichen. Die Referenzobjekte sind dabei formveränderlich angelegt, sie werden also im Hinblick auf das jeweilige Such­ objekt solange verändert, bis sie "passen". Auf diese Weise können alle nicht ohne weiteres beschreibbaren Merkmale dennoch berücksichtigt werden, da sie in der feinstspezifischen Struktur des Referenzobjektes implementiert sind. Eine vollständige Objektidentifizierung anhand beschreibender Merkmale ist auch deshalb nicht möglich, weil sich die unterschiedlichen Arten zum Teil durch Merkmalssätze voneinander unterscheiden, die nur schwer in Algorhythmen, sei es auf Hardware- oder auf Software-Ebene erfassen lassen.The evaluation devices 102-105 represent a feature set comparator , so to speak, which performs a type of morphological classification of the objects on the basis of features extracted from the image data. Because of the great diversity of shapes of the individual objects of the same type, such a morphological classification is only possible to a certain extent due to rough painting. Then, as already described above, a quasi-visual comparison takes place in the comparator device 101 , a comparison based on virtual three-dimensional vector graphics. The vectors of the search and reference object are compared with one another in terms of magnitude (length) and solid angle (orientation in space). The reference objects are designed to change their shape, so they are changed with regard to the respective search object until they "fit". In this way, all features that cannot be easily described can still be taken into account, since they are implemented in the very fine structure of the reference object. A complete object identification based on descriptive features is also not possible because the different types differ from each other in part by sets of features that are difficult to capture in algorithms, be it at the hardware or software level.

Ist das Suchobjekt als Teil eines Hauptobjektes erkannt worden, so wird das entsprechende Hauptobjekt von der Vergleicherein­ richtung 101 in einen Hauptobjektspeicher 106 geladen, der über die Hauptobjekt-Datenleitung 88 mit dem Differenzbildner 89 in Verbindung steht.If the search object has been recognized as part of a main object, the corresponding main object is loaded by the comparator 101 into a main object memory 106 which is connected to the difference former 89 via the main object data line 88 .

Lediglich der Vollständigkeit halber sei abschließend erwähnt, daß die diversen in den Fig. 2, 4, 5, 7, 9 und 10 durch recht­ eckige Kästchen angedeuteten Baugruppen in beliebiger Kombination ganz oder auch zum Teil entweder durch reine Hardware-Schal­ tungen/Mikroprogrammsteuerwerke, Rechenschaltungen oder programm­ gesteuerte Datenverarbeitungseinheiten realisiert sein können. Weiterhin ist es selbstverständlich, daß die einzelnen Speicher entweder getrennte Speicher sein können oder aber teilweise überlappende Bereiche eines einzigen Speichers sein können.For the sake of completeness, it should finally be mentioned that the various modules indicated in FIGS . 2, 4, 5, 7, 9 and 10 by rectangular boxes in any combination wholly or partly either by pure hardware circuits / microprogram control units, Arithmetic circuits or program-controlled data processing units can be implemented. Furthermore, it goes without saying that the individual memories can either be separate memories or can be partially overlapping areas of a single memory.

Claims (28)

1. Verfahren zum Erstellen einer Artenliste (48) für eine flüssige Probe (13) mit ggf. form- und/oder ortsveränder­ lichen sich z. T. gegenseitig überdeckenden oder über­ lappenden Objekten unterschiedlicher Arten zur Ermittlung des ökologischen Zustandes der Probe (13), mit den Schrit­ ten:
  • a) Optisches Erfassen der Probe (13) als Folge von Bilddaten;
  • b) Erkennen und Lokalisieren der Objekte (14) in den erfaßten Bilddaten;
  • c) Automatisches Identifizieren der lokalisierten Objekte (14) durch automatisches Vergleichen des jeweiligen lokalisierten Objektes (14) mit einer bestimmten Grup­ pe von Referenzobjekten, die aufgrund von aus den Bilddaten gewonnenen Grobmerkmalen des lokalisierten Objektes (14) aus einer größeren Gruppe von Referenz­ objekten ausgewählt werden;
  • d) Zählen der identifizierten Objekte (14) nach den jeweiligen Arten; und
  • e) Eintragen der gezählten Objekte (14) in die Artenliste (48).
1. The method for creating a list of species ( 48 ) for a liquid sample ( 13 ) with any shape and / or location changes zichen z. T. mutually overlapping or overlapping objects of different types for determining the ecological condition of the sample ( 13 ), with the steps:
  • a) optical detection of the sample ( 13 ) as a result of image data;
  • b) recognizing and locating the objects ( 14 ) in the captured image data;
  • c) Automatic identification of the localized objects ( 14 ) by automatically comparing the respective localized object ( 14 ) with a specific group of reference objects, which are selected from a larger group of reference objects on the basis of coarse features of the localized object ( 14 ) obtained from the image data will;
  • d) counting the identified objects ( 14 ) according to the respective types; and
  • e) Entering the counted objects ( 14 ) in the species list ( 48 ).
2. Verfahren nach Anspruch 1, gekennzeichnet durch den weiteren Schritt:
  • f) Automatische, interpretierende Bewertung der Ein­ tragungen in der Artenliste unter Verwendung zielange­ paßter Methoden aus Ökologie, Biologie und Ethologie.
2. The method according to claim 1, characterized by the further step:
  • f) Automatic, interpretative evaluation of the entries in the species list using target-oriented methods from ecology, biology and ethology.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß vor dem Schritt des automatischen Identifizierens das jeweils lokalisierte Objekt folgenden Verfahrensschritten unterzogen wird:
  • c1) Automatisches Erkennen des Vorliegens eines aus mehreren zusammenhängenden sich ggf. überlappenden, miteinander verflochtenen Objekten (14) bestehenden Clusterobjektes (73);
  • c2) Abspalten eines Subobjektes von dem Clusterobjekt (73); und
  • c3) Vergleichen des Subobjektes oder des lokalisierten Objektes mit Referenzobjekten (Schritt c) aus An­ spruch 1).
3. The method according to claim 1 or 2, characterized in that before the step of automatically identifying the localized object is subjected to the following process steps:
  • c1) automatic detection of the presence of a cluster object ( 73 ) consisting of several connected, possibly overlapping, interwoven objects ( 14 );
  • c2) splitting off a sub-object from the cluster object ( 73 ); and
  • c3) comparing the sub-object or the localized object with reference objects (step c) from claim 1).
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß das automatische Identifizieren die weiteren Schritte umfaßt:
  • c4) Auswählen des zu einem identifizierten Subobjekt gehörenden Referenzobjektes;
  • c5) Erzeugen eines modifizierten Clusterobjektes (73) durch Vermindern des Clusterobjektes (73) um das ausgewählte Referenzobjekt; und
  • c6) Behandeln des modifizierten Clusterobjektes (73) wie ein lokalisiertes Objekt (14) (Schritt c1).
4. The method according to claim 3, characterized in that the automatic identification comprises the further steps:
  • c4) selecting the reference object belonging to an identified sub-object;
  • c5) generating a modified cluster object ( 73 ) by reducing the cluster object ( 73 ) by the selected reference object; and
  • c6) treating the modified cluster object ( 73 ) as a localized object ( 14 ) (step c1).
5. Verfahren nach einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, daß das automatische Erkennen des Vorliegens eines Clusterobjektes (73) die Schritte umfaßt:
  • c1a) Bestimmung einer Länge (73) oder maximalen Ausdehnung des lokalisierten Objektes (14);
  • c1b) Bestimmung von quer zu der Länge (93) verlaufenden Breiten (94) des lokalisierten Objektes (14); und
  • c1c) Bewerten der Abweichungen der Breiten (94a, 94b, 94c) untereinander sowie der Lage der Breiten (94) zu der Länge (93), um das Vorliegen eines Clusterobjektes (73) zu bestimmen.
5. The method according to any one of claims 3 or 4, characterized in that the automatic detection of the presence of a cluster object ( 73 ) comprises the steps:
  • c1a) determining a length ( 73 ) or maximum extent of the localized object ( 14 );
  • c1b) determination of widths ( 94 ) of the localized object ( 14 ) running transversely to the length ( 93 ); and
  • c1c) Evaluating the deviations of the widths ( 94 a, 94 b, 94 c) from one another and the position of the widths ( 94 ) relative to the length ( 93 ) in order to determine the presence of a cluster object ( 73 ).
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekenn­ zeichnet, daß der Schritt des Erkennens und Lokalisierens der Objekte (14) die automatische Überführung eines Objektes (14) in ein Teilbild und danach das automatische Detektieren von in sich geschlossenen Umrissen (92) umfaßt. 6. The method according to any one of claims 1 to 5, characterized in that the step of recognizing and locating the objects ( 14 ) the automatic transfer of an object ( 14 ) into a partial image and then the automatic detection of self-contained outlines ( 92 ) includes. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß der Schritt des optischen Erfassens der Probe (13) das automatische Aufnehmen von Bildfeldern (51) unterschiedlicher Vergrößerung umfaßt, wobei von der Probe (13) je Vergrößerung über ihr Volumen verteilte Bildfelder (51) aufgenommen werden.7. The method according to any one of claims 1 to 6, characterized in that the step of optically detecting the sample ( 13 ) comprises the automatic recording of image fields ( 51 ) of different magnifications, each of the sample ( 13 ) distributed over their volume over their magnification Image fields ( 51 ) are recorded. 8. Verfahren nach den Ansprüchen 6 und 7, dadurch gekenn­ zeichnet, daß der Schritt des Lokalisierens das Zusam­ menfassen mehrerer Bildfelder (51), über die sich ein Objekt (14) erstreckt, zu einem Überlagerungsbild (53) umfaßt.8. The method according to claims 6 and 7, characterized in that the step of locating the merging of several image fields ( 51 ) over which an object ( 14 ) extends to an overlay image ( 53 ). 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß der Schritt des Lokalisierens der Objekte (14) das Detektieren von Bereichen gleicher oder ähnlicher Echtfarbe, Echtfarbmuster oder Echtfarbbereiche umfaßt.9. The method according to any one of claims 1 to 8, characterized in that the step of locating the objects ( 14 ) comprises detecting areas of the same or similar real color, real color pattern or real color areas. 10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß der Vergleich zwischen Objekt bzw. Subobjekt einerseits und Referenzobjekt andererseits auf der Basis dreidimensionaler virtueller Vektorgraphikdar­ stellungen erfolgt.10. The method according to any one of claims 1 to 9, characterized characterized in that the comparison between object or Subobject on the one hand and reference object on the other the basis of three-dimensional virtual vector graphics positions. 11. Verfahren nach einem der Ansprüche 3 bis 10, dadurch gekennzeichnet, daß das automatische Erkennen eines Clusterobjektes (73) das Zerlegen des Clusterobjektes (73) in Bereiche verschiedener Echtfarben, Echtfarbmuster und/oder Echtfarbkontraste umfaßt.11. The method according to any one of claims 3 to 10, characterized in that the automatic detection of a cluster object ( 73 ) comprises the decomposition of the cluster object ( 73 ) into areas of different true colors, true color patterns and / or true color contrasts. 12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Clusterobjekt in Bereiche unterschiedlicher Bewegung, geometrischer Form und Größe zerlegt wird. 12. The method according to claim 11, characterized in that the cluster object in areas of different movement, geometric shape and size is broken down.   13. Vorrichtung zum Erstellen einer Artenliste (48) für eine flüssige Probe (13) mit ggf. form- und/oder ortsveränder­ lichen, sich z. T. gegenseitig überdeckenden oder über­ lappenden Objekten (14) unterschiedlicher Arten zur Ermitt­ lung des ökologischen Zustandes der Probe (13), mit:
  • a) Einer Bildaufnahmevorrichtung (16) zum optischen Erfassen der Probe (13) als Folge von Bilddaten;
  • b) einer Lokalisiereinrichtung (40) zum Erkennen und Lokalisieren der Objekte (14) in den erfaßten Bild­ daten;
  • c) einer Identifizierungseinrichtung (44) zum auto­ matischen Identifizieren der lokalisierten Objekte (14); und
  • d) einer Zähleinrichtung (46) zum Zählen der identi­ fizierten Objekte (14) nach den jeweiligen Arten sowie zum Eintragen der gezählten Objekte (14) in die Artenliste (48), wobei die Identifizierungseinrichtung (44) eine Suchein­ richtung (85) umfaßt, die die lokalisierten Objekte (14) mit einer Gruppe von Referenzobjekten vergleicht, die sich aufgrund von aus den Bilddaten gewonnenen Grobmerkmalen des lokalisierten Objektes (14) aus einer größeren Gruppe von Referenzobjekten ergeben, und ein identifiziertes Objekt (14) als solches an die Zähleinrichtung (46) meldet.
13. Apparatus for creating a list of species ( 48 ) for a liquid sample ( 13 ) with any shape and / or location changes, z. T. mutually overlapping or overlapping objects ( 14 ) of different types for determining the ecological condition of the sample ( 13 ), with:
  • a) an image recording device ( 16 ) for optically capturing the sample ( 13 ) as a result of image data;
  • b) a locating device ( 40 ) for recognizing and locating the objects ( 14 ) in the captured image data;
  • c) an identification device ( 44 ) for automatically identifying the localized objects ( 14 ); and
  • d) a counting device ( 46 ) for counting the identified objects ( 14 ) according to the respective species and for entering the counted objects ( 14 ) in the list of species ( 48 ), the identification device ( 44 ) comprising a search device ( 85 ), which compares the localized objects ( 14 ) with a group of reference objects which result from a larger group of reference objects on the basis of coarse features of the localized object ( 14 ) obtained from the image data, and an identified object ( 14 ) as such to the counting device ( 46 ) reports.
14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, daß sie eine Bewertungseinrichtung (49) zur automatischen, interpretierenden Bewertung der Eintragung in die Artenliste (48) unter Verwendung zielangepaßter Methoden aus Ökologie, Biologie und Ethologie umfaßt.14. The apparatus according to claim 13, characterized in that it comprises an evaluation device ( 49 ) for automatic, interpretive evaluation of the entry in the species list ( 48 ) using target-oriented methods from ecology, biology and ethology. 15. Vorrichtung nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, daß die Sucheinrichtung (85) eine virtuell­ optischen Vergleicher (101) umfaßt für den Vergleich zwischen Objekt und Referenzobjekt auf der Basis dreidimen­ sionaler virtueller Vektorgraphikdarstellungen.15. Device according to one of claims 13 or 14, characterized in that the search device ( 85 ) comprises a virtual optical comparator ( 101 ) for the comparison between object and reference object on the basis of three-dimensional virtual vector graphic representations. 16. Vorrichtung nach Anspruch 13 bis 15, dadurch gekennzeichnet, daß die Identifizierungseinrichtung (44) eine Cluster­ zerlegungseinrichtung (74) zum Erkennen von aus mehreren zusammenhängenden, sich ggf. überlappenden oder miteinander verflochtenen Objekten (14) bestehenden Clusterobjekten (73) und zum Zerlegen der Clusterobjekte (73) in Subobjekte aufweist, wobei die Clusterzerlegungseinrichtung (74) bei Vorliegen eines Clusterobjektes (73) eines von dessen Subobjekten der Sucheinrichtung (85) zuführt.16. The apparatus according to claim 13 to 15, characterized in that the identification device ( 44 ) a cluster decomposition device ( 74 ) for recognizing from several connected, possibly overlapping or intertwined objects ( 14 ) existing cluster objects ( 73 ) and for disassembling which has cluster objects ( 73 ) into subobjects, the cluster decomposition device ( 74 ) feeding one of its subobjects to the search device ( 85 ) when a cluster object ( 73 ) is present. 17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, daß die Clusterzerlegungseinrichtung (74) eine Clustererken­ nungseinrichtung (76) zum Erkennen eines Clusterobjektes (73) sowie eine Vorrichtung (82) aufweist, die ein Subobjekt in einem Cluster (73) erkennt, das Subobjekt von dem Cluster (73) abspaltet und der Sucheinrichtung (85) zuführt.17. The apparatus according to claim 16, characterized in that the cluster decomposition device ( 74 ) comprises a cluster recognition device ( 76 ) for recognizing a cluster object ( 73 ) and a device ( 82 ) which recognizes a sub-object in a cluster ( 73 ), the sub-object cleaved from the cluster ( 73 ) and fed to the search device ( 85 ). 18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Clusterzerlegungseinrichtung (74) einen virtuell-optisch arbeitenden Differenz-Bildner (89) aufweist, der von dem Clusterobjekt (73) das zu einem identifizierten Subobjekt gehörende Referenzobjekt abzieht und so ein modifziertes Clusterobjekt (73) erzeugt, das der Clustererkennungsein­ richtung (76) zugeführt wird.18. The apparatus according to claim 17, characterized in that the cluster decomposition device ( 74 ) has a virtually optically operating difference generator ( 89 ) which subtracts from the cluster object ( 73 ) the reference object belonging to an identified sub-object and thus a modified cluster object ( 73 ) which is fed to the cluster recognition device ( 76 ). 19. Vorrichtung nach einem der Ansprüche 17 oder 18, da­ durch gekennzeichnet, daß die Clustererkennungsein­ richtung (76) eine Vorrichtung (97) zur Bestimmung einer Länge (93) des Objektes (14) oder Clusterob­ jektes (73) sowie eine Vorrichtung (98) aufweist, die zur Bestimmung von quer zu der Länge (93) verlaufenden Breiten (94a, 94b, 94c) des Objektes (14) oder Cluste­ robjektes (73) vorgesehen ist, und daß ferner eine Qualifizierungseinrichtung (99) vorgesehen ist, die anhand von Abweichungen der Breiten (94) zueinander und anhand der Lage der Breiten (94) zu der Länge (93) erkennt, ob das lokalisierte Objekt (14) ein Clusterobjekt (73) ist.19. Device according to one of claims 17 or 18, characterized in that the cluster recognition device ( 76 ) has a device ( 97 ) for determining a length ( 93 ) of the object ( 14 ) or cluster object ( 73 ) and a device ( 98 ) which is provided for determining widths ( 94 a, 94 b, 94 c) of the object ( 14 ) or cluster robjektes ( 73 ) running transversely to the length ( 93 ), and that a qualification device ( 99 ) is also provided , based on the deviations of the widths (94) to one another, and recognizes based on the position of the widths (94) to the length (93) whether the located object (14) is a cluster object (73). 20. Vorrichtung nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, daß die Clustererkennungseinrichtung (76) eine Vorrichtung (100) aufweist, die anhand von Bewegungs­ vorgängen in Teilbereichen und/oder von zusammenhängenden Bereichen gleicher Farbe erkennt, ob das lokalisierte Objekt (14) ein Clusterobjekt (73) ist.20. Device according to one of claims 17 to 19, characterized in that the cluster detection device ( 76 ) has a device ( 100 ) which detects on the basis of movement processes in partial areas and / or related areas of the same color whether the localized object ( 14th ) is a cluster object ( 73 ). 21. Vorrichtung nach einem der Ansprüche 13 bis 20, dadurch gekennzeichnet, daß die Lokalisiereinrichtung (40) einen Umrißdetektor (56) aufweist, der in den Bilddaten ge­ schlossene Bereiche gleicher Echtfarbenbereiche detektiertß als Objekt (14) erkennt und lokalisiert und danach in sich geschlossene Umrisse (92) ermittelt. 21. Device according to one of claims 13 to 20, characterized in that the localization device ( 40 ) has an outline detector ( 56 ) which in the image data detects areas of the same true color areas detected as objects ( 14 ) and detects them and then closed Outlines ( 92 ) determined. 22. Vorrichtung nach einem der Ansprüche 13 bis 21, dadurch gekennzeichnet, daß die Bildaufnahmevorrichtung (16) ein Bildaufnahmesystem (17) mit einstellbarer optischer Vergrößerungseinrichtung (18) sowie eine Verfahreinrichtung (19) aufweist, durch welche die Probe (13) relativ zu der Vergrößerungseinrichtung (18) verfahrbar ist, derart, daß mittels des Bildaufnahmesystems (17) von der Probe (13) über ihr Volumen verteilte Bildfelder (51) mit unter­ schiedlichen Vergrößerungseinstellungen aufnehmbar sind.22. Device according to one of claims 13 to 21, characterized in that the image recording device ( 16 ) has an image recording system ( 17 ) with adjustable optical magnification device ( 18 ) and a displacement device ( 19 ) through which the sample ( 13 ) relative to the Magnification device ( 18 ) can be moved in such a way that image fields ( 51 ) distributed over its volume by the sample ( 13 ) can be recorded with different magnification settings by means of the image recording system ( 17 ). 23. Vorrichtung nach den Ansprüchen 21 und 22, dadurch gekenn­ zeichnet, daß die Lokalisiereinrichtung (40) eine Vor­ richtung (57, 58) aufweist, die anhand der von dem Umriß­ detektor (56) in den Bildfeldern (51) detektierten Umrisse (92) für ein sich über mehrere Bildfelder (51) erstreckendes Objekt (14) ein Überlagerungsbild (53) erstellt.23. Device according to claims 21 and 22, characterized in that the locator (40) an on device (57, 58) which are detected using the detector of the outline (56) in the frames (51) outlines (92 ) creates an overlay image ( 53 ) for an object ( 14 ) extending over several image fields ( 51 ). 24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, daß die Lokalisiereinrichtung (40) einen Bewegungsdetektor (59) aufweist, der anhand der detektierten Umrisse (92) und/oder des Überlagerungsbildes (53) erkennt, ob das lokalisierte Objekt (14) form- und/oder ortsveränderlich ist.24. The device according to claim 23, characterized in that the localization device ( 40 ) has a motion detector ( 59 ) which detects on the basis of the detected outlines ( 92 ) and / or the overlay image ( 53 ) whether the localized object ( 14 ) is form and / or is portable. 25. Vorrichtung nach einem der Ansprüche 13 bis 24, dadurch gekennzeichnet, daß die Sucheinrichtung (85) eine Ver­ gleichereinrichtung (101) aufweist, die in Abhängigkeit von Ausgangssignalen von Bewertungseinheiten (102, 103, 104, 105) bspw. für Echtfarbe, Bewegung, Größe und geometri­ sche Form/Formveränderlichkeit des zu identifizierenden Objektes (14) oder Subobjektes einen ausgewählten Teil der in einem Refe­ renzobjektspeicher (87) vorgegebenen Referenzobjekte auf virtuell-optische Weise nach dem Objekt/Subobjekt durch­ sucht.25. The device according to any one of claims 13 to 24, characterized in that the search device ( 85 ) has a comparison device ( 101 ) which, depending on output signals from evaluation units ( 102 , 103 , 104 , 105 ), for example for true color, movement , Size and geometric shape / form variability of the object ( 14 ) or sub-object to be identified searches a selected part of the reference objects specified in a reference object memory ( 87 ) in a virtual-optical manner for the object / sub-object. 26. Vorrichtung nach einem der Ansprüche 17 bis 25, dadurch gekennzeichnet, daß die Vorrichtung (82) zum Erkennen und Abspalten von Subobjekten ein Clusterobjekt (73) in Bereiche verschiedener Echtfarben und/oder Echtfarbkontraste zerlegt, und diese Bereiche als Subobjekt behandelt.26. Device according to one of claims 17 to 25, characterized in that the device ( 82 ) for recognizing and splitting off sub-objects breaks down a cluster object ( 73 ) into areas of different true colors and / or true color contrasts, and treats these areas as a sub-object. 27. Vorrichtung nach einem der Ansprüche 17 bis 26, dadurch gekennzeichnet, daß die Vorrichtung (82) zum Erkennen und Abspalten von Subobjekten ein Clusterobjekt (73) in Bereiche verschiedener Bewegung, Form und/oder Größe zerlegt, und diese Bereiche als Subobjekt behandelt.27. The device according to one of claims 17 to 26, characterized in that the device ( 82 ) for recognizing and splitting off sub-objects breaks down a cluster object ( 73 ) into areas of different movement, shape and / or size, and treats these areas as a sub-object. 28. Vorrichtung nach einem der Ansprüche 13 bis 27, dadurch gekennzeichnet, daß für die Speicherung der Referenzobjekte ein Referenzobjektspeicher (87) vorgesehen ist, in dem die Referenzobjekte in Form virtuell-optischer dreidimensio­ naler Vektorflächengraphikobjekte gespeichert sind.28. Device according to one of claims 13 to 27, characterized in that a reference object memory ( 87 ) is provided for the storage of the reference objects, in which the reference objects are stored in the form of virtual-optical three-dimensional vector surface graphic objects.
DE4211904A 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample Expired - Fee Related DE4211904C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4211904A DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample
DE4244708A DE4244708C2 (en) 1992-04-09 1992-04-09 Ascertaining type list for liquid sample examintion

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4111472 1991-04-09
DE4211904A DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample

Publications (2)

Publication Number Publication Date
DE4211904A1 true DE4211904A1 (en) 1992-11-19
DE4211904C2 DE4211904C2 (en) 1994-03-17

Family

ID=6429151

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4211904A Expired - Fee Related DE4211904C2 (en) 1991-04-09 1992-04-09 Automatic procedure for creating a list of different types for a liquid sample

Country Status (1)

Country Link
DE (1) DE4211904C2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4337528A1 (en) * 1993-11-04 1995-07-20 Lothar Bode Determn of condition of skin tissue by image analysis
DE19709348A1 (en) * 1996-05-29 1997-12-04 Walter Dr Schubert Automatic multi-epitope ligand mapping system
DE19726226A1 (en) * 1997-06-22 1998-12-24 Zentrum Fuer Neuroinformatik G Automatic image recognition technique for comparison of tissue structures and cells, especially in medical diagnosis
DE19801400A1 (en) * 1998-01-16 1999-07-29 Petra Dr Ing Perner Automatic analysis and classification of Hep-2 cell patterns
DE19858456A1 (en) * 1998-12-18 2000-07-06 Leica Microsystems Methods for locating, recording and possibly evaluating object structures
DE10221124A1 (en) * 2002-05-13 2003-11-27 Bayer Cropscience Ag Automatic count and/or classification of plant pests uses a transparent underlay to catch pests from the leaves, to be scanned, and the image is analyzed by a data processing unit
DE10229880A1 (en) * 2002-07-03 2004-01-29 Siemens Ag Image analysis method and device for image evaluation for in vivo small animal imaging
EP1495439A2 (en) * 2002-07-15 2005-01-12 Baylor College of Medicine Assaying and imaging system identifying traits of biological specimens
DE102004051508A1 (en) * 2003-10-21 2005-06-16 Leica Microsystems Wetzlar Gmbh Laser micro-dissection method for extraction of microscopic object from biological preparation using image analysis technique for automatic object identifcation and marking of required separation line
DE10361073A1 (en) * 2003-12-22 2005-07-21 Innovatis Ag Method and device for taking microscopic images
DE102004023262A1 (en) * 2004-05-11 2005-12-08 P.A.L.M. Microlaser Technologies Ag Method for processing a mass by means of laser irradiation and control system
DE102004018174B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. Method of acquiring forms from images with cases and case-based recognition of objects in digital images, computer program product and digital storage medium for carrying out this method
DE102004018171B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. A method for acquiring shapes from images of airborne germs and / or pollen and for case-based recognition of those objects in digital images, computer program product and digital storage medium for carrying out this method
DE19845883B4 (en) * 1997-10-15 2007-06-06 LemnaTec GmbH Labor für elektronische und maschinelle Naturanalytik Method for determining the phytotoxicity of a test substance
DE102007003448A1 (en) 2007-01-19 2008-07-24 Perner, Petra, Dr.-Ing. Method and data processing system for the automatic detection, processing, interpretation and conclusion of objects present as digital data sets
DE102007009485A1 (en) 2007-02-22 2008-08-28 Perner, Petra, Dr.-Ing. Method and data processing system for modeling the image segmentation
US7576912B2 (en) 2004-05-07 2009-08-18 P.A.L.M. Microlaser Technologies Gmbh Microscope table and insert
US7895141B2 (en) 2004-04-08 2011-02-22 Petra Perner Methods for case-based recognition of HEp-2 cells in digital images of HEp-2 cell sections
DE102010035908A1 (en) 2009-08-28 2011-03-10 Perner, Petra, Dr.-Ing. Device and method for automatically detecting the dynamic processes of cells of cell samples
US9217694B2 (en) 2003-10-21 2015-12-22 Leica Microsystems Cms Gmbh Method for automatically generating laser cutting lines in laser microdissection processes
CN113283652A (en) * 2021-05-27 2021-08-20 则思科技(苏州)有限公司 Military industry macro quality level evaluation method

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2423455A1 (en) * 1973-05-21 1974-12-12 Corning Glass Works ARRANGEMENT FOR ANALYSIS OF BLOOD SAMPLES
DE2720036A1 (en) * 1976-05-04 1977-11-24 Green James E METHOD AND DEVICE FOR IMAGE ANALYSIS UNDER DOUBLE RESOLUTION
DE2823490A1 (en) * 1977-05-31 1978-12-14 Rush Presbyterian St Luke METHODS FOR ANALYSIS OF ORGANISM CELLS
DE2903625A1 (en) * 1978-02-03 1979-08-09 Rush Presbyterian St Luke DEVICE FOR AUTOMATIC BLOOD ANALYSIS
DE2903855A1 (en) * 1979-02-01 1980-08-14 Bloss Werner H Prof Dr Ing METHOD FOR AUTOMATICALLY MARKING CELLS AND DETERMINING THE CHARACTERISTICS OF CELLS FROM CYTOLOGICAL MEASUREMENT DEVICES
US4307376A (en) * 1976-12-09 1981-12-22 Geometric Data Corporation Pattern recognition system for generating hematology profile
DE3044883A1 (en) * 1980-11-28 1982-07-01 Fa. Carl Zeiss, 7920 Heidenheim METHOD AND ARRANGEMENT FOR FINDING PARTICULARS, BSPW. METAPHASE PLATES
DE3313789A1 (en) * 1982-04-15 1983-10-20 Coulter Electronics, Inc., 33010 Hialeah, Fla. SELF-ACTING MICROSCOPIC EXAMINATION DEVICE AND METHOD FOR DETERMINING AND RECOVERING OBJECTS IN AN IMAGE
EP0136718A2 (en) * 1983-10-04 1985-04-10 Wang Laboratories Inc. Dual level pattern recognition system
DE3442568A1 (en) * 1983-11-28 1985-06-05 Société Inter Informatique (S.I.I.), Nice METHOD FOR CONTINUOUSLY AND AUTOMATICALLY IDENTIFYING, SORTING AND COUNTING PARTICLES OF SMALL DIMENSIONS
DE3543515A1 (en) * 1985-12-10 1987-06-11 Strahlen Umweltforsch Gmbh METHOD FOR MEASURING THE MOTIONS AND CONFIGURATIONS OF BIOLOGICAL AND NON-BIOLOGICAL OBJECTS
DE3841387A1 (en) * 1987-12-11 1989-06-22 Toshiba Kawasaki Kk METHOD AND DEVICE FOR MONITORING A MOVING OBJECT
US4845765A (en) * 1986-04-18 1989-07-04 Commissariat A L'energie Atomique Process for the automatic recognition of objects liable to overlap
EP0354701A2 (en) * 1988-08-08 1990-02-14 Raytheon Company Method of recognizing patterns
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
US4932044A (en) * 1988-11-04 1990-06-05 Yale University Tissue analyzer
WO1990010273A1 (en) * 1989-02-28 1990-09-07 Robert Massen Process and arrangement for automatic optical classification of plants
US4982437A (en) * 1987-01-20 1991-01-01 Manufacture Francaise Des Chaussures Eram Method of cutting an object as a function of particularities of said object
WO1991002330A1 (en) * 1989-08-10 1991-02-21 International Remote Imaging Systems, Inc. A method of differentiating particles based upon a dynamically changing threshold

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2423455A1 (en) * 1973-05-21 1974-12-12 Corning Glass Works ARRANGEMENT FOR ANALYSIS OF BLOOD SAMPLES
DE2720036A1 (en) * 1976-05-04 1977-11-24 Green James E METHOD AND DEVICE FOR IMAGE ANALYSIS UNDER DOUBLE RESOLUTION
US4307376A (en) * 1976-12-09 1981-12-22 Geometric Data Corporation Pattern recognition system for generating hematology profile
DE2823490A1 (en) * 1977-05-31 1978-12-14 Rush Presbyterian St Luke METHODS FOR ANALYSIS OF ORGANISM CELLS
DE2903625A1 (en) * 1978-02-03 1979-08-09 Rush Presbyterian St Luke DEVICE FOR AUTOMATIC BLOOD ANALYSIS
DE2903855A1 (en) * 1979-02-01 1980-08-14 Bloss Werner H Prof Dr Ing METHOD FOR AUTOMATICALLY MARKING CELLS AND DETERMINING THE CHARACTERISTICS OF CELLS FROM CYTOLOGICAL MEASUREMENT DEVICES
DE3044883A1 (en) * 1980-11-28 1982-07-01 Fa. Carl Zeiss, 7920 Heidenheim METHOD AND ARRANGEMENT FOR FINDING PARTICULARS, BSPW. METAPHASE PLATES
DE3313789A1 (en) * 1982-04-15 1983-10-20 Coulter Electronics, Inc., 33010 Hialeah, Fla. SELF-ACTING MICROSCOPIC EXAMINATION DEVICE AND METHOD FOR DETERMINING AND RECOVERING OBJECTS IN AN IMAGE
EP0136718A2 (en) * 1983-10-04 1985-04-10 Wang Laboratories Inc. Dual level pattern recognition system
DE3442568A1 (en) * 1983-11-28 1985-06-05 Société Inter Informatique (S.I.I.), Nice METHOD FOR CONTINUOUSLY AND AUTOMATICALLY IDENTIFYING, SORTING AND COUNTING PARTICLES OF SMALL DIMENSIONS
DE3543515A1 (en) * 1985-12-10 1987-06-11 Strahlen Umweltforsch Gmbh METHOD FOR MEASURING THE MOTIONS AND CONFIGURATIONS OF BIOLOGICAL AND NON-BIOLOGICAL OBJECTS
US4845765A (en) * 1986-04-18 1989-07-04 Commissariat A L'energie Atomique Process for the automatic recognition of objects liable to overlap
US4982437A (en) * 1987-01-20 1991-01-01 Manufacture Francaise Des Chaussures Eram Method of cutting an object as a function of particularities of said object
DE3841387A1 (en) * 1987-12-11 1989-06-22 Toshiba Kawasaki Kk METHOD AND DEVICE FOR MONITORING A MOVING OBJECT
EP0354701A2 (en) * 1988-08-08 1990-02-14 Raytheon Company Method of recognizing patterns
DE3836716A1 (en) * 1988-10-28 1990-05-03 Zeiss Carl Fa METHOD FOR EVALUATING CELL IMAGES
US4932044A (en) * 1988-11-04 1990-06-05 Yale University Tissue analyzer
WO1990010273A1 (en) * 1989-02-28 1990-09-07 Robert Massen Process and arrangement for automatic optical classification of plants
WO1991002330A1 (en) * 1989-08-10 1991-02-21 International Remote Imaging Systems, Inc. A method of differentiating particles based upon a dynamically changing threshold

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
messen + prüfen/automatik 1984, S. 310,311,322 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4337528A1 (en) * 1993-11-04 1995-07-20 Lothar Bode Determn of condition of skin tissue by image analysis
DE19709348A1 (en) * 1996-05-29 1997-12-04 Walter Dr Schubert Automatic multi-epitope ligand mapping system
DE19709348C2 (en) * 1996-05-29 1999-07-01 Schubert Walter Dr Md Automatic multi-epitope ligand mapping process
US6150173A (en) * 1996-05-29 2000-11-21 Schubert; Walter Automated determining and measuring device and method
DE19726226A1 (en) * 1997-06-22 1998-12-24 Zentrum Fuer Neuroinformatik G Automatic image recognition technique for comparison of tissue structures and cells, especially in medical diagnosis
DE19726226C2 (en) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Process for the automated recognition of structures in sections through biological cells or biological tissue
DE19845883B4 (en) * 1997-10-15 2007-06-06 LemnaTec GmbH Labor für elektronische und maschinelle Naturanalytik Method for determining the phytotoxicity of a test substance
DE19801400A1 (en) * 1998-01-16 1999-07-29 Petra Dr Ing Perner Automatic analysis and classification of Hep-2 cell patterns
DE19801400C2 (en) * 1998-01-16 2001-10-18 Petra Perner Process for the automatic detection, description of properties and interpretation of Hep-2 cell patterns
DE19858456A1 (en) * 1998-12-18 2000-07-06 Leica Microsystems Methods for locating, recording and possibly evaluating object structures
DE10221124A1 (en) * 2002-05-13 2003-11-27 Bayer Cropscience Ag Automatic count and/or classification of plant pests uses a transparent underlay to catch pests from the leaves, to be scanned, and the image is analyzed by a data processing unit
DE10229880A1 (en) * 2002-07-03 2004-01-29 Siemens Ag Image analysis method and device for image evaluation for in vivo small animal imaging
EP1495439A2 (en) * 2002-07-15 2005-01-12 Baylor College of Medicine Assaying and imaging system identifying traits of biological specimens
EP1495439A4 (en) * 2002-07-15 2006-11-29 Baylor College Medicine Assaying and imaging system identifying traits of biological specimens
DE102004051508A1 (en) * 2003-10-21 2005-06-16 Leica Microsystems Wetzlar Gmbh Laser micro-dissection method for extraction of microscopic object from biological preparation using image analysis technique for automatic object identifcation and marking of required separation line
DE102004051508B4 (en) * 2003-10-21 2006-09-21 Leica Microsystems Cms Gmbh Method for automatic generation of laser cut lines in laser microdissection
US9217694B2 (en) 2003-10-21 2015-12-22 Leica Microsystems Cms Gmbh Method for automatically generating laser cutting lines in laser microdissection processes
DE10361073A1 (en) * 2003-12-22 2005-07-21 Innovatis Ag Method and device for taking microscopic images
DE102004018174B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. Method of acquiring forms from images with cases and case-based recognition of objects in digital images, computer program product and digital storage medium for carrying out this method
DE102004018171B4 (en) * 2004-04-08 2006-12-21 Perner, Petra, Dr.-Ing. A method for acquiring shapes from images of airborne germs and / or pollen and for case-based recognition of those objects in digital images, computer program product and digital storage medium for carrying out this method
US7895141B2 (en) 2004-04-08 2011-02-22 Petra Perner Methods for case-based recognition of HEp-2 cells in digital images of HEp-2 cell sections
US7576912B2 (en) 2004-05-07 2009-08-18 P.A.L.M. Microlaser Technologies Gmbh Microscope table and insert
DE102004023262A1 (en) * 2004-05-11 2005-12-08 P.A.L.M. Microlaser Technologies Ag Method for processing a mass by means of laser irradiation and control system
US7848552B2 (en) 2004-05-11 2010-12-07 P.A.L.M. Microlaser Technologies Gmbh Method for processing a material by means of a laser irradiation and control system
DE102004023262B4 (en) * 2004-05-11 2012-08-09 Carl Zeiss Microimaging Gmbh Method for processing a mass by means of laser irradiation and control system
DE102004023262B8 (en) * 2004-05-11 2013-01-17 Carl Zeiss Microimaging Gmbh Method for processing a mass by means of laser irradiation and control system
DE102007003448A1 (en) 2007-01-19 2008-07-24 Perner, Petra, Dr.-Ing. Method and data processing system for the automatic detection, processing, interpretation and conclusion of objects present as digital data sets
DE102007009485A1 (en) 2007-02-22 2008-08-28 Perner, Petra, Dr.-Ing. Method and data processing system for modeling the image segmentation
DE102010035908A1 (en) 2009-08-28 2011-03-10 Perner, Petra, Dr.-Ing. Device and method for automatically detecting the dynamic processes of cells of cell samples
CN113283652A (en) * 2021-05-27 2021-08-20 则思科技(苏州)有限公司 Military industry macro quality level evaluation method

Also Published As

Publication number Publication date
DE4211904C2 (en) 1994-03-17

Similar Documents

Publication Publication Date Title
DE4211904C2 (en) Automatic procedure for creating a list of different types for a liquid sample
EP1181525B1 (en) Method for the automatic analysis of microscope images
DE19747415C2 (en) Method for assisting an observer in screening a sample and cytological sample analysis system
DE102008059788B4 (en) Analysis and classification of biological or biochemical objects on the basis of time series images, applicable to cytometric time-lapse cell analysis in image-based cytometry
DE2823490A1 (en) METHODS FOR ANALYSIS OF ORGANISM CELLS
EP1797533B1 (en) Method and device for segmenting a digital representation of cells
EP2130174B1 (en) Method and device for determining a cell contour of a cell
EP0896661A1 (en) Automated, microscope-assisted examination process of tissue or bodily fluid samples
DE3313789A1 (en) SELF-ACTING MICROSCOPIC EXAMINATION DEVICE AND METHOD FOR DETERMINING AND RECOVERING OBJECTS IN AN IMAGE
DE69532276T2 (en) AUTOMATED CYTOLOGICAL SAMPLING CLASSIFICATION METHOD
DE602004008471T2 (en) METHOD AND ARRANGEMENT FOR DETERMINING AN OBJECT CONTOUR
DE102019133685A1 (en) Information processing system and procedures
DE19801400C2 (en) Process for the automatic detection, description of properties and interpretation of Hep-2 cell patterns
EP1671103A1 (en) Methods for automatically identifying microorganisms collected on a carrier
DE4244708C2 (en) Ascertaining type list for liquid sample examintion
DE112009005102T5 (en) Splitting of multipart objects
DE112022001991T5 (en) TUMOR CELE ISOLINES
EP4118478A1 (en) Method and device for examining microscope specimens using optical markers
DE1549893A1 (en) Method and arrangement for the electronic classification of original images
DE19834718A1 (en) Image processing system for identifying irregularities of textured surface such as object surface and other parameters with units for carrying work namely selection of areas of textured
AT511399B1 (en) METHOD FOR THE AUTOMATED CLASSIFICATION OF INCLUSIONS
DE102010035908A1 (en) Device and method for automatically detecting the dynamic processes of cells of cell samples
DE102004018174B4 (en) Method of acquiring forms from images with cases and case-based recognition of objects in digital images, computer program product and digital storage medium for carrying out this method
EP4300418A1 (en) System for assisting a user in the image-based recognition of tissue degeneration
EP4206986A1 (en) Method for analyzing structures in steel samples

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8172 Supplementary division/partition in:

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

Q171 Divided out to:

Ref country code: DE

Ref document number: 4244708

AH Division in

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
AH Division in

Ref country code: DE

Ref document number: 4244708

Format of ref document f/p: P

8339 Ceased/non-payment of the annual fee