DE102012109958A1 - Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set - Google Patents

Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set Download PDF

Info

Publication number
DE102012109958A1
DE102012109958A1 DE201210109958 DE102012109958A DE102012109958A1 DE 102012109958 A1 DE102012109958 A1 DE 102012109958A1 DE 201210109958 DE201210109958 DE 201210109958 DE 102012109958 A DE102012109958 A DE 102012109958A DE 102012109958 A1 DE102012109958 A1 DE 102012109958A1
Authority
DE
Germany
Prior art keywords
image data
data set
evaluation
output
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210109958
Other languages
German (de)
Inventor
Thomas Engel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE201210109958 priority Critical patent/DE102012109958A1/en
Publication of DE102012109958A1 publication Critical patent/DE102012109958A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • G06T5/73

Abstract

The method (30) involves providing (34) an image data set, which includes an image detected by an optical sensor. The image data set is corrected (36) for producing a corrected image data set as an evaluation image data set. The evaluation image data set is unique evaluated (42). The evaluation image data set is unique modified (38) for producing a modified evaluation image data set as an output image data set. The output image data set is outputted (40) to a user. A user input of a user is processed after outputting the output image data set. Independent claims are also included for the following: (1) a device (2) a computer program product comprising instructions for performing a method for outputting and evaluating an image data set detected by an optical sensor.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Ausgeben und Auswerten eines mittels eines optischen Sensors erfassten Bilddatensatzes mit den Schritten des Bereitstellens eines Bilddatensatzes, wobei der Bilddatensatz mindestens ein mittels des optischen Sensors erfasstes Bild aufweist, und des Korrigierens des Bilddatensatzes zum Erzeugen eines korrigierten Bilddatensatzes als Auswertungsbilddatensatz.The present invention relates to a method for outputting and evaluating an image data set acquired by means of an optical sensor with the steps of providing an image data set, wherein the image data set comprises at least one image captured by the optical sensor, and correcting the image data set for generating a corrected image data set as an evaluation image data set ,

Ein solches Verfahren ist beispielsweise aus der Druckschrift DE 10 2006 030 670 A1 bekannt.Such a method is for example from the document DE 10 2006 030 670 A1 known.

In modernen Messsystemen, beispielsweise Koordinatenmessgeräten, Mikroskopen oder anderen optisch messenden Vorrichtungen, werden zunehmend Kamerasysteme eingesetzt, um Bilder von Messobjekten, beispielsweise technischen Objekten oder auch virologischen Proben, aufzunehmen. Die so aufgenommenen Bilder werden dann mit Methoden der Bildverarbeitung vorverarbeitet und dem Anwender des entsprechenden Messsystems auf einem Bildschirm angezeigt. Für die weitere Auswertung wird dann in diesem angezeigten Bild gearbeitet, wie dies die eingangs genannte Druckschrift DE 10 2006 030 670 A1 beschreibt.In modern measuring systems, for example, coordinate measuring machines, microscopes or other optically measuring devices, camera systems are increasingly being used to record images of measured objects, for example technical objects or even virological samples. The images recorded in this way are then preprocessed using image processing methods and displayed to the user of the corresponding measuring system on a screen. For further evaluation is then worked in this displayed image, as the above-mentioned document DE 10 2006 030 670 A1 describes.

Für die nachfolgende Auswertung von Strukturen oder Regionen in dem angezeigten Bild, zum Beispiel in Bezug auf Abmessungen und Dimensionen oder von Oberflächeneigenschaften wie Rauheit oder von weiteren Merkmalen wie Farbe oder Textur, kann dann eine Datenverarbeitungseinrichtung automatisch oder durch Markierungen des Nutzers weitere Analysen vornehmen. Diese weiteren Analysen beruhen dann auf dem zur Anzeige gebrachten Bild.For the subsequent evaluation of structures or regions in the displayed image, for example with regard to dimensions and dimensions or surface properties such as roughness or other features such as color or texture, a data processing device can then perform further analyzes automatically or by markings of the user. These further analyzes are then based on the displayed image.

Es ist seit langem bekannt, Messergebnisse optischer Sensoren graphisch aufzuarbeiten und einem Nutzer mittels einer Anzeigevorrichtung darzustellen. Dabei ist es auch möglich, dem Nutzer ein Messergebnis in Form verschiedener aufbereiteter Ansichten darzustellen, wie dies beispielsweise die Druckschrift WO 03/096228 A1 zeigt. Dort können mittels eines Mikroskops gewonnene Messergebnisse auf verschiedene Weise graphisch aufbereitet werden und die so erlangten verschiedenen Ansichten desselben Erfassungsbereichs einem Benutzer auf einer einzigen Anzeigeneinrichtung dargestellt werden.It has long been known to graphically process measurement results of optical sensors and display them to a user by means of a display device. It is also possible to present the user with a measurement result in the form of various processed views, as for example the publication WO 03/096228 A1 shows. There, obtained by means of a microscope measurement results can be graphically processed in various ways and the thus obtained different views of the same coverage area are presented to a user on a single display device.

Es ist auch bekannt, dass ein Benutzer basierend auf einer graphischen Anzeige Nutzereingaben tätigen kann, die dann einem weiteren Verfahrensablauf, beispielsweise einer Werkzeugauswahl oder einem Messvorgang, zugrunde gelegt werden können. Dies zeigt beispielsweise die Druckschrift EP 0 967 456 A2 .It is also known that a user can make user inputs based on a graphic display, which can then be used as a basis for a further method sequence, for example a tool selection or a measuring procedure. This shows, for example, the publication EP 0 967 456 A2 ,

Basierend auf diesem Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Ausgeben und Auswerten eines mittels eines optischen Sensors erfassten Bilddatensatzes sowie eine verbesserte Vorrichtung und ein verbessertes Computerprogrammprodukt bereitzustellen.Based on this prior art, it is an object of the present invention to provide an improved method for outputting and evaluating an image data set acquired by means of an optical sensor as well as an improved apparatus and an improved computer program product.

Erfindungsgemäß wird daher vorgeschlagen, das eingangs genannte Verfahren dahingehend weiterzubilden, dass es des Weiteren die Schritte des mindestens einmaligen Auswertens des Auswertungsbilddatensatzes des mindestens einmaligen Modifizierens des Auswertungsbilddatensatzes zum Erzeugen mindestens eines ersten modifizierten Auswertungsbilddatensatzes als Ausgabebilddatensatz, und des Ausgebens des Ausgabebilddatensatzes an einen Nutzer aufweist.According to the invention, it is therefore proposed to further develop the method mentioned above such that it further comprises the steps of evaluating the evaluation image data set at least once to modify the evaluation image data set to generate at least one first modified evaluation image data set as the output image data set, and outputting the output image data set to a user.

Folglich werden in dem vorliegenden Verfahren zunächst eines oder mehrere Bilder als Bilddatensatz bereitgestellt. Dieser Bilddatensatz wird dann korrigiert, so dass man einen ”Auswertungsbilddatensatz” erhält. Dieser Auswertungsbilddatensatz kann nun ein oder mehrere Male modifiziert werden, so dass man mindestens einen ersten modifizierten Auswertungsbilddatensatz erhält, der oder die dann den ”Ausgabebilddatensatz” bilden. Dieser Ausgabebilddatensatz wird dann an einen Nutzer ausgegeben. Eine Auswertung erfolgt jedoch auf Basis des Auswertungsbilddatensatzes. Die Auswertung erfolgt also an einem unmodifizierten Auswertungsbilddatensatz.Thus, in the present method, one or more images are first provided as an image data set. This image data set is then corrected so that an "evaluation image data set" is obtained. This evaluation image data set can now be modified one or more times, so that at least one first modified evaluation image data record is obtained, which then forms the "output image data record". This output image data set is then output to a user. However, an evaluation is made on the basis of the evaluation image data set. The evaluation thus takes place on an unmodified evaluation image data record.

Es wurde erkannt, dass zwischen der Wahrnehmung des menschlichen Auges und einer Erfassungscharakteristik eines optischen Sensors grundlegende Unterschiede bestehen, die eine unterschiedliche Behandlung der an den Nutzer ausgegebenen und der einer rechnergestützten Auswertung zugrunde zu legenden Bilddatensätze erfordern. Daher schlägt die vorliegende Erfindung vor, einen bereitgestellten Bilddatensatz zunächst zu korrigieren und diesen als Auswertungsbilddatensatz für eine rechnergestützte Auswertung zugrunde zu legen und zu speichern. Zwar können Modifikationen an diesem Auswertungsbilddatensatz vorgenommen werden, um einem Nutzer eine hinsichtlich bestimmter Kriterien optimierte Ausgabe bereitzustellen, erfindungsgemäß wird eine darauffolgende, möglicherweise basierend auf Nutzereingaben im Ausgabebilddatensatz erfolgende Auswertung aber nach wie vor an dem unmodifizierten Auswertungsbilddatensatz durchgeführt.It has been recognized that there are fundamental differences between the perception of the human eye and a detection characteristic of an optical sensor, which require a different treatment of the image data sets output to the user and to be based on a computer-aided evaluation. Therefore, the present invention proposes first of all to correct a provided image data record and to use it as an evaluation image data record for a computer-aided evaluation and store it. Although modifications may be made to this evaluation image data set to provide a user with optimized output with respect to certain criteria, according to the invention a subsequent evaluation, possibly based on user input in the output image data set, will still be performed on the unmodified evaluation image data set.

Beispielsweise weist das menschliche Auge eine logarithmische Wahrnehmung der Helligkeit in Bildern auf. Aus diesem Grund ist es hilfreich, in Kamerabildern Kontraste anzuheben, um zum Beispiel Kanten für eine Darstellung auf einer Anzeigeeinrichtung oder einem Ausdruck zu betonen. Ein typischer Kameradetektor wie ein ”Charge Coupled Device” (CCD) oder ein ”Complementary Metal Oxide Semiconductor”(CMOS)-Sensor weist demgegenüber eine lineare Empfindlichkeit auf. Auch bei den sich mehr und mehr verbreitenden lin-log-CMOS-Sensoren liegt im Endeffekt eine über unterschiedlich steile lineare Kennlinien approximierte logarithmische Empfindlichkeit vor. Als optische Sensoren verwendete Kameras weisen somit innerhalb ihres Empfindlichkeitsbereichs zumindest abschnittsweise immer einen linearen Zusammenhang zwischen eingestrahlter Intensität und dem dafür bestimmten Wert des Ausgangssignals auf. Entsprechendes gilt auch für moderne High Dynamic Range Kameras (HDR), die beispielsweise über lineare Teilstücke in der Empfindlichkeitskurve eine Annäherung an z. B. logarithmische Funktionen für die Empfindlichkeit über den gesamten Dynamikbereich darstellen. Folglich existieren grundlegende Unterschiede in der Wahrnehmung eines Bildes durch das menschliche Auge und der technischen Darstellung bzw. Umwandlung in Ausgangssignale.For example, the human eye has a logarithmic perception of the brightness in images. For this reason, it is helpful to raise contrast in camera images, for example, edges for a representation on one Display device or an expression. A typical camera detector such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor, on the other hand, has a linear sensitivity. In the case of the more and more widespread lin-log CMOS sensors, there is also a logarithmic sensitivity approximated by different steep linear characteristics. Cameras used as optical sensors thus always have, within their sensitivity range, at least in sections, a linear relationship between the incident intensity and the value of the output signal determined therefor. The same applies to modern high dynamic range cameras (HDR), for example, via linear sections in the sensitivity curve an approximation to z. B. represent logarithmic functions for the sensitivity over the entire dynamic range. Consequently, there are fundamental differences in the perception of an image by the human eye and the technical representation or conversion into output signals.

Bei der technischen Auswertung von Bildern, zum Beispiel bei der Detektion von Kanten, wird normalerweise ein Schwellwertkriterium verwendet. Es wird ein homogenes Intensitätsniveau auf beiden Seiten der Kante bestimmt und dann aus einem angepassten Verlauf der Intensitätswerte in orthogonaler Richtung zur Kante bei einem vorab festgelegten Schwellwert der Kantenort festgelegt. Für die Messung einer Linienbreite wird dann beispielsweise ein Kantenort für sowohl die rechte als auch die linke Kante im Bild bestimmt und daraus dann der Abstand der beiden bekannten Orte ermittelt, der dann als Linienbreite bezeichnet wird. Diese Messung einer Linienbreite setzt immer einen linearen Intensitätsverlauf zumindest zwischen dem oberen und dem unteren Intensitätsniveau im Bild auf den beiden Seiten der Kante voraus. Dieses Prinzip kommt auch bei der Messung anderer Geometrieelemente oder auch in anderen Strukturen im Bild zum Einsatz.In the technical evaluation of images, for example in the detection of edges, a threshold criterion is normally used. A homogeneous intensity level is determined on both sides of the edge and then determined from an adapted course of the intensity values in the orthogonal direction to the edge at a predetermined threshold of the edge location. For the measurement of a line width, an edge location for both the right and the left edge in the image is then determined, for example, and then the distance between the two known locations is determined therefrom, which is then referred to as a line width. This measurement of a line width always requires a linear intensity profile at least between the upper and lower intensity levels in the image on the two sides of the edge. This principle is also used in the measurement of other geometric features or in other structures in the image.

Dieses Beispiel zeigt, dass auf der einen Seite eine logarithmische Aufbereitung eines Intensitätsverlaufs für die Darstellung für einen menschlichen Betrachter vorteilhaft wäre, andererseits eine rechnergestützte Auswertung mit einem linearen Intensitätsverlauf arbeitet. Um nun sowohl eine optimal arbeitende rechnergestützte Auswertung als auch ein bestmöglich aufbereitetes Bild einem Betrachter bereitzustellen, wird mittels der erfindungsgemäßen Lösung zunächst ein Auswertungsbilddatensatz ermittelt und für die Auswertung vorbehalten. Der Auswertungsbilddatensatz wird modifiziert, so dass man einen Ausgabebilddatensatz erhält. Dieser Ausgabebilddatensatz kann dann an einen Nutzer ausgegeben werden. Gleichzeitig bleibt jedoch der Auswertungsbilddatensatz erhalten und kann darauffolgend einer Auswertung zugrunde gelegt werden. Auf diese Weise erhält man beides, auf der einen Seite eine optimale Bildaufbereitung zur Ausgabe an einen Nutzer, auf der anderen Seite einen zur rechnergestützten Auswertung optimierten Bilddatensatz.This example shows that on the one hand a logarithmic preparation of an intensity profile for the representation would be advantageous for a human observer, on the other hand a computer-assisted evaluation with a linear intensity profile works. In order to provide both an optimal computer-aided evaluation and the best possible processed image to a viewer, an evaluation image data set is initially determined by means of the inventive solution and reserved for the evaluation. The evaluation image data set is modified to obtain an output image data set. This output image data set can then be output to a user. At the same time, however, the evaluation image data set remains and can subsequently be used as the basis for an evaluation. In this way you get both, on the one hand an optimal image processing for output to a user, on the other hand optimized for computer-aided evaluation image data set.

Gemäß einem zweiten Aspekt der Erfindung wird eine Vorrichtung, insbesondere ein Koordinatenmessgerät, vorgeschlagen, das einen optischen Sensor, eine Datenverarbeitungseinrichtung, eine Speichereinheit und eine Ausgabeeinrichtung aufweist, wobei die Vorrichtung dazu eingerichtet ist, ein Verfahren gemäß dem ersten Aspekt der Erfindung oder einer seiner Ausgestaltungen auszuführen. Insbesondere ist die Datenverarbeitungseinrichtung dazu eingerichtet, das Verfahren auszuführen.According to a second aspect of the invention, a device, in particular a coordinate measuring machine, is proposed which has an optical sensor, a data processing device, a memory unit and an output device, the device being adapted to a method according to the first aspect of the invention or one of its embodiments perform. In particular, the data processing device is set up to carry out the method.

Gemäß einem dritten Aspekt der Erfindung wird ein Computerprogrammprodukt mit Programmcodemitteln vorgeschlagen, die dazu eingerichtet sind, ein Verfahren gemäß dem ersten Aspekt der Erfindung oder einer seiner Ausgestaltungen auszuführen, wenn sie von einer Datenverarbeitungseinrichtung ausgeführt werden.According to a third aspect of the invention there is provided a computer program product comprising program code means adapted to carry out a method according to the first aspect of the invention or one of its embodiments when executed by a data processing device.

Die Vorrichtung gemäß dem zweiten Aspekt und das Computerprogramm gemäß dem dritten Aspekt der Erfindung weisen dieselben Vorteile wie das Programm gemäß dem ersten Aspekt der Erfindung auf.The apparatus according to the second aspect and the computer program according to the third aspect of the invention have the same advantages as the program according to the first aspect of the invention.

Die eingangs gestellte Aufgabe wird daher vollkommen gelöst.The object initially posed is therefore completely solved.

In einer Ausgestaltung des Verfahrens kann vorgesehen sein, dass nach dem Ausgeben des Ausgabebilddatensatzes eine den Schritt des Auswertens beeinflussende und auf dem Ausgabebilddatensatz basierende Nutzereingabe des Nutzers verarbeitet wird.In one refinement of the method, it is possible to provide that after the output image data record has been output, a user input of the user influencing the step of the evaluation and based on the output image data record is processed.

Beispielsweise kann es auf diese Weise ermöglicht werden, dass der Nutzer einen bestimmten Bereich des Bildes auswählt, der einer Auswertung unterzogen werden soll. Beispielsweise ist es auch möglich, dass der Nutzer bestimmte Suchrichtungen vorgibt, entlang derer nach einer Kante gesucht werden soll.For example, it may be possible in this way for the user to select a specific area of the image to be evaluated. For example, it is also possible for the user to specify certain search directions along which an edge should be searched.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass der Schritt des Korrigierens des Bilddatensatzes einen Schritt der Korrektur von Fehlern des optischen Sensors und einen Schritt der Korrektur von Fehlern eines optischen Abbildungssystems aufweist.In a further embodiment of the method, it can be provided that the step of correcting the image data set comprises a step of correcting errors of the optical sensor and a step of correcting errors of an optical imaging system.

Auf diese Weise wird zuerst der Teil an Bildfehlern korrigiert, der dem optischen Sensor zugeschlagen werden kann. Beispielsweise sind dies Fehler aufgrund von Untergrundrauschen, von unterschiedlicher Empfindlichkeit der einzelnen Pixel des optischen Sensors, von unterschiedlicher Verstärkung in den Pixeln oder aber auch von einer unterschiedlich starken Beleuchtung der Pixel in den jeweils gewählten Beleuchtungseinstellungen. Wenn diese Korrektur durchgeführt ist, hat man ein in Bezug auf die Detektion optimiertes und auch in der Empfindlichkeit linear bzw. homogen gefiltertes Bild erhalten, so wie es näherungsweise von einer idealen Kamera bei optimierter Beleuchtung gemessen worden wäre. Ein nächster Schritt der Korrektur umfasst dann diejenigen Korrekturen, die von der Abbildungsoptik stammen und durch eine frühere Vermessung bekannt sind. Solche Fehler werden typischerweise über Kennzahlensysteme erfasst, die beispielsweise in Form von sogenannten Zernike-Koeffizienten bestimmt werden. Diese Fehler können entweder global für das gesamte Gesichtsfeld der Kamera, das heißt des optischen Sensors, korrigiert werden oder aber auch an verschiedenen Stellen des Gesichtsfeldes gemessen werden, um so eine stetige Korrektur in Bezug auf das lokale Verhalten zu ermöglichen. Je nach Detektionsprinzip der Abbildungsfehler können so unterschiedliche Kennzahlensysteme und Anordnungen von Messpunkten im Gesichtsfeld der Abbildungsoptik zur Bestimmung der Abbildungsgüte der Abbildungsoptik verwendet werden. Alternativ können zum Beispiel Verzeichnung oder chromatische Effekte auch über Fehlerkarten korrigiert werden, die ortsabhängig – etwa auf die Pixel des Bildes bezogen – die nötigen Korrekturwerte bereitstellen. Nach diesem Korrekturschritt ist das ideale bzw. bestmögliche optische Bild erreicht und wird als Auswertungsbilddatensatz hinterlegt. Dies kann nunmehr als Grundlage für alle weiteren Bearbeitungsoperationen verwendet werden. Darüber hinaus ist es selbstverständlich auch möglich, dass lediglich entweder der Schritt der Korrektur von Fehlern des optischen Systems oder der Schritt der Korrektur von Fehlern des optischen Abbildungssystems vorgenommen wird. Beispiele für Verfahren zur Bestimmung der Abbildungsgüte eines optischen Abbildungssystems, beispielsweise anhand von Zernike-Koeffizienten, sind in der Druckschrift WO 2004/111600 A1 angegeben.In this way, the part of aberrations that can be added to the optical sensor is first corrected. For example, these are errors due to background noise, from different sensitivity of the individual pixels of the optical sensor, of different gain in the pixels or even different degrees of illumination of the pixels in the selected lighting settings. Once this correction has been made, an image optimized in terms of detection and also linearly or homogeneously filtered in the sensitivity has been obtained, as it would have been approximately measured by an ideal camera with optimized illumination. A next step of the correction then includes those corrections that originate from the imaging optics and are known by an earlier measurement. Such errors are typically detected by means of characteristic number systems, which are determined for example in the form of so-called Zernike coefficients. These errors can be corrected either globally for the entire field of view of the camera, that is to say the optical sensor, or else measured at different points of the field of view, so as to enable a constant correction with respect to the local behavior. Depending on the detection principle of aberrations, different characteristic number systems and arrangements of measuring points in the visual field of the imaging optics can be used to determine the imaging quality of the imaging optics. Alternatively, for example, distortion or chromatic effects can also be corrected by means of defect maps which provide the necessary correction values in a location-dependent manner, for example with respect to the pixels of the image. After this correction step, the ideal or best possible optical image is achieved and is stored as an evaluation image data record. This can now be used as the basis for all other machining operations. Moreover, it is of course also possible that only one of the steps of correcting errors of the optical system and the step of correcting errors of the optical imaging system is performed. Examples of methods for determining the imaging quality of an optical imaging system, for example based on Zernike coefficients, are in the document WO 2004/111600 A1 specified.

In einer Ausgestaltung des Verfahrens kann vorgesehen sein, dass vor dem Schritt des Bereitstellens ein Schritt des Erfassens des Bilddatensatzes mittels des optischen Sensors durchgeführt wird.In an embodiment of the method, provision may be made for a step of acquiring the image data record to be carried out by means of the optical sensor before the providing step.

Grundsätzlich kann das Bereitstellen eines Bilddatensatzes auf verschiedene Art und Weise erfolgen, beispielsweise kann der Bilddatensatz als Datei übermittelt und zugrunde gelegt werden. Grundsätzlich kann es sich bei dem Bilddatensatz auch um Modelldaten oder künstlich erzeugte und dem Verfahren zugrunde zu legende Bilddaten handeln. Durch die Erfassung des Bilddatensatzes mittels des optischen Sensors werden dem Verfahren dann reale Daten mindestens eines mittels des optischen Sensors erfassten Bildes eines realen Messobjekts zugrunde gelegt.In principle, the provision of an image data record can take place in various ways, for example the image data record can be transmitted as a file and used as a basis. In principle, the image data set may also be model data or artificially generated image data underlying the method. By detecting the image data set by means of the optical sensor, the method is then based on real data of at least one image of a real measurement object acquired by means of the optical sensor.

In einer Ausgestaltung des Verfahrens kann des Weiteren vorgesehen sein, dass ein weiterer Schritt des Auswertens und/oder ein weiterer ein Schritt des Modifizierens des Auswertungsbilddatensatzes zum Erzeugen mindestens eines zweiten modifizierten Auswertungsbilddatensatzes durchgeführt wird.In one refinement of the method, it may further be provided that a further step of the evaluation and / or a further step of modifying the evaluation image data record is carried out for producing at least one second modified evaluation image data set.

Auf diese Weise kann erreicht werden, dass aus dem Auswertungsbilddatensatz verschieden modifizierte bzw. hinsichtlich der Auswertung aufbereitete Bilder erzeugt werden können. Auf diese Weise wird es beispielsweise möglich, einem Nutzer verschiedene, beispielsweise hinsichtlich verschiedener Kriterien aufbereitete Bilder darzustellen.In this way it can be achieved that differently modified or processed in terms of the evaluation images can be generated from the evaluation image data set. In this way, it becomes possible, for example, to present a user with different images prepared, for example, with respect to different criteria.

Dabei kann des Weiteren vorgesehen sein, dass mindestens der erste modifizierte Auswertungsbilddatensatz und ein Ergebnis des Auswertens miteinander kombiniert werden und/oder parallel ausgegeben werden.It can further be provided that at least the first modified evaluation image data record and a result of the evaluation are combined with one another and / or output in parallel.

Wie bereits voranstehend ausgeführt, können somit in dem Ausgabebilddatensatz mehrere Bilder parallel dem Nutzer angezeigt und/oder ausgedruckt werden. Auch wird es auf diese Weise möglich, modifizierte Auswertungsbilddatensätze miteinander zu kombinieren. Beispielsweise kann, wie im Folgenden noch erläutert wird, eine dreidimensionale Darstellung erzeugt werden, die auf der anderen Seite mit einer hinsichtlich einer Oberflächentextur optimierten Ausgabe kombiniert wird.As already stated above, multiple images can thus be displayed and / or printed in parallel in the output image data set to the user. It also makes it possible in this way to combine modified evaluation image data sets with each other. For example, as will be explained below, a three-dimensional representation can be generated, which on the other side is combined with an output optimized with respect to a surface texture.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass während des Schritts des Modifizierens wenigstens eine Operation aus einer Gruppe bestehend aus einer Filterung von technischem Rauschen, einem Aufbereiten einer Farbskala eines Farbauszugs oder einer Graustufenskala für eine logarithmische Empfindlichkeit, einer Bildglättung und einem Aufsteilen von Kanten durchgeführt wird.In a further embodiment of the method it can be provided that during the step of modifying at least one operation consists of a group consisting of a filtering of technical noise, a color gamut of a color separation or a gray scale for a logarithmic sensitivity, image smoothing and splitting Edges is performed.

Bei der Darstellung von Bildern zur Betrachtung für den Menschen ist es vorteilhaft, dass das technische Rauschen von dem Detektor geglättet wird, andererseits aber der Kontrast angepasst an die Wahrnehmung des Auges dargestellt wird und zudem die Kanten auch für eine bessere Erkennbarkeit aufgesteilt werden. Für die Darstellung der Intensitätswerte wird typischerweise eine entsprechende Farb- bzw. Grauwerttabelle verwendet. Die Grauwerttabelle stellt dann die linearen Intensitätswerte gegebenenfalls in einer logarithmischen Darstellung dar.When displaying images for human viewing, it is advantageous that the technical noise is smoothed by the detector, but on the other hand, the contrast is displayed adapted to the perception of the eye and also the edges are set up for better visibility. For the representation of the intensity values, a corresponding color or gray scale table is typically used. The gray value table then displays the linear intensity values, if appropriate in a logarithmic representation.

Wenn aus Farbauszügen dann auch Farbbilder erstellt werden können, können diese ebenfalls in der oben beschriebenen Art aufbereitet werden. Beispielsweise kann bei einer RGB-Ausgabe jeweils ein roter, grüner und blauer Farbauszug erstellt werden. Diese aufbereiteten Bilder können dann wiederum zu einem gemeinsamen Farbbild kombiniert werden. Bei dieser Kombination ist natürlich auch auf eine Farbtreue der Abbildung zu achten. Andererseits können auch Merkmale oder Eigenschaften im Bild, die bei einer Farbe besonders stark erkennbar sind, für den Betrachter betont hervorgehoben werden. Durch die Messung von Farbauszügen werden auch physikalische Eigenschaften des Objektes, wie zum Beispiel Oberflächeneigenschaften, unterschiedlich wahrgenommen. Dies kann dazu genutzt werden, über den Vergleich der Farbauszüge die Messung bzw. Beobachtung oder Wahrnehmung sicherer zu gestalten. Für Oberflächentexturen zum Beispiel kann damit die so gewonnene Information auch in einer für das Auge gut erkennbaren Art, zum Beispiel über im Kontrast veränderte bzw. im Kontrast angehobene Darstellungen, in dem gemeinsamen Bild für den Betrachter in gut erkennbarer Form angezeigt werden. Diese Darstellung entspricht dann nicht mehr dem realen Intensitätsverlauf im Bild, so wie es von Detektoren gemessen wurde. Dennoch wird so die Information sicherer an den Beobachter weitergegeben. Erfindungsgemäß können auch weiter sichere Messergebnisse erhalten werden, da eine Trennung zwischen dem für den Beobachter angezeigten Ausgabebilddatensatz und dem für die weitere Auswertung der Messung verwendeten Auswertungsbilddatensatz vorgesehen wird. If color separations can then also be created from color separations, these can also be processed in the manner described above. For example, in the case of an RGB output, a red, green and blue color separation can each be created. These processed images can then be combined again to form a common color image. In this combination, of course, to ensure color fidelity of the figure. On the other hand, features or properties in the image which are particularly strongly recognizable in a color can also be emphasized for the viewer. By measuring color separations, physical properties of the object, such as surface properties, are also perceived differently. This can be used to make the measurement or observation or perception safer by comparing the color separations. For surface textures, for example, the information obtained in this way can thus be displayed in a clearly recognizable form in the common image for the viewer in a manner which is easily recognizable to the eye, for example by means of contrast-enhanced or contrast-enhanced representations. This representation then no longer corresponds to the real intensity curve in the image, as measured by detectors. Nevertheless, the information is transmitted more securely to the observer. According to the invention, further reliable measurement results can be obtained since a separation is provided between the output image data set displayed for the observer and the evaluation image data set used for the further evaluation of the measurement.

Eine mögliche Operation ist die bereits oben beschriebene Aufbereitung des Bildes zur Darstellung für den menschlichen Beobachter, was bedeutet, dass das Bild für eine Betrachtung mit einer logarithmischen Empfindlichkeit mit einer Farbskala aufbereitet wird. Ferner ist eine Filterung von unvermeidbarem technischem Rauschen sinnvoll, damit der Nutzer nicht Artefakte im Bild sucht, die tatsächlich gar nicht vorhanden sind. Durch eine Aufsteilung der Kanten wird zudem dem Nutzer der Eindruck eines guten Bildes vermittelt, was er typischerweise an einer scharfen Abbildung bewertet. Wenn Farbauszüge – zum Beispiel als getrennte Bilder – gemessen werden, können diese für die Anzeige wie oben beschrieben aufbereitet werden und dann zu einem Farbbild für die Anzeige zusammengesetzt werden. Auf diesem Weg kann es vorteilhaft sein, die einzelnen Farbauszüge beizubehalten, da sie in Bezug auf die verschiedenen Objekteigenschaften unterschiedliche, farbabhängige Informationen tragen können. Insofern können auch die einzelnen Farbauszüge dem Nutzer separat dargestellt werden.One possible operation is the rendering of the image for presentation to the human observer, already described above, which means that the image is rendered for viewing with a logarithmic sensitivity with a color gamut. Furthermore, a filtering of unavoidable technical noise makes sense, so that the user does not look for artifacts in the image that are actually not present. A division of the edges also gives the user the impression of a good image, which he typically rates on a sharp image. When color separations are measured, for example as separate images, they can be rendered for display as described above and then assembled into a color image for display. In this way, it may be advantageous to maintain the individual color separations since they can carry different, color-dependent information with respect to the various object properties. In this respect, the individual color separations can be displayed to the user separately.

In einer weiteren Ausgestaltung kann vorgesehen sein, dass während des Schritts des Modifizierens wenigstens eine Operation aus einer Gruppe bestehend aus einer Höhenbilddarstellung, einer ”Extended depth of field/focus”-Verarbeitung für erweiterte Schärfentiefe, einer Darstellung des besten Fokus und einem 3D-Rendering durchgeführt wird.In a further embodiment it can be provided that during the step of modifying at least one operation consists of a group consisting of a height image representation, an extended depth of field / focus processing for extended depth of field, a representation of the best focus and a 3D rendering is carried out.

Beispielsweise kann vorgesehen sein, dass von demselben Erfassungsbereich bzw. Gesichtsfeld des optischen Sensors für mehrere Fokuslagen ein sogenannter ”Bildstapel” erstellt wird. Die unterschiedlichen Fokuslagen können dabei durch Variation der Einstellung der Abbildungsoptik hervorgerufen werden, oder aber durch mechanisches Bewegen des optischen Sensors relativ zu einem Messobjekt bei gleich gehaltener Einstellung der Abbildungsoptik. Den unterschiedlichen Fokuslagen können unterschiedliche Tiefeninformationen eines Messobjekts zugeschrieben werden. Die so gewonnenen Bildstapel können als sogenannte Schichtbilder ausgewertet werden, um dreidimensionale Informationen eines Messobjekts zu erlangen, da über einen Tiefenbereich scharfe Bilder erhalten werden.For example, it can be provided that a so-called "image stack" is created by the same detection area or visual field of the optical sensor for a plurality of focal positions. The different focus positions can be caused by varying the setting of the imaging optics, or by mechanically moving the optical sensor relative to a measurement object with the same setting of the imaging optics. The different focal positions can be attributed to different depth information of a DUT. The image stacks thus obtained can be evaluated as so-called slice images in order to obtain three-dimensional information of a measurement object, since sharp images are obtained over a depth range.

Möglichkeiten zur Auswertung über die Bildstapel sind beispielsweise in der eingangs genannten Druckschrift DE 10 2006 030 670 A1 geschildert.Possibilities for evaluation on the image stack are, for example, in the cited document DE 10 2006 030 670 A1 portrayed.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass während des Schritts des Auswertens mindestens eine Operation aus einer Gruppe bestehend aus einer Filterung zur Hervorhebung einer Oberflächenrauheit, einer Filterung zur Hervorhebung einer Oberflächentextur und einer Filterung zur Hervorhebung von Kanten und/oder Geometrieelementen durchgeführt wird.In a further embodiment of the method, it can be provided that during the step of the evaluation, at least one operation is performed from a group consisting of a filter for highlighting a surface roughness, a filter for highlighting a surface texture and a filter for highlighting edges and / or geometric elements ,

Auf diese Weise ist es möglich, eine merkmalsbasierte Filterung innerhalb des Auswertungsbilddatensatzes vorzusehen, die bestimmte Eigenschaften des Messobjekts hervorhebt, um diese durch den Nutzer besser auswählbar und erkennbar zu machen.In this way, it is possible to provide feature-based filtering within the evaluation image data set, which emphasizes certain properties of the measurement object in order to make them more selectable and recognizable by the user.

Natürlich kann es dabei dazu kommen, dass neben dem Ausgabebilddatensatz aufgrund der nutzeroptimierten Modifizierung die Lage von bestimmten Strukturen, beispielsweise Kanten, des Messobjekts sich gegenüber dem Auswertungsbilddatensatz verschiebt. Das bedeutet, dass in dem angezeigten Ausgabebilddatensatz bestimmte Strukturen des Messobjekts nicht an der tatsächlichen Lage positioniert sind. Auf der einen Seite wird der Auswertungsbilddatensatz erfindungsgemäß dazu verwendet, Geometrien und Strukturen im Bild mit linearen Intensitätsverläufen und originalen Kantenverläufen auszuwerten. Das Ergebnis dieser Messung bzw. Auswertung kann dann aber auch dazu verwendet werden, für den Nutzer in dem Ausgabebilddatensatz die aufgrund der Modifizierung verschobene Lage bestimmter Strukturen wieder richtig darzustellen, so dass der Nutzer zum Beispiel Kanten oder auch Linien genau am richtigen Ort und in der richtigen Breite dargestellt bekommt. ”Genau richtig” heißt in diesem Kontext, dass die Darstellung entsprechend der Darstellungsgenauigkeit des Anzeigegeräts oder des Ausgabegeräts den gewonnenen Daten und Ergebnissen angenähert wird.Of course, it may happen that, in addition to the output image data set, due to the user-optimized modification, the position of certain structures, for example edges, of the measurement object shifts in relation to the evaluation image data record. This means that in the displayed output image data set, certain structures of the measurement object are not positioned at the actual position. On the one hand, the evaluation image data record is used according to the invention to evaluate geometries and structures in the image with linear intensity profiles and original edge progressions. However, the result of this measurement or evaluation can then also be used to correctly represent again the position of particular structures shifted due to the modification for the user in the output image data set, so that the user gets, for example, edges or lines exactly in the right place and in the correct width. In this context, "just right" means that the representation is approximated to the data and results obtained in accordance with the display accuracy of the display device or the output device.

In einer weiteren Ausgestaltung kann vorgesehen sein, dass während des Schritts des Auswertens mindestens eine Operation aus einer Gruppe bestehend aus einem Neuheitsfilter, einem Differentialbild, einer Bildkorrelation und einem Subpixeling durchgeführt wird.In a further embodiment it can be provided that during the step of the evaluation, at least one operation is performed from a group consisting of a novelty filter, a differential image, an image correlation and a subpixeling.

Auf diese Weise können einem Nutzer beispielsweise aus einem Bildstapel, der eine laterale Verschiebung im Gesichtsfeld des optischen Sensors und gegebenenfalls zusätzlich eine Verschiebung in Fokusrichtung aufweist, zusätzliche Informationen bereitgestellt werden. Auch können auf diese Weise Auswertungen von Fokusreihen mit Abbildungssystemen mit zur Objektebene geneigter Strahlachse verarbeitet werden. Beispiele für solche Auswertungen sind beispielsweise in der Druckschrift DE 10 2005 047 784 A1 genannt.In this way, additional information can be provided to a user, for example, from an image stack which has a lateral shift in the field of view of the optical sensor and optionally additionally a shift in the focus direction. Also, evaluations of focus rows with imaging systems with beam axis inclined to the object plane can be processed in this way. Examples of such evaluations are, for example, in the document DE 10 2005 047 784 A1 called.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass während des Schritts des Modifizierens eine Verknüpfung zwischen dem Ausgabebilddatensatz und dem Auswertungsbilddatensatz erzeugt wird, wobei eine den Schritt des Auswertens beeinflussende und in dem Ausgabebilddatensatz getätigte Nutzereingabe des Nutzers dem Auswertungsbilddatensatz anhand der Verknüpfung zugeordnet wird.In a further embodiment of the method it can be provided that a link between the output image data set and the evaluation image data set is generated during the step of modifying, wherein a user input of the user influencing the step of the evaluation and effected in the output image data set is assigned to the evaluation image data record on the basis of the link.

Auf diese Weise erfolgt quasi ein ”Mapping” der Modifikationen, so dass in dem Auswertungsbilddatensatz getätigte Nutzereingaben hinsichtlich ihrer Auswahl bzw. ihrer Lage genau auf den Auswertungsbilddatensatz umgerechnet werden können. Ergibt sich bei der Modifikation beispielsweise eine Verschiebung der Lage einer Kante, die der Nutzer dann auswählen will, wäre die Auswahl möglicherweise ungenau, da die selektierten Koordinaten nicht 1:1 auf den Auswertungsbilddatensatz übertragen werden können. Durch die genaue Zuordnung kann jedoch eine Rückübertragung der Nutzerauswahl in dem Auswertungsbilddatensatz erfolgen, so dass dort die Kanten in ihrer tatsächlichen Lage erfasst und ausgewählt werden.In this way, as it were, a "mapping" of the modifications takes place so that user entries made in the evaluation image data record can be converted precisely to the evaluation image data record with regard to their selection or their position. For example, if the modification results in a shift in the position of an edge which the user then wishes to select, the selection would possibly be inaccurate since the selected coordinates can not be transferred 1: 1 to the evaluation image data record. Due to the exact assignment, however, a retransmission of the user selection can take place in the evaluation image data record, so that there the edges are detected and selected in their actual position.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass der Bilddatensatz mehrere Bilder aufweist, insbesondere in verschiedenen Arbeitsabständen von einem optischen Sensor erfasste Bilder desselben Erfassungsbereichs, oder insbesondere in verschiedenen Arbeitsabständen von dem optischen Sensor und mit einem lateralen Versatz erfasste Bilder.In a further embodiment of the method, it can be provided that the image data record has a plurality of images, in particular at different working distances of an optical sensor detected images of the same detection range, or in particular at different working distances from the optical sensor and with a lateral offset detected images.

Bei einem ”Arbeitsabstand” kann es sich entweder um einen mechanischen Arbeitsabstand handeln, das heißt den Abstand zwischen der ersten Störkontur des optischen Sensors und der ersten Oberfläche des Messobjekts. Dieser lichte Abstand kann auch als mechanischer Arbeitsabstand bezeichnet werden. Es kann sich aber auch um einen ”optischen Arbeitsabstand” handeln, das heißt die objektseitige Schnittweite der Abbildungsoptik. Sowohl durch Verwendung eines mechanischen und/oder eines optischen Arbeitsabstands kann auf diese Weise ein Bildstapel erfasst werden, wobei jedem Bild eine Tiefeninformation des Messobjekts zugeordnet werden kann. Auf einem derartigen Bilddatensatz aufbauend können dann zusätzlich dreidimensionale Informationen über das Messobjekt gewonnen werden.A "working distance" can either be a mechanical working distance, that is to say the distance between the first interference contour of the optical sensor and the first surface of the measuring object. This clearance can also be referred to as a mechanical working distance. However, it can also be an "optical working distance", that is to say the object-side intercept of the imaging optics. Both by using a mechanical and / or an optical working distance, an image stack can be detected in this way, wherein each image can be assigned a depth information of the measurement object. Based on such an image data set, three-dimensional information about the measurement object can then additionally be obtained.

Zusätzlich zu einem Tiefenversatz kann des Weiteren auch ein lateraler Versatz der einzelnen Bilder des Bilddatensatzes zueinander vorhanden sein. Wie voranstehend ausgeführt, können einem Nutzer auch hierdurch zusätzliche Informationen dargestellt werden, beispielsweise Differentialbilder.In addition to a depth offset, furthermore, a lateral offset of the individual images of the image data set relative to one another may also be present. As stated above, this also allows additional information to be displayed to a user, for example differential images.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass nach dem Schritt des Korrigierens eine Abfrage nach einem Protokoll für ein automatisiertes Ausgeben und Auswerten des Bilddatensatzes erfolgt.In a further refinement of the method, provision can be made for a query for a protocol for automated output and evaluation of the image data record to be made after the step of correction.

Beispielsweise die Eingaben, die der Nutzer für die Auswertung und Modifizierung auswählt, können als Protokoll speicherbar sein. Es können auch vorab beliebige Auswertungen und/oder Modifikationen und/oder deren Kombinationen als Protokolle hinterlegt sein oder werden. Die Protokolle können etwa in einem Speicher hinterlegt sein. Bei folgenden Messungen desselben Messobjekts an derselben und/oder auch an anderen Stellen sind so automatisiert gleiche bzw. gleichartige Verfahrensabläufe anwendbar oder natürlich auch auf andere Messobjekte gleicher oder auch unterschiedlicher Bauart und -form im Sinne eines Darstellungs- und Auswertungsprotokolls verwendbar.For example, the inputs that the user selects for evaluation and modification can be stored as a log. It is also possible for any evaluations and / or modifications and / or combinations thereof to be stored in advance as protocols. The logs may be stored in a memory, for example. In the case of subsequent measurements of the same measurement object at the same and / or at other locations, the same or similar method sequences are automatically applicable or, of course, also applicable to other measurement objects of the same or different design and form in the sense of a presentation and evaluation protocol.

Jegliche Nutzerein- bzw. -vorgaben können als Protokoll gespeichert werden, das dann automatisiert auf weitere Datensätze oder Messbereiche desselben Messobjektes oder auch bei anderen Messobjekten angewendet wird. Auf diese Weise wird eine automatisierte kontext- oder merkmalsorientierten Auswertung und Darstellung bereitgestellt. So können die Protokolle etwa bei der Einrichtung des Systems – z. B. von Fachleuten erstellt – entstehen und gespeichert werden, die dann bei der Nutzung des Systems zur Anwendung kommen.Any user input or specifications can be saved as a log, which is then automatically applied to other data sets or measuring ranges of the same measuring object or also to other DUTs. In this way, an automated context or feature-oriented evaluation and presentation is provided. For example, the protocols can be used when setting up the system - eg. B. created by professionals - arise and stored, which then come when using the system for use.

In einer weiteren Ausgestaltung des Verfahrens kann vorgesehen sein, dass der Schritt des Ausgebens das Anzeigen des Ausgabebilddatensatzes auf einer Anzeigeeinrichtung oder das Drucken des Ausgabebilddatensatzes auf einem Drucker aufweist. In a further embodiment of the method, it can be provided that the step of outputting comprises displaying the output image data set on a display device or printing the output image data set on a printer.

Das Ausgeben kann somit sowohl ein Anzeigen auf einem Bildschirm sein als auch das Bereitstellen von ausgedruckten Bildern an einen Nutzer.The output can thus be both a display on a screen as well as the provision of printed images to a user.

Für die Auswertung von Oberflächentexturen, zum Beispiel in Bezug auf Strukturierung oder auch Drall im Fall von Wellen, kann dann wiederum auf das optimierte bzw. ideale Messbild zurückgegriffen werden. Hier könnten dann die Regionen aus dem idealen Bild verwendet werden, und die Oberflächenstruktur bzw. -textur kann daraus ermittelt werden, um diese dann wiederum in einer für den Beobachter gut erkennbaren Art in dem speziellen Bild für den Beobachter darzustellen. Aus diesem Grund ist es auch notwendig, dass das Bild für den Beobachter und die weiteren Bilder für die technischen Auswertungen in Bezug auf ihre Zuordnung der Pixel und damit der Merkmale in den Bildern miteinander in Verbindung bleiben. So kann sichergestellt werden, dass dem Beobachter durch eine Auswahl eines Bereichs in dem für ihn angezeigten Bild dann durch eine angestoßene Auswertung in dem zugehörigen optimierten messtechnischen Bild, das heißt dem Auswertungsbilddatensatz, die Information in seiner Darstellung wieder am richtigen Ort wiedergegeben wird. Werden zum Beispiel für die Oberflächeneigenschaften Kennzahlen bestimmt, so müssen diese an der richtigen Stelle im Bild des Ausgabebilddatensatzes für den Beobachter wiedergegeben werden. Nur so ist sicherzustellen, dass trotz der veränderten Darstellung für den Beobachter eine in dem Auswertungsbilddatensatz erfolgte Auswertung in dem Ausgabebilddatensatz immer an der richtigen Stelle angezeigt wird. Umgekehrt müssen in dem Ausgabebilddatensatz getätigte Nutzereingaben in die richtigen Eingaben in dem Auswertungsbilddatensatz umgesetzt werden. Nur so ist sicherzustellen, dass eine richtige Messung und Auswertung am jeweiligen Ort durchgeführt wird.For the evaluation of surface textures, for example with regard to structuring or also twist in the case of waves, then again the optimized or ideal measurement image can be used. Here, the regions from the ideal image could then be used, and the surface texture or texture can be determined therefrom, in order then to present these again in a manner which is easily recognizable to the observer in the special image for the observer. For this reason, it is also necessary that the image for the observer and the other images for the technical evaluations with respect to their assignment of the pixels and thus the characteristics in the images remain in touch with each other. Thus, it can be ensured that the observer by a selection of an area in the image displayed for him then by a triggered evaluation in the associated optimized metrological image, that is, the evaluation image data set, the information is reproduced in its representation again in the right place. If, for example, characteristic values are determined for the surface properties, these must be reproduced in the correct position in the image of the output image data record for the observer. This is the only way to ensure that, despite the altered representation for the observer, an evaluation carried out in the evaluation image data record is always displayed in the correct position in the output image data record. Conversely, user input made in the output image data set must be translated into the correct inputs in the evaluation image data set. This is the only way to ensure that a correct measurement and evaluation is carried out at the respective location.

Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It is understood that the features mentioned above and those yet to be explained below can be used not only in the particular combination given, but also in other combinations or in isolation, without departing from the scope of the present invention.

Ausführungsformen der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:Embodiments of the invention are illustrated in the drawings and will be explained in more detail in the following description. Show it:

1 eine schematische Darstellung einer Ausführungsform einer Vorrichtung, 1 a schematic representation of an embodiment of a device,

2 ein schematisches Ablaufdiagramm einer Ausführungsform eines Verfahrens, und 2 a schematic flow diagram of an embodiment of a method, and

3 ein schematisches Ablaufdiagramm eines weiteren Ausführungsbeispiels des Verfahrens. 3 a schematic flow diagram of another embodiment of the method.

1 zeigt eine Vorrichtung 10. Insbesondere kann die Vorrichtung als Koordinatenmessgerät ausgestaltet sein. Es kann sich aber auch um ein Mikroskop oder eine andere Vorrichtung handeln. 1 shows a device 10 , In particular, the device can be designed as a coordinate measuring machine. It can also be a microscope or another device.

Die Vorrichtung 10 dient dazu, Bildaufnahmen von einem Messobjekt 11 zu tätigen. Dazu weist die Vorrichtung 10 einen optischen Sensor 12 auf. Bei dem optischen Sensor 12 handelt es sich um eine Kamera, das heißt einen optischen Sensor, der eine flächige, das heißt zweidimensionale Aufnahme von dem Messobjekt 11 erfasst.The device 10 serves to take pictures of a measuring object 11 to do. For this purpose, the device 10 an optical sensor 12 on. In the optical sensor 12 it is a camera, that is an optical sensor, the two-dimensional, ie, two-dimensional recording of the measurement object 11 detected.

Die Vorrichtung 10 weist darüber hinaus ein optisches Abbildungssystem 13 auf, das Teil des optischen Sensors 12 ist und dazu dient, das von dem Messobjekt 11 auf den optischen Sensor 12 einfallende Licht geeignet auf den optischen Sensor 12 abzubilden.The device 10 also has an optical imaging system 13 on, the part of the optical sensor 12 is and serves that of the object of measurement 11 on the optical sensor 12 incident light suitable for the optical sensor 12 map.

Die Vorrichtung 10 weist darüber hinaus eine Datenverarbeitungseinrichtung 14 auf, die dazu dient, das von dem optischen Sensor 12 erfasste Bild auszuwerten.The device 10 moreover has a data processing device 14 which serves that of the optical sensor 12 evaluate captured image.

Der optische Sensor 12 weist einen Erfassungsbereich 15 auf, der sich in der in 1 schematisch dargestellten Ansicht in X-Y-Ebene erstreckt. Ein von dem optischen Sensor 12 erfasstes Bild liegt somit parallel zu der X-Y-Ebene in dem Erfassungsbereich 15. Die von dem optischen Sensor 12 scharf erfasste Bildebene ist um einen optischen Arbeitsabstand 16 von dem optischen Sensor 12 entfernt. Die Lage in Z-Richtung kann somit relativ zu dem Messobjekt 11 entweder durch Veränderung der Einstellung des optischen Abbildungssystems beeinflusst werden, so dass der optische Arbeitsabstand 16 verändert wird. Es kann aber auch bei Beibehaltung des optischen Arbeitsabstands 16 eine mechanische Bewegung des optischen Sensors 12 und des Messobjekts 11 relativ zueinander erfolgen, um die Lage des aufgenommenen Bildes relativ zum Messobjekt 11 zu beeinflussen. Dabei kann das Messobjekt 11 und/oder der optische Sensor 12 bewegt werden.The optical sensor 12 has a detection area 15 up in the in 1 schematically shown in XY plane extends. One from the optical sensor 12 captured image is thus parallel to the XY plane in the detection area 15 , The of the optical sensor 12 sharply captured image plane is at an optical working distance 16 from the optical sensor 12 away. The position in the Z direction can thus be relative to the measurement object 11 be influenced either by changing the setting of the optical imaging system, so that the optical working distance 16 is changed. It can also work while maintaining the optical working distance 16 a mechanical movement of the optical sensor 12 and the measurement object 11 relative to each other to the position of the recorded image relative to the measured object 11 to influence. The measured object can be 11 and / or the optical sensor 12 to be moved.

Die Datenverarbeitungseinrichtung 14 weist eine zentrale Datenverarbeitungseinheit 17 auf, die Rechenoperationen durchführen kann. Des Weiteren weist die Datenverarbeitungseinrichtung 14 eine Speichereinheit 18 auf, in der Bilddatensätze gespeichert werden können. Es kann ein Computerprogrammprodukt 20 installiert sein, das das nachfolgende im Detail beschriebene Verfahren auf der Datenverarbeitungseinrichtung 14 ausführt.The data processing device 14 has a central data processing unit 17 which can perform arithmetic operations. Furthermore, the data processing device 14 a storage unit 18 on which image data sets can be stored. It can be a computer program product 20 to be installed, which is the subsequent procedure described in detail on the data processing device 14 performs.

Darüber hinaus weist die Vorrichtung 10 eine Eingabeeinrichtung 22 auf, mittels der Nutzereingaben in die Datenverarbeitungseinrichtung 14 der Vorrichtung 10 getätigt werden können. Messwertergebnisse können mittels einer Anzeigeeinrichtung, beispielsweise einem Bildschirm, 24 und/oder mittels einer Druckereinrichtung 26 an einen Nutzer ausgegeben werden. Die Anzeigeeinrichtung 24 und/oder die Druckereinrichtung 26 bilden eine Ausgabeeinrichtung 28. In addition, the device has 10 an input device 22 on, by means of the user input to the data processing device 14 the device 10 can be made. Measured value results can be determined by means of a display device, for example a screen, 24 and / or by means of a printer device 26 be issued to a user. The display device 24 and / or the printer device 26 form an output device 28 ,

In der 2 ist ein schematisches Ablaufdiagramm einer Ausführungsform eines Verfahrens 30 dargestellt.In the 2 Figure 3 is a schematic flow diagram of one embodiment of a method 30 shown.

Das Verfahren beginnt mit einem Startschritt 32. Zunächst wird in einem Schritt 34 ein Bilddatensatz bereitgestellt, wobei der Bilddatensatz Daten mindestens eines mittels des optischen Sensors 12 erfassten Bildes aufweist.The process starts with a start step 32 , First, in one step 34 an image data set is provided, wherein the image data set data of at least one by means of the optical sensor 12 captured image has.

In einem nachfolgenden Schritt wird dieser Bilddatensatz zunächst korrigiert, um einen korrigierten Bilddatensatz als Auswertungsbilddatensatz bereitzustellen. Dieser Schritt des Korrigierens ist mit dem Bezugszeichen 36 bezeichnet.In a subsequent step, this image data set is first corrected to provide a corrected image data set as an evaluation image data record. This step of correcting is denoted by the reference numeral 36 designated.

Der Auswertungsbilddatensatz kann dann anschließend in einem Schritt 38 mindestens einmalig modifiziert werden, um mindestens einen ersten modifizierten Auswertungsbilddatensatz als Ausgabebilddatensatz zu erzeugen.The evaluation image data record can then be subsequently in a step 38 be modified at least once to generate at least a first modified evaluation image data set as an output image data set.

Es liegt somit sowohl ein Auswertungsbilddatensatz als auch ein Ausgabebilddatensatz vor. Darauffolgend und/oder parallel zu dem Schritt 38 kann in einem Schritt 42 eine Auswertung erfolgen, wobei die Auswertung anhand des Auswertungsbilddatensatzes erfolgt. Es erfolgt somit eine Trennung des Auswertungsbilddatensatzes und des Ausgabebilddatensatzes, wobei der Ausgabebilddatensatz an den Nutzer ausgegeben wird, beispielsweise mit einer Anzeige auf einem Bildschirm, oder in Form eines Ausdrucks, wohingegen die parallele und/oder nachfolgende Auswertung anhand des Auswertungsbilddatensatzes, das heißt des erfassten korrigierten Bilddatensatzes, erfolgt. In einem Schritt 40 kann nun der Ausgabebilddatensatz an einen Nutzer ausgegeben werden.Thus, there is both an evaluation image data record and an output image data record. Subsequent to and / or in parallel with the step 38 can in one step 42 an evaluation takes place, wherein the evaluation takes place on the basis of the evaluation image data record. There is thus a separation of the evaluation image data record and the output image data record, wherein the output image data set is output to the user, for example with a display on a screen, or in the form of an expression, whereas the parallel and / or subsequent evaluation based on the evaluation image data set, that is the detected corrected image data set, takes place. In one step 40 Now the output image data set can be output to a user.

Das Verfahren endet dann in einem Stoppschritt 44.The method then ends in a stop step 44 ,

Ein detailliertes schematisches Ablaufdiagramm einer weiteren Ausführungsform des Verfahrens ist in der 3 dargestellt.A detailed schematic flow diagram of a further embodiment of the method is shown in FIG 3 shown.

Gleiche Elemente sind darin mit gleichen Bezugszeichen gekennzeichnet und werden daher nicht erneut erläutert.Identical elements are identified therein with the same reference numerals and will therefore not be explained again.

Nach dem Start des Verfahrens kann zunächst in einem Schritt 32 eine Erfassung des mindestens einen Bildes des Bilddatensatzes erfolgen. Beispielsweise kann hier mittels des optischen Sensors 12 eine Serie von Bildern des Messobjekts 11 aufgenommen werden. Alle Bilder können dabei denselben Erfassungsbereich 14 lediglich in unterschiedlichen Positionen in Z-Richtung darstellen. Auf diese Weise können dann in dem Schritt 34 die Bilder als Bilddatensatz bereitgestellt werden. Die Bilder sind dabei schematisch mit dem Bezugszeichen 80 bezeichnet. Der Bilddatensatz trägt das Bezugszeichen 82. Selbstverständlich kann der Bilddatensatz 82 auch lediglich ein einziges Bild 80 aufweisen.After starting the procedure can first in one step 32 a capture of the at least one image of the image data set done. For example, here by means of the optical sensor 12 a series of images of the measurement object 11 be recorded. All images can have the same coverage area 14 represent only in different positions in the Z direction. In this way, then in the step 34 the images are provided as an image data set. The images are schematically indicated by the reference numeral 80 designated. The image data set bears the reference numeral 82 , Of course, the image data set 82 also only a single picture 80 exhibit.

Anschließend erfolgt dann eine Korrektur 36 des Bilddatensatzes. Nach der Korrektur 36 liegt dann der Auswertungsbilddatensatz 84 vor. Die Korrektur kann zum einen einen Schritt der Korrektur 46 von Fehlern des optischen Sensors 12 aufweisen und/oder einen Schritt der Korrektur 48 von Fehlern des optischen Abbildungssystems 13. Auf diese Weise werden zum einen dem optischen Sensor 12 zuzuschreibende Fehler bei der Aufzeichnung der Messdaten korrigiert, zum anderen aufgrund der Abbildung durch das optische Abbildungssystem 13 auftretende Fehler korrigiert. Der Auswertungsbilddatensatz 84 stellt somit ein Messergebnis bereit, das bei optimalen Bedingungen erfasst hätte werden können. Anschließend erfolgt nun der Schritt des Modifizierens 38. Bei diesem Schritt des Modifizierens 38 wird der Auswertungsbilddatensatz 84 modifiziert. Diese Modifikation kann ein oder mehrere Male an identischen Kopien des Auswertungsbilddatensatzes 84 durchgeführt werden. Parallel wird der Auswertungsbilddatensatz 84 aber unmodifiziert bereitgestellt. Auch eine Auswertung 42 kann somit ein oder mehrere Male an identischen Kopien des Auswertungsbilddatensatzes 84 durchgeführt werden.Subsequently, a correction takes place 36 of the image data set. After the correction 36 then lies the evaluation image data record 84 in front. The correction can be a step of correction 46 of errors of the optical sensor 12 and / or a step of correction 48 of errors of the optical imaging system 13 , In this way, on the one hand, the optical sensor 12 corrected errors in the recording of the measured data corrected, on the other hand due to the imaging by the optical imaging system 13 Corrects errors that occur. The evaluation image data record 84 thus provides a measurement result that could have been detected under optimal conditions. This is followed by the step of modifying 38 , In this step of modifying 38 becomes the evaluation image data set 84 modified. This modification may be one or more times on identical copies of the evaluation image data set 84 be performed. Parallel is the evaluation image data set 84 but provided unmodified. Also an evaluation 42 can thus one or more times on identical copies of the evaluation image data set 84 be performed.

Im Rahmen der Auswertung können also eine oder mehrere Auswertungen 42 vorgenommen werden. Im Rahmen der Modifikation 38 können eine oder mehrere verschiedene Operationen durchgeführt werden. Grundsätzlich ist denkbar, dass nur eine einzige der im Folgenden vorgeschlagenen Modifikationen vorgenommen wird. Grundsätzlich können jedoch auch mehrere Modifikationen vorgenommen werden und/oder mit einer oder mehreren Auswertungen kombiniert werden, um letztendlich zu dem modifizierten Auswertungsbilddatensatz zu gelangen, der zumindest einen Teil des Ausgabebilddatensatzes 86 bildet. Wie in der 3 mittels des Blocks 65 schematisch dargestellt, kann beliebig oft eine Modifikation 38 und/oder Auswertung 42 erfolgen, um den Ausgabebilddatensatz 86 zusammenzustellen.As part of the evaluation, so one or more evaluations 42 be made. As part of the modification 38 One or more different operations can be performed. In principle, it is conceivable that only one of the modifications proposed below is made. In principle, however, a plurality of modifications may also be made and / or combined with one or more evaluations in order ultimately to arrive at the modified evaluation image data record which comprises at least part of the output image data record 86 forms. Like in the 3 by means of the block 65 shown schematically, as often as a modification 38 and / or evaluation 42 done to the output image data set 86 together.

Die Häufigkeit und Art der Wiederholungen 65 kann von einer Nutzereingabe 66 nach dem Ausgeben 40 oder einer manuellen oder automatisierten Nutzervorgabe 68 nach dem Korrigieren 36 abhängen. Es können auch automatisierte Protokolle 70 hinterlegt sein, die Art und Abfolge der Wiederholungen 65 zur Zusammenstellung des Ausgabebilddatensatzes 86 vorgeben. In der Abfrage 68 nach dem Korrigieren kann dann festgestellt werden, ob ein Protokoll 70 ausgewählt wurde oder ausgeführt wird und automatisch mindestens eine in dem Protokoll 70 hinterlegte Modifikation 38 und/oder mindestens eine in dem Protokoll hinterlegte Auswertung 42 durchgeführt werden. In dem Schritt der Nutzereingabe 66 kann ein Nutzer auswählen, ob mindestens eine Modifikation und/oder mindestens eine Auswertung, die gerade durchgeführt wurden, als Protokoll gespeichert werden soll.The frequency and type of repetitions 65 can from a user input 66 after this Output 40 or a manual or automated user preference 68 after correcting 36 depend. It can also be automated logs 70 be deposited, the nature and sequence of repetitions 65 for compiling the output image data set 86 pretend. In the query 68 After correcting it can then be determined if a log 70 has been selected or executed and automatically at least one in the log 70 deposited modification 38 and / or at least one evaluation stored in the protocol 42 be performed. In the step of user input 66 For example, a user can select whether at least one modification and / or at least one evaluation that has just been carried out should be stored as a protocol.

Mit dem Bezugszeichen 50 sind Operationen gekennzeichnet, die beispielsweise ein Schwarzweißbild für die Betrachtung durch einen Nutzer optimieren können. Beispielsweise kann es sich hierbei um eine Glättung oder um eine Kantenaufsteilung handeln. Auf diese Weise erhält man eine optimierte Anzeigedarstellung eines Schwarzweißbildes für einen Betrachter.With the reference number 50 For example, operations that can optimize a black and white image for user viewing, for example, are characterized. For example, this may be a smoothing or edge splitting. In this way one obtains an optimized display representation of a black and white image for a viewer.

Mit dem Bezugszeichen 52 sind Operationen zu einer optimierten Anzeigedarstellung zur Betrachtung durch einen Nutzer für Farbbilder dargestellt. Es kann eine Farbaufspaltung des Bildes, beispielsweise in Rot-, Grün- und Blauanteile, erfolgen, die jeweils einzeln verarbeitet und anschließend wieder zusammengesetzt werden. Darüber hinaus können die einzelnen Farbauszüge auch einzeln weiterverarbeitet werden. Im Rahmen dieser Verarbeitung können auch eine Glättung, eine Kantenaufsteilung und/oder eine einzelne oder beliebig kombinierte Auswertung der Farbauszüge erfolgen. Vorteilhafterweise kann während der Operation eine Nutzereingabe dahingehend erfolgen, ob eine oder mehrere der Farbauszüge getrennt behandelt oder lediglich eine Kombination der Farbauszüge weiterverarbeitet werden soll.With the reference number 52 Illustrated are operations for optimized display presentation for user viewing for color images. It can be a color separation of the image, for example, in red, green and blue components, which are each processed individually and then reassembled. In addition, the individual color separations can also be processed separately. In the context of this processing, a smoothing, an edge division and / or a single or any combined evaluation of the color separations can also take place. Advantageously, during the operation, user input can be made as to whether one or more of the color separations should be treated separately, or whether only a combination of the color separations should be further processed.

Mit dem Bezugszeichen 54 ist eine mögliche Operation der Verarbeitung eines Bildstapels gekennzeichnet. Hierzu können mehrere in Z-Richtung zueinander verschobene Bilder desselben Erfassungsbereiches weiterverarbeitet werden. beispielsweise kann ein dreidimensionales Modell des Messobjekts gerendert werden, es kann ein Höhenbild erzeugt werden oder aber auch eine sogenannte ”Extended Depth of Field/Focus(EDoF)”-Verarbeitung stattfinden, bei der ein Messvolumen scharf wiedergegeben wird. Auf diese Weise kann eine dreidimensionale Darstellung des Messobjekts 11 erfolgen, dabei kann auch eine Glättung oder Kantenaufsteilung vorgenommen werden.With the reference number 54 is a possible operation of processing a picture stack marked. For this purpose, a plurality of images of the same detection range shifted in the Z direction relative to one another can be further processed. For example, a three-dimensional model of the measurement object can be rendered, an elevation image can be generated, or a so-called "Extended Depth of Field / Focus (EDoF)" processing can take place, in which a measurement volume is reproduced sharply. In this way, a three-dimensional representation of the measurement object 11 take place, it can also be a smoothing or Kantenaufsteilung be made.

Mit dem Bezugszeichen 56 sind Operationen gekennzeichnet, die eine merkmals- oder ergebnisorientierte Darstellung des Auswertungsbilddatensatzes vornehmen. Beispielsweise können dies verschiedene Arten von Filterungen sein. Es kann auch eine Bildverarbeitung vorgenommen werden, die Oberflächenrauheiten und/oder Texturen des Messobjekts hervorhebt, beispielsweise über Kontrastverstärkungen oder Kantenaufsteilungen.With the reference number 56 Operations are characterized, which make a feature or result-oriented representation of the evaluation image data set. For example, these can be different types of filtering. It is also possible to perform an image processing which emphasizes surface roughness and / or textures of the measurement object, for example via contrast enhancements or edge splits.

Mit dem Bezugszeichen 58 ist noch eine weitere Möglichkeit für Operationen bezeichnet. Beispielsweise können auch Bildfolgen verarbeitet werden, die nicht nur in Z-Richtung, das heißt parallel zu einer Betrachtungsrichtung oder einer optischen Achse von refraktiven optischen Elementen des Abbildungssystems, sondern zusätzlich oder alternativ lateral, das heißt senkrecht zu der Z-Richtung, zum Erfassungsbereich 15 zueinander verschoben sind. So können beispielsweise mittels eines ”Novelty Filters” Unterschiede zwischen den Bildern hervorgehoben werden, Differenzbilder zwischen zwei Bildern erstellt werden oder Bildkorrelationen vorgenommen werden, um beispielsweise Bewegungen im Bild zu erfassen. Es kann des Weiteren ein Subpixeling vorgenommen werden, um die Messgenauigkeit unterhalb der Auflösungsgrenze des optischen Sensors oder Detektors 12 zu erhöhen.With the reference number 58 is yet another option for operations called. For example, it is also possible to process image sequences which are not only in the Z direction, ie parallel to a viewing direction or an optical axis of refractive optical elements of the imaging system, but additionally or alternatively laterally, that is to say perpendicular to the Z direction, to the detection region 15 are shifted from each other. Thus, for example, differences between the images can be emphasized by means of a "Novelty Filter", difference images can be created between two images, or image correlations can be made, for example, to capture movements in the image. Further, subpixeling may be performed to reduce the measurement accuracy below the resolution limit of the optical sensor or detector 12 to increase.

Die in den Schritten 56 und 58 vorgenommene Auswertungen können auch beispielsweise mit den in den Schritten 50, 52 und 54 vorgenommenen Operationen kombiniert werden, wie schematisch durch die Blöcke 60, 62 und 64 angedeutet ist. Beispielsweise können die in den Blöcken 56 und 58 vorgenommene Auswertungen über die Darstellungen der Blöcke 50, 52, 54 gelegt werden. So kann beispielsweise eine hinsichtlich der Oberflächentexturen vorgenommene dreidimensionale Darstellung bereitgestellt werden. In einem Schritt 42 kann dann letztendlich nachfolgend zu dem Schritt 38 des Modifizierens und/oder aber auch parallel eine oder mehrere weitere Auswertung erfolgen. All diese Modifikationen und/oder Auswertungen werden zu einem Ausgabebilddatensatz 86 zusammengefasst, der in dem Schritt 40 an einen Nutzer ausgegeben werden kann.The in the steps 56 and 58 Evaluations can also be made, for example, in steps 50 . 52 and 54 operations performed, as schematically by the blocks 60 . 62 and 64 is indicated. For example, those in the blocks 56 and 58 made evaluations of the representations of the blocks 50 . 52 . 54 be placed. Thus, for example, a three-dimensional representation made with regard to the surface textures can be provided. In one step 42 may then ultimately follow the step 38 the modifying and / or in parallel one or more further evaluation done. All of these modifications and / or evaluations become an output image data set 86 summarized in the step 40 can be output to a user.

In dem Schritt 66 können Nutzereingaben getätigt werden. Diese Nutzereingaben können für den Nutzer bei Betrachtung des Ausgabebilddatensatzes 86 erfolgen. Insbesondere kann dazu vorgesehen sein, dass die Modifikationen an dem Auswertungsbilddatensatz 84, die letztlich zu dem Ausgabebilddatensatz 86 führen, nachverfolgt bzw. mitgeschrieben werden. Auf diese Weise ist es möglich, dass die Lage von Strukturen in dem Ausgabebilddatensatz 86, die letztlich dem Benutzer angezeigt werden, hinsichtlich ihres Orts auch auf den Auswertungsbilddatensatz 84 rückverfolgt werden können. Auch können diese Informationen dazu genutzt werden, nach den Modifikationen bestimmte Strukturen in dem Ausgabebilddatensatz 86 zu verschieben, so dass die tatsächlich dem Nutzer angezeigte Lage der Strukturen auch der realen Lage entspricht, wie sie auch in dem Auswertungsbilddatensatz 84 der Auswertung 42 zugrunde gelegt wird.In the step 66 User entries can be made. These user inputs may be for the user viewing the output image data set 86 respectively. In particular, it may be provided that the modifications to the evaluation image data record 84 which ultimately becomes the output image data set 86 lead, be tracked or written. In this way, it is possible for the location of structures in the output image data set 86 which are ultimately displayed to the user, with regard to their location also on the evaluation image data set 84 can be traced. Also, this information can be used after the modifications to certain structures in the output image data set 86 to move so that the actually displayed to the user location of the structures and the real situation corresponds, as well as in the evaluation image data set 84 the evaluation 42 is taken as a basis.

Letztendlich können Modifikationen 38 und/oder Auswertungen erfolgen, bis der Nutzer in dem Schritt 66 manuell das Verfahren abbricht, oder gemäß einem Protokoll vollständig ausgeführt wurde. Das Verfahren endet dann in einem Schritt 44.Finally, modifications can be made 38 and / or evaluations are made until the user in the step 66 manually aborts the procedure, or has been completed in accordance with a protocol. The procedure then ends in one step 44 ,

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102006030670 A1 [0002, 0003, 0034] DE 102006030670 A1 [0002, 0003, 0034]
  • WO 03/096228 A1 [0005] WO 03/096228 A1 [0005]
  • EP 0967456 A2 [0006] EP 0967456 A2 [0006]
  • WO 2004/111600 A1 [0021] WO 2004/111600 A1 [0021]
  • DE 102005047784 A1 [0039] DE 102005047784 A1 [0039]

Claims (16)

Verfahren (30) zum Ausgeben und Auswerten eines mittels eines optischen Sensors (12) erfassten Bilddatensatzes (82), mit den folgenden Schritten: – Bereitstellen (34) eines Bilddatensatzes (82), wobei der Bilddatensatz (82) mindestens ein mittels des optischen Sensors (12) erfasstes Bild (80) aufweist, – Korrigieren (36) des Bilddatensatzes (82) zum Erzeugen eines korrigierten Bilddatensatzes als Auswertungsbilddatensatz (84), wobei das Verfahren des Weiteren durch die folgenden Schritte gekennzeichnet ist: – mindestens einmaliges Auswerten (42) des Auswertungsbilddatensatzes (84), – mindestens einmaliges Modifizieren (38) des Auswertungsbilddatensatzes (84) zum Erzeugen mindestens eines ersten modifizierten Auswertungsbilddatensatzes als Ausgabebilddatensatz (86), – Ausgeben (40) des Ausgabebilddatensatzes (86) an einen Nutzer.Procedure ( 30 ) for outputting and evaluating one by means of an optical sensor ( 12 ) captured image data set ( 82 ), with the following steps: - Deploy ( 34 ) of an image data set ( 82 ), wherein the image data set ( 82 ) at least one by means of the optical sensor ( 12 ) captured image ( 80 ), - Correct ( 36 ) of the image data set ( 82 ) for generating a corrected image data set as an evaluation image data record ( 84 ), the method being further characterized by the following steps: - evaluating at least once ( 42 ) of the evaluation image data record ( 84 ), - at least one modification ( 38 ) of the evaluation image data record ( 84 ) for generating at least a first modified evaluation image data record as an output image data record ( 86 ), - Output ( 40 ) of the output image data set ( 86 ) to a user. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach dem Ausgeben (40) des Ausgabebilddatensatzes (86) eine den Schritt des Auswertens (42) beeinflussende und auf dem Ausgabebilddatensatz (86) basierende Nutzereingabe (66) des Nutzers verarbeitet wird.Method according to claim 1, characterized in that after dispensing ( 40 ) of the output image data set ( 86 ) a the step of the evaluation ( 42 ) and on the output image data set ( 86 ) based user input ( 66 ) of the user is processed. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Schritt des Korrigierens (36) des Bilddatensatzes (82) einen Schritt der Korrektur (46) von Fehlern des optischen Sensors (12) und einen Schritt der Korrektur (48) von Fehlern eines optischen Abbildungssystems (13) aufweist.Method according to claim 1 or 2, characterized in that the step of correcting ( 36 ) of the image data set ( 82 ) a step of correction ( 46 ) of errors of the optical sensor ( 12 ) and a step of correction ( 48 ) of errors of an optical imaging system ( 13 ) having. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass vor dem Schritt des Bereitstellens (34) ein Schritt des Erfassens (33) des Bilddatensatzes (82) mittels des optischen Sensors (12) durchgeführt wird.Method according to one of claims 1 to 3, characterized in that before the step of providing ( 34 ) a step of detecting ( 33 ) of the image data set ( 82 ) by means of the optical sensor ( 12 ) is carried out. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass des Weiteren ein weiterer Schritt des Auswertens (65, 42) und/oder ein weiterer Schritt des Modifizierens (65, 38) des Auswertungsbilddatensatzes (84) zum Erzeugen mindestens eines zweiten modifizierten Auswertungsbilddatensatzes durchgeführt wird.Method according to one of claims 1 to 4, characterized in that further comprises a further step of evaluating ( 65 . 42 ) and / or another step of modifying ( 65 . 38 ) of the evaluation image data record ( 84 ) for generating at least one second modified evaluation image data set. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass mindestens der erste modifizierte Auswertungsbilddatensatz (84) und ein Ergebnis des Auswertens (42) miteinander kombiniert (60, 62, 64) werden und/oder parallel ausgegeben werden.Method according to one of claims 1 to 5, characterized in that at least the first modified evaluation image data set ( 84 ) and a result of the evaluation ( 42 ) are combined ( 60 . 62 . 64 ) and / or output in parallel. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass während des Schritts des Modifizierens (38) mindestens eine Operation (50, 52) aus einer Gruppe bestehend aus einer Filterung von technischem Rauschen, einem Aufbereiten einer Farbskala eines Farbauszugs oder einer Graustufenskala für eine logarithmische Empfindlichkeit, einer Bildglättung und einem Aufsteilen von Kanten durchgeführt wird.Method according to one of claims 1 to 6, characterized in that during the step of modifying ( 38 ) at least one operation ( 50 . 52 ) is performed from a group consisting of filtering technical noise, rendering a color gamut of a color separation, or a grayscale scale for logarithmic sensitivity, image smoothing, and edge splitting. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass während des Schritts des Modifizierens (38) mindestens eine Operation (54) aus einer Gruppe bestehend aus einer Höhenbilddarstellung, einer ”Extended depth of focus”-Verarbeitung, einer Darstellung des besten Fokus und einem 3D-Rendering durchgeführt wird.Method according to one of claims 1 to 7, characterized in that during the step of modifying ( 38 ) at least one operation ( 54 ) is performed from a group consisting of a height image representation, an "extended depth of focus" processing, a representation of the best focus and a 3D rendering. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass während des Schritts des Auswertens (42) mindestens eine Operation (56) aus einer Gruppe bestehend aus einer Filterung zur Hervorhebung einer Oberflächenrauheit, einer Filterung zur Hervorhebung einer Oberflächentextur und einer Filterung zur Hervorhebung von Kanten und/oder Geometrieelementen durchgeführt wird.Method according to one of claims 1 to 8, characterized in that during the step of evaluating ( 42 ) at least one operation ( 56 ) is performed from a group consisting of a filter for highlighting a surface roughness, a filter for highlighting a surface texture, and a filter for highlighting edges and / or geometric features. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass während des Schritts des Auswertens (42) mindestens eine Operation (58) aus einer Gruppe bestehend aus einem Neuheitsfilter, einem Differentialbild, einer Bildkorrelation und einem Subpixeling durchgeführt wird.Method according to one of claims 1 to 9, characterized in that during the step of evaluating ( 42 ) at least one operation ( 58 ) is performed from a group consisting of a novelty filter, a differential image, an image correlation, and a subpixeling. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass während des Schritts des Modifizierens (38) eine Verknüpfung zwischen dem Ausgabebilddatensatz (86) und dem Auswertungsbilddatensatz (84) erzeugt wird, und wobei eine den Schritt des Auswertens (42) beeinflussende und in dem Ausgabebilddatensatz (86) getätigte Nutzereingabe (66) des Nutzers dem Auswertungsbilddatensatz (84) anhand der Verknüpfung zugeordnet wird.Method according to one of claims 1 to 10, characterized in that during the step of modifying ( 38 ) a link between the output image data set ( 86 ) and the evaluation image data set ( 84 ) is generated, and wherein one of the step of evaluating ( 42 ) and in the output image data set ( 86 ) user input ( 66 ) of the user the evaluation image data record ( 84 ) is assigned by the link. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass der Bilddatensatz (82) mehrere Bilder (80) aufweist, insbesondere in verschiedenen Arbeitsabständen (16) von dem optischen Sensor (12) erfasste Bilder (80) desselben Erfassungsbereichs (15), oder insbesondere in verschiedenen Arbeitsabständen (16) von dem optischen Sensor (12) und mit einem lateralen Versatz erfasste Bilder (80).Method according to one of claims 1 to 11, characterized in that the image data set ( 82 ) several pictures ( 80 ), in particular at different working distances ( 16 ) from the optical sensor ( 12 ) captured images ( 80 ) of the same coverage ( 15 ), or in particular at various working intervals ( 16 ) from the optical sensor ( 12 ) and images captured with a lateral offset ( 80 ). Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass nach dem Schritt des Korrigierens (36) eine Abfrage nach einem Protokoll für ein automatisiertes Ausgeben und Auswerten des Bilddatensatzes (82) erfolgt.Method according to one of claims 1 to 12, characterized in that after the step of correcting ( 36 ) a query for a protocol for an automated output and evaluation of the image data set ( 82 ) he follows. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass der Schritt des Ausgebens (40) das Anzeigen des Ausgabebilddatensatzes (86) auf einer Anzeigeeinrichtung (24) oder das Drucken des Ausgabebilddatensatzes (86) auf einem Drucker (26) aufweist.Method according to one of claims 1 to 13, characterized in that the step of Spending ( 40 ) displaying the output image data set ( 86 ) on a display device ( 24 ) or printing the output image data set ( 86 ) on a printer ( 26 ) having. Vorrichtung (10), insbesondere Koordinatenmessgerät, mit einem optischem Sensor (12), einer Datenverarbeitungseinrichtung (14), einer Speichereinheit (18) und einer Ausgabeeinrichtung (28), wobei die Vorrichtung (10) dazu eingerichtet ist, ein Verfahren (30) nach einem der Ansprüche 1 bis 13 auszuführen.Contraption ( 10 ), in particular coordinate measuring machine, with an optical sensor ( 12 ), a data processing device ( 14 ), a storage unit ( 18 ) and an output device ( 28 ), the device ( 10 ) is set up for a procedure ( 30 ) according to one of claims 1 to 13. Computerprogrammprodukt (20) mit Programmcodemitteln, die dazu eingerichtet sind, ein Verfahren (30) nach einem der Ansprüche 1 bis 14 auszuführen, wenn sie auf einer Datenverarbeitungseinrichtung (14) ausgeführt werden.Computer program product ( 20 ) with program code means adapted to provide a method ( 30 ) according to any one of claims 1 to 14, when stored on a data processing device ( 14 ).
DE201210109958 2012-10-18 2012-10-18 Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set Withdrawn DE102012109958A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210109958 DE102012109958A1 (en) 2012-10-18 2012-10-18 Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210109958 DE102012109958A1 (en) 2012-10-18 2012-10-18 Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set

Publications (1)

Publication Number Publication Date
DE102012109958A1 true DE102012109958A1 (en) 2014-05-08

Family

ID=50489658

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210109958 Withdrawn DE102012109958A1 (en) 2012-10-18 2012-10-18 Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set

Country Status (1)

Country Link
DE (1) DE102012109958A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0967456A2 (en) 1998-06-26 1999-12-29 General Electric Company Automated measurements and visualization system
WO2003096228A1 (en) 2002-05-10 2003-11-20 Tripath Imaging, Inc. Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide
WO2004111600A1 (en) 2003-06-12 2004-12-23 Carl Zeiss Sms Gmbh Method for determining the image quality of an optical imaging system
DE102005047784A1 (en) 2005-09-30 2007-04-12 Carl Zeiss Sms Gmbh Method for receiving and evaluating focus rows in imaging systems with beam axis inclined to object plane, entails displaying individual images of focus row on detector unit in image plane and storing and evaluating them by control unit
DE102006030670A1 (en) 2006-07-04 2008-01-10 Carl Zeiss Sms Gmbh Mechanical object image and/or image stack evaluating and correcting method, involves correcting mapping photograph or image stack with correction specification, and outputting and evaluating corrected mapping photograph

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0967456A2 (en) 1998-06-26 1999-12-29 General Electric Company Automated measurements and visualization system
WO2003096228A1 (en) 2002-05-10 2003-11-20 Tripath Imaging, Inc. Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide
WO2004111600A1 (en) 2003-06-12 2004-12-23 Carl Zeiss Sms Gmbh Method for determining the image quality of an optical imaging system
DE102005047784A1 (en) 2005-09-30 2007-04-12 Carl Zeiss Sms Gmbh Method for receiving and evaluating focus rows in imaging systems with beam axis inclined to object plane, entails displaying individual images of focus row on detector unit in image plane and storing and evaluating them by control unit
DE102006030670A1 (en) 2006-07-04 2008-01-10 Carl Zeiss Sms Gmbh Mechanical object image and/or image stack evaluating and correcting method, involves correcting mapping photograph or image stack with correction specification, and outputting and evaluating corrected mapping photograph

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TRINKWALDER, A.: Bilder-Baukasten. c’t, Heft 2, 2012, Seite 146-151.
TRINKWALDER, A.: Bilder-Baukasten. c't, Heft 2, 2012, Seite 146-151. *

Similar Documents

Publication Publication Date Title
DE102014206309B4 (en) System and method for obtaining offset images to be used for improved edge resolution
EP3289398B1 (en) Method for generating a reflection-reduced contrast image and corresponding devices
DE102016220757A1 (en) Method and device for material web observation and material web inspection
EP3452858B1 (en) Artefact reduction during angularly-selective illumination
EP3123228B1 (en) Confocal microscope with aperture correlation
DE102014006717A1 (en) Method for generating a three-dimensional information of an object with a digital microscope and data processing program for processing the method
DE102013212495A1 (en) Method and device for inspecting a contoured surface, in particular the underbody of a motor vehicle
DE60319095T2 (en) Method for distortion correction of multifocus image stacks
DE102010037746A1 (en) Method for optically sensing an edge in or on a surface area
DE102009034994B3 (en) Method for generating representation of optical coherence tomography data set to provide three-dimensional representation of e.g. lid of eye of human, involves generating image data set based on analysis of color image data set
WO2016146105A1 (en) Method and device for calibrating a camera
EP3712670A1 (en) Method for high-resolution scanning microscopy
EP3071928B1 (en) Image capturing simulation in a coordinate measuring apparatus
DE102017219244B4 (en) INSPECTION CONDITIONING DEVICE, INSPECTION CONDITIONING PROCEDURE AND INSPECTION CONDITIONING PROGRAM
DE102018122816B4 (en) Method and device for determining a property of an object
DE102019208114B4 (en) Device and method for 3D measurement of object coordinates
DE102017125799A1 (en) Reduction of picture disturbances in pictures
DE102018218095B4 (en) Procedure for edge determination of a measurement object in optical metrology and coordinate measuring machine
DE102013211286A1 (en) Method for measuring a workpiece with an optical sensor
EP3384461A1 (en) Method and device for image correction
EP3089105A1 (en) Method for generating a contrast image of an object quality and related devices
DE102012109958A1 (en) Method for outputting and evaluating image data set detected by modern high dynamic range camera for two-dimensional recording of technical objects, involves unique modifying evaluation image data set, and outputting output image data set
DE102009024030B3 (en) Method for optical determination of e.g. length of edges of machined metallic object surface of object, involves determining surface characteristics of surface section of object surface based on evaluation result of pixels or image segments
EP3798570B1 (en) Optical measuring system and method for calibrating an optical measuring system, and calibration object for an optical measuring system
DE102009001521B4 (en) Method for generating an HDR video image sequence

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee