DE102022118586A1 - Computer-implemented method, procedure, measuring device and computer program product - Google Patents

Computer-implemented method, procedure, measuring device and computer program product Download PDF

Info

Publication number
DE102022118586A1
DE102022118586A1 DE102022118586.9A DE102022118586A DE102022118586A1 DE 102022118586 A1 DE102022118586 A1 DE 102022118586A1 DE 102022118586 A DE102022118586 A DE 102022118586A DE 102022118586 A1 DE102022118586 A1 DE 102022118586A1
Authority
DE
Germany
Prior art keywords
image
edge
workpiece
depth
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022118586.9A
Other languages
German (de)
Inventor
Sören Schmidt
Tomas Aidukas
Dirk Seidel
Daniel Plohmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Microscopy GmbH
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Microscopy GmbH
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Microscopy GmbH, Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Microscopy GmbH
Priority to DE102022118586.9A priority Critical patent/DE102022118586A1/en
Priority to PCT/EP2023/070295 priority patent/WO2024022973A1/en
Publication of DE102022118586A1 publication Critical patent/DE102022118586A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

Die vorliegende Erfindung betrifft ein Computerimplementiertes Verfahren (200) zum Lokalisieren einer Kantenposition einer Kante (166) in einem Bildbereich (162) eines Bildes (160) mit erweiterter Schärfentiefe, mit den folgenden Schritten: Bestimmen (206) eines Bildgradienten für jeden Bildpunkt in dem Bildbereich (162), wobei die bestimmten Bildgradienten eine Bildgradientenkarte bilden; Bestimmen (210) mindestens eines Kantenparameters eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte; Bestimmen (212) eines Kantenprofils (172) der Kante (166) auf Basis einer Projektion der Bildpunkte des Bildbereichs (162) entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters; und Bestimmen (214) der Kantenposition auf Basis des Kantenprofils (172). Des Weiteren betrifft die vorliegende Erfindung ein Verfahren (220) zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe, eine Messgerät (10) und ein Computerprogrammprodukt.The present invention relates to a computer-implemented method (200) for localizing an edge position of an edge (166) in an image area (162) of an image (160) with an extended depth of field, with the following steps: determining (206) an image gradient for each image point in the Image area (162), wherein the determined image gradients form an image gradient map; determining (210) at least one edge parameter of a modeled, curved edge gradient based on the image gradient map; determining (212) an edge profile (172) of the edge (166) based on a projection of the image points of the image area (162) along the edge profile using the at least one edge parameter; and determining (214) the edge position based on the edge profile (172). The present invention further relates to a method (220) for edge localization in an image with an extended depth of field, a measuring device (10) and a computer program product.

Description

Die vorliegende Erfindung betrifft ein computerimplementiertes Verfahren zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes. Des Weiteren betrifft die vorliegende Erfindung ein Verfahren zur Kantenlokalisierung in einem Bild. Des Weiteren betrifft die vorliegende Erfindung ein Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop. Des Weiteren betrifft die vorliegende Erfindung ein Computerprogrammprodukt.The present invention relates to a computer-implemented method for locating an edge position of an edge in an image region of an image. The present invention further relates to a method for edge localization in an image. The present invention further relates to a measuring device, in particular a coordinate measuring machine or a microscope. The present invention further relates to a computer program product.

Messgeräte zum Vermessen der Oberfläche eines Werkstücks, auch Messobjekt genannt, sind im Stand der Technik allgemein bekannt. In der industriellen Messtechnik werden grundsätzlich Messgeräte benötigt, die 3D Informationen eines Werkstücks messen können. Dazu können in derartigen Messgeräten verschiedene Arten von Sensoren zur Anwendung kommen, um die Koordinaten eines zu vermessenden Werkstücks zu erfassen.Measuring devices for measuring the surface of a workpiece, also called measuring object, are well known in the art. Industrial measurement technology generally requires measuring devices that can measure 3D information on a workpiece. For this purpose, different types of sensors can be used in such measuring devices in order to record the coordinates of a workpiece to be measured.

Beispielsweise sind auch optische Messgeräte bekannt, in denen optische Sensoren verwendet werden. Die optischen Sensoren ermöglichen ein berührungsloses Erfassen der Koordinaten eines Werkstücks. In optischen Messgeräten wird das zu vermessende Werkstück auf einem Tisch aufgespannt, der als Werkstückhalter dient. Der Tisch bildet dabei eine X-Y-Ebene. Senkrecht von dieser Ebene, d.h. in Z-Richtung eines kartesischen Koordinatensystems, ist der optische Sensor von dem zu vermessenden Werkstück beabstandet.For example, optical measuring devices are also known in which optical sensors are used. The optical sensors enable contactless detection of the coordinates of a workpiece. In optical measuring devices, the workpiece to be measured is clamped on a table that serves as a workpiece holder. The table forms an X-Y plane. The optical sensor is spaced perpendicular to this plane, i.e. in the Z direction of a Cartesian coordinate system, from the workpiece to be measured.

Da herkömmliche optische Messgeräte, wie beispielsweise Mikroskope oder Koordinatenmessgeräte, nur 2D Daten aufnehmen können, wird die Bildtiefe oder Tiefeninformation in Z-Richtung mittels einer zusätzlichen Technik bestimmt.Since conventional optical measuring devices, such as microscopes or coordinate measuring machines, can only record 2D data, the image depth or depth information in the Z direction is determined using an additional technique.

Eine nicht invasive und günstige Lösung besteht darin, die Tiefeninformation in Z-Richtung mittels einer Mehrzahl an optischen Messungen zu bestimmen. Bildunschärfe, die durch optisches defokusieren bewirkt wird, ändert sich in vorhersagbarer Weise. Das optische System des optischen Sensors hat eine Fokalebene, die eine Ebene größter Schärfe ist. Wird ein Objektpunkt, der auf der Oberfläche des Werkstücks liegt, auf die Fokalebene zu bewegt, wird die Abbildung des Objektpunkts schärfer. Wird der Objektpunkt von der Fokalebene weg bewegt, wird die Abbildung des Objektpunkts unschärfer. Ist der Objektpunkt in der Fokalebene angeordnet, ist die Abbildung des Objektpunkts am schärfsten. Die Bildunschärfe kann somit durch Variation des Abstands zwischen dem Werkstück und dem optischen System kontrolliert werden. Durch das Aufnehmen von Bildern, während das Werkstück durch den Fokus bewegt wird, wird ein Fokalbildstapel erzeugt. Auf Basis des Fokalbildstapels kann eine Tiefeninformation der Objektpunkte mittels einer Technik, die Shape from Focus (SFF) genannten wird, extrahiert werden.A non-invasive and inexpensive solution is to determine the depth information in the Z direction using a number of optical measurements. Image blur caused by optical defocus changes in a predictable manner. The optical system of the optical sensor has a focal plane, which is a plane of greatest sharpness. If an object point that lies on the surface of the workpiece is moved towards the focal plane, the image of the object point becomes sharper. If the object point is moved away from the focal plane, the image of the object point becomes blurrier. If the object point is located in the focal plane, the image of the object point is sharpest. The image blur can therefore be controlled by varying the distance between the workpiece and the optical system. Taking images as the workpiece moves through focus creates a focal image stack. Based on the focal image stack, depth information of the object points can be extracted using a technique called Shape from Focus (SFF).

Bei der SFF Technik wird zunächst der aufgenommene Fokalbildstapel mit Hilfe einer Autofokusmetrik bewertet, welche pixelaufgelöst für jedes Einzelbild ein lokales Schärfemaß definiert. Dabei wird für jeden Bildpunkt jedes Bildes ein Schärfewert bestimmt. Die Schärfewerte werden in einer 3d-Schärfematrix gespeichert. Jedem einzelnen Bildpunkt wird damit ein Schärfeprofil entlang der z-Richtung zugeordnet. Dann wird das Maximum jedes Schärfeprofils bestimmt. Das Maximum gibt somit an, an welcher z-Position die schärfste Abbildung eines Objektpunkts auf den Bildpunkt erfolgt. Daraus lässt sich dann für jeden Objektpunkt des Werkstücks eine Tiefeninformation bestimmen. Auf Basis der ermittelten Tiefeninformationen kann eine Tiefenkarte des Bereichs des Werkstücks erzeugt werden. Auf Basis der Tiefenkarte und des Fokalbildstapels kann dann des Weiteren ein Bild mit erweiterter Schärfentiefe, ein sogenanntes „extended-depth-of-field“ (EDOF) Bild, erzeugt werden.With the SFF technique, the recorded focal image stack is first evaluated using an autofocus metric, which defines a local sharpness measure for each individual image in pixel resolution. A sharpness value is determined for each pixel of each image. The sharpness values are saved in a 3D sharpness matrix. Each individual pixel is therefore assigned a sharpness profile along the z-direction. Then the maximum of each sharpness profile is determined. The maximum therefore indicates at which z position the sharpest image of an object point onto the image point occurs. From this, depth information can then be determined for each object point on the workpiece. Based on the depth information determined, a depth map of the area of the workpiece can be generated. Based on the depth map and the focal image stack, an image with an extended depth of field, a so-called “extended depth of field” (EDOF) image, can then be generated.

In der Mikroskopie sind Verfahren bekannt, die die SFF Technik verwenden. Beispielsweise zeigt die Druckschrift EP 2 598 836 A1 ein Verfahren zur Kompensation von Beleuchtungsdefiziten im mikroskopischen „Shape from Focus (SFF)“, wobei zuerst das Reflexionsvermögen der Szene unter Verwendung eines Projektorkamerasystems geschätzt wird und dann das mikroskopische „Shape from Focus (SFF)“ auf einen Stapel von Reflexionskarten anstatt auf die ursprünglichen Bilddaten angewendet wird.Methods that use the SFF technique are known in microscopy. For example, the publication shows EP 2 598 836 A1 a method for compensating for illumination deficiencies in the microscopic Shape from Focus (SFF), first estimating the reflectivity of the scene using a projector camera system and then applying the microscopic Shape from Focus (SFF) to a stack of reflectance cards rather than the original ones Image data is applied.

Des Weiteren sind derartige Verfahren auch in dem Artikel „Shape From Focus Sytem" von Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308 sowie in dem Artikel „Focus Variation Instruments“ von Franz Helmli, Kapitel 7 aus dem Buch „Optical Measurement of Surface Topography“, Seiten 131-166, Springer Verlag beschrieben.Furthermore, such procedures are also in the article "Shape From Focus Sytem" by Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308 as well as in the article “Focus Variation Instruments” by Franz Helmli, Chapter 7 from the book “Optical Measurement of Surface Topography”, pages 131-166, Springer Verlag.

Auf Basis eines Bildes, das eine Struktur abbildet, können weitere Informationen über die in dem Bild dargestellte Struktur erlangt werden. Insbesondere ist es wünschenswert, weitere Information über die Kontur der abgebildeten Struktur, insbesondere über Kanten der Struktur, zu erlangen. Beispielsweise kann die Struktur ein Werkstück sein. In diesem Fall kann das Bild ausgewertet werden, um die Lage von Kanten des Werkstücks zu ermitteln.Based on an image that depicts a structure, further information about the structure depicted in the image can be obtained. In particular, it is desirable to obtain further information about the contour of the imaged structure, in particular about edges of the structure. For example, the structure can be a workpiece. In this case, the image can be evaluated to determine the position of edges of the workpiece.

Das auszuwertende Bild kann beispielsweise ein aufgenommenes Einzelbild oder ein Bild mit erweiterter Schärfentiefe sein. Die Messung innerhalb eines Bildes mit erweiterter Schärfentiefe erlaubt es eine Vielzahl von Kantenpositionen aus verschiedenen z-Positionen zu bewerten. Im Gegensatz erlaubt die Einzelbildmessung eine Bewertung für Kanten welche innerhalb des scharf abgebildeten Fokalbereichs sind. Außerfokal liegende Kanten können dann im Bild nicht bewertet werden. Daher ist es insbesondere vorteilhaft im Bild mit erweiterter Schärfentiefe Kantenauswertungen durchzuführen.The image to be evaluated can, for example, be a recorded single image or an image with an extended depth of field. The measurement inside half of an image with extended depth of field allows a variety of edge positions to be evaluated from different z positions. In contrast, single-image measurement allows an assessment of edges that are within the sharply imaged focal area. Edges that are out of focus cannot then be evaluated in the image. It is therefore particularly advantageous to carry out edge evaluations in images with an extended depth of field.

Zur Lokalisierung dieser Kanten, insbesondere deren subpixel-genauen Kantenposition, in einem Bild sind im Stand der Technik verschiedene Verfahren bereits bekannt.Various methods are already known in the prior art for localizing these edges, in particular their subpixel-precise edge position, in an image.

Zur Bestimmung einer subpixelgenauen Kantenposition werden zumeist sogenannte Suchstrahlverfahren eingesetzt. Hierfür wird entlang eines beliebig gewählten Suchstrahls, welcher die zu vermessende Kante enthält, die Bildinformation entlang der Suchstrahllinie ausgewertet. Die Suchstrahllinie im Bild ist hierbei durch die Geradengleichung ( x S u c h s t r a h l y S u c h s t r a h l ) = ( x 0 y 0 ) + l ( n x n y )

Figure DE102022118586A1_0001
bestimmt. Darin entspricht [x0,y0] dem Suchstrahlursprung, [nx,ny] der Suchstrahlrichtung und l dem freien Suchstrahlparameter. Die zugehörige Bildinformation I(xSuchstrahl,ySuchstrahl) wird hierbei mit Hilfe einer Interpolation aus dem aufgenommenen Bild errechnet. Im nächsten Schritt wird beispielsweise mit Hilfe eines „Canny-Edge-Algorithmus“ oder einer alternativen Technik, insbesondere eines Schwellwert-Verfahren, die Kantenposition bestimmt. Ein derartiges Schwellwert-Verfahren ist beispielsweise in dem Fachartikel „Edge Detection with Sub-pixel Accuracy Based on Approximation of Edge with Erf Function“, HAGARA et al, RADIOENGINEERING, VOL. 20, NO. 2 beschrieben. Zentraler Nachteil eines solchen Kantenbestimmungsverfahrens liegt in der Rauschanfälligkeit der verwendeten Algorithmen. Da die Kanteninformation nur entlang einer einzelnen Suchstrahllinie bekannt ist, führt ein etwaiges Rauschen während der Messung zu einer direkten Beeinflussung der Messergebnisse und vermindert entsprechend deren Qualität.So-called search beam methods are usually used to determine a subpixel-precise edge position. For this purpose, the image information is evaluated along the search beam line along an arbitrarily selected search beam that contains the edge to be measured. The search beam line in the image is represented by the straight line equation ( x S u c H s t r a H l y S u c H s t r a H l ) = ( x 0 y 0 ) + l ( n x n y )
Figure DE102022118586A1_0001
certainly. Therein, [x 0 ,y 0 ] corresponds to the search beam origin, [n x ,n y ] corresponds to the search beam direction and l corresponds to the free search beam parameter. The associated image information I(x search beam , y search beam ) is calculated from the recorded image using interpolation. In the next step, the edge position is determined, for example, with the help of a “canny edge algorithm” or an alternative technique, in particular a threshold value method. Such a threshold value method is described, for example, in the specialist article “Edge Detection with Sub-pixel Accuracy Based on Approximation of Edge with Erf Function”, HAGARA et al, RADIOENGINEERING, VOL. 20, NO. 2 described. The main disadvantage of such an edge determination method is the susceptibility of the algorithms used to noise. Since the edge information is only known along a single search beam line, any noise during the measurement has a direct influence on the measurement results and accordingly reduces their quality.

Alternativ ist es auch denkbar, statt eines einzelnen Suchstrahls, die Kanteninformation für einen flächigen Bereich, einer sogenannten Region-Of-Interest (Rol), zu betrachten und gegenüber der Oberflächennormalen bezüglich einer geraden Kante zu projizieren. Die ROI ist somit ein, insbesondere kleiner, Bildbereich des Bildes. Dieses Verfahren ist in der Literatur unter dem Begriff „Slanted-Edge-Method“ bekannt und ermöglicht die Extraktion eines überaufgelösten und besser abgetasteten Kantenprofils. Im Anschluss wird hieraus mit Hilfe eines Kantenlokalisierungsverfahrens eine Kantenposition bestimmt. Die Slanted-Edge-Method ist beispielsweise in den Fachartikeln „Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, Seiten 1126-1136 (2019), DOI: 10.1364/JOSAA.36.001126 und „Comparison of MTF measurements using edge method: towards reference data set", Viallefont-Roninet et al, Opt. Express 26, 33625-33648 (2018), DOI: 10.1364/OE.26.033625 beschrieben.Alternatively, it is also conceivable, instead of a single search beam, to consider the edge information for a flat area, a so-called region of interest (Rol), and to project it relative to the surface normal with respect to a straight edge. The ROI is therefore an image area of the image, particularly a small one. This procedure is known in the literature as the “slanted edge method” and enables the extraction of a super-resolved and better sampled edge profile. An edge position is then determined using an edge localization method. The slanted edge method is, for example, in the specialist articles "Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, pages 1126-1136 (2019), DOI: 10.1364/JOSAA.36.001126 and "Comparison of MTF measurements using edge method: towards reference data set", Viallefont-Roninet et al, Opt. Express 26, 33625-33648 (2018), DOI: 10.1364/OE.26.033625.

Gegenüber dem Suchstrahlverfahren besitzt die „Slanted-Edge-Method“ ein verbessertes Signal-Rausch-Verhältnis und erlaubt durch die überaufgelösten Samplingeigenschaften höhere Lokalisierungsgenauigkeiten.Compared to the search beam method, the “slanted edge method” has an improved signal-to-noise ratio and allows higher localization accuracy due to the over-resolution sampling properties.

Die im Stand der Technik bekannten Verfahren zur Kantenlokalisierung in Bildern mit erweiterter Schärfentiefe lassen aber noch Raum für Verbesserungen, insbesondere hinsichtlich der Genauigkeit der Bestimmung einer Kantenposition.However, the methods known from the prior art for edge localization in images with an extended depth of field still leave room for improvements, particularly with regard to the accuracy of determining an edge position.

Vor diesem Hintergrund ist es eine technische Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung bereitzustellen, mittels denen Kanten in einem Bild besser lokalisiert werden können.Against this background, it is a technical object of the present invention to provide a method and a device by means of which edges in an image can be better localized.

In einem ersten Aspekt der vorliegenden Erfindung wird ein computerimplementiertes Verfahren zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes bereitgestellt. Das Verfahren weist die folgenden Schritte auf:

  • - Bestimmen eines Bildgradienten für jeden Bildpunkt in dem Bildbereich, wobei die bestimmten Bildgradienten eine Bildgradientenkarte bilden;
  • - Bestimmen mindestens eines Kantenparameters eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte;
  • - Bestimmen eines Kantenprofils der Kante auf Basis einer Projektion der Bildpunkte des Bildbereichs entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters; und
  • - Bestimmen der Kantenposition auf Basis des Kantenprofils.
In a first aspect of the present invention, a computer-implemented method for locating an edge position of an edge in an image region of an image is provided. The procedure has the following steps:
  • - determining an image gradient for each pixel in the image area, the determined image gradients forming an image gradient map;
  • - Determine at least one edge parameter of a modeled, curved edge profile based on the image gradient map;
  • - determining an edge profile of the edge based on a projection of the image points of the image area along the edge profile using the at least one edge parameter; and
  • - Determine the edge position based on the edge profile.

Das Bild kann ein aufgenommenes Einzelbild oder ein Bild mit erweiterter Schärfentiefe sein. Eine Bildebene des Bildes kann mittels eines zweidimensionalen Koordinatensystems beschrieben werden. Dieses kann beispielsweise ein kartesisches Koordinatensystem mit einer x-Richtung und einer y-Richtung sein. Das Bild weist eine Mehrzahl von Bildpunkten auf. Die Bildpunkte sind in der x- und y-Richtung in regelmäßigen Abständen verteilt. Jeder Bildpunkt hat einen Grau- bzw. RGB-Wert, welcher die Helligkeit bzw. Intensität des Bildpunkts beschreibt. Die Intensitätswerte bilden ein Intensitätsfeld φ(x,y) des Bildes. Das Intensitätsfeld ordnet jedem Ort im Bild einen Intensitätswert zu. Bei Verwendung eines Bildes mit erweiterter Schärfentiefe kann jedem Bildpunkt zusätzlich noch ein Tiefenwert zugeordnet sein (siehe zum Beispiel 6D), welcher im Folgenden aber zur Kantenlokalisierung nicht herangezogen wird.The image can be a captured still image or an image with an extended depth of field. An image plane of the image can be described using a two-dimensional coordinate system. This can be, for example, a Cartesian coordinate system with an x-direction and a y-direction. The image has a plurality of pixels. The pixels are in the x and y Direction distributed at regular intervals. Each pixel has a gray or RGB value, which describes the brightness or intensity of the pixel. The intensity values form an intensity field φ(x,y) of the image. The intensity field assigns an intensity value to each location in the image. When using an image with an extended depth of field, each pixel can also be assigned a depth value (see for example 6D ), which will not be used for edge localization in the following.

Das Bild kann beispielsweise einen Bereich einer Oberfläche eines Werkstücks abbilden. Das Werkstück hat eine Oberflächenstruktur, die Kanten aufweist. Kanten der Oberflächenkontur liegen somit auch in dem Bereich der Oberfläche des Werkstücks, der in dem Bild abgebildet ist. Mit anderen Worten können die in dem Bild abgebildeten Kanten Kanten des abgebildeten Werkstücks sein. Die Kantenposition gibt die Lage einer Kante im Bild an.The image can, for example, depict an area of a surface of a workpiece. The workpiece has a surface structure that has edges. Edges of the surface contour therefore also lie in the area of the surface of the workpiece that is shown in the image. In other words, the edges depicted in the image may be edges of the workpiece depicted. The edge position indicates the location of an edge in the image.

Die Intensitäten von Bildpunkten, die dieselbe, insbesondere ebene, Fläche des Werkstücks abbilden, sind ähnlich. Mit anderen Worten weichen diese Intensitäten nur gering voneinander ab. Die an eine Kante angrenzenden Flächen eines Werkstücks werden im Bild mit unterschiedlichen Intensitäten abgebildet. Im Kantenbereich kommt es damit zu einer größeren Intensitätsänderung. Mit anderen Worten ist die Intensitätabweichung an einer Kante größer als in einem Bereich ohne Kante.The intensities of image points that depict the same, in particular flat, surface of the workpiece are similar. In other words, these intensities differ only slightly from one another. The surfaces of a workpiece adjacent to an edge are displayed in the image with different intensities. This results in a larger change in intensity in the edge area. In other words, the intensity deviation at an edge is greater than in an area without an edge.

Um die Position einer Kante zu lokalisieren wird zumindest ein Bildbereich des Bildes betrachtet, in dem die Kante verläuft. Dieser Bereich kann auch als „Region-of-Interest“ (ROI) bezeichnet werden. Der Bildbereich kann beispielsweise durch einen Nutzer ausgewählt werden. Alternativ kann der Bildbereich auf Basis einer Bildanalyse bestimmt werden. Dazu können beispielsweise Bildbereiche ausgewählt werden, die große Intensitätsabweichungen aufweisen.In order to localize the position of an edge, at least an image area of the image in which the edge runs is considered. This area can also be referred to as the “Region of Interest” (ROI). The image area can be selected by a user, for example. Alternatively, the image area can be determined based on image analysis. For this purpose, for example, image areas can be selected that have large intensity deviations.

Zur Lokalisierung einer Kantenposition einer Kante in dem Bildbereich wird zunächst für jeden Bildpunkt ein Bildgradient bestimmt. Der Bildgradient gibt an, wie sich die Intensität, sprich die Helligkeit der Bildpunkte, an einem Ort eines Bildpunkts zu umliegenden Bildpunkten ändert. Der Bildgradient bestimmt sich insbesondere aus einer Änderung der Helligkeit zu umliegenden Bildpunkten. Der Bildgradient ist somit der Gradient des Intensitätsfelds eines Bildes und kann mittels der Formel [Gx,Gy] = ∇φ(x,y) beschrieben werden. Beispielsweise kann zur Berechnung des Gradienten eine finite-Differenzen Approximation des Ableitungsoperators verwendet werden. Der Bildgradient ist somit ein Vektor, der die Intensitätsänderung an einem Bildpunkt, sprich an einem Ort (x,y) des Bildes, angibt. Der Bildgradient hat eine Richtung, die die Richtung der größten Intensitätsänderung an diesem Ort angibt, und einen Gradientenwert G = G x 2 + G y 2 ,

Figure DE102022118586A1_0002
der den Betrag des Vektors angibt und einem Maß für die Stärke der Intensitätsänderung entspricht.To localize an edge position of an edge in the image area, an image gradient is first determined for each pixel. The image gradient indicates how the intensity, i.e. the brightness of the pixels, changes at one location of a pixel compared to surrounding pixels. The image gradient is determined in particular by a change in the brightness of surrounding pixels. The image gradient is therefore the gradient of the intensity field of an image and can be described using the formula [G x ,G y ] = ∇φ(x,y). For example, a finite difference approximation of the derivative operator can be used to calculate the gradient. The image gradient is therefore a vector that indicates the change in intensity at an image point, i.e. at a location (x,y) of the image. The image gradient has a direction, which indicates the direction of greatest intensity change at that location, and a gradient value G = G x 2 + G y 2 ,
Figure DE102022118586A1_0002
which indicates the magnitude of the vector and corresponds to a measure of the strength of the change in intensity.

Der Bildgradient kann basierend auf dem Bild oder dem gesamten oder einem Teil des Fokalbildstapels des Bereichs des Werkstücks für jeden Punkt bestimmt werden. Dazu wird für jeden Bildpunkt ein Bildgradient berechnet. Hierfür kann im Bildbereich die numerische Approximation des Bildgradienten [ G x , G y ] = [ x φ ( x , y ) , y φ ( x , y ) ]

Figure DE102022118586A1_0003
beispielsweise durch direktionale Sobelfilter oder numerische Finite-Differenzen Ableitungsverfahren ermittelt werden.The image gradient may be determined for each point based on the image or all or part of the focal image stack of the area of the workpiece. For this purpose, an image gradient is calculated for each pixel. For this purpose, the numerical approximation of the image gradient can be used in the image area [ G x , G y ] = [ x φ ( x , y ) , y φ ( x , y ) ]
Figure DE102022118586A1_0003
can be determined, for example, by directional Sobel filters or numerical finite difference derivation methods.

Um Einflüsse durch Bildrauschen zu unterdrücken ist es besonders vorteilhaft die Bildgradienten als gewichtete Mittelung über mehrere Bilder aus einem Fokalbildstapel zu errechnen, d.h. [ G x , G y ] = 1 N i = 1 N [ x φ i ( x , y ) , y φ i ( x , y ) ]

Figure DE102022118586A1_0004
In order to suppress influences caused by image noise, it is particularly advantageous to calculate the image gradients as a weighted average over several images from a focal image stack, ie [ G x , G y ] = 1 N i = 1 N [ x φ i ( x , y ) , y φ i ( x , y ) ]
Figure DE102022118586A1_0004

Mit anderen Worten gibt der Bildgradient [Gx,Gy] an, wie sich die Helligkeit zu umliegenden Bildpunkten ändert. Der Bildgradient [Gx,Gy] an einem Bildpunkt ist somit ein Vektor der in die Richtung der größten Helligkeitsänderung zeigt.In other words, the image gradient [G x ,G y ] indicates how the brightness of surrounding pixels changes. The image gradient [G x ,G y ] at an image point is therefore a vector that points in the direction of the greatest change in brightness.

Die bestimmten Bildgradienten bilden gemeinsam eine Bildgradientenkarte. Die Bildgradientenkarte enthält somit für jeden Bildpunkt einen Bildgradienten [Gx,Gy]. Mit anderen Worten ordnet die Bildgradientenkarte jeder Bildpunktposition [x,y] einen entsprechenden Bildgradienten [Gx,Gy] zu.The determined image gradients together form an image gradient map. The image gradient map therefore contains an image gradient [G x ,G y ] for each pixel. In other words, the image gradient map assigns a corresponding image gradient [G x ,G y ] to each pixel position [x,y].

Grundsätzlich hat eine Kante in dem Bildbereich einen Kantenverlauf. Der Kantenverlauf beschreibt den Verlauf der Kante in der x-y-Ebene. Der Kantenverlauf beschreibt somit eine Kurve in der x-y-Ebene. Der Kantenverlauf kann auch als Kantengeometrie bezeichnet werden. Jeder Punkt der Kante weist eine Kantentangente und eine Kantennormale auf. Die Kantentangente ist eine Tangente an die Kante in dem jeweiligen Punkt. Die Kantennormale ist eine Normale an die Kante in dem jeweiligen Punkt. Die Kantentangente und die Kantennormale liegen in der x-y-Ebene. Die Kantentangente verläuft in einer tangentialen Richtung zur Kante. Die tangentiale Richtung beschreibt an dem jeweiligen Punkt der Kante die Richtung der Tangente an die Kante in der x-y Ebene. Die tangentiale Richtung beschreibt somit die Richtung des Kantenverlaufs an dem jeweiligen Punkt. Die tangentiale Richtung kann auch als Kantenverlaufsrichtung bezeichnet werden. Die Kantennormale verläuft in einer Normalen-Richtung zur Kante. Die Normalen-Richtung beschreibt an dem jeweiligen Punkt der Kante die Richtung der Normalen zu der Kante in der x-y Ebene. In jedem Punkt sind die Normalen-Richtung und die Kantenverlaufsrichtung senkrecht zueinander.Basically, an edge in the image area has an edge gradient. The edge course describes the course of the edge in the xy plane. The edge profile therefore describes a curve in the xy plane. The edge course can also be referred to as edge geometry. Each point on the edge has an edge tangent and an edge normal. The edge tangent is a tangent to the edge at the respective point. The edge normal is a normal to the edge at the respective point. The edge tangent and the edge normal lie in the xy plane. The edge tangent runs in a tangential direction to the edge. The tangential direction describes the direction of the tangent to the edge in the xy plane at the respective point on the edge. The tangential direction therefore describes the direction of the edge at the respective point. The tangential direction can also be called the edge direction be referred to. The edge normal runs in a normal direction to the edge. The normal direction describes the direction of the normal to the edge in the xy plane at the respective point on the edge. At each point, the normal direction and the edge direction are perpendicular to each other.

Der Kantenverlauf kann beliebig gekrümmt sein. Unter „gekrümmt“ ist die lokale Abweichung einer Kurve von einer Gerade zu verstehen. Gekrümmt bedeutet somit nicht linear. Bei einem linearen, sprich nicht gekrümmten, Kantenverlauf sind die Normalen-richtung und die Kantenverlaufsrichtung für alle Punkte der Kante gleich. Bei einem gekrümmten Kantenverlauf ändert sich die Richtung des Kantenverlaufs, sprich die Kantenverlaufsrichtung, in der x-y-Ebene entlang des Kantenverlaufs, sprich wenn man dem Kantenverlauf folgt. Entsprechend ändert sich bei einem gekrümmten Kantenverlauf auch die Normalen-Richtung entlang des Kantenverlaufs.The edge can be curved as desired. “Curved” means the local deviation of a curve from a straight line. Curved therefore does not mean linear. With a linear, i.e. not curved, edge, the normal direction and the edge direction are the same for all points on the edge. With a curved edge, the direction of the edge, i.e. the direction of the edge, changes in the x-y plane along the edge, i.e. when you follow the edge. If the edge is curved, the normal direction also changes along the edge.

Der Kantenverlauf der Kante kann anhand eines Modells eines gekrümmten Kantenverlaufs modelliert bzw. beschrieben werden. Der modellierte, gekrümmte Kantenverlauf dient somit zur Beschreibung bzw. Approximation des tatsächlichen Kanterverlaufs der Kante. Der modellierte, gekrümmte Kantenverlauf hat mindestens einen Kantenparameter, der zur Beschreibung des Kantenverlaufs anhand des zugrundeliegenden Modells dient. Mit anderen Worten weist der modellierte, gekrümmte Kantenverlauf einen oder mehrere Kantenparameter auf. Insbesondere kann der modellierte, gekrümmte Kantenverlauf mehr als einen Kantenparameter aufweisen.The edge course of the edge can be modeled or described using a model of a curved edge course. The modeled, curved edge course serves to describe or approximate the actual edge course of the edge. The modeled, curved edge has at least one edge parameter that is used to describe the edge using the underlying model. In other words, the modeled, curved edge profile has one or more edge parameters. In particular, the modeled, curved edge profile can have more than one edge parameter.

Mittels des mindestens einen Kantenparameters kann somit der Kantenverlauf der Kante beschrieben bzw. modelliert werden. Der Kantenparameter kann beispielsweise ein Parameter oder mehrere Parameter sein, mittels denen die Kantenverlaufsrichtung, die Normalen-Richtung und/oder die Krümmung des Kantenverlaufs beschrieben wird. Der Kantenverlauf kann vorzugsweise mittels einer beliebigen Funktion beschrieben werden, wobei jeder Kantenparameter ein Parameter der Funktion sein kann. Bei konstanter Krümmung kann der Kantenparameter beispielsweise die Lage des Krümmungszentrums angeben.The edge course of the edge can thus be described or modeled using the at least one edge parameter. The edge parameter can, for example, be one parameter or several parameters by means of which the edge direction, the normal direction and/or the curvature of the edge path are described. The edge profile can preferably be described using any function, whereby each edge parameter can be a parameter of the function. If the curvature is constant, the edge parameter can, for example, indicate the location of the center of curvature.

Wie zuvor erläutert ändert sich im Bereich der Kante die Intensität. Die Intensitätsänderung verläuft dabei im Wesentlichen senkrecht zum Kantenverlauf, sprich in Normalen-Richtung. Mit anderen Worten sind die Bildgradienten im Kantenbereich im Wesentlichen in Normalen-Richtung zur Kante ausgerichtet. Mittels des modellierten, gekrümmten Kantenverlaufs und der bestimmten Bildgradienten kann somit der mindestens eine Kantenparameter bestimmt werden.As explained previously, the intensity changes in the area of the edge. The change in intensity runs essentially perpendicular to the edge, i.e. in the normal direction. In other words, the image gradients in the edge region are essentially aligned in the direction normal to the edge. The at least one edge parameter can thus be determined using the modeled, curved edge profile and the specific image gradients.

Der bestimmte zumindest eine Kantenparameter wird dann dazu verwendet eine Projektion der Bildpunkte des Bildbereichs entlang des Kantenverlaufs, sprich entlang der Kantenverlaufsrichtung, auf die Normalen-Richtung durchzuführen. Dabei wird jedem Bildpunkt eine Position in Normalen-Richtung zugeordnet. Mit anderen wird mit der Projektion die Lage jedes Bildpunkts relativ zu der Kante bestimmt.The determined at least one edge parameter is then used to carry out a projection of the image points of the image area along the edge path, i.e. along the edge path direction, onto the normal direction. Each pixel is assigned a position in the normal direction. With others, the projection determines the position of each pixel relative to the edge.

Auf Basis dieser Projektion wird dann ein Kantenprofil bestimmt bzw. konstruiert. Das Kantenprofil kann auch als Kantenübertragungsprofil oder Kantenübertragungsfunktion („Edge-Spread-Function“) bezeichnet werden. Das Kantenprofil ist ein Intensitätsprofil. Das Intensitätsprofil gibt die Intensität jedes Bildpunktes an der jeweiligen Position in der Normalen-Richtung an. Das Kantenprofil gibt somit eine Intensitätsverteilung bzw. einen Intensitätsverlauf in der Normalen-Richtung an. Mit anderen Worten beschreibt das Kantenprofil die Intensitätsverteilung relativ zu der Kante. Man spricht in diesem Zusammenhang auch von einem überaufgelösten Kantenprofil.Based on this projection, an edge profile is then determined or constructed. The edge profile can also be referred to as an edge transfer profile or edge spread function. The edge profile is an intensity profile. The intensity profile indicates the intensity of each pixel at the respective position in the normal direction. The edge profile thus indicates an intensity distribution or an intensity curve in the normal direction. In other words, the edge profile describes the intensity distribution relative to the edge. In this context, one also speaks of an over-resolved edge profile.

Auf Basis dieses bestimmten Kantenprofils kann dann die Kantenposition der Kante bestimmt werden. Im Kantenbereich ändert sich die Intensität der Bildpunkte normalerweise am stärksten. Beispielsweise kann als Kantenposition die Position in der Normalen-Richtung bestimmt werden, an der das Kantenprofil die größte Änderung bzw. Steigung aufweist. Alternativ wird als Kantanposition häufig der Schwellwert definiert an dem der Kantenkontrast 50 % erreicht. Mit anderen Worten entspricht dies der Kantenposition in dem der Intensitäts- bzw. Grauwert dem Mittelwert aus maximalem & minimalem Intensitäts- bzw. Grauwert entspricht der Kantenübertragungsfunktion.The edge position of the edge can then be determined based on this specific edge profile. The intensity of the pixels usually changes the most in the edge area. For example, the position in the normal direction at which the edge profile has the greatest change or slope can be determined as the edge position. Alternatively, the threshold value at which the edge contrast reaches 50% is often defined as the edge position. In other words, this corresponds to the edge position in which the intensity or gray value corresponds to the average of the maximum & minimum intensity or gray value of the edge transfer function.

Gemäß einem zweiten Aspekt der Erfindung wird ein Verfahren zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe bereitgestellt, wobei das Bild einen Bereich einer Oberfläche eines Werkstücks abbildet, mit den folgenden Schritten:

  • - Erfassen einer Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks mit in der Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden;
  • - Erzeugen des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel; und
  • - Lokalisieren einer Kantenposition einer Kante in einem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels des Verfahrens nach dem ersten Aspekt der Erfindung.
According to a second aspect of the invention, there is provided a method for edge localization in an image with an extended depth of field, the image depicting a region of a surface of a workpiece, comprising the following steps:
  • - Acquiring a plurality of images of the area of the surface of the workpiece by means of the optical sensor, the images each imaging the area of the surface of the workpiece with defined focal plane positions that are different in the depth direction, and the acquired images forming a focal image stack;
  • - Generate the image with extended depth of field in the depth direction based on the focal image stack; and
  • - Locating an edge position of an edge in an image area of the image with an extended depth of field using the method according to the first aspect of the invention.

Gemäß einem dritten Aspekt der Erfindung wird ein Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, wobei das Messgerät einen Werkstückhalter für ein Werkstück, einen optischen Sensor und eine Steuereinrichtung aufweist, wobei der optische Sensor dazu ausgebildet ist, Bilder eines Bereichs einer Oberfläche des Werkstücks zu erfassen, wobei der optische Sensor und das Werkstück in einer Tiefenrichtung voneinander beabstandet sind, wobei die Steuereinrichtung dazu eingerichtet ist, die folgenden Schritte durchzuführen:

  • - Steuern des optischen Sensors derart, dass eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors erfasst wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks mit in der Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden;
  • - Erzeugen eines Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel; und
  • - Lokalisieren von zumindest einer Kantenposition einer Kante in einem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels des Verfahrens nach dem ersten Aspekt der Erfindung.
According to a third aspect of the invention, a measuring device, in particular a coordinate measuring machine or a microscope, wherein the measuring device has a workpiece holder for a workpiece, an optical sensor and a control device, wherein the optical sensor is designed to produce images of a region of a surface of the workpiece detect, the optical sensor and the workpiece being spaced apart from one another in a depth direction, the control device being adapted to carry out the following steps:
  • - Controlling the optical sensor such that a plurality of images of a region of the surface of the workpiece are captured by means of the optical sensor, the images each imaging the region of the surface of the workpiece with defined focal plane positions that are different in the depth direction, and wherein the captured images form a focal image stack;
  • - Generate an image with extended depth of field in the depth direction based on the focal image stack; and
  • - Localizing at least one edge position of an edge in an image area of the image with an extended depth of field using the method according to the first aspect of the invention.

Gemäß einem vierten Aspekt der Erfindung wird ein Computerprogrammprodukt mit einem Computerprogramm bereitgestellt, das Programmcodemittel zur Durchführung eines Verfahrens nach dem ersten Aspekt der Erfindung aufweist, wenn das Computerprogramm auf einem Messgerät ausgeführt wird. Des Weiteren kann auch ein Computerprogrammprodukt bereitgestellt sein, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des Verfahrens nach dem ersten Aspekt der Erfindung auszuführen.According to a fourth aspect of the invention, a computer program product is provided with a computer program that has program code means for carrying out a method according to the first aspect of the invention when the computer program is executed on a measuring device. Furthermore, a computer program product can also be provided which includes instructions which, when the program is executed by a computer, cause it to carry out the steps of the method according to the first aspect of the invention.

Vorteilhafterweise wird das neue Verfahren unter Verwendung einer Verarbeitungseinheit oder einer Steuereinrichtung implementiert, die ein Mehrzweckcomputer oder ein Spezialcomputer sein kann, wobei ein angemessenes Computerprogramm oder Computerprogrammprodukt gespeichert und ausgeführt wird, wobei das Computerprogramm oder das Computerprogrammprodukt zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes bzw. zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe gemäß den zuvor genannten Verfahren gestaltet und ausgebildet ist.Advantageously, the new method is implemented using a processing unit or a control device, which may be a general purpose computer or a special purpose computer, storing and executing an appropriate computer program or computer program product, the computer program or computer program product for locating an edge position of an edge in an image area of an Image or for edge localization in an image with extended depth of field is designed and designed according to the aforementioned methods.

Unter einem Werkstück ist ein Objekt, insbesondere ein Messobjekt, zu verstehen, dass vermessen wird. Das Werkstück weist eine Oberfläche auf. Bilder eines Bereichs der Oberfläche können mit einem optischen Sensor eines Messgeräts erfasst werden. Das Messgerät kann insbesondere ein Koordinatenmessgerät oder ein Mikroskop sein. Der optische Sensor kann beispielsweise einen Bildsensor und ein optisches System aufweisen. Der Bildsensor kann beispielsweise ein ladungsgekoppelter Halbleiterelementsensor sein, der auch CCD (charge-couple device) Sensor genannt wird. Der CCD Sensor kann ein monochromer Sensor oder ein Farbsensor sein. Das optische System kann den Bereich der Oberfläche des Werkstücks auf dem Bildsensor abbilden. Das optische System kann insbesondere ein zumindest objektseitig telezentrisches Objektiv aufweisen.A workpiece is understood to mean an object, in particular a measurement object, that is being measured. The workpiece has a surface. Images of an area of the surface can be captured using an optical sensor on a measuring device. The measuring device can in particular be a coordinate measuring machine or a microscope. The optical sensor can, for example, have an image sensor and an optical system. The image sensor can be, for example, a charge-coupled semiconductor element sensor, which is also called a CCD (charge-couple device) sensor. The CCD sensor can be a monochrome sensor or a color sensor. The optical system can image the area of the workpiece surface on the image sensor. The optical system can in particular have a lens that is telecentric at least on the object side.

Ein mit dem optischen Sensor erfasstes Bild hat eine Mehrzahl von Bildpunkten. Jeder Bildpunkt bildet einen Objektpunkt des Bereichs der Oberfläche des Werkstücks ab. Die Anzahl der Bildpunkte entspricht somit der Anzahl der abgebildeten Objektpunkte. Derzeitige optische Sensoren können Auflösungen von mehreren Megapixeln haben. Die Anzahl der Bildpunkte eines erfassten Bildes und entsprechend auch die Anzahl der abgebildeten Objektpunkte entsprechen der Anzahl der Pixel des optischen Sensors. Die erfassten Bilder können somit mehrere Millionen an Bildpunkten aufweisen.An image captured with the optical sensor has a plurality of pixels. Each pixel represents an object point of the area of the surface of the workpiece. The number of image points therefore corresponds to the number of object points imaged. Current optical sensors can have resolutions of several megapixels. The number of pixels of a captured image and correspondingly the number of object points imaged correspond to the number of pixels of the optical sensor. The captured images can therefore have several million pixels.

Während des Erfassens der Bilder wird die Fokalebenenposition des optischen Sensors in einer Tiefenrichtung relativ zu dem Werkstück verändert, um jedes Bild mit einer unterschiedlichen, definierten Fokalebenenposition zu erfassen.While capturing the images, the focal plane position of the optical sensor is changed in a depth direction relative to the workpiece to capture each image with a different, defined focal plane position.

Vorzugsweise sind der optische Sensor und das Werkstück in der Tiefenrichtung relativ zueinander bewegbar, so dass ein Abstand in der Tiefenrichtung zwischen dem Werkstück und dem optischen Sensor veränderbar ist. Beispielsweise kann das Messgerät eine Antriebseinrichtung aufweisen, die dazu ausgebildet ist, den optischen Sensor und das Werkstück in der Tiefenrichtung relativ zueinander zu bewegen. Während des Erfassens der Bilder kann dann der Abstand des optischen Sensors zu dem Werkstück in der Tiefenrichtung verändert werden, um die Fokalebenenposition für jedes Bild zu verändern. Die Tiefenrichtung kann eine Z-Richtung eines kartesischen Koordinatensystems sein, wobei die erfassten Bilder eine Abbildung des Bereichs der Oberfläche des Werkstücks in der X- und Y-Richtung sind. Mit anderen Worten ist die Abbildung der Bilder senkrecht zu der Tiefenrichtung. Die Bilder werden dabei in unterschiedlichen, definierten Abständen zu dem Werkstück aufgenommen. „Definiert“ bedeutet in diesem Zusammenhang, dass die Abstände, in denen die Bilder erfasst werden, im Voraus festgelegt und somit bekannt sind. Beispielsweise können die Bilder in 50µm Schritten aufgenommen werden.Preferably, the optical sensor and the workpiece are movable relative to one another in the depth direction, so that a distance in the depth direction between the workpiece and the optical sensor can be changed. For example, the measuring device can have a drive device which is designed to move the optical sensor and the workpiece relative to one another in the depth direction. While capturing the images, the distance of the optical sensor to the workpiece in the depth direction can then be changed to change the focal plane position for each image. The depth direction may be a Z direction of a Cartesian coordinate system, where the captured images are a map of the area of the surface of the workpiece in the X and Y directions. In other words, the mapping of the images is perpendicular to the depth direction. The pictures will recorded at different, defined distances from the workpiece. “Defined” in this context means that the distances at which the images are captured are determined in advance and therefore known. For example, the images can be recorded in 50µm steps.

Da die Bilder aus unterschiedlichen Abständen zu dem Werkstück aufgenommen werden, variiert die Fokalebene bzw. die Ebene größter Schärfe des optischen Sensors zwischen den Bildern. Die optische Einstellung des optischen Sensors, insbesondere der Fokusabstand des Objektivs, kann dabei konstant bleiben. Jedes Bild ist mit einer anderen Fokalebene erfasst. Die Bilder bilden somit gemeinsam einen Fokalbildstapel. Jedem Bild des Fokalbildstapels ist ein definierter Abstand zugeordnet. Der Abstand eines Bildes entspricht einem Tiefenwert in der Tiefenrichtung, insbesondere einer Z-Position in der Z-Richtung. Mit anderen Worten bilden die erfassten Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in einer Tiefenrichtung ab, wobei jedem Bild des Fokalbildstapels ein Abstand zugeordnet ist.Since the images are taken from different distances from the workpiece, the focal plane or the plane of greatest sharpness of the optical sensor varies between the images. The optical setting of the optical sensor, in particular the focus distance of the lens, can remain constant. Each image is captured with a different focal plane. The images thus together form a focal image stack. A defined distance is assigned to each image in the focal image stack. The distance of an image corresponds to a depth value in the depth direction, particularly a Z position in the Z direction. In other words, the captured images each image the area of the surface of the workpiece from different, defined distances from the workpiece in a depth direction, with a distance being assigned to each image of the focal image stack.

Alternativ kann während des Erfassens der Bilder die Änderung der Fokalebenenposition durch ein Nachfokussieren der Optik bzw. ein Verändern des Fokusabstands des Objektivs des optischen Sensors erreicht werden. Das heißt man ordnet jeder Fokuseinstellung am Objektiv einen entsprechenden Abstand des optischen Sensors zu der eingestellten Fokalebene in der Tiefenrichtung zu. Auf diese Weise kann die Fokalebene bzw. die Ebene größter Schärfe des optischen Sensors auf optischem Weg zwischen den Bildern variiert werden, um den Fokalbildstapel zu bilden. Der Abstand zwischen dem Werkstück und dem optischen Sensor kann dann konstant bleiben.Alternatively, the focal plane position can be changed during the capture of the images by refocusing the optics or changing the focus distance of the lens of the optical sensor. This means that each focus setting on the lens is assigned a corresponding distance between the optical sensor and the set focal plane in the depth direction. In this way, the focal plane or the plane of greatest sharpness of the optical sensor can be varied optically between the images in order to form the focal image stack. The distance between the workpiece and the optical sensor can then remain constant.

Jedes Bild weist die gleiche Anzahl an Bildpunkten auf. Jeder Bildpunkt eines Bildes bildet einen entsprechenden Objektpunkt des Werkstücks aus dem Bereich der Oberfläche des Werkstücks ab. Jeder Bildpunkt eines Bildes ist somit einem entsprechenden Objektpunkt auf der Oberfläche des Werkstücks zugeordnet. Ein Objektpunkt kann auch als Messpunkt bezeichnet werden. Jeder Objektpunkt auf der Oberfläche des Werkstücks weist eine Position in dem kartesischen Koordinatensystem auf, insbesondere eine X-Position in der X-Richtung, eine Y-Position in der Y-Richtung und eine Z-Position in der Z-Richtung. Die Z-Position in der Z-Richtung kann auch als Tiefenwert in der Tiefenrichtung bezeichnet werden. Da die erfassten Bilder jeweils denselben Bereich der Oberfläche des Werkstücks abbilden, sind die Bildpunkte der Bilder denselben Objektpunkten zugeordnet. Insbesondere sind die Bildpunkte der Bilder mit denselben X- und Y-Koordinaten demselben Objektpunkt zugeordnet. Dies bedeutet, dass jedem Objektpunkt aus jedem Bild jeweils ein Bildpunkt zugeordnet ist.Each image has the same number of pixels. Each pixel of an image represents a corresponding object point of the workpiece from the area of the surface of the workpiece. Each pixel of an image is therefore assigned to a corresponding object point on the surface of the workpiece. An object point can also be referred to as a measurement point. Each object point on the surface of the workpiece has a position in the Cartesian coordinate system, in particular an X position in the X direction, a Y position in the Y direction and a Z position in the Z direction. The Z position in the Z direction can also be called the depth value in the depth direction. Since the captured images each depict the same area of the surface of the workpiece, the image points of the images are assigned to the same object points. In particular, the pixels of the images with the same X and Y coordinates are assigned to the same object point. This means that one image point is assigned to each object point from each image.

Auf Basis des aufgenommenen Fokalbildstapels wird dann ein Bild mit erweiterter Schärfentiefe in der Tiefenrichtung erzeugt. Dazu werden die fokussierten Bereiche der einzelnen Bilder des Fokalbildstapels zu einem scharfen Gesamtbild zusammengesetzt. Wie zuvor bereits erläutert, ist ein Objektpunkt scharf abgebildet, wenn er beim Aufnehmen des Bildes in der Fokalebene liegt. Mit anderen Worten ist jeder Objektpunkt in einer bestimmten Fokalebenenposition am schärfsten abgebildet. Die Fokalebenenposition, in der ein Objektpunkt am schärfsten abgebildet ist, lässt sich anhand der Bilder des aufgenommen Fokalbildstapels ermitteln. Das Bild mit erweiterter Schärfentiefe kann sich dann beispielweise aus den Bildpunkten der Bilder des Fokalbildstapels zusammensetzten, die die Objektpunkte am schärfsten abbilden. Das Bild mit erweiterter Schärfentiefe kann auch Messaufnahme genannt werden. Die beschriebene Vorgehenswiese zum Erzeugen eines Bildes mit erweiterter Schärfentiefe führt somit zu einer Messaufnahme in der besten Einstellebene.Based on the recorded focal image stack, an image with an extended depth of field is then generated in the depth direction. For this purpose, the focused areas of the individual images of the focal image stack are combined to form a sharp overall image. As explained previously, an object point is in focus if it lies in the focal plane when the image is taken. In other words, every object point is imaged sharpest in a certain focal plane position. The focal plane position in which an object point is imaged most sharply can be determined using the images from the recorded focal image stack. The image with an extended depth of field can then be composed, for example, of the image points of the images of the focal image stack that depict the object points most sharply. The image with extended depth of field can also be called a measurement image. The described procedure for generating an image with an extended depth of field thus leads to a measurement recording in the best adjustment plane.

Die Antriebseinrichtung des Messgeräts kann den Abstand zwischen dem Werkstück und dem optischen Sensor einstellen. Dazu kann die Antriebseinrichtung den Werkstückhalter und/oder den optischen Sensor in der Tiefenrichtung bewegen. Die Antriebseinrichtung kann beispielsweise einen Piezo-elektrischen Antrieb, einen Direktantrieb oder einen Spindelantrieb aufweisen. Ein Spindelantrieb ist besonders geeignet, da dieser eine hohe Auflösung hat, große Lasten bewegen kann und einen großen Erfassungsbereich in der Tiefenrichtung aufweist.The drive device of the measuring device can adjust the distance between the workpiece and the optical sensor. For this purpose, the drive device can move the workpiece holder and/or the optical sensor in the depth direction. The drive device can have, for example, a piezo-electric drive, a direct drive or a spindle drive. A spindle drive is particularly suitable because it has high resolution, can move large loads and has a large detection range in the depth direction.

Die Antriebseinrichtung und der optische Sensor können mittels der Steuereinrichtung des Messgeräts gesteuert werden. Dazu kann die Steuereinrichtung beispielsweise eine Regelungseinheit aufweisen, die Steuerbefehle an den optischen Sensor und die Antriebseinrichtung schicken kann. Die Berechnungsschritte zum Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe können ebenfalls mittels der Steuereinrichtung des Messgeräts durchgeführt werden. Dazu kann die Steuereinrichtung beispielsweise eine Datenverarbeitungseinheit aufweisen, die die Schritte zum Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe durchführt.The drive device and the optical sensor can be controlled using the control device of the measuring device. For this purpose, the control device can, for example, have a control unit that can send control commands to the optical sensor and the drive device. The calculation steps for generating the corrected image with extended depth of field can also be carried out using the control device of the measuring device. For this purpose, the control device can, for example, have a data processing unit that carries out the steps for generating the corrected image with an extended depth of field.

Die im Stand der Technik bekannte „Slanted-Edge-Method“ besitzt einen zentralen Nachteil. Sie beruht auf der Annahme, dass innerhalb des untersuchten Bildbereichs (Rol) eine gerade Kante verläuft, und die Kanteninformation orthogonal gegenüber der Kantennormalen projiziert werden kann. Mit anderen Worten approximiert die Slanted-Edge-Methode eine beliebige geformte Kantengeometrie im Sinne einer ersten Taylornäherung durch eine lineare Funktion, d.h. mit einer Geraden. Jedoch werden häufig innerhalb messtechnischer Untersuchungen keine geraden, sondern runde bzw. beliebig gekrümmte Kantenprofile vermessen und die entsprechenden Annahmen der „Slanted-Edge-Method“ sind verletzt.The “slanted edge method” known in the prior art has a central disadvantage. It is based on the assumption that there is a straight edge within the examined image area (Rol) and the edge information is orthogonal can be projected over the edge normal. In other words, the slanted edge method approximates any shaped edge geometry in the sense of a first Taylor approximation by a linear function, ie with a straight line. However, during metrological investigations, edge profiles are often not measured, but rather round or arbitrarily curved, and the corresponding assumptions of the “slanted edge method” are violated.

Die vorliegende Erfindung stellt ein Verfahren bereit, welches die Limitierungen der Slanted-Edge-Methode gezielt adressieren und umgehen kann. Hierfür wird der Kantenverlauf anstelle einer Geraden mit einem beliebig gekrümmten Verlauf (beispielsweise einem Kreisbogen) approximiert. Mit anderen Worten erlaubt das vorgeschlagene Verfahren, im Gegensatz zur Slanted-Edge-Methodik, die Approximation des lokalen Kantenprofils innerhalb des Bildbereichs (Rol) mit Hilfe einer verbesserten Taylornäherung in zweiter oder höherer Ordnung anstelle einer ungenaueren Taylornäherung erster Ordnung.The present invention provides a method that can specifically address and circumvent the limitations of the slanted edge method. For this purpose, the edge profile is approximated with an arbitrarily curved profile (for example a circular arc) instead of a straight line. In other words, in contrast to the slanted edge methodology, the proposed method allows the approximation of the local edge profile within the image region (Rol) using an improved second or higher order Taylor approximation instead of a less accurate first order Taylor approximation.

Dies ermöglicht die allgemeinen Vorteile der Slanted-Edge-Methodik zur Kantenlokalisierung in seiner Anwendbarkeit gezielt auf für die Messtechnik häufig relevanten runden bzw. beliebig gekrümmten Kanten zu erweitern. Auf diese Weise kann die Kantenposition von Kanten, insbesondere solcher mit gekrümmten Kantenverlauf, in einem Bild mit erweiterter Schärfentiefe besser, insbesondere genauer, bestimmt werden.This makes it possible to extend the general advantages of the slanted edge methodology for edge localization in its applicability specifically to round or arbitrarily curved edges that are often relevant for measurement technology. In this way, the edge position of edges, in particular those with curved edges, can be determined better, in particular more precisely, in an image with an extended depth of field.

Die eingangs gestellte technische Aufgabe wird somit vollumfänglich gelöst.The technical task posed at the beginning is thus completely solved.

In einer ersten Ausgestaltung des ersten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Filtern der Bildgradientenkarte, wobei die Bildgradienten verworfen werden, die unterhalb eines definierten Schwellwerts liegen.
In a first embodiment of the first aspect, the method further comprises the following step:
  • - Filtering the image gradient map, whereby the image gradients that are below a defined threshold are discarded.

Insbesondere werden die Bildgradienten verworfen, deren Gradientenwerte G unterhalb eines definierten Schwellwerts liegen. Wie bereits erläutert, ändert sich die Intensität der Bildpunkte im Kantenbereich stärker als auf ebenen Bereichen bzw. Flächen. Im Schritt des Filterns werden daher alle kleinen Bildgradienten verworfen. Auf diese Weise können Bildgradienten von Bildpunkten verworfen werden, die nicht im Kantenbereich liegen. Dadurch wird die Bildgradientenkarte auf die Bildgradienten derjenigen Bildpunkte reduziert, die im Kantenbereich liegen, sprich nahe an oder auf der Kante.In particular, the image gradients whose gradient values G are below a defined threshold value are rejected. As already explained, the intensity of the image points changes more in the edge area than on flat areas or surfaces. In the filtering step, all small image gradients are therefore discarded. In this way, image gradients of pixels that are not in the edge area can be rejected. This reduces the image gradient map to the image gradients of those pixels that are in the edge area, i.e. close to or on the edge.

In einer weiteren Ausgestaltung des ersten Aspekts ist der mindestens eine Kantenparameter ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird.In a further embodiment of the first aspect, the at least one edge parameter is one or more parameters of an edge profile model for describing the edge profile, wherein the at least one edge parameter is determined based on the edge profile model and the image gradient map.

Das Kantenverlaufsmodell dient zur Beschreibung bzw. Approximation des tatsächlichen Kanterverlaufs der Kante. Mit anderen Worten ist der gekrümmte Kantenverlauf mittels des Kantenverlaufsmodells modelliert. Der modellierte, gekrümmte Kantenverlauf wird somit mittels des Kantenverlaufsmodells beschrieben, wobei der mindestens eine Kantenparameter ein oder mehrere Parameter des Kantenverlaufsmodells sind und zur Beschreibung des Kantenverlaufs anhand des zugrundeliegenden Kantenverlaufsmodells dienen. Das Kantenverlaufsmodell beschreibt bzw. modelliert somit den gekrümmten Kantenverlauf. Anhand des Kantenverlaufsmodells und der Bildgradientenkarte kann dann der mindestens eine Kantenparameter bestimmt werden. Insbesondere sind aus der Bildgradientenkarte die Bildgradienten [Gx,Gy] an Bildpunktpositionen [x,y] bekannt. Auf Basis dieser bekannten Größen und des Kantenverlaufsmodells kann dann der mindestens eine Kantenparameter bestimmt werden.The edge profile model is used to describe or approximate the actual edge profile of the edge. In other words, the curved edge profile is modeled using the edge profile model. The modeled, curved edge profile is thus described using the edge profile model, wherein the at least one edge parameter is one or more parameters of the edge profile model and is used to describe the edge profile based on the underlying edge profile model. The edge profile model therefore describes or models the curved edge profile. The at least one edge parameter can then be determined based on the edge gradient model and the image gradient map. In particular, the image gradients [G x ,G y ] at pixel positions [x,y] are known from the image gradient map. The at least one edge parameter can then be determined based on these known variables and the edge profile model.

In einer weiteren Ausgestaltung des ersten Aspekts wird der mindestens eine Kantenparameter durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird.In a further embodiment of the first aspect, the at least one edge parameter is determined by compensation calculation based on the edge profile model and the image gradient map, in particular wherein the least squares method is used for the compensation calculation.

Durch Einsetzen der bekannten Größen aus der Bildgradientenkarte, sprich der Bildgradienten [Gx,Gy] an Bildpunktpositionen [x,y], in das Kantenverlaufsmodell erhält man ein überbestimmtes Gleichungssystem. Dieses Gleichungssystem kann dann mittels Ausgleichsrechnung gelöst werden. Zur Ausgleichsrechnung kann insbesondere die Methode der kleinsten Quadrate verwendet werden.By inserting the known variables from the image gradient map, i.e. the image gradients [G x ,G y ] at pixel positions [x,y], into the edge gradient model, an overdetermined system of equations is obtained. This system of equations can then be solved using balancing calculations. In particular, the least squares method can be used for the compensation calculation.

In einer weiteren Ausgestaltung des ersten Aspekts wird der Kantenparameter durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird.In a further embodiment of the first aspect, the edge parameter is determined by optimization based on the edge profile model and the image gradient map, in particular wherein for optimization the edge profile model is minimized with regard to the local edge roughness.

Die Kantenrauheit ist eine Kantenrauheit des Kantenprofils. Die Kantenrauheit beschreibt die lokale Abweichung der Intensitätswerte in einem Kantenprofil. Wie eingangs bereits erläutert, wird das Kantenprofil unter Verwendung des zumindest einen Kantenparameters erzeugt. Mit anderen Worten wird das Kantenprofil unter Verwendung von einem oder mehreren Kantenparametern erzeugt. Damit hängt die Kantenrauheit letztendlich von dem bestimmten Wert jedes der ein oder mehreren Kantenparametern ab. Umso mehr jeder Kantenparameter von seinem tatsächlichen Wert abweicht, umso größer ist die Rauigkeit des erzeugten Kantenprofils. Die Kantenrauheit kann beispielsweise durch einen Vergleich zwischen einem tiefpassgefilterten Kantenprofil und einem ungefilterten Kantenprofil bestimmt werden. Mittels eines Optimierungsalgorithmus kann dann der mindestens eine Kantenparameter durch Minimierung der Kantenrauheit bestimmt werden. Mit anderen Worten wird der zu bestimmende Kantenparameter derart optimiert, dass die Kantenrauheit des Kantenprofils minimal wird.The edge roughness is an edge roughness of the edge profile. Edge roughness describes the local deviation of the intensity values in an edge profile. As already explained at the beginning, the edge profile is generated using the at least one edge parameter. In other words, the edge profile is generated using one or more edge parameters. The edge roughness ultimately depends on that specific value of each of the one or more edge parameters. The more each edge parameter deviates from its actual value, the greater the roughness of the edge profile generated. The edge roughness can be determined, for example, by comparing a low-pass filtered edge profile and an unfiltered edge profile. Using an optimization algorithm, the at least one edge parameter can then be determined by minimizing the edge roughness. In other words, the edge parameter to be determined is optimized in such a way that the edge roughness of the edge profile becomes minimal.

Beispielsweise kann hierzu zunächst ein initialer Wert für jeden Kantenparameter des Kantenverlaufsmodells gesetzt werden. Der initiale Wert jedes Kantenparameters kann grundsätzlich ein beliebiger Wert sein. Vorzugsweise ist der initiale Wert ein erster, grober Schätzwert für den jeweiligen Kantenparameter. Für den initialen Wert jedes Kantenparameters kann dann die Kantenrauheit des entsprechenden Kantenprofils bestimmt werden. Durch Optimierung des Werts jedes Kantenparameters kann dann der zumindest eine Kantenparameter mit minimaler Kantenrauheit des Kantenprofils bestimmt werden. For example, an initial value can first be set for each edge parameter of the edge profile model. The initial value of each edge parameter can basically be any value. Preferably, the initial value is a first, rough estimate for the respective edge parameter. The edge roughness of the corresponding edge profile can then be determined for the initial value of each edge parameter. By optimizing the value of each edge parameter, the at least one edge parameter with minimal edge roughness of the edge profile can then be determined.

Dazu könnte beispielsweise die Methode der simulierten Abkühlung („Simulated Annealing“) verwendet werden. Insbesondere kann der initiale Wert jedes Kantenparameters, wie zuvor bereits erläutert, durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden.For example, the method of simulated annealing could be used. In particular, the initial value of each edge parameter can, as already explained above, be determined by compensation calculation based on the edge gradient model and the image gradient map.

In einer weiteren Ausgestaltung des ersten Aspekts wird als Kantenverlaufsmodell eine Polynomfunktion verwendet, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades istIn a further embodiment of the first aspect, a polynomial function is used as the edge profile model, in particular where the polynomial function is a polynomial of at least second degree

Mit anderen Worten ist die Polynomfunktion ein Polynom zweiten oder höheren Grades. Eine Polynomfunktion kann auch polynomiale Funktion genannt werden. Die Polynomfunktion kann beispielsweise durch eine Taylorreihe beschrieben werden. Grundsätzlich kann mit einem Polynom ersten Grades (beispielsweise einer Taylornäherung ersten Grades) nur ein linearer Kantenverlauf modelliert werden. Ein Polynom mindestens zweiten Grades erlaubt auch die Beschreibung, sprich Modellierung, von gekrümmten Kanten. Auf diese Weise kann die Lage einer gekrümmten Kante sehr genau bestimmt werden.In other words, the polynomial function is a polynomial of second degree or higher. A polynomial function can also be called a polynomial function. The polynomial function can be described, for example, by a Taylor series. In principle, only a linear edge profile can be modeled with a first degree polynomial (e.g. a first degree Taylor approximation). A polynomial of at least second degree also allows the description, i.e. modeling, of curved edges. In this way, the position of a curved edge can be determined very precisely.

In einer weiteren Ausgestaltung des ersten Aspekts weist der gekrümmte Kantenverlauf eine konstante Krümmung auf, wobei der mindestens eine Kantenparameter das Krümmungszentrum des Kantenverlaufs mit konstanter Krümmung definiert, insbesondere wobei die Projektion eine Projektion der Bildpunkte auf eine radiale Richtung bezüglich des Krümmungszentrums ist.In a further embodiment of the first aspect, the curved edge profile has a constant curvature, wherein the at least one edge parameter defines the center of curvature of the edge profile with constant curvature, in particular wherein the projection is a projection of the image points onto a radial direction with respect to the center of curvature.

Konstante Krümmung bedeutet, dass die die Krümmung kreisförmige ist. Eine Kurve die konstante Krümmung aufweist, hat ein Krümmungszentrum. Das Krümmungszentrum kann auch Krümmungsmittelpunkt genannt werden. Insbesondere hat jeder Punkt einer derartigen Kurve zu dem Krümmungszentrum den gleichen Abstand. Mit anderen Worten ist die Kurve um das Krümmungszentrum gekrümmt. Ein gekrümmter Kantenlauf mit konstanter Krümmung ist somit ebenfalls um ein Krümmungszentrum gekrümmt. Insbesondere weist der mindestens eine Kantenparameter die Koordinaten [x0,y0] des Krümmungszentrums auf. Das Kantenverlaufsmodells für konstante Krümmung mittels zweier Gleichungen beschrieben werden: x = x 0 + 1 ρ G x G x 2 + G y 2

Figure DE102022118586A1_0005
y = y 0 + 1 ρ G y G x 2 + G y 2
Figure DE102022118586A1_0006
Constant curvature means that the curvature is circular. A curve that has constant curvature has a center of curvature. The center of curvature can also be called the center of curvature. In particular, each point of such a curve has the same distance from the center of curvature. In other words, the curve is curved around the center of curvature. A curved edge run with constant curvature is therefore also curved around a center of curvature. In particular, the at least one edge parameter has the coordinates [x 0 ,y 0 ] of the center of curvature. The edge gradient model for constant curvature can be described using two equations: x = x 0 + 1 ρ G x G x 2 + G y 2
Figure DE102022118586A1_0005
y = y 0 + 1 ρ G y G x 2 + G y 2
Figure DE102022118586A1_0006

Dabei sind x,y,Gx,Gy bekannte Größen aus der Bildgradientenkarte und x0,y0,ρ zu bestimmende unbekannte Größen.Here x,y,G x, G y are known quantities from the image gradient map and x 0 ,y 0 ,ρ are unknown quantities to be determined.

Das Kantenverlaufsmodell kann zu folgender Gleichung vereinfacht werden: ( x x 0 ) G y = ( y y 0 ) G x

Figure DE102022118586A1_0007
The edge progression model can be simplified to the following equation: ( x x 0 ) G y = ( y y 0 ) G x
Figure DE102022118586A1_0007

Auf Basis dieses Kantenverlaufsmodells und der bekannten Größen aus der Bildgradientenkarte können dann die Koordinaten [x0,y0] des Krümmungszentrums bestimmt werden. Insbesondere können die Werte x, y, Gx,Gy jedes Bildpunkts aus der Bildgradientenkarte in das Modell eingesetzt werden. Dadurch erhält man ein überbestimmtes Gleichungssystem. Das überbestimmte Gleichungssystem kann dann, wie zuvor beschrieben, durch Ausgleichsrechnung, insbesondere mittels der Methode der kleinsten Quadrate, gelöst werden, um die Koordinaten [x0,y0] des Krümmungszentrums zu bestimmen.Based on this edge profile model and the known sizes from the image gradient map, the coordinates [x 0 ,y 0 ] of the center of curvature can then be determined. In particular, the values x, y, G x ,G y of each pixel from the image gradient map can be inserted into the model. This results in an overdetermined system of equations. The overdetermined system of equations can then be solved, as described above, by balancing calculation, in particular using the least squares method, in order to determine the coordinates [x 0 ,y 0 ] of the center of curvature.

Bezüglich des Krümmungszentrums sind eine radiale Richtung und eine dazu senkrecht verlaufende tangentiale Richtung definiert. Die tangentiale Richtung kann auch als Umlaufrichtung um das Krümmungszentrum bezeichnet werden. Bezüglich des Kantenverlaufs mit konstanter Krümmung entspricht die radiale Richtung demnach der Normalen-Richtung und die tangentiale Richtung der Kantenverlaufsrichtung. Mit anderen Worten verläuft der Kanterverlauf entlang der tangentialen Richtung bezüglich des Krümmungszentrums. Die Projektion ist somit eine Projektion entlang der tangentialen Richtung bezüglich des Krümmungszentrums auf bzw. in die radiale Richtung bezüglich des Krümmungszentrums. Mit anderen Worten wird zur Projektion daher jedem Bildpunkt im Bildbereich ein radialer Abstand r = ( x x 0 ) 2 + ( y y 0 ) 2

Figure DE102022118586A1_0008
zum Krümmungszentrum zugeordnet. Das Kantenprofil wird dann basierend auf dieser Projektion bestimmt. Das Kantenprofil gibt somit die Intensitätsverteilung I(r) der Bildpunkte in der radialen Richtung bezüglich des Krümmungszentrums an.With respect to the center of curvature, a radial direction and a tangential direction perpendicular thereto are defined. The tangential direction can also be referred to as the direction of rotation around the center of curvature. With regard to the edge course with constant curvature, the radial direction corresponds to the normal direction and the tangential direction corresponds to the edge course direction. In other words, it runs Cant along the tangential direction with respect to the center of curvature. The projection is thus a projection along the tangential direction with respect to the center of curvature onto or in the radial direction with respect to the center of curvature. In other words, each pixel in the image area is given a radial distance for projection r = ( x x 0 ) 2 + ( y y 0 ) 2
Figure DE102022118586A1_0008
assigned to the center of curvature. The edge profile is then determined based on this projection. The edge profile thus indicates the intensity distribution I(r) of the image points in the radial direction with respect to the center of curvature.

Alternativ können die Koordinaten [x0,y0] des Krümmungszentrums auch, wie zuvor beschrieben, durch Optimierung insbesondere durch Minimierung hinsichtlich der lokalen Kantenrauheit, bestimmt werden. Ist die Lage des Krümmungszentrums gegenüber der tatsächlichen Lage, insbesondere gegenüber seinem Nominalwert, verschoben, weist das extrahierte Kantenprofil eine höhere Kantenrauigkeit auf. Durch Optimierung können dann Koordinaten für das Krümmungszentrum bestimmt werden, für die die Kantenrauigkeit des entsprechenden Kantenprofils minimal ist.Alternatively, the coordinates [x 0 ,y 0 ] of the center of curvature can also be determined, as described above, by optimization, in particular by minimizing the local edge roughness. If the position of the center of curvature is shifted compared to the actual position, in particular compared to its nominal value, the extracted edge profile has a higher edge roughness. Through optimization, coordinates for the center of curvature can then be determined for which the edge roughness of the corresponding edge profile is minimal.

Auf diese Weise kann die Lage einer gekrümmten Kante genau und einfach bestimmt werden.In this way, the position of a curved edge can be determined precisely and easily.

In einer weiteren Ausgestaltung des ersten Aspekts wird in dem Schritt des Bestimmens der Kantenposition die Kantenposition auf Basis eines Wendepunkts des Kantenprofils bestimmt.In a further embodiment of the first aspect, in the step of determining the edge position, the edge position is determined based on a turning point of the edge profile.

Insbesondere kann als Kantenposition die Position bestimmt werden, an der das Kantenprofil die größte Änderung bzw. Steigung aufweist. Mit anderen Worten können insbesondere ableitungsbasierte Verfahren verwendet werden, welche Punkte maximaler Steigung bzw. Wendepunkte des Kantenprofils analysieren (bspw. Canny-Edge-Verfahren). Wie zuvor erläutert, gibt es an einem Kantenübergang eine Intensitätsänderung. Insbesondere ändert sich die Intensität der Bildpunkte im Kantenbereich stärker als auf den angrenzenden Flächen. Die Kantenposition der Kante in der Normalen-Richtung entspricht dann der Position in der Normalen-Richtung, an der das Kantenprofil die größte Steigung bzw. Änderung in der Intensität hat. Diese Position kann auch als Wendepunkt des Kantenprofils bezeichnet werden. Der Wendepunkt ist somit ein globales Extremum, insbesondere Maximum, der ersten Ableitung des Kantenprofils. Insbesondere kann zur Bestimmung des Wendepunkts zunächst eine Funktion an das bestimmte Kantenprofil gefittet bzw. eingepasst werden. Dann kann der Wendepunkt dieser Funktion bestimmt werden. Die Position des Wendepunkts wird dann als Kantenposition der Kante bestimmt.In particular, the position at which the edge profile has the greatest change or gradient can be determined as the edge position. In other words, derivation-based methods can be used in particular, which analyze points of maximum slope or turning points of the edge profile (e.g. Canny Edge method). As explained previously, there is a change in intensity at an edge transition. In particular, the intensity of the image points changes more in the edge area than on the adjacent areas. The edge position of the edge in the normal direction then corresponds to the position in the normal direction at which the edge profile has the greatest slope or change in intensity. This position can also be referred to as the turning point of the edge profile. The turning point is therefore a global extremum, in particular a maximum, of the first derivative of the edge profile. In particular, to determine the turning point, a function can first be fitted or adjusted to the specific edge profile. Then the inflection point of this function can be determined. The position of the turning point is then determined as the edge position of the edge.

In einer weiteren Ausgestaltung des ersten Aspekts wird in dem Schritt des Bestimmens der Kantenposition die Kantenposition auf Basis eines Erreichens eines definierten Schwellwertes des Kantenprofils bestimmt.In a further embodiment of the first aspect, in the step of determining the edge position, the edge position is determined based on reaching a defined threshold value of the edge profile.

Mit anderen Worten können beispielsweise Schwellwertverfahren verwendet werden, um die Kantenposition zu bestimmen. Hierbei, wird als Kantenposition ein Schwellwert definiert an dem der Kantenkontrast diesen Schwellwert erreicht. Ein zumeist verwendeter Schwellwert entspricht einem Kantenkontrast von 50%. Mit anderen Worten entspricht die Kantenposition in diesem Fall der Position an dem der Intensitäts- bzw. Grauwert dem Mittelwert aus maximalem & minimalem Intensitäts- bzw. Grauwert der Kantenübertragungsfunktion entspricht. Insbesondere kann zur Bestimmung der Kantenposition zunächst eine Funktion an das bestimmte Kantenprofil gefittet bzw. eingepasst werden. Dann kann das Argument dieser Funktion bestimmt werden, an dem die Funktion den definierten Kantenkontrast bzw. Schwellwert erreicht. Das bestimmte Argument entspricht dann der Kantenposition.In other words, threshold methods can be used, for example, to determine the edge position. Here, a threshold value is defined as the edge position at which the edge contrast reaches this threshold value. A commonly used threshold value corresponds to an edge contrast of 50%. In other words, the edge position in this case corresponds to the position at which the intensity or gray value corresponds to the mean of the maximum & minimum intensity or gray value of the edge transfer function. In particular, to determine the edge position, a function can first be fitted or adjusted to the specific edge profile. Then the argument of this function can be determined at which the function reaches the defined edge contrast or threshold. The specific argument then corresponds to the edge position.

In einer weiteren Ausgestaltung des ersten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Empfangen des Bildes mit erweiterter Schärfentiefe.
In a further embodiment of the first aspect, the method further comprises the following step:
  • - Receive the image with extended depth of field.

Das Bild mit erweiterter Schärfentiefe kann beispielsweise mittels eines Messgeräts oder einer anderen geeigneten Vorrichtung aufgenommen werden. Dann wird das Bild mit erweiterter Schärfentiefe empfangen, so dass auf Basis des empfangenen Bildes die Kantenlokalisierung durchgeführt werden kann.The image with extended depth of field can be recorded, for example, using a measuring device or other suitable device. The image is then received with an extended depth of field so that edge localization can be carried out based on the received image.

In einer weiteren Ausgestaltung des ersten Aspekts bildet das Bild mit erweiterter Schärfentiefe einen Bereich einer Oberfläche eines Werkstücks ab, wobei das Verfahren des Weiteren die folgenden Schritte aufweist:

  • - Empfangen eines Fokalbildstapels, wobei der Fokalbildstapel eine Mehrzahl von Bildern des Werkstücks aufweist, wobei die Bilder den Bereich der Oberfläche des Werkstücks mit in einer Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenenposition zugeordnet ist; und
  • - Erzeugen des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel.
In a further embodiment of the first aspect, the image with an extended depth of field images a region of a surface of a workpiece, the method further comprising the following steps:
  • - Receiving a focal image stack, the focal image stack having a plurality of images of the workpiece, the images imaging the area of the surface of the workpiece with defined focal plane positions that are different in a depth direction, a focal plane position being assigned to each image of the focal image stack; and
  • - Generate the image with extended depth of field in the depth direction based on the focal image stack.

Anstatt das Bild mit erweiterter Schärfentiefe schon erzeugt zu empfangen, kann das Bild mit erweiterter Schärfentiefe auch in dem Verfahren direkt erzeugt werden. Wie zuvor bereits erläutert, kann auf Basis des Fokalbildstapels das Bild mit erweiterter Schärfentiefe erzeugt werden, das einen Bereich einer Oberfläche des Werkstücks abbildet. In diesem erzeugten Bild kann dann eine Kantenposition einer Kante in einem Bildbereich des Bildes lokalisiert werden.Instead of receiving the image with an extended depth of field already generated, the image with an extended depth of field can also be generated directly in the process. As already explained previously, the image with an extended depth of field can be generated based on the focal image stack, which images an area of a surface of the workpiece. In this generated image, an edge position of an edge in an image area of the image can then be localized.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts sind die Bildpunkte der Bilder des Fokalbildstapels jeweils einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks zugeordnet, wobei das Verfahren des Weiteren die folgenden Schritte aufweist:

  • - Bestimmen eines Schärfewerts jedes Bildpunkts jedes Bildes des Fokalbildstapels;
  • - Bestimmen eines Tiefenwerts jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf den bestimmten Schärfewerten,
wobei in dem Schritt des Erzeugens das Bild mit erweiterter Schärfentiefe basierend auf den ermittelten Tiefenwerten und dem Fokalbildstapel erzeugt wird.In a further embodiment of the first or second aspect, the pixels of the images of the focal image stack are each assigned to a corresponding object point on the surface of the workpiece, the method further comprising the following steps:
  • - determining a sharpness value of each pixel of each image of the focal image stack;
  • - determining a depth value of each object point on the surface of the workpiece in the depth direction based on the determined sharpness values,
wherein in the generating step, the image with extended depth of field is generated based on the determined depth values and the focal image stack.

Für jeden Bildpunkt wird ein Schärfewert bestimmt. Der Schärfewert kann auch Fokuswert genannt werden. Der Schärfewert gibt ein Maß an, wie scharf der jeweilige Bildpunkt dargestellt ist. Zur Bestimmung des Schärfewerts kann beispielsweise die Helligkeit, ein Kontrast-Wert oder ein Grau-Wert eines Bildpunkts betrachtet werden. Insbesondere kann zur Bestimmung des Fokuswerts ein Gradient der Helligkeit, des Kontrast-Werts oder des Grau-Werts zu den umliegenden Bildpunkten bestimmt werden. Umso größer der Gradient ist, umso schärfer ist der Bildpunkt und umso größer ist der Fokuswert. Die Schärfewerte werden in einer 3D-Schärfematrix gespeichert.A sharpness value is determined for each pixel. The sharpness value can also be called the focus value. The sharpness value indicates how sharp the respective pixel is. To determine the sharpness value, for example, the brightness, a contrast value or a gray value of a pixel can be considered. In particular, to determine the focus value, a gradient of the brightness, the contrast value or the gray value to the surrounding pixels can be determined. The larger the gradient, the sharper the pixel is and the larger the focus value. The sharpness values are stored in a 3D sharpness matrix.

Um den Tiefenwert eines Objektpunkts zu bestimmen, werden die jeweiligen Bildpunkte des Fokalbildstapels gemeinsam betrachtet, die dem entsprechenden Objektpunkt zugeordnet sind. Jeder dieser Bildpunkte ist dabei von unterschiedlichen Bildern. Somit ist jedem Bildpunkt ein anderer Abstand und dementsprechend ein anderer Tiefenwert in der Tiefenrichtung zugeordnet. Auf Basis dessen kann dann für jeden Objektpunkt ein Tiefenwert ermittelt werden, an dem der Objektpunkt am schärfsten abgebildet ist. Die Tiefenwerte aller Objektpunkte bilden eine Tiefenkarte.In order to determine the depth value of an object point, the respective image points of the focal image stack that are assigned to the corresponding object point are considered together. Each of these pixels is from different images. Each pixel is therefore assigned a different distance and, accordingly, a different depth value in the depth direction. Based on this, a depth value can then be determined for each object point at which the object point is imaged most sharply. The depth values of all object points form a depth map.

Sobald für jeden Objektpunkt aus dem erfassten Bereich der Oberfläche des Werkstücks ein Tiefenwert bestimmt ist, kann das Bild mit erweiterter Schärfentiefe basierend auf den ermittelten Tiefenwerten der Objektpunkte und dem Fokalbildstapel erzeugt werden. Mit anderen Worten wird das Bild mit erweiterter Schärfentiefe basierend auf der Tiefenkarte und dem Fokalbildstapel erzeugt. Dazu kann beispielsweise für jeden Objektpunkt der Bildpunkt aus der Menge an Bildpunkten, die dem Objektpunkt zugeordnet sind, aus dem Fokalbildstapel genommen werden, dessen Tiefenwert dem ermittelten Tiefenwert des Objektpunkts am nächsten kommt. Mit anderen Worten kann für jeden Objektpunkt der Bildpunkt aus dem Fokalbildstapel genommen werden, der den Objektpunkt am schärfsten abbildet.Once a depth value is determined for each object point from the captured area of the surface of the workpiece, the image with extended depth of field can be generated based on the determined depth values of the object points and the focal image stack. In other words, the image with extended depth of field is generated based on the depth map and the focal image stack. For this purpose, for each object point, for example, the image point from the set of image points assigned to the object point can be taken from the focal image stack, the depth value of which comes closest to the determined depth value of the object point. In other words, for each object point, the image point that provides the sharpest image of the object point can be taken from the focal image stack.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Einpassen jeweils einer Funktion entlang der Tiefenrichtung an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind,
wobei der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt wird.In a further embodiment of the first or second aspect, the method further comprises the following step:
  • - Adjusting a function along the depth direction to the sharpness values of those pixels of the images that are assigned to the same object point,
wherein the depth value of each object point on the surface of the workpiece in the depth direction is determined based on a maximum of the corresponding fitted function.

Zur Bestimmung des Tiefenwerts des Objektpunkts wird eine Funktion in bzw. entlang der Tiefenrichtung an die Schärfewerte der entsprechenden Bildpunkte angepasst, die dem Objektpunkt zugeordnet sind. Die Funktion kann auch als Schärfefunktion bezeichnet werden. Wie zuvor beschrieben, ist der Schärfewert maximal, wenn der Objektpunkt in der Fokalebene des optischen Sensors liegt. Wird der Abstand zu dem Werkstück verkürzt oder verlängert, nimmt der Schärfewert ab. Aus dem Maximum der eingepassten Funktion an die Schärfewerte der Bildpunkte eines entsprechenden Objektpunkts lässt sich somit der Tiefenwert des Objektpunkts bestimmen. Als Funktionen eignen sich besonders solche, die achsensymmetrisch zu einem Maximum, insbesondere zu einem globalen Maximum, sind.To determine the depth value of the object point, a function in or along the depth direction is adapted to the sharpness values of the corresponding image points that are assigned to the object point. The function can also be called the sharpness function. As described previously, the sharpness value is maximum when the object point lies in the focal plane of the optical sensor. If the distance to the workpiece is shortened or lengthened, the sharpness value decreases. The depth value of the object point can thus be determined from the maximum of the fitted function to the sharpness values of the image points of a corresponding object point. Particularly suitable functions are those that are axially symmetrical to a maximum, in particular to a global maximum.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Einpassen jeweils einer Funktion entlang der Tiefenrichtung an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind,
wobei der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der eingepassten Funktion und einem Residuum der eingepassten Funktion bestimmt wird.In a further embodiment of the first or second aspect, the method further comprises the following step:
  • - Adjusting a function along the depth direction to the sharpness values of those pixels of the images that are assigned to the same object point,
wherein the depth value of each object point on the surface of the workpiece in the depth direction is determined based on a maximum of the fitted function and a residual of the fitted function.

Insbesondere wird der Tiefenwert eines Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt, wenn das Residuum der entsprechenden, eingepassten Funktion größer als ein definierter Schwellwert ist, wobei der Tiefenwert eines Objektpunkts auf der Oberfläche des Werkstücks in der Tiefenrichtung durch Interpolation der Tiefenwerte von mindestens zwei benachbarten Objektpunkten bestimmt wird, wenn das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist.In particular, the depth value of an object point on the surface of the workpiece in the depth direction is determined based on a maximum of the corresponding fitted function when the residual of the corresponding fitted function is greater than a defined threshold, where the depth value of an object point on the surface of the workpiece in the depth direction is determined by interpolating the depth values of at least two neighboring object points if the residual of the corresponding fitted function is equal to or smaller than the defined threshold value.

Das Residuum ist ein Maß dafür, wie stark die Funktion von den ermittelten Schärfewerten abweicht. Das Residuum gibt somit die Qualität des Fits an. Für jeden Objektpunkt wird eine Funktion an die entsprechenden Schärfewerte angepasst. Für diese Funktion werden das Maximum und das Residuum bestimmt. Dann wird ermittelt, ob das Residuum den Schwellwert übersteigt. Wenn das Residuum den Schwellwert nicht übersteigt, wird der Tiefenwert des entsprechenden Objektpunkts auf Basis des Maximums der Funktion bestimmt. Wenn das Residuum den Schwellwert übersteigt, wird der Tiefenwert des entsprechenden Objektpunkts durch Interpolation bestimmt. Zur Interpolation werden mindestens zwei, insbesondre alle, benachbarte Objektpunkte verwendet, für die bereits ein Tiefenwert bestimmt wurde. Auf diese Weise werden Artefakte im Bild mit erweiterter Schärfentiefe unterdrückt, die beispielsweise durch defokussierte Objektpunkte oder Streulicht hervorgerufen werden können.The residual is a measure of how much the function deviates from the determined sharpness values. The residual therefore indicates the quality of the fit. For each object point, a function is adapted to the corresponding sharpness values. The maximum and the residual are determined for this function. It is then determined whether the residual exceeds the threshold value. If the residual does not exceed the threshold value, the depth value of the corresponding object point is determined based on the maximum of the function. When the residual exceeds the threshold value, the depth value of the corresponding object point is determined by interpolation. At least two, in particular all, neighboring object points for which a depth value has already been determined are used for interpolation. In this way, artifacts in the image with an extended depth of field are suppressed, which can be caused, for example, by defocused object points or scattered light.

Insbesondere kann zunächst für jeden Objektpunkt, für den das Residuum den Schwellwert übersteigt, der Tiefenwert auf Basis des entsprechenden Maximums der eingepassten Funktion bestimmt werden. Dann werden die Tiefenwerte der übrigen Objektpunkte, deren Residuen den Schwellwert nicht übersteigen und für die noch kein Tiefenwert bestimmt wurde, durch Interpolation der Tiefenwerte der anderen Objektpunkte, für die bereits ein Tiefenwert bestimmt wurde, bestimmt. Alternativ können zunächst für alle Objektpunkte die Tiefenwerte auf Basis der Maxima der eingepassten Funktionen festgelegt werden. Dann werden die Tiefenwerte der Objektpunkte wieder verworfen, für die das berechnete Residuum unterhalb des Schwellwerts liegt. Für die Objektpunkte, für die der Tiefenwert wieder verworfen wurde, wird dann der Tiefenwert durch Interpolation bestimmt, wie zuvor beschrieben.In particular, for each object point for which the residual exceeds the threshold value, the depth value can first be determined based on the corresponding maximum of the fitted function. Then the depth values of the remaining object points whose residuals do not exceed the threshold value and for which no depth value has yet been determined are determined by interpolating the depth values of the other object points for which a depth value has already been determined. Alternatively, the depth values can first be determined for all object points based on the maxima of the fitted functions. The depth values of the object points for which the calculated residual is below the threshold value are then discarded. For the object points for which the depth value was rejected again, the depth value is then determined by interpolation, as described above.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist die einzupassende Funktion eine Gauß-Funktion, wobei der Tiefenwert jedes Objektpunkts dem Erwartungswert, auch Median oder Zentralwert genannt, der jeweiligen Gauß-Funktion entspricht.In a further embodiment of the first or second aspect, the function to be fitted is a Gaussian function, whereby the depth value of each object point corresponds to the expected value, also called the median or central value, of the respective Gaussian function.

Eine Gauß-Funktion weist grundsätzlich bei ihrem Erwartungswert ein globales Maximum auf. Wenn somit eine Gauß-Funktion an die Schärfewerte der Bildpunkte eines Objektpunkts angepasst wird, lässt sich der Tiefenwert des Objektpunkts auf Basis des Erwartungswerts bestimmen. Des Weiteren folgt das Intensitätsprofil bzw. das Schärfeprofil in der Tiefenrichtung im Wesentlichen einer Gauß-Kurve, wenn der Abstand zu dem Werkstück in der Tiefenrichtung variiert wird. Wenn daher eine Gauß-Kurve an jeden Punkt des abzubildenden Bereichs, insbesondere für jeden Objektpunkt, eingepasst wird, lässt sich damit die Genauigkeit und Reprozierbarkeit der Tiefenkarte und damit auch des Bildes mit erweiterter Schärfentiefe weiter verbessern.A Gaussian function basically has a global maximum at its expected value. If a Gaussian function is adapted to the sharpness values of the image points of an object point, the depth value of the object point can be determined based on the expected value. Furthermore, the intensity profile or the sharpness profile in the depth direction essentially follows a Gaussian curve when the distance to the workpiece is varied in the depth direction. Therefore, if a Gaussian curve is fitted to every point of the area to be imaged, in particular for every object point, the accuracy and reproducibility of the depth map and thus also of the image with an extended depth of field can be further improved.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist jedem Bild des Fokalbildstapels ein Tiefenwert in der Tiefenrichtung zugeordnet.In a further embodiment of the first or second aspect, each image of the focal image stack is assigned a depth value in the depth direction.

Auf Basis der Tiefenwerte der Bilder kann die Funktion für die Bildpunkte eines Objektpunkts entsprechend eingepasst werden und der Tiefenwert für den entsprechenden Objektpunkt bestimmt werden. Der Tiefenwert des Objektpunkts, insbesondere die z-Position, ergibt sich dabei direkt aus dem Tiefenwert, an dem die eingepasste Funktion maximal ist. Insbesondere können die Tiefenwerte der Bilder in diskreten Schritten aufeinander folgen. Beispielsweise können die Bilder in 50µm Schritten aufgenommen werden. Dies bedeutet, dass sich der Abstand der Bilder in der Tiefenrichtung zu dem Werkstück von Bild zu Bild um 50µm ändert, insbesondere größer oder kleiner wird.Based on the depth values of the images, the function for the image points of an object point can be adjusted accordingly and the depth value for the corresponding object point can be determined. The depth value of the object point, in particular the z position, results directly from the depth value at which the fitted function is maximum. In particular, the depth values of the images can follow one another in discrete steps. For example, the images can be recorded in 50µm steps. This means that the distance between the images in the depth direction to the workpiece changes by 50 μm from image to image, in particular becomes larger or smaller.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird der Schärfewert jedes Bildpunkts auf Basis einer Schärfe des Bildpunkts bestimmt.In a further embodiment of the first or second aspect, the sharpness value of each pixel is determined based on a sharpness of the pixel.

Wie zuvor bereits erläutert, lässt sich der Schärfewert eines Bildpunkts beispielsweise auf Basis eines Gradienten zu den umgebenden Bildpunkten des entsprechenden Bildes bestimmen.As already explained above, the sharpness value of a pixel can be determined, for example, based on a gradient to the surrounding pixels of the corresponding image.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Korrigieren eines oder mehrerer Abbildungsfehler in dem erzeugten Bild mit erweiterter Schärfentiefe, wobei die zu korrigierenden Abbildungsfehler mindestens einen der folgenden Fehler aufweisen: einen Verzeichnungsfehler und/oder einen Astigmatismus-Fehler.
In a further embodiment of the first or second aspect, the method further comprises the following step:
  • - Correcting one or more imaging errors in the generated image with extended depth of field, the imaging errors to be corrected having at least one of the following errors: a distortion error and / or an astigmatism error.

Durch das Korrigieren eines oder mehrerer Abbildungsfehler wird ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt. Dabei sind die einen oder mehrere zu korrigierenden Abbildungsfehler ein Verzeichnungsfehler und/oder ein Astigmatismus-Fehler.Correcting one or more aberrations produces a corrected image with increased depth of field. The one or more imaging errors to be corrected are a distortion error and/or an astigmatism error.

Beim Aufnehmen des Fokalbildstapels können Abbildungsfehler auftreten, die sich aus dem optischen System ergeben, das zum Aufnehmen des Fokalbildstapels verwendet wird. Alle optischen Systeme weisen innerhalb der Fertigungstoleranzen Abbildungsfehler auf, die auch als optische Aberrationen bezeichnet werden. Diese führen zu einem systematischen Messfehler in den berechneten Tiefenwerten. Astigmatismus ist besonders problematisch, da dieser die Tiefenwerte verzerrt. Es können zumindest die Aberrationen erster und zweiter Ordnung im Aberrationsschema nach Zernike berücksichtigt und korrigiert werden. Zur Korrektur des Astigmatismus-Fehlers werden daher die berechneten Tiefenwerte für jeden Objektpunkt korrigiert. Auf Basis der korrigierten Tiefenwerte kann dann ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt werden. Durch den vorgeschlagenen Korrekturmechanismus kann eine digitale Aberrationskorrektur durchgeführt werden, mittels der die Genauigkeit weiter erhöht wird.When capturing the focal image stack, imaging errors may occur that result from the optical system used to capture the focal image stack. All optical systems have imaging errors, also known as optical aberrations, within the manufacturing tolerances. These lead to a systematic measurement error in the calculated depth values. Astigmatism is particularly problematic because it distorts the depth values. At least the first and second order aberrations can be taken into account and corrected in the Zernike aberration scheme. To correct the astigmatism error, the calculated depth values are corrected for each object point. Based on the corrected depth values, a corrected image with an extended depth of field can then be generated. The proposed correction mechanism allows digital aberration correction to be carried out, which further increases the accuracy.

Zusätzlich zu dem Astigmatismus-Fehler kann auch ein Verzeichnungsfehler auftreten. Die Verzeichnung ist ein geometrischer Abbildungsfehler optischer Systeme, der in der Linsengleichung zu einer lokalen Veränderung des Abbildungsmaßstabes führt. Dies bewirkt eine nicht längen- bzw. maßstabgetreue Abbildung des zu untersuchenden Objektes. Mit anderen Worten beeinflusst die Verzeichnung die dimensionelle Messfähigkeit. Die Verzeichnung kann ein Verzeichnungszentrum aufweisen, das auf der optischen Achse liegen kann. Das Verzeichnungszentrum ist ein Symmetriepunkt der Verzeichnung. Die Verzeichnung kann rotationssymmetrisch um diesen Symmetriepunkt sein. Mit anderen Worten führt die Verzeichnung zu einer Abbildung, die nicht längentreu und/oder nicht winkeltreu ist. Bezüglich des Verzeichnungszentrums können eine radiale Richtung und eine tangentiale Richtung definiert werden. Radiale Richtung und tangentiale Richtung sind senkrecht zueinander.In addition to the astigmatism error, a distortion error may also occur. Distortion is a geometric imaging error in optical systems that leads to a local change in the imaging scale in the lens equation. This results in an image of the object to be examined that is not true to length or scale. In other words, distortion affects dimensional measurement ability. The distortion can have a center of distortion that can lie on the optical axis. The center of distortion is a point of symmetry of the distortion. The distortion can be rotationally symmetrical about this point of symmetry. In other words, the distortion leads to an image that is not true to length and/or not true to angle. A radial direction and a tangential direction can be defined with respect to the center of distortion. Radial direction and tangential direction are perpendicular to each other.

Der Verzeichnungsfehler eines optischen Systems führt somit zu einer Maßstabsänderung in der x- und y- Richtung, sprich senkrecht zu der Tiefenrichtung. Mit anderen Worten weist jeder Bildpunkt einen durch die Verzeichnung bedingten Abbildungsfehler in der x- und y-Richtung auf. Dieser Abbildungsfehler kann mit zunehmendem Abstand eines Bildpunkts zur optischen Achse zunehmen.The distortion error of an optical system therefore leads to a change in scale in the x and y directions, i.e. perpendicular to the depth direction. In other words, each pixel has an imaging error in the x and y directions caused by the distortion. This imaging error can increase as the distance between an image point and the optical axis increases.

Die Verzeichnung kann im Allgemeinen eine radiale Verzeichnung und/oder eine tangentiale Verzeichnung aufweisen. Die radiale Verzeichnung und die tangentiale Verzeichnung können beispielsweise durch das Brown-Conrady-Modell beschrieben werden. Die radiale Verzeichnung beschreibt die Verzeichnung, sprich Maßstabsänderung, in radialer Richtung. Bei radialer Verzeichnung werden die Bildpunkte somit in der radialen Richtung verzerrt. Die tangentiale Verzeichnung beschreibt die Verzeichnung, sprich Maßstabsänderung, in tangentialer Richtung. Bei tangentialer Verzeichnung werden die Bildpunkte somit in der tangentialen Richtung verzerrt.The distortion may generally include radial distortion and/or tangential distortion. The radial distortion and the tangential distortion can be described, for example, by the Brown-Conrady model. Radial distortion describes the distortion, i.e. change in scale, in the radial direction. With radial distortion, the image points are distorted in the radial direction. Tangential distortion describes the distortion, i.e. change in scale, in the tangential direction. With tangential distortion, the image points are distorted in the tangential direction.

Um nun ein korrigiertes Bild mit erweiterter Schärfentiefe ohne Verzeichnungsfehler zu erhalten, wird der Verzeichnungsfehler somit in dem Bild mit erweiterter Schärfentiefe korrigiert. Dazu kann beispielsweise jeder Bildpunkt des Bildes mit erweiterter Schärfentiefe in der x- und y-Richtung versetzt/entzerrt werden, um den Verzeichnungsfehler zu kompensieren. Insbesondere kann jeder Bildpunkt des Bildes mit erweiterter Schärfentiefe in der radialen und optional der tangentialen Richtung bezüglich des Verzeichnungszentrums versetzt/entzerrt werden, um den Verzeichnungsfehler zu kompensieren.In order to now obtain a corrected image with an extended depth of field without distortion errors, the distortion error is thus corrected in the image with an extended depth of field. For this purpose, for example, each pixel of the image can be offset/equalized in the x and y directions with an extended depth of field in order to compensate for the distortion error. In particular, each pixel of the image with extended depth of field can be offset/equalized in the radial and optionally the tangential direction with respect to the center of distortion in order to compensate for the distortion error.

Durch die Korrektur von Abbildungsfehlern, insbesondere des Verzeichnungsfehlers und des Astigmatismus-Fehlers, erhält man ein korrigiertes Bild mit erweiterter Schärfentiefe, in dem sich Kanten besser lokalisieren lassen.By correcting imaging errors, in particular distortion errors and astigmatism errors, a corrected image with an extended depth of field is obtained, in which edges can be localized better.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts ist zum Korrigieren des Verzeichnungsfehlers jedem Punkt des Bildes mit erweiterter Schärfentiefe mindestens ein Verzeichnungswert zugeordnet, wobei eine Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung basierend auf dem mindestens einen Verzeichnungswert korrigiert wird.In a further embodiment of the first or second aspect, in order to correct the distortion error, at least one distortion value is assigned to each point of the image with extended depth of field, wherein a position of each point of the image with extended depth of field perpendicular to the depth direction is corrected based on the at least one distortion value.

Der Verzeichnungswert ist ein Korrekturwert für die Verzeichnung des jeweiligen Bildpunkts. Der mindestens eine Verzeichnungswert ist vorzugsweise vorbestimmt. Der mindestens eine Verzeichnungswert bestimmt, wie die Lage eines Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung, sprich in x- und y-Richtung, verändert werden soll. Mit anderen Worten gibt der Verzeichnungswert an, wie der Punkt in x- und/oder y-Richtung zur Korrektur zu verschieben ist. Insbesondere kann der mindestens eine Verzeichnungswert bestimmen, wie der Punkt in radialer und/oder tangentialer Richtung bezüglich des Verzeichnungszentrums zur Korrektur von radialer Verzeichnung und tangentialer Verzeichnung zu verschieben ist. Durch das Korrigieren (d.h. Entzerren) der Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem mindestens einen Verzeichnungswert wird eine maßstabsgetreue, messfähige Messaufnahme erzeugt.The distortion value is a correction value for the distortion of the respective pixel. The at least one distortion value is preferably predetermined. The at least one distortion value determines how the position of a point in the image with an extended depth of field should be changed perpendicular to the depth direction, i.e. in the x and y directions. In other words, the distortion value indicates how the point should be moved in the x and/or y direction for correction. In particular, the at least one distortion value can determine how the point is to be moved in the radial and/or tangential direction with respect to the distortion center to correct radial distortion and tangential distortion. By correcting (i.e., equalizing) the location of each point in the image with expanded depth of field Based on the at least one distortion value, a true-to-scale, measurable measurement recording is generated.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts sind jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Verzeichnungswert und ein zweiter Verzeichnungswert zugeordnet, wobei die Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe in einer ersten Richtung basierend auf dem ersten Verzeichnungswert und in einer zweiten Richtung basierend auf dem zweiten Verzeichnungswert korrigiert wird.In a further embodiment of the first or second aspect, each point of the image with extended depth of field is assigned a first distortion value and a second distortion value, the location of each point of the image with extended depth of field in a first direction based on the first distortion value and in a second direction is corrected based on the second distortion value.

Auf diese Weise kann die Verzeichnung des Punkts in zwei verschiedenen Richtungen korrigiert werden. Die erste und zweite Richtung sind senkrecht zu der Tiefenrichtung. Vorzugsweise sind die erste und zweite Richtung nicht parallel zueinander, insbesondere senkrecht zueinander. Beispielsweise kann die erste Richtung die x-Richtung und die zweite Richtung die y-Richtung sein. In diesem Fall dienen der erste Verzeichnungswert zur Korrektur einer Verzeichnung in x-Richtung und der zweite Verzeichnungswert zur Korrektur einer Verzeichnung in y-Richtung. Alternativ kann die erste Richtung auch die radiale Richtung und die zweite Richtung die tangentiale Richtung bezüglich des Verzeichnungszentrums sein. In diesem Fall dienen der erste Verzeichnungswert zur Korrektur der radialen Verzeichnung und der zweite Verzeichnungswert zur Korrektur der tangentialen Verzeichnung.In this way the distortion of the point can be corrected in two different directions. The first and second directions are perpendicular to the depth direction. Preferably, the first and second directions are not parallel to one another, in particular perpendicular to one another. For example, the first direction can be the x-direction and the second direction can be the y-direction. In this case, the first distortion value is used to correct distortion in the x direction and the second distortion value is used to correct distortion in the y direction. Alternatively, the first direction can also be the radial direction and the second direction can be the tangential direction with respect to the center of distortion. In this case, the first distortion value is used to correct the radial distortion and the second distortion value is used to correct the tangential distortion.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird der Astigmatismus-Fehler vor dem Verzeichnungsfehler korrigiert.In a further embodiment of the first or second aspect, the astigmatism error is corrected before the distortion error.

Wie eingangs bereits erläutert, ändern sich die im Bild gemessenen Abstände (sprich der Maßstab) in Abhängigkeit vom kantenorientierungsabhängigen Autofokus. Dieser Fehler wird umso größer, je größer die Telezentrieabweichung des Systems ist. Mit anderen Worten führt Astigmatismus des optischen Systems dazu, dass sich der Maßstab kantenorientierungsabhängig verändert. Dies bedeutet, dass durch astigmatische Bildeinflüsse der bestimmte beste (schärfste) Bildpunkt nicht mehr auf der besten Einstellebene nach Petzval liegen wird, sondern sich kantenorientierungsabhängig zwischen sagittaler und tangentialer bester Einstellebene vermitteln wird. Um telezentriebedingte Messeinflüsse zu minimieren, kann daher ein astigmatisch kompensiertes (korrigiertes) Bild mit erweiterter Schärfentiefe bestimmt werden. Hierfür wird ein Bild erweiterter Schärfentiefe auf der kantenorientierungsunabhängigen besten Einstellebene nach Petzval errechnet und anschließend für dieses Bild erweiterter Schärfentiefe die Verzeichnungskorrektur durchgeführt.As already explained at the beginning, the distances measured in the image (i.e. the scale) change depending on the edge orientation-dependent autofocus. This error becomes larger the larger the telecentricity deviation of the system is. In other words, astigmatism of the optical system causes the scale to change depending on the edge orientation. This means that due to astigmatic image influences, the specific best (sharpest) image point will no longer be on the best adjustment plane according to Petzval, but will instead be located between the sagittal and tangential best adjustment plane depending on the edge orientation. In order to minimize telecentricity-related measurement influences, an astigmatically compensated (corrected) image with an extended depth of field can be determined. For this purpose, an image with extended depth of field is calculated on the edge orientation-independent best adjustment plane according to Petzval and the distortion correction is then carried out for this image with extended depth of field.

In einer weiteren Ausgestaltung des ersten oder zweiten Aspekts wird zum Korrigieren des Astigmatismus-Fehlers eine Winkelkarte des Bereichs der Oberfläche des Werkstücks erzeugt, wobei jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Korrekturwert und ein zweiter Korrekturwert zugeordnet ist, wobei der Tiefenwert jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem ersten Korrekturwert, dem zweiten Korrekturwert und der Winkelkarte korrigiert wird.In a further embodiment of the first or second aspect, in order to correct the astigmatism error, an angle map of the area of the surface of the workpiece is generated, with each point of the image with extended depth of field being assigned a first correction value and a second correction value, the depth value of each point of the Image with extended depth of field is corrected based on the first correction value, the second correction value and the angle map.

Astigmatismus ist eine Aberration der „schiefen“ Strahlen. Ein schief einfallendes Strahlenbündel wird in der Meridional- und der Sagittalebene unterschiedlich stark gebrochen. In Richtung der Meridionalebene ist eine Linse perspektivisch verkürzt, woraus eine kürzere Brennweite resultiert als in der Sagittalebene. Mit anderen Worten ist Astigmatismus richtungsabhängig, insbesondere abhängig von Richtungen der Kanten in den Abbildungen der Bilder. Der Astigmatismus kann für jeden Punkt über eine winkelabhängige Funktion, insbesondere Modell- oder Fitfunktion, mit mindestens zwei Parametern beschrieben werden, die den ersten und zweiten Korrekturwert aufweisen. Mit anderen Worten ist das Astigmatismus-Modell eine Anpassung der über den Kreisazimuth dargestellten Tiefenwertabweichung. Insbesondere kann der Astigmatismus als Linearkombination aus zwei radialsymmetrischen Sinusfunktionen modelliert werden. Dabei entspricht der erste Korrekturwert dem Koeffizienten in der ersten Sinusfunktion und der zweite Korrekturwert dem Koeffizienten in der zweiten Sinusfunktion. Vorzugsweise sind die beiden Sinusfunktionen um π/2 verschoben. Der erste Korrekturwert und der zweite Korrekturwert stellen somit zwei Korrekturwerte in zwei senkrecht zueinander stehenden Richtungen dar. Zur Korrektur des Astigmatismus wird eine Winkelkarte des Bereichs der Oberfläche des Werkstücks erzeugt. Die Winkelkarte wird basierend auf einem Bildgradienten bestimmt. Der Bildgradient kann basierend auf dem Bild mit erweiterter Schärfentiefe oder dem gesamten oder einem Teil des Fokalbildstapels des Bereichs des Werkstücks für jeden Punkt bestimmt werden. Dazu wird für jeden Punkt ein Bildgradient berechnet. Der Bildgradient bestimmt sich aus einer Änderung der Helligkeit zu umliegenden Bildpunkten. Die Richtung des Bildgradienten kann mittels eines Winkels dargestellt werden. Somit ist in der Winkelkarte jedem Punkt ein Winkel zugeordnet, der die Richtung des Bildgradienten angibt. Mit anderen Worten stellt die Winkelkarte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe den entsprechenden Winkel des Bildgradienten dar. Basierend auf diesem Winkel kann zur Korrektur des Tiefenwerts des jeweiligen Objektpunkts dann der Anteil des ersten und des zweiten Korrekturwerts berechnet werden. Der Anteil des ersten Korrekturwerts kann insbesondere durch das Produkt aus dem ersten Korrekturwert mit dem Sinus des Winkels des jeweiligen Punkts bestimmt werden. Entsprechend kann auch der Anteil des zweiten Korrekturwerts durch das Produkt aus dem zweiten Korrekturwert mit dem Cosinus des Winkels des jeweiligen Punkts bestimmt werden. Die Korrektur des jeweiligen Tiefenwerts kann insbesondere durch Subtraktion der Summe der Anteile des ersten und zweiten Korrekturwerts von dem jeweiligen Tiefenwert erfolgen. Der erste Korrekturwert und der zweite Korrekturwert können insbesondere vorberechnet oder vorbestimmt sein. Auf diese Weise lässt sich ein Astigmatismus-Fehlers in den Tiefenwerten korrigieren. Auf Basis der korrigierten Tiefenwerte der Objektpunkte kann dann das Bild mit erweiterter Schärfentiefe korrigiert, insbesondere neu erzeugt, werden. Durch Korrektur des Astigmatismus -Fehlers wird die Genauigkeit des Bildes mit erweiterter Schärfentiefe weiter erhöht. Die Errechnung des Bildes erweiterter Schärfentiefe auf Basis der korrigierten Tiefenwerte entspricht der Auswertung des Bildes erweiterter Schärfentiefe auf der astigmatisch kompensierten besten Einstellebene nach Petzval.Astigmatism is an aberration of the “crooked” rays. An obliquely incident beam of rays is refracted to different degrees in the meridional and sagittal planes. In the direction of the meridional plane, a lens is foreshortened, resulting in a shorter focal length than in the sagittal plane. In other words, astigmatism is direction-dependent, particularly dependent on directions of the edges in the images of the images. The astigmatism can be described for each point using an angle-dependent function, in particular a model or fit function, with at least two parameters that have the first and second correction values. In other words, the astigmatism model is an adaptation of the depth value deviation represented via the circular azimuth. In particular, astigmatism can be modeled as a linear combination of two radially symmetrical sine functions. The first correction value corresponds to the coefficient in the first sine function and the second correction value corresponds to the coefficient in the second sine function. The two sine functions are preferably shifted by π/2. The first correction value and the second correction value thus represent two correction values in two mutually perpendicular directions. To correct the astigmatism, an angle map of the area of the surface of the workpiece is generated. The angle map is determined based on an image gradient. The image gradient may be determined for each point based on the extended depth of field image or all or part of the focal image stack of the area of the workpiece. To do this, an image gradient is calculated for each point. The image gradient is determined by a change in the brightness of surrounding pixels. The direction of the image gradient can be represented using an angle. Thus, in the angle map, each point is assigned an angle that indicates the direction of the image gradient. In other words, the angle map represents the corresponding angle of the image gradient for each point of the corrected image with an extended depth of field. Based on this angle, the proportion of the first and second correction values can then be calculated to correct the depth value of the respective object point. The proportion of the first correction value can in particular be determined by the product of the first correction value can be determined by the sine of the angle of the respective point. Accordingly, the proportion of the second correction value can also be determined by the product of the second correction value with the cosine of the angle of the respective point. The correction of the respective depth value can be carried out in particular by subtracting the sum of the components of the first and second correction values from the respective depth value. The first correction value and the second correction value can in particular be precalculated or predetermined. In this way, an astigmatism error in the depth values can be corrected. Based on the corrected depth values of the object points, the image can then be corrected, in particular regenerated, with an extended depth of field. By correcting the astigmatism error, the accuracy of the image is further increased with extended depth of field. The calculation of the image with extended depth of field based on the corrected depth values corresponds to the evaluation of the image with extended depth of field on the astigmatically compensated best adjustment plane according to Petzval.

In einer weiteren Ausgestaltung des zweiten Aspekts sind der optische Sensor und das Werkstück in der Tiefenrichtung relativ zueinander bewegbar, so dass ein Abstand in der Tiefenrichtung zwischen dem Werkstück und dem optischen Sensor veränderbar ist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist:

  • - Verändern des Abstands zwischen dem Werkstück und dem optischen Sensor,
wobei in dem Schritt des Erfassens die Mehrzahl von Bildern erfasst wird, während der Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in der Tiefenrichtung abbildenIn a further embodiment of the second aspect, the optical sensor and the workpiece are movable relative to one another in the depth direction, so that a distance in the depth direction between the workpiece and the optical sensor can be changed, the method further comprising the following step:
  • - changing the distance between the workpiece and the optical sensor,
wherein in the step of capturing, the plurality of images are captured while changing the distance between the workpiece and the optical sensor, the images each imaging the area of the surface of the workpiece from different, defined distances from the workpiece in the depth direction

Auf diese Weise wird die Fokalebenenposition des optischen Sensors in einer Tiefenrichtung relativ zu dem Werkstück verändert, während die Bilder aufgenommen werden, die den Fokalbildstapel bilden.In this way, the focal plane position of the optical sensor is changed in a depth direction relative to the workpiece while capturing the images that form the focal image stack.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät einen Werkstückhalter auf, wobei das Werkstück auf dem Werkstückhalter zum Vermessen angeordnet wird.In a further embodiment of the second aspect, the measuring device has a workpiece holder, wherein the workpiece is arranged on the workpiece holder for measurement.

Der Werkstückhalter kann insbesondere ein Werktisch, ein Messtisch oder ein Objekttisch sein. Der Werkstückhalter ist dazu ausgebildet, das Werkstück während des Messprozesses in einer definierten Position zu halten. Dazu kann der Werkstückhalter beispielsweise auf der Oberseite eine ebene Fläche aufweisen, auf der das Werkstück während des Aufnehmens des Bildes mit erweiterter Schärfetiefe angeordnet werden kann.The workpiece holder can in particular be a work table, a measuring table or an object table. The workpiece holder is designed to hold the workpiece in a defined position during the measuring process. For this purpose, the workpiece holder can, for example, have a flat surface on the top on which the workpiece can be arranged with an extended depth of field while the image is being recorded.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät eine Antriebseinrichtung auf, wobei die Antriebseinrichtung den optischen Sensor relativ zu dem Werkstückhalter in der Tiefenrichtung bewegt und/oder den Werkstückhalter relativ zu dem optischen Sensor in der Tiefenrichtung bewegt, um den Abstand zwischen dem Werkstück und dem optischen Sensor zu verändern.In a further embodiment of the second aspect, the measuring device has a drive device, wherein the drive device moves the optical sensor relative to the workpiece holder in the depth direction and / or moves the workpiece holder relative to the optical sensor in the depth direction in order to increase the distance between the workpiece and to change the optical sensor.

Mit anderen Worten ist die Antriebseinrichtung dazu ausgebildet, den Werkstückhalter und den optischen Sensor relativ zueinander zu bewegen, den Abstand zwischen dem Werkstück und dem optischen Sensor zu verändern. Dazu kann die Antriebseinrichtung entweder den Werkstückhalter in der Tiefenrichtung bewegen oder den optischen Sensor in der Tiefenrichtung bewegen oder den Werkstückhalter und den optischen Sensor in der Tiefenrichtung bewegen.In other words, the drive device is designed to move the workpiece holder and the optical sensor relative to one another and to change the distance between the workpiece and the optical sensor. For this purpose, the drive device can either move the workpiece holder in the depth direction or move the optical sensor in the depth direction or move the workpiece holder and the optical sensor in the depth direction.

In einer weiteren Ausgestaltung des zweiten Aspekts wird der Abstand zwischen dem Werkstück und dem optischen Sensor in diskreten Schritten verändert.In a further embodiment of the second aspect, the distance between the workpiece and the optical sensor is changed in discrete steps.

Dabei kann Abstand schrittweise vergrößert oder verkleinert werden. Beispielsweise kann der Abstand in 50µm Schritten verändert werden.The distance can be increased or decreased step by step. For example, the distance can be changed in 50µm increments.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Messgerät eine Beleuchtungseinrichtung auf, wobei das Verfahren des Weiteren den folgenden Schritt auf:

  • - Beleuchten des Werkstücks mittels der Beleuchtungseinrichtung während des Erfassens der Bilder des Fokalbildstapels.
In a further embodiment of the second aspect, the measuring device has a lighting device, the method further comprising the following step:
  • - Illuminating the workpiece using the lighting device while capturing the images of the focal image stack.

Die Beleuchtungseinrichtung wird dazu verwendet, zumindest den Bereich der Oberfläche des Werkstücks auszuleuchten. Das reflektierte Licht wird dann verwendet, um ein Bild in dem optischen Sensor zu erzeugen. Auf diese Weise kann der Bereich des Werkstücks gleichmäßig ausgeleuchtet werden und die Tiefenwerte des Oberflächenbereichs mit im Wesentlichen gleicher Genauigkeit bestimmt werden. Die Beleuchtung kann beispielsweise eine koaxiale Beleuchtung, eine Ringbeleuchtung, eine Dunkelfeldbeleuchtung, eine diffuse Beleuchtung oder eine Punktquellenbeleuchtung sein. Die Beleuchtungseinrichtung kann insbesondere eine monochromatische Lichtquelle, beispielsweise ein monochromatischer Laser, sein. Eine monochromatische Lichtquelle hat den Vorteil, dass keine chromatische Aberrationen auftreten können.The lighting device is used to illuminate at least the area of the surface of the workpiece. The reflected light is then used to create an image in the optical sensor. In this way, the area of the workpiece can be illuminated evenly and the depth values of the surface area can be determined with essentially the same accuracy. The illumination can be, for example, coaxial illumination, ring illumination, dark field illumination, diffuse illumination or point source illumination. The lighting device can in particular be a monochromatic light source, for example a monochromatic laser. A monochromatic light source has the advantage that no chromatic aberrations can occur.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Bestimmen des mindestens einen Verzeichnungswerts für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe, wobei initial ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen wird, wobei der mindestens eine Verzeichnungswert basierend auf einer Abweichungen des Bildes mit erweiterter Schärfentiefe zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt wird.
In a further embodiment of the second aspect, the method further comprises the following step:
  • - Determining the at least one distortion value for each pixel of the image with extended depth of field, wherein initially an image with extended depth of field of a calibration object, in particular a point grid, is recorded, the at least one distortion value being based on a deviation of the image with extended depth of field from a known surface profile of the calibration object is determined.

Auf diese Weise werden in einem initialen Schritt die Verzeichnungswerte für die Bildpunkte des Bildes mit erweiterter Schärfentiefe bestimmt. „Initial“ bedeutet, dass der Schritt des Bestimmens der Verzeichnungswerte vor dem Schritt des Erfassens der Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks erfolgt. Zur Bestimmung der Verzeichnungswerte wird zunächst ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts aufgenommen. Das Kalibrationsobjekt kann auch als Kalibrationsmaske bezeichnet werden. Das Kalibrationsobjekt hat vorzugsweise runde Strukturen. Insbesondere kann das Kalibrationsobjekt ein Punktgitter oder eine Lochmaske sein. Ein Punktgitter ist eine regemäßige Anordnung von Punkten. Insbesondere ist ein Punktgitter eine geometrische Struktur, bei dem Punkte in gleichen Abständen in zwei oder drei Raumrichtungen voneinander angeordnet sind. Im Falle von zwei Raumrichtungen stehen diese senkrecht aufeinander. Im Falle von drei Raumrichtungen sind diese paarweise in einen Winkel von 60° zueinander angeordnet. Jeder Punkt des Punktgitters hat eine räumliche Ausdehnung und ist vorzugsweise kreisrund. Jeder Punkt des Punktgitters kann durch eine Mehrzahl von Bildpunkten eines erfassten Bildes abgebildet werden. Jeder Punkt weist eine ebene Oberfläche auf. Das Oberflächenprofil des Punktgitters ist somit im Voraus bereits bekannt. Insbesondere kann das Punktgitter so auf dem Werkstückhalter angeordnet werden, dass die Punkte des Punktgitters in einer horizontalen Ebene liegen. Das Erzeugen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts, insbesondere des Punktgitters, erfolgt entsprechend dem Verfahren zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe, aber ohne dass der Verzeichnungsfehler korrigiert wird. Das aufgenommene Bild des Kalibrationsobjekts wird dann mit Hilfe von Verzeichnungsroutinen analysiert, um die Verzeichnung, insbesondere die Verzeichnungswerte, zu bestimmen. Insbesondere können die Verzeichnungswerte dadurch bestimmt werden, dass das aufgenommene Bild des Kalibrationsobjekts und/oder die dazugehörigen bestimmten Tiefenwerte mit dem bekannten Oberflächenprofil des Kalibrationsobjekts verglichen werden. Jeder bestimmte Verzeichnungswert kann insbesondere in einer elektronischen Speichereinheit gespeichert werden. Das Messgerät kann diese Speichereinheit aufweisen. Insbesondere können die Verzeichnungswerte in Form einer Tabelle („Look-Up-Table“) abgespeichert werden. Nachdem die Verzeichnungswerte bestimmt sind, kann dann das korrigierte Bild mit erweiterter Schärfentiefe des Werkstücks aufgenommen werden. Dabei können die Tiefenwerte der Objektpunkte mittels der bestimmten Verzeichnungswerte korrigiert werden. Auf diese Weise können die Verzeichnungswerte der Bildpunkte einfach bestimmt und korrigiert werden.In this way, in an initial step, the distortion values for the pixels of the image with an extended depth of field are determined. “Initial” means that the step of determining the distortion values occurs before the step of acquiring the plurality of images of the area of the surface of the workpiece. To determine the distortion values, an image with an extended depth of field of a calibration object is first recorded. The calibration object can also be called a calibration mask. The calibration object preferably has round structures. In particular, the calibration object can be a point grid or a shadow mask. A dot grid is a regular arrangement of points. In particular, a point grid is a geometric structure in which points are arranged at equal distances from one another in two or three spatial directions. In the case of two spatial directions, they are perpendicular to each other. In the case of three spatial directions, these are arranged in pairs at an angle of 60° to each other. Each point of the point grid has a spatial extent and is preferably circular. Each point of the point grid can be represented by a plurality of pixels of a captured image. Each point has a flat surface. The surface profile of the point grid is therefore already known in advance. In particular, the point grid can be arranged on the workpiece holder in such a way that the points of the point grid lie in a horizontal plane. The image with an extended depth of field of the calibration object, in particular the point grid, is generated in accordance with the method for generating a corrected image with an extended depth of field, but without the distortion error being corrected. The captured image of the calibration object is then analyzed using distortion routines to determine the distortion, in particular the distortion values. In particular, the distortion values can be determined by comparing the recorded image of the calibration object and/or the associated specific depth values with the known surface profile of the calibration object. Each specific distortion value can be stored in particular in an electronic storage unit. The measuring device can have this storage unit. In particular, the distortion values can be saved in the form of a table (“look-up table”). Once the distortion values have been determined, the corrected image can then be captured with an extended depth of field of the workpiece. The depth values of the object points can be corrected using the specific distortion values. In this way, the distortion values of the pixels can be easily determined and corrected.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Bestimmen des ersten Korrekturwerts und des zweiten Korrekturwerts für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe, wobei initial ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen wird, wobei der jeweilige Korrekturwert basierend auf Abweichungen des Bildes mit erweiterter Schärfentiefe oder der bestimmten Tiefenwerte der Objektpunkte des Kalibrationsobjekts zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt wird.
In a further embodiment of the second aspect, the method further comprises the following step:
  • - Determining the first correction value and the second correction value for each pixel of the image with extended depth of field, initially an image with extended depth of field of a calibration object, in particular a point grid, being recorded, the respective correction value being based on deviations of the image with extended depth of field or the specific one Depth values of the object points of the calibration object are determined to a known surface profile of the calibration object.

Zur Bestimmung des ersten Korrekturwerts und des zweiten Korrekturwerts wird jeder Punkt des Punktgitters einzeln betrachtet. Der erste und der zweite Korrekturwert können dann auf Basis einer Abweichung des berechneten Tiefenprofils gegenüber dem tatsächlichen Tiefenprofil des jeweiligen Punkts, das eine ebene Fläche ist, bestimmt werden. Zum Bestimmen der Korrekturwerte wird somit im Voraus, sprich initial, ein Bild mit erweiterter Schärfentiefe eines Punktgitters aufgenommen. Das Erzeugen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts, insbesondere des Punktgitters, erfolgt entsprechend dem Verfahren zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe, aber ohne den Schritt des Korrigierens der einen oder mehreren Abbildungsfehler. Jeder bestimmte Korrekturwert kann insbesondere in einer elektronischen Speichereinheit gespeichert werden. Das Messgerät kann diese Speichereinheit aufweisen. Nachdem die gewünschten Korrekturwerte bestimmt sind, kann dann das korrigierte Bild mit erweiterter Schärfentiefe des Werkstücks aufgenommen werden. Dabei können die Tiefenwerte der Objektpunkte mittels der bestimmten Korrekturwerte korrigiert werden. Auf diese Weise können die Korrekturwerte einfach bestimmt und korrigiert werden.To determine the first correction value and the second correction value, each point of the point grid is considered individually. The first and second correction values can then be determined based on a deviation of the calculated depth profile from the actual depth profile of the respective point, which is a flat surface. To determine the correction values, an image with an extended depth of field of a point grid is recorded in advance, i.e. initially. The generation of the image with an extended depth of field of the calibration object, in particular the point grid, is carried out in accordance with the method for generating a corrected image with an extended depth of field, but without the step of correcting the one or more imaging errors. Each specific correction value can be stored in particular in an electronic storage unit. The measuring device can have this storage unit. After the desired correction values have been determined, the corrected image can then be recorded with an extended depth of field of the workpiece. The depth values of the object points can be corrected using the specific correction values. In this way, the correction values can be easily determined and corrected.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Bestimmen der ersten und zweiten Korrekturwerte die folgenden Schritte auf:

  • - Bestimmen des ersten Korrekturwerts und des zweiten Korrekturwerts für jeden Punkt des Punktgitters basierend auf einer Kostenfunktion zwischen einem Astigmatismus-Modell und den Tiefenwerten des jeweiligen Punkts; und
  • - Interpolieren der ersten und zweiten Korrekturwerte basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters.
In a further embodiment of the second aspect, determining the first and second correction values comprises the following steps:
  • - determining the first correction value and the second correction value for each point of the point grid based on a cost function between an astigmatism model and the depth values of the respective point; and
  • - Interpolating the first and second correction values based on the first and second correction values of each point of the point grid.

Wie zuvor bereits beschrieben, wird jeder Punkt des Punktgitters mittels einer Mehrzahl von Bildpunkten eines erfassten Bildes abgebildet. Die Tiefenwerte jedes einzelnen Punkts können nach dem Erzeugen des korrigierten Bildes mit erweiterter Schärfentiefe des Punktgitters segmentiert werden. Dabei werden zunächst die Punkte des korrigierten Bildes mit erweiterter Schärfentiefe bestimmt, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Wie zuvor bereits beschrieben ist das Astigmatismus-Modell eine Anpassung der über den Kreisazimuth dargestellten Tiefenwertabweichung. Die angepasste Fitfunktion, beschrieben durch die Fit-Parameter, entsprechen dem ersten Korrekturwert und dem zweiten Korrekturwert des jeweiligen Punkts des Punktgitters. Insbesondere kann das Astigmatismus-Modell eine Linearkombination aus zwei radial-symmetrischen Sinus-Funktionen sein. Die Kostenfunktion wird dann nach den Koeffizienten der Sinus-Funktionen minimiert. Die Koeffizienten der Sinus-Funktionen entsprechen dem ersten Korrekturwert und dem zweiten Korrekturwert des jeweiligen Punkts des Punktgitters. Ausgehend von den bestimmten ersten und zweiten Korrekturwerten für jeden Punkt des Punktgitters werden die ersten und zweiten Korrekturwerte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe durch Interpolation basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters bestimmt.As previously described, each point of the point grid is imaged using a plurality of pixels of a captured image. The depth values of each individual point can be segmented after generating the corrected image with extended depth of field of the point grid. First, the points of the corrected image with an extended depth of field are determined, each of which is assigned to a point on the point grid and depicts it. As previously described, the astigmatism model is an adaptation of the depth value deviation represented by the circular azimuth. The adapted fit function, described by the fit parameters, correspond to the first correction value and the second correction value of the respective point of the point grid. In particular, the astigmatism model can be a linear combination of two radially symmetrical sine functions. The cost function is then minimized according to the coefficients of the sine functions. The coefficients of the sine functions correspond to the first correction value and the second correction value of the respective point of the point grid. Based on the determined first and second correction values for each point of the point grid, the first and second correction values for each point of the corrected image with extended depth of field are determined by interpolation based on the first and second correction values of each point of the point grid.

In einer weiteren Ausgestaltung des zweiten Aspekts weist das Verfahren des Weiteren den folgenden Schritt auf:

  • - Ausgeben des Bildes mit erweiterter Schärfetiefe und/oder der Kantenposition der Kante in dem Bildbereich des Bildes mit erweiterter Schärfentiefe mittels einer Ausgabeeinrichtung.
In a further embodiment of the second aspect, the method further comprises the following step:
  • - Outputting the image with extended depth of field and/or the edge position of the edge in the image area of the image with extended depth of field by means of an output device.

Die Ausgabeeinrichtung kann beispielsweise ein Display aufweisen, wobei das korrigierte Bild mit erweiterter Schärfentiefe auf dem Display dargestellt werden kann. Des Weiteren kann die Ausgabeeinrichtung dazu ausgebildet sein, das korrigierte Bild mit erweiterter Schärfentiefe an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben. Die elektronische Speichereinrichtung kann beispielsweise eine Speichermedium, insbesondere eine Festplatte, ein Flash-Speicher oder eine Cloud sein. Die weitere Vorrichtung kann beispielsweise das korrigierte Bild mit erweiterter Schärfentiefe verwenden, um weitere Prozesse durchzuführen. Das externe Display kann beispielsweise dazu ausgebildet sein, das korrigierte Bild mit erweiterter Schärfentiefe darzustellen.The output device can, for example, have a display, whereby the corrected image can be shown on the display with an extended depth of field. Furthermore, the output device can be designed to output the corrected image with an extended depth of field to an electronic storage device, to another device or to an external display. The electronic storage device can be, for example, a storage medium, in particular a hard drive, a flash memory or a cloud. The further device can, for example, use the corrected image with extended depth of field to carry out further processes. The external display can, for example, be designed to display the corrected image with an extended depth of field.

In einer weiteren Ausgestaltung des dritten Aspekts weist das Messgerät des Weiteren eine Antriebseinrichtung auf, wobei die Antriebseinrichtung dazu ausgebildet ist, den optischen Sensor und den Werkstückhalter in der Tiefenrichtung relativ zueinander zu bewegen, um einen Abstands zwischen dem Werkstück und dem optischen Sensor zu verändern.In a further embodiment of the third aspect, the measuring device further has a drive device, wherein the drive device is designed to move the optical sensor and the workpiece holder relative to one another in the depth direction in order to change a distance between the workpiece and the optical sensor.

Mittels der Antriebseinrichtung kann somit die Fokalebenenposition des optischen Sensors in der Tiefenrichtung relativ zu dem Werkstück eingestellt werden.By means of the drive device, the focal plane position of the optical sensor can thus be adjusted in the depth direction relative to the workpiece.

In einer weiteren Ausgestaltung des dritten Aspekts ist die Steuereinrichtung des Weiteren dazu eingerichtet, die folgenden Schritte, insbesondere vor dem Schritt des Erzeugens des korrigierten Bildes mit erweiterter Schärfentiefe, durchzuführen:

  • - Steuern der Antriebseinrichtung derart, dass ein Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird,
wobei der optischen Sensor derart gesteuert wird, dass die Mehrzahl von Bildern erfasst wird, während der Abstand zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks aus unterschiedlichen, definierten Abständen zu dem Werkstück in der Tiefenrichtung abbilden.In a further embodiment of the third aspect, the control device is further set up to carry out the following steps, in particular before the step of generating the corrected image with an extended depth of field:
  • - Controlling the drive device in such a way that a distance between the workpiece and the optical sensor is changed,
wherein the optical sensor is controlled such that the plurality of images are captured while changing the distance between the workpiece and the optical sensor, the images each representing the area of the surface of the workpiece from different, defined distances from the workpiece in the depth direction depict.

Auf diese Weise wird die Fokalebenenposition des optischen Sensors in der Tiefenrichtung relativ zu dem Werkstück verändert, während die Bilder aufgenommen werden, die den Fokalbildstapel bilden.In this way, the focal plane position of the optical sensor is changed in the depth direction relative to the workpiece while the images forming the focal image stack are captured.

Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It is understood that the features mentioned above and those to be explained below can be used not only in the combination specified in each case, but also in other combinations or alone, without departing from the scope of the present invention.

Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:

  • 1 eine schematische Ansicht eines Messgeräts;
  • 2 eine schematische Ansicht eines Verfahrens zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe;
  • 3 eine schematische Ansicht eines Verfahrens zum Aufnehmen eines korrigierten Bildes mit erweiterter Schärfentiefe;
  • 4 eine schematische Ansicht von Verfahrensschritten zur Bestimmung von Korrekturwerten;
  • 5 eine schematische Ansicht von Verfahrensschritten zur Bestimmung von Verzeichnungswerten;
  • 6A eine beispielhafte Ansicht eines Fokalbildstapels;
  • 6B eine Ansicht eines Diagramms zur Darstellung von bestimmten Schärfewerten entlang der Tiefenrichtung;
  • 6C eine Ansicht eines Diagramms zur Darstellung des Einpassens einer Funktion an bestimmte Schärfewerte entlang der Tiefenrichtung;
  • 6D eine beispielhafte Ansicht eines Bildes mit erweiterter Schärfetiefe;
  • 7 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf eine gekrümmte Bildebene unter dem Einfluss von Bildfeldkrümmung;
  • 8 eine beispielhafte Ansicht zur Darstellung von Astigmatismus einer Linse;
  • 9 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf gekrümmte Bildebenen unter dem Einfluss von Astigmatismus;
  • 10 eine beispielhafte Ansicht zur Darstellung einer Abbildung auf gekrümmte Bildebenen unter dem Einfluss von Bildfeldkrümmung und Astigmatismus;
  • 11 eine beispielhafte Ansicht zur Darstellung von verschiedenen Bildebenen bei der Aufnahme eines Bildes mit erweiterter Schärfentiefe unter dem Einfluss von Bildfeldkrümmung;
  • 12 eine beispielhafte Ansicht zur Darstellung von verschiedenen Bildebenen bei der Aufnahme eines Bildes mit erweiterter Schärfentiefe unter dem Einfluss von Bildfeldkrümmung und Astigmatismus;
  • 13A eine Ansicht einer Tiefenkarte ohne Korrektur des Astigmatismus-Fehlers;
  • 13B eine Ansicht eines Bildes mit erweiterter Schärfentiefe ohne Korrektur des Astigmatismus-Fehlers;
  • 14A eine Ansicht einer Tiefenkarte mit Korrektur des Astigmatismus-Fehlers;
  • 14B eine Ansicht eines Bildes mit erweiterter Schärfentiefe mit Korrektur des Astigmatismus-Fehlers;
  • 15A eine Ansicht einer Darstellung eines Punktgitters;
  • 15B eine Ansicht eines 3D-Diagrams zur Darstellung der schärfsten Bildpunkte des Randes eines Punktes des Punktgitters aus 15A;
  • 15C eine Ansicht eines Diagramms zur Darstellung der Tiefenwerte der schärfsten Bildpunkte aus 15B über dem jeweiligen Kantenorientierungswinkel.
  • 16A eine Ansicht eines ersten Diagramms gemäß einem ersten Beispiel, in dem das Einpassens einer Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist;
  • 16B eine Ansicht eines zweiten Diagramms gemäß dem ersten Beispiel, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist;
  • 16C eine Ansicht eines dritten Diagramms gemäß dem ersten Beispiel, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist;
  • 17A eine Ansicht eines ersten Diagramms gemäß einem zweiten Beispiel, in dem das Einpassens einer Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist;
  • 17B eine Ansicht eines zweiten Diagramms gemäß dem zweiten Beispiel, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist;
  • 17C eine Ansicht eines dritten Diagramms gemäß dem zweiten Beispiel, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist;
  • 18 eine erste beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gerade Kante verläuft, die Projektion der Bildpunkte des Bildbereichs auf eine Normalen-Richtung, und ein darauf basierendes Kantenprofil;
  • 19 eine zweite beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante verläuft;
  • 20A eine dritte beispielhafte Ansicht eines Bildbereichs eines Bildes mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante mit konstanter Krümmung verläuft;
  • 20B eine beispielhafte Ansicht eines Diagramms, in dem ein Kantenprofil der Kante aus dem Bild aus 20 in radialer Richtung dargestellt ist;
  • 21 eine schematische Ansicht eines Verfahrens zum Lokalisieren einer Kantenposition einer Kante in einem Bildbereich eines Bildes mit erweiterter Schärfentiefe;
  • 22 eine schematische Ansicht eines Verfahrens zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;
  • 23 Ansichten von Diagrammen eines ersten Beispiels zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;
  • 24 Ansichten von Diagrammen eines zweiten Beispiels zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe;
  • 25A eine Ansicht einer Kantenmessung in einem Bild mittels der Slanted-Edge-Methode;
  • 25B einen Ausschnitt eines Kantenbereichs aus 25A;
  • 26A eine Ansicht einer Kantenmessung in einem Bild mittels der erfindungsgemäßen Methode;
  • 26B einen Ausschnitt eines Kantenbereichs aus 26A;
  • 27 eine Darstellung eines Bildes eines Werkstücks mit mehreren Kreisstrukturen;
  • 28 eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der 27 auf Basis eines korrigierten Bildes mit erweiterter Schärfentiefe;
  • 29A eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der 27 auf Basis eines unkorrigierten Bildes in der sagittalen Einstellebene; und
  • 29B eine Darstellung der Rundheitsmessung der einzelnen Kreisstrukturen aus dem Bild der 27 auf Basis eines unkorrigierten Bildes in der tangentialen Einstellebene.
Exemplary embodiments of the invention are shown in the drawing and are explained in more detail in the following description. Show it:
  • 1 a schematic view of a measuring device;
  • 2 a schematic view of a method for generating a corrected image with extended depth of field;
  • 3 a schematic view of a method for capturing a corrected image with extended depth of field;
  • 4 a schematic view of method steps for determining correction values;
  • 5 a schematic view of process steps for determining distortion values;
  • 6A an exemplary view of a focal image stack;
  • 6B a view of a diagram showing certain sharpness values along the depth direction;
  • 6C a view of a diagram showing the fitting of a function to certain sharpness values along the depth direction;
  • 6D an exemplary view of an image with extended depth of field;
  • 7 an exemplary view for displaying an image on a curved image plane under the influence of image field curvature;
  • 8th an exemplary view showing astigmatism of a lens;
  • 9 an exemplary view for displaying an image on curved image planes under the influence of astigmatism;
  • 10 an exemplary view for displaying an image on curved image planes under the influence of field curvature and astigmatism;
  • 11 an exemplary view for displaying different image planes when recording an image with an extended depth of field under the influence of field curvature;
  • 12 an exemplary view for displaying different image planes when recording an image with an extended depth of field under the influence of field curvature and astigmatism;
  • 13A a view of a depth map without astigmatism error correction;
  • 13B a view of an image with extended depth of field without correction of astigmatism error;
  • 14A a view of a depth map with astigmatism error correction;
  • 14B a view of an image with extended depth of field with astigmatism error correction;
  • 15A a view of a representation of a dot grid;
  • 15B a view of a 3D diagram to display the sharpest image points of the edge of a point on the point grid 15A ;
  • 15C a view of a diagram showing the depth values of the sharpest image points 15B over the respective edge orientation angle.
  • 16A a view of a first diagram according to a first example, in which the fitting of a fit function to the depth values of the sharpest image points of the edge of a point of a point grid is shown;
  • 16B a view of a second diagram according to the first example, in which the spatial distribution of the depth values in the image plane (xy plane) is shown;
  • 16C a view of a third diagram according to the first example, in which the spatial distribution of corrected depth values in the image plane (xy plane) is shown;
  • 17A a view of a first diagram according to a second example, in which the fitting of a fit function to the depth values of the sharpest image points of the edge of a point of a point grid is shown;
  • 17B a view of a second diagram according to the second example, in which the spatial distribution of the depth values in the image plane (xy plane) is shown;
  • 17C a view of a third diagram according to the second example, in which the spatial distribution of corrected depth values in the image plane (xy plane) is shown;
  • 18 a first exemplary view of an image area of an image with an extended depth of field in which a straight edge runs, the projection of the image points of the image area onto a normal direction, and an edge profile based thereon;
  • 19 a second exemplary view of an image region of an extended depth of field image in which a curved edge extends;
  • 20A a third exemplary view of an image region of an extended depth of field image in which a curved edge of constant curvature extends;
  • 20B an example view of a diagram showing an edge profile of the edge from the image 20 is shown in the radial direction;
  • 21 a schematic view of a method for locating an edge position of an edge in an image region of an extended depth of field image;
  • 22 a schematic view of a method for edge localization in an image with extended depth of field;
  • 23 Views of diagrams of a first example of edge localization in an image with extended depth of field;
  • 24 Views of diagrams of a second example of edge localization in an image with extended depth of field;
  • 25A a view of an edge measurement in an image using the slanted edge method;
  • 25B a section of an edge area 25A ;
  • 26A a view of an edge measurement in an image using the method according to the invention;
  • 26B a section of an edge area 26A ;
  • 27 a representation of an image of a workpiece with multiple circular structures;
  • 28 a representation of the roundness measurement of the individual circular structures from the image 27 based on a corrected image with extended depth of field;
  • 29A a representation of the roundness measurement of the individual circular structures from the image 27 based on an uncorrected image in the sagittal adjustment plane; and
  • 29B a representation of the roundness measurement of the individual circular structures from the image 27 based on an uncorrected image in the tangential adjustment plane.

In den 18 bis 26 werden Ausführungsbeispiele zur Kantenlokalisierung von Kanten in einem Bild beschrieben. In den 1 bis 17 werden verschiedene Ausführungsbeispiele zum Erzeugen und zum Aufnehmen eines Bildes mit erweiterter Schärfentiefe beschrieben, auf Basis dessen dann eine Kantenlokalisierung durchgeführt werden kann. Das beschriebene Verfahren zur Kantenlokalisierung von Kanten in einem Bild kann grundsätzlich auch auf Einzelbilder, sprich auf Bilder ohne erweiterte Schärfentiefe, angewandt werden.In the 18 until 26 Examples of embodiments for edge localization of edges in an image are described. In the 1 until 17 Various exemplary embodiments for generating and recording an image with an extended depth of field are described, on the basis of which edge localization can then be carried out. The described method for edge localization of edges in an image can in principle also be applied to individual images, i.e. to images without an extended depth of field.

1 zeigt ein Messgerät 10. Das Messgerät kann ein Mikroskop oder ein Koordinatenmessgerät sein. Das Messgerät 10 dient zum Vermessen eines Werkstücks 12. Hierzu weist das Messgerät 10 einen optischen Sensor 14 auf. In Ergänzung zu dem optischen Sensor 14 können selbstverständlich noch weitere Sensoren vorgesehen sein, beispielsweise taktile Sensoren, die jedoch in der vorliegenden schematischen Ansicht nicht dargestellt sind. 1 shows a measuring device 10. The measuring device can be a microscope or a coordinate measuring machine. The measuring device 10 is used to measure a workpiece 12. For this purpose, the measuring device 10 has an optical sensor 14. In addition to the optical sensor 14, other sensors can of course be provided, for example tactile sensors, which, however, are not shown in the present schematic view.

Der optische Sensor 14 kann ein optisches System 30 und einen Bildsensor aufweisen. Das optische System 30 bildet einen Bereich der Oberfläche des Werkstücks 12 auf den Bildsensor ab. Der optische Sensor 14 kann mittels des Bildsensors ein Bild des Bereichs der Oberfläche des Werkstücks 12 erfassen.The optical sensor 14 may include an optical system 30 and an image sensor. The optical system 30 images a region of the surface of the workpiece 12 onto the image sensor. The optical sensor 14 can capture an image of the area of the surface of the workpiece 12 using the image sensor.

Des Weiteren kann das Messgerät 10 eine Beleuchtungseinrichtung 32 aufweisen. Die Beleuchtungseinrichtung ist dazu ausgebildet, zumindest den Bereich der Oberfläche des Werkstücks 12 zu beleuchten.Furthermore, the measuring device 10 can have a lighting device 32. The lighting device is designed to illuminate at least the area of the surface of the workpiece 12.

Das zu vermessende Werkstück 12 ist auf einem Werkstückhalter 16 angeordnet. Der Werkstückhalter 16 kann ein Messtisch, ein Werktisch oder ein Objekttisch sein. In der dargestellten Ansicht ist der Werkstückhalter 16 in einer X-Y-Ebene eines Koordinatensystems 18 ausgerichtet. Senkrecht zu dem Werkstückhalter 16 erstreckt sich eine Z-Richtung 20. Die Z-Richtung 20 ist eine Tiefenrichtung. Ein Abstand zwischen dem optischen Sensor 14 und dem Werkstück 12 in der Tiefenrichtung 20 ist mit einem Bezugszeichen 22 gekennzeichnet. Ein Abstand zwischen dem optischen Sensor 14 und dem Werkstückhalter 16 in der Tiefenrichtung 20 ist mit einem Bezugszeichen 34 gekennzeichnet. Der optische Sensor 14 und der Werkstückhalter 16 sind relativ zueinander bewegbar. Auf diese Weise kann der Abstand 34 verändert werden. Da das Werkstück 12 auf dem Werkstückhalter 16 angeordnet ist, ändert sich der Abstand 22 entsprechend dem Abstand 34. Grundsätzlich kann hierzu vorgesehen sein, dass der Werkstückhalter 16 in der Tiefenrichtung 20 bewegbar ist und/oder der optische Sensor 14, beispielsweise mittels einer geeigneten Mechanik 24, in der Tiefenrichtung 20 bewegbar ist.The workpiece 12 to be measured is arranged on a workpiece holder 16. The workpiece holder 16 can be a measuring table, a work table or an object table. In the view shown, the workpiece holder 16 is aligned in an XY plane of a coordinate system 18. A Z direction 20 extends perpendicular to the workpiece holder 16. The Z direction 20 is a depth direction. A distance between the optical sensor 14 and the workpiece 12 in the depth direction 20 is marked with a reference numeral 22. A distance between the optical sensor 14 and the workpiece holder 16 in the depth direction 20 is marked with a reference number 34. The optical sensor 14 and the workpiece holder 16 are movable relative to one another. In this way, the distance 34 can be changed. Since the workpiece 12 is arranged on the workpiece holder 16, the distance 22 changes according to the distance 34. In principle, it can be provided for this that the workpiece holder 16 is movable in the depth direction 20 and / or the optical sensor 14, for example by means of a suitable mechanism 24, is movable in the depth direction 20.

Das Messgerät 10 kann des Weiteren eine Antriebseinrichtung 28 aufweisen. Die Antriebseinrichtung 28 ist dazu ausgebildet, den Werkstückhalter 16 und den optischen Sensor 14 relativ zueinander in der Tiefenrichtung 20 zu bewegen. Vorzugsweise ist die Antriebseinrichtung 28 dazu ausgebildet, den Werkstückhalter 16 relativ zu dem optischen Sensor 14 in der Tiefenrichtung 20 zu bewegen. Alternativ kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, den optischen Sensor 14 relativ zu dem Werkstückhalter 16 in der Tiefenrichtung 20 zu bewegen. Selbstverständlich kann die Antriebseinrichtung 28 auch dazu ausgebildet sein, sowohl den optische Sensor 14 als auch den Werkstückhalter 16 in der Tiefenrichtung 20 zu bewegen.The measuring device 10 can also have a drive device 28. The drive device 28 is designed to move the workpiece holder 16 and the optical sensor 14 relative to one another in the depth direction 20. The drive device 28 is preferably designed to move the workpiece holder 16 relative to the optical sensor 14 in the depth direction 20. Alternatively, the drive device 28 can also be designed to move the optical sensor 14 relative to the workpiece holder 16 in the depth direction 20. Of course, the drive device 28 can also be designed to move both the optical sensor 14 and the workpiece holder 16 in the depth direction 20.

Das Messgerät 10 weist des Weiteren eine Steuereinrichtung 26 auf. Die Steuereinrichtung 26 ist dazu eingerichtet, die einzelnen Komponenten des Messgeräts zu steuern und Daten zu verarbeiten. Die Steuereinrichtung 26 kann dazu beispielsweise verschiedene Untereinheiten aufweisen, die jeweils eine Steuerung einer Komponente und/oder eine Verarbeitung von Daten durchführen. Beispielsweise kann die Steuereinrichtung 26 eine Regelungseinheit aufweisen, die die Antriebseinrichtung 28, den optischen Sensor 14 und/oder die Beleuchtungseinrichtung 32 steuert. Des Weiteren kann die Steuereinrichtung 26 eine Datenverarbeitungseinheit aufweisen, die dazu eingerichtet ist, die Auswertung von erfassten Bildern des optischen Sensors durchzuführen. Die Datenverarbeitungseinheit kann beispielsweise auf Basis einer Mehrzahl von Bildern, die einen Fokalbildstapel bilden, ein Bild mit erweiterter Schärfentiefe eines Bereichs der Oberfläche des Werkstücks 12 erzeugen. Des Weiteren kann die Datenverarbeitungseinheit beispielsweise eine Kantenposition einer Kante in einem Bildbereich des erzeugten Bildes mit erweiterter Schärfentiefe lokalisieren bzw. bestimmen.The measuring device 10 also has a control device 26. The control device 26 is set up to control the individual components of the measuring device and to process data. For this purpose, the control device 26 can, for example, have various subunits, each of which controls a component and/or processes data. For example, the control device 26 can have a control unit that controls the drive device 28, the optical sensor 14 and/or the lighting device 32. Furthermore, the control device 26 can have a data processing unit that is set up to carry out the evaluation of captured images of the optical sensor. The data processing unit can, for example, generate an image with an extended depth of field of a region of the surface of the workpiece 12 based on a plurality of images that form a focal image stack. Furthermore, the data processing unit can, for example, localize or determine an edge position of an edge in an image area of the generated image with an extended depth of field.

Die Steuereinrichtung 26 kann mit einem nichtflüchtigen Datenspeicher, in dem ein Computerprogramm gespeichert ist, verbunden sein oder diesen aufweisen. Bei manchen Ausführungsbeispielen ist die Steuereinrichtung 26 ein Mehrzweckcomputer, wie etwa ein handelsüblicher Personal Computer, der unter Windows®, Linux oder MacOS läuft, und das Computerprogramm aus dem Speicher weist einen Programmcode auf, der zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Bei einem alternativen Ausführungsbeispiel ist die Steuereinrichtung 26 ein logischer Schaltkreis, wie etwa ein vor Ort programmierbares Gate-Array (FPGA: Field Programmable Gate Array), ein anwendungsspezifischer integrierter Schaltkreis (ASIC: Application-Specific Integrated Circuit), ein Mikrocontroller oder ein beliebiger anderer angemessener programmierbarer elektrischer Schaltkreis. Darin können die Ausführungsformen des neuen Verfahrens, insbesondere Steuer- und Bestimmungsschritte, mit dem logischen Schaltkreis implementiert werden, sodass der logische Schaltkreis zum Implementieren von Ausführungsformen des neuen Verfahrens in Kombination mit dem optischen Sensor 14 und der Antriebseinrichtung 28 gestaltet und ausgebildet ist. Zum Implementieren von Ausführungsformen des neuen Verfahrens in dem logischen Schaltkreis kann eine beliebige angemessene Programmiersprache oder Hardwarebeschreibungssprache verwendet werden, wie etwa C, VHDL und dergleichen.The control device 26 can be connected to or have a non-volatile data memory in which a computer program is stored. In some embodiments, the controller 26 is a general-purpose computer, such as a commercially available personal computer running Windows®, Linux, or MacOS, and the computer program in memory includes program code used to implement embodiments of the new method in combination with the optical Sensor 14 and the drive device 28 are designed and formed. In an alternative embodiment, the controller 26 is a logic circuit, such as a field programmable gate array (FPGA), an application-specific integrated circuit (ASIC), a microcontroller, or any other appropriate programmable electrical circuit. Therein, the embodiments of the new method, in particular control and determination steps, can be implemented with the logic circuit, so that the logic circuit is designed and designed to implement embodiments of the new method in combination with the optical sensor 14 and the drive device 28. Any suitable programming language or hardware description language may be used to implement embodiments of the new method in the logic circuit, such as C, VHDL, and the like.

Des Weiteren kann das Messgerät 10 eine Ausgabeeinrichtung 36 aufweisen. Die Ausgabeeinrichtung 36 ist dazu eingerichtet, das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition auszugeben. Insbesondere kann die Ausgabeeinrichtung 36 dazu eingerichtet sein, die lokalisierte Kantenposition auszugeben. Die Ausgabeeinrichtung 36 kann beispielsweise ein Display aufweisen, auf dem das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition dargestellt werden kann. Alternativ oder zusätzlich kann die Ausgabeeinrichtung 36 dazu ausgebildet sein, das Bild mit erweiterter Schärfentiefe, das erzeugte Kantenprofil und/oder die lokalisierte Kantenposition an eine elektronische Speichereinrichtung, an eine weitere Vorrichtung oder an ein externes Display auszugeben.Furthermore, the measuring device 10 can have an output device 36. The output device 36 is set up to output the image with extended depth of field, the generated edge profile and/or the localized edge position. In particular, the output device 36 can be set up to output the localized edge position. The output device 36 can, for example, have a display on which the image with an extended depth of field, the generated edge profile and/or the localized edge position can be displayed. Alternatively or additionally, the output device 36 can be designed to output the image with extended depth of field, the generated edge profile and/or the localized edge position to an electronic storage device, to another device or to an external display.

Darüber hinaus kann das Messgerät 10 auch ein Eingabegerät aufweisen, mit dem ein Nutzer beispielsweise die Anzahl und Abstände bzw. Schrittweite der zu erfassenden Bilder in das Koordinatenmessgerät 10 eingeben kann oder den optischen Sensor 14 manuell bewegen kann.In addition, the measuring device 10 can also have an input device with which a user can, for example, enter the number and distances or step sizes of the images to be captured into the coordinate measuring device 10 or can move the optical sensor 14 manually.

Bevor ein Bereich einer Oberfläche des Werkstücks 12 aufgenommen wird, kann vorgesehen sein, dass ein Nutzer die Anzahl der zu erfassenden Bilder sowie die Schrittweite oder Abstände 22, in der die Bilder erfasst werden sollen, eingibt. Alternativ kann die Anzahl der zu erfassenden Bilder sowie die Schrittweite oder Abstände 22, in der die Bilder erfasst werden sollen, vordefiniert bzw. fest vorgegeben sein. Zum Aufnehmen des Bereichs der Oberfläche des Werkstücks 12 steuert die Steuereinrichtung 26 dann die Antriebseinrichtung 28 derart, dass der Abstand 22 zwischen dem Werkstück 12 und dem optischen Sensor 14 entsprechend der Voreinstellung verändert wird. Gleichzeitig steuert die Steuereinrichtung 26 den optischen Sensor 14 derart, dass eine Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks 12 entsprechend der Voreinstellung erfasst wird, während der Abstand 22 verändert wird. Jedes Bild wird dabei mit einem anderen Abstand 22 zu dem Werkstück 12 erfasst. Die Mehrzahl von Bildern bildet dann einen Fokalbildstapel. Der Fokalbildstapel wird dann von der Steuereinrichtung 26 ausgewertet, um das Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 zu erzeugen. In diesem Bild mit erweiterter Schärfentiefe kann dann eine Kantenposition einer Kante in einem Bildbereich des Bildes lokalisiert werden.Before an area of a surface of the workpiece 12 is recorded, it can be provided that a user enters the number of images to be captured as well as the step size or distances 22 at which the images are to be captured. Alternatively, the number of images to be captured and the step size or distances 22 at which the images are to be captured can be predefined or fixed. To record the area of the surface of the workpiece 12, the control device 26 then controls the drive device 28 in such a way that the distance 22 between the workpiece 12 and the optical sensor 14 is changed in accordance with the presetting. At the same time, the control device 26 controls the optical sensor 14 such that a plurality of images of the area of the surface of the workpiece 12 are captured according to the presetting while the distance 22 is changed. Each image is captured at a different distance 22 from the workpiece 12. The majority of images then form a focal image stack. The focal image stack is then evaluated by the control device 26 to generate the image with an extended depth of field of the area of the surface of the workpiece 12. In this image with extended depth of field, an edge position of an edge in an image area of the image can then be localized.

2 zeigt ein computerimplementiertes Verfahren 40 zum Erzeugen eines, insbesondere korrigierten, Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche des Werkstücks 12. Das Verfahren kann beispielsweise mittels der Steuereinrichtung 26 durchgeführt werden. 2 shows a computer-implemented method 40 for generating an, in particular corrected, image with an extended depth of field of a region of a surface of the workpiece 12. The method can be carried out using the control device 26, for example.

In einem ersten Schritt 42 des Verfahrens 40 wird ein Fokalbildstapel empfangen. Der Fokalbildstapel weist eine Mehrzahl von Bildern des Werkstücks 12 auf, wobei die Bilder den Bereich der Oberfläche des Werkstücks 12 mit in einer Tiefenrichtung unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenposition zugeordnet ist. Jedes Bild weist Bildpunkte auf. Die Bildpunkte der Bilder sind jeweils einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks 12 zugeordnet.In a first step 42 of the method 40, a focal image stack is received. The focal image stack has a plurality of images of the workpiece 12, the images imaging the area of the surface of the workpiece 12 with defined focal plane positions that are different in a depth direction, a focal plane position being assigned to each image of the focal image stack. Each image has pixels. The pixels of the images are each assigned to a corresponding object point on the surface of the workpiece 12.

Vorzugsweise bilden die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 aus unterschiedlichen, definierten Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 ab. Jedem Bild des Fokalbildstapels ist dabei ein Abstand 22 zugeordnet. Da die Bilder in unterschiedlichen Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 erfasst werden, ist jedem Bild des Fokalbildstapels ein Tiefenwert in der Tiefenrichtung 20 zugeordnet. Insbesondere folgen die Tiefenwerte der Bilder in diskreten Schritten aufeinander.Preferably, the images each depict the area of the surface of the workpiece 12 from different, defined distances 22 from the workpiece 12 in the depth direction 20. A distance 22 is assigned to each image of the focal image stack. Since the images are captured at different distances 22 from the workpiece 12 in the depth direction 20, each image of the focal image stack is assigned a depth value in the depth direction 20. In particular, the depth values of the images follow one another in discrete steps.

Alternativ bilden die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 mit unterschiedlichen, definierten Fokusstellungen, sprich unterschiedlichen Fokalbildebenen, ab. Dabei kann jeder Fokusstellung bzw. Einstellung des Fokusabstands des Objektivs des optischen Sensors ein Tiefenwert in der Tiefenrichtung 20 zugeordnet sein, der dem Abstand zu der Fokalebene in der jeweiligen Fokusstellung bzw. Einstellung entspricht. Der Abstand des optischen Sensors 14 zu dem Werkstück 12 kann dabei konstant bleiben.Alternatively, the images each depict the area of the surface of the workpiece 12 with different, defined focus positions, i.e. different focal image planes. Each focus position or setting of the focus distance of the lens of the optical sensor can be assigned a depth value in the depth direction 20, which corresponds to the distance to the focal plane in the respective focus position or setting. The distance between the optical sensor 14 and the workpiece 12 can remain constant.

In 6A sind exemplarisch vier Bilder eines Fokalbildstapels dargestellt, wobei den Bildern unterschiedliche Tiefenwerte (Lage in z-Richtung) zugeordnet sind.In 6A Four images of a focal image stack are shown as an example, with different depth values (position in the z direction) being assigned to the images.

In einem weiteren optionalen Schritt 44 des Verfahrens 40 wird ein Schärfewert jedes Bildpunkts jedes Bildes des Fokalbildstapels bestimmt. Die Schärfewerte der Bildpunkte werden auf Basis einer Schärfe jedes Bildpunkts bestimmt. Dazu wird für jeden Bildpunkt ein Gradient der Helligkeit, eines Grau-Werts oder eines Kontrastwerts zu den umgebenden Bildpunkten des entsprechenden Bildes bestimmt. Auf diese Weise ist jedem Bildpunkt jedes Bildes aus dem Fokalbildstapel ein Schärfewert zugeordnet. Da jedem Bild ein Tiefenwert in der Tiefenrichtung 20 zugeordnet ist, ist entsprechend jedem Bildpunkt des jeweiligen Bildes auch derselbe Tiefenwert zugeordnet. Mit anderen Worten sind jedem Bildpunkt ein Tiefenwert und ein Schärfewert zugeordnet.In a further optional step 44 of method 40, a sharpness value of each pixel of each image of the focal image stack is determined. The sharpness values of the pixels are determined based on a sharpness of each pixel. For this purpose, a gradient of brightness, a gray value or a contrast value relative to the surrounding pixels of the corresponding image is determined for each pixel. In this way, each pixel of each image from the focal image stack is assigned a sharpness value. Since each image is assigned a depth value in the depth direction 20, the same depth value is assigned to each pixel of the respective image. In other words, each pixel is assigned a depth value and a sharpness value.

Wie eingangs erläutert, ist jedem Objektpunkt aus jedem Bild je ein Bildpunkt zugeordnet. In 6B sind die Schärfewerte f(z) der Bildpunkte dargestellt, die demselben Objektpunkt zugeordnet sind. Da die Bildpunkte aus unterschiedlichen Bildern des Fokalbildstapels kommen, sind den Bildpunkten (und somit auch ihren Schärfewerten) unterschiedliche Tiefenwerte zugeordnet. 6B zeigt die Verteilung dieser Schärfewerte entlang der Tiefenrichtung (z-Richtung).As explained at the beginning, one image point is assigned to each object point from each image. In 6B the sharpness values f(z) of the image points that are assigned to the same object point are shown. Since the pixels come from different images of the focal image stack, the pixels (and thus also their sharpness values) are assigned different depth values. 6B shows the distribution of these sharpness values along the depth direction (z-direction).

In einem weiteren optionalen Schritt 46 des Verfahrens 40 wird jeweils eine Funktion entlang der Tiefenrichtung 20 an die Schärfewerte derjenigen Bildpunkte der Bilder eingepasst, die demselben Objektpunkt zugeordnet sind. Die Funktion beschreibt eine Zuordnung, bei der jedem Tiefenwert in der Tiefenrichtung ein entsprechender Schärfewert zugeordnet ist. Vorzugsweise ist die Funktion eine Gauß-Funktion. Alternativ können auch andere Funktionen wie beispielsweise eine parabolische Funktion zum Einpassen verwendet werden. Vorzugsweise ist die Funktion achsensymmetrisch bezüglich eines Maximums. Von der eingepassten Funktion können ein Maximum und ein Residuum bestimmt werden.In a further optional step 46 of the method 40, a function along the depth direction 20 is fitted to the sharpness values of those pixels of the images that are assigned to the same object point. The function describes an assignment in which each depth value in the depth direction is assigned a corresponding sharpness value. Preferably the function is a Gaussian function. Alternatively, other functions such as a parabolic function can also be used for fitting. Preferably the function is axisymmetric with respect to a maximum. A maximum and a residual can be determined from the fitted function.

Das Einpassen einer Funktion entlang der Tiefenrichtung 20 an die Schärfewerte derjenigen Bildpunkte der Bilder, die demselben Objektpunkt zugeordnet sind, ist in 6C dargestellt. 6C zeigt insbesondere das Diagramm der 6B, wobei zusätzlich eine Funktion entlang der Tiefenrichtung an die Schärfewerte angepasst ist. 6D zeigt exemplarisch ein Bild mit erweiterter Schärfentiefe, das auf Grundlage der 6A bis 6C erzeugt ist.Fitting a function along the depth direction 20 to the sharpness values of those pixels of the images that are assigned to the same object point is in 6C shown. 6C shows in particular the diagram of 6B , whereby a function along the depth direction is also adapted to the sharpness values. 6D shows an example of an image with an extended depth of field, which is based on the 6A until 6C is generated.

In einem weiteren optionalen Schritt 48 des Verfahrens 40 wird der Tiefenwert jedes Objektpunkts auf der Oberfläche des Werkstücks 12 in der Tiefenrichtung 20 basierend auf den bestimmten Schärfewerten bestimmt.In a further optional step 48 of the method 40, the depth value of each object point on the surface of the workpiece 12 in the depth direction 20 is determined based on the determined sharpness values.

Beispielsweise kann der Tiefenwert jedes Objektpunkts basierend auf dem Maximum der jeweils eingepassten Funktion bestimmt. Das Maximum hat eine Lage, sprich einen Tiefenwert, in der Tiefenrichtung, wobei dieser Tiefenwert als Tiefenwert für den Objektpunkt bestimmt wird.For example, the depth value of each object point can be determined based on the maximum of the respective fitted function. The maximum has a position, i.e. a depth value, in the depth direction, this depth value being determined as the depth value for the object point.

Alternativ kann der Tiefenwert jedes Objektpunkts basierend auf dem Maximum und dem Residuum der jeweils eingepassten Funktion bestimmt. Das Residuum ist ein Maß dafür, wie stark die Funktion von den ermittelten Schärfewerten abweicht. Das Residuum gibt somit die Qualität des Fits an. Für jeden Objektpunkt, für den das Residuum der entsprechenden, eingepassten Funktion größer als ein definierter Schwellwert ist, wird der Tiefenwert basierend auf einem Maximum der entsprechenden, eingepassten Funktion bestimmt. Für jeden Objektpunkt, für den das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist, wird der Tiefenwert durch Interpolation der Tiefenwerte von mindestens zwei benachbarten Objektpunkten bestimmt wird. Insbesondere kann hierzu zunächst für alle Objektpunkte der Tiefenwert basierend auf den Maxima der eingepassten Funktionen bestimmt werden, wobei für die Objektpunkte, für die das Residuum der entsprechenden, eingepassten Funktion gleich oder kleiner als der definierte Schwellwert ist, die Tiefenwerte wieder verworfen werden und durch Interpolation der Tiefenwerte benachbarter Objektpunkte bestimmt werden.Alternatively, the depth value of each object point can be determined based on the maximum and residual of the respective fitted function. The residual is a measure of how much the function deviates from the determined sharpness values. The residual therefore indicates the quality of the fit. For each object point for which the residual of the corresponding fitted function is greater than a defined threshold, the depth value determined based on a maximum of the corresponding fitted function. For each object point for which the residual of the corresponding fitted function is equal to or smaller than the defined threshold value, the depth value is determined by interpolating the depth values of at least two neighboring object points. In particular, the depth value can first be determined for all object points based on the maxima of the fitted functions, with the depth values being discarded again for the object points for which the residual of the corresponding fitted function is equal to or smaller than the defined threshold value and by interpolation the depth values of neighboring object points can be determined.

Die bestimmten Tiefenwerte der Objektpunkte bilden eine Tiefenkarte des Bereichs der Oberfläche des Werkstücks 12.The determined depth values of the object points form a depth map of the area of the surface of the workpiece 12.

In einem weiteren Schritt 50 des Verfahrens 40 wird ein Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 basierend auf den bestimmten Tiefenwerten jedes Objektpunkts und den Bildern des Fokalbildstapels erzeugt. Mit anderen Worten wird das Bild mit erweiterter Schärfentiefe auf Basis der Tiefenkarte und des Fokalbildstapels erzeugt. Das Bild mit erweiterter Schärfentiefe, das auf Grundlage der 6A bis 6C erzeugt ist, ist in der 6D exemplarisch dargestelltIn a further step 50 of the method 40, an image with extended depth of field of the area of the surface of the workpiece 12 is generated based on the determined depth values of each object point and the images of the focal image stack. In other words, the image with extended depth of field is generated based on the depth map and the focal image stack. The extended depth of field image created based on the 6A until 6C is generated is in the 6D shown as an example

In einem weiteren, optionalen Schritt 52 des Verfahrens 40 werden ein oder mehrere Abbildungsfehler in dem Bild mit erweiterter Schärfentiefe korrigiert. Die zu korrigierenden Abbildungsfehler können einen Verzeichnungsfehler und ein Astigmatismus-Fehler aufweisen. Zur Korrektur der Abbildungsfehler können die Lage der Bildpunkte senkrecht zu der Tiefenrichtung und/oder die Tiefenwerte der Objektpunkte, sprich die Tiefenkarte, korrigiert werden. Bei Korrektur der Tiefenwerte der Objektpunkte wird dann das Bild mit erweiterter Schärfentiefe basierend auf den korrigierten Tiefenwerten und dem Fokalbildstapel korrigiert bzw. neu erzeugt. Vorzugsweise wird der Verzeichnungsfehler korrigiert, nachdem der Astigmatismus-Fehler korrigiert wurde. Mit anderen Worten kann der Astigmatismus-Fehler vor dem Verzeichnungsfehler korrigiert werden.In a further, optional step 52 of method 40, one or more imaging errors in the image are corrected with extended depth of field. The imaging errors to be corrected can include a distortion error and an astigmatism error. To correct the imaging errors, the position of the image points perpendicular to the depth direction and/or the depth values of the object points, i.e. the depth map, can be corrected. When the depth values of the object points are corrected, the image with extended depth of field is then corrected or regenerated based on the corrected depth values and the focal image stack. Preferably, the distortion error is corrected after the astigmatism error has been corrected. In other words, the astigmatism error can be corrected before the distortion error.

Zum Korrigieren des Verzeichnungsfehlers ist jedem Punkt des Bildes mit erweiterter Schärfentiefe mindestens ein Verzeichnungswert zugeordnet, wobei eine Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe senkrecht zu der Tiefenrichtung basierend auf dem mindestens einen Verzeichnungswert korrigiert wird. Der Verzeichnungswert gibt an, wie der Punkt des Bildes mit erweiterter Schärfentiefe in x- und/oder y-Richtung bzw. in radialer und/oder tangentialer Richtung zur Korrektur der Verzeichnung des Punktes zu verschieben/entzerren ist. Insbesondere können jedem Punkt des Bildes mit erweiterter Schärfentiefe ein erster Verzeichnungswert und ein zweiter Verzeichnungswert zugeordnet sein, wobei die Lage jedes Punkts des Bildes mit erweiterter Schärfentiefe in einer ersten Richtung basierend auf dem ersten Verzeichnungswert und in einer zweiten Richtung basierend auf dem zweiten Verzeichnungswert korrigiert wird. Die erste und zweite Richtung können dabei beispielsweise die x- und y-Richtung oder die radiale und tangentiale Richtung sein.To correct the distortion error, at least one distortion value is assigned to each point of the extended depth-of-field image, wherein a position of each point of the extended depth-of-field image perpendicular to the depth direction is corrected based on the at least one distortion value. The distortion value indicates how the point of the image with extended depth of field is to be moved/equalized in the x and/or y direction or in the radial and/or tangential direction to correct the distortion of the point. In particular, each point of the image with extended depth of field can be assigned a first distortion value and a second distortion value, wherein the position of each point of the image with extended depth of field is corrected in a first direction based on the first distortion value and in a second direction based on the second distortion value . The first and second directions can be, for example, the x and y directions or the radial and tangential directions.

Die Korrektur des Astigmatismus-Fehlers hängt von der Kantenrichtung ab bzw. der Astigmatismus-Fehler ist winkelabhängig. Für den Bereich der Oberfläche des Werkstücks 12 wird daher zunächst eine Winkelkarte bestimmt. Die Winkelkarte ordnet jedem Punkt des Bildes mit erweiterter Schärfentiefe einen Winkel θ zu. Der Winkel θ ergibt sich aus einem Bildgradienten zu umliegenden Bildpunkten. Jedem Punkt des Bildes mit erweiterter Schärfentiefe ist ein erster Korrekturwert und ein zweiter Korrekturwert zugeordnet, wobei der Tiefenwert jedes Punkts des Bildes mit erweiterter Schärfentiefe basierend auf dem ersten Korrekturwert, dem zweiten Korrekturwert und der Winkelkarte korrigiert wird.The correction of the astigmatism error depends on the edge direction or the astigmatism error is angle-dependent. An angle map is therefore first determined for the area of the surface of the workpiece 12. The angle map assigns an angle θ to each point in the image with extended depth of field. The angle θ results from an image gradient to surrounding pixels. Each point of the extended depth of field image is associated with a first correction value and a second correction value, wherein the depth value of each point of the extended depth of field image is corrected based on the first correction value, the second correction value and the angle map.

Im Allgemeinen kann der Astigmatismus für jeden des korrigierten Bildes mit erweiterter Schärfentiefe über eine vom Winkel θ abhängige Funktion, insbesondere Modell- oder Fitfunktion, mit mindestens zwei Parametern beschrieben werden. Bei einer Funktion mit zwei Parametern entsprechen diese Parameter dem ersten und zweiten Korrekturwert. Insbesondere kann der Astigmatismus als Linearkombination aus zwei radialsymmetrischen Sinusfunktionen modelliert werden. Dabei entspricht der erste Korrekturwert dem Koeffizienten der ersten Sinusfunktion und der zweite Korrekturwert dem Koeffizienten der zweiten Sinusfunktion. Beispielsweise kann der Astigmatismus mit der Formel α sin θ + β cos θ (Entwicklung erster Ordnung) bzw. α sin 2θ + β cos 2θ (Entwicklung zweiter Ordnung) modelliert werden.In general, the astigmatism for each of the corrected image with extended depth of field can be described via a function dependent on the angle θ, in particular a model or fit function, with at least two parameters. For a function with two parameters, these parameters correspond to the first and second correction values. In particular, astigmatism can be modeled as a linear combination of two radially symmetrical sine functions. The first correction value corresponds to the coefficient of the first sine function and the second correction value corresponds to the coefficient of the second sine function. For example, astigmatism can be modeled with the formula α sin θ + β cos θ (first-order development) or α sin 2θ + β cos 2θ (second-order development).

Da aus der Winkelkarte für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe der Winkel θ bestimmt ist, kann somit für jeden Punkt des korrigierten Bildes mit erweiterter Schärfentiefe ein effektiver Korrekturwert mittels der Formel α sin θ + β cos θ oder α sin 2θ + β cos 2θ berechnet werden. Die Korrektur des jeweiligen Tiefenwerts erfolgt dann durch Subtraktion des entsprechenden effektiven Korrekturwerts von dem jeweiligen Tiefenwert. Mit Hilfe der korrigierten Tiefenwerte (Tiefenkarte) kann dann ein korrigiertes Bild mit erweiterter Schärfentiefe erzeugt werden, in dem der astigmatische Abbildungsfehler korrigiert ist.Since the angle θ is determined from the angle map for each point of the corrected image with extended depth of field, an effective correction value can be obtained for each point of the corrected image with extended depth of field using the formula α sin θ + β cos θ or α sin 2θ + β cos 2θ can be calculated. The respective depth value is then corrected by subtracting the corresponding effective correction value from the respective depth value. With the help of the corrected depth values (depth map), a corrected image with an extended depth of field can then be generated in which the astigmatic imaging error is corrected.

Die Korrekturwerte und Verzeichnungswerte zum Korrigieren der jeweiligen Abbildungsfehler können wie in den 4 und 5 nachfolgend beschrieben im Voraus bestimmt werden.The correction values and distortion values for correcting the respective imaging errors can be as shown in 4 and 5 can be determined in advance as described below.

3 zeigt ein Verfahren 60 zum Aufnehmen eines, insbesondere korrigierten, Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche des Werkstücks 12 mit dem optischen Sensor 14 des Messgeräts 10. Das Werkstück 12 wird zum Vermessen auf dem Werkstückhalter 16 angeordnet. Der optische Sensor 14 kann dann einen Bereich der Oberfläche des Werkstücks 12 erfassen. Der optische Sensor 14 und das Werkstück 12 sind in einer Tiefenrichtung 20 relativ zueinander bewegbar, so dass der Abstand 22 in der Tiefenrichtung 20 zwischen dem Werkstück 12 und dem optischen Sensor 14 veränderbar ist. 3 shows a method 60 for recording an, in particular corrected, image with an extended depth of field of a region of a surface of the workpiece 12 with the optical sensor 14 of the measuring device 10. The workpiece 12 is arranged on the workpiece holder 16 for measurement. The optical sensor 14 can then detect an area of the surface of the workpiece 12. The optical sensor 14 and the workpiece 12 are movable relative to one another in a depth direction 20, so that the distance 22 in the depth direction 20 between the workpiece 12 and the optical sensor 14 is changeable.

In einem Schritt 66 des Verfahrens 60 wird der Abstand 22 zwischen dem Werkstück und dem optischen Sensor verändert. Dazu kann die Antriebseinrichtung den optischen Sensor 14 relativ zu dem Werkstückhalter 16 in der Tiefenrichtung 20 bewegen und/oder den Werkstückhalter 16 relativ zu dem optischen Sensor 14 in der Tiefenrichtung 20 bewegen, um den Abstand 22 zwischen dem Werkstück 16 und dem optischen Sensor 14 zu verändern. Insbesondre kann der Abstand 22 in diskreten Schritten, beispielsweise in Schritten von 50µm verändert werden.In a step 66 of the method 60, the distance 22 between the workpiece and the optical sensor is changed. For this purpose, the drive device can move the optical sensor 14 relative to the workpiece holder 16 in the depth direction 20 and/or move the workpiece holder 16 relative to the optical sensor 14 in the depth direction 20 in order to increase the distance 22 between the workpiece 16 and the optical sensor 14 change. In particular, the distance 22 can be changed in discrete steps, for example in steps of 50 μm.

In einem weiteren Schritt 68 des Verfahrens 60 wird eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks mittels des optischen Sensors erfasst, während der Abstand 22 zwischen dem Werkstück und dem optischen Sensor verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks 12 aus unterschiedlichen, definierten Abständen 22 zu dem Werkstück 12 in der Tiefenrichtung 20 abbilden, wobei jeder Bildpunkt jedes Bildes einem entsprechendem Objektpunkt auf der Oberfläche des Werkstücks 12 zugeordnet ist, und wobei die erfassten Bilder einen Fokalbildstapel bilden.In a further step 68 of the method 60, a plurality of images of a region of the surface of the workpiece are captured by means of the optical sensor while the distance 22 between the workpiece and the optical sensor is changed, the images each covering the region of the surface of the workpiece 12 from different, defined distances 22 to the workpiece 12 in the depth direction 20, each image point of each image being assigned to a corresponding object point on the surface of the workpiece 12, and the captured images forming a focal image stack.

In einem weiteren Schritt 70 des Verfahrens 60 wird das, insbesondere korrigierte, Bild mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12 mittels des Verfahrens aus 2 erzeugt.In a further step 70 of the method 60, the particularly corrected image with an extended depth of field of the area of the surface of the workpiece 12 is produced using the method 2 generated.

In einem weiteren optionalen Schritt 72 des Verfahrens 60 wird das erzeugte, insbesondere korrigierte, Bild mit erweiterter Schärfentiefe mittels der Ausgabeeinrichtung 36 ausgegeben.In a further optional step 72 of the method 60, the generated, in particular corrected, image with an extended depth of field is output by means of the output device 36.

In einem weiteren optionalen Schritt 64 des Verfahrens 60 wird das Werkstück 12 mittels der Beleuchtungseinrichtung 32 während des Erfassens der Bilder des Fokalbildstapels beleuchtet.In a further optional step 64 of the method 60, the workpiece 12 is illuminated by means of the lighting device 32 while capturing the images of the focal image stack.

In einem weiteren optionalen Schritt 62 des Verfahrens 60 werden der erste Korrekturwert und der zweite Korrekturwert für jeden Objektpunkt/Bildpunkt des Bildes mit erweiterter Schärfentiefe bestimmt. Mit anderen Worten werden dabei die Korrekturwerte zur Korrektur des Astigmatismus-Fehlers bestimmt. Dazu wird initial, sprich vor dem Aufnehmen des korrigierten Bildes mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12, insbesondere vor den Schritten 64 bis 72, ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen. Das Bild mit erweiterter Schärfentiefe des Kalibrationsobjekts wird entsprechend den Schritten 64 bis 70 mit einem Kalibrationsobjekt als Werkstück erzeugt, wobei beim Erzeugen dieses Bildes keine Korrektur von Abbildungsfehlern vorgenommen wird. 15A zeigt eine exemplarische Darstellung eines Kalibrationsobjekts in Form eines Punktgitters. Da das Oberflächenprofil des Kalibrationsobjekts bekannt ist, können die zu bestimmenden Korrekturwerte dann basierend auf Abweichungen des Bildes mit erweiterter Schärfentiefe des Kalibrationsobjekts zu dem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt werden.In a further optional step 62 of the method 60, the first correction value and the second correction value are determined for each object point/pixel of the image with extended depth of field. In other words, the correction values for correcting the astigmatism error are determined. For this purpose, an image with an extended depth of field of a calibration object, in particular a point grid, is initially recorded, i.e. before recording the corrected image with an extended depth of field of the area of the surface of the workpiece 12, in particular before steps 64 to 72. The image with extended depth of field of the calibration object is generated according to steps 64 to 70 with a calibration object as a workpiece, no correction of imaging errors being carried out when generating this image. 15A shows an exemplary representation of a calibration object in the form of a dot grid. Since the surface profile of the calibration object is known, the correction values to be determined can then be determined based on deviations of the image with extended depth of field of the calibration object from the known surface profile of the calibration object.

In einem weiteren optionalen Schritt 63 des Verfahrens 60 wird, vorzugsweise nach dem Schritt 62, mindestens ein Verzeichnungswert für jeden Punkt des Bildes mit erweiterter Schärfentiefe bestimmt. Dazu wird initial, sprich vor dem Aufnehmen des korrigierten Bildes mit erweiterter Schärfentiefe des Bereichs der Oberfläche des Werkstücks 12, insbesondere vor den Schritten 64 bis 72, ein Bild mit erweiterter Schärfentiefe eines Kalibrationsobjekts, insbesondere eines Punktgitters, aufgenommen. In den Schritten 62 und 63 kann dasselbe Kalibrationsobjekt verwendet werden. Insbesondere kann in dem Schritt 63 das im Schritt 62 aufgenommene Bild das Kalibrationsobjekts, insbesondere des Punktgitters, verwendet werden. Da das Oberflächenprofil des Kalibrationsobjekts bekannt ist, kann der mindestens eine Verzeichnungswert jedes Punkts des Bildes mit erweiterter Schärfentiefe dann basierend auf einer Abweichung des Bildes mit erweiterter Schärfentiefe zu einem bekannten Oberflächenprofil des Kalibrationsobjekts bestimmt werden. Vorzugsweise wird dabei für jeden Punkt des Bildes mit erweiterter Schärfentiefe ein Versatz in x- und/oder y-Richtung bzw. in radialer und/oder tangentialer Richtung ermittelt, wobei der Korrekturwert die Verschiebung in der entsprechenden Richtung angibt. Insbesondere, wenn jedem Punkt des Bildes mit erweiterter Schärfentiefe jeweils ein erster und ein zweiter Verzeichnungswert zugeordnet sind, gibt der erste Verzeichnungswert den Versatz in der ersten Richtung (beispielswiese x- oder radialer Richtung) und der zweite Verzeichnungswert den Versatz in der zweiten Richtung(beispielswiese y- oder tangentiale Richtung) an.In a further optional step 63 of method 60, preferably after step 62, at least one distortion value is determined for each point of the image with extended depth of field. For this purpose, an image with an extended depth of field of a calibration object, in particular a point grid, is initially recorded, i.e. before recording the corrected image with an extended depth of field of the area of the surface of the workpiece 12, in particular before steps 64 to 72. The same calibration object can be used in steps 62 and 63. In particular, in step 63, the image of the calibration object, in particular of the point grid, recorded in step 62 can be used. Since the surface profile of the calibration object is known, the at least one distortion value of each point of the extended depth of field image may then be determined based on a deviation of the extended depth of field image from a known surface profile of the calibration object. Preferably, an offset in the x and/or y direction or in the radial and/or tangential direction is determined for each point of the image with an extended depth of field, the correction value indicating the displacement in the corresponding direction. In particular, if a first and a second distortion value are assigned to each point of the image with an extended depth of field, the first distortion value indicates the offset in the first direction (for example x- or radial Direction) and the second distortion value indicates the offset in the second direction (e.g. y or tangential direction).

Die Schritte 62 und 63 sind somit als Kalibrierungsschritte zu verstehen, bei denen systematische Messfehler des optischen Sensors bestimmt und entsprechende Korrekturwerte ermittelt werden. Zur Kalibrierung kann dabei insbesondere ein Punktgitter verwendet werden.Steps 62 and 63 are therefore to be understood as calibration steps in which systematic measurement errors of the optical sensor are determined and corresponding correction values are determined. In particular, a point grid can be used for calibration.

4 zeigt ein Beispiel für Verfahrensschritte, mittels denen die Korrekturwerte in dem Schritt 62 des Verfahrens 60 bestimmt werden können. 4 shows an example of method steps by means of which the correction values in step 62 of method 60 can be determined.

In einem ersten Schritt 80 wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters als Kalibrationsobjekt erzeugt. Das Bild mit erweiterter Schärfentiefe des Punktgitters wird entsprechend den Schritten 64 bis 70 mit einem Punktgitter als Werkstück 12 erzeugt. Eine exemplarische Darstellung eines Punktgitters als Kalibrationsobjekt ist 15A dargestellt.In a first step 80, an image with an extended depth of field of a point grid is generated as a calibration object. The image with extended depth of field of the point grid is generated according to steps 64 to 70 with a point grid as workpiece 12. An exemplary representation of a point grid as a calibration object is 15A shown.

In einem weiteren Schritt 82 werden die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters segmentiert, die jeden einzelnen Punkts des Punktgitters abbilden. Auf diese Weise werden die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters bestimmt, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Zur Segmentierung kann eine zirkuläre Hough-Transformation verwendet werden, mittels der Kreise erkannt werden können. Die zirkuläre Hough-Transformation kann beispielsweise auf das Bild mit erweiterter Schärfentiefe des Punktgitters angewandt werden, um die Position der einzelnen Punkte des Punktgitters zu detektieren. Insbesondere kann die zirkuläre Hough-Transformation dazu verwendet werden, für jeden Punkt des Punktgitters die Positionen der Bildpunkte (Randpunkte) zu bestimmen, die auf dem Rand jedes Punktgitterkreises angeordnet sind. Diese Randpunkte sind dann die Bildpunkte, die dem jeweiligen Punkt des Punktgitters zugeordnet werden.In a further step 82, the image points of the image with an extended depth of field of the point grid are segmented, which represent each individual point of the point grid. In this way, the pixels of the image with an extended depth of field of the point grid are determined, each of which is assigned to a point of the point grid and depicts it. A circular Hough transformation can be used for segmentation, which can be used to detect circles. For example, the circular Hough transform can be applied to the image with extended depth of field of the point grid in order to detect the position of the individual points of the point grid. In particular, the circular Hough transform can be used to determine, for each point of the point grid, the positions of the image points (edge points) which are arranged on the edge of each point grid circle. These edge points are then the image points that are assigned to the respective point of the point grid.

In einem weiteren Schritt 84 wird für jeden Punkt des Punktgitters ein erster Korrekturwert und ein zweiter Korrekturwert basierend auf einer Kostenfunktion L zwischen einem Astigmatismus-Modell und den korrigierten Tiefenwerten des jeweiligen Punkts des Punktgitters bestimmt. Als Astigmatismus-Modell kann eine Linearkombination aus zwei radial-symmetrischen Sinus-Funktionen verwendet werden. Das Astigmatismus-Modell kann beispielsweise durch die Formel α sin 2θ + β cos 2θ definiert werden. Dabei sind α und β die Koeffizienten der Sinusfunktionen und θ ein Winkel in der X-Y Ebene um den Mittelpunkt des jeweiligen Punkts des Punktgitters. Die Kostenfunktion L ist entsprechend der folgenden Gleichung definiert: L(α,β) = Σ|f(r,θ) - (α sin2θ + β cos 2θ)|2 In a further step 84, a first correction value and a second correction value are determined for each point of the point grid based on a cost function L between an astigmatism model and the corrected depth values of the respective point of the point grid. A linear combination of two radially symmetrical sine functions can be used as an astigmatism model. The astigmatism model can be defined, for example, by the formula α sin 2θ + β cos 2θ. Here α and β are the coefficients of the sine functions and θ is an angle in the XY plane around the center of the respective point of the point grid. The cost function L is defined according to the following equation: L(α,β) = Σ|f(r,θ) - (α sin2θ + β cos 2θ)| 2

In der Kostenfunktion wird dabei eine Summe über diejenigen Punkte des korrigierten Bildes mit erweiterter Schärfentiefe gebildet, die dem entsprechenden Punkt des Punktgitters zugeordnet sind bzw. diesen abbilden und/oder repräsentieren. Die Lage dieser Punkte in der X-Y Ebene kann in Polarkoordinaten r und θ bezüglich des Mittelpunkts des jeweiligen Punkts des Punktgitters angegeben werden. f(r, θ) gibt die Abweichung des Tiefenwerts dieser Punkte des korrigierten Bildes mit erweiterter Schärfentiefe gegenüber dem gemittelten Tiefenwert des Punkts des Punktgitters an. Die Kostenfunktion wird dann nach den Koeffizienten der Sinus-Funktionen minimiert. Der erste und zweite Korrekturwert des Punkts des Punktgitters kann dann auf Basis der minimierten Koeffizienten α und β bestimmt werden. Insbesondere entsprechen der erste und zweite Korrekturwert des Punkts des Punktgitters den minimierten Koeffizienten.In the cost function, a sum is formed over those points of the corrected image with an extended depth of field that are assigned to the corresponding point of the point grid or map and/or represent it. The location of these points in the X-Y plane can be specified in polar coordinates r and θ with respect to the center of the respective point of the point grid. f(r, θ) indicates the deviation of the depth value of these points of the corrected image with extended depth of field compared to the average depth value of the point of the point grid. The cost function is then minimized according to the coefficients of the sine functions. The first and second correction values of the point of the point grid can then be determined based on the minimized coefficients α and β. In particular, the first and second correction values of the point of the point grid correspond to the minimized coefficients.

In einem weiteren Schritt 86 werden die ersten und zweiten Korrekturwerte der Bildpunkte des Bildes mit erweiterter Schärfentiefe, insbesondere die ersten und zweiten Korrekturwerte für die Tiefenwerte der Objektpunkte, basierend auf den ersten und zweiten Korrekturwerten jedes Punkts des Punktgitters über den gesamten Bereich interpoliert. Auf diese Weise kann jedem Bildpunkt des Bildes mit erweiterter Schärfentiefe, insbesondere jedem Objektpunkt, ein erster und zweiter Korrekturwert zugeordnet werden.In a further step 86, the first and second correction values of the pixels of the image with extended depth of field, in particular the first and second correction values for the depth values of the object points, are interpolated over the entire area based on the first and second correction values of each point of the point grid. In this way, a first and second correction value can be assigned to each pixel of the image with an extended depth of field, in particular to each object point.

5 zeigt Verfahrensschritte, mittels denen die Verzeichnungswerte der Punkte des Bildes mit erweiterter Schärfentiefe in dem Schritt 63 des Verfahrens 60 bestimmt werden. 5 shows method steps by means of which the distortion values of the points of the image with extended depth of field are determined in step 63 of method 60.

In einem ersten Schritt 110 wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters als Kalibrationsobjekt erzeugt. Das Bild mit erweiterter Schärfentiefe des Punktgitters wird vorzugsweise entsprechend den Schritten 64 bis 70 mit einem Punktgitter als Werkstück 12 erzeugt. Insbesondere kann in dem Schritt 110 das im Schritt 62 bzw. 80 aufgenommene Bild mit erweiterter Schärfentiefe des Punktgitters verwendet werden.In a first step 110, an image with an extended depth of field of a point grid is generated as a calibration object. The image with extended depth of field of the dot grid is preferably generated according to steps 64 to 70 with a dot grid as workpiece 12. In particular, in step 110, the image recorded in step 62 or 80 can be used with an extended depth of field of the point grid.

Insbesondere können in dem aufgenommenen Bild mit erweiterter Schärfentiefe des Punktgitters bereits einer oder mehrere der Abbildungsfehler mit Ausnahme des Verzeichnungsfehlers korrigiert werden. Insbesondere kann der Astigmatismus-Fehler korrigiert werden.In particular, one or more of the imaging errors, with the exception of the distortion error, can already be corrected in the recorded image with an extended depth of field of the point grid. In particular, the astigmatism error can be corrected.

In einem weiteren Schritt 112 wird der mindestens eine Verzeichnungswert für jeden Bildpunkt des Bildes mit erweiterter Schärfentiefe basierend auf dem aufgenommenen Bild mit erweiterter Schärfentiefe des Punktgitters und der bekannten Form des Punktgitters, insbesondere der bekannten Anordnung bzw. Lage der Punkte des Punktgitters, bestimmt.In a further step 112, the at least one distortion value is determined for each pixel of the image with extended depth of field based on the captured image with extended depth of field of the point grid and the known shape of the point grid, in particular the known arrangement or position of the points of the point grid.

Beispielsweise kann hierzu zunächst wieder eine Segmentierung der Punkte des Punktgitters durchgeführt werden, wie im Schritt 82, um die Bildpunkte des Bildes mit erweiterter Schärfentiefe des Punktgitters zu bestimmen, die jeweils einem Punkt des Punktgitters zugeordnet sind und diesen abbilden. Aus den segmentierten Bildpunkten lässt sich dann die Lage der Punkte des Punktgitters bestimmen. Die bestimmte Lage jedes Punkts des Punktgitters kann dann mit der bekannten Lage jedes Punkts des Punktgitters verglichen werden. Auf diese Weise kann eine Verzeichnung, sprich ein Versatz, zwischen bestimmter und bekannter Lage der Punkte ermittelt werden. Daraus lässt sich dann mindestens ein Verzeichnungswert, insbesondere der erste und zweite Verzeichnungswert, für den Punkt des Punktgitters bestimmen. Die Verzeichnungswerte aller Bildpunkte des Bildes mit erweiterter Schärfentiefe können dann durch Interpolation über den gesamten Bereich bestimmt werden.For example, a segmentation of the points of the point grid can first be carried out again, as in step 82, in order to determine the pixels of the image with an extended depth of field of the point grid, which are each assigned to a point of the point grid and represent it. The position of the points of the dot grid can then be determined from the segmented image points. The determined location of each point on the dot grid can then be compared with the known location of each point on the dot grid. In this way, a distortion, i.e. an offset, between the specific and known positions of the points can be determined. From this, at least one distortion value, in particular the first and second distortion value, can then be determined for the point of the dot grid. The distortion values of all pixels of the image with extended depth of field can then be determined by interpolation over the entire area.

Mit Bezug auf die 7 bis 10 wird im Folgenden erläutert, wie die Messeinflüsse von Bildfeldkrümmung und Astigmatismus sich auf die Abbildung eines Objekts auswirken.With reference to the 7 until 10 The following explains how the measuring influences of field curvature and astigmatism affect the image of an object.

Aufgrund von Bildkippung und Bildkrümmung bilden reale optische Systeme ein flaches Messobjekt auf eine gekrümmte Bildebene ab. Zusätzlich weisen reale optische Systeme einen ortsabhängigen Telezentriefehler auf, d.h. eine ortsabhängige Vergrößerungsänderung in Abhängigkeit von der Defokussierung. Dies führt im Allgemeinen zu einer Bildstandsänderung, sprich Kantenbewegung, oder einem dimensionellen Messfehler im aufgenommenen Bild. Das Zusammenspiel aus Bildfeldkrümmung und Telezentriefehler kann zu unerwarteten und komplexen Messeinflüssen führen. Insbesondere können sich Messergebnisse in Abhängigkeit einer gewählten Autofokusposition, bspw. auf der optischen Achse oder am Feldrand, ändern. Dies wird im Folgenden genauer erläutert.Due to image tilt and curvature, real optical systems image a flat measurement object onto a curved image plane. In addition, real optical systems have a location-dependent telecentricity error, i.e. a location-dependent change in magnification depending on the defocusing. This generally leads to a change in image status, i.e. edge movement, or a dimensional measurement error in the captured image. The interaction between field curvature and telecentricity errors can lead to unexpected and complex measurement influences. In particular, measurement results can change depending on a selected autofocus position, for example on the optical axis or at the edge of the field. This is explained in more detail below.

7 zeigt für ein flaches Objekt, das unter dem Einfluss von Petzval-Aberration (Bildfeldkrümmung) auf einer gekrümmten Bildebene 126 fokussiert abgebildet ist, den Abbildungsstrahlengang von der Ausgangspupille 120 zur gekrümmten Bildebene 126. Diese Ebene wird auch als beste Einstellebene nach Petzval bezeichnet. Das Bezugszeichen 122 kennzeichnet den austretenden Hauptstrahl eines abzubildenden Randpunktes des betrachteten Objektes und das Bezugszeichen 124 kennzeichnet einen austretenden Randstrahl des abzubildenden Zentralpunktes des betrachteten Objektes. Ein einzelner Autofokuspunkt im Bild fokussiert das Bild auf einen einzelnen Bereich der Petzvalebene, so dass nicht das gesamte Bild gleichzeitig im Fokus ist. Abstände/Positionen (Bspw. L1, L2), die im Bild gemessen werden, ändern sich in Abhängigkeit von der gewählten Autofokusposition (B1, B2), bspw. im Bildzentrum oder am Bildrand. Für nah beieinander liegende Messfeatures wird unter der Annahme, dass der Telezentriefehler α (Winkel der betrachteten Hauptstrahlrichtung gegenüber der optischen Achse bzw. der Bildfeldnormalen für B1 bzw. B2) für beide Punkte gleich groß ist, die Änderung der Autofokusposition zu einer Verschiebung („Walking“) führen. Für weiter entfernt liegende Messfeatures wird unter der Annahme, dass der Telezentriefehler für beide Punkte unterschiedlich ist, die Änderung der Autofokusposition zu einem systematischen Messfehler führen. 7 shows the imaging beam path from the exit pupil 120 to the curved image plane 126 for a flat object that is imaged in focus on a curved image plane 126 under the influence of Petzval aberration (image field curvature). This plane is also referred to as the best adjustment plane according to Petzval. The reference number 122 indicates the emerging main ray of an edge point of the object under consideration to be imaged and the reference number 124 indicates an emerging edge ray of the central point of the object under consideration to be imaged. A single autofocus point in the image focuses the image on a single area of the Petzval plane, so that the entire image is not in focus at the same time. Distances/positions (e.g. L1, L2) that are measured in the image change depending on the selected autofocus position (B1, B2), for example in the center of the image or at the edge of the image. For measurement features that are close to each other, assuming that the telecentricity error α (angle of the main beam direction under consideration relative to the optical axis or the image field normal for B1 or B2) is the same for both points, the change in the autofocus position results in a shift (“walking ") lead. For more distant measurement features, assuming that the telecentricity error is different for both points, changing the autofocus position will result in a systematic measurement error.

Neben der Bildfeldkrümmung weisen reale Optiksysteme zusätzlich einen astigmatischen Einfluss auf. 8 zeigt exemplarisch den Astigmatismus einer Linse. Diese hat einen tangentialen Fokus 130 und einen sagittalen Fokus 132. Diese sind in der Tiefenrichtung (z-Richtung) um ein Delta 134 zueinander versetzt. Der tangentiale Fokus 130 liegt näher an der Linse als der sagittale Fokus 132. Dies führt dazu, dass in Abhängigkeit der Kantenorientierung eine sich ändernde beste Einstellebene ergibt. Insbesondere werden horizontale und vertikale Kantenorientierungen im Objekt in eine unterschiedliche beste Einstellebene am schärfsten abgebildet. Das Zusammenspiel aus Astigmatismus und Telezentriefehler führt auch hier zu unerwarteten und komplexen Messeinflüssen. Insbesondere können sich Messergebnisse in Abhängigkeit einer Autofokusposition auf einer horizontalen oder vertikalen Kante ändern. Dies wird im Folgenden genauer erläutert.In addition to the curvature of the image field, real optical systems also have an astigmatic influence. 8th shows an example of the astigmatism of a lens. This has a tangential focus 130 and a sagittal focus 132. These are offset from each other by a delta 134 in the depth direction (z direction). The tangential focus 130 is closer to the lens than the sagittal focus 132. This results in a changing best adjustment plane depending on the edge orientation. In particular, horizontal and vertical edge orientations in the object are imaged most sharply in a different best adjustment plane. The interaction between astigmatism and telecentricity errors also leads to unexpected and complex measurement influences. In particular, measurement results can change depending on an autofocus position on a horizontal or vertical edge. This is explained in more detail below.

9 zeigt exemplarisch für ein abzubildendes, flaches Objekt analog zu 7 den Abbildungsstrahlengang von der Austrittspupille 120 in zwei unterschiedlichen Bildebenen 140 und142, die dadurch entstehen, dass durch den Astigmatismus der Abbildungsoptik Kantenorientierungsabhängig in unterschiedliche beste Einstellebenen abgebildet wird. Im Allgemeinen weisen diese im englischen als sagittal und tangential und im deutschen als sagittal und meridional bezeichneten Einstellebenen im Gegensatz zu der Darstellung der 9 keinen einfachen Verlauf über das Bildfeld auf. Zur besseren Erläuterung sind aber die Extremfälle der tangential besten Einstellebene 140 und der sagittal besten Einstellebene 142 in der 9 als sich gegenüberliegende Kugelschalen dargestellt. Abhängig von der tatsächlichen Kantenorientierung 144 ist allerdings auch eine beliebige beste Einstellebene dazwischen möglich. Somit wird abhängig von der lokalen Kantenorientierung der Autofokus in unterschiedliche Einstellebenen fokussieren. D.h. an der gleichen Bildposition ist die beste Autofokusposition Kantenorientierungsabhängig. Abstände (Bspw. L1, L2, D1, D2) die im Bild gemessen werden, ändern sich dadurch in Abhängigkeit vom kantenorientierungsabhängigen Autofokus im Bild. D.h. insbesondere, dass sich Messergebnisse in Abhängigkeit des Autofokus auf einer horizontalen oder vertikalen Linie verändern. Der Fehler wird dabei umso größer, je größer die Telezentrieabweichung α des Systems ist. 9 shows an example of a flat object to be depicted 7 the imaging beam path from the exit pupil 120 in two different image planes 140 and 142, which are created by the fact that the astigmatism of the imaging optics is imaged in different best adjustment planes depending on the edge orientation. In general, these adjustment planes, which are referred to in English as sagittal and tangential and in German as sagittal and meridional, are in contrast to the representation of the 9 does not show a simple progression across the image field. For better explanation, however, the extreme cases of the tangentially best adjustment plane 140 and the sagittally best adjustment plane 142 are in the 9 shown as opposing spherical shells. Depending on the actual edge orientation 144, however, there is also any best adjustment level in between possible. This means that the autofocus will focus in different adjustment planes depending on the local edge orientation. This means that at the same image position, the best autofocus position depends on the edge orientation. Distances (e.g. L1, L2, D1, D2) that are measured in the image change depending on the edge orientation-dependent autofocus in the image. This means in particular that measurement results change depending on the autofocus on a horizontal or vertical line. The error becomes larger the larger the telecentricity deviation α of the system is.

Bildfeldwölbung und Astigmatismus können gleichzeitig auftreten. Dies ist in 10 dargestellt. Ein Messobjektiv, welches Petzvalkrümmung und Astigmatismus aufweist, wird das Bild in einer besten Einstellebene 126 zwischen sagittaler und tangentialer bester Einstellebene am schärfsten abbilden. Die genaue Lage zwischen den Bildschalen ist abhängig von Kantenorientierungen im Messobjekt. D.h. im Allgemeinen wird ein telezentriebedingter Messeinfluss sowohl von Petzval als auch astigmatischen Autofokuseinflüssen beeinflusst.Field curvature and astigmatism can occur simultaneously. This is in 10 shown. A measuring lens that has Petzval curvature and astigmatism will produce the sharpest image in a best adjustment plane 126 between the sagittal and tangential best adjustment plane. The exact position between the image shells depends on the edge orientations in the measurement object. Ie, in general, a telecentricity-related measurement influence is influenced by both Petzval and astigmatic autofocus influences.

Im Folgenden wird nochmals mit Bezug auf die 11 bis 17C erläutert, wie eine messfähige Messaufnahme, sprich ein korrigiertes Bild mit erweiterter Schärfentiefe, eines Bereichs einer Oberfläche eines Werkstücks aufgenommen werden kann.Below we will refer again to the 11 until 17C explains how a measurable measurement image, i.e. a corrected image with an extended depth of field, can be taken of an area of the surface of a workpiece.

Zunächst wird der Fall betrachtet, in dem der Astigmatismus als verschwindend klein angenommen wird und nur Bildfeldkrümmung die Abbildung wesentlich beeinflusst. Hierzu wird die Bildqualität des gesamten Fokalbildstapels bewertet und die entsprechende Messaufnahme auf der beliebig gekrümmten besten Einstellebene berechnet. Diese Messaufnahme ist unabhängig von der Autofokusposition. Sie weist jedoch neben der klassischen Verzeichnung eine zusätzliche Telezentriefehler bedingte Verzeichnung auf. Dieser Verzeichnungseinfluss muss kalibriert und kompensiert werden.First, the case is considered in which the astigmatism is assumed to be vanishingly small and only field curvature significantly influences the image. For this purpose, the image quality of the entire focal image stack is evaluated and the corresponding measurement image is calculated on the best adjustment plane, which can be curved as desired. This measurement recording is independent of the autofocus position. However, in addition to the classic distortion, it also has an additional distortion caused by telecentricity errors. This distortion influence must be calibrated and compensated.

Dazu wird zunächst in einem Kalibrationsprozess, wie zuvor in 5 beschrieben, ein Fokalbildstapel eines Kalibrationsobjekts aufgenommen. Dann wird eine Kalibrieraufnahme auf der besten Einstellebene berechnet. Als Kalibrieaufnahme wird dabei ein Bild mit erweiterter Schärfentiefe des Kalibrationsobjekts erzeugt. Dann wird die Verzeichnung des Bildes in der besten Einstellebene bewertet. Dabei wird für jeden Punkt mindestens ein Verzeichnungswert ermittelt. Die Verzeichnungswerte können dann in eine Look-Up-Table abgespeichert werden.To do this, a calibration process is first carried out, as previously described in 5 described, a focal image stack of a calibration object was recorded. A calibration recording is then calculated at the best setting level. An image with an extended depth of field of the calibration object is created as a calibration recording. The distortion of the image is then evaluated at the best adjustment level. At least one distortion value is determined for each point. The distortion values can then be saved in a look-up table.

Dann kann in einem Messprozess die messfähige Aufnahme, sprich das korrigierte Bild mit erweiterter Schärfentiefe, eines Bereichs einer Oberfläche eines Werkstücks aufgenommen werden. Zunächst wird dabei ein Fokalbildstapel des Werkstücks aufgenommen. Dann wird eine Messaufnahme auf der beliebig gekrümmten besten Einstellebene nach Petzval errechnet. Dies ist exemplarisch in 11 dargestellt. Als Messaufnahme wird dabei ein Bild mit erweiterter Schärfentiefe erzeugt, beispielsweise mittels der Schritte 42 bis 50 des Verfahrens aus 2. Daraufhin wird eine Verzeichnungskorrektur des Bildes in der besten Einstellebene auf Grundlage der im Kalibrationsprozess ermittelten Verzeichnungswerte durchgeführt. Auf diese Weise kann dann eine autofokusunabhängige und Telezentriefehler korrigierte Messaufnahme, sprich ein korrigiertes Bild mit erweiterter Schärfentiefe, erzeugt werden. Die Korrektur der Verzeichnung kann beispielsweise wie in dem Schritt 52 des Verfahrens aus 2 beschrieben erfolgen.The measurable image, i.e. the corrected image with an extended depth of field, of an area of a surface of a workpiece can then be recorded in a measuring process. First, a focal image stack of the workpiece is recorded. A measurement recording is then calculated on the arbitrarily curved best adjustment plane according to Petzval. This is exemplary 11 shown. An image with an extended depth of field is generated as a measurement recording, for example using steps 42 to 50 of the method 2 . A distortion correction of the image is then carried out in the best adjustment level based on the distortion values determined in the calibration process. In this way, an autofocus-independent and telecentric error-corrected measurement recording, i.e. a corrected image with an extended depth of field, can be generated. The correction of the distortion can, for example, be carried out as in step 52 of the method 2 described.

Das so beschriebene Vorgehen ermöglicht die Kompensation autofokusabhäniger Messfehler und die Erzeugung einer messfähigen Aufnahme mit erweiterter Schärfentiefe.The procedure described in this way enables the compensation of autofocus-dependent measurement errors and the creation of a measurable recording with an extended depth of field.

Als nächstes wird der Fall betrachtet, in dem sowohl der Astigmatismus als auch die Bildfeldkrümmung die Abbildung beeinflussen. Aufgrund dieser Einflüsse wird der bestimmte beste Bildpunkt nicht mehr auf der besten Einstellebene nach Petzval liegen, sondern kantenorientierungsabhängig zwischen sagittaler und tangentialer bester Einstellebene vermitteln. Um nun telezentriebedingte Messeinflüsse zu minimieren, sollte ein astigmatisch kompensiertes (sprich korrigiertes) Bild mit erweiterter Schärfentiefe bestimmt werden. Hierfür wird das Bild nicht in der kantenorientierungsabhängig schärfsten Bildebene ausgewertet, sondern in der astigmatismusfreien besten Einstellebene (Petzvalschale). Dies ist exemplarisch in 12 dargestellt.Next, the case in which both astigmatism and field curvature affect the image is considered. Due to these influences, the determined best image point will no longer be on the best adjustment plane according to Petzval, but will mediate between the sagittal and tangential best adjustment plane depending on the edge orientation. In order to minimize telecentricity-related measurement influences, an astigmatically compensated (i.e. corrected) image with an extended depth of field should be determined. For this purpose, the image is not evaluated in the sharpest image plane depending on the edge orientation, but in the best adjustment plane (Petzval shell) that is free of astigmatism. This is exemplary 12 shown.

Hierfür werden in einem initialen Schritt die astigmatischen Einflüsse mit Hilfe eines geeigneten Kalibrationsobjekts bewertet und kalibriert, das heißt es werden sowohl die beste Einstellebene als auch die astigmatischen Schalenlagen bestimmt.For this purpose, in an initial step, the astigmatic influences are evaluated and calibrated using a suitable calibration object, i.e. both the best adjustment plane and the astigmatic shell positions are determined.

Für die Errechnung eines astigmatisch kompensierten Bildes mit erweiterter Schärfentiefe eines Bereichs einer Oberfläche eines Werkstücks wird dann zunächst die schärfste Bildebene bestimmt und in einem nachfolgenden Korrekturschritt wird diese Bildposition kantenorientierungsabhängig in die astigmatisch kompensierte Einstellebene verschoben. Mit Hilfe der astigmatisch kompensierten Tiefenwerte der Einstellebene wird dann ein astigmatisch kompensiertes Bild mit erweiterter Schärfentiefe erzeugt.To calculate an astigmatically compensated image with an extended depth of field of an area of a surface of a workpiece, the sharpest image plane is then first determined and in a subsequent correction step, this image position is shifted into the astigmatically compensated adjustment plane depending on the edge orientation. With the help of the astigmatically compensated depth values of the adjustment plane, an astigmatically compensated image with an extended depth of field is then generated.

Im Folgenden wir anhand eines Punktgitters als Werkstück beispielhaft erläutert, wie die Korrektur des Astigmatismus durchgeführt wird. Das Punktgitter ist flach. In 13B ist exemplarisch ein unkorrigiertes Bild mit erweiterter Schärfentiefe des Punktgitters dargestellt. 13A zeigt exemplarisch eine Tiefenkarte der Tiefenwerte der Objektpunkte, auf Basis derer das Bild aus 13B erzeugt wurde. Aufgrund des astigmatischen Fehlers ist die Tiefenkarte nicht flach.Below we will use a point grid as an example as a workpiece to explain how the correction is made of astigmatism is carried out. The dot grid is flat. In 13B An uncorrected image with an extended depth of field of the dot grid is shown as an example. 13A shows an example of a depth map of the depth values of the object points on which the image is based 13B was generated. Due to the astigmatic error, the depth map is not flat.

In 14B ist exemplarisch ein Bild mit erweiterter Schärfentiefe des Punktgitters dargestellt, das gegenüber dem Bild aus 13B astigmatisch kompensiert ist. 14A zeigt exemplarisch eine Tiefenkarte der astigmatisch korrigierten Tiefenwerte der Objektpunkte, auf Basis derer das Bild aus 14B erzeugt wurde. Die korrigierte Tiefenkarte zeigt, dass das Punktgitter im Wesentlichen flach ist.In 14B As an example, an image with an extended depth of field of the point grid is shown, which is opposite the image from 13B is astigmatically compensated. 14A shows an example of a depth map of the astigmatically corrected depth values of the object points on which the image is based 14B was generated. The corrected depth map shows that the point grid is essentially flat.

Eine Bildberechnung bzw. Bildanalyse in der schärfsten Bildebene nach Autofokuskriterium, sprich auf Grundlage der unkorrigierten Tiefenwerte ist schwierig, da ein errechnetes Bild erweiterter Schärfentiefe eine kantenorientierungsabhängige Verzeichnung („Edge-Walking“) durch astigmatische Einflüsse aufweist.An image calculation or image analysis in the sharpest image plane according to the autofocus criterion, i.e. based on the uncorrected depth values, is difficult because a calculated image with an extended depth of field has edge orientation-dependent distortion (“edge walking”) due to astigmatic influences.

Anders verhält es sich bei einer Bildberechnung bzw. Bildanalyse in der astigmatisch kompensierten besten Einstellebene, sprich auf Grundlage des astigmatisch kompensierten Bildes mit erweiterter Schärfentiefe. Diese resultiert aus einer Verschiebung der ermittelten Bildposition in die beste Einstellebene. In dieser sind die astigmatischen Walking-Effekte unterdrückt. Eine Verzeichnungskorrektur im astigmatisch kompensierten Bild mit erweiterter Schärfentiefe erzeugt somit eine messfähige, überall fokussierte Aufnahme.The situation is different when calculating or analyzing an image in the astigmatically compensated best adjustment plane, i.e. based on the astigmatically compensated image with an extended depth of field. This results from a shift in the determined image position to the best adjustment level. In this case, the astigmatic walking effects are suppressed. Distortion correction in the astigmatically compensated image with an extended depth of field thus creates a measurable image that is focused everywhere.

Zur Errechnung der astigmatisch kompensierten Einstellebene wird auf Grundlage der lokalen Kantenorientierung im Bild ein astigmatischer Korrekturwert ermittelt und vom Tiefenwert der schärfsten Einstellebene subtrahiert. Die lokale Kantenorientierung wird hierbei durch numerische Approximation des Bildgradienten beispielsweise durch direktionale Sobelfilter in einem Einzelbild oder als gewichtete Mittelung der Gradienten durch mehrere Bilder des Fokalbildstapels approximiert.To calculate the astigmatically compensated adjustment plane, an astigmatic correction value is determined based on the local edge orientation in the image and subtracted from the depth value of the sharpest adjustment plane. The local edge orientation is approximated here by numerical approximation of the image gradient, for example using directional Sobel filters in a single image or as a weighted averaging of the gradients through several images of the focal image stack.

Um die Kantenorientierung innerhalb eines Bilds zu finden, wird beispielsweise mit Hilfe diskreter Ableitungsoperatoren ein Gradientenvektorfeld [ G x , G y ] = [ x B i l d ( x , y ) , y B i l d ( x , y ) ]

Figure DE102022118586A1_0009
errechnet und hiervon der Kantenorientierungswinkel θ = a r c t a n ( G x G y )
Figure DE102022118586A1_0010
bestimmt.For example, to find the edge orientation within an image, a gradient vector field is created using discrete derivative operators [ G x , G y ] = [ x b i l d ( x , y ) , y b i l d ( x , y ) ]
Figure DE102022118586A1_0009
calculated and from this the edge orientation angle θ = a r c t a n ( G x G y )
Figure DE102022118586A1_0010
certainly.

Die numerische Bestimmung des Gradienten im Bild ist anfällig gegenüber Rausch- und etwaigen Störeinflüssen. Dies beeinflusst sensitiv die errechnete Winkelkarte und kann die astigmatische Korrektur verfälschen. Im schlimmsten Fall kann ein inkorrekt bestimmter Winkel einen falschen Korrekturschritt implizieren, der den astigmatischen Messfehler vergrößert.The numerical determination of the gradient in the image is susceptible to noise and possible interference. This sensitively influences the calculated angle map and can falsify the astigmatic correction. In the worst case, an incorrectly determined angle can imply an incorrect correction step that increases the astigmatic measurement error.

Eine robuste Methode besteht darin, die Gradientenvektorfelder über mehrere Bildebenen hinweg in einem Bereich von 1-10 Rayleigheinheiten um den schärfsten Bildpunkt zu mitteln und aus dem gemittelten Gradientenvektorfeld die Winkelkarte zu errechnen.A robust method is to average the gradient vector fields across several image planes in a range of 1-10 Rayleigh units around the sharpest image point and to calculate the angle map from the averaged gradient vector field.

Zur Korrektur wird mit Hilfe des bestimmten Kantenorientierungswinkels der astigmatische Offset zur besten Einstellebene im Allgemeinen wie folgt bestimmt: d z ( θ , x , y ) = a m ( x , y ) sin ( m θ ) + b m ( x , y ) cos ( m θ )

Figure DE102022118586A1_0011
For correction, the astigmatic offset to the best adjustment plane is generally determined as follows using the specific edge orientation angle: d e.g ( θ , x , y ) = a m ( x , y ) sin ( m θ ) + b m ( x , y ) cos ( m θ )
Figure DE102022118586A1_0011

Dabei ist m ein natürliche Zahl und gibt die Ordnung der Entwicklung an. Der Offset dz gibt demnach für jeden Objektpunkt (x, y) den effektiven Korrekturwert an. Betrachtet man also die Entwicklung bis zur N-ten Ordnung werden jedem Objektpunkt dann N dritte Korrekturwerte und N vierte Korrekturwerte zugeordnet. Vorzugsweise wird die Entwicklung nur in zweiter Ordnung betrachtet. Der astigmatische Offset zur besten Einstellebene wird dann wie folgt bestimmt: d z ( θ , x , y ) = a 2 ( x , y ) sin ( 2 θ ) + b 2 ( x , y ) cos ( 2 θ )

Figure DE102022118586A1_0012
Here m is a natural number and indicates the order of development. The offset dz therefore indicates the effective correction value for each object point (x, y). If you look at the development up to the Nth order, N third correction values and N fourth correction values are assigned to each object point. The development is preferably only viewed in the second order. The astigmatic offset to the best adjustment plane is then determined as follows: d e.g ( θ , x , y ) = a 2 ( x , y ) sin ( 2 θ ) + b 2 ( x , y ) cos ( 2 θ )
Figure DE102022118586A1_0012

Der erste Korrekturwert entspricht dann dem Koeffizienten a2 und der zweite Korrekturwert entspricht dann dem Koeffizienten b2.The first correction value then corresponds to the coefficient a 2 and the second correction value then corresponds to the coefficient b 2 .

Der effektive Korrekturwert wird dann von der bestimmten Position maximaler Schärfe, sprich dem ermittelten Tiefenwert des Objektpunkts, subtrahiert. Die so neu bestimmte Position, sprich der astigmatisch korrigierte Tiefenwert des Objektpunkts ist nicht im richtungsabhängigen absoluten Schärfepunkt, jedoch gegenüber astigmatisch bedingten Telezentrie-Einflüssen kompensiert.The effective correction value is then subtracted from the specific position of maximum sharpness, i.e. the determined depth value of the object point. The newly determined position, i.e. the astigmatically corrected depth value of the object point, is not in the direction-dependent absolute focus point, but is compensated for astigmatically caused telecentricity influences.

Das astigmatisch kompensierte Bild mit erweiterter Schärfentiefe kann dann auf Basis der astigmatisch korrigierten Tiefenwerte der Objektpunkte erzeugt werden. Auf diese Weise wird die Aufnahme nicht mehr in der schärfsten Bildebene, sondern in der besten Einstellebene ausgewertet. Dies bewirkt eine leicht verringerte Bildschärfe im astigmatisch kompensierten Bild mit erweiterter Schärfentiefe, kompensiert jedoch Telezentriefehler bedingte Verschiebungen bzw. Messfehler. Um nun eine messfähige Aufnahme zu erhalten wird in einem letzten Schritt die Verzeichnung korrigiert. Die Korrektur der Verzeichnung kann beispielsweise wie in dem Schritt 52 des Verfahrens aus 2 beschrieben erfolgen.The astigmatically compensated image with extended depth of field can then be generated based on the astigmatically corrected depth values of the object points. In this way, the recording is no longer in the sharpest image plane, but evaluated at the best setting level. This causes a slightly reduced image sharpness in the astigmatically compensated image with an extended depth of field, but compensates for shifts or measurement errors caused by telecentricity errors. In order to obtain a measurable recording, the distortion is corrected in a final step. The correction of the distortion can, for example, be carried out as in step 52 of the method 2 described.

In den 15A bis 17C ist nochmals beispielhaft das Vorgehen in einem Kalibrationsprozess zur Bestimmung der Astigmatischen Korrekturwerte, sprich der ersten und zweiten Korrekturwerte, beschrieben.In the 15A until 17C The procedure in a calibration process for determining the astigmatic correction values, i.e. the first and second correction values, is described again as an example.

Zunächst wird ein Bild mit erweiterter Schärfentiefe eines Punktgitters aufgenommen. 15A zeigt eine exemplarische Darstellung eines Punktgitters. Das Punktgitter ist flach. Allerdings führt der Astigmatismus dazu, dass die Bildpunkte, die einen Punkt des Punktgitters abbilden winklelabhängig, sprich abhängig von der Orientierung des Bildpunkts zu dem Mittelpunkt des Punkts des Punktgitters, in der Tiefenrichtung je nach Winkel in Richtung des tangentialen oder sagittalen Fokus verschoben werden. Dies ist beispielsweise in 15B und 15C dargestellt. 15B zeigt ein 3D-Diagram zur Darstellung der schärfsten Bildpunkte des Randes eines Punktes des Punktgitters aus 15A. 15C zeigt ein Diagramm zur Darstellung der Tiefenwerte der schärfsten Bildpunkte aus 15B über dem jeweiligen Kantenorientierungswinkel. In den 15B und 15C ist zu erkennen das der tangentiale Fokus 130 und der sagittale Fokus 132 in der Tiefenrichtung 134 verschoben sind.First, an image is captured with an extended depth of field of a point grid. 15A shows an exemplary representation of a point grid. The dot grid is flat. However, the astigmatism causes the image points that represent a point of the point grid to be shifted in the depth direction depending on the angle in the direction of the tangential or sagittal focus depending on the angle, i.e. depending on the orientation of the image point to the center of the point of the point grid. This is for example in 15B and 15C shown. 15B shows a 3D diagram to display the sharpest image points of the edge of a point on the point grid 15A . 15C shows a diagram showing the depth values of the sharpest image points 15B over the respective edge orientation angle. In the 15B and 15C It can be seen that the tangential focus 130 and the sagittal focus 132 are shifted in the depth direction 134.

An die bestimmten Tiefenwerte wird eine Summe von Sinus-Funktionen Σam(x,y) sin(mθ) + bm(x,y) cos(mθ), vorzugsweise eine Sinus-Funktion 2. Ordnung a2(x,y) sin(2θ) + b2(x,y) cos(2θ), nach dem Astigmatismus-Modell gefittet. Mittels des Fits werden die Entwicklungskoeffizienten am und bm bestimmt. Die Entwicklungskoeffizienten beschreiben die astigmatischen, sprich tangentiale und sagittale, beste Einstellebenen abhängig von der lokalen Kantenorientierung. Die Entwicklungskoeffizienten entsprechen somit astigmatischen Korrekturwerten für die Lage der jeweiligen Punkte des Punktgitters im Bildraum. Betrachtet man die Entwicklung nur in der ersten Ordnung, entsprechen die Entwicklungskoeffizienten a1 und b1 dem ersten und zweiten Korrekturwert an dem Ort des Punkts des Punktgitters im Bildraum. Betrachtet man die Entwicklung nur in der zweiten Ordnung, entsprechen die Entwicklungskoeffizienten a2 und b2 dem ersten und zweiten Korrekturwert an dem Ort des Punkts des Punktgitters im Bildraum. Die ersten und zweiten Korrekturwerte für die Bildpunkte des Bildes mit erweiterter Schärfentiefe (für alle Bildpunkte im Bildraum) werden dann durch Interpolation über den gesamten Bereich (den gesamten Bildraum) bestimmt.A sum of sine functions Σa m (x,y) sin(mθ) + b m (x,y) cos(mθ), preferably a 2nd order sine function a 2 (x,y) is applied to the determined depth values. sin(2θ) + b 2 (x,y) cos(2θ), fitted according to the astigmatism model. The development coefficients a m and b m are determined using the fit. The development coefficients describe the astigmatic, i.e. tangential and sagittal, best adjustment planes depending on the local edge orientation. The development coefficients therefore correspond to astigmatic correction values for the position of the respective points of the point grid in the image space. If one considers the development only in the first order, the development coefficients a 1 and b 1 correspond to the first and second correction values at the location of the point of the point grid in the image space. If one considers the development only in the second order, the development coefficients a 2 and b 2 correspond to the first and second correction values at the location of the point of the point grid in the image space. The first and second correction values for the pixels of the image with extended depth of field (for all pixels in the image space) are then determined by interpolation over the entire area (the entire image space).

In den 16A bis 16C ist ein erstes Beispiel gezeigt, in dem jeweils eine Summe an Sinusfunktionen (als eine Fit-Funktion) an die winkelabhängige Verteilung der Tiefenwerte eines Punkts des Punktgitters gefittet ist. 16 A zeigt ein Diagramm, in dem das Einpassen der Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist. Mit anderen Worten zeigt 16A den Fit der Fit-Funktion an die winkelabhängige Verteilung der Tiefenwerte. 16B zeigt ein Diagramm, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist. 16C zeigt ein Diagramm, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist. Die korrigierten Tiefenwerte ergeben sich aus der Differenz der Tiefenwerte zu dem Fit.In the 16A until 16C A first example is shown in which a sum of sine functions (as a fit function) is fitted to the angle-dependent distribution of the depth values of a point on the point grid. 16 A shows a diagram in which the adjustment of the fit function to the depth values of the sharpest image points of the edge of a point of a point grid is shown. In other words shows 16A the fit of the fit function to the angle-dependent distribution of the depth values. 16B shows a diagram showing the spatial distribution of the depth values in the image plane (xy plane). 16C shows a diagram in which the spatial distribution of corrected depth values in the image plane (xy plane) is shown. The corrected depth values result from the difference between the depth values and the fit.

In den 17A bis 17C ist ein zweites Beispiel gezeigt, in dem jeweils eine Summe an Sinusfunktionen (als eine Fit-Funktion) an die winkelabhängige Verteilung der Tiefenwerte eines Punkts des Punktgitters gefittet ist. 17A zeigt ein Diagramm, in dem das Einpassen der Fit-Funktion an die Tiefenwerte der schärfsten Bildpunkte des Randes eines Punktes eines Punktgitters dargestellt ist. Mit anderen Worten zeigt 17A den Fit der Fit-Funktion an die winkelabhängige Verteilung der Tiefenwerte. 17B zeigt ein Diagramm, in dem die räumliche Verteilung der Tiefenwerte in der Bildebene (x-y Ebene) dargestellt ist. 17C zeigt ein Diagramm, in dem die räumliche Verteilung von korrigierten Tiefenwerten in der Bildebene (x-y Ebene) dargestellt ist. Die korrigierten Tiefenwerte ergeben sich aus der Differenz der Tiefenwerte zu dem Fit.In the 17A until 17C A second example is shown in which a sum of sine functions (as a fit function) is fitted to the angle-dependent distribution of the depth values of a point on the point grid. 17A shows a diagram in which the fitting of the fit function to the depth values of the sharpest image points of the edge of a point of a point grid is shown. In other words shows 17A the fit of the fit function to the angle-dependent distribution of the depth values. 17B shows a diagram in which the spatial distribution of the depth values in the image plane (xy plane) is shown. 17C shows a diagram in which the spatial distribution of corrected depth values in the image plane (xy plane) is shown. The corrected depth values result from the difference between the depth values and the fit.

Mit Bezug auf die 18 bis 19 wird im Folgenden erläutert, wie in einem Bild mit erweiterter Schärfentiefe eine Kante lokalisiert werden kann.With reference to the 18 until 19 The following explains how to locate an edge in an image with an extended depth of field.

Im einfachsten Fall kann eine Kante zumindest lokal als Gerade approximiert werden. Diesen Ansatz verfolgt die „Slanted-Edge“ Methode. In 18 ist exemplarisch dargestellt, wie in einem Bild 160 mit erweiterter Schärfentiefe mittels der „Slanted-Edge“ Methode eine Kantenposition einer Kante 166 in einem Bildbereich 162 des Bildes 160 lokalisiert wird.In the simplest case, an edge can at least be locally approximated as a straight line. The “Slanted Edge” method follows this approach. In 18 is shown as an example of how an edge position of an edge 166 in an image area 162 of the image 160 is localized using the “slanted edge” method in an image 160 with an extended depth of field.

Das Bild 160 weist Bildpunkte 164 in dem Bildbereich 162 auf. In dem Bild 160 verläuft eine Kante 166. Der Kantenverlauf der Kante 166 ist gerade und weist somit keine Krümmung auf. Die Kante 166 verläuft in einer Kantenverlaufsrichtung 168. Senkrecht zu der Kantenverlaufsrichtung 168 verläuft eine Normalen-Richtung 170.The image 160 has pixels 164 in the image area 162. An edge 166 runs in the image 160. The edge course of the edge 166 is straight and therefore has no curvature. The edge 166 runs in an edge direction 168. A normal direction 170 runs perpendicular to the edge direction 168.

Mittels der „Slanted-Edge“ Methode wird nun ein Kippwinkel bestimmt, um den die Kante 160, insbesondere die Kantenverlaufsrichtung 168, zur y-Richtung verkippt ist. Um denselben Kippwinkel ist entsprechend auch die Normalen-Richtung 170 zur x-Richtung verkippt. Durch eine Betrachtung der Intensitäten der Bildpunkte im Kantenbereich lässt sich dieser Kippwinkel bestimmen.Using the “slanted edge” method, a tilt angle is now determined by which the edge 160, in particular the edge direction 168, is tilted in the y-direction. The normal direction 170 is also tilted to the x direction by the same tilt angle. This tilt angle can be determined by looking at the intensities of the image points in the edge area.

Mittels des Winkels können dann die Bildpunkte 164 im Bildbereich 162 auf die Normalen-Richtung 170 projiziert werden. Diese Projektion ist in 18 mit gestrichelten Linien dargestellt, die parallel zu der Kantenverlaufsrichtung 168 verlaufen. Die Projektion ist somit eine Projektion des Bildbereichs 162 entlang der Kantenverlaufsrichtung 168 auf die Normalen-Richtung 170. Mittels dieser Projektion kann dann ein überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170 erzeugt werden. Das überaufgelöstes Kantenprofil 172 ist ein Intensitätsprofil I(z) der Bildpunkte 164 im Bildbereich 162, wobei z die Position in der Normalen-Richtung angibt. Die Position z jedes Bildpunkts in der Normalen-Richtung 170 ergibt sich aus den Koordinaten (x, y) des Bildpunkts sowie dem ermittelten Kippwinkel.Using the angle, the image points 164 in the image area 162 can then be projected onto the normal direction 170. This projection is in 18 shown with dashed lines that run parallel to the edge direction 168. The projection is therefore a projection of the image area 162 along the edge direction 168 onto the normal direction 170. Using this projection, an over-resolved edge profile 172 of the edge 166 can then be generated in the normal direction 170. The over-resolved edge profile 172 is an intensity profile I(z) of the image points 164 in the image area 162, where z indicates the position in the normal direction. The position z of each pixel in the normal direction 170 results from the coordinates (x, y) of the pixel and the determined tilt angle.

Der Wendepunkt des überaufgelöstes Kantenprofil 172 gibt die Kantenposition der Kante 166 in der Normalen-Richtung 170 an. Auf diese Weise kann mittels der „Slanted-Edge“ Methode die Kantenposition einer geraden Kante bestimmten werden.The turning point of the over-resolved edge profile 172 indicates the edge position of the edge 166 in the normal direction 170. In this way, the edge position of a straight edge can be determined using the “Slanted Edge” method.

Innerhalb messtechnischer Untersuchungen werden aber häufig keine geraden, sondern runde bzw. beliebig gekrümmte Kanten vermessen. Zur Bestimmung der Kantenposition solcher gekrümmter Kanten ist die „Slanted-Edge“ Methode ungeeignet. Im Folgenden wird nun eine Methodik beschrieben, mittels der auch eine Kante mit beliebig gekrümmtem Kantenverlauf modelliert und deren Kantenposition genau bestimmt werden kann.During metrological investigations, however, it is often not straight edges that are measured, but rather round or arbitrarily curved edges. The “slanted edge” method is unsuitable for determining the edge position of such curved edges. The following describes a methodology that can be used to model an edge with any curved edge and to precisely determine its edge position.

19 zeigt, ähnlich wie 18, einen Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe. In dem Bild 160 verläuft eine Kante 166. Im Unterschied zu 18 ist die Kante 166 in 19 nicht gerade, sondern gekrümmt. Die Kante 166 weist somit einen gekrümmten Kantenverlauf auf. An jedem Punkt 174 der Kante 166 hat die Kante 166 eine Tangente und eine Normale. Die Tangente verläuft in einer Kantenverlaufsrichtung 168. Die Normale verläuft in einer Normalen-Richtung 170. Die Kantenverlaufsrichtung 168 und die Normalen-Richtung 170 ändern sich entlang des Kantenverlaufs der Kante 166. Die Kantenverlaufsrichtung 168 und die Normalen-Richtung 170 spannen somit ein krummliniges Koordinatensystem auf. 19 shows, similar to 18 , an image area 162 of an image 160 with extended depth of field. An edge 166 runs in the image 160. In contrast to 18 the edge is 166 in 19 not straight, but curved. The edge 166 thus has a curved edge profile. At each point 174 of edge 166, edge 166 has a tangent and a normal. The tangent runs in an edge direction 168. The normal runs in a normal direction 170. The edge direction 168 and the normal direction 170 change along the edge path of the edge 166. The edge direction 168 and the normal direction 170 thus span a curvilinear coordinate system on.

Vorgeschlagen wird nun, eine Projektion der Bildpunkte in dem Bild 164 entlang des gekrümmten Kantenverlaufs durchzuführen, sprich eine Projektion auf die Normalen-Richtung 170 des krummlinigen Koordinatensystems. Hierzu kann auf Basis der Intensitäten der Bildpunkte, insbesondere auf Basis der Bildgradienten dieser Bildpunkte, ein oder mehrere Kantenparameter bestimmt werden, mittels denen der gekrümmte Kantenverlauf beschrieben bzw. modelliert werden kann. Die Position z jedes Bildpunkts in der Normalen-Richtung 170 ergibt sich somit aus einer Koordinatentransformation in das krummlinige Koordinatensystem. Zur Koordinatentransformation werden die bestimmten Kantenparameter des modellierten, gekrümmten Kantenverlaufs verwendet.It is now proposed to carry out a projection of the image points in the image 164 along the curved edge, i.e. a projection onto the normal direction 170 of the curvilinear coordinate system. For this purpose, one or more edge parameters can be determined based on the intensities of the image points, in particular based on the image gradients of these image points, by means of which the curved edge profile can be described or modeled. The position z of each pixel in the normal direction 170 thus results from a coordinate transformation into the curvilinear coordinate system. The specific edge parameters of the modeled, curved edge profile are used for coordinate transformation.

Mittels dieser Projektion wird dann ebenfalls ein überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170 erzeugt, auf Basis dessen dann die Kantenposition in der Normalen-Richtung 170 bestimmt werden kann.Using this projection, an over-resolved edge profile 172 of the edge 166 in the normal direction 170 is then also generated, on the basis of which the edge position in the normal direction 170 can then be determined.

In den 20A und 20B ist ein Spezialfall dargestellt, in dem eine Kante 166 eine konstante Krümmung aufweist.In the 20A and 20B A special case is shown in which an edge 166 has a constant curvature.

20A zeigt, ähnlich wie 19, einen Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe, in dem eine gekrümmte Kante 166 verläuft. Die Kante 166 in 20A hat einen Kantenverlauf mit konstanter Krümmung. Die Kante166 verläuft somit um ein Krümmungszentrum 176. Bei konstanter Krümmung entspricht die Normalen-Richtung 170 der radialen Richtung bezüglich des Krümmungszentrums 176 und die Kantenverlaufsrichtung 168 der tangentialen Richtung bezüglich des Krümmungszentrums 176. Das krummlinige Koordinatensystem ist somit eine zweidimensionales Polarkoordinatensystem mit Ursprung in dem Krümmungszentrum 176. 20A shows, similar to 19 , an image area 162 of an image 160 with an extended depth of field, in which a curved edge 166 runs. The edge 166 in 20A has an edge profile with constant curvature. The edge 166 thus runs around a center of curvature 176. With constant curvature, the normal direction 170 corresponds to the radial direction with respect to the center of curvature 176 and the edge direction 168 corresponds to the tangential direction with respect to the center of curvature 176. The curvilinear coordinate system is therefore a two-dimensional polar coordinate system with origin in the center of curvature 176.

Die Projektion entlang des Kantenverlaufs mit konstanter Krümmung ist somit eine Projektion entlang der tangentialen Richtung auf die radiale Richtung. Das Krümmungszentrum kann auf Basis der Intensitäten der Bildpunkte, insbesondere auf Basis der Bildgradienten dieser Bildpunkte, bestimmt werden.The projection along the edge profile with constant curvature is therefore a projection along the tangential direction onto the radial direction. The center of curvature can be determined based on the intensities of the image points, in particular based on the image gradients of these image points.

Die Position z jedes Bildpunkts in der Normalen-Richtung 170 entspricht dann dem radialen Abstand r zum Krümmungszentrum 176 in der radialen Richtung. Der radiale Abstand r eines Bildpunkts mit den Koordinaten (x,y) zu dem Krümmungszentrum 176 mit den Koordinaten (x0, y0) kann mittels der Formel r = ( x x 0 ) 2 + ( y y 0 ) 2

Figure DE102022118586A1_0013
bestimmt werden.The position z of each pixel in the normal direction 170 then corresponds to the radial distance r to the center of curvature 176 in the radial direction. The radial distance r of an image point with the coordinates (x,y) to the center of curvature 176 with the coordinates (x 0 , y 0 ) can be determined using the formula r = ( x x 0 ) 2 + ( y y 0 ) 2
Figure DE102022118586A1_0013
be determined.

Auf Basis der Projektion auf die radiale Richtung kann dann das überaufgelöstes Kantenprofil 172 der Kante 166 in der Normalen-Richtung 170, sprich in der radialen Richtung, erzeugt werden. Dies ist in 20B dargestellt. Das überaufgelöstes Kantenprofil 172 ist ein Intensitätsprofil I(r) der Bildpunkte 164 im Bildbereich 162. Auf Basis des überaufgelösten Kantenprofils 172 kann dann die Kantenposition in der radialen Richtung bezüglich des Krümmungszentrums 176 bestimmt werden.Based on the projection onto the radial direction, the over-resolved edge profile can then be created 172 of the edge 166 are generated in the normal direction 170, i.e. in the radial direction. This is in 20B shown. The over-resolved edge profile 172 is an intensity profile I(r) of the image points 164 in the image area 162. Based on the over-resolved edge profile 172, the edge position in the radial direction with respect to the center of curvature 176 can then be determined.

In 21 ist ein Verfahren 200 zur Lokalisierung einer Kantenposition einer Kante 166 in einem Bildbereich 162 eines Bildes 160 mit erweiterter Schärfentiefe beschrieben, das die zuvor beschriebene, neue Methodik anwendet. Das Verfahren 200 kann ein computerimplementiertes Verfahren sein. Das Verfahren 200 kann beispielsweise mittels eines Computers durchgeführt werden. Alternativ kann das Verfahren 200 auch mittels der Steuereinrichtung 26 des Messgeräts 10 durchgeführt werden.In 21 is a method 200 for locating an edge position of an edge 166 in an image area 162 of an image 160 with extended depth of field described, which uses the new methodology described above. The method 200 may be a computer-implemented method. The method 200 can be carried out, for example, using a computer. Alternatively, the method 200 can also be carried out using the control device 26 of the measuring device 10.

In einem optionalen Schritt 202 des Verfahrens 200 wird das Bild 160 mit erweiterter Schärfentiefe empfangen. Das Bild 160 kann dazu beispielsweise in einer externen Einrichtung entweder gespeichert sein oder erzeugt werden. Zur Kantenlokalisierung kann das Bild 160 dann von der externen Einrichtung empfangen werden.In an optional step 202 of the method 200, the image 160 is received with an extended depth of field. For this purpose, the image 160 can either be stored or generated in an external device, for example. The image 160 can then be received from the external device for edge localization.

Alternativ dazu kann in einem optionalen Schritt 204 des Verfahrens 200 das Bild 160 mit erweiterter Schärfentiefe erzeugt werden. Zum Erzeugen des Bildes 160 mit erweiterter Schärfentiefe kann beispielsweise das Verfahren 40 aus 2 durchgeführt werden.Alternatively, in an optional step 204 of the method 200, the image 160 can be generated with an extended depth of field. To generate the image 160 with an extended depth of field, the method 40 can be used, for example 2 be performed.

In einem weiteren Schritt 206 des Verfahrens 200 wird ein Bildgradient für jeden Bildpunkt in dem Bildbereich 162 bestimmt. Die bestimmten Bildgradienten bilden eine Bildgradientenkarte.In a further step 206 of the method 200, an image gradient is determined for each pixel in the image area 162. The determined image gradients form an image gradient map.

In einem weiteren, optionalen Schritt 208 des Verfahrens 200 wird die Bildgradientenkarte gefiltert. Dabei werden die Bildgradienten verworfen, die unterhalb eines definierten Schwellwerts liegen.In a further, optional step 208 of method 200, the image gradient map is filtered. The image gradients that are below a defined threshold value are rejected.

In einem weiteren Schritt 210 des Verfahrens 200 wird mindestens ein Kantenparameter eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte bestimmt. Der mindestens eine Kantenparameter kann dabei ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs sein, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird. Als Kantenverlaufsmodell kann beispielsweise eine Polynomfunktion verwendet werden, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades ist.In a further step 210 of the method 200, at least one edge parameter of a modeled, curved edge profile is determined based on the image gradient map. The at least one edge parameter can be one or more parameters of an edge profile model for describing the edge profile, wherein the at least one edge parameter is determined based on the edge profile model and the image gradient map. For example, a polynomial function can be used as the edge profile model, in particular where the polynomial function is a polynomial of at least second degree.

Der mindestens eine Kantenparameter kann durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird. Alternativ oder zusätzlich kann der mindestens eine Kantenparameter auch durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt werden, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird.The at least one edge parameter can be determined by compensation calculation based on the edge profile model and the image gradient map, in particular where the least squares method is used for the compensation calculation. Alternatively or additionally, the at least one edge parameter can also be determined by optimization based on the edge profile model and the image gradient map, in particular wherein for optimization the edge profile model is minimized with regard to the local edge roughness.

Insbesondere kann der modellierte, gekrümmte Kantenverlauf eine konstante Krümmung aufweisen. Dieser Fall wurde mit Bezug auf 20A und 20B bereits im Detail erläutert. Der mindestens eine Kantenparameter definiert dann das Krümmungszentrum 176 des Kantenverlaufs mit konstanter Krümmung. Die Projektion ist dann eine Projektion der Bildpunkte auf die radiale Richtung bezüglich des Krümmungszentrums 176 ist.In particular, the modeled, curved edge profile can have a constant curvature. This case was made with reference to 20A and 20B already explained in detail. The at least one edge parameter then defines the center of curvature 176 of the edge profile with constant curvature. The projection is then a projection of the image points onto the radial direction with respect to the center of curvature 176.

In einem weiteren Schritt 212 des Verfahrens 200 wird ein Kantenprofil 172 der Kante 166 auf Basis einer Projektion der Bildpunkte des Bildbereichs (162) entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters bestimmt.In a further step 212 of the method 200, an edge profile 172 of the edge 166 is determined based on a projection of the image points of the image area (162) along the edge profile using the at least one edge parameter.

In einem weiteren Schritt 214 des Verfahrens 200 wird die Kantenposition der Kante 166 auf Basis des Kantenprofils 172 bestimmt. Die Kantenposition kann beispielsweise auf Basis eines Wendepunkts des Kantenprofils 172 bestimmt werden.In a further step 214 of the method 200, the edge position of the edge 166 is determined based on the edge profile 172. The edge position can be determined, for example, based on a turning point of the edge profile 172.

In 22 ist ein Verfahren 220 zur Kantenlokalisierung in einem Bild 160 mit erweiterter Schärfentiefe, wobei das Bild 160 einen Bereich einer Oberfläche eines Werkstücks 12 abbildet. Das Verfahren 200 kann beispielsweise mittels der Steuereinrichtung 26 des Messgeräts 10 durchgeführt werden.In 22 is a method 220 for edge localization in an image 160 with extended depth of field, the image 160 depicting a region of a surface of a workpiece 12. The method 200 can be carried out, for example, by means of the control device 26 of the measuring device 10.

In einem ersten Schritt 222 des Verfahrens 220 wird ein Bild 160 mit erweiterter Schärfentiefe aufgenommen. Zum Aufnehmen des Bildes 160 mit erweiterter Schärfentiefe kann beispielsweise das Verfahren 60 aus 3 durchgeführt werden.In a first step 222 of the method 220, an image 160 is recorded with an extended depth of field. To capture the image 160 with an extended depth of field, for example, the method 60 can be used 3 be performed.

In einem weiteren Schritt 224 des Verfahrens 220 wird dann eine Kantenposition einer Kante 166 in einem Bildbereich 162 des Bildes 160 mit erweiterter Schärfentiefe mittels des Verfahrens 200 aus 21 erzeugt.In a further step 224 of the method 220, an edge position of an edge 166 in an image area 162 of the image 160 with an extended depth of field is then determined using the method 200 21 generated.

Im Folgenden wird auf den Fall der konstanten Krümmung der Kante nochmal detailliert eingegangen. Dabei wird die Kantengeometrie gegenüber einem gemeinsamen Krümmungsmittelpunkt [x0,y0] dargestellt. Dies kann als Taylornäherung zweiter Ordnung verstanden werden. Die Bestimmung des gemeinsamen Krümmungszentrums 176 entspricht der zentralen Herausforderung und es gibt hier mehrere Möglichkeiten. in den 23 und 24 sind zwei Beispiele dargestellt, wie bei konstanter Krümmung des Kantenverlaufs das Krümmungszentrum 176 und auf Basis dessen das überaufgelöste Kantenprofil 172 in der radialen Richtung bestimmt werden können.The case of constant curvature of the edge will be discussed in more detail below. The edge geometry is displayed relative to a common center of curvature [x 0 ,y 0 ]. This can be called a Taylor approximation Order can be understood. Determining the common center of curvature 176 meets the central challenge and there are several options here. in the 23 and 24 Two examples are shown of how the center of curvature 176 and on the basis of this the over-resolved edge profile 172 can be determined in the radial direction with constant curvature of the edge profile.

In 23 ist ein erstes Beispiel zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe dargestellt. In dem Bild ist eine Kreisstruktur dargestellt (siehe 23(A)). Zur Lokalisierung der Kante wird ein Bildbereich ausgewählt, in dem ein Teil der kreisförmigen Kante verläuft (siehe 23(B)).In 23 A first example of edge localization is shown in an image with an extended depth of field. The picture shows a circular structure (see 23(A) ). To locate the edge, an image area is selected in which part of the circular edge runs (see 23(B) ).

In einem ersten Schritt wird die lokale Kantenorientierung ermittelt. Hierfür wird in dem ausgewählten Bildbereich die numerische Approximation des Bildgradienten [ G x , G y ] = [ x φ ( x , y ) , y φ ( x , y ) ]

Figure DE102022118586A1_0014
bspw. durch direktionale Sobelfilter oder numerische Finite-Differenzen Ableitungsverfahren ermittelt. Um Einflüsse durch Bildrauschen zu unterdrücken ist es besonders vorteilhaft die Bildgradienten als gewichtete Mittelung über mehrere Bilder aus einem Fokalbildstapel zu errechnen. Dies kann mit folgender Formel erfolgen: [ G x , G y ] = 1 N i = 1 N [ x φ i ( x , y ) , y φ i ( x , y ) ]
Figure DE102022118586A1_0015
In a first step, the local edge orientation is determined. For this purpose, the numerical approximation of the image gradient is used in the selected image area [ G x , G y ] = [ x φ ( x , y ) , y φ ( x , y ) ]
Figure DE102022118586A1_0014
for example, determined by directional Sobel filters or numerical finite difference derivation methods. In order to suppress influences caused by image noise, it is particularly advantageous to calculate the image gradients as a weighted average over several images from a focal image stack. This can be done using the following formula: [ G x , G y ] = 1 N i = 1 N [ x φ i ( x , y ) , y φ i ( x , y ) ]
Figure DE102022118586A1_0015

Weiterhin ist es vorteilhaft die errechneten Bildgradieneten zusätzlich zu filtern. Errechnete Bildgradienten, welche entfernt von der Kante liegen, sind durch den fehlenden Kantenkontrast überwiegend durch das reine Bildrauschen beeinflusst und entsprechend verfälscht. Es ist hierbei sinnvoll alle Bildgradieneten, deren Gradientenwert unterhalb eines zu definierenden Schwellwertes liegt, zu verwerfen.Furthermore, it is advantageous to additionally filter the calculated image gradients. Calculated image gradients, which are located away from the edge, are predominantly influenced by pure image noise due to the lack of edge contrast and are correspondingly distorted. It makes sense to discard all image gradients whose gradient value is below a threshold value to be defined.

In einem nächsten Schritt wird mit Hilfe der errechneten Bildgradientenkarte [Gx,Gy] der Krümmungsmittelpunkt der Kante errechnet (siehe 23(C)). Unter der Annahme, dass sich der Kantenverlauf innerhalb des Bildbereichs als Kreis approximieren lässt, gibt es ein gemeinsames Krümmungszentrum [x0,y0] an dem das errechnete Vektorfeld [Gx,Gy] der lokalen Kantenorientierung einen gemeinsamen Ursprung besitzt. Eine Möglichkeit diesen gemeinsamen Ursprung zu ermitteln, besteht in der Lösung des überbestimmten Gleichungssystem aus den bekannten Größen x,y,Gx,Gy innerhalb des ausgewählten Bildbereichs für die unbekannten Größen x0,y0,ρ im Sinne einer Least-Square Optimierung x = x 0 + 1 ρ G x

Figure DE102022118586A1_0016
y = y 0 + 1 ρ G y
Figure DE102022118586A1_0017
In a next step, the center of curvature of the edge is calculated using the calculated image gradient map [G x ,G y ] (see 23(C) ). Assuming that the edge path within the image area can be approximated as a circle, there is a common center of curvature [x 0 ,y 0 ] at which the calculated vector field [G x ,G y ] of the local edge orientation has a common origin. One way to determine this common origin is to solve the overdetermined system of equations from the known quantities x,y,G x ,G y within the selected image area for the unknown quantities x 0 ,y 0 ,ρ in the sense of a least-square optimization x = x 0 + 1 ρ G x
Figure DE102022118586A1_0016
y = y 0 + 1 ρ G y
Figure DE102022118586A1_0017

Das heißt, es wird das über alle Bildgradienten der Bildgradientenkarte vermittelt beste Krümmungszentrum errechnet. Mit Hilfe des so errechneten Krümmungszentrum [x0,y0] lässt sich das überaufgelöste Kantenprofil extrahieren. Hierfür wird jedem Bildpunkt des Bildbereichs der radiale Abstand zum Krümmungszentrum r = ( ( x x 0 ) 2 + ( y y 0 ) 2 )

Figure DE102022118586A1_0018
zugeordnet (siehe 23(D)). Dann wird die Intensität der Bildpunkte (siehe 23(E)) in radialer Richtung betrachtet. Dazu wird das überaufgelöste Katenprofil I ( r = ( ( x x 0 ) 2 + ( y y 0 ) 2 ) )
Figure DE102022118586A1_0019
 
Figure DE102022118586A1_0020
in der radialen Richtung erzeugt.This means that the best center of curvature across all image gradients in the image gradient map is calculated. With the help of the center of curvature [x 0 ,y 0 ] calculated in this way, the over-resolved edge profile can be extracted. For this purpose, each pixel of the image area is assigned the radial distance to the center of curvature r = ( ( x x 0 ) 2 + ( y y 0 ) 2 )
Figure DE102022118586A1_0018
assigned (see 23(D) ). Then the intensity of the image points (see 23(E) ) viewed in the radial direction. The over-resolved cat profile is used for this purpose I ( r = ( ( x x 0 ) 2 + ( y y 0 ) 2 ) )
Figure DE102022118586A1_0019
Figure DE102022118586A1_0020
generated in the radial direction.

Auf Basis dieses Kantenprofils kann dann die Kantenposition in radialer Richtung bestimmt werden, sprich der Abstand der Kante zu dem Krümmungszentrum [x0,y0].Based on this edge profile, the edge position in the radial direction can then be determined, i.e. the distance from the edge to the center of curvature [x 0 ,y 0 ].

In 24 ist ein zweites Beispiel zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe dargestellt. In dem zweiten Beispiel wird das Krümmungszentrum mit Hilfe einer Optimierung errechnet, welche die lokale Kantenrauheit minimiert. ist der lokale Kantenursprung gegenüber seinem Nominalwert verschoben, weist das extrahierte Kantenprofil eine höhere Rauigkeit auf (Ein mögliches Maß für die Rauigkeit ist bspw. der Vergleich zwischen tiefpassgefilterter Kantenübertragungsfunktion und ungefilterter Kantenübertragungsfunktion).In 24 A second example of edge localization is shown in an image with an extended depth of field. In the second example, the center of curvature is calculated using an optimization that minimizes the local edge roughness. If the local edge origin is shifted compared to its nominal value, the extracted edge profile has a higher roughness (a possible measure for the roughness is, for example, the comparison between the low-pass filtered edge transfer function and the unfiltered edge transfer function).

Dieser Vergleich ermöglicht es, ein Krümmungszentrum zu bestimmen, indem die Position [x0,y0] derart optimiert wird, dass die ermittelte Rauigkeit des Kantenprofils minimiert wird. Dies ist schematisch in den 24(A) bis (C) dargestellt. 24(A) zeigt dabei ein Kantenprofil, für dessen Erzeugung die Position des Krümmungszentrums geschätzt bzw. mittels einer anderen Vorgehensweise, wie der aus 23, bestimmt wurde. 24(B) zeigt eine vergrößerte Darstellung der Intensitätswerte des Kantenprofils aus 24(A) im Kantenbereich. 24(C) zeigt die Intensitätswerte eines optimierten Kantenprofils im Kantenbereich, wobei die Position des Krümmungszentrums [x0,y0] optimiert wurde, um die Rauigkeit des Kantenprofils zu reduzieren. Die Kantenrauigkeit in 24(C) ist deutlich geringer als in 24(B).This comparison makes it possible to determine a center of curvature by optimizing the position [x 0 ,y 0 ] in such a way that the determined roughness of the edge profile is minimized. This is schematic in the 24(A) to (C) shown. 24(A) shows an edge profile, for the creation of which the position of the center of curvature is estimated or using a different procedure, such as that from 23 , was determined. 24(B) shows an enlarged view of the intensity values of the edge profile 24(A) in the edge area. 24(C) shows the intensity values of an optimized edge profile in the edge region, where the position of the center of curvature [x 0 ,y 0 ] was optimized to the roughness of the edge profile to reduce. The edge roughness in 24(C) is significantly lower than in 24(B) .

In den 25A bis 26B ist ein Vergleich dargestellt für eine Kantenanmessung basierend auf den extrahierten Kantenprofilen der Slanted-Edge-Method im Vergleich zum vorgeschlagenen, neuen Verfahren.In the 25A until 26B A comparison is shown for an edge measurement based on the extracted edge profiles of the slanted edge method in comparison to the proposed new method.

Dargestellt ist ein aufgenommenes Messbild eines Siemenssterns auf einer Kalibrationsmaske überlagert mit seinem Nominaldurchmessers und den ermittelten Kantenpositionen basierend auf der Slanted-Edge-Methode (siehe 25A und 25B) und der vorgeschlagenen Methodik (siehe 26A und 26B). Die extrahierten Kantenlokalisierungsergebnisse mit Hilfe der Slanted-Edge-Methode weisen deutlich vergrößerte Messabweichungen im Vergleich zur vorgeschlagenen Methodik auf.Shown is a recorded measurement image of a Siemens star superimposed on a calibration mask with its nominal diameter and the determined edge positions based on the slanted edge method (see 25A and 25B) and the proposed methodology (see 26A and 26B) . The extracted edge localization results using the slanted edge method show significantly increased measurement errors compared to the proposed methodology.

Im Folgenden wird als weiteres Beispiel ein Werkstück mit mehreren Kreisstrukturen betrachtet. In 27 ist ein Bild dieses Werkstücks dargestellt. In dem abgebildeten Bereich liegen 30 Kreisstrukturen. Von diesem Bereich wird mittels des Verfahrens 60 aus 3 ein korrigiertes Bild mit erweiterter Schärfentiefe aufgenommen, in welchem der Verzeichnungsfehler und der Astigmatismus-Fehler korrigiert sind. Dann werden beispielsweise mittels des Verfahrens 200 aus 21 die Kanten der Kreisstrukturen lokalisiert.In the following, a workpiece with several circular structures will be considered as another example. In 27 a picture of this workpiece is shown. There are 30 circular structures in the area shown. From this area, method 60 is used 3 a corrected image is recorded with an extended depth of field, in which the distortion error and the astigmatism error are corrected. Then, for example, using the method 200 21 the edges of the circular structures are localized.

Zu Vergleichszwecken wird in dem betrachteten Beispiel die Kantenlokalisierung der Kreisstrukturen einmal in dem korrigierten Bild mit erweiterter Schärfentiefe und des Weiteren in Einzelbildmessungen, sprich in Einzelbildern des Fokalbildstapels, durchgeführt. Auf Basis der lokalisierten Kanten kann dann die Rundheit der Kreisstrukturen bestimmt werden.For comparison purposes, in the example under consideration, the edge localization of the circular structures is carried out once in the corrected image with an extended depth of field and further in individual image measurements, i.e. in individual images of the focal image stack. The roundness of the circular structures can then be determined based on the localized edges.

In den 28, 29A und 29B sind Rundheitsmessungen der Kreisstrukturen in verschiedenen Bildern dargestellt. 28 zeigt die Rundheitsmessung in einem korrigierten Bild mit erweiterter Schärfentiefe. Die 29A und 29B zeigen Rundheitsmessungen in Bildern, für die Bildebenen ausgewählt wurden, welche in den Maximalpunkten des Astigmatismus liegen, das heißt jeweils eine Aufnahme in der besten sagittalen und tangentialen Bildebene. 29A zeigt eine Rundheitsmessung in einem unkorrigierten Bild in der besten sagittalen Ebene. 29B zeigt eine Rundheitsmessung in einem unkorrigierten Bild in der besten tangentialen Ebene.In the 28 , 29A and 29B Roundness measurements of the circular structures are shown in various images. 28 shows the roundness measurement in a corrected image with extended depth of field. The 29A and 29B show roundness measurements in images for which image planes were selected that lie in the maximum points of astigmatism, i.e. one image each in the best sagittal and tangential image plane. 29A shows a roundness measurement in an uncorrected image in the best sagittal plane. 29B shows a roundness measurement in an uncorrected image in the best tangential plane.

Der Vergleich der Rundheitsmessung aus 28 mit denen aus 29A und 29B verdeutlicht den Messfehler, welcher durch einen Autofokusmesspunkt auf einer horizontalen bzw. vertikalen Kante entstehen kann. Es wird deutlich, dass sich sowohl Zentrum als auch Form innerhalb der Rundheitsmessungen ändern in Abhängigkeit der gewählten Bilder. Diese Abweichung liegt betragsmäßig im Bereich von 1-1,5 µm und ist damit deutlich größer im Vergleich zur Abweichung der Abweichungen von etwa 200 nm im korrigierten Bild mit erweiterter Schärfentiefe. Dies verdeutlicht die Genauigkeitsverbesserung, welche durch ein korrigiertes Bild mit erweiterter Schärfentiefe erreicht wird.The comparison of the roundness measurement 28 with them 29A and 29B illustrates the measurement error that can arise from an autofocus measuring point on a horizontal or vertical edge. It becomes clear that both the center and shape within the roundness measurements change depending on the images chosen. This deviation is in the range of 1-1.5 µm and is therefore significantly larger compared to the deviation of around 200 nm in the corrected image with extended depth of field. This illustrates the improvement in accuracy achieved by a corrected image with extended depth of field.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 2598836 A1 [0007]EP 2598836 A1 [0007]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • „Shape From Focus Sytem" von Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308 [0008]"Shape From Focus Sytem" by Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308 [0008]
  • „Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, Seiten 1126-1136 [0013]"Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, pages 1126-1136 [0013]
  • „Comparison of MTF measurements using edge method: towards reference data set", Viallefont-Roninet et al, Opt. Express 26, 33625-33648 [0013]"Comparison of MTF measurements using edge method: towards reference data set", Viallefont-Roninet et al, Opt. Express 26, 33625-33648 [0013]

Claims (21)

Computerimplementiertes Verfahren (200) zum Lokalisieren einer Kantenposition einer Kante (166) in einem Bildbereich (162) eines Bildes (160), mit den folgenden Schritten: - Bestimmen (206) eines Bildgradienten für jeden Bildpunkt in dem Bildbereich (162), wobei die bestimmten Bildgradienten eine Bildgradientenkarte bilden; - Bestimmen (210) mindestens eines Kantenparameters eines modellierten, gekrümmten Kantenverlaufs basierend auf der Bildgradientenkarte; - Bestimmen (212) eines Kantenprofils (172) der Kante (166) auf Basis einer Projektion der Bildpunkte des Bildbereichs (162) entlang des Kantenverlaufs unter Verwendung des mindestens einen Kantenparameters; und - Bestimmen (214) der Kantenposition auf Basis des Kantenprofils (172).Computer-implemented method (200) for locating an edge position of an edge (166) in an image area (162) of an image (160), comprising the following steps: - determining (206) an image gradient for each pixel in the image area (162), the determined image gradients forming an image gradient map; - Determining (210) at least one edge parameter of a modeled, curved edge profile based on the image gradient map; - Determining (212) an edge profile (172) of the edge (166) based on a projection of the image points of the image area (162) along the edge profile using the at least one edge parameter; and - Determine (214) the edge position based on the edge profile (172). Verfahren nach Anspruch 1, wobei das Verfahren (200) des Weiteren den folgenden Schritt aufweist: - Filtern (208) der Bildgradientenkarte, wobei die Bildgradienten verworfen werden, die unterhalb eines definierten Schwellwerts liegen.Procedure according to Claim 1 , wherein the method (200) further comprises the following step: - filtering (208) of the image gradient map, wherein the image gradients that are below a defined threshold value are rejected. Verfahren nach Anspruch 1 oder 2, wobei der mindestens eine Kantenparameter ein oder mehrere Parameter eines Kantenverlaufsmodells zur Beschreibung des Kantenverlaufs sind, wobei der mindestens eine Kantenparameter auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird.Procedure according to Claim 1 or 2 , wherein the at least one edge parameter is one or more parameters of an edge profile model for describing the edge profile, wherein the at least one edge parameter is determined based on the edge profile model and the image gradient map. Verfahren nach Anspruch 3, wobei der mindestens eine Kantenparameter durch Ausgleichsrechnung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird, insbesondere wobei zur Ausgleichsrechnung die Methode der kleinsten Quadrate verwendet wird.Procedure according to Claim 3 , wherein the at least one edge parameter is determined by compensation calculation based on the edge profile model and the image gradient map, in particular wherein the least squares method is used for the compensation calculation. Verfahren nach Anspruch 3 oder 4, wobei der mindestens eine Kantenparameter durch Optimierung auf Basis des Kantenverlaufsmodells und der Bildgradientenkarte bestimmt wird, insbesondere wobei zur Optimierung das Kantenverlaufsmodell hinsichtlich der lokalen Kantenrauheit minimiert wird.Procedure according to Claim 3 or 4 , wherein the at least one edge parameter is determined by optimization based on the edge profile model and the image gradient map, in particular wherein for optimization the edge profile model is minimized with regard to the local edge roughness. Verfahren nach einem der Ansprüche 3 bis 5, wobei als Kantenverlaufsmodell eine Polynomfunktion verwendet wird, insbesondere wobei die Polynomfunktion ein Polynom mindestens zweiten Grades ist.Procedure according to one of the Claims 3 until 5 , whereby a polynomial function is used as the edge profile model, in particular where the polynomial function is a polynomial of at least second degree. Verfahren nach einem der Ansprüche 1 bis 6, wobei der gekrümmte Kantenverlauf eine konstante Krümmung aufweist, und wobei der mindestens eine Kantenparameter das Krümmungszentrum (176) des Kantenverlaufs mit konstanter Krümmung definiert, insbesondere wobei die Projektion eine Projektion der Bildpunkte auf eine radiale Richtung bezüglich des Krümmungszentrums (176) ist.Procedure according to one of the Claims 1 until 6 , wherein the curved edge profile has a constant curvature, and wherein the at least one edge parameter defines the center of curvature (176) of the edge profile with constant curvature, in particular wherein the projection is a projection of the image points onto a radial direction with respect to the center of curvature (176). Verfahren nach einem der Ansprüche 1 bis 7, wobei in dem Schritt des Bestimmens (214) der Kantenposition die Kantenposition auf Basis eines Wendepunkts des Kantenprofils (172) bestimmt wird.Procedure according to one of the Claims 1 until 7 , wherein in the step of determining (214) the edge position, the edge position is determined based on a turning point of the edge profile (172). Verfahren nach einem der Ansprüche 1 bis 7, wobei in dem Schritt des Bestimmens (214) der Kantenposition die Kantenposition auf Basis eines Erreichens eines definierten Schwellwertes des Kantenprofils (172) bestimmt wird.Procedure according to one of the Claims 1 until 7 , wherein in the step of determining (214) the edge position, the edge position is determined based on reaching a defined threshold value of the edge profile (172). Verfahren nach einem der Ansprüche 1 bis 9, wobei das Verfahren des Weiteren den folgenden Schritt aufweist: - Empfangen (202) des Bildes, insbesondere wobei das Bild ein Bild mit erweiterter Schärfentiefe ist.Procedure according to one of the Claims 1 until 9 , wherein the method further comprises the following step: - receiving (202) the image, in particular wherein the image is an image with an extended depth of field. Verfahren nach einem der Ansprüche 1 bis 9, wobei das Bild ein Bild mit erweiterter Schärfentiefe ist, wobei das Bild mit erweiterter Schärfentiefe einen Bereich einer Oberfläche eines Werkstücks (12) abbildet, wobei das Verfahren (200) des Weiteren die folgenden Schritte aufweist: - Empfangen (42) eines Fokalbildstapels, wobei der Fokalbildstapel eine Mehrzahl von Bildern des Werkstücks (12) aufweist, wobei die Bilder den Bereich der Oberfläche des Werkstücks (12) mit in einer Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen abbilden, wobei jedem Bild des Fokalbildstapels eine Fokalebenposition zugeordnet ist; - Erzeugen (50) des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung basierend auf dem Fokalbildstapel.Procedure according to one of the Claims 1 until 9 , wherein the image is an extended depth of field image, wherein the extended depth of field image images a region of a surface of a workpiece (12), the method (200) further comprising the following steps: - receiving (42) a focal image stack, wherein the focal image stack has a plurality of images of the workpiece (12), the images imaging the area of the surface of the workpiece (12) with different, defined focal plane positions in a depth direction (20), with each image of the focal image stack being assigned a focal plane position; - Generating (50) the image with extended depth of field in the depth direction based on the focal image stack. Verfahren (220) zur Kantenlokalisierung in einem Bild mit erweiterter Schärfentiefe, wobei das Bild einen Bereich einer Oberfläche eines Werkstücks (12) abbildet, mit den folgenden Schritten: - Erfassen (68) einer Mehrzahl von Bildern des Bereichs der Oberfläche des Werkstücks (12) mittels des optischen Sensors (14), wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) mit in der Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden; - Erzeugen (50) des Bildes mit erweiterter Schärfentiefe in der Tiefenrichtung (20) basierend auf dem Fokalbildstapel; und - Lokalisieren einer Kantenposition einer Kante (166) in einem Bildbereich (162) des Bildes (160) mit erweiterter Schärfentiefe mittels des Verfahrens (200) nach einem der Ansprüche 1 bis 10.Method (220) for edge localization in an image with an extended depth of field, the image depicting a region of a surface of a workpiece (12), with the following steps: - Acquiring (68) a plurality of images of the region of the surface of the workpiece (12) by means of the optical sensor (14), wherein the images each image the area of the surface of the workpiece (12) with different, defined focal plane positions in the depth direction (20), and wherein the captured images form a focal image stack; - Generating (50) the image with extended depth of field in the depth direction (20) based on the focal image stack; and - locating an edge position of an edge (166) in an image area (162) of the image (160) with extended depth of field using the method (200) according to one of the Claims 1 until 10 . Verfahren nach Anspruch 11 oder 12, wobei das Verfahren des Weiteren den Schritt aufweist: - Korrigieren (52) eines oder mehrerer Abbildungsfehler in dem erzeugten Bild mit erweiterter Schärfentiefe, wobei die zu korrigierenden Abbildungsfehler mindestens einen der folgenden Fehler aufweisen: einen Verzeichnungsfehler und/oder einen Astigmatismus-Fehler.Procedure according to Claim 11 or 12 , wherein the method further comprises the step: - correcting (52) one or more imaging errors in the generated image with extended depth of field, the imaging errors to be corrected having at least one of the following errors: a distortion error and / or an astigmatism error. Verfahren nach Anspruch 12 oder 13, wobei der optische Sensor (14) und das Werkstück (12) in der Tiefenrichtung (20) relativ zueinander bewegbar sind, so dass ein Abstand (22) in der Tiefenrichtung (20) zwischen dem Werkstück (12) und dem optischen Sensor (14) veränderbar ist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist: - Verändern (66) des Abstands zwischen dem Werkstück (12) und dem optischen Sensor (14), wobei in dem Schritt des Erfassens (68) die Mehrzahl von Bildern erfasst wird, während der Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) aus unterschiedlichen, definierten Abständen (22) zu dem Werkstück (12) in der Tiefenrichtung (20) abbilden.Procedure according to Claim 12 or 13 , wherein the optical sensor (14) and the workpiece (12) can be moved relative to one another in the depth direction (20), so that a distance (22) in the depth direction (20) between the workpiece (12) and the optical sensor (14 ) can be changed, the method further comprising the following step: - changing (66) the distance between the workpiece (12) and the optical sensor (14), the plurality of images being captured in the capture step (68). , while the distance (22) between the workpiece (12) and the optical sensor (14) is changed, the images each showing the area of the surface of the workpiece (12) from different, defined distances (22) to the workpiece (12). in the depth direction (20). Verfahren nach einem der Ansprüche 12 bis 14, wobei das Messgerät (10) einen Werkstückhalter (16) aufweist, wobei das Werkstück (12) auf dem Werkstückhalter (16) zum Vermessen angeordnet wird.Procedure according to one of the Claims 12 until 14 , wherein the measuring device (10) has a workpiece holder (16), the workpiece (12) being arranged on the workpiece holder (16) for measurement. Verfahren nach Anspruch 15, wobei das Messgerät (10) eine Antriebseinrichtung (28) aufweist, wobei die Antriebseinrichtung (28) den optischen Sensor (14) relativ zu dem Werkstückhalter (16) in der Tiefenrichtung (20) bewegt und/oder den Werkstückhalter (16) relativ zu dem optischen Sensor (14) in der Tiefenrichtung (20) bewegt, um den Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) zu verändern.Procedure according to Claim 15 , wherein the measuring device (10) has a drive device (28), wherein the drive device (28) moves the optical sensor (14) relative to the workpiece holder (16) in the depth direction (20) and / or the workpiece holder (16) relative to the optical sensor (14) moves in the depth direction (20) to change the distance (22) between the workpiece (12) and the optical sensor (14). Verfahren einem der Ansprüche 12 bis 16, wobei das Messgerät (10) eine Beleuchtungseinrichtung (32) aufweist, wobei das Verfahren des Weiteren den folgenden Schritt aufweist: - Beleuchten (64) des Werkstücks (12) mittels der Beleuchtungseinrichtung (32) während des Erfassens der Bilder des Fokalbildstapels.Procedure one of the Claims 12 until 16 , wherein the measuring device (10) has an illumination device (32), the method further comprising the following step: - illuminating (64) the workpiece (12) by means of the illumination device (32) while capturing the images of the focal image stack. Messgerät, insbesondere ein Koordinatenmessgerät oder ein Mikroskop, wobei das Messgerät (10) einen Werkstückhalter (16) für ein Werkstück (12), einen optischen Sensor (14) und eine Steuereinrichtung (26) aufweist, wobei der optische Sensor (14) dazu ausgebildet ist, Bilder eines Bereichs einer Oberfläche des Werkstücks (12) zu erfassen, wobei der optische Sensor (14) und das Werkstück (12) in einer Tiefenrichtung (20) voneinander beabstandet sind, wobei die Steuereinrichtung (26) dazu eingerichtet ist, die folgenden Schritte durchzuführen: - Steuern des optischen Sensors (14) derart, dass eine Mehrzahl von Bildern eines Bereichs der Oberfläche des Werkstücks (12) mittels des optischen Sensors (14) erfasst wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) mit in der Tiefenrichtung (20) unterschiedlichen, definierten Fokalebenenpositionen (22) abbilden, und wobei die erfassten Bilder einen Fokalbildstapel bilden; - Erzeugen eines Bildes (160) mit erweiterter Schärfentiefe in der Tiefenrichtung (20) basierend auf dem Fokalbildstapel; und - Lokalisieren von zumindest einer Kantenposition einer Kante (166) in einem Bildbereich (162) des Bildes (160) mit erweiterter Schärfentiefe mittels des Verfahrens (200) nach einem der Ansprüche 1 bis 10.Measuring device, in particular a coordinate measuring machine or a microscope, wherein the measuring device (10) has a workpiece holder (16) for a workpiece (12), an optical sensor (14) and a control device (26), the optical sensor (14) being designed for this purpose is to capture images of a region of a surface of the workpiece (12), the optical sensor (14) and the workpiece (12) being spaced apart from one another in a depth direction (20), the control device (26) being set up to do the following To carry out steps: - Controlling the optical sensor (14) in such a way that a plurality of images of a region of the surface of the workpiece (12) are captured by means of the optical sensor (14), the images each representing the region of the surface of the workpiece (12). image with defined focal plane positions (22) that are different in the depth direction (20), and wherein the captured images form a focal image stack; - Generating an image (160) with extended depth of field in the depth direction (20) based on the focal image stack; and - locating at least one edge position of an edge (166) in an image area (162) of the image (160) with an extended depth of field using the method (200) according to one of Claims 1 until 10 . Messgerät nach Anspruch 18, wobei das Messgerät (10) des Weiteren eine Antriebseinrichtung (28) aufweist, wobei die Antriebseinrichtung (28) dazu ausgebildet ist, den optischen Sensor (14) und den Werkstückhalter (16) in der Tiefenrichtung (20) relativ zueinander zu bewegen, um einen Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) zu verändern.measuring device Claim 18 , wherein the measuring device (10) further has a drive device (28), wherein the drive device (28) is designed to move the optical sensor (14) and the workpiece holder (16) relative to one another in the depth direction (20), in order to to change a distance (22) between the workpiece (12) and the optical sensor (14). Messgerät nach Anspruch 19, wobei die Steuereinrichtung (26) des Weiteren dazu eingerichtet ist, die folgenden Schritte, insbesondere vor dem Schritt des Erzeugens des korrigierten Bildes mit erweiterter Schärfentiefe, durchzuführen: - Steuern der Antriebseinrichtung (28) derart, dass ein Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei der optische Sensor (14) derart gesteuert wird, dass die Mehrzahl von Bildern erfasst wird, während der Abstand (22) zwischen dem Werkstück (12) und dem optischen Sensor (14) verändert wird, wobei die Bilder jeweils den Bereich der Oberfläche des Werkstücks (12) aus unterschiedlichen, definierten Abständen (22) zu dem Werkstück (12) in der Tiefenrichtung (20) abbilden.measuring device Claim 19 , wherein the control device (26) is further set up to carry out the following steps, in particular before the step of generating the corrected image with an extended depth of field: - Controlling the drive device (28) such that a distance (22) between the workpiece (12) and the optical sensor (14), the optical sensor (14) being controlled such that the plurality of images are captured while the distance (22) between the workpiece (12) and the optical sensor (14 ) is changed, the images each depicting the area of the surface of the workpiece (12) from different, defined distances (22) from the workpiece (12) in the depth direction (20). Computerprogrammprodukt mit einem Computerprogramm, das Programmcodemittel zur Durchführung eines Verfahren nach einem der Ansprüche 1 bis 11 aufweist, wenn das Computerprogramm auf einem Messgerät (10) ausgeführt wird.Computer program product with a computer program, the program code means for carrying out a method according to one of the Claims 1 until 11 when the computer program is executed on a measuring device (10).
DE102022118586.9A 2022-07-25 2022-07-25 Computer-implemented method, procedure, measuring device and computer program product Pending DE102022118586A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022118586.9A DE102022118586A1 (en) 2022-07-25 2022-07-25 Computer-implemented method, procedure, measuring device and computer program product
PCT/EP2023/070295 WO2024022973A1 (en) 2022-07-25 2023-07-21 Computer-implemented method, method, measuring device and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022118586.9A DE102022118586A1 (en) 2022-07-25 2022-07-25 Computer-implemented method, procedure, measuring device and computer program product

Publications (1)

Publication Number Publication Date
DE102022118586A1 true DE102022118586A1 (en) 2024-01-25

Family

ID=87474160

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022118586.9A Pending DE102022118586A1 (en) 2022-07-25 2022-07-25 Computer-implemented method, procedure, measuring device and computer program product

Country Status (2)

Country Link
DE (1) DE102022118586A1 (en)
WO (1) WO2024022973A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2598836A1 (en) 2010-07-27 2013-06-05 Alicona Imaging GmbH Ascertainment of defocused reflection maps for the robust determination of "shape from focus" in microscopy images

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TR200802780A2 (en) * 2008-04-22 2009-11-23 T�B�Tak- T�Rk�Ye B�L�Msel Ve Teknoloj�K Ara�Tirma Kurumu Automatic zone segmentation on barrel bottom table and selection of optimal track area for barrel comparison.

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2598836A1 (en) 2010-07-27 2013-06-05 Alicona Imaging GmbH Ascertainment of defocused reflection maps for the robust determination of "shape from focus" in microscopy images

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
„Comparison of MTF measurements using edge method: towards reference data set", Viallefont-Roninet et al, Opt. Express 26, 33625-33648
„Robust edge-spread function construction methods to counter poor sample spacing uniformity in the slanted-edge method", F. van den Bergh, J. Opt. Soc. Am. A 36, Seiten 1126-1136
„Shape From Focus Sytem" von Shree K. Nayar, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1992, 302-308
NALWA, Vishvjit S.; BINFORD, Thomas O. On detecting edges. IEEE transactions on pattern analysis and machine intelligence, 1986, Nr. 6, S. 699-714.
QIAN, Richard J.; HUANG, Thomas S. Optimal edge detection in two-dimensional images. IEEE Transactions on Image Processing, 1996, 5. Jg., Nr. 7, S. 1215-1220.

Also Published As

Publication number Publication date
WO2024022973A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
EP3186952B1 (en) Image capturing device and method for image capturing
EP1631809B1 (en) Method for determining the image quality of an optical imaging system
DE102014210099B3 (en) Method for image-based calibration of multi-camera systems with adjustable focus and / or zoom
EP3186776B1 (en) Image capturing device and method for image capturing
DE102013001948B4 (en) Surface shape measuring method and apparatus, computer program, computer readable nonvolatile storage medium, and optical element manufacturing method
DE102016107900B4 (en) Method and device for determining the edge of a measurement object in optical measurement technology
EP2052360A1 (en) Method and electron microscope for measuring the similarity of two-dimensional images
EP3692409A1 (en) High-resolution confocal microscope
DE102015112651B3 (en) Method and measuring device for determining dimensional properties of a measuring object
DE102017113615A1 (en) System, method and marker for determining the position of a moving object in space
DE102018222231A1 (en) Device and method for the optical measurement of an inner contour of a spectacle frame
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
DE19953063A1 (en) Method for three-dimensional optical measurement of object surfaces
EP4067809A2 (en) Computer-implemented method, method, measuring device and computer program product
DE102007017649A1 (en) A method for determining the focal position of at least two edges of structures on a substrate
DE102022118586A1 (en) Computer-implemented method, procedure, measuring device and computer program product
EP1459203B1 (en) Method for guided blind deconvolution of microscopic images and software
DE102022118582A1 (en) Computer-implemented method, procedure, measuring device and computer program product
DE102014114864A1 (en) Method and apparatus for determining a lateral offset of a pattern on a substrate relative to a desired position
DE102017110533A1 (en) Method for calibrating an optical measurement setup
EP4227636B1 (en) Determination of depth values of a surface area of a workpiece
DE102016113068A1 (en) A method and apparatus for determining the location of an optical interface along a first direction
DE102011101509C5 (en) Method for the optical measurement of a wave
DE112014006410T5 (en) A method of tolerating an optical surface using a local pupil region
DE102016203275B4 (en) Method and apparatus for determining a defocus value and method and apparatus for image-based determination of a dimensional size

Legal Events

Date Code Title Description
R012 Request for examination validly filed