WO2023006519A1 - Verfahren zum kalibrieren eines optischen messaufbaus - Google Patents
Verfahren zum kalibrieren eines optischen messaufbaus Download PDFInfo
- Publication number
- WO2023006519A1 WO2023006519A1 PCT/EP2022/070236 EP2022070236W WO2023006519A1 WO 2023006519 A1 WO2023006519 A1 WO 2023006519A1 EP 2022070236 W EP2022070236 W EP 2022070236W WO 2023006519 A1 WO2023006519 A1 WO 2023006519A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- points
- point
- object point
- imaging
- assigned
- Prior art date
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000003287 optical effect Effects 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 90
- 238000012937 correction Methods 0.000 claims abstract description 71
- 238000003384 imaging method Methods 0.000 claims abstract description 42
- 238000011157 data evaluation Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims description 68
- 239000002245 particle Substances 0.000 claims description 10
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000013213 extrapolation Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 239000012530 fluid Substances 0.000 claims description 4
- 230000001788 irregular Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Definitions
- the invention relates to a method for calibrating an optical measurement setup with a measurement volume and with at least two cameras, by means of which object points located at spatial points in the measurement volume can be imaged from different viewing angles onto pixels of corresponding camera images, such an image being mathematically based on a basis known from a precalibration - imaging function (usually error-prone) can be described, comprising the step: a) simultaneous imaging of the measurement volume by means of the cameras to generate a camera image for each camera, as well as the steps carried out several times, namely for a different object point: b) identification those pixels which are assigned to an object point depicted on each camera image, c) determining, using the identified pixels, that spatial point as the approximated object point which, according to predetermined optimization criteria, best corresponds to the corresponds to a point in space at which the imaged object point was actually located at the imaging time, and d) calculating a difference vector which is representative of an error in the basis imaging function in relation to the imaged object point.
- Such a calibration method is known from EP 1 926049 B1.
- a measurement volume through which the fluid flows is observed by several cameras from different viewing angles.
- a stereoscopic approach is often used for this, in which particle positions in the measurement volume can be calculated using camera images recorded simultaneously from different angles.
- mapping function M is usually given in the general form written where the index i identifies a specific camera, x, y denote the two-dimensional coordinates in the associated camera image and X, Y, Z the (also "world"- Coordinates mentioned) designate space coordinates in the measurement volume.
- Typical forms for mapping functions are so-called pinhole functions or polynomials.
- mapping functions The determination of these mapping functions is referred to as calibration.
- a two-stage calibration method is known from the generic publication mentioned above.
- a pre-calibration is carried out, which is typically done using so-called calibration plates.
- a structure provided with known markings is introduced into the measurement volume and imaged using the cameras.
- the corresponding parameters of the basic mapping functions can be calculated.
- the term "basic mapping function” is intended to express the fact that it is a mapping function of the above form that can be used, but which is still accessible to refinement in order to achieve greater accuracy, i.e. a better correspondence between "world” and "map". is.
- mapping function M′ is a refined mapping function.
- the mapping functions are often in the form of polynomials, pinhole functions or ray tracing fields, but can also be designed differently, in particular more complexly.
- the notion of basis mapping function is not intended to imply limitation to any particular mathematical form.
- the publication mentioned proposes a correction of the pre-calibrated basic mapping functions using known triangulation methods.
- a common object point that is visible to all cameras must be imaged on all camera images.
- the corresponding pixels are identified.
- the triangulation lines of sight are then determined on which the object point in the measurement volume could lie in order to be imaged at the respectively identified image point in the camera images (due to the dimension difference between the two-dimensional camera image and In a three-dimensional measurement volume, it is not possible to assign points unequivocally by applying the inverted basic mapping function to a single camera image).
- This back projection is done under the (preliminary) assumption that the basis mapping functions are correct.
- the triangulation lines of sight of all cameras meet at a common spatial point in the measurement volume, namely at the actual position of the object point at the time of imaging.
- this is not always the case after the only rough pre-calibration. Rather, the triangulation lines of sight calculated from the individual camera images are generally skewed to one another, ie without a common point of intersection.
- the publication mentioned therefore proposes that the point in space in the measurement volume which has the smallest distance to all calculated triangulation lines of sight be assumed to be the "true" object point, ie to be determined as an approximated object point.
- the publication also proposes determining a difference vector in the camera image between the pixel onto which the object point was actually mapped and the pixel onto which the approximated object point would be mathematically mapped when using the basic mapping function.
- an extended mapping function comprising the basic mapping function and a correction vector field, the correction vector field consisting of a grid of support points which are derived from the calculated difference vectors Correction vectors are assigned, by which points corresponding to the support points, to which the extended mapping function as part of a measurement data evaluation (directly or inversely) is to be applied, are to be shifted locally in addition to the application of the basic mapping function.
- the basic idea of the present invention is not to carry out the necessary "refinement" of the basic mapping function, as is known from the prior art, in the form of a single, global correction of said basic mapping function, but rather an extended mapping function with a preferably purely globally effective correction To provide component and a purely locally active component.
- This does not stand in the way of the fact that the basic mapping functions are already formulated in a complex manner and, in addition to globally effective components, also contain purely locally effective ones.
- the base mapping function is adopted unchanged for the global component. “Unchanged” refers to that form of the basic mapping function that is used in the context of the method according to the invention, in particular in the context of steps c) and d).
- the local component of the refined mapping function is a correction vector field that can be defined in the measurement volume or in the respective camera image and carries a correction vector at each of its support points, which represents a displacement which - depending on the specific application - on a spatial, object or pixel is to be used if the corresponding point is subjected to the (refined) mapping function or its inverse as part of a measurement data evaluation.
- the specific choice of which type of point is subjected to which form of the mapping function depends, as those skilled in the art will recognize, on the specific definition of the correction vector field and the specific measurement data evaluation task.
- the various conceivable constellations which are explained in more detail below, are mathematically equivalent and follow the same basic inventive idea.
- mapping function can also be assigned to areas of the measurement volume that are imaged with strong, local distortion, without this having a negative impact on the (regularly significantly larger) areas of the measurement volume that have significantly less distortion be mapped.
- the basic imaging function then applies to all areas, which can be optimized for the (predominant) areas of low distortion.
- the additional correction by the correction vector field turns out to be rather small in these areas, ie the corresponding correction vectors only have a short length.
- the remaining areas, in which the basic imaging function does not lead to a satisfactory description of the actual mapping receive an individual, local correction through a correspondingly longer correction vector.
- this approach also makes it possible, for example, to include edge areas of the measurement volume in a measurement that can only be imaged in a highly distorted manner, for example due to curved boundary walls.
- the previous restriction of the measurement to optically uncritical, ie low-distortion measurement volume areas is abolished.
- mapping field whose individual elements each include both the value of the (global) basis mapping function and a (local) correction vector individual to the element. It is also possible to "pull the global part in front of the brackets" as a term and to reserve the correction vector field solely for the element-specific correction vectors, in accordance with its designation.
- the support points are defined on a three-dimensional grid in the measurement volume. Selected spatial points in the measurement volume are thus determined and the correction vector appropriate there is calculated for them. It should be noted that the interpolation points do not have to match the (approximate) object points to which the previously calculated difference vectors relate. Rather, the interpolation points in the measurement volume can be distributed independently and even unevenly, with the respective correction vectors being able to be calculated using suitable statistical and/or interpolation or extrapolation methods. In the case of an irregular lattice of support points, the lattice can be denser in areas of strong, local optical distortion than in areas of largely constant optical conditions.
- a corresponding correction vector can be determined by suitable interpolation or extrapolation for spatial points located between the support points. Methods known to those skilled in the art, such as linear or spline interpolations or extrapolations, can be used.
- the correction vector field can also be determined in the planes of the camera images.
- the support points are defined on a two-dimensional grid in the respective camera image and each support point is assigned a group of correction vectors lying in the camera plane, each element of the group of correction vectors having a different position on the triangulation table assigned to the corresponding support point. line of sight is assigned.
- each reference point defined in the camera image is assigned a plurality of correction vectors which are each representative of only one point in space on said line of sight.
- Such a two-dimensional grid, each with a group of correction vectors at its support points can also be understood as a three-dimensional grid with “mixed” coordinates, namely the x, y coordinates of the camera image and, for example, along the z coordinate the line of sight.
- a corresponding correction vector can be determined by suitable interpolation for pixels located between the support points.
- the support points do not have to match the image points of imaged object points to which the previously calculated difference vectors relate. Rather, the supporting points of the image plane can be distributed independently and even unevenly, with the respective correction vectors being able to be calculated using suitable statistical and/or interpolation or extrapolation methods.
- the grid of support points in image areas onto which measurement volume areas of strong, local optical distortion are imaged can be denser than in other areas. It is also conceivable to make the density of the grid locally dependent on the amount of measurement data available for the respective areas.
- a corresponding correction vector can be determined by suitable interpolation or extrapolation for pixels located between the support points. Methods known to those skilled in the art, such as linear or spline interpolations or extrapolations, can be used.
- a correction vector can thus prescribe a shift of a pixel to be carried out as part of the measurement data evaluation, i.e. a shift in the camera image.
- a correction vector can also prescribe a displacement of an object point or point in space in the measurement volume. It is irrelevant where said correction vector is defined. It can be provided, for example, that the points to which the extended mapping function is to be applied as part of the measurement data evaluation are pixels in the camera image and the shifts to be made according to the assigned correction vectors are shifts in the camera image plane. Alternatively, it can be provided that the points to which the extended imaging function is to be applied as part of the measurement data evaluation are object points in the measurement volume and the displacements to be undertaken according to the assigned correction vectors are displacements in the measurement volume.
- the correction vectors from which the correction vector field according to the invention is constructed are derived from those calculated in step d). difference vectors. Possible embodiments of steps a) to d) that are suitable for calculating these difference vectors are known from the prior art cited at the outset. However, alternative calculation methods are conceivable.
- step a) it is possible to prepare the measurement volume to be imaged in step a) differently. It is conceivable that during the imaging according to step a), a fluid inoculated with a large number of optically detectable particles flows through the measurement volume. In the case of a high particle density, a difficulty can arise in the identification according to step b) of the image points in the camera images assigned to a specific object point, and therefore to a specific particle.
- the person skilled in the art is familiar with suitable methods for this, for example based on correlation analyses.
- a speckle plate with a random or pseudo-random point pattern is positioned in the measurement volume during imaging according to step a).
- Such a plate can be used at different points of the measurement volume, so that the method according to the invention can be carried out for different positions of the speckle plate and the individual results can be combined with one another if necessary.
- a similar approach can be implemented by positioning a calibration plate with a regular calibration pattern in the measurement volume during imaging according to step a).
- this latter variant opens up the possibility of using the additional information about the absolute position of the calibration marks on the calibration plate that is typical for a calibration plate when used as intended.
- the precalibration and the calibration according to the invention can be carried out as part of a joint measurement and calculation run.
- the term "simultaneous" imaging is to be understood in a broad sense. It describes the general case that in the period between the "simultaneous" recordings there is no significant change in or in the imaged in the context of the objective of the invention Measurement volume results, in particular positions of object points do not change to an extent relevant to the specific measurement.
- the subsequent step c) of determining the approximated object point there are also different options for the subsequent step c) of determining the approximated object point.
- the triangulation method known from the prior art is generally preferred.
- the image points identified as being associated with a common object point are subjected to the inverse of the basic imaging function in order to mathematically generate their triangulation lines of sight to the common object point.
- these lines of sight do not intersect at a common point in space, but are skewed to one another.
- the "true" object point can therefore not be determined exactly.
- an approximated object point can be determined, for which there are again different procedures.
- that point in space is determined as the approximated object point whose calculated projection using the base mapping function on the camera images has the smallest overall deviation from the identified image points.
- the respective pixel in each camera image is calculated for various candidate spatial points using the basic imaging function, and its distance from the pixel on which the assigned object point was actually imaged is measured. For example, a minimum of the sum of the squares of the respective distance vectors in the camera images can serve as the optimization criterion for selecting a point in space as an approximate object point.
- step d) subsequent calculation of the difference vector it is conceivable to calculate the difference vector in each camera image as the difference between the pixel identified in the respective camera image on the one hand and the calculated projection of the approximated object point using the associated basic mapping function on the other.
- the difference vector is calculated in step d) for each camera image as the difference between the approximated object point on the one hand and the calculated back-projection of the pixel identified in the respective camera image using the associated inverted base mapping function.
- the back-projection of a pixel by simply using the inverted basis mapping function initially does not provide a point in space but only a line of sight of all points in space from which an object point would be mapped onto the pixel in question.
- the variant mentioned for calculating the difference vector is therefore to be understood in such a way that it also includes a determination of the location along this line of sight. This can be done, for example, by taking over the Z coordinate of the approximated object point or by determining the smallest distance between the approximated object point and the back-projected line of sight.
- Figure 1 a first step in a preferred embodiment of the method according to the invention
- FIG. 2 a second step as part of a preferred embodiment of the method according to the invention
- FIG. 3 a third step as part of a preferred embodiment of the method according to the invention.
- FIG. 4 a fourth step as part of a preferred embodiment of the method according to the invention.
- Figure 5 a fifth step in a preferred embodiment of the method according to the invention.
- FIG. 6 the core of the invention in the form of a symbolic representation of the formula
- FIG. 1 shows, in a highly schematized representation, an exemplary measurement setup and the first step carried out on it in a particularly simple embodiment of the calibration method according to the invention.
- a measurement volume 10 is shown, which has curved boundary walls on which strong local optical distortions can occur when imaging the measurement volume.
- An object point 12 is arranged in the measurement volume.
- the representation of only one object point 12 is used solely for simplification for the purpose of better comprehension.
- Those skilled in the art will understand that there are typically a large number of differently positioned object points 12 in the measurement volume 10 .
- it may be particles flowing through the measuring volume or components or sections of solid calibration bodies, for example calibration or speckle plates.
- point is a simplification introduced for the sake of easier understanding and that the term is to be interpreted correspondingly broadly, as already explained in the general part of the description.
- a plurality of cameras 141 , 142 , 143 are arranged around the measurement volume 10 .
- the measurement volume 10 can be recorded with the cameras 141 , 142 , 143 and imaged on camera images 161 , 162 , 163 .
- the object point 12 is imaged, symbolized by the imaging arrows 181, 182, 183, onto a respective image point 201, 202, 203 assigned to it in the camera images 161, 162, 163.
- this mapping can be approximately described for each camera 141, 142, 143 with an assigned base mapping function Mi, M2, M3.
- This is a function of the space or world coordinates X, Y, Z in the measurement volume 10.
- the wording "roughly" is intended to indicate that the description of the mapping is by the base mapping function, which typically has the form of a pinhole function or a polynomial , usually contains errors.
- this mathematical description can differ significantly from the actual mapping of the object point 12 onto the or one of the image points 201, 202, 203. Achieving an improvement here is the task of the calibration according to the invention.
- the pixels 201, 202, 203 of the actual image of the object point 12 are calculated using the inverse Mr 1 , M2 1 , M3 '1 of the basic mapping functions Mi, M2, M3 in the measurement volume 10 is back-projected.
- the inverses Mr 1 , M2 1 , M3 '1 are functions of the image coordinates x, y. Due to the dimensional difference between the image coordinates x, y and the world coordinates X, Y, Z, an unambiguous back-projection on the single-image level is not possible.
- triangulation lines of sight 221, 222, 223 can initially be calculated from the individual pixels 201, 202, 203, which in the ideal case intersect at a common spatial point in the measurement volume, namely at the object point 12.
- this is not the case. Rather, the triangulation lines of sight 221, 222, 223 are skewed to one another.
- an approximate object point 24 is determined, i. H. a spatial point in the measurement volume 10 which is assumed to be the actual object point 12, or a spatial point which comes as close as possible to the “true” object point 12 within the framework of predetermined optimization criteria.
- that point in space in the measurement volume 10 that has the shortest overall distance from the triangulation lines of sight 221, 222, 223 is determined as the approximated object point 24. This can be determined, for example, by least squares minimization algorithms. Alternative methods for determining the approximated object point 24 have already been referred to in the general part of the description.
- FIG. 4 again shows this discrepancy in the first camera image 161.
- a difference vector 28 can be defined between the actual pixel 201 and the calculated pixel 261.
- the difference vectors 28 are converted into correction vectors 30.
- a grid of support points 32 is spanned in the camera image.
- a correction vector 30 is then assigned to each of the support points 32 .
- the correction vector 30 corresponds to a displacement vector interpolated from neighboring difference vectors 28 .
- the person skilled in the art will understand that the steps described above must be carried out for a large number of object points 12 in order to be able to construct a sufficiently precisely interpolated grid of correction vectors 30 over the entire image plane or the entire observed measurement volume 10 .
- FIG. 5 shows only one correction vector 30 per interpolation point 32 .
- each interpolation point 32 is assigned a whole family of correction vectors 30, the specific application of which depends on the Z plane of the measurement volume 10 in which the pixel corresponding to the interpolation point 32 is located. If the correction vector grid is set up in the measurement volume, which, as already explained in the general part of the description, is possible in other embodiments of the invention, such an assignment of correction vector groups to individual support points 32 is not necessary, since in the measurement volume 10 a three-dimensional Grid can be built, the support points must be assigned only a single correction vector.
- the resultant correction vector field Vi serves to create a refined mapping function, which is composed of the base mapping function adopted unchanged and said correction vector field Vi. If a point - be it a spatial or object point or an image point - has to be subjected to the extended mapping function as part of a measurement data evaluation, the same for all points, i.e. global basic mapping function and a locally differentiating shift according to specifications are applied separately of the correction vector field Vi. It depends on the definition of the specific correction vector, the order in which the operations mentioned are to be applied to the point in question. In the (usual) cases where a point to which the mapping function is to be applied does not exactly coincide with one of the support points 32, the correction vector to be used can be determined by suitable interpolation between the support points.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Kalibrieren eines optischen Messaufbaus mit einem Messvolumen (10) und mehreren Kameras (141, 142, 143), mittels welcher Objektpunkte (12) im Messvolumen (10) auf Bildpunkte (201, 202, 203) entsprechender Kamerabilder (161, 162, 163) abbildbar sind. Eine solche Abbildung ist mathematisch durch eine aus einer Vorkalibrierung bekannte Basis-Abbildungsfunktion beschreibbar. Das Verfahren umfasst: a) zeitgleiches Abbilden des Messvolumens (10) mittels der Kameras (141, 142, 143), b) Identifizieren derjenigen Bildpunkte (201, 202, 203), die einem auf jedem Kamerabild (161, 162, 163) abgebildeten Objektpunkt (12) zugeordnet sind, c) Ermitteln eines approximierten Objektpunktes (24), der am besten dem abgebildeten Objektpunkt (12) zum Abbildungszeitpunkt entspricht, und d) Berechnen eines für einen Fehler der Basis-Abbildungsfunktion in Bezug auf den abgebildeten Objektpunkt (12) repräsentativen Differenzvektors (28). e) Bereitstellen einer erweiterten Abbildungsfunktion, umfassend die Basis- Abbildungsfunktion und ein Korrekturvektorfeld, wobei das Korrekturvektorfeld aus einem Gitter von Stützstellen (32) besteht ist, denen Korrekturvektoren (30) zugeordnet sind, um welche zu den Stützstellen (32) korrespondierende Punkte, auf die die Abbildungsfunktion im Rahmen einer Messdatenauswertung anzuwenden ist, zusätzlich zur Anwendung der Basis-Abbildungsfunktion lokal zu verschieben sind.
Description
Anmelder: LaVision GmbH
Anwaltsakte: P-LVG 032 WO
Verfahren zum Kalibrieren eines optischen Messaufbaus
Beschreibung
Gebiet der Erfindung
Die Erfindung betrifft ein Verfahren zum Kalibrieren eines optischen Messaufbaus mit einem Messvolumen und mit wenigstens zwei Kameras, mittels welcher an Raumpunkten im Messvolumen befindliche Objektpunkte unter unterschiedlichen Betrachtungswinkeln auf Bildpunkte von entsprechenden Kamerabildern abbildbar sind, wobei eine solche Abbildung mathematisch durch eine aus einer Vorkalibrierung bekannte Basis- Abbildungsfunktion (in der Regel fehlerbehaftet) beschreibbar ist, umfassend den Schritt: a) zeitgleiches Abbilden des Messvolumens mittels der Kameras zur Erzeugung je eines Kamerabildes für jede Kamera, sowie die mehrfach, nämlich jeweils für einen anderen Objektpunkt, durchgeführten Schritte: b) Identifizieren derjenigen Bildpunkte, die einem auf jedem Kamerabild abgebildeten Objektpunkt zugeordnet sind, c) Ermitteln, unter Verwendung der identifizierten Bildpunkte, desjenigen Raumpunktes als den approximierten Objektpunkt, der nach vorgegebenen Optimierungskriterien am besten demjenigen Raumpunkt entspricht, an dem sich der abgebildete Objektpunkt zum Abbildungszeitpunkt tatsächlich befand, und d) Berechnen eines für einen Fehler der Basis-Abbildungsfunktion in Bezug auf den abgebildeten Objektpunkt repräsentativen Differenzvektors.
Stand der Technik
Ein derartiges Kalibrierverfahren ist bekannt aus der EP 1 926049 B1.
Bei vielen optischen Messaufgaben ist es erforderlich, aus zweidimensionalen Bilddaten auf dreidimensionale Positionen innerhalb eines Messvolumens zu schließen. Beispielsweise zur Vermessung von Strömungen ist es bekannt, das strömende Fluid mit optisch detektierbaren Partikeln zu beimpfen und mittels Kameras zu beobachten. Ein von dem Fluid durchströmtes Messvolumen wird dabei von mehreren Kameras unter unterschiedlichen Beobachtungswinkeln beobachtet. Um präzise Aussagen über die Details der Strömung machen zu können, ist es erforderlich, die Position der Partikel, welche als repräsentativ für die Strömung angesehen werden, im Messvolumen exakt bestimmen zu können. Hierzu dient oft ein stereoskopischer Ansatz, bei dem Teilchenpositionen im Messvolumen anhand von unter unterschiedlichen Winkeln gleichzeitig aufgenommenen Kamerabildern berechnet werden können. Wesentlich hierfür ist die präzise Kenntnis der sogenannten Abbildungsfunktion jeder Kamera, d.h. derjenigen Funktion, die eine dreidimensionale Position im Messvolumen, hier als "Raumpunkt" bezeichnet, mit der entsprechenden zweidimensionalen Position im Kamerabild, hier als "Bildpunkt" bezeichnet, in Beziehung setzt. Raumpunkte, an denen sich im Messvolumen zum Abbildungszeitpunkt tatsächlich ein optisch detektierbares Objekt, z.B. ein strömendes Teilchen, ein Bereich einer feststehenden Struktur oder Ähnliches, befindet, wird hier als "Objektpunkt" bezeichnet. Der Fachmann wird verstehen, dass dabei der Begriff des "Punktes", insbesondere im Kontext von Objekt- und Bildpunkten, nicht im engen, mathematischen Sinn auszulegen ist. Als Objektpunkt kann beispielsweise auch ein ausgedehntes Element, repräsentiert durch z.B. seinen Mittelpunkt, verstanden werden; analog kann als ein "Bildpunkt" beispielsweise eine ausgedehnte Struktur im Kamerabild, repräsentiert durch z.B. ihren Mittelpunkt, verstanden werden.
Die Abbildungsfunktion M wird üblicherweise in der allgemeinen Form
geschrieben, wo der Index i eine spezielle Kamera identifiziert, x, y die zweidimensionalen Koordinaten im zugeordneten Kamerabild bezeichnen und X, Y, Z die (auch "Welt"-
Koordinaten genannten) Raumkoordinaten im Messvolumen bezeichnen. Typische Formen für Abbildungsfunktionen sind sog. Pinhole-Funktionen oder Polynome.
Die Bestimmung dieser Abbildungsfunktionen wird als Kalibrierung bezeichnet.
Aus der oben genannten, gattungsbildenden Druckschrift ist ein zweistufiges Kalibrierverfahren bekannt. Zunächst wird eine Vorkalibrierung durchgeführt, die typischerweise mittels sogenannter Kalibrierplatten erfolgt. Hierzu wird eine mit bekannten Markierungen versehene Struktur in das Messvolumen eingebracht und mittels der Kameras abgebildet. Durch Vergleich der Kamerabilder mit der bekannten Struktur können die entsprechenden Parameter der Basis-Abbildungsfunktionen berechnet werden. Der Begriff "Basis-Abbildungsfunktion" soll zum Ausdruck bringen, dass es sich dabei um eine durchaus einsetzbare Abbildungsfunktion der o.g. Form handelt, die allerdings zur Erzielung einer höheren Genauigkeit, d.h. einer besseren Entsprechung von "Welt" und "Abbildung" noch einer Verfeinerung zugänglich ist. Die Vorkalibrierung ist nämlich vergleichsweise grob und bedarf, um für bestimmte Präzisionsmessungen tauglich zu sein, noch einer solchen Verfeinerung, die in einer verfeinerten Abbildungsfunktion M' resultiert. Ebenso tritt der Fall auf, dass sich in der Zeit zwischen Vorkalibrierung und eigentlicher Messung der optische Aufbau z.B. durch mechanische Instabilitäten verändert, oder es auch während der Messung zu Änderungen in der Basis- Abbildungsfunktion kommt, z.B. durch Vibrationen. Die Abbildungsfunktionen haben häufig die Form von Polynomen, Pinhole-Funktionen oder Raytracing-Feldern, können aber auch anders, insbesondere komplexer gestaltet sein. Der Begriff der Basis- Abbildungsfunktion soll keine Beschränkung auf eine bestimmte mathematische Form implizieren.
Die genannte Druckschrift schlägt eine Korrektur der vorkalibrierten Basis- Abbildungsfunktionen unter Anwendung bekannter Triangulationsverfahren vor. Zunächst ist die Abbildung eines gemeinsamen, für alle Kameras sichtbaren Objektpunktes auf allen Kamerabildern erforderlich. Die entsprechenden Bildpunkte werden identifiziert. Durch Inversion der Basis-Abbildungsfunktionen werden sodann die Triangulations- Sichtlinien bestimmt, auf denen der Objektpunkt im Messvolumen liegen könnte, um an dem jeweils identifizierten Bildpunkt in den Kamerabildern abgebildet zu werden (wegen des Dimensionsunterschiedes zwischen zweidimensionalem Kamerabild und
dreidimensionalem Messvolumen ist nämlich eine eindeutige Punktzuordnung durch Anwendung der invertierten Basis-Abbildungsfunktion auf ein einzelnes Kamerabild nicht möglich). Diese Rückprojektion erfolgt unter der (vorläufigen) Annahme, dass die Basis- Abbildungsfunktionen korrekt sind. Bei tatsächlich korrekten Basis-Abbildungsfunktionen treffen sich die Triangulations-Sichtlinien aller Kameras in einem gemeinsamen Raumpunkt im Messvolumen, nämlich bei der tatsächlichen Position des Objektpunktes zum Abbildungszeitpunkt. Dies ist jedoch nach der nur groben Vorkalibrierung regelmäßig nicht der Fall. Vielmehr stehen die aus den einzelnen Kamerabildern berechneten Triangulations-Sichtlinien in der Regel windschief, d.h. ohne gemeinsamen Schnittpunkt, zueinander. Die genannte Druckschrift schlägt daher vor, denjenigen Raumpunkt im Messvolumen, der den geringsten Abstand zu allen berechneten Triangulations- Sichtlinien hat, als "wahren" Objektpunktanzunehmen, d.h. als approximierten Objektpunkt zu bestimmen. Weiter schlägt die Druckschrift vor, im Kamerabild einen Differenzvektor zu bestimmen zwischen demjenigen Bildpunkt, auf den der Objektpunkt tatsächlich abgebildet wurde, und demjenigen Bildpunkt, auf den der approximierte Objektpunkt bei Anwendung der Basis-Abbildungsfunktion rechnerisch abgebildet würde.
Diese Schritte werden mehrfach für unterschiedliche Objektpunkte, insbesondere für eine Vielzahl von zeitgleich aufgenommenen Teilchen im Messvolumen, wiederholt (was im Kontext dieser Beschreibung auch die parallele Berechnung für verschiedene Objektpunkte einschließt). Es resultiert ein virtuelles Gitter im Messvolumen, dessen Gitterpunkten jeweils ein solcher Differenzvektor zugeordnet ist. Hieraus wird sodann durch geeignete Anpassungsalgorithmen (Fits) eine globale Korrektur der in der genannten Druckschrift in Polynomform vorliegenden Basis-Abbildungsfunktion, insbesondere durch Modifikation ihrer Polynom-Parameter, abgeleitet.
Dieser Ansatz hat sich sehr gut in Fällen bewährt, in denen die Genauigkeit der Abbildungsfunktionen über den von den Kameras beobachteten Bereich des Messvolumens im Wesentlichen gleichbleibt.
Als problematisch erweisen sich jedoch lokale Bereiche des Messvolumens, die im Rahmen ihrer Abbildung auf die Kameras starken optischen Verzerrungen unterworfen sind. Ursache hierfür können z.B. vorwiegend in den Bildrandbereichen auftretende Verzeichnungen durch das Kamera-Objektiv, Brechungen an gekrümmten
Begrenzungswänden des Messvolumens etc. sein. Der obige Ansatz führt dann häufig zu einer "Korrektur", die Fehler der Basis-Abbildungsfunktion in manchen Bereichen über und solche in anderen unterkorrigiert. Daher werden typische Messaufbauten häufig so angepasst, dass nur ein zentraler, optisch unkritischer Bereich des Messvolumens beobachtet wird. Optisch kritische Bereiche des Messvolumens bleiben einer präzisen Vermessung jedoch unzugänglich.
Aufgabenstellung
Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Kalibrierverfahren anzugeben, das auch in der Lage ist, starke, lokale Fehler der Basis-Abbildungsfunktion zu beheben.
Darlegung der Erfindung
Diese Aufgabe wird in Verbindung mit den Merkmalen des Oberbegriffs von Anspruch 1 gelöst durch Bereitstellen, für jedes Kamerabild, einer erweiterten Abbildungsfunktion, umfassend die Basis-Abbildungsfunktion und ein Korrekturvektorfeld, wobei das Korrekturvektorfeld aus einem Gitter von Stützstellen besteht, denen aus den berechneten Differenzvektoren abgeleitete Korrekturvektoren zugeordnet sind, um welche zu den Stützstellen korrespondierende Punkte, auf die die erweiterte Abbildungsfunktion im Rahmen einer Messdatenauswertung (direkt oder invertiert) anzuwenden ist, zusätzlich zur Anwendung der Basis-Abbildungsfunktion lokal zu verschieben sind.
Bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
Der Grundgedanke der vorliegenden Erfindung besteht darin, die erforderliche „Verfeinerung“ der Basis-Abbildungsfunktion nicht, wie aus dem Stand der Technik bekannt, in Form einer einzigen, globalen Korrektur besagter Basis-Abbildungsfunktion vorzunehmen, sondern eine erweiterte Abbildungsfunktion mit einem vorzugsweise rein global wirksamen Bestandteil und einem rein lokal wirksamen Bestandteil zur Verfügung zu stellen. Dem steht nicht entgegen, wenn auch die Basis-Abbildungsfunktionen bereits komplex formuliert sind und neben global wirksamen Bestandteilen auch bereits rein lokal wirksame enthalten.
Bei der bevorzugten Ausführungsform wird für den globalen Bestandteil die Basis- Abbildungsfunktion unverändert übernommen. „Unverändert“ bezieht sich dabei auf diejenige Form der Basis-Abbildungsfunktion, die im Rahmen des erfindungsgemäßen Verfahrens, insbesondere im Rahmen der Schritte c) und d) Anwendung findet. Dies schließt keinesfalls Fälle aus, in denen zunächst eine noch gröber vorkalibrierte Basis- Abbildungsfunktion verwendet und vor Anwendung des erfindungsgemäßen Verfahrens durch vorangehende Verfeinerungsschritte, wie beispielsweise aus dem Stand der Technik bekannt, vorverfeinert wird. Eine solche Vorverfeinerung kann dabei ohne weiteres auf denselben aufgenommenen Kamerabildern basieren wie die erfindungsgemäße, finale Verfeinerung.
Der lokale Bestandteil der verfeinerten Abbildungsfunktion ist hingegen ein Korrekturvektorfeld, dass im Messvolumen oder im jeweiligen Kamerabild definiert sein kann und an jeder seiner Stützstellen einen Korrekturvektor trägt, der eine Verschiebung repräsentiert, welche - je nach konkretem Anwendungsfall - auf einen Raum-, Objekt oder Bildpunkt anzuwenden ist, wenn der entsprechende Punkt im Rahmen einer Messdatenauswertung der (verfeinerten) Abbildungsfunktion oder ihrer Inversen unterworfen wird. Die konkrete Wahl, welche Art von Punkt welcher Form der Abbildungsfunktion unterworfen wird, hängt, wie der Fachmann erkennt, von der konkreten Definition des Korrekturvektorfeldes und der konkreten Messdaten- Auswertungsaufgabe ab. Die verschiedenen, denkbaren Konstellationen, zu denen weiter unten noch näher ausgeführt wird, sind jedoch mathematisch äquivalent und folgen demselben erfinderischen Grundgedanken.
Der besondere Vorteil dieses Ansatzes ist es, dass auch Bereichen des Messvolumens, die mit starker, lokaler Verzerrung abgebildet werden, eine angemessene Abbildungsfunktion zugeordnet werden kann, ohne dass dies negative Auswirkungen auf die (regelmäßig deutlich größeren Bereiche) des Messvolumens hätte, die deutlich verzerrungsärmer abgebildet werden. Für alle Bereiche gilt dann nämlich die Basis- Abbildungsfunktion, die etwa auf die (überwiegenden) Bereiche geringer Verzerrung hin optimiert sein kann. Die zusätzliche Korrektur durch das Korrekturvektorfeld fällt in diesen Bereichen eher gering aus, d.h. die entsprechenden Korrekturvektoren haben nur eine geringe Länge. Die übrigen Bereiche, in denen aufgrund der starken optischen Verzerrung die Basis-Abbildungsfunktion nicht zu einer befriedigenden Beschreibung der
tatsächlichen Abbildung führt, erhalten eine individuelle, lokale Korrektur durch einen entsprechend längeren Korrekturvektor. Im Ergebnis ermöglicht dieser Ansatz also beispielsweise auch die Einbeziehung von Randbereichen des Messvolumens in eine Messung, die etwa aufgrund von gekrümmten Begrenzungswänden nur stark verzerrt abgebildet werden können. Die bisherige Beschränkung der Messung auf die optisch unkritischen, d.h. verzerrungsarm abbildbaren Messvolumenbereiche wird aufgehoben.
Der Fachmann wird verstehen, dass es zur Verwirklichung der erfindungsgemäßen Idee nicht auf die konkrete mathematische Formulierung der verfeinerten Abbildungsfunktion ankommt. So liegt es ohne weiteres im Rahmen der Erfindung, ein "Abbildungsfeld" zu formulieren, dessen einzelne Elemente jeweils sowohl den Wert der (globalen) Basis- Abbildungsfunktion als auch einen für das Element individuellen (lokalen) Korrekturvektor umfassen. Ebenso ist es möglich, den globalen Anteil als Term "vor die Klammer zu ziehen" und das Korrekturvektorfeld entsprechend seiner Bezeichnung allein den elementenindividuellen Korrekturvektoren vorzubehalten.
Zur Definition des erfindungsgemäßen Korrekturvektorfeldes sind mehrere Möglichkeiten denkbar. So ist bei einer ersten Variante vorgesehen, dass die Stützstellen auf einem dreidimensionalen Gitter im Messvolumen definiert sind. Es werden also ausgewählte Raumpunkte im Messvolumen bestimmt und für diese der dort jeweils angemessene Korrekturvektor berechnet. Dabei ist zu beachten, dass die Stützstellen nicht mit den (approximierten) Objektpunkten übereinstimmen müssen, auf die sich die zuvor berechneten Differenzvektoren beziehen. Vielmehr können die Stützstellen im Messvolumen unabhängig und sogar ungleichmäßig verteilt werden, wobei sich die jeweiligen Korrekturvektoren über geeignete statistische und/oder Inter- bzw. Extrapolations-Verfahren berechnen lassen. Im Fall eines unregelmäßigen Gitters von Stützstellen kann das Gitter in Bereichen starker, lokaler optischer Verzerrung dichter sein als in Bereichen weitgehend gleichbleibender optischer Verhältnisse. Auch ist es denkbar, die Dichte des Gitters lokal abhängig von der Menge der für die jeweiligen Bereiche verfügbaren Messdaten zu gestalten. Für zwischen den Stützstellen liegende Raumpunkte kann ein entsprechender Korrekturvektor durch geeignete Interpolation oder Extrapolation bestimmt werden. Dem Fachmann bekannte Verfahren, wie lineare oder Spline-Inter- bzw. Extrapolationen sind anwendbar.
Alternativ kann das Korrekturvektorfeld auch in den Ebenen der Kamerabilder bestimmt werden. In diesem Fall ist vorgesehen, dass die Stützstellen auf einem zweidimensionalen Gitter im jeweiligen Kamerabild definiert sind und jeder Stützstelle eine Schar von in der Kameraebene liegenden Korrekturvektoren zugeordnet ist, wobei jedes Element der Schar von Korrekturvektoren einer anderen Position auf der dem entsprechenden Stützpunkt zugeordneten Triangulations-Sichtlinie zugeordnet ist. Wie oben erwähnt, ist nämlich die Zuordnung eines Bildpunktes im zweidimensionalen Kamerabild zu einem Raumpunkt im dreidimensionalen Messvolumen nicht eindeutig. Alle auf einer gemeinsamen Schichtlinie liegenden Raumpunkte würden, sofern sich an ihrer Position ein abbildbarer Objektpunkt befinden, auf denselben Bildpunkt abgebildet. Da die erfindungsgemäße, lokal differenzierende Verfeinerung der Abbildungsfunktion aber gerade auf lokale Unterschiede im Messvolumen abstellt, wäre es nicht ausreichend, jedem Bildpunkt lediglich einen Korrekturvektor zuzuordnen, der dann repräsentativ für sämtliche Raumpunkte auf der dem fraglichen Bildpunkt zugeordneten Sichtlinie wäre. Daher ist bei der genannten Ausführungsform der Erfindung vorgesehen, jedem im Kamerabild definierten Stützpunkt (d.h. einem Bildpunkt) mehrere Korrekturvektoren zuzuordnen, die jeweils repräsentativ für nur einen Raumpunkt auf besagter Sichtline sind. Der Fachmann wird verstehen, dass bei einem solchen zweidimensionalen Gitter mit jeweils einer Schar von Korrekturvektoren an seinen Stützstellen auch als dreidimensionales Gitter mit „gemischten“ Koordinaten verstanden werden kann, nämlich den x-, y-Koordinaten des Kamerabildes und z.B. der Z-Koordinate entlang der Sichtlinie. Für zwischen den Stützstellen liegende Bildpunkte kann ein entsprechender Korrekturvektor durch geeignete Interpolation bestimmt werden.
Analog zu dem oben gesagten ist hier zu beachten, dass die Stützstellen nicht mit den Bildpunkten abgebildeter Objektpunkte, auf die sich die zuvor berechneten Differenzvektoren beziehen, übereinstimmen müssen. Vielmehr können die Stützstellen der Bildebene unabhängig und sogar ungleichmäßig verteilt werden, wobei sich die jeweiligen Korrekturvektoren über geeignete statistische und/oder Inter- bzw. Extrapolations-Verfahren berechnen lassen. Im Fall eines unregelmäßigen Gitters von Stützstellen kann das Gitter von Stützstellen in Bildbereichen, auf die Messvolumen- Bereiche starker, lokaler optischer Verzerrung abgebildet werden, dichter sein als in anderen Bereichen. Auch ist es denkbar, die Dichte des Gitters lokal abhängig von der Menge der für die jeweiligen Bereiche verfügbaren Messdaten zu gestalten. Weiter ist zu
beachten, dass die Stützstellen - wie auch allgemein die Bildpunkte - nicht mit Pixeln eines Detektors zusammenfallen müssen, sondern weit feiner, d. h. im Subpixelbereich, definiert sein können. Für zwischen den Stützstellen liegende Bildpunkte kann ein entsprechender Korrekturvektor durch geeignete Interpolation oder Extrapolation bestimmt werden. Dem Fachmann bekannte Verfahren, wie lineare oder Spline-Inter- bzw. Extrapolationen sind anwendbar.
Es sind dies die wesentlichen Varianten, wo die Korrekturvektoren definiert sein können. Allerdings gibt es auch für das Wie der Korrekturvektor-Definition unterschiedliche Varianten. So kann ein Korrekturvektor eine im Rahmen der Messdatenauswertung vorzunehmende Verschiebung eines Bildpunktes, d.h. eine Verschiebung im Kamerabild vorschreiben. Alternativ kann ein Korrekturvektor aber auch eine Verschiebung eines Objekt- bzw. Raumpunktes im Messvolumen vorschreiben. Dabei ist es unerheblich, wo besagter Korrekturvektor definiert ist. So kann etwa vorgesehen sein, dass die Punkte auf die die erweitere Abbildungsfunktion im Rahmen der Messdatenauswertung anzuwenden ist, Bildpunkte im Kamerabild sind und die gemäß den zugeordneten Korrekturvektoren vorzunehmenden Verschiebungen Verschiebungen in der Kamerabildebene sind. Alternativ kann vorgesehen sein, dass die Punkte auf die die erweiterte Abbildungsfunktion im Rahmen der Messdatenauswertung anzuwenden ist, Objektpunkte im Messvolumen sind und die gemäß den zugeordneten Korrekturvektoren vorzunehmenden Verschiebungen Verschiebungen im Messvolumen sind.
Unter Berücksichtigung der unterschiedlichen Varianten des Wo einer Definition der Korrekturvektoren sowie der unterschiedlichen Varianten des We einer solchen Definition ergeben sich mithin vier hauptsächlich relevante Konstellationen. Der Fachmann wird jedoch verstehen, dass diese unterschiedlichen Definitionskonstellationen mathematisch zueinander äquivalent und durch geeignete Transformationen ineinander überführbar sind. Sie stellen lediglich Unterschiede in der handwerklichen Umsetzung des erfinderischen Gedankens. Je nach konkreter Messaufgabe und experimentellem Aufbau der Messanordnung kann die eine oder andere dieser Definitions-Konstellationen vorteilhaft sein.
We oben bereits gesagt, leiten sich die Korrekturvektoren, aus denen das erfindungsgemäße Korrekturvektorfeld aufgebaut ist, aus den in Schritt d) berechneten
Differenzvektoren ab. Mögliche, zur Berechnung dieser Differenzvektoren geeignete Ausführungsformen der Schritte a) bis d) sind aus dem eingangs zitierten Standes der Technik bekannt. Alternative Berechnungsmethoden sind jedoch denkbar.
Zunächst ist es möglich, dass in Schritt a) abzubildende Messvolumen unterschiedlich zu präparieren. Denkbar ist es, dass während des Abbildens gemäß Schritt a) das Messvolumen von einem mit einer Vielzahl optisch detektierbarer Partikel beimpften Fluid durchströmt wird. Bei hoher Partikeldichte kann sich eine Schwierigkeit bei der Identifizierung gemäß Schritt b) der einem bestimmten Objektpunkt, mithin einem bestimmten Partikel zugeordneten Bildpunkte in den Kamerabildern ergeben. Dem Fachmann sind hierzu jedoch geeignete Methoden, beispielsweise basierend auf Korrelationsanalysen, geläufig.
Alternativ kann vorgesehen sein, dass während des Abbildens gemäß Schritt a) eine Speckle-Platte mit einem zufälligen oder Pseudo-zufälligen Punktmuster im Messvolumen positioniert ist. Eine solche Platte kann an unterschiedlichen Stellen des Messvolumens eingesetzt werden, sodass das erfindungsgemäße Verfahren für unterschiedliche Positionen der Speckle-Platte durchgeführt und die einzelnen Ergebnisse gegebenenfalls miteinander kombiniert werden können.
Ein ähnlicher Ansatz kann dadurch realisiert werden, dass während des Abbildens gemäß Schritt a) eine Kalibrierplatte mit einem regelmäßigen Kalibriermuster im Messvolumen positioniert ist. Insbesondere diese letztgenannte Variante eröffnet die Möglichkeit die bei bestimmungsgemäßer Anwendung für eine Kalibrierplatte typische, zusätzliche Information über die absolute Position der Kalibriermarken auf der Kalibrierplatte zu nutzen. Insbesondere können etwa die Vorkalibrierung und die erfindungsmäße Kalibrierung im Rahmen eines gemeinsamen Mess- und Berechnungsdurchgangs durchgeführt werden.
Insbesondere, aber nicht ausschließlich im Zusammenhang mit derart feststehenden Kalibrierobjekten, wie etwa einer Kalibrierplatte oder einer Speckle-Platte ist der Begriff des „zeitgleichen“ Abbildens weit zu verstehen. Er beschreibt den allgemeinen Fall, dass sich im Zeitraum zwischen den "zeitgleichen" Aufnahmen keine im Kontext der erfindungsgemäßen Zielsetzung wesentliche Änderung an bzw. im abgebildeten
Messvolumen ergibt, insbesondere sich Positionen von Objektpunkten nicht in für die konkrete Messung relevantem Maße ändern.
Auch für den nachfolgenden Schritt c) des Ermittelns des approximierten Objektpunktes gibt es unterschiedliche Möglichkeiten. Grundsätzlich bevorzugt wird die aus dem Stand der Technik bekannte Triangulationsmethode. Bei dieser werden die als einem gemeinsamen Objektpunkt zugeordnet identifizierten Bildpunkte der Inversen der Basis- Abbildungsfunktion unterworfen, um rechnerisch ihre Triangulations-Sichtlinien zu dem gemeinsamen Objektpunkt zu generieren. Aufgrund der Fehlerhaftigkeit der Basis- Abbildungsfunktion schneiden sich diese Sichtlinien jedoch nicht in einem gemeinsamen Raumpunkt, sondern stehen windschief zueinander. Der „wahre“ Objektpunkt lässt sich daher nicht exakt bestimmen. Es kann jedoch ein approximierter Objektpunkt ermittelt werden, wofür es wiederum unterschiedliche Vorgehensweisen gibt. So kann etwa vorgesehen sein, dass im Fall windschiefer Triangulations-Sichtlinien derjenige Raumpunkt als der approximierte Objektpunkt ermittelt wird, der insgesamt den geringsten Abstand von den Triangulations-Sichtlinien aufweist. Dies bedeutet, dass die zur Approximierung eingesetzten Optimierungskriterien sich auf das Messvolumen beziehen und hier beispielsweise denjenigen Punkt auswählen, dessen Summe über seine Abstandquadrate zu den Triangulations-Sichtlinien minimal ist.
Alternativ kann vorgesehen sein, dass im Fall windschiefer Triangulations-Sichtlinien derjenige Raumpunkt als der approximierte Objektpunkt ermittelt wird, dessen rechnerische Projektion mittels der Basis-Abbildungsfunktion auf die Kamerabilder insgesamt die geringste Abweichung von den identifizierten Bildpunkten aufweist. Hierbei wird für verschiedene Kandidaten-Raumpunkte unter Anwendung der Basis- Abbildungsfunktion der jeweilige Bildpunkt in jedem Kamerabild berechnet und sein Abstand zu demjenigen Bildpunkt, auf dem der zugeordnete Objektpunkt tatsächlich abgebildet wurde, gemessen. Beispielsweise kann ein Minimum der Summe der Quadrate der jeweiligen Abstandsvektoren in den Kamerabildern das Optimierungskriterium für die Wahl eines Raumpunktes als approximierter Objektpunkt dienen.
Steht der approximierte Objektpunkt fest und sind die zugeordneten identifizierten Bildpunkte bekannt, gibt es unterschiedliche Möglichkeiten für die sich dann in Schritt d)
anschließende Berechnung des Differenzvektors. Denkbar ist, den Differenzvektor in jedem Kamerabild zu berechnen als Differenz zwischen dem im jeweiligen Kamerabild identifizierten Bildpunkt einerseits und der rechnerischen Projektion des approximierten Objektpunktes unter Verwendung der zugeordneten Basis-Abbildungsfunktion andererseits.
Dies entspricht einer Definition des Differenzvektors im Kamerabild.
Alternativ kann vorgesehen sein, dass der Differenzvektor in Schritt d) für jedes Kamerabild berechnet wird als Differenz zwischen dem approximierten Objektpunkt einerseits und der rechnerischen Rückprojektion des im jeweiligen Kamerabild identifizierten Bildpunktes unter Verwendung der zugeordneten invertierten Basis- Abbildungsfunktion.
Dies entspricht einer Definition des Differenzvektors im Messvolumen. Wie zuvor bereits erläutert, liefert die Rück-Projektion eines Bildpunktes durch reine Anwendung der invertierten Basis-Abbildungsfunktion zunächst keinen Raumpunkt sondern lediglich eine Sichtlinie aller Raumpunkte, von denen ausgehend ein Objektpunkt auf den fraglichen Bildpunkt abgebildet würde. Die genannte Variante zur Berechnung des Differenzvektors ist also so zu verstehen, dass sie auch eine Bestimmung des Ortes entlang dieser Sichtlinie umfasst. Dies kann bspw. durch Übernahme der Z-Koordinate des approximierten Objektpunktes oder durch Ermittlung des geringsten Abstandes zwischen approximiertem Objektpunkt und rückprojizierter Sichtlinie erfolgen.
Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden speziellen Beschreibung und den Zeichnungen.
Kurzbeschreibung der Zeichnungen
Es zeigen:
Figur 1: einen ersten Schritt im Rahmen einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens,
Figur 2: einen zweiten Schritt im Rahmen einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens,
Figur 3: einen dritten Schritt im Rahmen einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens,
Figur 4: einen vierten Schritt im Rahmen einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens,
Figur 5: einen fünften Schritt im Rahmen einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens sowie
Figur 6: den Kern der Erfindung in Form einer symbolischen Formeldarstellung
Beschreibung bevorzugter Ausführungsformen
Gleiche Bezugszeichen in den Figuren deuten auf gleiche oder analoge Elemente hin.
Figur 1 zeigt in stark schematisierter Darstellung einen beispielhaften Messaufbau und den daran durchgeführten ersten Schritt einer besonders einfachen Ausführungsform des erfindungsgemäßen Kalibierverfahrens. Dargestellt ist ein Messvolumen 10, welches gekrümmte Begrenzungswände aufweist, an denen es lokal zu starken optischen Verzerrungen bei der Abbildung des Messvolumens kommen kann. Im Messvolumen ist ein Objektpunkt 12 angeordnet. Die Darstellung lediglich eines Objektpunktes 12 dient allein der Vereinfachung zum Zwecke einer besseren Verständlichkeit. Der Fachmann wird verstehen, dass typischerweise eine große Anzahl unterschiedlich positionierter Objektpunkte 12 im Messvolumen 10 vorhanden sind. Beispielsweise kann es sich um
das Messvolumen durchströmende Partikel oder um Bestandteile bzw. Ausschnitte von festen Kalibrierkörpern, beispielsweise Kalibier- oder Speckle-Platten, handeln. Der Fachmann wird auch verstehen, dass es sich bei dem Begriff des „Punktes“ um eine der leichteren Verständlichkeit halber eingeführter Vereinfachung handelt und der Begriff entsprechend weit auszulegen ist, wie im allmeinen Teil der Beschreibung bereits erläutert.
Rings um das Messvolumen 10 sind mehrere, bei der gezeigten Ausführungsform drei Kameras 141, 142, 143 angeordnet. Mit den Kameras 141, 142, 143 kann das Messvolumen 10 aufgenommen und auf Kamerabilder 161, 162, 163 abgebildet werden. Insbesondere erfolgt die mit den Abbildungspfeilen 181, 182, 183 symbolisierte Abbildung des Objektpunktes 12 auf einen ihm in den Kamerabildern 161, 162, 163 jeweils zugeordneten Bildpunkt 201, 202, 203.
Mathematisch lässt sich diese Abbildung für jede Kamera 141, 142, 143 in etwa beschreiben mit einer zugeordneten Basis-Abbildungsfunktion Mi, M2, M3. Diese ist eine Funktion der Raum- oder Weltkoordinaten X, Y, Z im Messvolumen 10. Die Formulierung „in etwa“ soll andeuten, dass die Beschreibung der Abbildung durch die Basis- Abbildungsfunktion, die typischerweise die Form einer Pinhole-Funktion oder eines Polynoms hat, in der Regel fehlerbehaftet ist. Insbesondere in Bereichen des Messvolumens 10, zwischen welchen und der zugeordneten Kamera 141, 142, 143 optische Verzerrungsquellen angeordnet sind, kann diese mathematische Beschreibung deutlich von der tatsächlichen Abbildung des Objektpunktes 12 auf die oder einen der Bildpunkte 201, 202, 203 abweichen. Hier eine Verbesserung zu erzielen, ist Aufgabe der erfindungsgemäßen Kalibrierung.
Es muss daher zunächst abgeschätzt werden, wie groß der Fehler zwischen mathematischer Beschreibung durch die Basis-Abbildungsfunktionen Mi, M2, M3 und den tatsächlichen Abbildungen ist. Hierzu werden bei der gezeigten Ausführungsform, wie in Figur 2 illustriert, die Bildpunkte 201, 202, 203 der tatsächlichen Abbildung des Objektpunktes 12 unter Verwendung der Inversen Mr1, M21, M3'1 der Basis- Abbildungsfunktionen Mi, M2, M3 rechnerisch in das Messvolumen 10 rückprojiziert. Die Inversen Mr1, M21, M3'1 sind Funktionen der Bildkoordinaten x, y. Aufgrund des Dimensionsunterschiedes zwischen den Bildkoordinaten x, y und den Welt-Koordinaten X,
Y, Z ist eine eindeutige Rückprojektion auf Einzelbildebene nicht möglich. Vielmehr lassen sich aus den einzelnen Bildpunkten 201, 202, 203 zunächst nur sogenannte Triangulations-Sichtlinien 221, 222, 223 berechnen, die sich im Idealfall in einem gemeinsamen Raumpunkt im Messvolumen, nämlich im Objektpunkt 12 schneiden. Aufgrund der Unvollkommenheit der Basis-Abbildungsfunktionen Mi, M2, M3 ist dies jedoch nicht der Fall. Vielmehr stehen die Triangulations-Sichtlinien 221, 222, 223 windschief zueinander.
Daher wird ein approximierter Objektpunkt 24 bestimmt, d. h. ein Raumpunkt im Messvolumen 10, von dem angenommen wird, dass es sich um den tatsächlichen Objektpunkt 12 handelt, bzw. um einen Raumpunkt, der im Rahmen vorgegebener Optimierungskriterien dem „wahren“ Objektpunkt 12 möglichst nahekommt. Bei der in Figur 2 dargestellten Ausführungsform wird als approximierter Objektpunkt 24 derjenige Raumpunkt im Messvolumen 10 bestimmt, der insgesamt den geringsten Abstand von den Triangulations-Sichtlinien 221, 222, 223 hat. Dieser kann beispielsweise durch Fehlerquadrat-Minimierungsalgorithmen ermittelt werden. Im allgemeinen Teil der Beschreibung wurde bereits auf alternative Methoden zur Bestimmung des approximierten Objektpunktes 24 hingewiesen.
Im nachfolgenden, in Figur 3 lediglich für das erste Kamerabild 161 dargestellten Schritt erfolgt nun, wie durch den Projektionspfeil 251 symbolisiert, eine rechnerische Projektion des approximierten Objektpunktes 24 auf das Kamerabilder 161. Grundlage dieser Berechnung ist erneut die Basis-Abbildungsfunktionen Mi. Mit anderen Worten wird also derjenige Bildpunkt 261 ermittelt, auf den unter Zugrundelegung der Basis- Abbildungsfunktion Mi der approximierte Objektpunkt 24 auf das Kamerabild 161 abgebildet würde. Analoges gilt für die übrigen Kamerabilder 162, 163, die allerdings in Figur 3 aus Gründen der Übersichtlichkeit nicht dargestellt sind.
Im Idealfall, d.h. bei fehlerfreien Basis-Abbildungsfunktionen M fallen der tatsächliche Bildpunkt 201 und der berechneter Bildpunkt 261 aufeinander. Aufgrund der Fehlerhaftigkeit der Basis-Abbildungsfunktion Mi ist dies jedoch in der Regel nicht der Fall, insbesondere nicht in Bereichen, die einer starken optischen Verzerrung unterworfen sind.
Figur 4 zeigt erneut diese Diskrepanz am ersten Kamerabild 161. Zwischen dem tatsächlichen Bildpunkt 201 und dem berechneten Bildpunkt 261 kann ein Differenzvektor 28 definiert werden. Bei anderen Ausführungsformen der Erfindung ist es auch möglich, den Differenzvektor 28 im Messvolumen 10 zu definieren, beispielsweise als Differenz zwischen dem approximierten Objektpunkt 24 und demjenigen Raumpunkt auf der zugeordneten Triangulations-Sichtlinie 221 mit derselben Z-Koordinate wie der approximierte Objektpunkt 24.
Im nächsten Verfahrensschritt erfolgt eine Umrechnung der Differenzvektoren 28 in Korrekturvektoren 30. Bei der dargestellten Ausführungsform, wird, wie in Figur 5 gezeigt, im Kamerabild ein Gitter aus Stützstellen 32 aufgespannt. Jeder der Stützstellen 32 wird sodann ein Korrekturvektor 30 zugeordnet. Im einfachsten Fall entspricht der Korrekturvektor 30 einem aus benachbarten Differenzvektoren 28 interpolierten Verschiebungsvektor. Der Fachmann wird dabei verstehen, dass die zuvor beschriebenen Schritte für eine Vielzahl von Objektpunkten 12 durchzuführen sind, um ein hinreichend präzise interpoliertes Gitter von Korrekturvektoren 30 über die gesamte Bildebene bzw. das gesamte beobachtete Messvolumen 10 aufbauen zu können.
In Figur 5 ist zur Vereinfachung der Illustration lediglich ein Korrekturvektor 30 pro Stützstelle 32 dargestellt. In der Praxis wird jedoch jeder Stützstelle 32 eine ganze Schar von Korrekturvektoren 30 zugeordnet, deren konkrete Anwendung davon abhängt, in welcher Z-Ebene des Messvolumens 10 der auf dem der Stützstelle 32 entsprechenden Bildpunkt abgebildet wird, liegt. Bei einem Aufbau des Korrekturvektor-Gitters im Messvolumen, was, wie im allgemeinen Teil der Beschreibung bereits erläutert, bei anderen Ausführungsformen der Erfindung möglich ist, ist eine solche Zuordnung von Korrekturvektor-Scharen zu einzelnen Stützstellen 32 nicht erforderlich, da im Messvolumen 10 ein dreidimensionales Gitter aufgebaut werden kann, dessen Stützstellen jeweils nur ein einzelner Korrekturvektor zugeordnet werden muss.
Wie im allgemeinen Teil der Beschreibung ebenfalls bereits erläutert, ist es nicht zwingend erforderlich, dass die Korrekturvektoren in der Bildebene vorzunehmende Verschiebungen codieren; denkbar sind auch Varianten, bei denen die Korrekturvektoren im Messvolumen 10 vorzunehmende Verschiebungen codieren.
Diese Verschiebungen sind im Kontext der im Rahmen einer Messdatenauswertung erforderlichen Anwendung der Abbildungsfunktion (direkt oder invertiert) zu verstehen.
Das resultierende Korrekturvektorfeld Vi dient nämlich der Schaffung einer verfeinerten Abbildungsfunktion, die sich aus der unverändert übernommenen Basis- Abbildungsfunktion und besagtem Korrekturvektorfeld Vi zusammensetzt. Muss also im Rahmen einer Messdatenauswertung ein Punkt - sei es ein Raum- bzw. Objekt- oder ein Bildpunkt - der erweiterten Abbildungsfunktion unterworfen werden, erfolgt getrennt eine Anwendung der für alle Punkte gleichen, d.h. globalen Basis-Abbildungsfunktion und einer lokal differenzierenden Verschiebung nach Vorgabe des Korrekturvektorfeldes Vi. Dabei kommt es auf die Definition des konkreten Korrekturvektors an, in welcher Reihenfolge die genannten Operationen auf den fraglichen Punkt anzuwenden sind. In den (üblichen) Fällen, dass ein Punkt, auf den die Abbildungsfunktion angewendet werden soll, nicht exakt mit einer der Stützstellen 32 zusammenfällt, kann der anzuwendende Korrekturvektor durch geeignete Interpolation zwischen den Stützstellen ermittelt werden.
Diese Vorschrift ist symbolisch in Figur 6 als Formel wiedergegeben, wobei das
Zeichen bewusst in Anführungsstriche gesetzt ist, um zu verdeutlichen, dass es sich in der Regel nicht um eine Addition im mathematischen Sinn sondern um separate Anwendung zweier Funktionsbestandteile, wie unmittelbar zuvor beschrieben.
Natürlich stellen die in der speziellen Beschreibung diskutierten und in den Figuren gezeigten Ausführungsformen nur illustrative Ausführungsbeispiele der vorliegenden Erfindung dar. Dem Fachmann ist im Lichte der hiesigen Offenbarung ein breites Spektrum von Variationsmöglichkeiten an die Hand gegeben.
Bezugszeichenliste
10 Messvolumen
12 Objektpunkt
141, 142, 143 Kamera
161, 162, 163 Kamerabild
181, 182, 183 Abbildungspfeil
201, 202, 203 (tatsächlicher) Bildpunkt
221, 222, 223 T riangulations-Sichtlinie
24 approximierter Objektpunkt
251 Projektionspfeil
261 (berechneter) Bildpunkt
28 Differenzvektor
30 Korrekturvektor
32 Stützstelle
Claims
1. Verfahren zum Kalibrieren eines optischen Messaufbaus mit einem
Messvolumen (10) und mit wenigstens zwei Kameras (141, 142, 143), mittels welcher an Raumpunkten im Messvolumen (10) befindliche Objektpunkte (12) unter unterschiedlichen Betrachtungswinkeln auf Bildpunkte (201, 202, 203) entsprechender Kamerabilder (161 , 162, 163) abbildbar sind, wobei eine solche Abbildung mathematisch durch eine aus einer Vorkalibrierung bekannte Basis- Abbildungsfunktion beschreibbar ist, umfassend den Schritt: a) zeitgleiches Abbilden des Messvolumens (10) mittels der Kameras (141, 142, 143) zur Erzeugung je eines Kamerabildes (161, 162, 163) für jede Kamera (141, 142, 143), sowie die mehrfach, nämlich jeweils für einen anderen Objektpunkt (12), durchgeführten Schritte: b) Identifizieren derjenigen Bildpunkte (201, 202, 203), die einem auf jedem Kamerabild (161, 162, 163) abgebildeten Objektpunkt (12) zugeordnet sind, c) Ermitteln, unter Verwendung der identifizierten Bildpunkte (201 , 202, 203), desjenigen Raumpunktes als den approximierten Objektpunkt (24), der nach vorgegebenen Optimierungskriterien am besten demjenigen Raumpunkt entspricht, an dem sich der abgebildete Objektpunkt (12) zum Abbildungszeitpunkt tatsächlich befand, und d) Berechnen eines für einen Fehler der Basis-Abbildungsfunktion in Bezug auf den abgebildeten Objektpunkt (12) repräsentativen Differenzvektors (28), gekennzeichnet durch
Bereitstellen, für jedes Kamerabild (161, 162, 163), einer erweiterten Abbildungsfunktion, umfassend die Basis-Abbildungsfunktion und ein Korrekturvektorfeld, wobei das Korrekturvektorfeld aus einem Gitter von Stützstellen (32) besteht, denen aus den berechneten Differenzvektoren (28) abgeleitete Korrekturvektoren (30) zugeordnet sind, um welche zu den Stützstellen (32) korrespondierende Punkte, auf die die erweiterte Abbildungsfunktion im Rahmen einer Messdatenauswertung anzuwenden ist, zusätzlich zur Anwendung der Basis-Abbildungsfunktion lokal zu verschieben sind.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass für Punkte, auf die die erweiterte Abbildungsfunktion im Rahmen einer Messdatenauswertung anzuwenden ist, die aber nicht mit einer der Stützstellen (32) korrespondieren, der entsprechende Korrekturvektor (30) durch Interpolation zwischen oder Extrapolation ausgehend von den Stützstellen (32) ermittelbar ist.
3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zum Ermitteln des approximierten Objektpunktes (24) in Schritt c eine Triangulation durchgeführt wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass im Fall windschiefer Triangulations-Sichtlinien (221, 222, 223) derjenige Raumpunkt als der approximierte Objektpunkt (24) ermittelt wird, der insgesamt den geringsten Abstand von den Triangulations-Sichtlinien (221, 222, 223) aufweist.
5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass im Fall windschiefer Triangulations-Sichtlinien (221, 222, 223) derjenige Raumpunkt als der approximierte Objektpunkt (24) ermittelt wird, dessen rechnerische Projektionen mittels der Basis-Abbildungsfunktion auf die Kamerabilder (161, 162, 163) insgesamt die geringste Abweichung von den identifizierten Bildpunkten (201, 202, 203) aufweist.
6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Differenzvektor (28) in Schritt d in jedem Kamerabild (161, 162, 163) berechnet wird als Differenz zwischen
- dem im jeweiligen Kamerabild (161. 162, 163) identifizierten Bildpunkt (201, 202, 203) einerseits und
- der rechnerischen Projektion des approximierten Objektpunktes (24) unter Verwendung der zugeordneten Basis-Abbildungsfunktion andererseits.
7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Differenzvektor (28) in Schritt d für jedes Kamerabild (161, 162, 163) berechnet wird als Differenz zwischen
- dem approximierten Objektpunkt (24) einerseits und
- der rechnerischen Rückprojektion des im jeweiligen Kamerabild (161, 162, 163) identifizierten Bildpunktes (201, 202, 203) unter Verwendung der zugeordneten invertierten Basis-Abbildungsfunktion.
8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Gitter von Stützstellen (32) ein regelmäßiges oder unregelmäßiges Gitter ist.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Stützstellen (32) auf einem zweidimensionalen Gitter im jeweiligen Kamerabild (161, 162, 163) definiert sind und jeder Stützstelle (32) eine Schar von in der Kamerabildebene liegenden Korrekturvektoren (30) zugeordnet ist, wobei jedes Element der Schar von Korrekturvektoren (30) einer anderen Position auf der der entsprechenden Stützstelle (32) zugeordneten Triangulations-Sichtlinie zugeordnet ist.
10. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Stützstellen (32) auf einem dreidimensionalen Gitter im Messvolumen (10) definiert sind.
11. Verfahren nach einem der Ansprüche 9 bis 10, dadurch gekennzeichnet, dass die Punkte, auf die die erweiterte Abbildungsfunktion im Rahmen der Messdatenauswertung anzuwenden ist, Bildpunkte im Kamerabild (161, 162, 163) sind und die gemäß den zugeordneten Korrekturvektoren (30) vorzunehmenden Verschiebungen Verschiebungen in der Kamerabildebene sind.
12. Verfahren nach einem der Ansprüche 9 bis 10, dadurch gekennzeichnet, dass die Punkte, auf die die erweiterte Abbildungsfunktion im Rahmen der Messdatenauswertung anzuwenden ist, Objektpunkte (12) im Messvolumen (10) sind und die gemäß den zugeordneten Korrekturvektoren (30) vorzunehmenden Verschiebungen Verschiebungen im Messvolumen (10) sind.
13. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Berechnung eines Korrekturvektors eine Mehrzahl von Differenzvektoren zugrundegelegt werden.
14. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass während des Abbildens gemäß Schritt a das Messvolumen (10) von einem mit einer Vielzahl optisch detektierbarer Partikel beimpften Fluid durchströmt wird.
15. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass während des Abbildens gemäß Schritt a eine Kalibrieplatte mit einem regelmäßigen Kalibriermuster im Messvolumen (10) positioniert ist.
16. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass während des Abbildens gemäß Schritt a eine Speckle-Platte mit einem zufälligen oder pseudo-zufälligen Punktmuster im Messvolumen (10) positioniert ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021119462.8A DE102021119462A1 (de) | 2021-07-27 | 2021-07-27 | Verfahren zum Kalibrieren eines optischen Messaufbaus |
DEDE102021119462.8 | 2021-07-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023006519A1 true WO2023006519A1 (de) | 2023-02-02 |
Family
ID=82932349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2022/070236 WO2023006519A1 (de) | 2021-07-27 | 2022-07-19 | Verfahren zum kalibrieren eines optischen messaufbaus |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102021119462A1 (de) |
WO (1) | WO2023006519A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1926049B1 (de) | 2006-11-25 | 2010-10-20 | LaVision GmbH | Verfahren zur Korrektur einer Volumenabbildungsgleichung zur Bestimmung eines Geschwindigkeitsfeldes von Teilchen in einem Volumen |
US10944961B2 (en) * | 2014-09-29 | 2021-03-09 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
JP6989276B2 (ja) | 2017-04-05 | 2022-01-05 | 株式会社Soken | 位置計測装置 |
-
2021
- 2021-07-27 DE DE102021119462.8A patent/DE102021119462A1/de not_active Withdrawn
-
2022
- 2022-07-19 WO PCT/EP2022/070236 patent/WO2023006519A1/de active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1926049B1 (de) | 2006-11-25 | 2010-10-20 | LaVision GmbH | Verfahren zur Korrektur einer Volumenabbildungsgleichung zur Bestimmung eines Geschwindigkeitsfeldes von Teilchen in einem Volumen |
US10944961B2 (en) * | 2014-09-29 | 2021-03-09 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
Non-Patent Citations (2)
Title |
---|
MICHAELIS DIRK ET AL: "Calibration correction of arbitrary optical distortions by non-parametric 3D disparity field for planar and volumetric PIV/LPT", 14TH INTERNATIONAL SYMPOSIUM ON PARTICLE IMAGE VELOCIMETRY, vol. 1, no. 1, 1 August 2021 (2021-08-01), XP055979647, DOI: 10.18409/ispiv.v1i1.116 * |
WIENEKE B: "Volume self-calibration for 3D particle image velocimetry", EXPERIMENTS IN FLUIDS ; EXPERIMENTAL METHODS AND THEIR APPLICATIONS TO FLUID FLOW, SPRINGER, BERLIN, DE, vol. 45, no. 4, 13 June 2008 (2008-06-13), pages 549 - 556, XP019656202, ISSN: 1432-1114, DOI: 10.1007/S00348-008-0521-5 * |
Also Published As
Publication number | Publication date |
---|---|
DE102021119462A1 (de) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10312696B3 (de) | Verfahren zur Bestimmung der Abbildungsgleichung für die Selbstkalibrierung in Bezug auf die Durchführung von Stereo-PIV-Verfahren | |
DE102010039246A1 (de) | Verfahren zum Kalibrieren eines Messsystems und Vorrichtung zum Durchführen des Verfahrens | |
DE60319095T2 (de) | Verfahren zur Verzerrungskorrektur von Multifokus-Bilderstapeln | |
DE102014006717A1 (de) | Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens | |
WO2005017597A1 (de) | Verfahren und system zur geräteunabhängigen bestimmung von koordinaten eines mittels eines mikroskops abgebildeten punktes | |
WO2017144162A1 (de) | Verfahren und bildverarbeitungsvorrichtung zur bestimmung einer geometrischen messgrösse eines objektes | |
WO2011076346A1 (de) | Verfahren zur bestimmung eines satzes von optischen abbildungsfunktionen für die 3d-strömungsmessung | |
EP3711289B1 (de) | Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems | |
EP3420533B1 (de) | Verfahren zum kalibrieren eines optischen messaufbaus | |
DE19953063A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
WO2023006519A1 (de) | Verfahren zum kalibrieren eines optischen messaufbaus | |
DE102005037841A1 (de) | Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium | |
EP1202218A2 (de) | Verfahren zur Registration der Istbeschreibung eines Messobjekts mit einer Sollbeschreibung des Messobjekts | |
EP3073446A1 (de) | Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges | |
DE102014219418B4 (de) | Verfahren zur Stereorektifizierung von Stereokamerabildern und Fahrerassistenzsystem | |
DE102014113977A1 (de) | Verfahren zur Bestimmung zumindest eines Parameters bei der dimensionellen Messung mit einer Computertomografiesensorik | |
DE102021111417A1 (de) | Verfahren und System zu Bestimmung der Lage eines Markers in einem 2D-Bild und dafür ausgebildeter Marker | |
DE102020113454A1 (de) | Mikroskop und Verfahren zum Erzeugen eines aus mehreren mikroskopischen Einzelbildern zusammengesetzten Bildes | |
EP3853816A1 (de) | Computerimplementiertes verfahren zur komprimierung von messdaten aus einer messung eines messvolumens | |
DE102019206977A1 (de) | Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts | |
DE102017221721A1 (de) | Vorrichtung zum Kalibrieren eines Multikamerasystems | |
EP4068198B1 (de) | Verfahren zur erzeugung eines bilds eines objekts, computerprogrammprodukt und bilderzeugungssystem zur durchführung des verfahrens | |
DE112009002638T5 (de) | Strukturmessgerät und Strukturmessverfahren | |
DE102022112625A1 (de) | Verfahren und Vorrichtung zur Ausrichtung von Kameras | |
EP4249891A1 (de) | Verfahren zur messwertkorrektur bei messungen eines partikelvolumenstroms mittels schattenfotografie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22754809 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22754809 Country of ref document: EP Kind code of ref document: A1 |