DE102021210375A1 - calibration procedure - Google Patents
calibration procedure Download PDFInfo
- Publication number
- DE102021210375A1 DE102021210375A1 DE102021210375.8A DE102021210375A DE102021210375A1 DE 102021210375 A1 DE102021210375 A1 DE 102021210375A1 DE 102021210375 A DE102021210375 A DE 102021210375A DE 102021210375 A1 DE102021210375 A1 DE 102021210375A1
- Authority
- DE
- Germany
- Prior art keywords
- grid
- image
- image capturing
- calibration
- reference markers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung geht aus von einem Kalibrierungsverfahren (10) für eine Bilderfassungsvorrichtung (20), wobei in zumindest einem Verfahrensschritt (14) eine von einer Kamera der Bilderfassungsvorrichtung (20) zu erfassende Oberfläche (36) mit physischen Referenzmarkern (50) markiert wird, wobei mittels der Kamera ein digitales Bild (34) der zu erfassenden Oberfläche (36) erstellt wird, wobei anhand der Referenzmarker (50) mittels der Bilderfassungsvorrichtung (20) ein virtuelles Gitter (52) erzeugt wird, welches sich an den Referenzmarkern (50) orientiert, wobei Pixel des erstellten Bildes (34) Gitterelementen (54) des Gitters (52) zugeordnet werden, wobei die Gitterelemente (54) alle ein gleiches tatsächliches Format aufweisen.Es wird vorgeschlagen, dass anhand der Referenzmarker (50) eine Perspektivkorrektur einer in dem Bild (34) vorhandenen Verzerrung eines Abbilds (56) der zu erfassenden Oberfläche (36) durchgeführt wird, wobei die Verzerrung durch einen Winkel zwischen der Oberfläche (36) und einer Aufnahmeebene der Kamera bedingt ist, wobei das Gitter (52) in Gittereinheiten (58) unterteilt wird, die alle ein gleiches tatsächliches Format aufweisen und in denen jeweils eine gleiche Anzahl an Gitterelementen (54) angeordnet ist, wobei eine tatsächliche Höhe und Breite der Gittereinheiten (58) von den Referenzmarkern (50) vorgegeben werden.The invention is based on a calibration method (10) for an image capture device (20), wherein in at least one method step (14) a surface (36) to be captured by a camera of the image capture device (20) is marked with physical reference markers (50), wherein a digital image (34) of the surface (36) to be recorded is created by means of the camera, with the reference markers (50) being used by the image recording device (20) to generate a virtual grid (52) which is oriented to the reference markers (50). , wherein pixels of the created image (34) grid elements (54) of the grid (52) are assigned, the grid elements (54) all having the same actual format.It is proposed that the reference markers (50) be used to perform a perspective correction in the Image (34) existing distortion of an image (56) of the surface to be detected (36) is performed, the distortion caused by an angle between the Oberfläc he (36) and a recording plane of the camera, the grid (52) being divided into grid units (58), all of which have the same actual format and in each of which the same number of grid elements (54) are arranged, with one actual height and width of the grid units (58) are specified by the reference markers (50).
Description
Stand der TechnikState of the art
Es ist bereits ein Kalibrierungsverfahren für eine Bilderfassungsvorrichtung vorgeschlagen worden, wobei in zumindest einem Verfahrensschritt eine von einer Kamera der Bilderfassungsvorrichtung zu erfassende Oberfläche mit physischen Referenzmarkern markiert wird, wobei mittels der Kamera ein digitales Bild der zu erfassenden Oberfläche erstellt wird, wobei anhand der Referenzmarker mittels der Bilderfassungsvorrichtung ein virtuelles Gitter erzeugt wird, welches sich an den Referenzmarkern orientiert, wobei Pixel des erstellten Bilds Gitterelementen des Gitters zugeordnet werden, wobei die Gitterelemente alle ein gleiches tatsächliches Format aufweisen.A calibration method for an image capturing device has already been proposed, in which in at least one method step a surface to be captured by a camera of the image capturing device is marked with physical reference markers, with the camera creating a digital image of the surface to be captured, with the reference markers being used to the image capturing device generates a virtual grid which is oriented to the reference markers, with pixels of the image created being assigned to grid elements of the grid, with the grid elements all having the same actual format.
Des Weiteren ist bereits ein Kalibrierungsverfahren zu einer Kalibrierung einer Bilderfassungsvorrichtung vorgeschlagen worden, wobei in zumindest einem Verfahrensschritt in Abhängigkeit von einem durch die Bilderfassungsvorrichtung erfassten Kalibrierungsobjekt eine Belichtungsdauer oder eine Belichtungsstärke der Bilderfassungsvorrichtung ermittelt wird.Furthermore, a calibration method for calibrating an image capturing device has already been proposed, with an exposure duration or an exposure intensity of the image capturing device being determined in at least one method step depending on a calibration object captured by the image capturing device.
Ferner ist bereits ein Kalibrierungsverfahren vorgeschlagen worden, bei dem in zumindest einem Verfahrensschritt eine Position eines handgehaltenen Geräts, welches insbesondere zu einem definierten Farbauftrag auf eine Oberfläche vorgesehen ist, in Echtzeit bestimmt wird, wobei das Gerät mittels einer inertialen Messeinheit des Geräts und mittels einer Kamera einer Bilderfassungsvorrichtung überwacht wird, wobei zu einer Vorhersage einer Position des Geräts optische Positionsdaten, die von der Bilderfassungsvorrichtung ermittelt werden, und Bewegungsdaten, die von der inertialen Messeinheit ermittelt werden, kombiniert ausgewertet werden.Furthermore, a calibration method has already been proposed in which, in at least one method step, a position of a hand-held device, which is intended in particular for a defined application of paint to a surface, is determined in real time, with the device using an inertial measuring unit of the device and using a camera an image capturing device is monitored, optical position data, which are determined by the image capturing device, and movement data, which are determined by the inertial measuring unit, being evaluated in combination to predict a position of the device.
Offenbarung der ErfindungDisclosure of Invention
Die Erfindung geht aus von einem Kalibrierungsverfahren für eine Bilderfassungsvorrichtung, wobei in zumindest einem Verfahrensschritt eine von einer Kamera der Bilderfassungsvorrichtung zu erfassende Oberfläche mit physischen Referenzmarkern markiert wird, wobei mittels der Kamera ein digitales Bild der zu erfassenden Oberfläche erstellt wird, wobei anhand der Referenzmarker mittels der Bilderfassungsvorrichtung ein virtuelles Gitter erzeugt wird, welches sich an den Referenzmarkern orientiert, wobei Pixel des erstellten Bildes Gitterelementen des Gitters zugeordnet werden, wobei die Gitterelemente alle ein gleiches tatsächliches Format aufweisen.The invention is based on a calibration method for an image capturing device, in which a surface to be captured by a camera of the image capturing device is marked with physical reference markers in at least one method step, with the camera creating a digital image of the surface to be captured, with the reference markers being used to the image capturing device generates a virtual grid which is oriented to the reference markers, with pixels of the image created being assigned to grid elements of the grid, with the grid elements all having the same actual format.
Es wird vorgeschlagen, dass anhand der Referenzmarker eine Perspektivkorrektur einer in dem Bild vorhandenen Verzerrung eines Abbilds der zu erfassenden Oberfläche durchgeführt wird, wobei die Verzerrung durch einen Winkel zwischen der Oberfläche und einer Aufnahmeebene der Kamera bedingt ist, wobei das Gitter in Gittereinheiten unterteilt wird, die alle ein gleiches tatsächliches Format aufweisen und in denen jeweils eine gleiche Anzahl an Gitterelementen angeordnet ist, wobei eine tatsächliche Höhe und Breite der Gittereinheiten von den Referenzmarkern vorgegeben werden. Durch die erfindungsgemäße Ausgestaltung des Kalibrierungsverfahrens kann vorteilhaft eine Perspektivkorrektur durchgeführt werden. Durch die erfindungsgemäße Ausgestaltung kann insbesondere bei einer in dem Bild vorhandenen Verzerrung des Abbilds der zu erfassenden Oberfläche eine vorteilhafte Übertragung der Daten des digitalen Bildes auf eine reale Position auf der zu erfassenden Oberfläche geschaffen werden.It is proposed that a perspective correction of a distortion of an image of the surface to be recorded that is present in the image is carried out using the reference markers, the distortion being caused by an angle between the surface and a recording plane of the camera, the grid being divided into grid units, which all have the same actual format and in which the same number of grid elements is arranged in each case, with an actual height and width of the grid units being specified by the reference markers. The configuration of the calibration method according to the invention advantageously enables a perspective correction to be carried out. Due to the configuration according to the invention, an advantageous transfer of the data of the digital image to a real position on the surface to be recorded can be created, particularly if the image of the image of the surface to be recorded is distorted.
Vorzugsweise ist die Bilderfassungsvorrichtung als ein mobiles, persönliches elektronisches Gerät ausgebildet. Besonders bevorzugt ist die Bilderfassungsvorrichtung als ein Smartphone oder als ein Tablet-PC ausgebildet. Vorzugsweise weist die Bilderfassungsvorrichtung eine Kamera auf. Vorzugsweise ist die Bilderfassungsvorrichtung zu einer, insbesondere dynamischen, Bildverarbeitung vorgesehen. Vorzugsweise ist die Bilderfassungsvorrichtung zur Aufnahme eines digitalen Bildes einer zu erfassenden Oberfläche, insbesondere einer Motivvorlage auf der zu erfassenden Oberfläche, vorgesehen. Vorzugsweise ist die Bilderfassungsvorrichtung dazu vorgesehen, eine Perspektivkorrektur einer in dem aufgenommenen Bild vorhandenen Verzerrung eines Abbilds der zu erfassenden Oberfläche, insbesondere der Motivvorlage, durchzuführen, um die Bilderfassungsvorrichtung bezüglich einer realen Position der Motivvorlage auf der Oberfläche zu kalibrieren. Vorzugsweise ist die Bilderfassungsvorrichtung dazu vorgesehen, eine Position eines, insbesondere handgehaltenen, Geräts, insbesondere relativ zu der Oberfläche und/oder der Motivvorlage zu erfassen, um das Gerät bezüglich einer realen Position des Geräts zu kalibrieren. Vorzugsweise wird die Bilderfassungsvorrichtung anhand eines Kalibrierungsobjekts kalibriert, bevor ein digitales Bild der zu erfassenden Oberfläche aufgenommen wird. Vorzugsweise wird die Bilderfassungsvorrichtung kalibriert, um die durch die Bilderfassungsvorrichtung zu erfassende Oberfläche, insbesondere die Motivvorlage auf der zu erfassenden Oberfläche, korrekt belichtet erfassen zu können. Vorzugsweise wird eine Belichtungseinstellung der Kamera, insbesondere die Belichtungsdauer und/oder die Belichtungsstärke, mittels des Kalibrierungsverfahrens angepasst, um die zu erfassende Oberfläche, insbesondere die Motivvorlage auf der zu erfassenden Oberfläche, mittels der Kamera zu erfassen und eine Bildverarbeitung durchführen zu können.The image capturing device is preferably designed as a mobile, personal electronic device. The image capturing device is particularly preferably designed as a smartphone or as a tablet PC. The image capturing device preferably has a camera. The image acquisition device is preferably provided for image processing, in particular dynamic image processing. The image capturing device is preferably provided for capturing a digital image of a surface to be captured, in particular a motif original on the surface to be captured. The image capturing device is preferably provided to perform a perspective correction of a distortion of an image of the surface to be captured, in particular of the original motif, present in the recorded image, in order to calibrate the image capturing device with respect to a real position of the original motif on the surface. The image capturing device is preferably provided to capture a position of a device, in particular a hand-held device, in particular relative to the surface and/or the motif template, in order to calibrate the device with respect to a real position of the device. The image capturing device is preferably calibrated using a calibration object before a digital image of the surface to be captured is recorded. The image capturing device is preferably calibrated in order to be able to capture the surface to be captured by the image capturing device, in particular the original motif on the surface to be captured, with correct exposure. An exposure setting of the camera, in particular the exposure duration and/or the exposure intensity, is preferably adjusted by means of the calibration method in order to match the surface to be recorded, in particular the original motif on the surface to be recorded Surface to be captured by the camera and to be able to carry out image processing.
Vorzugsweise wird eine physische Position jedes Pixels des digitalen Bildes auf der Oberfläche anhand der Referenzmarker und anhand des virtuellen Gitters bestimmt. Dadurch kann eine vorteilhafte einfache Perspektivkorrektur durchgeführt werden. Vorzugsweise ist die zu erfassende Oberfläche in einer Ebene angeordnet. Vorzugsweise ist auf der zu erfassenden Oberfläche ein Objekt abgebildet. Vorzugsweise ist das Objekt als eine Motivvorlage ausgebildet, wobei die Motivvorlage nach einer Erfassung durch die Bilderfassungsvorrichtung mittels eines Medienauftrags, insbesondere Farbauftrags, auf die Oberfläche, insbesondere permanent, auf die Oberfläche aufgebracht und/oder in diese eingebracht werden kann.Preferably, a physical position of each pixel of the digital image on the surface is determined from the reference markers and from the virtual grid. As a result, an advantageous simple perspective correction can be carried out. The surface to be detected is preferably arranged in one plane. An object is preferably imaged on the surface to be detected. The object is preferably in the form of a motif template, with the motif template being able to be applied to the surface, in particular permanently, onto the surface and/or introduced into it after it has been captured by the image acquisition device by means of a medium application, in particular an application of paint.
Vorzugsweise werden die Referenzmarker auf der Oberfläche, insbesondere haftend, aber zerstörungsfrei lösbar, angeordnet. Vorzugsweise sind die Referenzmarker in einem Band angeordnet. Vorzugsweise bildet das Band einen Rahmen aus, der insbesondere um das auf der zu erfassenden Oberfläche abgebildete Objekt, angeordnet ist. Vorzugsweise ist der durch das Band gebildete Rahmen rechteckig ausgebildet. Vorzugsweise weisen die Referenzmarker jeweils ein Muster auf, das auf einer der Oberfläche angewandten Seite der Referenzmarker angeordnet ist. Vorzugsweise weisen die Referenzmarker eine quadratische Form auf. Besonders bevorzugt sind alle Referenzmarker identisch ausgebildet. Vorzugsweise sind unmittelbar benachbarte Referenzmarker um einen Abstand voneinander beabstandet, der einem Format der Referenzmarker entspricht. Vorzugsweise weist jeder Referenzmarker ein tatsächliches Format von 100 mm x 100 mm auf. Vorzugsweise werden die Referenzmarker von der Bilderfassungsvorrichtung, insbesondere mittels des Musters, identifiziert.The reference markers are preferably arranged on the surface, in particular in an adhesive manner, but can be detached without being destroyed. The reference markers are preferably arranged in a band. The band preferably forms a frame which is arranged in particular around the object imaged on the surface to be detected. Preferably, the frame formed by the band is rectangular. Preferably, the fiducial markers each have a pattern arranged on a surface-facing side of the fiducial markers. The reference markers preferably have a square shape. All reference markers are particularly preferably identical. Immediately adjacent reference markers are preferably spaced apart from one another by a distance that corresponds to a format of the reference markers. Preferably, each reference marker has an actual format of 100mm x 100mm. The reference markers are preferably identified by the image acquisition device, in particular by means of the pattern.
Vorzugsweise werden zur Erstellung des digitalen Bildes Lichtwellen, die von der zu erfassenden Oberfläche ausgehen, mittels eines Bildsensors der Kamera in digitale Signale umgewandelt. Vorzugsweise wird das digitale Bild in eine Vielzahl von Pixeln zerlegt, die jeweils eine Farbinformation aufweisen. Vorzugsweise wird das digitale Bild mittels der Bilderfassungsvorrichtung digital verarbeitet. Grundsätzlich kann das digitale Bild auch auf einer Anzeige der Bilderfassungsvorrichtung dargestellt werden.In order to create the digital image, light waves which emanate from the surface to be recorded are preferably converted into digital signals by means of an image sensor of the camera. The digital image is preferably broken down into a large number of pixels, each of which has color information. The digital image is preferably digitally processed by the image acquisition device. In principle, the digital image can also be displayed on a display of the image acquisition device.
Unter einem „Abbild der zu erfassenden Oberfläche“ soll vorzugsweise eine Ansicht der zu erfassenden Oberfläche in dem digitalen Bild, insbesondere unter Berücksichtigung einer Verzerrung, verstanden werden. Unter einer „Verzerrung“ soll vorzugsweise eine perspektivische Verzerrung verstanden werden, die insbesondere durch eine Aufnahmeebene des Bildsensors der Kamera besteht, die nicht parallel zu der zu erfassenden Oberfläche ausgerichtet ist. Grundsätzlich wäre es auch denkbar, dass eine Verzeichnung, die insbesondere durch eine Optik der Kamera bedingt ist, bei der Perspektivkorrektur berücksichtigt wird.An “image of the surface to be recorded” should preferably be understood to mean a view of the surface to be recorded in the digital image, in particular taking distortion into account. A “distortion” should preferably be understood as meaning a perspective distortion, which consists in particular of a recording plane of the image sensor of the camera that is not aligned parallel to the surface to be recorded. In principle, it would also be conceivable that distortion, which is caused in particular by the optics of the camera, is taken into account in the perspective correction.
Vorzugsweise ist das virtuelle Gitter digital, insbesondere mittels der Bilderfassungsvorrichtung, erzeugt. Vorzugsweise bildet das virtuelle Gitter eine regelmäßige Struktur von Gitterlinien aus. Vorzugsweise orientiert sich das virtuelle Gitter an den Referenzmarkern. Vorzugsweise bildet das virtuelle Gitter eine Matrix aus, der Pixel des digitalen Bildes zugeordnet werden. Vorzugsweise wird das virtuelle Gitter in das digitale Bild eingefügt und/oder als Referenz für eine Zuordnung der Pixel als ein eigenständiger Datensatz gespeichert. Vorzugsweise ist das virtuelle Gitter in dem digitalen Bild abhängig von einer Anordnung der Referenzmarker in dem Abbild der zu erfassenden Oberfläche verzerrt.The virtual grid is preferably generated digitally, in particular by means of the image acquisition device. The virtual grid preferably forms a regular structure of grid lines. The virtual grid is preferably based on the reference markers. The virtual grid preferably forms a matrix to which pixels of the digital image are assigned. The virtual grid is preferably inserted into the digital image and/or stored as an independent data set as a reference for assigning the pixels. The virtual grid in the digital image is preferably distorted depending on an arrangement of the reference markers in the image of the surface to be recorded.
Vorzugsweise umfasst das virtuelle Gitter eine Vielzahl von Gittereinheiten. Vorzugsweise weisen die Gittereinheiten ein gleiches Format auf wie die Referenzmarker. Vorzugsweise weist jede Gittereinheit ein tatsächliches Format von 100 mm x 100 mm auf. Unter einem „tatsächlichen Format“ soll vorzugsweise ein Format verstanden werden, welches auf die reale, zu erfassende Oberfläche bezogen ist. Unter einer „tatsächliche Höhe und Breite der Gittereinheiten“ soll vorzugsweise eine Höhe und Breite verstanden werden, welche auf die reale, zu erfassende Oberfläche bezogen sind. Vorzugsweise sind unmittelbar benachbarte Gittereinheiten abstandsfrei zueinander angeordnet. Vorzugsweise umfasst jede Gittereinheit eine Vielzahl der Gitterelemente. Vorzugsweise ist das tatsächliche Format der Gitterelemente jeweils quadratisch ausgebildet. Vorzugsweise weist jedes Gitterelement ein tatsächliches Format von 1 mm x 1 mm auf. Vorzugsweise sind unmittelbar benachbarte Gitterelemente abstandsfrei zueinander angeordnet.The virtual lattice preferably comprises a multiplicity of lattice units. The grid units preferably have the same format as the reference markers. Preferably each grid unit has an actual format of 100mm x 100mm. An "actual format" should preferably be understood to mean a format which is related to the real surface to be recorded. An “actual height and width of the grating units” should preferably be understood to mean a height and width which are related to the real surface to be detected. Directly adjacent grating units are preferably arranged without any spacing from one another. Preferably, each lattice unit comprises a plurality of the lattice elements. Preferably, the actual format of the lattice elements is square in each case. Preferably, each grid element has an actual format of 1mm x 1mm. Directly adjacent lattice elements are preferably arranged without a spacing from one another.
Des Weiteren wird vorgeschlagen, dass innerhalb eines virtuellen Rahmens, welcher von den Referenzmarkern unmittelbar umgeben ist, horizontale und vertikale Referenzpunktpaare definiert werden, die jeweils auf einer Gitterlinie des Gitters angeordnet sind. Durch diese Ausgestaltung können Positionen der Gitterlinien vorteilhaft einfach bestimmt werden. Dadurch kann das virtuelle Gitter vorteilhaft einfach anhand der Referenzmarker erzeugt werden. Vorzugsweise grenzt der virtuelle Rahmen direkt an die Referenzmarker, insbesondere an das Band, an. Vorzugsweise sind Referenzpunkte der Referenzpunktpaare jeweils an einem Eckpunkt eines Referenzmarkers auf dem virtuellen Rahmen angeordnet. Unter „horizontalen und vertikalen Referenzpunktpaaren“ sollen vorzugsweise Paare von Referenzpunkten verstanden werden, die sich in dem Band, in dem die Referenzmarker angeordnet sind, exakt gegenüberliegen, insbesondere orthogonal zu dem virtuellen Rahmen verlaufend, wobei eine Ausrichtung einer entsprechenden Gitterlinie zumindest im Wesentlichen horizontal oder zumindest im Wesentlichen vertikal verläuft.Furthermore, it is proposed that within a virtual frame, which is directly surrounded by the reference markers, horizontal and vertical pairs of reference points are defined, each of which is arranged on a grid line of the grid. With this configuration, positions of the grid lines can advantageously be determined in a simple manner. As a result, the virtual grid can advantageously be generated simply using the reference markers. The virtual frame preferably borders directly on the reference markers, in particular on the band. Reference points of the pairs of reference points are preferably each at a corner point of a reference marker on the virtual frame arranged. "Horizontal and vertical pairs of reference points" should preferably be understood to mean pairs of reference points that are exactly opposite one another in the band in which the reference markers are arranged, in particular running orthogonally to the virtual frame, with an alignment of a corresponding grid line at least substantially horizontal or runs at least substantially vertically.
Ferner wird vorgeschlagen, dass zur Berechnung von Eckkoordinaten der Gittereinheiten Steigungen von Gitterlinien bestimmt werden, wobei die Steigungen durch die Verzerrung bedingt sind, wobei die Gitterlinien der Gittereinheiten jeweils an zu den Gittereinheiten nächstliegenden Referenzmarkern anliegen. Durch diese Ausgestaltung können Ausrichtungen der Gitterlinien vorteilhaft einfach bestimmt werden. Des Weiteren kann durch diese Ausgestaltung eine Position der Gittereinheiten innerhalb des virtuellen Gitters vorteilhaft einfach bestimmt werden. Vorzugsweise sind die Gittereinheiten jeweils durch vier Gitterlinien des virtuellen Gitters definiert. Vorzugsweise werden die Steigungen der Gitterlinien mittels der horizontalen Referenzpunktpaare bzw. der vertikalen Referenzpunktpaare ermittelt. Vorzugsweise sind die Eckkoordinaten einer Gittereinheit als Schnittpunkte der Gitterlinien der Gittereinheit ausgebildet. Vorzugsweise werden die Eckkoordinaten der Gittereinheit mittels den Steigungen der Gitterlinien der Gittereinheit und mittels der horizontalen und vertikalen Referenzpunktpaare ermittelt.Furthermore, it is proposed that gradients of grid lines are determined for the calculation of corner coordinates of the grid units, the gradients being caused by the distortion, with the grid lines of the grid units in each case resting on reference markers that are closest to the grid units. With this configuration, orientations of the grid lines can advantageously be determined in a simple manner. Furthermore, a position of the lattice units within the virtual lattice can advantageously be determined easily with this configuration. The grid units are preferably each defined by four grid lines of the virtual grid. The gradients of the grid lines are preferably determined using the horizontal reference point pairs or the vertical reference point pairs. The corner coordinates of a grid unit are preferably formed as intersection points of the grid lines of the grid unit. The corner coordinates of the grid unit are preferably determined using the slopes of the grid lines of the grid unit and using the horizontal and vertical pairs of reference points.
Zudem wird vorgeschlagen, dass zur Berechnung einer Zuordnung von Pixeln zu Gitterelementen zumindest eine Distanz zwischen Eckkoordinaten einer jeweiligen Gittereinheit berechnet wird. Durch diese Ausgestaltung kann zumindest eine Bezugskoordinate für die in der Gittereinheit angeordneten Gitterelemente definiert werden. Dadurch kann eine besonders vorteilhafte Perspektivkorrektur vorgenommen werden.In addition, it is proposed that at least one distance between corner coordinates of a respective grid unit is calculated in order to calculate an assignment of pixels to grid elements. This configuration allows at least one reference coordinate to be defined for the grid elements arranged in the grid unit. A particularly advantageous perspective correction can be carried out as a result.
Des Weiteren wird vorgeschlagen, dass eine Distanz zwischen Eckpunkten eines jeden Gitterelements innerhalb einer Gittereinheit abhängig von einer Anzahl an horizontal und/oder vertikal benachbarten Gitterelementen in der Gittereinheit und von einer Distanz zwischen Eckkoordinaten einer jeweiligen Gittereinheit bestimmt wird. Durch diese Ausgestaltung kann eine vorteilhaft gleichmäßige Größe der Gitterelemente innerhalb einer Gittereinheit erreicht werden. Dadurch kann eine besonders vorteilhafte Perspektivkorrektur vorgenommen werden. Ferner kann dadurch ein Rechenaufwand vorteilhaft geringgehalten werden.Furthermore, it is proposed that a distance between corner points of each grid element within a grid unit is determined as a function of a number of horizontally and/or vertically adjacent grid elements in the grid unit and of a distance between corner coordinates of a respective grid unit. An advantageously uniform size of the lattice elements within a lattice unit can be achieved with this configuration. A particularly advantageous perspective correction can be carried out as a result. Furthermore, as a result, the computing effort can advantageously be kept low.
Ferner wird vorgeschlagen, dass eine Position der Gitterelemente in Fließkommazahlen mit doppelter Genauigkeit berechnet wird. Durch diese Ausgestaltung werden Abweichungen vorteilhaft auf eine Rechengenauigkeit in Dezimalstellen reduziert. Des Weiteren können Abweichungen vorteilhaft für jeden Punkt ohne eine Möglichkeit zur Fehlerfortpflanzung lokalisiert werden.Furthermore, it is proposed that a position of the lattice elements is calculated in floating-point numbers with double precision. This refinement advantageously reduces deviations to a calculation accuracy in decimal places. Furthermore, deviations can advantageously be localized for each point without the possibility of error propagation.
Zudem wird vorgeschlagen, dass in einem Parsing-Prozess eine Nachschlagetabelle erstellt wird, wobei eine Größe der Nachschlagetabelle einer Auflösung der Kamera und/oder einer Auflösung einer Anzeige der Bilderfassungsvorrichtung entspricht. Durch diese Ausgestaltung können die in der Perspektivkorrektur ermittelten Daten vorteilhaft weiterverarbeitet werden. Des Weiteren können durch diese Ausgestaltung Pixel den Positionen vorteilhaft einfach zugeordnet werden. Vorzugsweise weist die Nachschlagetabelle eine Anzahl an Datenfeldern auf, die der Auflösung der Kamera und/oder der Auflösung der Anzeige entspricht. Vorzugsweise enthält die Nachschlagtabelle Farbinformationen entsprechend der Pixel.In addition, it is proposed that a lookup table be created in a parsing process, with a size of the lookup table corresponding to a resolution of the camera and/or a resolution of a display of the image capturing device. With this configuration, the data determined in the perspective correction can advantageously be further processed. Furthermore, pixels can advantageously be easily assigned to the positions as a result of this refinement. Preferably, the look-up table has a number of data fields corresponding to the resolution of the camera and/or the resolution of the display. Preferably, the look-up table contains color information corresponding to the pixels.
Des Weiteren wird vorgeschlagen, dass die Nachschlagetabelle von der Bilderfassungsvorrichtung an ein, insbesondere handgehaltenes, Gerät übermittelt wird. Durch diese Ausgestaltung können die in der Perspektivkorrektur ermittelten Daten vorteilhaft genutzt und/oder weiterverarbeitet werden. Vorzugsweise greift das Gerät auf die Nachschlagetabelle zu. Vorzugsweise nutzt das Gerät die Nachschlagetabelle zur Ermittlung von Farbinformationen an Positionen der Oberfläche.Furthermore, it is proposed that the look-up table is transmitted from the image acquisition device to a device, in particular a hand-held device. With this configuration, the data determined in the perspective correction can be advantageously used and/or further processed. Preferably, the device accesses the look-up table. Preferably, the device uses the look-up table to determine color information at locations on the surface.
Ferner wird vorgeschlagen, dass die Nachschlagetabelle abhängig von einer Position eines, insbesondere handgehaltenen, Geräts zu einem definierten Farbauftrag mittels des Geräts auf die Oberfläche genutzt wird. Durch diese Ausgestaltung kann eine vorteilhaft präzise Reproduktion der Motivvorlage auf der Oberfläche erreicht werden, insbesondere bei einer Verzerrung des Abbilds der zu erfassenden Oberfläche. Vorzugsweise ist das Gerät als eine Medienauftragsvorrichtung, insbesondere Farbauftragsvorrichtung, ausgebildet. Vorzugsweise bringt die Medienauftragsvorrichtung entsprechend der Nachschlagetabelle zumindest ein Medium, insbesondere Farben, definiert auf die Oberfläche auf.It is also proposed that the look-up table be used depending on a position of a device, in particular a hand-held device, for a defined application of paint to the surface by means of the device. With this configuration, an advantageously precise reproduction of the original motif on the surface can be achieved, in particular if the image of the surface to be recorded is distorted. The device is preferably designed as a media application device, in particular a paint application device. The media application device preferably applies at least one medium, in particular colors, to the surface in a defined manner in accordance with the look-up table.
Zudem wird vorgeschlagen, dass mittels zumindest eines Sensormittels der Bilderfassungsvorrichtung eine Position eines, insbesondere handgehaltenen, Geräts bestimmt wird, wobei die Position des Geräts zur Navigation in der Nachschlagetabelle benutzt wird. Durch diese Ausgestaltung kann eine vorteilhaft präzise Reproduktion der Motivvorlage auf der Oberfläche erreicht werden, insbesondere bei einer Verzerrung des Abbilds der zu erfassenden Oberfläche. Vorzugsweise erfasst die Bilderfassungsvorrichtung das Gerät relativ zu der Oberfläche. Vorzugsweise ermittelt die Bilderfassungsvorrichtung eine Position des Geräts mittels einer Positionsmarkierung des Geräts, die von der Bilderfassungsvorrichtung, insbesondere von dem Sensormittel, erkannt wird. Vorzugsweise übermittelt die Bilderfassungsvorrichtung die Position des Geräts an das Gerät.In addition, it is proposed that at least one sensor means of the image capturing device is used to determine a position of a device, in particular a hand-held device, with the position of the device being used for navigating in the look-up table. With this configuration, an advantageously precise reproduction of the original motif on the surface can be achieved, in particular if the image of the surface to be recorded is distorted. preferred wise, the image capture device captures the device relative to the surface. The image capturing device preferably determines a position of the device by means of a position marking of the device, which is recognized by the image capturing device, in particular by the sensor means. The image capturing device preferably transmits the position of the device to the device.
Des Weiteren geht die Erfindung aus von einem Kalibrierungsverfahren zu einer Kalibrierung einer Bilderfassungsvorrichtung, wobei in zumindest einem Verfahrensschritt in Abhängigkeit von einem durch die Bilderfassungsvorrichtung erfassten Kalibrierungsobjekt eine Belichtungsdauer und/oder eine Belichtungsstärke der Bilderfassungsvorrichtung ermittelt werden/wird.The invention is also based on a calibration method for calibrating an image capturing device, wherein an exposure duration and/or an exposure intensity of the image capturing device is/are determined in at least one method step depending on a calibration object captured by the image capturing device.
Es wird vorgeschlagen, dass das Kalibrierungsobjekt ein Leuchtmittel aufweist, welches dazu vorgesehen ist, unterschiedliche Farbzustände anzunehmen, wobei die Bilderfassungsvorrichtung das Kalibrierungsobjekt in verschiedenen Kalibrierungssequenzen in den unterschiedlichen Farbzuständen des Kalibrierungsobjekts zur Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke erfasst. Durch die erfindungsgemäße Ausgestaltung kann die Bilderfassungsvorrichtung besonders vorteilhaft kalibriert werden. Durch die erfindungsgemäße Ausgestaltung kann eine besonders vorteilhafte Belichtungseinstellung der Bilderfassungsvorrichtung für eine Aufnahme eines digitalen Bildes ermittelt werden. Dadurch kann eine Bildverarbeitung, insbesondere eine Weiterverarbeitung eines digitalen Bildes, welches mittels der Bilderfassungsvorrichtung erstellt wird, vorteilhaft einfach und zuverlässig erfolgen.It is proposed that the calibration object has an illuminant which is intended to assume different color states, with the image capturing device detecting the calibration object in different calibration sequences in the different color states of the calibration object to determine the exposure duration and/or the exposure intensity. Due to the configuration according to the invention, the image acquisition device can be calibrated in a particularly advantageous manner. The configuration according to the invention enables a particularly advantageous exposure setting of the image capturing device to be determined for capturing a digital image. As a result, image processing, in particular further processing of a digital image that is created by means of the image acquisition device, can advantageously take place simply and reliably.
Vorzugsweise weist das Leuchtmittel eine LED auf. Vorzugsweise emittiert das Leuchtmittel farbiges Licht entsprechend eines jeweiligen Farbzustandes der verschiedenen Farbzustände.The light source preferably has an LED. The lighting means preferably emits colored light corresponding to a respective color state of the different color states.
Vorzugsweise weist die Kamera einen optoelektronischen Bildsensor auf. Bevorzugt wird der Bildsensor dauerhaft, insbesondere ohne einen mechanischen Verschluss, belichtet. Vorzugsweise wird der Bildsensor zur Aufnahme eines digitalen Bildes in einem definierten Zeitraum, insbesondere der Belichtungsdauer, belichtet. Alternativ könnte die Belichtungsdauer als eine Verschlusszeit der Kamera ausgebildet sein. Vorzugsweise ist die Belichtungsstärke als eine Lichtempfindlichkeit des Bildsensors, insbesondere als ein ISO-Wert, ausgebildet.The camera preferably has an optoelectronic image sensor. The image sensor is preferably exposed permanently, in particular without a mechanical shutter. The image sensor is preferably exposed to light for recording a digital image in a defined period of time, in particular the exposure time. Alternatively, the exposure time could be designed as a shutter speed of the camera. The exposure strength is preferably designed as a light sensitivity of the image sensor, in particular as an ISO value.
Vorzugsweise wird das Kalibrierungsobjekt in einem Sichtfeld der Kamera positioniert. Vorzugsweise wird das Kalibrierungsobjekt von der Bilderfassungsvorrichtung erkannt. Vorzugsweise wird das Kalibrierungsobjekt von der Bilderfassungsvorrichtung zur Ausführung der Kalibrierungssequenzen in einer Erfassungsphase des Kalibrierungsverfahrens erfasst. Vorzugsweise erfasst die Bilderfassungsvorrichtung das Kalibrierungsobjekt in jeder Kalibrierungssequenz der verschiedenen Kalibrierungssequenzen in je einem der unterschiedlichen Farbzustände des Kalibrierungsobjekts. Vorzugsweise wird in jeder Kalibrierungssequenz der verschiedenen Kalibrierungssequenzen ein Wertebereich für eine Belichtungsdauer und/oder eine Belichtungsstärke ermittelt, in dem ein Abbild des Kalibrierungsobjekts zumindest eine definierte Helligkeitsbedingung erfüllt. Vorzugsweise ist das Kalibrierungsobjekt, insbesondere eine Außenkontur des Kalibrierungsobjekts, unter der zumindest einen definierten Helligkeitsbedingung von einem Hintergrund und/oder einer Umgebung des Kalibrierungsobjekts unterscheidbar. Vorzugsweise wird anhand zumindest eines vorgegebenen Zufriedenheitsfaktors ermittelt, bei welchen Helligkeitswerten das Kalibrierungsobjekt in dem Wertebereich liegt.The calibration object is preferably positioned in a field of view of the camera. The calibration object is preferably recognized by the image capturing device. The calibration object is preferably captured by the image capturing device for executing the calibration sequences in a capturing phase of the calibration method. The image capturing device preferably captures the calibration object in each calibration sequence of the different calibration sequences in one of the different color states of the calibration object. In each calibration sequence of the different calibration sequences, a value range for an exposure duration and/or an exposure intensity is preferably determined, in which an image of the calibration object fulfills at least one defined brightness condition. The calibration object, in particular an outer contour of the calibration object, can preferably be distinguished from a background and/or an environment of the calibration object under the at least one defined brightness condition. It is preferably determined on the basis of at least one predetermined satisfaction factor at which brightness values the calibration object lies in the value range.
Vorzugsweise folgt auf die Erfassungsphase eine Berechnungsphase, bei der ein Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke der Bilderfassungsvorrichtung ermittelt wird. Vorzugsweise wird der Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke der Bilderfassungsvorrichtung aus den ermittelten Wertebereichen für die Belichtungsdauer und/oder die Belichtungsstärke aus allen Kalibrierungssequenzen berechnet.The acquisition phase is preferably followed by a calculation phase in which an optimal value for the exposure duration and/or the exposure intensity of the image acquisition device is determined. Preferably, the optimal value for the exposure time and/or the exposure intensity of the image capturing device is calculated from the determined value ranges for the exposure time and/or the exposure intensity from all calibration sequences.
Vorzugsweise wird die Bilderfassungsvorrichtung auf die ermittelte Belichtungsdauer und/oder die ermittelte Belichtungsstärke eingestellt. Vorzugsweise wird die Bilderfassungsvorrichtung auf den berechneten Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke eingestellt. Vorzugsweise wird die ermittelte Belichtungsdauer und/oder die ermittelte Belichtungsstärke, insbesondere der Optimalwert, in der Kamera voreingestellt. Vorzugsweise wird die Bilderfassungsvorrichtung bei jeder Veränderung einer Umgebungshelligkeit erneut kalibriert, wobei die Bilderfassungsvorrichtung das Kalibrierungsobjekt in den verschiedenen Kalibrierungssequenzen in den unterschiedlichen Farbzuständen des Kalibrierungsobjekts zur Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke erneut erfasst.The image capturing device is preferably set to the determined exposure duration and/or the determined exposure intensity. The image capturing device is preferably set to the calculated optimal value for the exposure duration and/or the exposure intensity. The determined exposure duration and/or the determined exposure intensity, in particular the optimum value, is preferably preset in the camera. Preferably, the image capturing device is calibrated again whenever there is a change in ambient brightness, with the image capturing device recapturing the calibration object in the various calibration sequences in the different color states of the calibration object to determine the exposure duration and/or the exposure intensity.
Des Weiteren wird vorgeschlagen, dass die Bilderfassungsvorrichtung das Kalibrierungsobjekt an einer Form des Kalibrierungsobjekts erkennt. Durch diese Ausgestaltung kann das Kalibrierungsobjekt von der Bilderfassungsvorrichtung vorteilhaft schnell und zuverlässig erkannt werden. Dadurch kann ein vorteilhaft effizientes Kalibrierungsverfahren bereitgestellt werden. Vorzugsweise ist die Form des Kalibrierungsobjekts in der Bilderfassungsvorrichtung abgespeichert und/oder die Bilderfassungsvorrichtung hat die Form des Kalibrierungsobjekts erlernt. Vorzugsweise weist das Kalibrierungsobjekt zumindest eine Kreisform auf. Vorzugsweise ist das Leuchtmittel kreisförmig oder kugelförmig ausgebildet. Alternativ kann das Kalibrierungsobjekt zumindest eine andere, einem Fachmann für geeignet erscheinenden Form aufweisen, mittels der das Kalibrierungsobjekt einfach und zuverlässig erkannt werden kann.Furthermore, it is proposed that the image capturing device recognizes the calibration object from a shape of the calibration object. As a result of this configuration, the calibration object can advantageously be recognized quickly and reliably by the image acquisition device. As a result, an advantageously efficient calibration method can be provided. Preferably the Shape of the calibration object is stored in the image capturing device and/or the image capturing device has learned the shape of the calibration object. The calibration object preferably has at least a circular shape. The illuminant is preferably circular or spherical in shape. Alternatively, the calibration object can have at least one other form that appears suitable to a person skilled in the art, by means of which the calibration object can be recognized easily and reliably.
Ferner wird vorgeschlagen, dass das Kalibrierungsobjekt während der Erfassungsphase mehr als drei, insbesondere sechs, unterschiedliche Farbzustände, in welchen das Kalibrierungsobjekt jeweils eine Farbe annimmt, durchläuft. Durch diese Ausgestaltung kann die Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke vorteilhaft zuverlässig erfolgen. Dadurch kann eine vorteilhaft zuverlässige Abbildung von unterschiedlich farbigen Motivvorlagen erreicht werden. Vorzugsweise ist die Farbe, die das Kalibrierungsobjekt in den unterschiedlichen Farbzuständen annimmt, jeweils blau, cyan, grün, gelb, rot oder magenta. Furthermore, it is proposed that the calibration object runs through more than three, in particular six, different color states during the detection phase, in which the calibration object assumes a color in each case. As a result of this configuration, the exposure duration and/or the exposure intensity can advantageously be determined reliably. As a result, an advantageously reliable imaging of motif templates of different colors can be achieved. The color that the calibration object assumes in the different color states is preferably blue, cyan, green, yellow, red or magenta.
Zudem wird vorgeschlagen, dass während der Erfassungsphase ein Farbzustand des Kalibrierungsobjekts automatisch gewechselt wird. Durch diese Ausgestaltung kann eine vorteilhaft automatisierte und schnelle Kalibrierung der Bilderfassungsvorrichtung erfolgen. Vorzugsweise werden die Kalibrierungssequenzen automatisch aufeinander folgend ausgeführt. Vorzugsweise werden die Farbzustände in einer festgelegten Reihenfolge mit einer definierten Zeitdauer durchlaufen. Vorzugsweise sind der Bilderfassungsvorrichtung die Reihenfolge der Farbzustände und die Zeitdauer der einzelnen Farbzustände bekannt. Grundsätzlich wäre es auch denkbar, dass ein Farbzustand des Kalibrierungsobjekts manuell gewechselt wird, beispielsweise mittels einer Umschalttaste des Kalibrierungsobjekts.In addition, it is proposed that a color state of the calibration object is changed automatically during the detection phase. With this configuration, an advantageously automated and rapid calibration of the image acquisition device can take place. The calibration sequences are preferably carried out automatically in succession. The color states are preferably run through in a fixed sequence with a defined period of time. The sequence of the color states and the duration of the individual color states are preferably known to the image acquisition device. In principle, it would also be conceivable for a color state of the calibration object to be changed manually, for example using a toggle button on the calibration object.
Des Weiteren wird vorgeschlagen, dass die Bilderfassungsvorrichtung während jedes Farbzustands das Kalibrierungsobjekt mehrfach erfasst. Durch diese Ausgestaltung kann der Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke, insbesondere innerhalb einer Kalibrierungssequenz, vorteilhaft genau bestimmt werden.Furthermore, it is proposed that the image capturing device captures the calibration object multiple times during each color state. With this configuration, the value range for the exposure duration and/or the exposure intensity can advantageously be precisely determined, in particular within a calibration sequence.
Ferner wird vorgeschlagen, dass die Bilderfassungsvorrichtung während jedes Farbzustands des Kalibrierungsobjekts die Belichtungsdauer und/oder die Belichtungsstärke über die im Wesentlichen gesamte vorgesehene Wertespanne der Belichtungsdauer und/oder der Belichtungsstärke variiert, solange die Bilderfassungsvorrichtung das Kalibrierungsobjekt erkennt. Durch diese Ausgestaltung kann die Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke vorteilhaft zuverlässig erfolgen. Des Weiteren kann durch diese Ausgestaltung eine vorteilhaft automatisierte und schnelle Kalibrierung der Bilderfassungsvorrichtung erfolgen. Vorzugsweise ist die Wertespanne durch minimal und maximal an der Bilderfassungsvorrichtung einstellbare Werte für die Belichtungsdauer und/oder die Belichtungsstärke definiert. Grundsätzlich ist es denkbar, dass die Bilderfassungsvorrichtung das Kalibrierungsobjekt bei minimalen und/oder maximalen Werten für die Belichtungsdauer und/oder die Belichtungsstärke zumindest teilweise nicht mehr erkennt, insbesondere wenn abhängig von der Umgebungshelligkeit Konturen, insbesondere Außenkonturen, des Kalibrierungsobjekts nicht mehr von einem Hintergrund und/oder einer Umgebung des Kalibrierungsobjekts unterscheidbar sind. Vorzugsweise wird das Kalibrierungsobjekt autark von der Bilderfassungsvorrichtung betrieben.It is also proposed that the image capturing device varies the exposure time and/or the exposure intensity during each color state of the calibration object over essentially the entire intended value range of the exposure time and/or the exposure intensity as long as the image capturing device recognizes the calibration object. As a result of this configuration, the exposure duration and/or the exposure intensity can advantageously be determined reliably. Furthermore, an advantageously automated and rapid calibration of the image capturing device can take place as a result of this refinement. The range of values is preferably defined by minimum and maximum values for the exposure duration and/or the exposure intensity that can be set on the image capturing device. In principle, it is conceivable that the image capturing device no longer recognizes the calibration object, at least in part, at minimum and/or maximum values for the exposure duration and/or the exposure intensity, in particular if, depending on the ambient brightness, contours, in particular outer contours, of the calibration object no longer distinguish themselves from a background and /or an environment of the calibration object are distinguishable. The calibration object is preferably operated autonomously by the image acquisition device.
Zudem wird vorgeschlagen, dass das Kalibrierungsobjekt in den Farbzuständen Grundfarben basierend auf zumindest zwei verschiedenen Farbmodellen annimmt. Durch diese Ausgestaltung können vorteilhaft unterschiedliche Farben für das Kalibrierungsverfahren genutzt werden. Dadurch kann die Belichtungsdauer und/oder die Belichtungsstärke vorteilhaft zuverlässig für unterschiedlich farbige Motivvorlagen ermittelt werden.In addition, it is proposed that the calibration object assumes primary colors based on at least two different color models in the color states. With this configuration, different colors can advantageously be used for the calibration method. As a result, the exposure duration and/or the exposure intensity can advantageously be determined reliably for motif originals of different colors.
Des Weiteren wird vorgeschlagen, dass eines der Farbmodelle das CMY-Farbmodell und ein weiteres der Farbmodelle das RGB-Farbmodell ist. Durch diese Ausgestaltung können vorteilhaft definierte Farbmodelle herangezogen werden.Furthermore, it is suggested that one of the color models is the CMY color model and another of the color models is the RGB color model. With this configuration, advantageously defined color models can be used.
Ferner wird vorgeschlagen, dass die Farbzustände in einer festgelegten Reihenfolge durchlaufen werden, wobei auf zumindest eine Grundfarbe eines ersten Farbmodells der zumindest zwei Farbmodelle eine Grundfarbe eines zweiten Farbmodells der zumindest zwei Farbmodelle folgt, welche einen geringsten spektralen Überlapp mit der Grundfarbe des ersten Farbmodells aufweist. Durch diese Ausgestaltung kann die Reihenfolge mit vorteilhaft optisch voneinander differierenden Farbzuständen durchlaufen werden. Dadurch kann eine vorteilhaft präzise Kalibrierung der Bilderfassungsvorrichtung ermöglicht werden. Vorzugsweise ist das erste Farbmodell der zumindest zwei Farbmodelle das CMY-Farbmodell oder das RGB-Farbmodell, wobei das zweite Farbmodell der zumindest zwei Farbmodelle entsprechend das CMY-Farbmodell oder RGB-Farbmodell ist, welches nicht das erste Farbmodell ist.It is also proposed that the color states be run through in a fixed order, with at least one primary color of a first color model of the at least two color models being followed by a primary color of a second color model of the at least two color models, which has the smallest spectral overlap with the primary color of the first color model. This configuration allows the sequence to be run through with color states that advantageously differ optically from one another. This allows an advantageously precise calibration of the image capturing device. Preferably, the first color model of the at least two color models is the CMY color model or the RGB color model, the second color model of the at least two color models being the CMY color model or RGB color model, which is not the first color model.
Zudem wird vorgeschlagen, dass zumindest eine Grundfarbe des ersten Farbmodells der zumindest zwei Farbmodelle eine Komplementärfarbe zu einer Grundfarbe des zweiten Farbmodells der zumindest zwei Farbmodelle ist. Durch diese Ausgestaltung können vorteilhaft optisch voneinander differierende Farbzustände erreicht werden. Dadurch kann eine vorteilhaft präzise Kalibrierung der Bilderfassungsvorrichtung ermöglicht werden.In addition, it is proposed that at least one primary color of the first color model of the at least two color models is a complementary color to a primary color of the second color model of the at least two color models. Through this issue design, color states that differ optically from one another can advantageously be achieved. This allows an advantageously precise calibration of the image capturing device.
Zudem geht die Erfindung aus von einem Kalibrierungsverfahren, bei dem in zumindest einem Verfahrensschritt eine Position eines handgehaltenen Geräts, welches insbesondere zu einem definierten Farbauftrag auf eine Oberfläche vorgesehen ist, in Echtzeit bestimmt wird, wobei das Gerät mittels einer inertialen Messeinheit des Geräts und mittels einer Kamera einer Bilderfassungsvorrichtung überwacht wird, wobei zu einer Vorhersage einer Position des Geräts optische Positionsdaten, die von der Bilderfassungsvorrichtung ermittelt werden, und Bewegungsdaten, die von der inertialen Messeinheit ermittelt werden, kombiniert ausgewertet werden.In addition, the invention is based on a calibration method in which, in at least one method step, a position of a hand-held device, which is intended in particular for a defined application of paint to a surface, is determined in real time, the device being measured using an inertial measuring unit of the device and using a Camera of an image capturing device is monitored, with a prediction of a position of the device optical position data, which are determined by the image capturing device, and movement data, which are determined by the inertial measuring unit, are evaluated in combination.
Es wird vorgeschlagen, dass das Gerät zumindest ein Leuchtmittel aufweist, welches eine definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer emittiert, wobei die Bilderfassungsvorrichtung die von dem Leuchtmittel emittierten Farbzustände erfasst und auswertet. Durch die erfindungsgemäße Ausgestaltung kann eine vorteilhaft präzise Positionsbestimmung in Echtzeit erreicht werden. Des Weiteren kann durch die erfindungsgemäße Ausgestaltung eine vorteilhaft einfache Synchronisierung der Bilderfassungsvorrichtung und des handgehaltenen Geräts erreicht werden. Dadurch kann der definierte Farbauftrag auf die Oberfläche besonders präzise erfolgen. Dadurch wird eine vorteilhaft hohe Qualität des Farbauftrags auf der Oberfläche erzielt.It is proposed that the device has at least one light source, which emits a defined sequence of alternating color states for a predefined period of time, with the image capturing device detecting and evaluating the color states emitted by the light source. The configuration according to the invention enables an advantageously precise position determination to be achieved in real time. Furthermore, an advantageously simple synchronization of the image capturing device and the hand-held device can be achieved by the configuration according to the invention. This allows the defined application of paint to the surface to be particularly precise. As a result, an advantageously high quality of the paint application on the surface is achieved.
Vorzugsweise ist das Gerät als eine Medienauftragsvorrichtung, insbesondere Farbauftragsvorrichtung, ausgebildet. Vorzugsweise bedruckt das Gerät die Oberfläche abhängig von Druckdaten. Vorzugsweise weist das Gerät eine Farbsprüheinheit auf, die dazu vorgesehen ist, Farbe definiert auf die Oberfläche aufzutragen. Vorzugsweise weist das Gerät bei einer Bewegung über die Oberfläche einen zumindest im Wesentlichen konstanten Abstand zu der Oberfläche auf. Vorzugsweise weist die inertiale Messeinheit zumindest einen Beschleunigungssensor und zumindest ein Gyroskop auf. Vorzugsweise ist das Leuchtmittel als eine LED ausgebildet. Alternativ kann das Gerät auch als eine Detektionsvorrichtung ausgebildet sein, die dazu vorgesehen ist, zumindest eine Eigenschaft der Oberfläche und/oder zumindest eine Eigenschaft einer unter der Oberfläche angeordneten Struktur zu erfassen. Vorzugsweise ist eine Eigenschaft der Oberfläche und/oder eine Eigenschaft einer unter der Oberfläche angeordneten Struktur beispielsweise eine Oberflächenart, eine Oberflächengüte, eine Oberflächenfarbe oder eine Position eines Bauteils, beispielsweise eines Kabels oder einer Wasserleitung.The device is preferably designed as a media application device, in particular a paint application device. The device preferably prints the surface depending on print data. The device preferably has a paint spray unit which is intended to apply paint in a defined manner to the surface. When moving over the surface, the device is preferably at an at least essentially constant distance from the surface. The inertial measuring unit preferably has at least one acceleration sensor and at least one gyroscope. The light source is preferably designed as an LED. Alternatively, the device can also be embodied as a detection device which is intended to detect at least one property of the surface and/or at least one property of a structure arranged below the surface. A property of the surface and/or a property of a structure arranged below the surface is preferably, for example, a surface type, a surface quality, a surface color or a position of a component, for example a cable or a water pipe.
Vorzugsweise kodiert die definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer einen Zeitstempel des Geräts. Vorzugsweise wird mittels der definierten Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer ein Zeitstempel des Geräts optisch ausgesendet. Vorzugsweise beträgt die Zeitdauer 200 ms. Grundsätzlich kann die Zeitdauer aber auch eine davon, dem Fachmann für geeignet erscheinende abweichende Zeit betragen. Vorzugsweise ist die Zeitdauer bei allen Farbzuständen gleich lang. Alternativ wäre es denkbar, dass sich die definierten Zeitdauern, in der die Farbzustände emittiert werden, bei den unterschiedlichen Farbzuständen voneinander unterscheiden.The defined sequence of alternating color states of a predefined time duration preferably encodes a time stamp of the device. A time stamp of the device is preferably transmitted optically by means of the defined sequence of alternating color states of a predefined time duration. The time period is preferably 200 ms. In principle, however, the period of time can also be a different time that appears suitable to a person skilled in the art. The duration is preferably the same for all color states. Alternatively, it would be conceivable that the defined time periods in which the color states are emitted differ from one another for the different color states.
Vorzugsweise ist die Bilderfassungsvorrichtung stationär positioniert, insbesondere relativ zu der Oberfläche. Vorzugsweise kann die Bilderfassungsvorrichtung auf einer Aufständereinheit, insbesondere einem Stativ, ortsfest zu der Oberfläche positioniert werden.Preferably, the image capturing device is positioned stationary, in particular relative to the surface. The image capturing device can preferably be positioned on a stand unit, in particular a tripod, in a fixed position relative to the surface.
Vorzugsweise erfasst die Bildererfassungsvorrichtung die aktuelle Position des Geräts. Vorzugsweise wird mittels zumindest eines Sensormittels der Bilderfassungsvorrichtung, insbesondere der Kamera der Bilderfassungsvorrichtung, die aktuelle Position des Geräts bestimmt. Vorzugsweise wird die Position des Geräts relativ zu einem virtuellen Gitter bestimmt. Vorzugsweise wird das virtuelle Gitter von der Bilderfassungsvorrichtung erzeugt. Vorzugsweise gibt das virtuelle Gitter ein gedachtes Raster auf der Oberfläche wieder. Vorzugsweise orientieren sich die optischen Positionsdaten an dem virtuellen Gitter. Vorzugsweise geben die optischen Positionsdaten die Position des Geräts relativ zu dem virtuellen Gitter an. Vorzugsweise geben die optischen Positionsdaten die Position des Geräts auf der Oberfläche an.The image capturing device preferably captures the current position of the device. The current position of the device is preferably determined by means of at least one sensor means of the image capturing device, in particular the camera of the image capturing device. Preferably, the position of the device is determined relative to a virtual grid. The virtual grid is preferably generated by the image acquisition device. The virtual grid preferably reproduces an imaginary grid on the surface. The optical position data are preferably based on the virtual grid. Preferably, the optical position data indicates the position of the device relative to the virtual grid. Preferably, the optical position data indicates the position of the device on the surface.
Vorzugsweise erfasst die Bilderfassungsvorrichtung eine Farbe der Farbzustände und die Zeitdauer, für die die Farbzustände emittiert werden. Vorzugsweise dekodiert die Bilderfassungsvorrichtung die emittierte Abfolge abwechselnder Farbzustände und ermittelt den Zeitstempel des Geräts.Preferably, the image capture device captures a color of the color states and the length of time for which the color states are emitted. Preferably, the image capture device decodes the emitted sequence of alternating color states and determines the timestamp of the device.
Des Weiteren wird vorgeschlagen, dass vor einer Vorhersage einer Position des Geräts der Zeitstempel des Geräts und ein Zeitstempel der Bilderfassungsvorrichtung synchronisiert werden. Durch diese Ausgestaltung können die Bilderfassungsvorrichtung und das Gerät vorteilhaft einfach und schnell synchronisiert werden. Dadurch kann die Vorhersage der Position des Geräts vorteilhaft präzise erfolgen. Vorzugsweise ist der Zeitstempel des Geräts als primärer Zeitstempel ausgebildet. Vorzugsweise wird der Zeitstempel der Bilderfassungsvorrichtung an den Zeitstempel des Geräts angepasst, insbesondere durch diesen überschrieben.Furthermore, it is proposed that before a position of the device is predicted, the time stamp of the device and a time stamp of the image capturing device are synchronized. With this configuration, the image acquisition device and the device can advantageously be synchronized quickly and easily. As a result, the position of the device can advantageously be predicted precisely. The time stamp of the device is preferably designed as a primary time stamp. Preferably will the time stamp of the image acquisition device is adapted to the time stamp of the device, in particular overwritten by it.
Ferner wird vorgeschlagen, dass ein Zeitstempel des Geräts in Abhängigkeit einer Bildfrequenz der Kamera der Bilderfassungsvorrichtung ermittelt wird. Durch diese Ausgestaltung kann die definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer vorteilhaft sicher erfasst und ausgewertet werden. Vorzugsweise wird die definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer genauer erfasst, je größer die Bildfrequenz der Kamera ist.It is also proposed that a time stamp of the device is determined as a function of an image frequency of the camera of the image capturing device. As a result of this configuration, the defined sequence of alternating color states of a predefined time duration can advantageously be reliably detected and evaluated. The defined sequence of alternating color states of a predefined time period is preferably recorded more precisely the higher the image frequency of the camera.
Zudem wird vorgeschlagen, dass die Vorhersage mittels eines erweiterten Kalman-Filters bestimmt wird, welcher die Bewegungsdaten und die optischen Positionsdaten verwendet. Durch diese Ausgestaltung können zur Vorhersage der Position des Geräts optische Positionsdaten und Bewegungsdaten besonders vorteilhaft kombiniert ausgewertet werden. Dadurch kann die Position des Geräts vorteilhaft präzise vorhergesagt bzw. bestimmt werden. Vorzugsweise werden die Bewegungsdaten und die optischen Positionsdaten mittels des erweiterten Kalman-Filters miteinander fusioniert.In addition, it is proposed that the prediction is determined using an extended Kalman filter, which uses the motion data and the optical position data. With this configuration, optical position data and movement data can be evaluated particularly advantageously in combination to predict the position of the device. As a result, the position of the device can advantageously be precisely predicted or determined. The movement data and the optical position data are preferably merged with one another by means of the extended Kalman filter.
Des Weiteren wird vorgeschlagen, dass optische Positionsdaten von der Bilderfassungsvorrichtung, insbesondere drahtlos, an das Gerät übermittelt werden. Durch diese Ausgestaltung kann eine vorteilhaft einfache Übertragung der optischen Positionsdaten erreicht werden. Dadurch kann ein vorteilhaft nutzerfreundliches System aus dem Gerät und der Bilderfassungsvorrichtung bereitgestellt werden. Vorzugsweise werden die optischen Positionsdaten mittels Bluetooth, insbesondere Bluetooth Low Energy, an das Gerät übermittelt.Furthermore, it is proposed that optical position data be transmitted from the image acquisition device, in particular wirelessly, to the device. With this configuration, an advantageously simple transmission of the optical position data can be achieved. As a result, an advantageously user-friendly system made up of the device and the image acquisition device can be provided. The optical position data are preferably transmitted to the device by means of Bluetooth, in particular Bluetooth Low Energy.
Ferner wird vorgeschlagen, dass eine, insbesondere drahtlose, Übertragung der optischen Positionsdaten an das Gerät alle 20 ms erfolgt, wobei eine Vorhersage einer Position des Geräts alle 2,5 ms berechnet wird. Durch diese Ausgestaltung kann eine vorteilhaft präzise Bestimmung der Position des Geräts in Echtzeit erfolgen. Vorzugsweise wird eine Iteration zur Berechnung der Vorhersage alle 2,5 ms durchgeführt.It is also proposed that the optical position data be transmitted, in particular wirelessly, to the device every 20 ms, with a prediction of a position of the device being calculated every 2.5 ms. With this refinement, the position of the device can advantageously be precisely determined in real time. Preferably, an iteration to calculate the prediction is performed every 2.5 ms.
Zudem wird vorgeschlagen, dass für jede Iteration zur Berechnung der Vorhersage geprüft wird, ob aktuelle optische Positionsdaten und aktuelle Bewegungsdaten vorliegen. Durch diese Ausgestaltung kann eine vorteilhaft sichere Vorhersage der Position des Geräts erreicht werden.In addition, it is proposed that for each iteration for calculating the prediction it is checked whether current optical position data and current movement data are available. With this refinement, an advantageously reliable prediction of the position of the device can be achieved.
Des Weiteren wird vorgeschlagen, dass lediglich aktuelle Bewegungsdaten zur Vorhersage genutzt werden, wenn keine aktuellen optischen Positionsdaten in dem Gerät vorliegen. Durch diese Ausgestaltung kann die Vorhersage vorteilhaft dauerhaft durchgeführt werden. Des Weiteren kann durch diese Ausgestaltung erreicht werden, dass optische Positionsdaten in einer geringeren Frequenz übertragen werden können, als eine Frequenz der Iterationen. Vorzugsweise werden für eine Iteration zur Berechnung der Vorhersage lediglich aktuelle Bewegungsdaten genutzt, wenn keine aktuellen optischen Positionsdaten in dem Gerät vorliegen.Furthermore, it is proposed that only current movement data be used for the prediction if there is no current optical position data in the device. With this refinement, the prediction can advantageously be carried out permanently. Furthermore, this refinement makes it possible for optical position data to be transmitted at a lower frequency than a frequency of the iterations. Preferably, only current movement data is used for an iteration to calculate the prediction if there is no current optical position data in the device.
Ferner wird vorgeschlagen, dass historische Informationen verwendet werden, um ein Abdriften des Geräts abzuschätzen und um zukünftige Vorhersagen bezüglich des Abdriftens des Geräts zu korrigieren. Durch diese Ausgestaltung kann eine vorteilhaft präzise Vorhersage der Position des Geräts erreicht werden. Unter einem „Abdriften“ kann verstanden werden, dass die Vorhersage der Position des Geräts von einer tatsächlichen Position des Geräts abweicht, insbesondere aufgrund von Messungenauigkeiten und/oder von Berechnungsungenauigkeiten. Vorzugsweise sind optische Positionsdaten und/oder Bewegungsdaten, die keinen aktuellen Zeitstempel aufweisen, als historische Informationen ausgebildet. Vorzugsweise werden bereits verarbeitete Daten, insbesondere optische Positionsdaten und/oder Bewegungsdaten, in dem Gerät gespeichert und insbesondere nicht gelöscht.It is further proposed that historical information be used to estimate device drift and to correct future device drift predictions. With this refinement, an advantageously precise prediction of the position of the device can be achieved. A “drift” can be understood to mean that the prediction of the position of the device deviates from an actual position of the device, in particular due to measurement inaccuracies and/or calculation inaccuracies. Optical position data and/or movement data that do not have a current time stamp are preferably in the form of historical information. Data that has already been processed, in particular optical position data and/or movement data, is preferably stored in the device and, in particular, not deleted.
Zudem wird vorgeschlagen, dass die optischen Positionsdaten für ein Datenupdate herangezogen werden, wobei die optischen Positionsdaten mit einem nächstliegenden Zeitstempel zu den Bewegungsdaten genutzt werden. Durch diese Ausgestaltung kann eine vorteilhaft präzise Vorhersage der Position des Geräts erreicht werden, auch wenn keine aktuellen optischen Positionsdaten vorliegen. Des Weiteren kann durch diese Ausgestaltung ein Abdriften des Geräts vorteilhaft korrigiert werden. Vorzugsweise werden die optischen Positionsdaten regelmäßig, insbesondere alle 20 ms, zum Datenupdate herangezogen. Vorzugsweise erfolgt dadurch eine Aktualisierung einer mittels der Bewegungsdaten alle 2,5 ms vorhergesagten Position des Geräts.In addition, it is proposed that the optical position data be used for a data update, with the optical position data being used with a time stamp that is closest to the movement data. With this refinement, an advantageously precise prediction of the position of the device can be achieved even if no current optical position data is available. Furthermore, drifting of the device can advantageously be corrected by this configuration. The optical position data are preferably used regularly, in particular every 20 ms, for the data update. This preferably results in an update of a position of the device predicted by means of the movement data every 2.5 ms.
Das erfindungsgemäße Kalibrierungsverfahren soll hierbei nicht auf die oben beschriebene Anwendung und Ausführungsform beschränkt sein. insbesondere kann das erfindungsgemäße Kalibrierungsverfahren zu einer Erfüllung einer hierin beschriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzelnen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen. Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als offenbart und als beliebig einsetzbar gelten.The calibration method according to the invention should not be limited to the application and embodiment described above. In particular, the calibration method according to the invention can have a number of individual elements, components and units as well as method steps that differs from the number of individual elements, components and units as well as method steps specified herein in order to fulfill a function described herein. In addition, the value ranges specified in this disclosure should also lie within the stated limits Values are seen as revealed and can be used at will.
Figurenlistecharacter list
Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In den Zeichnungen ist ein Ausführungsbeispiel der Erfindung dargestellt. Die Zeichnungen, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.Further advantages result from the following description of the drawings. In the drawings an embodiment of the invention is shown. The drawings, the description and the claims contain numerous features in combination. The person skilled in the art will expediently also consider the features individually and combine them into further meaningful combinations.
Es zeigen:
-
1 ein erfindungsgemäßes Kalibrierungsverfahren in einer schematischen Darstellung, -
2 eine Bilderfassungsvorrichtung und ein Kalibrierungsobjekt zur Durchführung des erfindungsgemäßen Verfahrens in einer schematischen Darstellung, -
3 ein Ablaufschema einer Erfassungsphase eines ersten Verfahrensschritts des erfindungsgemäßen Kalibrierungsverfahrens in einer schematischen Darstellung, -
4 eine von der Bilderfassungsvorrichtung zu erfassende Oberfläche mit Referenzmarkern in einer schematischen Darstellung, -
5 ein digitales Bild mit einem verzerrten Abbild der zu erfassenden Oberfläche und mit einem virtuellen Gitter in einer schematischen Darstellung, -
6 eine Gittereinheit des virtuellen Gitters in einer schematischen Darstellung, -
7 eine Oberfläche mit einer auf die Oberfläche aufgebrachten oder aufprojizierten Motivvorlage, die von der Bilderfassungsvorrichtung erfasst wird, in einer schematischen Darstellung, -
8 eine Anzeige der Bilderfassungsvorrichtung mit einem Abbild eines digitalen Bildes der erfassten Oberfläche in einer schematischen Darstellung, -
9 eine Ansicht der zu erfassenden Oberfläche, über die ein handgehaltenes Gerät geführt wird, und der Bilderfassungsvorrichtung sowie ein Ablauf eines Verfahrensschritts in einer schematischen Darstellung und -
10 ein Ablaufschema einer Vorhersageberechnungsphase in einer schematischen Darstellung.
-
1 a calibration method according to the invention in a schematic representation, -
2 an image acquisition device and a calibration object for carrying out the method according to the invention in a schematic representation, -
3 a flow chart of a detection phase of a first method step of the calibration method according to the invention in a schematic representation, -
4 a surface to be captured by the image capturing device with reference markers in a schematic representation, -
5 a digital image with a distorted image of the surface to be recorded and with a virtual grid in a schematic representation, -
6 a lattice unit of the virtual lattice in a schematic representation, -
7 a surface with a motif template applied or projected onto the surface, which is captured by the image capturing device, in a schematic representation, -
8th a display of the image acquisition device with an image of a digital image of the acquired surface in a schematic representation, -
9 a view of the surface to be recorded, over which a hand-held device is guided, and the image recording device and a sequence of a method step in a schematic representation and -
10 a flow chart of a prediction calculation phase in a schematic representation.
Beschreibung des AusführungsbeispielsDescription of the embodiment
In der
In der
Die Bilderfassungsvorrichtung 20 ist im vorliegenden Fall als ein mobiles, persönliches elektronisches Gerät ausgebildet. Die Bilderfassungsvorrichtung 20 ist als ein Smartphone oder als ein Tablet-PC ausgebildet. Im vorliegenden Fall ist die Bilderfassungsvorrichtung 20 auf einer Aufständereinheit 30, welche als Stativ ausgebildet ist, ortsfest positioniert. Die Bilderfassungsvorrichtung 20 weist eine Kamera auf. Die Bilderfassungsvorrichtung 20 weist eine Anzeige 32 auf, die als ein Bildschirm ausgebildet ist. Die Bilderfassungsvorrichtung 20 ist zu einer, insbesondere dynamischen, Bildverarbeitung vorgesehen. Die Bilderfassungsvorrichtung 20 ist zur Aufnahme eines digitalen Bildes 34 einer zu erfassenden Oberfläche 36, insbesondere einer Motivvorlage 60 auf der zu erfassenden Oberfläche 36, vorgesehen. Die Oberfläche 36 ist im vorliegenden Fall als eine Wandoberfläche eines Raumes in einem Gebäude ausgebildet. Die Bilderfassungsvorrichtung 20 wird anhand des Kalibrierungsobjekts 22 kalibriert, bevor ein digitales Bild 34 der zu erfassenden Oberfläche 36 aufgenommen wird. Die Bilderfassungsvorrichtung 20 wird kalibriert, um die durch die Bilderfassungsvorrichtung 20 zu erfassende Oberfläche 36, insbesondere die Motivvorlage 60 auf der zu erfassenden Oberfläche 36, korrekt belichtet erfassen zu können. Eine Belichtungseinstellung der Kamera, insbesondere die Belichtungsdauer und/oder die Belichtungsstärke, wird mittels des Kalibrierungsverfahrens 10 angepasst, um die zu erfassende Oberfläche 36, insbesondere die Motivvorlage 60 auf der zu erfassenden Oberfläche 36, mittels der Kamera zu erfassen und eine Bildverarbeitung durchführen zu können.In the present case, the
Die Kamera weist einen optoelektronischen Bildsensor auf. Der Bildsensor wird dauerhaft, insbesondere ohne einen mechanischen Verschluss, belichtet. Der Bildsensor wird zur Aufnahme des digitalen Bildes 34 in einem definierten Zeitraum, insbesondere der Belichtungsdauer, belichtet. Alternativ könnte die Belichtungsdauer als eine Verschlusszeit der Kamera ausgebildet sein. Die Belichtungsstärke ist als eine Lichtempfindlichkeit des Bildsensors, insbesondere als ein ISO-Wert, ausgebildet.The camera has an optoelectronic image sensor. The image sensor is permanently exposed, in particular without a mechanical shutter. In order to record the
Die Belichtungseinstellung der Kamera muss angepasst werden, damit die Kamera Objekte bei einer Bildverarbeitung detektieren kann. Ist eine Belichtung zu hoch, erreicht mehr Licht den Bildsensor und folglich wird ein Abbild des Kalibrierungsobjekts 22 zu weiß. Andererseits wird ein Abbild des Kalibrierungsobjekts 22 zu dunkel, wenn zu wenig Licht den Bildsensor erreicht. In beiden Fällen könnte die Bildverarbeitung nicht so zuverlässig erfolgen, wie erforderlich. Diese Problematik tritt sehr oft auf, wenn eine Umgebungshelligkeit, insbesondere Raumhelligkeit, entweder zu hell (hoher Lux-Wert) oder zu dunkel (sehr geringer Lux-Wert) ist.The exposure setting of the camera must be adjusted so that the camera can detect objects during image processing. If an exposure is too high, more light reaches the image sensor and consequently an image of the
Das Kalibrierungsobjekt 22 wird, insbesondere vor Beginn der Erfassungsphase 24, in einem Sichtfeld 40 der Kamera positioniert. Das Kalibrierungsobjekt 22 wird von der Bilderfassungsvorrichtung 20 erkannt. Die Bilderfassungsvorrichtung 20 erkennt das Kalibrierungsobjekt 22 an einer Form des Kalibrierungsobjekts 22. Die Form des Kalibrierungsobjekts 22 ist in der Bilderfassungsvorrichtung 20 abgespeichert und/oder die Bilderfassungsvorrichtung 20 hat die Form des Kalibrierungsobjekts 22 erlernt.The
Das Kalibrierungsobjekt 22 weist ein Leuchtmittel 42 auf, welches dazu vorgesehen ist, unterschiedliche Farbzustände 44 anzunehmen. Das Leuchtmittel 42 weist zumindest eine LED auf. Das Leuchtmittel 42 emittiert farbiges Licht entsprechend eines jeweiligen Farbzustandes der verschiedenen Farbzustände 44. The
Die Bilderfassungsvorrichtung 20 erfasst das Kalibrierungsobjekt 22 in verschiedenen Kalibrierungssequenzen in den unterschiedlichen Farbzuständen 44 des Kalibrierungsobjekts 22 zur Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke. Ein Ablaufschema 46 der Erfassungsphase 24 ist in der
Die Bilderfassungsvorrichtung 20 erfasst während jedes Farbzustands das Kalibrierungsobjekt 22 mehrfach. Die Bilderfassungsvorrichtung 20 variiert während jedes Farbzustands des Kalibrierungsobjekts 22 die Belichtungsdauer und/oder die Belichtungsstärke über die im Wesentlichen gesamte vorgesehene Wertespanne der Belichtungsdauer und/oder der Belichtungsstärke, solange die Bilderfassungsvorrichtung 20 das Kalibrierungsobjekt 22 erkennt. Die Wertespanne ist durch minimal und maximal an der Bilderfassungsvorrichtung 20 einstellbare Werte für die Belichtungsdauer und/oder die Belichtungsstärke definiert. Grundsätzlich ist es denkbar, dass die Bilderfassungsvorrichtung 20 das Kalibrierungsobjekt 22 bei minimalen und/oder maximalen Werten für die Belichtungsdauer und/oder die Belichtungsstärke zumindest teilweise nicht mehr erkennt, insbesondere wenn abhängig von der Umgebungshelligkeit Konturen, insbesondere Außenkonturen, des Kalibrierungsobjekts 22 nicht mehr von einem Hintergrund und/oder einer Umgebung des Kalibrierungsobjekts 22 unterscheidbar sind. Anhand zumindest eines vorgegebenen Zufriedenheitsfaktors wird ermittelt, bei welchen Helligkeitswerten das Kalibrierungsobjekt 22 in dem Wertebereich liegt. Der zumindest eine vorgegebene Zufriedenheitsfaktor ist vorbestimmt. Für jeden Farbzustand wird die vollständige mittels der Kamera umsetzbare Wertespanne der Belichtungsdauer und/oder der Belichtungsstärke von absolut dunkel bis sehr hell genutzt. Wenn das Abbild des Kalibrierungsobjekts 22 heller wird, kann das Kalibrierungsobjekt 22 erkannt werden. Mittels des zumindest einen vorgegebenen Zufriedenheitsfaktors wird das Kalibrierungsobjekt 22 solange als detektiert erachtet, bis das Abbild des Kalibrierungsobjekts 22 sehr hell wird und das Kalibrierungsobjekt 22 nicht mehr erkannt werden kann. Der Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke definiert einen Bereich, in dem der zumindest eine vorgegebene Zufriedenheitsfaktor zutrifft. Der Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke definiert einen Bereich, in dem das Kalibrierungsobjekt 22 mit einem hohen Zufriedenheitsgrad erkennbar ist. Der ermittelte Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke wird für jede Kalibrierungssequenz in der Bilderfassungsvorrichtung 20 abgespeichert.The
Im vorliegenden Fall nimmt das Kalibrierungsobjekt 22 in den Farbzuständen 44 Grundfarben basierend auf zwei verschiedenen Farbmodellen an. Eines der Farbmodelle ist das CMY-Farbmodell und ein weiteres der Farbmodelle ist das RGB-Farbmodell. Die Farbzustände 44 werden in der Erfassungsphase 24 in einer festgelegten Reihenfolge 48 durchlaufen. Auf eine Grundfarbe eines ersten Farbmodells der zwei Farbmodelle folgt eine Grundfarbe eines zweiten Farbmodells der zwei Farbmodelle, welche einen geringsten spektralen Überlapp mit der Grundfarbe des ersten Farbmodells aufweist. Im vorliegenden Fall ist das erste Farbmodell der zwei Farbmodelle das RGB-Farbmodell und das zweiten Farbmodell der zwei Farbmodelle das CMY-Farbmodell. Zumindest eine Grundfarbe des ersten Farbmodells der zwei Farbmodelle ist eine Komplementärfarbe zu einer Grundfarbe des zweiten Farbmodells der zwei Farbmodelle.In the present case, the
Während der Erfassungsphase 24 werden im vorliegenden Fall sechs Kalibrierungssequenzen durchlaufen. Im vorliegenden Fall durchläuft das Kalibrierungsobjekt 22 während der Erfassungsphase 24 sechs unterschiedliche Farbzustände 44, in welchen das Kalibrierungsobjekt 22 jeweils eine Farbe annimmt. In jeder Kalibrierungssequenz emittiert das Kalibrierungsobjekt 22 einen anderen Farbzustand. Die Farbe, die das Kalibrierungsobjekt 22 in den unterschiedlichen Farbzuständen 44 annimmt, ist jeweils blau, cyan, grün, gelb, rot oder magenta. Zur Sicherstellung, dass ein farbiges Objekt, insbesondere das Kalibrierungsobjekt 22, unter verschiedenen Umgebungshelligkeitsbedingungen, insbesondere in einem Raum, erkannt wird, wird die Erfassung des Objekts mittels sechs Grundfarben eines Farbkreises kalibriert. Während der Erfassungsphase 24 wird ein Farbzustand des Kalibrierungsobjekts 22 automatisch gewechselt. Die Kalibrierungssequenzen werden automatisch aufeinander folgend ausgeführt. Der Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke wird im vorliegenden Fall insgesamt sechs Mal ermittelt. Der Wertebereich für die Belichtungsdauer und/oder die Belichtungsstärke wird für jeden Farbzustand einzeln ermittelt.In the present case, six calibration sequences are run through during the
Auf die Erfassungsphase 24 folgt die Berechnungsphase 26. In der Berechnungsphase 26 wird der Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke der Bilderfassungsvorrichtung 20 ermittelt. In der Berechnungsphase 26 wird der Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke der Bilderfassungsvorrichtung 20 für weitere Phasen in der Bildverarbeitung festgelegt. Der Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke der Bilderfassungsvorrichtung 20 wird aus den ermittelten Wertebereichen für die Belichtungsdauer und/oder die Belichtungsstärke aus allen Kalibrierungssequenzen berechnet. Der Optimalwert ist als ein Mittelwert der ermittelten Wertebereiche für die Belichtungsdauer und/oder die Belichtungsstärke aus allen Kalibrierungssequenzen ausgebildet. Grundsätzlich wäre es denkbar, dass die Berechnungsphase 26 parallel zu der Erfassungsphase 24 entsprechend der Kalibrierungssequenzen abläuft.The
Die Bilderfassungsvorrichtung 20 wird in der Kalibrierungsphase 28 auf die ermittelte Belichtungsdauer und/oder die ermittelte Belichtungsstärke eingestellt. Die Bilderfassungsvorrichtung 20 wird in der Kalibrierungsphase 28 auf den berechneten Optimalwert für die Belichtungsdauer und/oder die Belichtungsstärke eingestellt. Die ermittelte Belichtungsdauer und/oder die ermittelte Belichtungsstärke, insbesondere der Optimalwert, wird in der Kamera voreingestellt. Die Bilderfassungsvorrichtung 20 wird bei jeder wesentlichen Veränderung der Umgebungshelligkeit erneut kalibriert, wobei die Bilderfassungsvorrichtung 20 das Kalibrierungsobjekt 22 in den verschiedenen Kalibrierungssequenzen in den unterschiedlichen Farbzuständen 44 des Kalibrierungsobjekts 22 zur Ermittlung der Belichtungsdauer und/oder der Belichtungsstärke erneut erfasst.In the
In dem zweiten Verfahrensschritt 14 wird die von der Kamera der Bilderfassungsvorrichtung 20 zu erfassende Oberfläche 36 mit physischen Referenzmarkern 50 markiert, wobei mittels der Kamera das digitale Bild 34 der zu erfassenden Oberfläche 36 erstellt wird, wobei anhand der Referenzmarker 50 mittels der Bilderfassungsvorrichtung 20 ein virtuelles Gitter 52 erzeugt wird, welches sich an den Referenzmarkern 50 orientiert, wobei Pixel des erstellten Bildes 34 Gitterelementen 54 des Gitters 52 zugeordnet werden, wobei die Gitterelemente 54 alle ein gleiches tatsächliches Format aufweisen. Anhand der Referenzmarker 50 wird eine Perspektivkorrektur einer in dem Bild 34 vorhandenen Verzerrung eines Abbilds 56 der zu erfassenden Oberfläche 36 durchgeführt, wobei die Verzerrung durch einen Winkel zwischen der Oberfläche 36 und einer Aufnahmeebene der Kamera bedingt ist, wobei das Gitter 52 in Gittereinheiten 58 unterteilt wird, die alle ein gleiches tatsächliches Format aufweisen und in denen jeweils eine gleiche Anzahl an Gitterelementen 54 angeordnet ist, wobei eine tatsächliche Höhe und Breite der Gittereinheiten 58 von den Referenzmarkern 50 vorgegeben werden. Der Winkel zwischen der Oberfläche 36 und der Aufnahmeebene der Kamera kann durch reale Einschränkungen und/oder durch eine Unerfahrenheit eines Nutzers bedingt sein, wodurch eine Perspektive auf die Oberfläche 36 entsteht. Das Kalibrierungsverfahren 10 ist für die Bilderfassungsvorrichtung 20.In the
Eine physische Position jedes Pixels des digitalen Bildes 34 wird auf der Oberfläche 36 anhand der Referenzmarker 50 und anhand des virtuellen Gitters 52 bestimmt. Die zu erfassende Oberfläche 36 ist in einer Ebene angeordnet. Auf der zu erfassenden Oberfläche 36 ist ein Objekt abgebildet. Das Objekt ist als eine Motivvorlage 60 ausgebildet. Die Motivvorlage 60 kann nach einer Erfassung durch die Bilderfassungsvorrichtung 20 mittels eines Medienauftrags, insbesondere Farbauftrags, auf die Oberfläche 36, insbesondere permanent, auf die Oberfläche 36 aufgebracht und/oder in diese eingebracht werden.A physical location of each pixel of the
Der zweite Verfahrensschritt 14 umfasst eine Vorbereitungsphase 62, eine Aufnahmephase 64, eine Aufteilungs- und Initialisierungsphase 66, eine Datentransformationsphase 68 und eine Datentransferphase 70 (vgl.
Die Referenzmarker 50 werden in der Vorbereitungsphase 62 auf der Oberfläche 36, insbesondere haftend, aber zerstörungsfrei lösbar, angeordnet. Die Referenzmarker 50 sind in einem Band angeordnet. Das Band bildet einen Rahmen aus, der um das auf der zu erfassenden Oberfläche 36 abgebildete Objekt, insbesondere die Motivvorlage 60, angeordnet ist. Der durch das Band gebildete Rahmen ist rechteckig ausgebildet. Die Referenzmarker 50 weisen jeweils ein Muster auf, das auf einer der Oberfläche 36 angewandten Seite der Referenzmarker 50 angeordnet ist. Die Referenzmarker 50 weisen eine quadratische Form auf. Alle Referenzmarker 50 sind identisch ausgebildet. Unmittelbar benachbarte Referenzmarker 50 sind um einen Abstand voneinander beabstandet, der einem Format der Referenzmarker 50 entspricht. Jeder Referenzmarker 50 weist ein tatsächliches Format von 100 mm x 100 mm auf. Die Referenzmarker 50 werden von der Bilderfassungsvorrichtung 20, insbesondere mittels des Musters, identifiziert.In the
Zur Erstellung des digitalen Bildes 34 werden Lichtwellen, die von der zu erfassenden Oberfläche 36 ausgehen, in der Aufnahmephase 64 mittels des Bildsensors der Kamera in digitale Signale umgewandelt. Das digitale Bild 34 wird in eine Vielzahl von Pixeln zerlegt, die jeweils eine Farbinformation aufweisen. Das digitale Bild 34 wird mittels der Bilderfassungsvorrichtung 20 digital verarbeitet. Grundsätzlich kann das digitale Bild 34 auch auf der Anzeige 32 der Bilderfassungsvorrichtung 20 dargestellt werden.To create the
In der Aufteilungs- und Initialisierungsphase 66 wird ein Raum innerhalb des Bands aus Referenzmarkern 50 in die Gittereinheiten 58 unterteilt, insbesondere ausgehend von einzelnen Referenzmarkern 50. Das virtuelle Gitter 52 ist digital mittels der Bilderfassungsvorrichtung 20 erzeugt. Das virtuelle Gitter 52 bildet eine regelmäßige Struktur von Gitterlinien 72 aus. Das virtuelle Gitter 52 orientiert sich an den Referenzmarkern 50. Das virtuelle Gitter 52 bildet eine Matrix aus, der Pixel des digitalen Bildes 34 zugeordnet werden. Das virtuelle Gitter 52 wird in das digitale Bild 34 eingefügt und/oder als Referenz für eine Zuordnung der Pixel als ein eigenständiger Datensatz gespeichert. Das virtuelle Gitter 52 ist in dem digitalen Bild 34 abhängig von einer Anordnung der Referenzmarker 50 in dem Abbild 56 der zu erfassenden Oberfläche 36 verzerrt.In the division and
Das virtuelle Gitter 52 umfasst eine Vielzahl von Gittereinheiten 58. In der Aufteilungs- und Initialisierungsphase 66 wird das Gitter 52 in die Gittereinheiten 58 unterteilt. Dadurch kann eine Fehlerakkumulierung vorteilhaft vollständig eliminiert werden, die durch Schätzungen von Werten entstehen würde. Dadurch können Fehler innerhalb einer Gittereinheit 58 isoliert werden. Folglich werden Fehler mit jeder Gittereinheit 58 zurückgesetzt und können sich vorteilhaft nicht fortpflanzen. Die Gittereinheiten 58 weisen ein gleiches Format auf wie die Referenzmarker 50. Jede Gittereinheit 58 weist ein tatsächliches Format von 100 mm x 100 mm auf. Unmittelbar benachbarte Gittereinheiten 58 sind abstandsfrei zueinander angeordnet. Jede Gittereinheit 58 umfasst eine Vielzahl der Gitterelemente 54. Das tatsächliche Format der Gitterelemente 54 ist jeweils quadratisch ausgebildet. Jedes Gitterelement 54 weist ein tatsächliches Format von 1 mm x 1 mm auf. Unmittelbar benachbarte Gitterelemente 54 sind abstandsfrei zueinander angeordnet.The
Ein Koordinatensystem 74 des Gitters 52 geht von einer oberen linken Ecke eines virtuellen Rahmens, welcher von den Referenzmarkern 50 unmittelbar umgeben ist, aus. Ein (0, 0)-Punkt 76 des Gitters 52, insbesondere ein Ursprungspunkt des Koordinatensystems 74, wird in der oberen linken Ecke des Rahmens festgelegt. Das Koordinatensystem 74 weist eine x-Achse 78 und eine y-Achse 80 auf. Das Koordinatensystem 74 erstreckt sich horizontal entlang der x-Achse 78 und vertikal entlang der y-Achse 80 jeweils in 1 mm-Schritten. Eine physikalische Bedeutung von x- und y-Koordinaten, welche einen (x,y)-Punkt des Gitters 52 bilden, repräsentieren eine Verschiebung in mm auf der x-Achse 78 bzw. der y-Achse 80, gemessen als ein relativer Abstand zwischen dem (x,y)-Punkt und dem (0,0)-Punkt 76, dem Ursprungspunkt.A coordinate
Die Gittereinheiten 58 weisen jeweils fünf Eigenschaften auf, nämlich vier Eckkoordinaten A, B, C, D (links unten, rechts unten, rechts oben, links oben) bezogen auf Pixel des digitalen Bildes 34 und absolute Koordinaten einer Eckkoordinate 82 links oben in mm bezogen auf das Koordinatensystem 74. Die Eckkoordinate 82 entspricht der Eckkoordinate D (vgl.
Innerhalb eines virtuellen Rahmens, welcher von den Referenzmarkern 50 unmittelbar umgeben ist, werden horizontale und vertikale Referenzpunktpaare 84, 86, 88, 90 definiert, die jeweils auf einer Gitterlinie 72 des Gitters 52 angeordnet sind. Der virtuelle Rahmen grenzt direkt an die Referenzmarker 50, insbesondere an das Band, an. Referenzpunkte der Referenzpunktpaare 84, 86, 88, 90 sind jeweils an einem Eckpunkt eines Referenzmarkers 50 auf dem virtuellen Rahmen angeordnet. Ein erstes vertikales Referenzpunktpaar 84 weist einen oberen Punkt T1 und einen unteren Punkt B1 auf. Ein zweites vertikales Referenzpunktpaar 86 weist einen oberen Punkt T2 und einen unteren Punkt B2 auf. Ein erstes horizontales Referenzpunktpaar 88 weist einen linken Punkt L1 und einen rechten Punkt R1 auf. Ein zweites horizontales Referenzpunktpaar 90 weist einen linken Punkt L2 und einen rechten Punkt R2 auf. Innerhalb eines Referenzpunktpaares 84, 86, 88, 90 haben die Punkte dieselben absoluten Koordinaten in mm (nicht in Pixel) auf der x-Achse 78 für die vertikalen Referenzpunktpaare 84, 86 und auf der y-Achse 80 für die horizontalen Referenzpunktpaare 88, 90.Horizontal and vertical pairs of
Zur Berechnung der Eckkoordinaten A, B, C, D der Gittereinheiten 58 bezogen auf Pixel des digitalen Bildes 34 werden Steigungen von Gitterlinien 72 bestimmt, wobei die Steigungen durch die Verzerrung bedingt sind, wobei die Gitterlinien 72 der Gittereinheiten 58 jeweils an zu den Gittereinheiten 58 nächstliegenden Referenzmarkern 50 anliegen. Die Gittereinheiten 58 sind jeweils durch vier Gitterlinien 72 des virtuellen Gitters 52 definiert. Die Steigungen der Gitterlinien 72 werden mittels der horizontalen Referenzpunktpaare 88, 90 bzw. der vertikalen Referenzpunktpaare 84, 86 ermittelt. Die Eckkoordinaten A, B, C, D einer Gittereinheit 58 sind als Schnittpunkte der Gitterlinien 72 der Gittereinheit 58 ausgebildet. Die Eckkoordinaten A, B, C, D der Gittereinheit 58 werden mittels den Steigungen der Gitterlinien 72 der Gittereinheit 58 und mittels der horizontalen und vertikalen Referenzpunktpaare 84, 86, 88, 90 ermittelt, insbesondere berechnet.In order to calculate the corner coordinates A, B, C, D of
Eine Grundgleichung zur Berechnung einer Steigung zwischen zwei Punkten mit bekannten Koordinaten ist in Formel (1) aufgeführt.
Eine Steigung m1 zwischen den Punkten L1 und R1 wird mittels Formel (2) berechnet.
Eine Steigung m2 zwischen den Punkten T1 und B1 wird mittels Formel (3) berechnet.
Bezogen auf diese Punkte sind damit die Steigungen m1 und m2 bekannt sowie die Koordinaten der Punkte T1 und L1. Ein Schnittpunkt Z wird mittels Formel (4) und (5) berechnet.
Es gibt in Formel (1) eine mathematische Singularität für den Fall, dass die ersten und/oder zweiten vertikalen Referenzpunktpaare 84, 86 vertikale Linien mit undefinierten Steigungen bedingt durch eine Teilung durch null sind. Für diesen speziellen Fall werden die Formeln zur Berechnung des Schnittpunktes Z von Gleichungen mit zwei Linien abgeleitet. Beispielsweise wird der Schnittpunkt Z mittels den Formeln (6) und (7) berechnet, wenn die Steigung m1 undefiniert ist.
Die verbleibenden Eckkoordinaten C, A, B (rechts oben, links unten, rechts unten) bezogen auf Pixel des digitalen Bildes 34 werden auf dieselbe Weise berechnet.The remaining corner coordinates C, A, B (top right, bottom left, bottom right) related to pixels of the
Im vorliegenden Fall ist das Ergebnis der Aufteilungs- und Initialisierungsphase 66 ein Array mit 68 Rechtecken, die in der folgenden Datentransformationsphase 68 nach und nach bearbeitet werden.In the present case, the result of the partitioning and
In der Datentransformationsphase 68 wird eine Kartierungsmatrix für alle Punkte, insbesondere innerhalb der Referenzmarker 50, erstellt. Die Kartierungsmatrix ist als eine Nachschlagetabelle ausgebildet. In einem Parsing-Prozess wird die Nachschlagetabelle erstellt. Der Parsing-Prozess wird in der Datentransformationsphase 68 ausgeführt. Die Nachschlagetabelle ist als eine C Matrix ausgebildet. Eine Größe der Nachschlagetabelle entspricht einer Auflösung der Kamera und/oder einer Auflösung einer Anzeige 32 der Bilderfassungsvorrichtung 20. Dadurch entspricht eine Anzahl an Zeilen in der Nachschlagetabelle einer Anzeigebreite der Anzeige 32 und eine Anzahl an Spalten in der Nachschlagetabelle einer Anzeigehöhe der Anzeige 32. Die Nachschlagetabelle weist eine Anzahl an Datenfeldern auf, die der Auflösung der Kamera und/oder der Auflösung der Anzeige 32 entspricht. Die Nachschlagtabelle enthält Farbinformationen entsprechend der Pixel des Bildes 34. Eine Größe der Nachschlagetabelle ist vorteilhaft minimiert, da sie initialisiert ist auf Daten vom Typ integer bei 16 bit (zwischen - 32768 und +32767).In the
Jede Stelle in der Nachschlagetabelle (Zeilennummer und Spaltennummer) enthält eine Angabe der Koordinaten der Pixel in mm, welche indizierte Zeilennummern und Spaltennummern aufweisen. Wenn eine Positionsmarkierung der Bilderfassungsvorrichtung 20 an einem (x,y)-Punkt lokalisiert wird, kann die reale Koordinate durch Zugriff auf den gespeicherten Punkt in der Nachschlagetabelle aufgefunden werden. Dadurch kann ein besonders schneller Zugriff auf Farbinformationen erfolgen.Each location in the look-up table (row number and column number) contains an indication of the coordinates in mm of the pixels that have row numbers and column numbers indexed. When a position marker of the
Bei einer Initialisierung der Nachschlagetabelle sind alle abgespeicherten Werte Punkte mit den Koordinaten (-1,-1). Im Folgenden werden die realen Positionen in der Nachschlagetabelle abgespeichert. Dies erfolgt nur für die Pixel bezogen auf das digitale Bild 34, die innerhalb der Referenzmarker 50 angeordnet sind.When the lookup table is initialized, all stored values are points with coordinates (-1,-1). In the following, the real positions are stored in the look-up table. This is done only for the pixels related to the
In der Datentransformationsphase 68 werden alle realen Koordinaten und Werte für jedes Pixel des digitalen Bildes 34, welches sich innerhalb des Bandes befindet, berechnet. Mittels eines Algorithmus wird jede Gittereinheit 58 herangezogen und für jede Gittereinheit 58 ein Verhältnis von Pixel zu realer Koordinate für jedes Pixel innerhalb der Gittereinheit 58 bestimmt. Die Gittereinheiten 58 werden jeweils in 10.000 Gitterelemente 54 ä 1 mm x 1 mm aufgesplittet.In the
Zur Berechnung einer Zuordnung von Pixeln zu Gitterelementen 54 wird zumindest eine Distanz zwischen Eckkoordinaten A, B, C, D einer jeweiligen Gittereinheit 58 bezogen auf Pixel des digitalen Bildes 34 berechnet. Eine Distanz zwischen Eckpunkten eines jeden Gitterelements 54 innerhalb einer Gittereinheit 58 wird abhängig von einer Anzahl an horizontal und/oder vertikal benachbarten Gitterelementen 54 in der Gittereinheit 58 und von einer Distanz zwischen Eckkoordinaten A, B, C, D einer jeweiligen Gittereinheit 58 bezogen auf Pixel des digitalen Bildes 34 bestimmt. Eckkoordinaten A, B, C, D der Gittereinheiten 58 werden mittels unterschiedlicher Referenzmarker 50 unabhängig voneinander berechnet.At least one distance between corner coordinates A, B, C, D of a
Zur Berechnung einer Distanz zwischen zwei Punkten mit den Koordinaten (x1,y1) und (x2,y2) wird Formel (8) herangezogen.
Die Formel (8) wird zur Berechnung einer Distanz DistDA und einer Distanz DistDC verwendet. Da eine Größe der Gittereinheiten 58 100 mm x 100 mm beträgt, werden die Distanzen DistDA und DistDC in 100 gleich große Anteile zerlegt. Eine Position der Gitterelemente 54 wird in Fließkommazahlen mit doppelter Genauigkeit berechnet.The formula (8) is used to calculate a distance Dist DA and a distance Dist DC . Since a size of the
Nach einer Berechnung der Distanzen zwischen aufeinanderfolgenden Punkten innerhalb einer Gittereinheit 58 werden vertikale und horizontale Paare identifiziert. Für Punkte der vertikalen Paare wird die linke obere Eckkoordinate D der Gittereinheit 58 als Schwenkpunkt herangezogen. Damit kann ein nächster Punkt W(x,y) mittels der Formeln (10) und (11) bestimmt werden, da eine Distanz d, welche im vorliegenden Fall mittels Formel (9) berechnet wird, die initiale Eckkoordinate D und eine finale Eckkoordinate C bekannt sind.
Die Formeln (10) und (11) werden auf die Linie DC angewandt, um die oberen 100 Punkte der vertikalen Paare zu bestimmen. Für die unteren Punkte werden die Formeln (10) und (11) auf die Linie AB angewandt. Hierzu sei angemerkt, dass eine Distanz zwischen aufeinanderfolgenden Punkten unterschiedlich ist. Dasselbe gilt für die horizontalen Paare auf den Linien DA und CB. Wenn die Paare bekannt sind, werden die Schnittpunkte jeden vertikalen Paares mit den horizontalen Paaren berechnet. Dadurch können die Punkte P(x,y) bestimmt werden. Da die Berechnungen mit doppelter Genauigkeit erfolgen, sind die Koordinaten im Regelfall non-integer Werte.Formulas (10) and (11) are applied to the line DC to determine the top 100 points of the vertical pairs. For the lower points, formulas (10) and (11) are applied to line AB. It should be noted that a distance between consecutive points is different. The same applies to the horizontal pairs on lines DA and CB. When the pairs are known, the intersections of each vertical pair with the horizontal pairs are calculated. This allows the points P(x,y) to be determined. Since the calculations are made with double precision, the coordinates are usually non-integer values.
Die Nachschlagetabelle und die Medienauftragsvorrichtung arbeiten mit integer Koordinaten, womit Annäherungen an die nächsten integer Werte durchgeführt werden müssen. Da bis zu diesem Zeitpunkt Werte mit doppelter Genauigkeit verarbeitet wurden, ist ein Fehler auf eine Rechengenauigkeit in Dezimalstellen reduziert. Des Weiteren ist der Fehler für jeden Punkt lokalisiert, ohne die Möglichkeit einer Fehlerfortpflanzung.The look-up table and media applicator operate on integer coordinates, so approximations to the nearest integer values must be made. Since values with double precision were processed up to this point in time, an error is due to a calculation precision reduced to decimal places. Furthermore, the error is localized for each point, with no possibility of error propagation.
Werte, die innerhalb der Gittereinheit 58 mittels des zuvor beschriebenen Algorithmus berechnet wurden, sind die tatsächlichen Werte in mm gemessen bezogen auf die absolute linke obere Eckkoordinate, dem (0,0)-Punkt 76, bezogen auf das Koordinatensystem 74. Absolute Koordinaten der Gitterelemente 54 sind vorteilhaft einfach durch Addition der relativen mm Koordinaten zu der absoluten linken oberen Eckkoordinate D berechenbar. Absolute Koordinaten der Gitterelemente 54 werden durch Addition der Koordinaten der Eckkoordinaten D der Gittereinheit 58 berechnet.Values calculated within the
Abschließend werden die berechneten absoluten Koordinaten jedes Gitterelements 54 der Gittereinheit 58 in der Nachschlagetabelle gespeichert. Ein realer mm Koordinatenwert wird entsprechend des richtigen Indizes abgespeichert, welcher seine Position in Pixeln repräsentiert.Finally, the calculated absolute coordinates of each
Die Aufteilungs- und Initialisierungsphase 66 und die Datentransformationsphase 68 bilden einen Mehrschritt-Algorithmus aus, um die realen Punkte ausgehend von dem digitalen Bild 34 berechnen zu können.The division and
In der Datentransferphase 70 wird die Nachschlagetabelle von der Bilderfassungsvorrichtung 20 für eine Zugriff auf die Nachschlagetabelle freigegeben. Die Nachschlagetabelle wird von der Bilderfassungsvorrichtung 20 an das, insbesondere handgehaltene, Gerät 18 übermittelt. Das Gerät 18 greift auf die Nachschlagetabelle zu. Das Gerät 18 nutzt die Nachschlagetabelle zur Ermittlung von Farbinformationen an Positionen der Oberfläche 36.In the
Die Nachschlagetabelle wird abhängig von einer Position des, insbesondere handgehaltenen, Geräts 18, insbesondere in einer weiteren Phase oder einem weiteren Verfahrensschritt oder einem weiteren Verfahren, zu einem definierten Farbauftrag mittels des Geräts 18 auf die Oberfläche 36 genutzt. Die Medienauftragsvorrichtung bringt entsprechend der Nachschlagetabelle zumindest ein Medium, insbesondere Farben, definiert auf die Oberfläche 36 auf.The look-up table is used for a defined application of paint to the
Mittels zumindest eines Sensormittels der Bilderfassungsvorrichtung 20 wird eine Position des, insbesondere handgehaltenen, Geräts 18 bestimmt, wobei die Position des Geräts 18 zur Navigation in der Nachschlagetabelle benutzt wird. Die Bilderfassungsvorrichtung 20 erfasst das Gerät 18 relativ zu der Oberfläche 36. Die Bilderfassungsvorrichtung 20 ermittelt eine Position des Geräts 18 mittels einer Positionsmarkierung des Geräts 18, die von der Bilderfassungsvorrichtung 20, insbesondere von dem Sensormittel, erkannt wird. Die Positionsmarkierung ist im vorliegenden Fall als ein Leuchtmittel 92 des Geräts 18 ausgebildet. Die Bilderfassungsvorrichtung 20 übermittelt die Position des Geräts 18 an das Gerät 18. Während eines Medienauftrags wird eine Position der Positionsmarkierung, insbesondere des Leuchtmittels 92 des Geräts 18, bezüglich der Pixel des digitalen Bildes 34 detektiert. Die realen Koordinaten der detektierten Positionsmarkierung werden von der Nachschlagetabelle vorgegeben, die vorgespeicherte Millimeterwerte für alle Pixel in dem digitalen Bild 34 bzw. auf der Anzeige 32 aufweist.A position of the
Grundsätzlich wäre es zur Speicherung und Indizierung einer virtuellen Positionskarte auch denkbar, eine Hash-Tabelle, eine vektorielle objektive C Implementierung oder andere dem Fachmann für geeignet erscheinende Möglichkeiten zur Kartierung zwischen zwei Objekten zu nutzen. Nachteil von vorimplementierten Strukturen ist ein großer Speicherbedarf, um Werte zu speichern, und eine Berechnungszeit um ein spezielles Objekt zu lokalisieren. Es wird eine zeiteffektive Objektlokalisierung benötigt, da im Betrieb sofort auf Informationen zu einem bestimmten Punkt zugegriffen werden können muss. Andernfalls könnten Verzögerungen und Rückstände in einer Augmented Reality Ansicht auftreten, die zu einer hohen Ungenauigkeit bei einem Medienauftrag und ebenfalls zu einer CPU-Übernutzung führen könnten.In principle, it would also be conceivable for storing and indexing a virtual position map to use a hash table, a vectorial objective C implementation or other options for mapping between two objects that appear suitable to a person skilled in the art. The disadvantage of pre-implemented structures is that they require a lot of memory to store values and it takes a lot of calculation time to locate a specific object. Time-effective object localization is required because information about a specific point must be accessible immediately during operation. Otherwise, delays and backlogs could occur in an augmented reality view, which could lead to high inaccuracy in a media job and also to CPU overuse.
In dem Kalibrierungsverfahren 10 wird in dem dritten Verfahrensschritt 16 eine Position des handgehaltenen Geräts 18, welches insbesondere zu einem definierten Farbauftrag auf die Oberfläche 36 vorgesehen ist, in Echtzeit bestimmt, wobei das Gerät 18 mittels einer inertialen Messeinheit des Geräts 18 und mittels der Kamera der Bilderfassungsvorrichtung 20 überwacht wird, wobei zu einer Vorhersage einer Position des Geräts 18 optische Positionsdaten, die von der Bilderfassungsvorrichtung 20 ermittelt werden, und Bewegungsdaten, die von der inertialen Messeinheit ermittelt werden, kombiniert ausgewertet werden. Das Gerät 18 weist das Leuchtmittel 92 auf, welches eine definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer emittiert, wobei die Bilderfassungsvorrichtung 20 die von dem Leuchtmittel 92 emittierten Farbzustände erfasst und auswertet. Das Leuchtmittel 92 des Geräts 18 ist als eine LED ausgebildet.In the
Das Gerät 18 ist an der Oberfläche 36 entlang der x-Achse 78 und der y-Achse 80 innerhalb definierter Grenzen frei bewegbar. Das Gerät 18 weist bei einer Bewegung über die Oberfläche 36 einen zumindest im Wesentlichen konstanten Abstand zu der Oberfläche 36 auf. An bestimmten Punkten auf der Oberfläche 36 ist das Gerät 18 dazu vorgesehen, eine Aufgabe auszuführen. Beispielsweise ist das Gerät 18 dazu vorgesehen, einen Punkt an einer Stelle der Oberfläche 36 auf die Oberfläche 36 aufzubringen, wenn das Gerät 18 an dieser Stelle angeordnet ist (vgl.
Der dritte Verfahrensschritt 16 umfasst eine Erfassungsphase 94, eine Übertragungsphase 96, eine Vorhersageberechnungsphase 98 und eine Ausführungsphase 100 (vgl.
In der
In der Erfassungsphase 94 werden ein Zeitstempel des Geräts 18 und ein Zeitstempel der Bilderfassungsvorrichtung 20 synchronisiert und die aktuelle Position des Geräts 18 wird optisch bestimmt. Vor einer Vorhersage einer Position des Geräts 18 werden der Zeitstempel des Geräts 18 und ein Zeitstempel der Bilderfassungsvorrichtung 20 synchronisiert. Der Zeitstempel des Geräts 18 ist als primärer Zeitstempel ausgebildet. Der Zeitstempel der Bilderfassungsvorrichtung 20 wird an den Zeitstempel des Geräts 18 angepasst, insbesondere durch diesen überschrieben. Das Gerät 18 steuert eine Aussendung der definierten Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer. Die definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer kodiert den Zeitstempel des Geräts 18. Mittels der definierten Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer wird der Zeitstempel des Geräts 18 optisch ausgesendet. Die Zeitdauer beträgt im vorliegenden Fall 200 ms. Grundsätzlich kann die Zeitdauer aber auch eine davon, dem Fachmann für geeignet erscheinende abweichende Zeit betragen. Im vorliegenden Fall ist die Zeitdauer bei allen Farbzuständen gleich lang. Die Bilderfassungsvorrichtung 20 erfasst eine Farbe der Farbzustände und die Zeitdauer, für die die Farbzustände emittiert werden. Die Bilderfassungsvorrichtung 20 dekodiert die emittierte Abfolge abwechselnder Farbzustände und ermittelt den Zeitstempel des Geräts 18. Der Zeitstempel des Geräts 18 wird in Abhängigkeit einer Bildfrequenz der Kamera der Bilderfassungsvorrichtung 20 ermittelt. Die definierte Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer wird genauer erfasst, je größer die Bildfrequenz der Kamera ist. Der Zeitstempel des Geräts 18 beginnt, wenn das Gerät 18 einen ersten Farbzustand der definierten Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer aussendet. Eine Erfassung des Zeitstempels des Geräts 18 beginnt, wenn die Bilderfassungsvorrichtung 20 Bilder 34 der Kamera identifiziert, bei denen der erste Farbzustand erkannt wird. Basierend auf der definierten Abfolge abwechselnder Farbzustände vordefinierter Zeitdauer, die von dem Gerät 18 emittiert wird, wird der exakte Zeitstempel des Geräts 18 in der Bilderfassungsvorrichtung 20 berechnet. Mittels des Zeitstempels des Geräts 18 werden die optischen Positionsdaten, die durch die Bilderfassungsvorrichtung 20 ermittelt werden, zu dem Zeitstempel des Geräts 18 synchronisiert.In the
Die Bilderfassungsvorrichtung 20 erfasst die aktuelle Position des Geräts 18. Mittels zumindest eines Sensormittels der Bilderfassungsvorrichtung 20, insbesondere der Kamera der Bilderfassungsvorrichtung 20, wird die aktuelle Position des Geräts 18 bestimmt. Die Position des Geräts 18 wird relativ zu dem virtuellen Gitter 52 bestimmt. Das virtuelle Gitter 52 wird von der Bilderfassungsvorrichtung 20 erzeugt. Das virtuelle Gitter 52 gibt ein gedachtes Raster auf der Oberfläche 36 wieder. Die optischen Positionsdaten orientieren sich an dem virtuellen Gitter 52. Die optischen Positionsdaten geben die Position des Geräts 18 relativ zu dem virtuellen Gitter 52 an. Die optischen Positionsdaten geben die Position des Geräts 18 auf der Oberfläche 36 an.The
Grundsätzlich ist es denkbar, dass das Kalibrierungsobjekt 22 Teil des handgehaltenen Geräts 18 ist oder als das handgehaltene Gerät 18 ausgebildet ist. Dabei könnte der erste Verfahrensschritt 12 grundsätzlich auch in den dritten Verfahrensschritt 16, insbesondere in die Erfassungsphase 94 des dritten Verfahrensschritts 16, integriert werden.In principle, it is conceivable that the
In der Übertragungsphase 96 werden optische Positionsdaten von der Bilderfassungsvorrichtung 20, insbesondere drahtlos, an das Gerät 18 übermittelt. Die optischen Positionsdaten werden im vorliegenden Fall mittels Bluetooth, insbesondere Bluetooth Low Energy, an das Gerät 18 übermittelt. Eine drahtlose Übertragung der optischen Positionsdaten an das Gerät 18 erfolgt alle 20 ms.In the
In der Vorhersageberechnungsphase 98 werden die an das Gerät 18 übertragenen optischen Positionsdaten zur Vorhersage der Position des Geräts 18 verarbeitet. In der Vorhersageberechnungsphase 98 werden die optischen Positionsdaten, die von der Bilderfassungsvorrichtung 20 ermittelt wurden, und die Bewegungsdaten, die von der inertialen Messeinheit ermittelt wurden, von dem Gerät 18 kombiniert ausgewertet. Die inertiale Messeinheit weist zumindest einen Beschleunigungssensor und zumindest ein Gyroskop auf.In the
Die Vorhersage wird mittels eines erweiterten Kalman-Filters bestimmt, welcher die Bewegungsdaten und die optischen Positionsdaten verwendet. Die Bewegungsdaten und die optischen Positionsdaten werden mittels des erweiterten Kalman-Filters miteinander fusioniert.The prediction is determined using an extended Kalman filter using the motion data and the optical position data. The movement data and the optical position data are merged with one another using the extended Kalman filter.
Zur Vorhersage der Position des Geräts 18 wird ein Status xk = [xk; yk; ẋk; ẏk; ẍk; ÿk φk; ωk] analysiert. k steht dabei für einen Zeitschritt, xk und yk sind unterschiedliche Positionen, ẋk und yk sind unterschiedliche Geschwindigkeiten, ẍk und ÿk sind unterschiedliche Beschleunigungen, φ ist ein Rotationswinkel und ω ist eine Winkelgeschwindigkeit. Das erweiterte Kalman-Filter basiert auf einem Bewegungsmodell (12) und einem Messmodell (13).
Das erweiterte Kalman-Filter wird zur Datenfusionierung zwischen der inertialen Messeinheit des Geräts 18 und der Kamera der Bilderfassungsvorrichtung 20 genutzt. Das erweiterte Kalman-Filter enthält einen Statusvektor uk = [ẍIMU;ÿIMU;φIMU]. ẍIMU und ÿIMU beschreiben eine Beschleunigung des Geräts 18 ausgehend von dem zumindest einen Beschleunigungssensor und φIMU beschreibt einen Rollwinkel des Geräts 18, wobei eine Berechnung von φIMU mittels Formel (14) erfolgt.
Das erweiterte Kalman-Filter enthält einen Messvektor yk = [xCAM; yCAM;ωIMU]. XCAM und yCAM beschreiben die Position des Geräts 18 ausgehend von der Kamera und via Bluetooth Low Energy übermittelt und ωIMU beschreibt eine Rollgeschwindigkeit des Geräts 18, berechnet mittels Formel (15) ausgehend von dem Gyroskop.
Eine Vorhersage einer Position des Geräts 18 wird alle 2,5 ms berechnet. Eine Iteration zur Berechnung der Vorhersage wird alle 2,5 ms durchgeführt. In der
Für einen Fall 110, in dem keine, insbesondere aktuellen, optischen Positionsdaten vorliegen, sind aktuelle Bewegungsdaten ein einziger Input in das erweiterte Kalman-Filter. In diesem Fall werden in einem alternativen Schritt 112 Bewegungsgleichungen (16) und (17) zur Vorhersage der Position des Geräts 18 genutzt.
Es werden lediglich aktuelle Bewegungsdaten zur Vorhersage genutzt, wenn keine aktuellen optischen Positionsdaten in dem Gerät 18 vorliegen. Für eine Iteration zur Berechnung der Vorhersage werden lediglich aktuelle Bewegungsdaten genutzt, wenn keine aktuellen optischen Positionsdaten in dem Gerät 18 vorliegen.Only current movement data is used for the prediction if there is no current optical position data in the
Für einen Fall 114, in dem aktuelle optische Positionsdaten vorliegen, wird eine Datenfusionierung durchgeführt. Sobald neue optische Positionsdaten verfügbar sind, sind mehr Daten für die Vorhersage der Position des Geräts 18 vorhanden. Dabei wird das erweiterte Kalman-Filter zur Datenfusionierung genutzt, wobei Bewegungsdaten für die Vorhersage und optische Positionsdaten für ein Datenupdate vorgesehen sind. Dabei muss auf die Synchronisierung der Zeitstempel des Geräts 18 und der Bilderfassungsvorrichtung 20 geachtet werden.For a
Es wird in einem vierten Schritt 116 nach Bewegungsdaten gesucht, die einen nächsten Zeitstempel zu den optischen Positionsdaten aufweisen. Danach wird die Datenfusionierung von Bewegungsdaten zur Vorhersage und von optischen Positionsdaten zum Datenupdate in einem fünften Schritt 118 durchgeführt. Durch das Datenupdate erfolgt eine Korrektur. Die optischen Positionsdaten werden für das Datenupdate herangezogen, wobei die optischen Positionsdaten mit einem nächstliegenden Zeitstempel zu den Bewegungsdaten genutzt werden. Die optischen Positionsdaten werden regelmäßig, insbesondere alle 20 ms, zum Datenupdate herangezogen. Dadurch erfolgt eine Aktualisierung einer mittels der Bewegungsdaten alle 2,5 ms vorhergesagten Position des Geräts 18. Nach der Datenfusionierung wird jedoch ein Statusvektor aus der Vergangenheit abgeschätzt. Daher muss zu einem aktuellen Zeitstempel zurückgekehrt werden. Es werden historische Informationen verwendet, um ein Abdriften des Geräts 18 abzuschätzen und um zukünftige Vorhersagen bezüglich des Abdriftens des Geräts 18 zu korrigieren. Optische Positionsdaten und/oder Bewegungsdaten, die keinen aktuellen Zeitstempel aufweisen, sind als historische Informationen ausgebildet. Bereits verarbeitete Daten, insbesondere optische Positionsdaten und/oder Bewegungsdaten, werden in dem Gerät 18 gespeichert und insbesondere nicht gelöscht. In einem sechsten Schritt 120 wird ein Durchschnitt der Bewegungsdaten zwischen dem Zeitstempel der optischen Positionsdaten und dem aktuellen Zeitstempel berechnet. Zur Vorhersage eines neuen Statusvektors werden die Bewegungsgleichungen (16) und (17) zwischen diesen Zeitstempeln in einem siebten Schritt 122 genutzt. Nach Abschluss des alternativen Schritts 112 oder des siebten Schritts 122 erfolgt ein Ende 124 der einzelnen Iteration. Der neue Statusvektor repräsentiert die aktuelle Position des Geräts 18.In a
In der Ausführungsphase 100 erfolgt ein Medienauftrag, insbesondere Farbauftrag, nach Ermittlung der aktuellen Position des Geräts 18 und mittels Zugriff auf die Nachschlagetabelle. Das Gerät 18 bedruckt die Oberfläche 36 abhängig von Druckdaten. Das Gerät 18 weist eine Farbsprüheinheit auf, die dazu vorgesehen ist, Farbe definiert auf die Oberfläche 36 aufzutragen.In the
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021210375.8A DE102021210375A1 (en) | 2021-09-20 | 2021-09-20 | calibration procedure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021210375.8A DE102021210375A1 (en) | 2021-09-20 | 2021-09-20 | calibration procedure |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021210375A1 true DE102021210375A1 (en) | 2023-03-23 |
Family
ID=85383755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021210375.8A Pending DE102021210375A1 (en) | 2021-09-20 | 2021-09-20 | calibration procedure |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021210375A1 (en) |
-
2021
- 2021-09-20 DE DE102021210375.8A patent/DE102021210375A1/en active Pending
Non-Patent Citations (3)
Title |
---|
ATCHESON, Bradley; HEIDE, Felix; HEIDRICH, Wolfgang. CALTag: High Precision Fiducial Markers for Camera Calibration. In: VMV. 2010. S. 41-48 |
BEVILACQUA, Alessandro; GHERARDI, Alessandro; CAROZZA, Ludovico. Automatic perspective camera calibration based on an incomplete set of chessboard markers. In: 2008 Sixth Indian Conference on Computer Vision, Graphics & Image Processing. IEEE, 2008. S. 126-133 |
DAFTRY, Shreyansh, et al. Flexible and User-Centric Camera Calibration using Planar Fiducial Markers. In: BMVC. 2013 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69807508T2 (en) | POSITIONING | |
DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
DE102014102634B4 (en) | Method for calibrating an optical arrangement, method for displaying a periodic calibration pattern and computer program product | |
DE102012112321B4 (en) | Device for optically scanning and measuring an environment | |
CN203084734U (en) | System for regenerating virtual object | |
DE112016006262B4 (en) | Three-dimensional scanner and processing method for measurement support therefor | |
DE60023900T2 (en) | PRESENTATION SYSTEM FOR CALCULATOR AND OPTICAL TRACKING PROCEDURE OF A WIRELESS INDICATOR | |
EP2574876B1 (en) | Method and device for determining the 3D coordinates of an object | |
DE102006055758B4 (en) | Method for calibrating cameras and projectors | |
EP0095660B1 (en) | Stereo-photogrammetrical recording and interpretation method | |
DE102005010390A1 (en) | Transparent camera calibration tool for camera calibration and its calibration procedure | |
DE112010004767T5 (en) | Point cloud data processing device, point cloud data processing method and point cloud data processing program | |
EP1497613A1 (en) | Method and device for determining the spatial co-ordinates of an object | |
DE102018108027A1 (en) | Object detecting device | |
DE19502459A1 (en) | Three dimensional optical measurement of surface of objects | |
DE102008024462A1 (en) | Interactive imaging system, interactive device and method of operation thereof | |
DE102005037841B4 (en) | Method and arrangement for determining the relative position of a first object with respect to a second object, and a corresponding computer program and a corresponding computer-readable storage medium | |
DE102012023623B4 (en) | Method for assembling partial recordings of a surface of an object to a total record of the object and system for creating a complete record of an object | |
WO2022100959A1 (en) | Method for providing calibration data for calibrating a camera, method for calibrating a camera, method for producing at least one predefined point-symmetric region, and device | |
WO2021083915A1 (en) | Method and mobile detection unit for detecting elements of infrastructure of an underground line network | |
DE102011077854A1 (en) | Mobile measuring system for two-dimensional floor plan generation | |
DE102021210378A1 (en) | calibration procedure | |
DE102008023439B4 (en) | Augmented reality binoculars for navigation support | |
DE102021210375A1 (en) | calibration procedure | |
DE102021210376A1 (en) | calibration procedure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01B0011250000 Ipc: G06T0007800000 |
|
R163 | Identified publications notified |