DE102022211995A1 - Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen - Google Patents

Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen Download PDF

Info

Publication number
DE102022211995A1
DE102022211995A1 DE102022211995.9A DE102022211995A DE102022211995A1 DE 102022211995 A1 DE102022211995 A1 DE 102022211995A1 DE 102022211995 A DE102022211995 A DE 102022211995A DE 102022211995 A1 DE102022211995 A1 DE 102022211995A1
Authority
DE
Germany
Prior art keywords
sensor
location
recordings
height
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022211995.9A
Other languages
English (en)
Inventor
Fabian Keil
Günther Kostka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102022211995.9A priority Critical patent/DE102022211995A1/de
Publication of DE102022211995A1 publication Critical patent/DE102022211995A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/701Line sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ausführungsbeispiele gemäß der vorliegenden Erfindung umfassen eine Vorrichtung zum Verbessern einer Höhenprofilmessung eines Objekts, mit einer Schnittstelle zum Empfangen einer Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen. Ferner umfasst die Vorrichtung eine Einrichtung zum Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen; wobei die Einrichtung zum Kombinieren ausgebildet ist, um eine Kombinationsaufnahme für die Stelle des Objekts zu erzeugen, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder um aus einer Kombination der wenigstens zwei Sensoraufnahmen und einer gemeinsamen Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen die Höhe des Objekts an der Stelle zu ermitteln.

Description

  • Die vorliegende Erfindung betrifft Vorrichtungen, Verfahren und Systeme zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen, und insbesondere Konzepte zur Korrektur der Rohdaten von scannenden Triangulationssensoren oder Konzepte zur Vorverarbeitung von Laser-Lichtschnitt-Rohdaten zur Symmetrisierung eines gemessenen Linienlaserprofils oder Konzepte in Verbindung mit optischen 3D-Messverfahren, optischer Triangulation, von Laser-Lichtschnittverfahren, einer Sub-Pixel-Liniendetektion und/oder einer subpixel-genauen Positionsbestimmung.
  • Im Folgenden werden Probleme, welche mit Ausführungsbeispielen gemäß der Erfindung adressiert werden können, beschrieben. Es sei darauf hingewiesen, dass Ausführungsbeispiele im Folgenden beschriebene Merkmale, Funktionalitäten und Details, sowohl individuell als auch in Kombination aufweisen können.
  • Optische Triangulationsverfahren, wie bspw. Laser-Lichtschnittverfahren, sind Stand der Technik und bieten aufgrund ihrer hohen Robustheit und Erfassungsgeschwindigkeit vielfältige Anwendungsmöglichkeiten für die bspw. optische 3-dimensionale Vermessung von Objekten (z.B. Objektoberflächen). Das zentrale Prinzip des Verfahrens ist das sog. Triangulationsprinzip, bei dem ein Lichtstrahl (typischerweise ein Laserstrahl bspw. ein Laser-Fächerstrahl) auf die Oberfläche des zu vermessenden Objekts (z.B. eines Prüfobjektes) projiziert und das auf der Oberfläche diffus gestreute resultierende Intensitätsprofil (bspw. Laserlinie) mittels einer schräg zur Einstrahlebene (bspw. Laser-Fächerstrahlebene) angeordneten optische Kamera (bspw. Flächenkamera) erfasst wird. Da die Kamerablickrichtung außerhalb der Einstrahlebene liegt, kann bei bekannter (kalibrierter) Messanordnung aus der Position des gestreuten Lichtstrahls im Kamerabild der Abstand des Objekts (und damit bspw. der Höhenverlauf des Prüfobjekts entlang der Laser Linie) bestimmt werden. Triangulationssensoren können entweder in Form von Punkt- oder Liniensensoren realisiert werden. Punktsensoren bestehen i.d.R. aus einem Punktlaser, der einen sog. Bleistiftstrahl erzeugt, und einer einzeiligen Pixelkamera (Zeilenkamera), auf die das vom Messobjekt gestreute Licht projiziert wird. So kann in einer Messung ein Abstandswert ermittelt werden. Liniensensoren (Lichtschnitt-Sensoren) arbeiten i.d.R. mit einem zum Fächerstrahl aufgeweiteten Laser-Strahl und einer Flächenkamera mit einer Vielzahl von Pixel-Spalten. Damit kann zu einem Messzeitpunkt aus jeder Spalte der Messkamera ein Abstandswert generiert und damit ein Abstandprofil entlang der projizierten Lichtlinie erzeugt werden. Beide Sensorformen werden typischerweise im scannenden Betrieb eingesetzt: Wird das Objekt und der Triangulationssensor (also bspw. das Prüfobjekt und die Laser-Lichtschnitt-Messeinheit) relativ zueinander verschoben, kann eine Vielzahl von Abstandswerten bzw. -profilen (bspw. Höhenprofilen) entlang der Verschiebungsrichtung (bspw. Vorschubrichtung) aufgenommen werden. Daraus lässt sich wiederum der 3-dimensionale Oberflächenverlauf des Messobjektes entlang der abgescannten Bahn bzw. Fläche rekonstruieren. Es kann also bspw. eine Vielzahl von Höhenprofilen entlang der Verschiebungsrichtung aufgenommen und zu einem 3-dimensionalen Höhenverlauf der Oberfläche zusammengesetzt werden. Es kann somit ein „zeilenweise scannendes“ Verfahren durchgeführt werden
  • Aus physikalischen Gründen ist die Intensitätsverteilung eines bleistift- oder fächerförmigen Lichtstrahls (typischerweise Laser-Strahls), der auf eine Objektoberfläche projiziert wird, in der Regel nicht ideal scharf. D.h. sie stellt keinen mathematisch 0-dimensionalen Punkt bzw. keine 1-dimensionale Linie dar, sondern hat eine gewisse endliche Ausdehnung. Der zentrale Aspekt für die erreichbare Messgenauigkeit eines solchen Triangulationssensors ist die möglichst exakte Positionsbestimmung des Mittelpunktes bzw. der Mittelebene dieser ausgedehnten Intensitätsverteilung (Intensitätsprofil) im Kamerabild. Sowohl in der Pixelspalte eines Zeilensensors als auch eines Flächenbildsensors stellt sich das Intensitätsprofil typischerweise als symmetrische, meist Gauß-ähnliche Intensitätsverteilung dar. Typischerweise verwendet man also eine symmetrische Form zusammen mit dem CoG-Algorithmus. Eine symmetrische Form der Intensitätsverteilung ist aber nicht zwingend erforderlich, wenn die Form der Intensitätsverteilung bekannt ist.
  • Die Berechnung des gesuchten Messwertes erfolgt daher in beiden Fällen entsprechend: Mittels spezieller Auswerte-Algorithmen wird der Mittelpunkt aus der erfassten Helligkeitsverteilung innerhalb einer Bildspalte möglichst genau bestimmt. Meist passiert dies über die Subpixel-genaue Bestimmung des Intensitäts-Schwerpunktes (Center-of-Gravity-Verfahren, CoG) oder eines Polynom-Fits.
  • Konkret stellt also bspw. aus physikalischen Gründen z.B. ein Laser-Fächerstrahl jedoch in der Regel keine ideale, d.h. mathematische 2-dimensionale Ebene dar, sondern hat eine gewisse endliche Ausdehnung mit einer meist Gauß-ähnlichen Intensitätsverteilung senkrecht zur Hauptebene. Daher ist ein zentraler Aspekt für die erreichbare Messgenauigkeit einer solchen Laser-Lichtschnittmessanordnung die möglichst exakte Positionsbestimmung der Mittelebene der projizierten Laser-Linie im Kamerabild mittels spezieller Auswerte-Algorithmen.
  • Meist passiert dies über die Bestimmung des Intensitäts-Schwerpunktes oder des Intensitäts-Maximums des auf das Prüfobjekt projizierten Laser-Linien-Intensitätsprofils.
  • Bei der Projektion und der Abbildung des Lichtstrahls mittels Kamerabild kann es in Abhängigkeit von der Oberflächenbeschaffenheit des Objekts zu optischen Effekten kommen, die zu Fehlern bei der o.g. Bestimmung der gesuchten Schwerpunkt-Position (bspw. der idealen Laser-Ebene) führen: So können beispielsweise abrupte Variationen im Reflexionsgrad (z.B. der Oberflächen) oder der Transparenz des Materials, Höhenstufen oder auch die asymmetrische Messanordnung an sich zu Mess- oder Auswertungsfehlern führen. Objekte mit entsprechend ungünstigen optischen Oberflächeneigenschaften können daher unter Umständen nicht korrekt oder exakt erfasst werden, was die Anwendungsmöglichkeiten bzw. die Messgenauigkeit der Triangulationsverfahren (also z.B. von Laser-Lichtschnitt Verfahren) dafür einschränkt.
  • Im Folgenden wird auf Stand der Technik Bezug genommen. Es sei wiederum darauf hingewiesen, dass Ausführungsbeispiele im Folgenden beschriebene Merkmale, Funktionalitäten und Details, sowohl individuell als auch in Kombination aufweisen können.
  • Der Stand der Technik für die Positionsbestimmung des Intensitätsprofils (also bspw. die Positionsbestimmung der Laser-Linie aus dem Laser-Linienintensitätsprofils) im Kamerabild in einem Triangulationssystem basiert auf den folgenden Schritten:
    1. 1. Einstrahlung eines Punkt- bzw. Linien-förmigen Lichtstrahls (z.B. eines Laser-Fächerstrahls) mit typischerweise symmetrischem, typischerweise Gauß-ähnlichem Intensitätsprofil senkrecht zur Strahlrichtung (z.B. Fächerebene).
    2. 2. Erfassung des diffus gestreuten Intensitätsprofils (also z.B. Erzeugung eines Kamerabildes von der diffus gestreuten Laser-Lichtlinie) bei einer gegebenen Position des Messobjekts oder Prüfobjekts mittels optischer Zeilen- oder Flächenkamera.
    3. 3. (Subpixel-genaue) Bestimmung der Pixel-Position des Intensitätszentrums (also z.B. der Laser-Lichtlinie) im Kamerabild durch spaltenweise Auswertung der Intensitätsverteilung im Kamerabild mittels geeignetem Algorithmus, z.B. Center-of-Gravity.
    4. 4. Rekonstruktion der physikalischen 3D-Koordinaten der betrachteten Objektoberflächenpunkte bei bekannter (kalibrierter) Messanordnung aus den Positionswerten (z.B. (sub-)Pixel Positionswerten) im Kamerabild.
    5. 5. Schrittweise oder sukzessive Abtastung der Oberfläche durch sukzessive Veränderung der Relativposition zwischen Objekt und Triangulationssensor und sequentielle Durchführung des o.g. Messablaufs. D.h. die Schritte 1 bis 4 werden so lange wiederholt, bis der zu erfassende Bereich der Objektoberfläche abgedeckt ist.
  • Um bei einer Triangulationsmessung (z.B. Lichtschnittmessung) eine möglichst hohe Positionsmessauflösung (und damit z.B. Höhenmessauflösung) zu erzielen, werden für Schritt 3 typischerweise Algorithmen genutzt, die eine Subpixel-genaue Ermittlung der Position des Lichtprofils (also z.B. der Laser-Linie) im Kamerabild erlauben. Diese kann erreicht werden, indem mehrere Pixelwerte des Intensitätsprofils im Kamerabild miteinander verrechnet werden. Beim häufig verwendeten „Center-of-Gravity“-Algorithmus (CoG) werden beispielsweise aus den validen Pixel-Intensitätswerten oberhalb eines Intensitätsschwellwerts der Schwerpunkt, also der mit den gemessenen Intensitätswerten gewichtete Mittelwert der Pixelposition, berechnet. Die so ermittelte Position ist Subpixel-genau und entspricht näherungsweise dem gesuchten intensitätsmaximum des Lichtprofils im Kamerabild bzw. dem Mittelpunkt oder der Mittelebene des Lichtstrahls auf dem Objekt. Bei konventionellen Ansätzen kann es jedoch, wie bereits zuvor erläutert, in Abhängigkeit von Oberflächeneigenschaften des Objekts, wie beispielsweise abrupte Variationen im Reflexionsgrad oder der Transparenz des Materials, oder bei Höhenstufen zu Fehlern kommen. Oberflächenbereiche mit solchen Eigenschaften werden nach dem Stand der Technik bzgl. des 3D-Oberflächenverlaufs nicht korrekt wiedergegeben.
  • Auch andere gängige Auswertealgorithmen zur Lichtschnittmessung, die beispielsweise auf einem quadratischen Fit des Intensitätsverlaufs bzw. auf der Nulldurchgangsbestimmung des differenzierten Intensitätsprofils basieren, produzieren in den oben genannten Fällen ebenso Messfehler.
  • Es ist die Aufgabe der vorliegenden Erfindung ein Konzept zum Verbessern einer Höhenprofilmessung eines Objekts bereitzustellen.
  • Diese Aufgabe wird von den Gegenständen der unabhängigen Patentansprüche gelöst.
  • Erfindungsgemäße Weiterentwicklungen sind in den Unteransprüchen definiert.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung umfassen eine Vorrichtung zum Verbessern einer Höhenprofilmessung eines Objekts, mit einer Schnittstelle zum Empfangen einer Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen. Vorzugsweise sollte die die Pixelgröße auf dem Objekt kleiner als die Breite des Intensitätsprofils sein.
  • Ferner umfasst die Vorrichtung eine Einrichtung zum Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen; wobei die Einrichtung zum Kombinieren ausgebildet ist, um eine Kombinationsaufnahme bzw. eine kombinierte Darstellung oder Kombinationsdarstellung der gemessenen Intensitätswerte für die Stelle des Objekts zu erzeugen, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder um aus einer Kombination der wenigstens zwei Sensoraufnahmen und einer gemeinsamen Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen die Höhe des Objekts an der Stelle zu ermitteln. Die Kombinationsaufnahme besteht daher vorzugsweise aus der Kombination von zumindest einem Teil von Daten von verschiedenen Aufnahmen.
  • Die Erfinder haben erkannt, dass basierend auf einer Kombination von Sensoraufnahmen der Sequenz von Sensoraufnahmen eine Höhenprofilmessung hinsichtlich einer Auswertung einer Höheninformation an der Stelle des Objekts verbessert werden kann.
  • Im Hinblick auf konventionelle Ansätze haben die Erfinder erkannt, dass eine robuste und genaue Höheninformationsauswertung bisher nur möglich ist, wenn sich das ursprüngliche, bspw. symmetrische, Intensitätsprofil des Lichtstrahls gleichermaßen, also bspw. gleichermaßen symmetrisch, in einer zugehörigen Sensoraufnahme, also bspw. im gemessenen Intensitätsverlauf entlang einer Pixelspalte des Kamerabilds (also bspw. allgemein im Kamerabild), wiederspiegelt. Wird das Intensitätsprofil aufgrund der o.g. Eigenschaften der Oberfläche verfälscht oder beeinflusst, also bspw. asymmetrisch im Kamerabild wiedergegeben, kann ein systematischer Fehler des gemessenen Abstandswertes oder Höhenwertes entstehen.
  • Die Erfinder haben erkannt, dass derartige Verfälschungen, wie bspw. Asymmetrien im Intensitätsprofil beispielsweise durch abrupte Änderungen des Reflexionsgrads der Oberfläche entstehen können: ein Teil des Lichtintensitätsprofils (also z.B. des Laser-Intensitätsprofils) wird mit größerer, der andere Teil mit geringerer Intensität in die Kamera gestreut (siehe hierzu bspw. auch 4). Auch Höhenstufen des Objekts können auf ähnliche Weise eine Symmetrie des von der Kamera erfassten (also bspw. in die Kamera gestreuten) Intensitätsprofils brechen (siehe bspw. 5a und 5b). Anders ausgedrückt haben die Erfinder erkannt, dass beispielsweise abrupte Variationen im Reflexionsgrad oder der Transparenz des Materials, Höhenstufen oder auch eine asymmetrische Messanordnung an sich den Intensitätsverlauf entlang einer Pixelspalte der Messkamera beeinflussen und somit zu Messfehlern führen können.
  • Die Erfinder haben folglich erkannt, dass durch Kombination von wenigstens zwei Sensoraufnahmen ein derartig verfälschtes Intensitätsprofil in den Sensoraufnahmen ausgeglichen werden kann, sodass ein präziser Höhenwert für die Stelle des Objekts, bspw. basierend auf konventionellen Auswerteverfahren bestimmt werden kann. Anders ausgedrückt haben die Erfinder erkannt, dass die Informationen, welche in unterschiedlichen Sensoraufnahmen über die Stelle des Objekts vorhanden sind, kombiniert werden können, um eine Bestimmung einer Höheninformation über die Stelle des Objekts zu verbessern. Somit kann bei der Kombination der Sensoraufnahmen eine Eigenschaft oder Charakteristik des Intensitätsprofils, bezüglich derer auf die Höhe des Objekts an der Stelle zurückgeschlossen wird, wiederhergestellt werden.
  • Dazu haben die Erfinder erkannt, dass zum einen eine Kombinationsaufnahme für die Stelle des Objekts erzeugt werden kann, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist. Die Kombinationsaufnahme bildet somit bspw. eine fusionierte Information über die Stelle des Objekts auf Basis der Abtastinformationen, welche in den wenigstens zwei oder zumindest zwei Sensoraufnahmen vorhanden ist. Die Erfinder haben ferner erkannt, dass alternativ eine Höhenauswertung einer Kombination, also bspw. einer Informationsfusion, der wenigstens zwei Sensoraufnahmen auch basierend auf einzelnen Kombinationsergebnissen erfolgen kann. Das bedeutet, dass die wenigstens zwei Sensoraufnahmen nicht zwingend zu einer Kombinationsaufnahme zusammengeführt werden müssen, sondern auch lediglich einzelne informationstragende Elemente zusammengeführt, also bspw. fusioniert und ausgewertet werden können.
  • Hierbei ist darauf hinzuweisen, dass die „Kombination“ von wenigstens zwei Sensoraufnahmen nicht auf eine spezielle Art der Informationszusammenführung eingeschränkt ist. So umfassen einige Ausführungsbeispiele, bspw. ein Erzeugen einer Fusionsinformation, bspw. einer Kombinationsaufnahme, welche nur ausgewählte Informationen oder Informationsbereiche der ursprünglichen Sensoraufnahmen enthält. Unter Kombination ist demnach nicht zwingend eine Informationszusammenführung ohne Wegfall oder Nichtberücksichtigung von einigen Ausgangsinformationen zu verstehen. Ferner ist erfindungsgemäß unter einer Kombination von Sensoraufnahmen ebenfalls eine gemeinsame Auswertung oder Prozessierung von, aus den wenigstens zwei Sensoraufnahmen extrahierten Sensorinformationen zu verstehen.
  • Konkret können also bspw. zwei Sensoraufnahmen zusammengeführt werden, indem nur Bildinformationen der Sensoraufnahmen zu der bestimmten Stelle des Objekts zusammengefügt werden, sodass weitere Bildinformationen der Sensoraufnahmen zu anderen Objektbereichen nicht mitberücksichtig werden. Gleiches gilt für eine erfindungsgemäße Auswertung von Kombinationsergebnissen.
  • Ganz allgemein kann die Sequenz von Sensoraufnahmen dabei bspw. auf einer sukzessiven Abtastung der Objektoberfläche mit der Lichtquelle basieren. Bei der Lichtquelle kann es sich bspw. um eine Laserlichtquelle, also einfach ausgedrückt um einen Laser handeln. Jedoch können auch andere Lichtquellen zum Einsatz kommen, bspw. bei einer gemeinsamen Verwendung mit Filtern oder Strahlanpassungsoptiken. Somit können auch bspw. mit alternativen Lichtquellen, sofern für ein jeweiliges Objekt gewünscht oder bspw. notwendig, „laserähnliche“ Eigenschaften für eine Höhenprofilmessung bereitgestellt werden. Somit kann also bspw. zur Erzeugung der Sequenz eine Relativposition zwischen der Lichtquelle und dem Objekt sukzessive angepasst werden, um bspw. nach jedem Verschiebeschritt eine Sensoraufnahme zu erzeugen. Entsprechende alternative Vorgehensweisen sind ebenfalls möglich.
  • Bspw. kann dabei ein im Wesentlichen vertikaler Abstand zwischen Lichtquelle und abzutastender Objektoberfläche, zumindest näherungsweise, konstant bleiben, sodass die Änderung der Relativposition im Wesentlichen auf einer Veränderung der Lage des Objekts in einer lateralen Objektebene beruhen kann. Einfach ausgedrückt, kann das Objekt also bspw. mit einer Vorschubvorrichtung mit einem konstanten Abstand zur Lichtquelle an der Lichtquelle „vorbeigeschoben“ werden. Dies ist jedoch keine Voraussetzung für die vorliegende Erfindung.
  • Die Lichtquelle kann dabei die Objektoberfläche bspw. senkrecht bestrahlen, wobei eine Sensoreinrichtung mit kalibrierter relativer Lage zur Lichtquelle, zur Erzeugung der Sequenz, außerhalb der Laserebenen angeordnet sein kann. Dabei ist jedoch das Intensitätsprofil des Lichtstrahls breiter als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen, sodass eine Stelle des Objekts auf wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen, bspw. mittels einer Intensitätsinformation des diffus gestreuten Lichtstrahls, repräsentiert ist, was wiederum die Grundlage der Informationsfusion bildet.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist die Einrichtung zum Kombinieren ferner dazu ausgebildet, um aus den wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen jeweils eine Sensorinformation über den, an jeweils einer gleichen Stelle des Objekts gestreuten, Lichtstrahl zu extrahieren, um auf Basis einer gemeinsamen Auswertung der extrahierten Sensorinformationen (also bspw. einer Auswertung einer Kombination der wenigstens zwei Sensoraufnahmen) eine Höhe an der Stelle des Objekts zu bestimmen.
  • Folglich können bspw. lediglich Sensorinformationen, wie bspw. Pixelwerte, welche eine Information über die Stelle des Objekts umfassen extrahiert und verarbeitet werden, wodurch Rechenleistung eingespart werden kann.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung weist das Intensitätsprofil des Lichtstrahls eine vorbestimmte Reihenfolge von Intensitäten auf und die Einrichtung zum Kombinieren ist dazu ausgebildet ist, um die Kombinationsaufnahme basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle des Objekts in einer Reihenfolge aufweist, welche der vorbestimmten Reihenfolge der, zu den extrahierten Sensorinformationen zugehörigen, Intensitäten des Intensitätsprofils entspricht.
  • Die Erfinder haben erkannt, dass somit etwaige Verfälschungen des gemessenen Intensitätsprofils des diffus gestreuten Lichtstrahls an der Stelle des Objekts ausgeglichen werden können. Wie zuvor erläutert, kann aufgrund ungünstiger Objektoberflächeneigenschaften das Intensitätsprofil des Lichtstrahls in einer Sensoraufnahme verfälscht abgebildet werden. Aus einer Information, bspw. einer Kalibrations- oder Referenzinformation, über das zu erwartende gemessen Intensitätsprofil oder das Intensitätsprofil des Lichtstrahls selbst, kann somit aus den wenigstens zwei Sensoraufnahmen jeweils eine Sensorinformation für die Stelle des Objekts extrahiert und so angeordnet werden, dass es dem zu erwartenden Intensitätsprofil zumindest näherungsweise entspricht. Somit kann eine präzise Höhenbestimmung für die Stelle des Objekts ermöglicht werden.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung basiert die Sequenz von Sensoraufnahmen ferner auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei bei der sukzessiven Abtastung die Stelle des Objekts bei aufeinanderfolgenden Relativpositionen zwischen der Lichtquelle und dem Objekt mit aufeinanderfolgenden Intensitäten gemäß dem Intensitätsprofil bestrahlt wird. Ferner ist die Einrichtung zum Kombinieren dazu ausgebildet ist, um die Kombinationsaufnahme basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen für die Stelle des Objekts so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle des Objekts in einer Reihenfolge entsprechend der sukzessiven Abtastung umfasst.
  • Die Erfinder haben erkannt, dass eine Erzeugung der Kombinationsaufnahme gemäß der Abtastreihenfolge eine einfache Möglichkeit bietet für die Stelle des Objekts eine von ungünstigen Oberflächeneinflüssen „bereinigte“ Aufnahme bereitzustellen, aus der eine präzise Höheninformation gewonnen werden kann.
  • In anderen Worten, können konkret somit bspw. aus einer Gesamtheit von sequentiell aufgenommenen Sensoraufnahmen (bspw. Kamerabildern), die durch ein sukzessives, also bspw. scannendes, Messverfahren an unterschiedlichen Relativpositionen von einem Triangulationssensor, umfassend die Lichtquelle, und dem Objekt erzeugt wurden, für jede Kameraspalte einer Sensoraufnahme jeweils die Pixel ausgewählt werden, die die Stelle, also eine bestimmte feste Position auf dem Objekt, darstellen (siehe bspw. 4, 5a und 5b). Die so ermittelten Pixelwerte können, wie zuvor erläutert, bspw. für jede Sensorspalte in der Reihenfolge, in der sie durch den Scanprozess erzeugt wurden, zu einer neuen Kombinationsaufnahme in Form einer neuen Messspalte und im Falle eines Liniensensors die einzelnen Messspalten zu einer neuen Kombinationsaufnahme in Form eines neuen Messbildes zusammengesetzt werden.
  • Sowohl basierend auf der Rekombination (wobei Rekombination gemäß einiger Ausführungsbeispiele gleichbedeutend mit Kombination sein kann) gemäß der Reihenfolge der Intensitätswerte, als auch gemäß der sukzessiven Abtastung können also bspw. Kombinationsaufnahmen in Form von modifizierten Messbildern erzeugt werden, die nicht wie gemäß dem Stand der Technik das gestreute Intensitätsprofil der Lichtlinie projiziert auf die Messposition und deren Umgebung auf der Objektoberfläche zeigen, sondern die gestreute Intensität von ein-und-derselben Objektposition (also Stelle des Objekts) bei Bestrahlung mit unterschiedlichen Abschnitten des (z.B. symmetrischen) Intensitätsprofils der Lichtlinie darstellen. Dadurch kann auch in Objektbereichen mit einer Änderung der Oberflächen-Reflektanz oder der Objekthöhe das gemessene Intensitätsprofil so dargestellt werden, wie es tatsächlich von der Lichtquelle, bspw. in Form eines Punkt- oder Linienprojektors, eingestrahlt wurde. Somit können Ausführungsbeispiele die Voraussetzung für eine genauere Bestimmung der Position des Lichtstrahls in den Kamerabildern erfüllen.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist das Intensitätsprofil im Wesentlichen symmetrisch und die Einrichtung zum Kombinieren ist dazu ausgebildet, um basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen die Kombinationsaufnahme für die Stelle des Objekts so zu erzeugen, dass die Kombinationsaufnahme das im Wesentlichen symmetrische Intensitätsprofil des Lichtstrahls an der Stelle des Objekts anzeigt. Die Erfinder haben erkannt, dass basierend auf im Wesentlichen symmetrischen Intensitätsprofilen die erfindungsgemäße Rekombination von Abtastinformation besonders robust und zuverlässig durchgeführt werden kann. Die Eigenschaft der Symmetrie kann effizient ausgenutzt werden, um die extrahierten Informationen für eine präzise Höhenauswertung entsprechend dem Intensitätsprofil des Lichtstrahls anzuordnen. Es sei darauf hingewiesen, dass die Symmetrieeigenschaft nicht zwingend erforderlich ist. Wenn das tatsächliche Intensitätsprofil bekannt, kann es auch eine asymmetrische Form haben. Das kann dann bei der eigentlichen Höhenbestimmung berücksichtigt werden.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist die Einrichtung zum Kombinieren ferner dazu ausgebildet ist, um basierend auf einer gemeinsamen Auswertung der Kombinationsaufnahme für die Stelle des Objekts und zumindest einer der wenigstens zwei Sensoraufnahmen eine zusätzliche Information über eine Oberflächentopologie und/oder eine Oberflächeneigenschaft an der Stelle des Objekts zu bestimmen. Aus einem optionalen Vergleich der Sensorinformation und der Kombinationsaufnahme kann bspw. auf eine Eigenschaft der Objektoberfläche zurückgeschlossen werden, wie bspw. eine Änderung der Oberflächenreflektanz oder eine bei der Abtastung verdeckte Höhenstufe. Somit können Zusatzinformationen, neben der Höheninformation, bereitgestellt werden.
  • Zusatzinformation können bereitgestellt werden. Allerdings ist die „Höhenstufe“ das eigentliche Ziel der Messung, d.h. an sich keine Zusatzinformation. Um Reflektanzsprünge zu bestimmen, wird mit der erfindungsgemäßen Methode kein Vergleich mit „regulären“ Messbilder benötigt. Diese Informationen werden alleine aus den Kombinationsaufnahmen erhalten. Es wäre auch mit konventionellen Verfahren möglich, auf die Reflektanzeigenschaften zu schließen. Allerdings „verschmiert“ zumindest der CoG-Algorithmus die Intensität am Ort des Sprungs über die Breite der Laser-Linie. Somit bietet das erfindungsgemäße Konzept eine exaktere Bestimmung der Reflektanz am Ort des Sprungs dieser zusätzlichen Information.
  • Es ist daher beispielsweise auch von Interesse, zusätzliche Informationen zum Höhenverlauf, wie zum Beispiel die Reflektanz, zu erfassen. Allerdings ist es dafür nicht notwendig, die regulären und die rekombinierten Bilder zu vergleichen. Es kann die aufsummierte Intensität der validen Pixel ausgegeben werden, was eine gute Schätzung für die lokale Reflektanz ist. Bei Reflektanzsprüngen wird der COG angewandt auf die regulären Daten aber nur einen unscharfen Sprung wiedergeben. Bei Anwendung des COG auf die erfindungsgemäß kombinierten Daten wird die Darstellung wesentlich originalgetreuer sein.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung basiert die Sequenz von Sensoraufnahmen ferner auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung oder einer Zeilenkamera mit einer Pixelzeile sind und wobei eine Vorschubschrittweite zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts nicht einer Pixelgröße entlang der ersten oder zweiten Matrixrichtung oder entlang der Pixelzeile entsprechen muss. Es wird jedoch bevorzugt, wenn die Schrittweite der Abtastung etwa der Pixelgröße auf dem Objekt entspricht. Ferner ist die Einrichtung zum Kombinieren dazu ausgebildet, um zu extrahierende Sensorinformationen der wenigstens zwei Sensoraufnahmen aus Sensorinformationen von, entsprechend einer Vorschubrichtung, nebeneinanderliegenden Pixeln zu interpolieren, oder um die zu extrahierenden Sensorinformationen aus Sensorinformationen von Pixeln, entsprechend der Vorschubrichtung, zu extrapolieren.
  • Somit kann eine verbesserte Bestimmung der Höheninformation auch angewendet werden, wenn die Vorschubschrittweite zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts nicht einer Pixelgröße entlang der ersten oder zweiten Matrixrichtung oder entlang der Pixelzeile entspricht. Bei der ersten und zweiten Matrixrichtung kann es sich dabei bspw. jeweils um eine Zeilenrichtung oder um eine Spaltenrichtung der Pixelmatrix handeln. Auch wenn die Pixelgröße und die Vorschubschrittweite nicht identisch sind, können die Information inter- oder extrapoliert werden.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung basiert die Sequenz von Sensoraufnahmen ferner auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung sind und wobei eine Vorschubrichtung zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts einen Winkelversatz zu der ersten und/oder zweiten Matrixrichtung der Flächenkamera aufweist. Ferner ist die Einrichtung zum Kombinieren dazu ausgebildet, um die extrahierende Sensorinformationen der wenigstens zwei Sensoraufnahmen basierend auf Sensorinformationen von Pixeln sowohl aus der ersten als auch aus der zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu extrahieren.
  • Bspw. kann somit, falls eine Anordnung mit hinreichend kleinem Winkelfehler (also bspw. einem vernachlässigbar kleinen Winkelversatz zu der ersten und/oder zweiten Matrixrichtung der Flächenkamera) nicht realisierbar aber bekannt ist, das erfindungsgemäße Konzept der Rekombination der Pixel-Intensitätswerte derart erweitert werden, dass der bekannte Winkelversatz berücksichtigt wird. Dafür können bei der Kombination nicht nur die Pixel in ein und derselben Matrixrichtung, also bspw. Spalte herangezogen, sondern abhängig von Winkelversatz und Vorschubposition auch benachbarte Pixel, also bspw. die Pixel aus benachbarten Spalten. Bei dem oben beschriebenen Prinzip kann es grundsätzlich so sein, dass ebenjene Pixel zu einer neuen Messspalte kombiniert werden, die dem möglichst selben Ort auf dem Objekt (also der Stelle des Objekts) entsprechen. Ggf. können auch hierbei die Pixel-Intensitätswerte, wie zuvor erläutert, für die entsprechende Stelle also bspw. entsprechende Position auf dem Objekt interpoliert werden.
  • In einfachen Worten ausgedrückt, kann also eine Vorschubrichtung zu einer Projektion des Lichtstrahls auf eine Pixelmatrix führen, welche bei sukzessiven Abtastungen nicht einer Matrixrichtung folgt, sich also bspw. „diagonal“ über das Pixelraster der Pixelmatrix erstreckt. Entsprechend haben die Erfinder erkannt, dass für eine robuste und präzise Höhenauswertung eine Extraktion zugehöriger Sensorinformation auf Pixel erweitert werden kann, welche nicht einzelnen Matrixrichtungen folgen.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist die Einrichtung zum Kombinieren ferner dazu ausgebildet ist, um die extrahierten Sensorinformationen von Pixeln sowohl aus der ersten und zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu interpolieren und/oder zu extrapolieren. Somit können unerwünschte Einflüsse einer unabgestimmten Vorschubschrittweite und eines Winkelversatzes zugleich ausgeglichen werden, um eine präzise Höhenauswertung zu ermöglichen.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung umfasst die Vorrichtung eine Einrichtung zum Ermitteln der Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt, wobei die Lichtquelle den Lichtstrahl mit dem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen. Somit kann die Vorrichtung die Lichtquelle und/oder eine entsprechende Sensoreinrichtung zum Erfassen der Sequenz von Sensoraufnahmen aufweisen. Somit kann ein effizientes, und insbesondere aufeinander abgestimmtes Gesamtsystem bereitgestellt werden, sodass bspw. zusätzliche Kalibrierungsschritte wegfallen können, welche bei unabgestimmten Teilsystemen notwendig sein könnten.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung umfasst die Vorrichtung eine Einrichtung zum Bestimmen der Höhe an der Stelle des Objekts basierend auf den extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen. Somit kann die Vorrichtung unmittelbar eine präzise Information über eine Höhentopografie des Objekts bereitstellen.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist die Einrichtung zum Bestimmen ferner dazu ausgebildet, um die Höhe an der Stelle des Objekts unter Verwendung einer Information über eine charakteristische Eigenschaft des Intensitätsprofils des Lichtstrahls zu bestimmen. Für eine Höhenbestimmung kann eine charakteristische Stelle des Intensitätsprofils des diffus gestreuten Lichtstrahls für die Stelle des Objekts auf einer Pixelmatrix subpixelgenau bestimmt werden, wobei die charakteristische Stelle mit der Höhe des Objekts an der Stelle des Objekts assoziiert ist. Einfach ausgedrückt kann aus dem Auftreffort (z.B. der Mittelebene) des zu der Stelle des Objekts zugehörigen, gestreuten Lichtbündels auf der Pixelmatrix auf die Höhe an der Stelle des Objekts zurückgeschlossen werden. Eine robuste, subpixelgenaue Bestimmung der charakteristischen Stelle, also bspw. des Auftrefforts des zu der Stelle des Objekts zugehörigen, gestreuten Lichtbündels auf der Pixelmatrix kann aus einer charakteristischen Eigenschaft des Intensitätsprofils des Lichtstrahls bestimmt werden. So kann auf der Pixelmatrix bspw. eine Vielzahl von Pixeln bei einer Abtastung bestrahlt werden, wobei bspw. ein Flächenschwerpunkt des gemessenen Intensitätsprofils (bspw. gebildet durch Intensitätsmesswerte der bestrahlten Pixel) bestimmt werden kann, um eine präzise Höhenangabe zu bestimmen.
  • Die Erfinder haben hierzu erkannt, dass eine ebensolche Auswertung basierend auf einer Kombination der wenigstens zwei Sensoraufnahmen, also bspw. basierend auf einer Kombinationsaufnahme, durchgeführt werden kann. Die Erfinder haben erkannt, dass obwohl die Kombinationsaufnahme bspw. Intensitätsmesswerte (entsprechend dem Intensitätsprofil des Lichtstrahls) für die gleiche Stelle des Objekts zeigt, eine Auswertung des gemessenen und neu zusammengesetzten Intensitätsprofils basierend auf der Kenntnis des „ursprünglichen“ (noch nicht gestreuten) Intensitätsprofils des Lichtstrahls der Lichtquelle, subpixelgenau möglich ist, um die Höheninformation für die Stelle des Objekts zu bestimmen.
  • In der Kombinationsaufnahme kann somit ein subpixelgenauer „Auftreffort“ des zu der Stelle des Objekts zugehörigen, gestreuten Lichtbündels bestimmt werden. Da diese subpixelgenaue Information bspw. unmittelbar auf eine der wenigstens zwei Sensoraufnahmen zurückführbar ist, kann somit eine Höheninformation für die Stelle des Objekts, wie eingangs erläutert, bestimmt werden. Hierbei können verschiedenste charakteristische Eigenschaften herangezogen werden. Es können Flächenschwerpunkte, Extremwerte, Kurvenschwerpunkte oder Ähnliches bestimmt werden, welche basierend auf einem Verlauf des Intensitätsprofils eine Stelle auf der Pixelmatrix identifizierten, welche zu der Stelle des Objekts gehört und eine Höheninformation für die Stelle des Objekts aufweist.
  • Dementsprechend sind gemäß einiger Ausführungsbeispielen der vorliegenden Erfindung die Sensoraufnahmen optional Messbilder einer Kamera mit Pixeln und die Einrichtung zum Bestimmen ist dazu ausgebildet, um eine charakteristische Stelle des Intensitätsprofils basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen und basierend auf einer Information über eine charakteristische Eigenschaft des Intensitätsprofils des Lichtstrahls subpixelgenau zu bestimmen, und um die Höhe an der Stelle des Objekts basierend auf der charakteristischen Stelle zu bestimmen.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung ist die Einrichtung zum Kombinieren ferner dazu ausgebildet ist, um die charakteristische Stelle basierend auf einem Center-of-Gravity-Verfahren, einem Polynomfit und/oder einer Extremwertauswertung der extrahierten Sensorinformationen zu bestimmen. Folglich kann mit Ausführungsbeispielen gemäß der vorliegenden Erfindung auf bekannte und effiziente Verfahren zurückgegriffen werden. Somit kann auch eine Erweiterung eines Systems um die erfindungsgemäße Funktionalität mit geringem Aufwand vollzogen werden.
  • Gemäß Ausführungsbeispielen der vorliegenden Erfindung basiert die Sequenz von Sensoraufnahmen auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix oder einer Zeilenkamera mit einer Pixelzeile sind, wobei das Intensitätsprofil im Wesentlichen symmetrisch ist und die Messbilder jeweils Sensorinformationen über Intensitäten des gestreuten Lichtstrahls an mehreren Stellen des Objekts aufweisen, welche auf einer Auswertung von jeweils mehreren Pixeln der Pixelmatrix oder Pixelzeile basieren. Ferner ist die Vorrichtung zum Kombinieren dabei dazu ausgebildet, um Intensitätsinformationen von Pixeln, welche zu der Stelle des Objekts gehören, aus den wenigstens zwei Sensoraufnahmen zu extrahieren, und um die Intensitätsinformationen entsprechend einer Reihenfolge der sukzessiven Abtastung und damit entsprechend einer Reihenfolge von Intensitäten des Intensitätsprofils des Lichtstrahls in einer Kombinationsaufnahme so anzuordnen, dass die Intensitätsinformationen das im Wesentlichen symmetrische Intensitätsprofil des Lichtstrahls für die Stelle des Objekts abbilden. Somit kann eine besonders robuste und präzise Bestimmung einer Höheninformation für das Objekt ermöglicht werden.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung umfassen ein System zur Bestimmung einer Höheninformation eines Objekts, mit einer der zuvor erläuterten Vorrichtungen, einer Einrichtung zum Ermitteln der Sequenz von Sensoraufnahmen, wobei die Einrichtung zum Ermitteln der Sequenz von Sensoraufnahmen die Lichtquelle aufweist, wobei die Lichtquelle dazu ausgebildet ist, um den Lichtstrahl mit dem Intensitätsprofil bereitzustellen, wobei das Intensitätsprofil breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen und wobei die Einrichtung zum Ermitteln der Sequenz von Sensoraufnahmen eine Sensoreinrichtung aufweist, die dazu ausgebildet ist, um die Sequenz von Sensoraufnahmen, basierend auf dem vom Objekt gestreuten Lichtstrahl zu erzeugen, und einer Vorschubeinrichtung. Ferner weist das System eine Vorschubeinrichtung auf, wobei die Vorschubeinrichtung dazu ausgebildet ist, um die unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt einzustellen. Somit kann gemäß Ausführungsbeispielen ein aufeinander abgestimmtes und effizientes Gesamtsystem bereitstellt werden.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung umfassen ein Verfahren zum Verbessern einer Höhenprofilmessung eines Objekts, mit folgenden Merkmalen:
    • Empfangen einer Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen und Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen, wobei das Kombinieren der wenigstens zwei Sensoraufnahmen ein Erzeugen einer Kombinationsaufnahme für die Stelle des Objekts, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder eine Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen und ein Ermitteln der Höhe des Objekts an der Stelle umfasst.
  • Es sei darauf hingewiesen, dass Verfahren gemäß der vorliegenden Erfindung auf den gleichen oder ähnlichen Überlegungen beruhen können wie zuvor erläuterte Vorrichtungen gemäß Ausführungsbeispielen der Erfindung. Somit können Verfahren gemäß Ausführungsbeispielen Details, Merkmale und Funktionalitäten von erfindungsgemäßen Vorrichtungen in gleicher oder angepasster Weise aufweisen, sowohl individuell als auch in Kombination. Selbiges gilt für Details, Merkmale und Funktionalitäten von Verfahren für Vorrichtungen.
  • Gemäß weiterer Ausführungsbeispiele der vorliegenden Erfindung umfasst das Verfahren ein Korrigieren eines örtlichen Versatzes einer ermittelten Höhe an der Stelle des Objekts basierend auf einer metrischen Kalibrierung. Die Erfinder haben erkannt, dass fehlerhafte Verschiebungen in einem Höhenprofil aufgrund von Verdeckung mittels metrischer Kalibrierung ausgeglichen werden kann. Es sei darauf hingewiesen, dass die fehlerhaften Verschiebungen erfindungsgemäß nach denselben Prinzipien, wie bisher dargestellt. ausgeglichen werden. Eine metrische Kalibrierung wird jedoch generell bevorzugt, wenn eine geometrische Messung durchzuführen ist.
  • Ausführungsbeispiele sind vorteilhaft, weil sie einen verbesserten Kompromiss zwischen einer Robustheit und Genauigkeit der Höhenprofilmessung, bspw. hinsichtlich ungünstiger Oberflächeneigenschaften des Objekts liefern, und zudem eine verbesserte Effizienz der Höhenprofilmessung ermöglichen.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung umfassen ein Computerprogramm mit einem Programmcode zur Durchführung eines Verfahrens gemäß einem der hierin offenbarten Ausführungsbeispiel, wenn das Programm auf einem Computer abläuft.
  • Beispiele gemäß der vorliegenden Offenbarung werden nachfolgend Bezug nehmend auf die beiliegenden Figuren näher erläutert. Hinsichtlich der dargestellten schematischen Figuren wird darauf hingewiesen, dass die dargestellten Funktionsblöcke sowohl als Elemente oder Merkmale der offenbarungsgemäßen Vorrichtung als auch als entsprechende Verfahrensschritte des offenbarungsgemäßen Verfahrens zu verstehen sind, und auch entsprechende Verfahrensschritte des offenbarungsgemäßen Verfahrens davon abgeleitet werden können. Es zeigen:
    • 1 eine schematische Ansicht einer Vorrichtung zum Verbessern einer Höhenprofilmessung eines Objekts gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 2a eine schematische Ansicht einer Erfassung einer Sensoraufnahme gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 2b eine schematische Darstellung von Intensitätsverteilungen bei der Erzeugung der Sequenz von Sensoraufnahmen und eine Erzeugung einer Kombinationsaufnahme gemäß Ausführungsbeispielen gemäß der vorliegenden Erfindung;
    • 3 eine schematische Darstellung eines optionalen, erfindungsgemäßen Mess- und Auswerteablaufs gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 4 eine schematische Gegenüberstellung von Stand der Technik und Vorverarbeitung gemäß Ausführungsbeispielen der vorliegenden Erfindung mit optionaler Auswertung einer idealisierten optischen Triangulationsmessung eines Objekts mit Hell-Dunkel-Kontrast;
    • 5a eine schematische Gegenüberstellung von Stand der Technik und Vorverarbeitung gemäß Ausführungsbeispielen der vorliegenden Erfindung mit optionaler Auswertung einer idealisierten optischen Triangulationsmessung eines Objekts mit Höhenstufe, wobei die Flanke der Stufe nicht vom Lichtstrahl bestrahlt wird (Verschattung);
    • 5b eine schematische Gegenüberstellung gemäß 5a, wobei die Höhenstufe so ausgerichtet ist, dass die Flanke und die untere Ecke der Stufe für die Kamera nicht sichtbar sind (Verdeckung);
    • 6 eine schematische Darstellung einer nicht idealisierten optischen Triangulations-Messsituation eines Objekts mit Hell-Dunkel-Kontrast gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 7 eine schematische Darstellung von fünf aufeinander folgenden Messbildspalten einer Lichtschnittmessung eines Objekts mit Hell-Dunkel-Kontrast gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 8 eine schematische Darstellung einer Messsituation ähnlich zu 7 mit einer Vorschubschrittweite kleiner der Pixelauflösung gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 9 schematische Darstellungen gemäß Ausführungsbeispielen der vorliegenden Erfindung;
    • 10 ein Verfahren zum Verbessern einer Höhenprofilmessung eines Objekts gemäß Ausführungsbeispielen der vorliegenden Erfindung; und
    • 11 ein System zur Bestimmung einer Höheninformation eines Objekts gemäß Ausführungsbeispielen der vorliegenden Erfindung.
  • Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung im Detail anhand der Zeichnungen näher erläutert werden, wird darauf hingewiesen, dass identische, funktionsgleiche oder gleichwirkende Elemente, Objekte und/oder Strukturen in den unterschiedlichen Figuren mit den gleichen oder ähnlichen Bezugszeichen versehen sind, so dass die in unterschiedlichen Ausführungsbeispielen dargestellte Beschreibung dieser Elemente untereinander austauschbar ist bzw. aufeinander angewendet werden kann.
  • 1 zeigt eine schematische Ansicht einer Vorrichtung zum Verbessern einer Höhenprofilmessung eines Objekts gemäß Ausführungsbeispielen der Erfindung. 1 zeigt Vorrichtung 100 umfassend eine Schnittstelle 110 zum Empfangen einer Sequenz 101 von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen.
  • Ferner umfasst die Vorrichtung 100 eine Einrichtung 120 zum Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen. Dazu wird der Einrichtung 120 die Sequenz 121 von Sensoraufnahmen von der Schnittstelle 110 bereitgestellt. Die Sequenz 121 kann bspw. identisch zu der Sequenz 101 sein, oder hinsichtlich Dateiformaten und/oder Kodierung angepasst sein.
  • Die Einrichtung zum Kombinieren ist ferner ausgebildet, um eine Kombinationsaufnahme 122 für die Stelle des Objekts zu erzeugen, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist. Alternativ ist die Einrichtung zum Kombinieren dazu ausgebildet, um aus einer Kombination der wenigstens zwei Sensoraufnahmen und einer gemeinsamen Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen die Höhe 123 des Objekts an der Stelle zu ermitteln.
  • Für eine anschauliche Erläuterung der Problemstellung und Vorgehensweise gemäß Ausführungsbeispielen wird im Folgenden auf 2a und 2b verwiesen.
  • 2a zeigt eine schematische Ansicht einer Erfassung einer Sensoraufnahme gemäß Ausführungsbeispielen gemäß der vorliegenden Erfindung. 2a) zeigt ein Objekt 210, welches mit einem Lichtstrahl abgetastet wird. Der Lichtstrahl weist ein Intensitätsprofil 220 auf. Als Beispiel ist das Intensitätsprofil symmetrisch und gaußförmig. Die Objektoberfläche befindet sich dabei in einem Abstand h zu einer Ursprungsebene 230 der Lichtquelle. Aus dem Abstand h kann dabei auf eine Höheninformation bezüglich der Objektoberfläche geschlossen werden. Der Lichtstrahl wird ausgehend von der Oberfläche des Objekts diffus gestreut und von einer Sensoreinrichtung 240 aufgenommen. Als Beispiel sind für die Sensoreinrichtung 240 fünf Pixel 241 bis 245 gezeigt. Ferner sind Randstrahlen 223 des Lichtstrahls von einigen Sensorpixeln als Beispiel eingezeichnet.
  • Beispielsweise basierend auf einer Kalibration und/oder Vorversuchen kann jedem Pixel 241 bis 245 in Abhängigkeit der Höhe h eine Stelle auf der Oberfläche des Objekts 211 bis 215 zugeordnet werden, sodass eine Zuordnung, wie im Beispiel gezeigt 24x zu 21x, für x = 1, ..., 5 gilt. Hierbei sei darauf hingewiesen, dass bei einer anderen Höhe des Objekts, also einem anderen Abstand h, die Objektstellen 211 bis 215 auf andere Pixel des Sensors 240 abgebildet werden können.
  • Als Besonderheit weißt die Objektoberfläche unterschiedliche Reflektanzbereiche 218 und 219 mit unterschiedlichen Oberflächenreflektanzen auf. Würde die Objektoberfläche nur eine gemeinsamen Reflektanzbereich aufweisen, also keinen Sprung in der Oberflächenreflektanz aufweisen, so würde der Sensor 240 bspw. Intensitätsmesswerte 248 messen. Basierend auf den gemessenen Intensitätswerten kann durch eine Ermittlung einer charakteristischen Stelle des gemessenen Intensitätsprofils eine subpixelgenaue Information über die Höhe des Objekts erfasst werden. Dazu kann bspw. ein CoG-Algorithmus zum Einsatz kommen.
  • Bei einer solchen Auswertung der fiktiven Messwerte 248 würde dann bspw. eine Auftreffstelle des Schwerpunkts des Intensitätsprofils des diffus gestreuten Lichtstrahls gemäß Strahlengang von Mittelebenentstrahl 221 berechnet werden. Dadurch kann bspw. unter Verwendung von Kalibrationsinformation auf die den Abstand h und damit die Höhe des Objekts an der Stelle 213 zurückgerechnet werden, bspw. über trigonometrische Zusammenhänge. Durch die geänderte Reflektanz in Bereich 212 wird in dem zu der Stelle zugehörigen Pixel 242 jedoch ein geringerer Intensitätsmesswert, gemäß den zu der gezeigten Situation gemessenen Intensitätsmesswerten 249 gemessen. Bei einer Auswertung der gemessen Intensitäten 249, würde aufgrund der abgeschwächten Intensität des Pixels 242 dann bspw. zu einer verschobenen, berechneten Position 250 für den Schwerpunkt des Intensitätsprofils gelangt werden. Entsprechend einer bekannten Kalibration würde eine solche Verschiebung zu einer fehlerhaften Höheninterpretation gemäß einem Abstand h', wie mit fiktivem Mittelebenenstrahlengang 220 beschrieben, führen. Somit führt eine Abschwächung Δ1 der Intensität zu einer Verschiebung Δ2 der berechneten subpixelgenauen charakteristischen Stelle des gemessenen Intensitätsprofils und damit zu einer fehlerhaften Auswertung des Abstands Δ3 und damit der Objekthöhe.
  • 2a wird im Folgenden mittels 2b in den Kontext einer Sequenz von Sensoraufnahmen gesetzt, um die erfindungsgemäße Kombination von Sensoraufnahmen näher zu erläutern. Die in 2a gezeigte Situation zeigt dabei beispielsweise die Erzeugung einer Sensoraufnahme n der Sequenz von Sensoraufnahmen.
  • 2b zeigt eine schematische Darstellung von Intensitätsverteilungen bei der Erzeugung der Sequenz von Sensoraufnahmen und eine Erzeugung einer Kombinationsaufnahme gemäß Ausführungsbeispielen gemäß der vorliegenden Erfindung. 2b zeigt Intensitätsverteilungen über Objekt 210 bei der Erzeugung der Sequenz von Sensoraufnahmen 280, für Abtastschritte (bspw. Vorschubpositionen) n-2, n-1, n, und n+1. Wie mittels Bewegung 260 gezeigt, kann die Relativposition zwischen Objekt 210 und Lichtquelle von Aufnahme zu Aufnahme verändert werden, sodass das Intensitätsprofil jeweils unterschiedliche Stellen des Objekts mit unterschiedlichen Intensitäten des Intensitätsprofils 220 bestrahlt.
  • In anderen Worten basiert die Sequenz von Sensoraufnahmen 280 gemäß Ausführungsbeispielen optional auf einer sukzessiven Abtastung des Objekts 210 mit dem Lichtstrahl wobei bei der sukzessiven Abtastung die Stelle 213 des Objekts bei aufeinanderfolgenden Relativpositionen zwischen der Lichtquelle und dem Objekt mit aufeinanderfolgenden Intensitäten gemäß dem Intensitätsprofil 220 bestrahlt wird.
  • Unter den jeweiligen Abtastsituationen zwischen Lichtquelle und Objektoberfläche ist die jeweils zugehörige Sensormessung 280 basierend auf dem gestreuten Lichtstrahl gezeigt. Gezeigt sind als Beispiel einzelne Intensitätsmesswerte zugehörig zu einem jeweiligen Pixel 241 bis 245 des Sensor 240. Im Vergleich zu 2a sind im Sinne der Übersichtlichkeit die zu erwartenden (also bspw. ohne Berücksichtigung des Reflektanzsprungs zu erwartenden) und auch gemessenen Messwerte gemäß der eigentlichen Höhe entsprechend dem Abstand h mit 270 bezeichnete und die, aufgrund des Reflektanzsprungs zwischen Stelle 212 und 213 dazu abweichenden, Messwerte mit 275.
  • Erfindungsgemäß kann, wie in 2b gezeigt, bspw. basierend auf einer Extraktion von Sensorinformationen für eine Stelle 213 des Objekts (aus Intensitätsinformationen zu Pixel 243 aus verschiedenen Abtastungen) eine Kombinationsaufnahme 290 erzeugt werden. Wie in 2b gezeigt, können also in anderen Worten wenigstens zwei Sensoraufnahmen für eine Stelle 213 des Objekts kombiniert werden. Die Intensitätsmesswerte aus den Sensoraufnahmen können extrahiert und, wie in 2b als Beispiel gezeigt optional gemäß ihrer Abtastreihenfolge angeordnet werden, sodass ein Intensitätsverlauf 248' erzeugt wird.
  • Der Intensitätsverlauf 248` entspricht dann genau dem, wie in 2a entsprechend der eigentlichen Objekthöhe (gemäß Abstand h) zu erwartenden Intensitätsverlauf 248, sodass basierend auf einer Auswertung der Intensitäten 248' ein Strahlengang gemäß Strahl 221 rekonstruiert und zu der korrekten Höhe entsprechend Abstand h gelangt werden kann. In andere Worten ist also bspw. die Einrichtung zum Kombinieren 120 aus 1 dazu ausgebildet, um aus den wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen 280 jeweils eine Sensorinformation 248' über den, an jeweils einer gleichen Stelle 213 des Objekts 210 gestreuten, Lichtstrahl zu extrahieren. Basierend auf einer gemeinsamen Auswertung der extrahierten Sensorinformationen kann dann optional eine Höhe an der Stelle 213 des Objekts bestimmt werden.
  • Entsprechend der Kombination der Sensorinformation, also bspw. der Intensitätsmesswerte, wie in 2b gezeigt, ist die Einrichtung 120 aus 1 also optional dazu ausgebildet, um die Kombinationsaufnahme basierend auf extrahierten Sensorinformationen 248' für die Stelle 243 des Objekts so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle des Objekts in einer Reihenfolge entsprechend der sukzessiven Abtastung umfasst. Hierbei sei darauf hingewiesen, dass Ausführungsbeispiele jedoch nicht auf derartige sukzessive Abtastungen eingeschränkt sind. Bei einigen Beispielen kann die Abtastung derart erfolgen, dass das Objekt mehrfach abgetastet wird, sodass bei direkt zeitlich aufeinanderfolgenden Abtastungen eine Stelle des Objekts nicht zwingend mehrfach bestrahlt wird.
  • Stattessen kann bspw. bei einem ersten Scanprozess eine Menge von Stellen bestrahlt werden, sodass, wie zuvor erläutert in aufeinanderfolgenden Sensoraufnahmen eine Stelle der Menge nicht jeweils in beiden Sensoraufnahmen enthalten ist. Die erneute Bestrahlung von Stellen des Objekts der ersten Menge mittels einer anderen Intensität des Intensitätsprofils kann dabei bspw. mittels eines zweiten Scanprozesses erfolgen. in anderen Worten können die unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt auch bei verschiedenen Abtastprozessen eingestellt werden, sodass das Intensitätsprofil lediglich breiter ist als ein Abstand zweier unterschiedlicher, örtlich benachbarter (aber nicht zwingend zeitlich bei der Abtastung benachbarter) Relativpositionen. Ein zweiter Scanprozess wird bei bevorzugten Ausführungsbeispielen nicht eingesetzt, ist jedoch prinzipiell möglich. Eine zweite Aufnahme eines bestimmten Objektpunktes sollte vorzugsweise im Rahmen desselben Scanprozesses, aber zu einem früheren oder späteren Zeitpunkt passieren, d. h. viele Sensoraufnahmen zu verschiedenen Zeitpunkten innerhalb eines sukzessiven Scanprozesses.
  • Daher ist die die Einrichtung zum Kombinieren optional ferner dazu ausgebildet, um die Kombinationsaufnahme basierend auf extrahierten Sensorinformationen 248' der wenigstens zwei Sensoraufnahmen so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle 243 des Objekts 240 in einer Reihenfolge aufweist, welche der vorbestimmten Reihenfolge der, zu den extrahierten Sensorinformationen zugehörigen, Intensitäten des Intensitätsprofils entspricht. Ferner sei in Verbindung mit 2b darauf hingewiesen, dass die Einrichtung 120 zum Kombinieren der 1 optional dazu ausgebildet ist, um basierend auf den extrahierten Sensorinformationen 248' die Kombinationsaufnahme für die Stelle des Objekts so zu erzeugen, dass die Kombinationsaufnahme das im Wesentlichen symmetrische Intensitätsprofil 220 des Lichtstrahls an der Stelle des Objekts anzeigt.
  • Im Folgenden werden Ausführungsbeispiele gemäß der Erfindung in anderen Worten diskutiert und weitere Ausführungsbeispiele mit optionalen Merkmalen offenbart.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung sehen optional eine spaltenweise Rekombination von ggf. interpolierten Pixelwerten aus (z.B. zu unterschiedlichen Zeitpunkten und damit bspw. auch) bei unterschiedlichen Relativpositionen von Triangulationssensor (z.B. Laser-Lichtschnittsensor) und Objekt aufgenommenen Kamera-Messbildern zu einem neuen modifizierten Kamera-Messbild vor. Ziel dieser Bild-Rekombination ist bspw. die Erzeugung eines Messbildes, in dem die evtl. asymmetrischen Intensitätsprofile in den ursprünglichen Kamerabildern wieder symmetrisch dargestellt werden und aus denen mit Hilfe eines der gängigen Subpixel-genaue Algorithmen Abstandsmesswerte (und damit z.B. Höhenmesswerte) mit höherer Genauigkeit generiert werden können.
  • Im Folgenden wird Bezug genommen auf 3. 3 zeigt eine schematische Darstellung eines optionalen, erfindungsgemäßen Mess- und Auswerteablaufs gemäß Ausführungsbeispielen der vorliegenden Erfindung. 3 zeigt verschiedene Bestrahlungssituationen zwischen einer Intensitätsverteilung 320 einer Lichtquelle, als Beispiel in Form eines Laserstrahls, und eines Objekts 310. Eine Mittelebene des Lichtstrahls ist mit 321 bezeichnet. Die Randstrahlen der Kamerapixel 341 bis 345, welche zu einer Stelle des Objektes 311 bis 315 gehören, sind mit Bezugszeichen 322 gekennzeichnet.
  • 3 zeigt unterschiedliche Vorschubpositionen n-2 bis n+2 zwischen Lichtquelle und Objekt 310 und darunter jeweils zugehörige Pixel eines Sensors, welche jeweils Messbilder 380 repräsentieren. Hierbei werden wie bereits im Kontext von 2 erläutert Stellen 31x des Objekts auf Pixel 34x (x = 1, ..., 5) abgebildet.
  • Das Objekt weist wiederum Bereiche 318, 319 mit unterschiedlichen Reflektanzen auf. Im Sinne der Übersichtlichkeit sind die Bezugszeichen jeweils nur exemplarisch eingezeichnet.
  • Gemäß einem ersten optionalen Verarbeitungsschritt, 350, kann der zeitliche Strom der durch eine Sensoreinrichtung, bspw. Kamera, aufgenommenen Sensoraufnahmen, bspw. Messbilder einer elektronischen Recheneinheit 360 (z.B. PC oder FPGA), bspw. der Vorrichtung 100 der 1 zugeführt werden und dort optional nach einem First in - First Out Prinzip eine feste Menge von Sensoraufnahmen, also bspw. Messbildern 380 zwischengespeichert werden. Dazu weist die Recheneinheit 360 als optionales Merkmal 370 einen Zwischenspeicher auf. Hinweis 301: Beispielsweise bei einem Liniensensor kann das Messbild mehrere Spalten aufweisen oder bspw. idR. aus mehreren Spalten bestehen, welche gemäß Ausführungsbeispielen, also bspw. wie hier beschrieben, optional parallel und gleichartig ausgewertet werden können.
  • In einem optionalen zweiten Schritt 390 kann bei Ankunft eines neuen Messbildes im Zwischenspeicher 370 eine spaltenweise Vorverarbeitung, der im Zwischenspeicher befindlichen Daten erfolgen: Die Pixelwerte können für einen festen Objektort erfindungsgemäß rekombiniert und dafür zuvor ggf. interpoliert werden.
  • Wie in 3 gezeigt können bspw. für die Stelle 313 des Objekts die jeweiligen Pixel 343 zu einem neuen Bild 400 kombiniert werden.
  • In einem optionalen dritten Schritt, 410, können die resultierenden rekombinierten Messbilder einem Auswertealgorithmus, bspw. einem Liniendetektionsalgorithmus (z.B. CoG), zugeführt werden und es kann optional spaltenweise ein Höhenwert ermittelt werden.
  • In einem optionalen vierten Schritt, 420, kann die elektronische Recheneinheit 360 die ermittelten Höhenwerte zu einem Profil, z.B. 430, zusammenfassen und optional ggf. mehrere parallel ausgewertete Messprofil zu einem Höhenbild (bspw. ein grauwertkodiertes Höhenprofil bzw. Bild 430) zusammensetzen und als Ergebnis ausgeben.
  • In anderen Worten wird im Detail wird die Rekombination der Messbilder also bspw. folgendermaßen durchgeführt (siehe 3):
    • Aus der Gesamtheit der sequentiell aufgenommenen Kamerabilder 380, die durch das scannende Messverfahren an unterschiedlichen Relativpositionen von Triangulationssensor und Objekt (gemäß Vorschubpositionen n-2 bis n+2) erzeugt wurden, können für jede Kameraspalte jeweils die Pixel (z.B. 343) ausgewählt werden, die eine bestimmte feste Position (z.B. 313) auf dem Objekt 310 darstellen (siehe hierzu auch bspw. 4, 5a) und 5b)).
  • Im Allgemeinen basiert die Sequenz (n-2, ..., n+2) von Sensoraufnahmen 380 gemäß Ausführungsbeispielen also optional auf einer sukzessiven Abtastung des Objekts 310 mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix oder einer Zeilenkamera mit einer Pixelzeile sind, wobei das Intensitätsprofil 320 bspw. im Wesentlichen symmetrisch ist und wobei die Messbilder jeweils Sensorinformationen über Intensitäten des gestreuten Lichtstrahls an mehreren Stellen (311 bis 315) des Objekts aufweisen, welche auf einer Auswertung von jeweils mehreren Pixeln (341 bis 345) der Pixelmatrix oder Pixelzeile basieren. Eine entsprechende Einrichtung, z.B. Einrichtung 120 aus 1, zum Kombinieren ist dann optional dazu ausgebildet, um Intensitätsinformationen von Pixeln 343, welche zu der Stelle 313 des Objekts gehören, aus den wenigstens zwei Sensoraufnahmen zu extrahieren, und um die Intensitätsinformationen entsprechend einer Reihenfolge der sukzessiven Abtastung und damit entsprechend einer Reihenfolge von Intensitäten des Intensitätsprofils 320 des Lichtstrahls in einer Kombinationsaufnahme 400 so anzuordnen, dass die Intensitätsinformationen das im Wesentlichen symmetrische Intensitätsprofil des Lichtstrahls für die Stelle des Objekts abbilden.
  • 4 zeigt eine schematische Gegenüberstellung von Stand der Technik und erfindungsgemäßer Vorverarbeitung und optionaler Auswertung einer idealisierten optischen Triangulationsmessung eines Objekts mit Hell-Dunkel-Kontrast (bspw. Reflektanzsprung von r=1.0 auf r=0.25). Die Messsituation ist insoweit idealisiert, als dass die Vorschubschrittweite exakt der effektiven Pixelauflösung entspricht. 4 zeigt, zusätzlich zu bereits im Kontext von 3 diskutierten Elementen, Intensitätsmesswerte 440 von zu den unterschiedlichen Vorschubpositionen zugehörigen Messbildern 380, sowie daraus rekonstruierte Intensitätsprofile, in Form einer Verbindungslinie der Messpunkte. In 4 sind dabei eine Vorverarbeitung und Auswertung gemäß konventioneller Ansätze (siehe 450) und gemäß Ausführungsbeispielen (siehe 460) gegenübergestellt.
  • Gemäß konventionellen Ansätzen wird bspw. keine Vorverarbeitung durchgeführt: Um den Höhenwert am Hell-Dunkel-Übergang, also bspw. an Objektstelle 313, zu berechnen, wird bspw. der Intensitätsverlauf der Pixelwerte wie im Messbild, bspw. zugehörig zu Vorschubposition n, gemessen, verwendet. Ein entsprechendes Ergebnis 470 (beispielhaft Vorschubposition n) weist ein asymmetrisches Intensitätsprofil aufgrund des Reflektanzsprungs auf, sodass basierend auf einer beispielhaften CoG Analyse ein Intensitätsschwerpunkt nicht mittig im Pixel 343 angezeigt wird, was jedoch bei einer zu erwartenden Intensitätsschwerpunktsposition, gemäß dem tatsächlichen Höhenverlauf 481, zu erwarten wäre. Es sei darauf hingewiesen, dass Verläufe 481 und 483 übereinanderliegen. Siehe hierzu in Auftragung 480 (CoG-Position/Pixel über Vorschubposition).
  • In anderen Worten kann die durch den Hell-Dunkel-Übergang erzeugte Asymmetrie im Intensitätsverlauf der gemessen Pixelwerte bei Auswertung mittels CoG-Algorithmus eine nichtexistierende Änderung im gemessenen Höhewertverlauf (Artefakt) erzeugt werden, siehe hierzu Auswertung 472 von Ergebnis 470 hinsichtlich Verlauf 482.
  • Im Vergleich hierzu können gemäß Ausführungsbeispielen (siehe 460) Pixelwerte aus mehreren Messungen, bspw. bei einer erfindungsgemäßen Vorverarbeitung, derart kombiniert oder rekombiniert werden, dass sich neue Messbilder, z.B. 490, ergeben, auf denen die Pixelwerte ein und desselben Objektortes, z.B. 313, dargestellt sind.
  • Durch die Rekombination der Pixelwerte ein und desselben Objektortes, z.B. 313, wird der Intensitätsverlauf über den Hell-Dunkel-Übergang wieder symmetrisch dargestellt (siehe z.B. Messbild 490) und der CoG-Algorithmus kann den korrekten (also bspw. der Höhe entsprechenden) flachen Höhenwertverlauf 483 generieren, sodass bspw. bei einer solchen Auswertung (492) zu Verlauf 483 gelangt werden kann.
  • Hierbei sei darauf hingewiesen, dass erfindungsgemäße Verfahren nicht auf spezielle Auswertealgorithmen eingeschränkt sind. Die Einrichtung zum Kombinieren 120 aus 1 kann bspw. dazu ausgebildet sein, um die charakteristische Stelle (also bspw. den Intensitätsschwerpunkt) basierend auf einem Center-of-Gravity-Verfahren, einem Polynomfit und/oder einer Extremwertauswertung der extrahierten Sensorinformationen zu bestimmen.
  • 5 zeigt a) eine schematische Gegenüberstellung von Stand der Technik und erfindungsgemäßer Vorverarbeitung und optionaler Auswertung einer idealisierten optischen Triangulationsmessung eines Objekts mit Höhenstufe, wobei die Flanke der Stufe nicht vom Lichtstrahl bestrahlt wird (Verschattung). Die Messsituation ist insoweit idealisiert, als dass die Vorschubschrittweite exakt der effektiven Pixelauflösung entspricht. 5b: Wie 5a, nur, dass die Höhenstufe so ausgerichtet ist, dass die Flanke und die untere Ecke der Stufe für die Kamera nicht sichtbar sind (Verdeckung).
  • Analog zu 4 zeigt 5a die Auswertung gemäß konventioneller Ansätze (siehe 450) wobei keine Vorverarbeitung durchgeführt wird, sodass zur Bestimmung des Verlaufs der Höhenstufe die Messbilder, z.B. 380, direkt verwendet werden. Entsprechende Messbilder und Auswertungsergebnisse sind in Darstellung 470 gezeigt. Die entlang der Höhenstufe gemessene Asymmetrie im Intensitätsverlauf kann somit bei Auswertung (472), bspw. mittels eines CoG-Algorithmus, Fehler erzeugen und zu einer abgerundeten Wiedergabe des Kantenverlaufs (siehe Höhenprofil 482) führen, siehe hierzu Auswertung von Darstellung 470 in Höhenverlauf 482.
  • Im Vergleich hierzu können gemäß Ausführungsbeispielen (siehe 460) Pixelwerte aus mehreren Messungen, bspw. bei einer erfindungsgemäßen Vorverarbeitung, derart rekombiniert werden, dass sich neue Messbilder ergeben, auf denen die Pixelwerte ein und desselben Objektortes dargestellt sind. Derartige Messbilder für die Orte bzw. Stellen des Objekts 312, 313 ,314 und Auswertungsergebnisse sind in Darstellung 490 gezeigt. Die rekombinierten Messbilder zeigen symmetrische Intensitätsverläufe und alle messbaren Höhenwerte werden somit fehlerfrei wiedergegeben (siehe Höhenverlauf 483). Die vertikale Flanke der Stufe kann Lichtschnittprinzip-bedingt aufgrund von Abschattung nicht erfasst werden, sodass bspw. bei einer solchen Auswertung (492) zu Verlauf 483 gelangt werden kann.
  • Analog ist in 5b ein Messszenario mit verdeckter Flanke gezeigt. Aufgrund der Verdeckung wird hier die Stelle 313 des Objekts bspw. nicht bestrahlt, sodass kein gestreutes Licht von diesem Teil der Objektoberfläche auf den Sensor gelangen kann. Somit wird also bspw. gestreutes Licht von Stelle 312 auf Pixel 542 und von Stelle 314 auf Pixel 543 abgebildet.
  • Die Verarbeitung gemäß konventioneller Ansätze (siehe 450) erfolgt, mit Ausnahme der veränderten Ergebnisse 470 wiederum, wie bezüglich 5a diskutiert, sodass keine Vorverarbeitung durchgeführt wird, und zur Bestimmung des Verlaufs der Höhenstufe die Messbilder, z.B. 380, direkt verwendet werden. Entsprechende Messbilder und Auswertungsergebnisse sind in Darstellung 470 gezeigt.. Die entlang der Höhenstufe gemessene Asymmetrie im Intensitätsverlauf kann somit bei Auswertung (472), bspw. mittels eines CoG-Algorithmus, Fehler erzeugen und zu einer abgerundeten Wiedergabe des Kantenverlaufs (siehe Höhenprofil 482) führen, siehe hierzu Auswertung von Darstellung 470 in Höhenverlauf 482.
  • Im Vergleich hierzu können wiederum gemäß Ausführungsbeispielen (siehe 460) Pixelwerte aus mehreren Messungen, bspw. bei einer erfindungsgemäßen Vorverarbeitung, derart rekombiniert werden, dass sich neue Messbilder ergeben, auf denen die Pixelwerte ein und desselben Objektortes dargestellt sind. Derartige Messbilder für die Orte bzw. Stellen des Objekts 312 und 314 und Auswertungsergebnisse sind in Darstellung 490 gezeigt.
  • Die rekombinierten Messbilder (siehe 490) zeigen symmetrische Intensitätsverläufe und alle messbaren Höhewerte werden fehlerfrei wiedergegeben (siehe auch Höhenverlauf 483). Aufgrund der Verdeckung der unteren Kantenecke, erscheint die Stufe in Vorschubrichtung verschoben. Dieser Effekt kann gemäß Ausführungsbeispielen optional durch metrische Kalibrierung kompensiert werden. Somit kann bei einer solchen Auswertung (492) bspw. zu Höhenverlauf 483 gelangt werden.
  • Ferner sei darauf hingewiesen, dass gemäß Ausführungsbeispielen, wenn bspw. aufgrund einer Diskrepanz zwischen lokaler effektiver Pixelauflösung der Kamera und Schrittweite der Relativbewegung nicht die exakt selbe Objektposition in allen Bildern dargestellt wird, jeweils die nächstgelegenen Pixelwerte ausgewählt können und der Pixelwert an der Idealposition interpoliert werden kann (siehe bspw. 6). Die so ermittelten Pixelwerte können für jede Sensorspalte in der Reihenfolge, in der sie durch den Scanprozess erzeugt wurden, zu einer neuen Messspalte und im Falle eines Liniensensors die einzelnen Messspalten zu einem neuen Messbild zusammengesetzt werden.
  • Hierzu wird im Folgenden auf 6 verwiesen. 6 zeigt eine schematische Darstellung einer nicht idealisierten optischen Triangulations-Messsituation eines Objekts mit Hell-Dunkel-Kontrast (bspw. mit Reflektanzsprung von r=1.0 auf r=0.25) gemäß Ausführungsbeispielen. Die Pixelauflösung entspricht hier als optionales Merkmal nicht der Vorschubschrittweite. Das Problem 680 besteht dabei bspw. darin, dass ein und derselbe Objektort 600 nicht immer durch genau einen Pixelwert abgebildet ist. Bspw. bei Vorschubposition n-2 umfasst sowohl die Objektstelle 612, welche auf Pixel 642 abgebildet wird, als auch die Objektstelle 613, welche auf Pixel 643 abgebildet wird einen Teil der Stelle 600. Die Erfinder haben erkannt, dass (z.B. im Zuge einer erfindungsgemäßen Vorverarbeitung) zur Lösung 690 des Problems eine Interpolation aus den nächstliegenden Pixelwerten durchgeführt werden kann. Die Berechnung der Pixelposition auf dem Objekt kann dabei bspw. über die Kenntnis von Vorschubgeschwindigkeit, Messfrequenz und Kameramodell erfolgen. Das obig erläuterte Problem und die Lösung können bspw. einer erfindungsgemäßen Vorverarbeitung adressiert bzw. erzielt werden.
  • Im Zuge einer Auswertung gemäß Ausführungsbeispielen kann somit nach Rekombination der interpolierten Pixel (oder intensitätsmesswerte zugehörige zu den Pixeln) ähnlich zur idealisierten Messung (wie z.B. in den vorigen Beispielen erläutert) ein symmetrisierter Intensitätsverlauf vorliegen oder erhalten werden. Interpolation und Rekombination weiterer fester Objektorte können analog erfolgen.
  • Dazu zeigt 6 in Darstellung 490 ein entsprechendes, interpoliertes und symmetrisiertes Intensitätsprofil für den Objektort 600. Nach Auswertung der Intensitätsprofile (bspw. für mehrere Objektstellen), z.B. mittels CoG-Algorithmus, wie in Darstellung 480 gezeigt, zeigt sich, dass durch die nötige Interpolation zwar bspw. nicht mehr oder nicht immer die exakten Höhenwerte gemessen oder bestimmt werden, aber dennoch eine signifikante Reduktion des Artefakts gegenüber dem Stand der Technik erzielt werden kann. Somit basiert die Sequenz von Sensoraufnahmen (n-2, n-2, n, n+1, n+2) gemäß Ausführungsbeispielen also bspw. auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung oder einer Zeilenkamera mit einer Pixelzeile sind und wobei eine Vorschubschrittweite zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts nicht einer Pixelgröße entlang der ersten oder zweiten Matrixrichtung oder entlang der Pixelzeile entspricht.
  • Dabei ist dann bspw. eine Einrichtung 120 zum Kombinieren, wie in 1 gezeigt, dazu ausgebildet, um zu extrahierende Sensorinformationen (z.B. zu Stelle 600) der wenigstens zwei Sensoraufnahmen aus Sensorinformationen von, entsprechend einer Vorschubrichtung, nebeneinanderliegenden Pixeln (z.B. in Messbild n-2, Pixel 642 und 643) zu interpolieren, oder um die zu extrahierenden Sensorinformationen aus Sensorinformationen von Pixeln, entsprechend der Vorschubrichtung, zu extrapolieren.
  • In anderen Worten können also durch diese erfindungsgemäße Rekombination der Messbildintensitäten modifizierte Messbilder 490 erzeugt werden, die nicht wie gemäß dem Stand der Technik das gestreute Intensitätsprofil der Lichtlinie projiziert auf die Messposition und deren Umgebung auf der Objektoberfläche zeigen, sondern die gestreute Intensität von ein-und-derselben Objektposition bei Bestrahlung mit unterschiedlichen Abschnitten des symmetrischen Intensitätsprofils der Lichtlinie darstellen. Dadurch kann auch in Objektbereichen mit einer Änderung der Oberflächen-Reflektanz oder der Objekthöhe das gemessene Intensitätsprofil so dargestellt werden, wie es tatsächlich von der Lichtquelle, also bspw. vom Punkt- oder Linienprojektor eingestrahlt wurde, und die Voraussetzung für eine genauere Bestimmung der Position des Lichtstrahls in den Kamerabildern ist erfüllt.
  • Es sei darauf hingewiesen, dass mit dem erfindungsgemäßen Verfahren aufgrund der nicht zu vernachlässigen Ausdehnung eines Pixels auf der Messoberfläche sowie der in der Regel notwendigen Interpolation von Messwerten unter Umständen nicht in allen Situationen eine ideale Symmetrie des Intensitätsprofils erreicht werden kann. Wie stark sich dieser Effekt auswirkt, kann bspw. direkt mit der Pixelauflösung zusammenhängen. Wird eine höhere Pixelauflösung gewählt, so kann sich bspw. die Größe der Pixel auf dem Messobjekt und damit auch die Abweichung von der idealen Symmetrie reduzieren. Bei der CoG-Auswertung nach Stand der Technik hat eine höhere Pixelauflösung bspw. keinen positiven Effekt auf den Messfehler, daher kann mit dem hier erfindungsgemäßen Verfahren gemäß Ausführungsbeispielen in vielen oder sogar in jedem Fall ein genaueres Ergebnis als mit dem Stand der Technik erreicht werden (siehe bspw. 6).
  • Die bisher beschriebene (also z.B. gemäß 3 bis 6 beschriebene) spaltenweise Rekombination kann voraussetzen, dass die Pixelspalten der Kamera annähernd parallel zur Scan-Vorschubrichtung verlaufen. Der Winkelfehler darf dabei bspw. maximal so groß sein, dass der seitliche Versatz (seitlicher Positionsfehler), der bei einem Vorschub um die Breite des Lichtprofils entsteht, deutlich kleiner als die Breite der Pixelspalte ist. Nimmt man, zur Erläuterung als Beispiel, eine typische Intensitätsprofilbreite von 5 Pixeln im Kamerabild an und setzt man den maximal zulässigen lateralen Versatzfehler willkürlich auf ¼ Pixelspalten-Breite, so darf unter diesen Voraussetzungen der maximale Winkelfehler beispielsweise nicht größer als 3° sein.
  • Ist eine Anordnung mit hinreichend kleinem Winkelfehler nicht realisierbar aber bekannt, so kann gemäß Ausführungsbeispielen optional für einen Licht-Liniensensor das oben beschriebene Verfahren der Rekombination der Pixel-Intensitätswerte derart erweitert werden, dass der bekannte Winkelversatz berücksichtigt wird. Dafür können bei der Rekombination bspw. nicht nur die Pixel in ein und derselben Spalte herangezogen, sondern abhängig von Winkelversatz und Vorschubposition auch die Pixel aus benachbarten Spalten. Bei dem oben beschriebenen Prinzip kann es bspw. grundsätzlich so sein oder so bleiben, dass genau die Pixel zu einer neuen Messspalte kombiniert werden, die dem möglichst selben Ort auf dem Objekt entsprechen. Ggf. können oder müssen auch hierbei die Pixel-Intensitätswerte für die entsprechende Position auf dem Objekt interpoliert werden.
  • In andere Worten ist basiert die Sequenz von Sensoraufnahmen bspw. auf einer sukzessiven Abtastung des Objekts mit dem Lichtstrahl, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung sind und wobei eine Vorschubrichtung zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts einen Winkelversatz zu der ersten und/oder zweiten Matrixrichtung der Flächenkamera aufweist.
  • Dabei ist bspw. die Einrichtung 120 aus 1 zum Kombinieren dazu ausgebildet ist, um zu extrahierende Sensorinformationen der wenigstens zwei Sensoraufnahmen basierend auf Sensorinformationen von Pixeln sowohl aus der ersten als auch aus der zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu extrahieren.
  • Optional ist die Einrichtung zum Kombinieren ferner dazu ausgebildet, um die extrahierten Sensorinformationen von Pixeln sowohl aus der ersten und zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu interpolieren und/oder zu extrapolieren. Ausführungsbespiele weisen beispielsweise folgende Vorteile gegenüber dem Stand der Technik, also bspw. gegenüber konventionellen Ansätzen auf:
  • Mit dem hier vorgeschlagenen erfindungsgemäßen Verfahren gemäß Ausführungsbeispielen können bzgl. Reflexionsgrad und Höhenstufen strukturierte Oberflächen genauer erfasst werden. Mittels Ausführungsbeispielen können ferner folgende technisches Anwendungsgebiet adressiert werden: Erfassung von Oberflächen mit abrupt variierender Reflektanz, Erfassung von Oberflächen mit Stufen, Kanten und Graten, Erfassung von räumlich hochfrequenten Oberflächenstrukturen, und/oder Erfassung der Oberflächen von Materialien mit abrupt variierender Transparenz.
  • Ausführungsbeispiele gemäß einem ersten Beispiel umfassen ein Verfahren zur Auswertung von sequentiell an benachbarten Messpositionen aufgenommenen Triangulations-Kamerabildern, bei dem die Pixel-Intensitätswerte der Kamerabilder spaltenweise so umsortiert und zu neuen resultierenden Bildern rekombiniert werden, dass die resultierenden Bilder Intensitätsverteilungen (z.B. 2-dimensional angeordnete Intensitätsverteilungen) darstellen und bestimmten Positionen auf dem erfassten Objekt entsprechen, wobei die Koordinate (Ordinate) der resultierenden Intensitätsverteilungen die Abfolge (z.B. zeitliche Abfolge oder Abfolge gemäß der Intensitätsverteilung) der ursprünglichen (z.B. originalen) Aufnahmen bei unterschiedlichen relativen Positionen zwischen Objekt und Messanordnung entspricht. Weitere Ausführungsbeispiele umfassen eine Auswertung der Intensitätsverteilung in den resultierenden Bildern gemäß Beispiel 1 mittels gängiger subpixel-genauer Algorithmen zur Positionsbestimmung des Lichtstrahlzentrums im resultierenden Bild und Rekonstruktion der Objektoberfläche unter Hinzunahme der Information über die Messanordnung (Kalibrierung). Weitere Ausführungsbeispiele umfassen eines der oben beschriebenen Verfahren, wobei die Richtung der Scan-Bewegung zwischen Objekt und Aufnahme-System parallel zur Spaltenrichtung der Messkamera steht.
  • Weitere Ausführungsbeispiele umfassen eines der oben beschriebenen Verfahren, wobei die Richtung der Scan-Bewegung und der Spaltenrichtung der Messkamera nicht parallel aber anderweitig bekannt ist, und wobei dieser bekannte Winkelversatz bei der Rekombination der Pixel-Intensitätswerte berücksichtigt wird. Weitere Ausführungsbeispiele umfassen eines der oben beschriebenen Verfahren, wobei die Schrittweite der Lichtschnitt-Aufnahmen in Scan-Richtung nicht der Pixelgröße der Messkamera auf dem Objekt entsprechen und wobei die Pixel-Intensitätswerte inter- oder extrapoliert werden, um die Pixel-Intensitätswerte zu den entsprechenden Objektorten zu erhalten. Weitere Ausführungsbeispiele umfassen eines der oben beschriebenen Verfahren, wobei die Rekombination der Pixel-Intensitätswerte auf einem auf der Kamera integrierten Hardware-nahen FPGA, oder auf einem externen Computer stattfindet, auf den die auszuwertenden Kamerabilder über eine Datenschnittstelle übertragen werden.
  • Im Folgenden werden Ausführungsbeispiele, welche Verfahren zur Vorverarbeitung von Laser-Lichtschnitt adressieren oder umfassen, näher diskutiert.
  • Ganz allgemein umfassen Ausführungsbeispiele gemäß der vorliegenden Erfindung Verfahren zur Vorverarbeitung von Laser-Lichtschnitt-Rohdaten zur Symmetrisierung des gemessenen Linienlaserprofils. Solche Ausführungsbeispiele adressieren oder umfassen entsprechend Laser-Lichtschnittverfahren sowie Sub-Pixel-Liniendetektion. Somit kann es sich bei dem Lichtstrahl beispielsweise um einen Laser-Fächerstrahl handeln, welcher auf die Oberfläche eins Prüfobjekts projiziert wird. Hierzu sei zusätzlich auf 7 bis 9 verwiesen.
  • 7 zeigt eine schematische Darstellung von fünf aufeinander folgenden Messbildspalten einer Lichtschnittmessung eines Objekts mit Hell-Dunkel-Kontrast (Reflektanzsprung von r=1.0 auf r=0.5) gemäß Ausführungsbeispielen der vorliegenden Erfindung. Die Vorschubschrittweite entspricht exakt der effektiven Pixelauflösung. in 7 ist eine überlagerte Darstellung von Pixeln und Objektorten dargestellt. In anderen Worten sind die Pixel 74x, welche zu Objektorten bzw. Objektstellen 71x (x=1, ..., 7) gehören, überlagert gezeigt. Wie mittels Bewegung 760 angedeutet kann das Objekt 710 so bewegt werden, dass das Intensitätsprofil 720 bei der Erzeugung unterschiedlicher Messbilder (n-2 bis n+2) unterschiedlichen Positionen des Objekts mit verschiedenen Intensitäten bestrahlt. So „wandert“ - vereinfacht ausgedrückt - im Verlauf der Abtastung das Pixel, welche den festen Objektort 700 darstellt (wobei an dem Objektort 700 eine Reflektanzänderung (Bereich 718 und 719) stattfindet), in 7 „durch das Intensitätsprofil hindurch“. Für das Intensitätsprofil sind zusätzlich die Mittelebene 721, sowie Randstrahlen 722 von Kamerapixeln eingezeichnet.
  • In der Anordnung gemäß 7 erfolgt die Bewegung des Objekts, wie zuvor erläutert, relativ zum Sensor, wobei eine Vorschubauflösung gleich einer effektiven Kamerapixelgröße ist (sodass bspw. eine Stelle des Objekts stets genau mittels einem Pixel der Kamera dargestellt wird).
  • 8 zeigt eine schematische Darstellung einer Messsituation ähnlich (bzw. bspw. sogar identisch) zu 7 mit einer Vorschubschrittweite kleiner der Pixelauflösung gemäß Ausführungsbeispielen der vorliegenden Erfindung. Pixelwerte für feste Objektpositionen müssen aus nahegelegenen Pixelwerten interpoliert werden. Im Sinne der Übersichtlichkeit sind in 8 nur die Pixel zugehörig zu einer Objektstelle mit Bezugszeichen versehen und nicht zusätzlich die Stellen des Objekts wie in 7. in 8 ist somit der Fall gezeigt, dass ein Objektort 800 des Objekts 810, nicht genau von einem Pixel dargestellt wird. In Messbild n-2 müssten somit bspw. die Pixel 842 und 843 interpoliert werden, da Ort 800 zum Teil auf beide Pixel abgebildet wird. In Messbild n+1 wären bspw. die Pixel 841 und 842 heranzuziehen.
  • 9 zeigt schematische Darstellungen gemäß Ausführungsbeispielen der vorliegenden Erfindung von a) Qualitative Darstellung der originalen Messbilder der Ein-Spalten-Messung. Durch den Reflektanzsprung erscheint das Laserlinienprofil in den Messdaten asymmetrisch. b) Qualitative Darstellung der erfindungsgemäß rekombinierten Messbilder. Der Intensitätsverlauf des Laserlinienprofils ist durch die Rekombination symmetrisiert. c) Vergleich von originalem 910 und rekombiniertem 920 Intensitätsprofil entlang der grauen gestrichelten Linien mit dem Hell-Dunkel-Übergang im Zentrum. Der durch einen CoG-Algorithmus berechnete Höhenwert weicht im Falle des originalen Intensitätsverlaufs vom Referenzwert ab. In andere Worten zeigt 9 a) bspw. originale (bspw. noch nicht kombinierte) Messbilder mit z.T. asymmetrischen Intensitätsverläufen, siehe bspw. Messbilder n-2, n und n+1. 9 b) zeigt gemäß Ausführungsbeispielen kombinierte Messbilder mit symmetrisierten Intensitätsverläufen. Dabei ist jede Spalte eine Kombination von Pixeln aller Messbilder (also bspw. aller Messbilder welche eine Information über eine auszuwertende Stelle des Objekts aufweisen). 9 c) zeigt eine Darstellung von Intensitätsverläufen und CoG-Höhenwerten mit Hell-Dunkel Übergang im Zentrum. 9c) zeigt entsprechend eine Pixelposition 930 innerhalb einer Spalte relativ zum Hell-Dunkel-Übergang. Wie zu erkennen ist, wird aufgrund des Hell-Dunkel-Übergangs basierend auf dem originalen Messbild eine verschobene Pixelposition bestimmt, was zu einer falschen Höheninformation führen würde. Ganz allgemein sei darauf hingewiesen, dass eine Spalte bspw. die Richtung im Kamerabild, die senkrecht zur Laser-Linie verläuft bezeichnen kann.
  • 10 zeigt ein Verfahren zum Verbessern einer Höhenprofilmessung eines Objekts gemäß Ausführungsbeispielen der vorliegenden Erfindung. 10 zeigt Verfahren 1000 umfassend ein Empfangen, 1010, einer Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen. Ferner umfasst Verfahren 1000 ein Kombinieren, 1020 von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen; wobei das Kombinieren der wenigstens zwei Sensoraufnahmen ein Erzeugen einer Kombinationsaufnahme für die Stelle des Objekts, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder eine Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen und ein Ermitteln der Höhe des Objekts an der Stelle umfasst.
  • 11 zeigt ein System zur Bestimmung einer Höheninformation eines Objekts gemäß Ausführungsbeispielen der vorliegenden Erfindung. 11 zeigt System 1100 umfassend eine Vorrichtung 1200 mit einer Schnittstelle 1210 zum Empfangen einer Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt 1300 bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle 1242 und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen.
  • Ferner umfasst die Vorrichtung 1200 eine Einrichtung 1220 zum Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz 1201 von Sensoraufnahmen; wobei die Einrichtung zum Kombinieren ausgebildet ist, um eine Kombinationsaufnahme für die Stelle des Objekts zu erzeugen, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder um aus einer Kombination der wenigstens zwei Sensoraufnahmen und einer gemeinsamen Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen die Höhe des Objekts an der Stelle zu ermitteln. Dazu wird der Einrichtung 1220 die Sequenz 1221 von Sensoraufnahmen von der Schnittstelle 1210 bereitgestellt. Die Sequenz 1221 kann bspw. identisch zu der Sequenz 1201 sein, oder hinsichtlich Dateiformaten und/oder Kodierung angepasst sein.
  • As optionales Merkmal umfasst die Vorrichtung 1200 eine Einrichtung 1240 zum Ermitteln der Sequenz von Sensoraufnahmen für unterschiedliche Stellen auf dem Objekt 1300. Die Einrichtung 1240 umfasst ferner, als Beispiel, die Lichtquelle 1242, sowie eine Sensoreinrichtung 1244, die dazu ausgebildet ist, um die Sequenz 1201 von Sensoraufnahmen, basierend auf dem vom Objekt 1300 gestreuten Lichtstrahl zu erzeugen. Wie optional gezeigt, kann die Sensoreinrichtung 1244 dazu ausgebildet sein, der Schnittstelle 1210 die Sequenz von Sensoraufnahmen bereitzustellen.
  • Als weiteres optionales Merkmal umfasst die Vorrichtung 1200 ferner eine einer Einrichtung 1230 zum Bestimmen der Höhe an der Stelle des Objekts basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen. Die Einrichtung 1230 ist bspw. dazu ausgebildet, um die Höhe 1202 an der Stelle des Objekts unter Verwendung einer Information über eine charakteristische Eigenschaft des Intensitätsprofils des Lichtstrahls zu bestimmen. Dazu wird der Einrichtung 1230 als optionales Merkmal eine Information 1222 bereitgestellt, welche bspw. eine Kombinationsaufnahme umfassen kann. Beispielsweise umfasst die Sensoreinrichtung 1244 eine Kamera, bspw. einer Zeilen- oder Flächenkamera, mit einzelnen Pixeln. Die Einrichtung zum Bestimmen 1230 ist als optionales Merkmal ferner dazu ausgebildet, um eine charakteristische Stelle des Intensitätsprofils basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen und basierend auf einer Information über eine charakteristische Eigenschaft des Intensitätsprofils des Lichtstrahls subpixelgenau zu bestimmen, und um die Höhe 1202 an der Stelle des Objekts basierend auf der charakteristischen Stelle zu bestimmen.
  • Als weiteres optionales Merkmal umfasst das System 1100 ferner eine Vorschubeinrichtung 1400, die dazu ausgebildet ist, um die unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt einzustellen. Wie in 11 gezeigt können bspw. die Lichtquelle 1242, die Sensoreinrichtung 1244 und z.B. auch die Vorschubeinrichtung in einer zueinander festgelegten, also vorbestimmen, z.B. kalibrierten relativen Lage zueinander angeordnet sein.
  • Ferner wird im Folgenden nochmals der Unterschied von Ausführungsbeispielen hinsichtlich konventioneller Ansätze diskutiert: Beim Stand der Technik Laser-Lichtschnittverfahren führen z.B. lokale Änderungen der Oberflächen-Reflektanz oder der Objekthöhe zu einer Asymmetrie in den gemessenen bspw. symmetrischen Laser-Linienprofilen, was in Kombination mit den gängigen Liniendetektionsalgorithmen zu systematischen Fehlern in den berechneten Höhenmesswerten führt. Durch die erfindungsgemäße spaltenweise Rekombination von Laser-Lichtschnitt-Rohdaten gemäß Ausführungsbeispielen können modifizierte Messbilder erzeugt werden, die nicht wie gemäß dem Stand der Technik das gestreute Intensitätsprofil der Laser-Linie projiziert auf die Messposition und deren Umgebung zeigen, sondern die gestreute Intensität von ein-und-derselben Objektposition bei Bestrahlung mit unterschiedlichen Abschnitten des symmetrischen Intensitätsprofils der Laser-Linie darstellen. Dadurch kann auch in Objektbereichen mit den oben genannten Oberflächeneigenschaften das gemessene Laser-Intensitätsprofil wieder symmetrischer dargestellt und der Höhenmesswertfehler verringert werden. Ausführungsbeispiele können somit vorteilhaft bspw. für Laser-Lichtschnitt Kameras eingesetzt werden. Alle hierin aufgeführten Aufzählungen der Materialien, Umwelteinflüsse, elektrischen Eigenschaften und optischen Eigenschaften sind hierbei als beispielhaft und nicht als abschließend anzusehen.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hard-ware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahingehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein. Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Der Datenträger, das digitale Speichermedium oder das computerlesbare Medium sind typischerweise gegenständlich und/oder nichtvergänglich bzw. nicht-vorübergehend. Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahingehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden. Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahingehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen. in weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist. Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die hierin beschriebenen Vorrichtungen können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden. Die hierin beschriebenen Vorrichtungen, oder jedwede Komponenten der hierin beschriebenen Vorrichtungen können zumindest teilweise in Hardware und/oder in Software (Computerprogramm) implementiert sein. Die hierin beschriebenen Verfahren können beispielsweise unter Verwendung eines Hardware-Apparats, oder unter Verwendung eines Computers, oder unter Verwendung einer Kombination eines Hardware-Apparats und eines Computers implementiert werden. Die hierin beschriebenen Verfahren, oder jedwede Komponenten der hierin beschriebenen Verfahren können zumindest teilweise durch Hardware und/oder durch Software ausgeführt werden.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (19)

  1. Vorrichtung (100, 1200) zum Verbessern einer Höhenprofilmessung eines Objekts (210, 310, 710, 810, 1300), mit folgenden Merkmalen: einer Schnittstelle (110, 1210) zum Empfangen einer Sequenz von Sensoraufnahmen (280, 380) für unterschiedliche Stellen (211-215, 311-315, 612-616, 712-717) auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle (1242) und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil (220, 320, 720) aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen; und einer Einrichtung (120, 1220) zum Kombinieren von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen, wobei die Einrichtung zum Kombinieren ausgebildet ist, um eine Kombinationsaufnahme (290, 400, 490) für die Stelle (213, 313, 600) des Objekts zu erzeugen, auf deren Basis eine Höhe an der Stelle des Objekts bestimmbar ist, oder um aus einer Kombination der wenigstens zwei Sensoraufnahmen und einer gemeinsamen Auswertung von einzelnen Kombinationsergebnissen der Kombination der wenigstens zwei Sensoraufnahmen die Höhe des Objekts an der Stelle zu ermitteln.
  2. Vorrichtung (100, 1200) gemäß Anspruch 1, wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um aus den wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen (280, 380) jeweils eine Sensorinformation über den, an jeweils einer gleichen Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) gestreuten, Lichtstrahl zu extrahieren, um auf Basis einer gemeinsamen Auswertung der extrahierten Sensorinformationen eine Höhe an der Stelle (213, 313, 600) des Objekts zu bestimmen.
  3. Vorrichtung (100, 1200) gemäß Anspruch 1 oder 2, wobei das Intensitätsprofil (220, 320, 720) des Lichtstrahls eine vorbestimmte Reihenfolge von Intensitäten aufweist; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um die Kombinationsaufnahme (290, 400, 490) basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) in einer Reihenfolge aufweist, welche der vorbestimmten Reihenfolge der, zu den extrahierten Sensorinformationen zugehörigen, Intensitäten (248) des Intensitätsprofils entspricht.
  4. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, wobei die Sequenz von Sensoraufnahmen (280, 380) auf einer sukzessiven Abtastung des Objekts (210, 310, 710, 810, 1300) mit dem Lichtstrahl basiert; wobei bei der sukzessiven Abtastung die Stelle (213, 313, 600) des Objekts bei aufeinanderfolgenden Relativpositionen zwischen der Lichtquelle (1242) und dem Objekt mit aufeinanderfolgenden Intensitäten gemäß dem Intensitätsprofil (220, 320, 720) bestrahlt wird; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um die Kombinationsaufnahme (290, 400, 490) basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen für die Stelle (213, 313, 600) des Objekts so zu erzeugen, dass die Kombinationsaufnahme die extrahierten Sensorinformationen für die Stelle des Objekts in einer Reihenfolge entsprechend der sukzessiven Abtastung umfasst.
  5. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, wobei das Intensitätsprofil (220, 320, 720) im Wesentlichen symmetrisch oder bekannt ist; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen die Kombinationsaufnahme (290, 400, 490) für die Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) so zu erzeugen, dass die Kombinationsaufnahme das im Wesentlichen symmetrische oder bekannte Intensitätsprofil des Lichtstrahls an der Stelle (213, 313, 600) des Objekts anzeigt, oder wobei die Einrichtung zum Kombinieren dazu ausgebildet ist, um basierend auf einer gemeinsamen Auswertung der Kombinationsaufnahme für die Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) und zumindest einer der wenigstens zwei Sensoraufnahmen eine zusätzliche Information über eine Oberflächentopologie und/oder eine Oberflächeneigenschaft an der Stelle des Objekts zu bestimmen.
  6. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, wobei die Sequenz von Sensoraufnahmen (280, 380) auf einer sukzessiven Abtastung des Objekts (210, 310, 710, 810, 1300) mit dem Lichtstrahl basiert; wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung oder einer Zeilenkamera mit einer Pixelzeile sind; wobei eine Vorschubschrittweite zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts nicht einer Pixelgröße entlang der ersten oder zweiten Matrixrichtung oder entlang der Pixelzeile entspricht; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um zu extrahierende Sensorinformationen der wenigstens zwei Sensoraufnahmen aus Sensorinformationen von, entsprechend einer Vorschubrichtung, nebeneinanderliegenden Pixeln zu interpolieren, oder um die zu extrahierenden Sensorinformationen aus Sensorinformationen von Pixeln, entsprechend der Vorschubrichtung, zu extrapolieren.
  7. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, wobei die Sequenz von Sensoraufnahmen (280, 380) auf einer sukzessiven Abtastung des Objekts (210, 310, 710, 810, 1300) mit dem Lichtstrahl basiert; wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix mit einer ersten und zweiten Matrixrichtung sind; wobei eine Vorschubrichtung zwischen zwei aufeinanderfolgenden Relativpositionen bei der Abtastung des Objekts einen Winkelversatz zu der ersten und/oder zweiten Matrixrichtung der Flächenkamera aufweist; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um zu extrahierende Sensorinformationen der wenigstens zwei Sensoraufnahmen basierend auf Sensorinformationen von Pixeln sowohl aus der ersten als auch aus der zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu extrahieren.
  8. Vorrichtung (100, 1200) gemäß Anspruch 7, wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um die extrahierten Sensorinformationen von Pixeln sowohl aus der ersten und zweiten Matrixrichtung, in Abhängigkeit des Winkelversatzes, zu interpolieren und/oder zu extrapolieren.
  9. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, mit einer Einrichtung (1240) zum Ermitteln der Sequenz von Sensoraufnahmen (280, 380) für unterschiedliche Stellen (211-215, 311-315, 612-616, 712-717) auf dem Objekt (210, 310, 710, 810, 1300) bei unterschiedlichen Relativpositionen zwischen der Lichtquelle (1242) und dem Objekt, wobei die Lichtquelle den Lichtstrahl mit dem Intensitätsprofil (220, 320, 720) aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen.
  10. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, mit einer Einrichtung (1230) zum Bestimmen der Höhe an der Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen.
  11. Vorrichtung (100, 1200) gemäß Anspruch 10, wobei die Einrichtung (1230) zum Bestimmen dazu ausgebildet ist, um die Höhe an der Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) unter Verwendung einer Information über eine charakteristische Eigenschaft des Intensitätsprofils (220, 320, 720) des Lichtstrahls zu bestimmen.
  12. Vorrichtung (100, 1200) gemäß einem der Ansprüche 10 bis 11, wobei die Sensoraufnahmen (280, 380) Messbilder einer Kamera mit Pixeln sind; und wobei die Einrichtung (1230) zum Bestimmen dazu ausgebildet ist, um eine charakteristische Stelle des Intensitätsprofils (220, 320, 720) basierend auf extrahierten Sensorinformationen der wenigstens zwei Sensoraufnahmen und basierend auf einer Information über eine charakteristische Eigenschaft des Intensitätsprofils des Lichtstrahls subpixelgenau zu bestimmen, und um die Höhe an der Stelle (213, 313, 600) des Objekts (210, 310, 710, 810, 1300) basierend auf der charakteristischen Stelle zu bestimmen.
  13. Vorrichtung (100, 1200) gemäß Anspruch 12, wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um die charakteristische Stelle basierend auf einem Center-of-Gravity-Verfahren, einem Polynomfit und/oder einer Extremwertauswertung der extrahierten Sensorinformationen zu bestimmen.
  14. Vorrichtung (100, 1200) gemäß einem der vorigen Ansprüche, wobei die Sequenz von Sensoraufnahmen (280, 380) auf einer sukzessiven Abtastung des Objekts (210, 310, 710, 810, 1300) mit dem Lichtstrahl basiert, wobei die Sensoraufnahmen Messbilder einer Flächenkamera mit einer Pixelmatrix oder einer Zeilenkamera mit einer Pixelzeile sind; wobei das Intensitätsprofil (220, 320, 720) im Wesentlichen symmetrisch ist; und wobei die Messbilder jeweils Sensorinformationen über Intensitäten des gestreuten Lichtstrahls an mehreren Stellen (211-215, 311-315, 612-616, 712-717) des Objekts aufweisen, welche auf einer Auswertung von jeweils mehreren Pixeln der Pixelmatrix oder Pixelzeile basieren; und wobei die Einrichtung (120, 1220) zum Kombinieren dazu ausgebildet ist, um Intensitätsinformationen von Pixeln, welche zu der Stelle (213, 313, 600) des Objekts gehören, aus den wenigstens zwei Sensoraufnahmen zu extrahieren, und um die Intensitätsinformationen entsprechend einer Reihenfolge der sukzessiven Abtastung und damit entsprechend einer Reihenfolge von Intensitäten des Intensitätsprofils des Lichtstrahls in einer Kombinationsaufnahme (290, 400, 490) so anzuordnen, dass die Intensitätsinformationen das im Wesentlichen symmetrische Intensitätsprofil des Lichtstrahls für die Stelle des Objekts abbilden.
  15. Verfahren (1000) zum Verbessern einer Höhenprofilmessung eines Objekts (210, 310, 710, 810, 1300), mit folgenden Merkmalen: Empfangen (1010) einer Sequenz von Sensoraufnahmen (280, 380) für unterschiedliche Stellen (211-215, 311-315, 612-616, 712-717) auf dem Objekt bei unterschiedlichen Relativpositionen zwischen einer Lichtquelle (1242) und dem Objekt, wobei die Lichtquelle einen Lichtstrahl mit einem Intensitätsprofil (220, 320, 720) aufweist, das breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen; und Kombinieren (1020) von wenigstens zwei Sensoraufnahmen der Sequenz von Sensoraufnahmen, wobei das Kombinieren der wenigstens zwei Sensoraufnahmen ein Erzeugen einer Kombinationsaufnahme (290, 400, 490) für die Stelle (213, 313, 600) des Objekts umfasst, wobei auf Basis der Kombinationsaufnahme (290, 400, 490) eine Höhe an der Stelle des Objekts bestimmbar ist, oder ein Auswerten von einzelnen Kombinationsergebnissen einer Kombination der wenigstens zwei Sensoraufnahmen und ein Ermitteln der Höhe des Objekts an der Stelle umfasst.
  16. Verfahren gemäß Anspruch 15, ferner umfassend Korrigieren eines örtlichen Versatzes einer ermittelten Höhe an der Stelle des Objekts basierend auf einer metrischen Kalibrierung.
  17. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 15 oder 16, wenn das Programm auf einem Computer abläuft.
  18. System (1100) zur Bestimmung einer Höheninformation eines Objekts (210, 310, 710, 810, 1300), mit folgenden Merkmalen: eine Vorrichtung (100, 1200) gemäß einem der Ansprüche 1 bis 14; eine Einrichtung (1240) zum Ermitteln der Sequenz von Sensoraufnahmen (280, 380), wobei die Einrichtung (1240) zum Ermitteln der Sequenz von Sensoraufnahmen die Lichtquelle (1242) aufweist, wobei die Lichtquelle dazu ausgebildet ist, um den Lichtstrahl mit dem Intensitätsprofil (220, 320, 720) bereitzustellen, wobei das Intensitätsprofil breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen, und wobei die Einrichtung zum Ermitteln der Sequenz von Sensoraufnahmen eine Sensoreinrichtung (1244) aufweist, die dazu ausgebildet ist, um die Sequenz von Sensoraufnahmen, basierend auf dem vom Objekt gestreuten Lichtstrahl zu erzeugen; und eine Vorschubeinrichtung (1400), die dazu ausgebildet ist, um die unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt einzustellen.
  19. Verfahren zur Bestimmung einer Höheninformation eines Objekts (210, 310, 710, 810, 1300), mit folgenden Merkmalen: einem Verfahren gemäß einem der Ansprüche 15 oder 16; Ermitteln der Sequenz von Sensoraufnahmen (280, 380) mit einer Lichtquelle, die den Lichtstrahl mit dem Intensitätsprofil (220, 320, 720) bereitstellt, wobei das Intensitätsprofil breiter ist als ein Abstand zweier unterschiedlicher, benachbarter Relativpositionen, und Erzeugen der Sequenz von Sensoraufnahmen, basierend auf dem vom Objekt gestreuten Lichtstrahl zu erzeugen; und Einstellen von unterschiedlichen Relativpositionen zwischen der Lichtquelle und dem Objekt.
DE102022211995.9A 2022-11-11 2022-11-11 Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen Pending DE102022211995A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022211995.9A DE102022211995A1 (de) 2022-11-11 2022-11-11 Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022211995.9A DE102022211995A1 (de) 2022-11-11 2022-11-11 Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen

Publications (1)

Publication Number Publication Date
DE102022211995A1 true DE102022211995A1 (de) 2024-05-16

Family

ID=91023695

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022211995.9A Pending DE102022211995A1 (de) 2022-11-11 2022-11-11 Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen

Country Status (1)

Country Link
DE (1) DE102022211995A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030117412A1 (en) 2001-12-21 2003-06-26 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
EP3433577B1 (de) 2016-03-22 2020-08-12 Fraunhofer Gesellschaft zur Förderung der Angewand Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030117412A1 (en) 2001-12-21 2003-06-26 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
EP3433577B1 (de) 2016-03-22 2020-08-12 Fraunhofer Gesellschaft zur Förderung der Angewand Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen

Similar Documents

Publication Publication Date Title
DE69826753T2 (de) Optischer Profilsensor
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE2833069A1 (de) Lasermessystem
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102010000473A1 (de) Verfahren zum Messen eines Objektes
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE69618913T2 (de) Eichung eines interaktiven Bürosystems
EP3433577B1 (de) Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen
DE102005054658A1 (de) Verfahren zur automatischen Paramentierung von Meßsystemen
WO2010025712A1 (de) Verfahren zur bewertung von messwerten eines optischen abstandssensors
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
EP3907466A1 (de) 3d-sensor und verfahren zur erfassung von dreidimensionalen bilddaten eines objekts
DE102006036586B4 (de) Lötnahtprüfung
EP1882232A1 (de) Verfahren und vorrichtung zum bestimmen von materialgrenzen eines prüfobjekts
DE10312535B4 (de) Verfahren und Vorrichtung zum geometrischen Vermessen eines Materialbandes
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
EP3711289A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE3941309A1 (de) Vorrichtung sowie verfahren zum messen eines objektes
DE4323293A1 (de) Verfahren und Abtastanordnung zur Identifizierung eines aus aufeinanderfolgenden hellen und dunklen Feldern bestehenden Codes
DE102022211995A1 (de) Vorrichtung, Verfahren und System zum Verbessern einer Höhenprofilmessung eines Objekts basierend auf einer Kombination von wenigstens zwei Sensoraufnahmen
DE102019201193A1 (de) Verfahren zur Detektion von topografischen Fehlern auf Oberflächen eines Bauteils
DE102019202452A1 (de) Röntgenuntersuchungsanordnung und Verfahren zum Betreiben einer Röntgenuntersuchungsanordnung
DE102014213289A1 (de) Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts
WO2019201836A1 (de) 3d-digitalisierungssystem und 3d-digitalisierungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication