DE102013212409A1 - Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung - Google Patents

Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung Download PDF

Info

Publication number
DE102013212409A1
DE102013212409A1 DE102013212409.0A DE102013212409A DE102013212409A1 DE 102013212409 A1 DE102013212409 A1 DE 102013212409A1 DE 102013212409 A DE102013212409 A DE 102013212409A DE 102013212409 A1 DE102013212409 A1 DE 102013212409A1
Authority
DE
Germany
Prior art keywords
line
cameras
light
pattern
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102013212409.0A
Other languages
English (en)
Inventor
Wolfram Schmidt
Bernd Michaelis
Robert Wagner
Tilo Lilienblum
Erik Lilienblum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inb Vision Ag De
Original Assignee
INB Vision AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INB Vision AG filed Critical INB Vision AG
Priority to DE102013212409.0A priority Critical patent/DE102013212409A1/de
Publication of DE102013212409A1 publication Critical patent/DE102013212409A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • G06K7/10732Light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Abstract

Ein Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts nutzt mindestens eine Zeilenkamera zum Scannen der Oberfläche, wobei die Oberfläche strukturiert beleuchtet wird und wobei eine zeitliche und/oder räumliche Auswertung aufgenommener Bilder ggf. unter Berücksichtigung einer Relativbewegung zwischen der Zeilenkamera und der Oberfläche zur Rekonstruktion der Oberfläche erfolgt. Eine Vorrichtung zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts nutzt das Verfahren.

Description

  • Die Erfindung betrifft ein Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts sowie eine entsprechende Vorrichtung, vorzugsweise zur Nutzung des Verfahrens. Der Begriff „strukturierte Oberfläche“ ist im weitesten Sinne zu verstehen und umfasst neben planen Flächen auch dreidimensionale Oberflächen, beispielsweise geformte Oberflächen und Oberflächen mit Textur. Der Begriff „Bilderfassung“ ist im Sinne von „Bild- und Formerfassung“ zu verstehen, insbesondere im Sinne einer 3D-Erfassung.
  • Bei dem erfindungsgemäßen Verfahren handelt es sich grundsätzlich um ein optisches Messverfahren. Solche optischen Messverfahren gewannen in den letzten Jahren an Bedeutung. Besonders im Nahbereich hat die 3D-Messtechnik als besonderes Messverfahren einen hohen Entwicklungsstand erreicht.
  • Bekannt ist eine Vielzahl von Verfahren zur Oberflächenvermessung, die in unterschiedlichsten Applikationen eingesetzt werden. Für die flächenhafte 3D-Vermessung mit hoher Präzision sind neben unterschiedlichen Laserscannverfahren [S. Son, H. Park, K. H. Lee: Automated laser scanning system for reverse engineering and inspection. International Journal of Machine Tools and Manufacture, Volume 42, Issue 8, June 2002, Seiten 889–897] und dem Lichtschnitt [Shirai, Yoshiaki und Motoi Suwa: Recognition of Polyhedrons with a Range Finder. In: Cooper, D. C. (Herausgeber): Proceedings of the 2nd International Joint Conference on Artificial Intelligence, (London, UK, September, 1971), Conference Proceedings, Seiten 80–87, 1971] vor allem photogrammetrische Mehrschrittverfahren mit aktiver Streifenprojektion, wie das Phaseshifting [Lilienblum E., Michaelis, B.: Optical 3d surface reconstruction by a multi-period phase shift method. Journal of Computers (JCP), 2(2):73–83, April 2007] oder die Zeitkorrelation [Albrecht, Peter; Michaelis, Bernd: Improvement of the Spatial Resolution of an Optical 3-D Measurement Procedure. In: IEEE Transactions on Instrumentation and Measurement Bd. 47. Brisbane, 1998, S. 158–162] sowie Einschrittverfahren, wie die Flächenkorrelation [Kanade, T.; Okutomi, M.: A stereo matching algorithm with an adaptive window: theory and experiment. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 16 (1994), Nr. 9, S. 920–932] bekannt.
  • Grundlage zum Erreichen hoher Messgenauigkeiten ist im Allgemeinen die Verwendung strukturierten Lichts [Valkenburg, R. J.; McIvor, A. M.: Accurate 3d measurement using a structured light system. In: Image and Vision Computing 16 (1998), Nr. 2, S. 99–110]. Mehrschrittverfahren erreichen räumliche Genauigkeiten von bis zu 1/10000 der Messobjektgröße [Wiora, G.:Optische 3D-Messtechnik: Präzise Gestaltvermessung mit einem erweiterten Streifenprojektionsverfahren, University Heidelberg, Dissertation, 2001]. Der aktuelle Markt der Streifenprojektionssysteme ist durch mehrere Systemhersteller und eine Vielzahl von Produkten gekennzeichnet. Es existiert auch eine Reihe von Druckschriften, die die zuvor genannten klassischen Stereo-Vision-Systeme betreffen. Lediglich beispielhaft seien dazu die DE 197 38 480 C1 , DE 44 02 414 C2 und DE 199 28 341 C2 genannt. Diesen Systemen ist gemein, dass sie Matrixkamerasysteme und Projektoren bzw. Lasertechnik zur Erzeugung des Beleuchtungslichts verwenden.
  • Um größere Flächen bei gleich bleibendem Anspruch an die Genauigkeit zu vermessen, müssen bei allen bekannten, auf der Verwendung Matrixkameras basierenden Systemen mehrere Messaufnahmen nacheinander durchgeführt werden. Für ausgewählte Anwendungen ist hierfür eine robotergestützte Messtechnik verfügbar. Im Allgemeinen wird einfache Translation und Rotation mit entsprechenden Vorrichtungen genutzt. Unabhängig von der eingesetzten Methode entstehen Probleme insbesondere dann, wenn es sich um große Teile bzw. Flächen handelt. Für jede Messaufnahme muss die Bewegung des Aufnahmesystems gestoppt werden (Stopp-and-Go-Betrieb). Die Stopp-and-Go Problematik führt bedingt durch das unvermeidliche Ausschwingen des Aufnahmesystems zu einer erheblichen Zeitverzögerung. Außerdem erhöhen die Start- und Stoppvorgänge die Standzeit bzw. reduzieren die Start- und Stoppvorgänge die Haltbarkeit/Lebensdauer der 3D-Messtechnik und führen zu einer erhöhten Abnutzung aller mechanischen Komponenten. Desweiteren treten Probleme durch Vignettierung und spekulare Reflektion auf. Für einen industriellen Einsatz ist die existierende Technik nur bedingt geeignet.
  • Ein weiterer Nachteil bei bekannten mehrschrittigen Verfahren (z.B. Phasenshift oder Zeitkorrelation), die auf dem Einsatz von Matrixkameras basieren, ist die hohe Integrations- und Auslesezeit bei der Bildaufnahme. Dies führt im Allgemeinen zu Messzeiten von über 50 ms, wodurch insbesondere bei Schwingungen der Messobjektoberfläche von über 10 Hz in Abhängigkeit zur Schwingungsamplitude erhebliche systematische Messfehler auftreten. Dies ist insbesondere im industriellen Produktionsprozess, z.B. in einem Presswerk oder bei der Messung von Endlosmaterialien, problematisch.
  • Der vorliegenden Erfindung liegt nun die Aufgabe zugrunde, ein Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts anzugeben, wonach bei reproduzierbarer Genauigkeit in kürzester Zeit eine Oberflächenaufnahme möglich ist. Das Verfahren soll sich vor allem auch zur Anwendung bei Endlosmessungen eignen. Ebenso ist eine entsprechende Vorrichtung anzugeben.
  • Die voranstehende Aufgabe ist durch die Merkmale der nebengeordneten Patentansprüche 1 und 19 gelöst.
  • Das erfindungsgemäße Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts gemäß Patentanspruch 1 nutzt mindestens eine Zeilenkamera zum Scannen der Oberfläche. Die Oberfläche wird strukturiert beleuchtet. Es erfolgt eine zeitliche und/oder räumliche Auswertung aufgenommener Bilder ggf. unter Berücksichtigung einer Relativbewegung zwischen der Zeilenkamera und der Oberfläche zur Rekonstruktion der Oberfläche.
  • Die erfindungsgemäße Vorrichtung löst die voranstehende Aufgabe durch die Merkmale des nebengeordneten Patentanspruchs 19, wonach mindestens eine Zeilenkamera und mindestens eine Lichtquelle zur strukturierten Beleuchtung der Oberfläche dient.
  • Neuartig an der vorliegenden Erfindung ist die Konstruktion eines aktiven optischen 3D-Messsystems mit Zeilenkameras. Die Erfindung basiert auf der Konstruktion eines speziellen Zeilenkamerasystems zur Bilderfassung bei statischer oder zeitveränderlicher Projektion geeigneter Lichtmuster. Grundlage zur Oberflächenrekonstruktion ist die zeitabhängige Definition einer Abbildungsfunktion, die unter Berücksichtigung der räumlichen Bewegungen von Kamera und Messobjekt für jeden erfassten Bildpunkt einen Sehstrahl im Messvolumen liefert. Zur Definition der Abbildungsfunktion ist eine spezielle Kalibrierung für Zeilenkameras erforderlich. Dies basiert z.B. auf einem Kalibrierfeld mit nicht parallel zur Zeile angeordneten Linien, mit unterschiedlichem Winkel auf unterschiedlichen Höhen, aus denen u.a. die geometrische Position der Kamera ermittelbar ist. Hierzu sei angemerkt, dass durch Aufnahme des Kalibrierfeldes in unterschiedlichen Positionen durch die Zeilenkameras die Linien an charakteristischen Punkten im Kamerabild erscheinen. Aus diesen Punkten kann sowohl eine zeitabhängige als auch eine statische Definition abgeleitet werden.
  • Unter Verwendung dieser Definition können durch räumliche oder zeitliche Auswertung der aufgenommenen Bilder korrespondierende Bildpunkte gefunden werden, die zusammen mit der zeitabhängigen Abbildungsfunktion eine Triangulation von 3D-Oberflächenpunkten ermöglichen. Geeignete Algorithmen zur Suche der korrespondierenden Bildpunkte können sehr unterschiedlich sein. Sie hängen ab von der Konstruktion des Kamerasystems, von der Bewegung des Kamerasystems, von der Bewegung des Messobjektes und von der Anzahl und Art der projizierten Muster.
  • Für bestimmte Anwendungen bietet der Einsatz von Zeilenkameras mit strukturierter Beleuchtung für die 3D-Vermessung von Oberflächen im Vergleich zu anderen Messverfahren erhebliche Vorteile. Die strukturierte Beleuchtung macht das Messverfahren unabhängig von einer Textur auf der Objektoberfläche. Damit unterscheidet sich das Verfahren von passiven Ansätzen, also von Verfahren ohne strukturierte Beleuchtung. Die Verwendung von Zeilenkameras anstelle von Matrixkameras ermöglicht es, die Oberfläche abzuscannen. Dies erlaubt die Anwendung auf Endlosprozesse bei sich kontinuierlich bewegenden Oberflächen z.B. bei Bandmaterial, sowie die effiziente Vermessung rotationssymetrischer Teile, z.B. Wellen oder sich drehende Objekte wie bei der Vermessung von Seitenwänden von Reifen.
  • Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die den Patentansprüchen 1 und 19 nachgeordneten Patentansprüche und andererseits auf die nachfolgende Erläuterung bevorzugter Ausführungsbeispiele der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung der bevorzugten Ausführungsbeispiele der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigen
  • 1 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel der grundsätzlichen Anordnung einer erfindungsgemäßen Vorrichtung, die das erfindungsgemäße Verfahren nutzt, am Beispiel eines Kamerasystems mit zwei Zeilenkameras,
  • 2 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel der grundsätzlichen Anordnung einer erfindungsgemäßen Vorrichtung, die das erfindungsgemäße Verfahren nutzt, am Beispiel eines Kamerasystems mit mehreren Zeilenkameras,
  • 3 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung mit parallel angeordneten, programmierbaren Projektoren als Lichtquellen,
  • 4 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung mit parallel angeordneten statischen Projektoren als Lichtquellen,
  • 5 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung, wobei dort die Lichtmuster durch Lichtspots erzeugt werden,
  • 6 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung, wobei dort ein einzelner Lichtspot generiert wird,
  • 7 in einer schematischen Ansicht, teilweise, ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung, wobei dort unter Anordnung mehrerer Reihen von Lichtspots überdeckende Lichtspotmuster erzeugt werden, und
  • 8 in einer schematischen Ansicht ein insgesamt dargestelltes Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung, wobei dort ein Sensorsystem mit Spotbeleuchtung vorgesehen ist.
  • Die 1 bis 8 zeigen unterschiedliche Ausgestaltungen der erfindungsgemäßen Lehre, einerseits in Bezug auf die erfindungsgemäße Vorrichtung und andererseits in Bezug auf das erfindungsgemäße Verfahren. Wesentlich ist hierbei, dass zur Bilderfassung einer Oberfläche eines Objekts (es kann sich dabei um eine glatte Oberfläche oder aber auch um eine strukturierte 3D-Oberfläche bzw. Oberfläche mit Textur handeln) mindestens eine Zeilenkamera verwendet wird, nämlich zum Scannen der Oberfläche des Objekts. Die Oberfläche wird strukturiert beleuchtet. Es findet eine zeitliche und räumliche Auswertung der aufgenommenen Bilder unter Berücksichtigung einer Relativbewegung zwischen der Zeilenkamera und der Oberfläche statt, nämlich zum Zwecke der bildhaften und/oder dimensionellen Rekonstruktion der Oberfläche.
  • Die Effizienz des Verfahrens bezüglich Rechenzeit und Messgenauigkeit hängt entscheidend von der Konstruktion des Kamerasystems ab. Bei Verwendung von Systemen mit zwei oder mehreren Kameras ist es von Vorteil, die Kameras kollinear auszurichten, wie es in den 1 und 2 beispielhaft dargestellt ist. Die Projektionszentren 1 und die Sensorzeilen 2 aller im System befindlichen Zeilenkameras spannen dabei eine gemeinsame Ebene auf. Korrespondierende Bildpunkte, d.h. Pixel, die denselben Oberflächenpunkt 3 abbilden, werden durch die kollineare Ausrichtung immer zum selben Zeitpunkt erfasst. Bei gleicher Zeilenfrequenz und gleicher Startzeit aller Kameras befinden sich korrespondierende Bildpunkte immer in der gleichen Bildzeile. Hierdurch lassen sich die Algorithmen zur Suche korrespondierender Bildpunkte erheblich vereinfachen. Bei zeitveränderlicher Projektion von Lichtmustern ermöglicht dies außerdem, die zeilenweise Änderung der Lichtmuster in zwei Kameras miteinander ortsgebunden zu korrelieren. Hierfür werden Grauwertfolgen einzelner Bildspalten mit bekannten Korrelationsfunktionen ausgewertet. Abweichungen von der Kollinearität des Kamerasystems führen entweder zu Messfehlern oder sie müssen im Algorithmus zur Suche korrespondierender Punkte separat berücksichtigt werden.
  • Zur kollinearen Ausrichtung ist es möglich, mit den Kameras ein geeignetes gemeinsames Muster aufzunehmen. Durch iterative Anpassung der Kameraorientierung werden die Kameras so eingestellt, dass beide Kameras das Muster an der gleichen Position aufnehmen. Das Muster muss eine eindeutige Charakteristik senkrecht zur Zeilenrichtung haben. Die Oberfläche, auf der sich das Muster befindet, sollte eine dreidimensionale Ausprägung besitzen. Ein solches Muster kann durch aktive Beleuchtung oder Textur auf dem aufgenommenen Objekt erzeugt werden. Für die Ausrichtung kann auch das Kalibrierfeld verwendet werden.
  • Eine konkrete Möglichkeit zur Suche korrespondierender Bildpunkte bei zeitveränderlicher Projektion von Lichtmustern und kollinearer Ausrichtung der Kameras besteht darin, die mittelwertfreie Kreuzkorrelation anzuwenden. Es seien G und G‘ zwei verschiedene Bilder des Zeilenkamerasystems und es seien ri = G(u, v + i) und si = G'(u', v + i) Grauwerte dieser Bilder wobei u und u' bei entsprechender horizontaler Subpixelinterpolation auch reellwertig sein dürfen. Dann ergibt sich bei n unterschiedlichen Musterprojektionen mit
    Figure DE102013212409A1_0002
    ein Korrelationskoeffizient, der die Ähnlichkeit der Pixel G(u, v ) und G'(u', v ) angibt (mit r , s und v sind die jeweiligen Mittelwerte bezeichnet). Die beiden Pixel sind genau dann korrespondierende Bildpunkte wenn der Korrelationskoeffizent maximal wird. Durch Triangulation kann daraus direkt ein Tiefenwert in Bezug auf des Kamerasystem berechnet werden. Eine vertikale Subpixelinterpolation kann wegen der Kollinearität der Kameras entfallen.
  • Bei sinusförmigen Lichtmustern kann im Rahmen eines weiteren Ausführungsbeispiels der Korrelationskoeffizient auch über die Phasenverschiebung entsprechend der Verwendung beim Phasenshiftverfahren berechnet werden. Es sei der Phasenwinkel für eine Grauwertfolge q = (q1, q2, ..., qn) mit
    Figure DE102013212409A1_0003
    definiert. Dann ergibt sich unter Berücksichtigung der Phasensprünge der gesuchte Korrelationskoeffizient mit K(u, u', v) = 1 / 2πmax{|φ(s) – φ(r)|,2π – |φ(s) – φ(r)|}
  • Um für die Oberflächenrekonstruktion eine maximale laterale Auflösung (Flächenauflösung) zu gewährleisten, sollte die Scanngeschwindigkeit bzw. die Zeilenfrequenz so gewählt werden, dass die vertikale Auflösung (in Scanrichtung) in etwa dem n-fachen der horizontale Auflösung (in Zeilenrichtung) entspricht. Dadurch wird gewährleistet, dass sich die ortliche Scannposition verglichen mit der Pixelgröße über alle ri bzw. si nicht wesentlich ändert.
  • Prinzipiell ist das erfindungsgemäße Messverfahren mit jeder Art von strukturiertem Licht anwendbar. Allerdings ist die Messgeschwindigkeit von der Zeilenfrequenz und damit von der Lichtintensität sowie der Projektion schnell wechselnder Mustersequenzen abhängig. Als weitere Ausführung wird zur strukturierten Beleuchtung eine dezentrale Musterprojektion in drei unterschiedlichen Varianten wie folgt vorgeschlagen:
    • (i) Es werden mehrere programmierbare Musterprojektoren 5 parallel betrieben, wie das in 3 dargestellt ist. Durch Überlagerung und eine geringe Vergrößerung kann die Lichtintensität der projizierten Muster auf der Objektoberfläche 4 gesteigert werden. Um eine hohe Messgeschwindigkeit zu erreichen müssen die programmierbaren Projektoren 5 in der Lage sein, entsprechend schnelle Musterfolgen zu generieren.
    • (ii) Es werden mehrere statische Musterprojektoren parallel betrieben. Im Unterschied zu (i) werden hier unterschiedliche Lichtmuster durch an- bzw. abschalten einzelner Projektoren erzeugt. In 4 wird das Lichtmuster 4 auf der Objektoberfläche durch einige eingeschaltete Projektoren 6 erzeugt. Alle anderen Projektoren 7 sind ausgeschaltet, erzeugen also kein Lichtmuster. Werden die Projektoren 6 ausgeschaltet und dafür von den anderen Projektoren 7 einige eingeschaltet, dann können andere Muster generiert werden. Um eine hohe Messgeschwindigkeit zu erreichen, müssen die Projektoren entsprechend schnell schaltbar sein.
    • (iii) Die benötigten Muster werden aus einzelnen Lichtspots zusammengesetzt. In 5 ist eine Beleuchtung 8 dargestellt, die aus einer Anzahl von Lichtspots 9 ein Lichtmuster 10 auf der Messobjektoberfäche 11 erzeugt. Prinzipiell ist die Konstruktion nicht an die Art der Spoterzeugung gebunden.
  • In 6 ist als Ausführungsbeispiel dargestellt, wie die Erzeugung eines LED-Lichtspots erfolgen kann, wobei das Licht einer LED 12 über einen Reflektor 13 und eine Optik 14 auf einen einzelnen Lichtspot 9 fokussiert wird.
  • Um verschieden positionierte Muster zu erzeugen, können mehrere Lichtspotstränge 15 leicht versetzt nebeneinander angeordnet werden, wie das in 7 dargestellt ist. Auf der Objektoberfläche entstehen dann Lichtmuster 10 durch Anschalten einzelner Spots 16 bzw. Abschalten einzelner Lichtspots 17. Um eine Fokussierung der Lichtspots auf eine Linie zu erhalten, werden die Lichtspotstränge 15 ggf. leicht nach innen verdreht, wie das in 8 zu sehen ist. Dargestellt ist hier beispielhaft ein Sensor mit Zeilenkameras 18, Lichtspotsträngen 15, Messobjektoberfläche 19 und Scanbewegung 20.
  • Durch die vorgeschlagene Technik zur dezentralen Musterprojektion ist es möglich, dass System durch hinzufügen weiterer Kameras wie in 2 dargestellt, sowie entsprechende Beleuchtungssysteme, wie in den 35 dargestellt, in der Breite beliebig zu skalieren. Auf diese Art können die Erfordernisse bezüglich Messvolumen, Messauflösung und Messgeschwindigkeit des Verfahrens für viele 3D-Applikationen angepasst werden, ohne den Verfahrensansatz ändern zu müssen.
  • Mit allen drei Varianten zu Beleuchtung lässt sich das Messverfahren bei sehr hohen Zeilenfrequenzen betreiben, woraus sich neben der reinen Messgeschwindigkeit ein weiterer Vorteil ergibt. Durch eine kurze Integrationszeit, die sich bei hoher Zeilenfrequenz zwangsläufig ergibt, kann Bewegungsunschärfe auch bei sich schnell bewegenden Messobjekten weitgehend vermieden werden. Dadurch lässt sich z.B. auch die Oberfläche von Objekten auf laufenden Förderbändern sehr gut erfassen. Auch Messfehler bei Schwingungen können weitgehend vermieden werden, da eine Bewegungsunschärfe sich erst bei einer entsprechend hohen Frequenzen der Messobjektoberfläche bemerkbar machen kann. Bei hohen Frequenzen ist allerdings im Allgemeinen die Amplitude der Schwingung so gering dass sie keine Auswirkungen mehr auf die Messgenauigkeit hat. Das ist ein wesentlicher Unterschied zu bekannten mehrschrittigen Verfahren mit Matrixkameras.
  • Neben den drei genannten Varianten zur Beleuchtung sind auch andere Konstruktionen möglich. Dynamische Lichtmuster können auch durch die Projektion über bewegte Spiegel generiert werden. Die Muster können auch mit Hilfe spezieller Lichtquellen, z.B. mit Lasern, erzeugt werden. Des Weiteren ist zu bemerken, dass die Musterfolgen nicht reproduzierbar sein müssen. Die Generierung der Muster kann auch über stochastische Verfahren erfolgen. Beispielsweise können Muster durch Ausnutzung der Eigentextur der Beleuchtungsquelle oder durch Artefakte der Beleuchtungsquelle selbst oder im Projektionsprozess erzeugt werden. Im optischen Messverfahren muss das entsprechend berücksichtigt werden.
  • Das Messverfahren lässt sich prinzipiell auch mit nur einer Kamera anwenden, wobei dann aber eine spezielle Kalibrierung der Beleuchtung erforderlich ist. Eine Möglichkeit zur Kalibrierung ist es, die Form der Lichtmuster in Abhängigkeit ihrer räumlichen Position zu erfassen und in einer Lookup-Tabelle abzulegen. Bei der eigentlichen Messung wird dann aus der erfassten Form der Lichtmuster über die Lookup-Tabelle auf die Tiefeninformation geschlossen.
  • Weitere Möglichkeiten zur Anwendung des Messverfahrens bieten Konstruktionen mit Strahlteileroptik. Hierbei wird der Strahlengang bei der Bilderfassung so manipuliert, dass das Bild einer Kamera über verschiedene reale oder virtuelle Projektionszentren 1 entsteht, und so eine Triangulation zur Berechnung von 3D-Punkten ermöglicht wird.
  • Das Verfahren lässt sich auch im Sinne deflektometrischer Messprinzipien einsetzen. Dabei wird die Beleuchtung so eingesetzt, dass der spekulare Anteil der Reflektion auf der Oberfläche von den Kameras aufgenommen wird und die Grundlage zur 3D-Oberflächenrekonstruktion liefert.
  • Für deflektometrische Anwendungen kann ferner das Muster zunächst auf eine diffus reflektierende Oberfläche (z.B. Mattscheibe, Leinwand) projiziert werden und anschließend das Spiegelbild dieser beleuchteten Hilfsoberfläche auf der Objektoberfläche indirekt durch die Kameras aufgenommen und ausgewertet werden.
  • Zusammenfassend gilt es festzuhalten, dass die Erfindung eine Vorrichtung und ein Verfahren betrifft, wonach durch berührungsloses Abscannen von Oberflächen die 3D-Form (Relief, Struktur, Textur, etc.) der Oberfläche zeilenweise rekonstruiert werden kann. Eingesetzt wird die Erfindung insbesondere in Bereichen, in denen die Notwendigkeit besteht, große Oberflächen mit hoher Genauigkeit und hoher Geschwindigkeit in Form und Textur zu erfassen. Insbesondere eignet sich die Erfindung zur Anwendung im Bereich der Oberflächenprüftechnik. Durch einen kontinuierlichen Scannprozess ist es möglich, bei einem entsprechenden Produktionsprozess eine Endlosprüfung im Echtzeitbetrieb durchzuführen. Des Weiteren kann durch eine Verkettung mehrerer Zeilenkameras die Messeinrichtung auf beliebige Scannbreiten skaliert werden.
  • Hinsichtlich weiterer vorteilhafter Ausgestaltungen der erfindungsgemäßen Lehre sei zur Vermeidung von Wiederholungen auf den allgemeinen Teil der Beschreibung sowie auf die beigefügten Patentansprüche verwiesen.
  • Schließlich sei ausdrücklich darauf hingewiesen, dass die voranstehend beschriebenen Ausführungsbeispiele der erfindungsgemäßen Lehre lediglich zur Erörterung der beanspruchten Lehre dienen, diese jedoch nicht auf die Ausführungsbeispiele einschränken.
  • Bezugszeichenliste
  • 1
    Projektionszentrum
    2
    Sensorzeile
    3
    Oberflächenpunkt
    4
    Lichtmuster, Objektoberfläche
    5
    programmierbarer Projektor
    6
    Projektoren (eingeschaltet)
    7
    Projektoren (ausgeschaltet)
    8
    Beleuchtung
    9
    Lichtspot
    10
    Lichtmuster
    11
    Messobjektoberfläche
    12
    LED
    13
    Reflektor
    14
    Optik
    15
    Lichtspotstrang
    16
    Spot (eingeschaltet)
    17
    Spot (ausgeschaltet)
    18
    Zeilenkamera
    19
    Messobjektoberfläche
    20
    Scanbewegung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19738480 C1 [0004]
    • DE 4402414 C2 [0004]
    • DE 19928341 C2 [0004]
  • Zitierte Nicht-Patentliteratur
    • S. Son, H. Park, K. H. Lee: Automated laser scanning system for reverse engineering and inspection. International Journal of Machine Tools and Manufacture, Volume 42, Issue 8, June 2002, Seiten 889–897 [0003]
    • Shirai, Yoshiaki und Motoi Suwa: Recognition of Polyhedrons with a Range Finder. In: Cooper, D. C. (Herausgeber): Proceedings of the 2nd International Joint Conference on Artificial Intelligence, (London, UK, September, 1971), Conference Proceedings, Seiten 80–87, 1971 [0003]
    • Lilienblum E., Michaelis, B.: Optical 3d surface reconstruction by a multi-period phase shift method. Journal of Computers (JCP), 2(2):73–83, April 2007 [0003]
    • Albrecht, Peter; Michaelis, Bernd: Improvement of the Spatial Resolution of an Optical 3-D Measurement Procedure. In: IEEE Transactions on Instrumentation and Measurement Bd. 47. Brisbane, 1998, S. 158–162 [0003]
    • Kanade, T.; Okutomi, M.: A stereo matching algorithm with an adaptive window: theory and experiment. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 16 (1994), Nr. 9, S. 920–932 [0003]
    • Valkenburg, R. J.; McIvor, A. M.: Accurate 3d measurement using a structured light system. In: Image and Vision Computing 16 (1998), Nr. 2, S. 99–110 [0004]
    • Wiora, G.:Optische 3D-Messtechnik: Präzise Gestaltvermessung mit einem erweiterten Streifenprojektionsverfahren, University Heidelberg, Dissertation, 2001 [0004]

Claims (26)

  1. Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts, unter Verwendung mindestens einer Zeilenkamera zum Scannen der Oberfläche, wobei die Oberfläche strukturiert beleuchtet wird und wobei eine zeitliche und/oder räumliche Auswertung aufgenommener Bilder ggf. unter Berücksichtigung einer Relativbewegung zwischen der Zeilenkamera und der Oberfläche zur Rekonstruktion der Oberfläche erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die strukturierte Beleuchtung eine statische oder zeitveränderliche Projektion von Lichtmustern auf die Oberfläche umfasst.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die strukturierte Beleuchtung von mehreren Lichtquellen, vorzugsweise von Musterprojektoren, erzeugt wird, die parallel zueinander angeordnet sind, wobei einzelne Lichtmuster einander überlagern können.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass den Lichtquellen eine optische Einrichtung nachgeordnet ist, die eine Konstanz der Lichtmuster über einen vorzugsweise definierbaren Tiefenbereich hinweg gewährleistet.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass statische Lichtmuster projiziert werden, wobei unterschiedliche Lichtmuster durch vorzugsweise schnelles Ein- und Ausschalten der Lichtquellen bzw. Musterprojektoren, d.h. durch unterschiedliche Überlagerungen der einzelnen Lichtmuster, erzeugt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Lichtmuster und/oder die zeitliche Folge der Lichtmuster programmierbar ist.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die strukturierte Zeilenbeleuchtung aus einzelnen LED-Spots zusammengesetzt wird, wobei unterschiedliche Lichtmuster durch vorzugsweise direktes Ansteuern der einzelnen LEDs generiert werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Aufnahme der Oberfläche zeilenweise bei wechselnder Musterprojektion erfolgt, so dass sich für jeden aufgenommenen Bildpunkt (Pixel) spezifische Grauwertfolgen ergeben, die photogrammetrisch auswertbar sind.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass korrespondierende Bildpunkte über eine Korrelationsfunktion anhand der spezifischen Grauwertfolgen auffindbar sind.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Korrelation der Grauwertfolgen in Kombination mit einem Phasenshift-Algorithmus angewandt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Oberfläche über eine einzige Zeilenkamera aufgenommen wird, wobei entweder eine Template-Grauwertfolge oder der Phasenwinkel eines Phasenshift-Algorithmus zur Rekonstruktion der Oberfläche dient.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass zur Rekonstruktion der Oberfläche eine Abbildungsfunktion dient, die unter Berücksichtigung der Relativbewegung der Zeilenkamera und/oder des Objekts für jedes Bild bzw. für jeden Bildpunkt einen Sehstrahl im Messvolumen liefert.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Abbildungsfunktion zeitabhängig definiert wird.
  14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass anhand einer zeitlichen und/oder räumlichen Auswertung der einzelnen Bilder über Algorithmen korrespondierende Bildpunkte ermittelt werden, die gemeinsam mit der Abbildungsfunktion eine Triangulation von Oberflächenpunkten ermöglichen.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Zeilenkameras derart angeordnet und ausgerichtet werden, dass die Projektionszentren und die Sensorzeilen aller Zeilenkameras eine gemeinsame Ebene aufspannen, wobei dazu mit den Kameras ein geeignetes gemeinsames Muster, bspw. das Kalibrierfeld, aufgenommen werden kann und wobei durch iterative Anpassung der Kameraorientierung die Kameras so eingestellt werden können, dass beide Kameras das Muster an der gleichen Position aufnehmen.
  16. Verfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass korrespondierende Bildpunkte, d.h. Pixel, die denselben Oberflächenpunkt abbilden, aufgrund einer kolinearen Ausrichtung der Zeilenkameras zum gleichen Zeitpunkt erfasst werden.
  17. Verfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass bei gleicher Zeilenfrequenz und gleichem Startzeitpunkt der Zeilenkameras die korrespondierenden Bildpunkte sich in der gleichen Bildzeile befinden. Verf
  18. ahren nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass bei zeitveränderlicher Projektion von Lichtmustern eine zeilenweise Änderung der Lichtmuster in zwei Zeilenkameras ortsgebunden korreliert.
  19. Verfahren nach einem der Ansprüche 14 bis 18 gekennzeichnet durch die Anwendung deflektometrischer Messprinzipien, wobei dabei die Beleuchtung so einsetzbar ist, dass der spekulare Anteil der Reflektion auf der Oberfläche von den Kameras aufgenommen wird und die Grundlage zur Bilderfassung liefert.
  20. Verfahren nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, dass die Beleuchtung ggf. unter Hinzunahme zusätzlicher streuender (Hilfs-)Oberflächen so eingesetzt wird, dass der spekulare Anteil der Reflexion auf der aufzunehmenden Objektoberfläche von den Kameras erfasst wird und die Grundlage zur Bilderfassung liefert.
  21. Verfahren nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass die Lichtmuster durch die Projektion über bewegte Spiegel, mit Hilfe spezieller Lichtquellen wie beispielsweise Laser, oder durch stochastische Verfahren erzeugt werden.
  22. Vorrichtung zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts, insbesondere zur Anwendung des Verfahrens nach einem der Ansprüche 1 bis 21, mit mindestens einer Zeilenkamera und mindestens einer Lichtquelle zur strukturierten Beleuchtung der Oberfläche, wobei eine zeitliche und/oder räumliche Auswertung aufgenommener Bilder ggf. unter Berücksichtigung einer Relativbewegung zwischen der Zeilenkamera und der Oberfläche zur Rekonstruktion der Oberfläche erfolgt.
  23. Vorrichtung nach Anspruch 22, dadurch gekennzeichnet, dass zwei, drei oder mehrere Zeilenkameras ein Kamerasystem bilden.
  24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, dass die Kameras kolinear bzw. coplanar ausgerichtet sind.
  25. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, dass die Zeilenkameras derart angeordnet und ausgerichtet sind, dass die Projektionszentren und die Sensorzeilen aller Zeilenkameras eine gemeinsame Ebene aufspannen.
  26. Vorrichtung nach einem der Ansprüche 22 bis 25, dadurch gekennzeichnet, dass zur Erzeugung der strukturierten Beleuchtung Laser oder LED-Elemente verwendet werden.
DE102013212409.0A 2012-06-29 2013-06-27 Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung Ceased DE102013212409A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013212409.0A DE102013212409A1 (de) 2012-06-29 2013-06-27 Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012211381 2012-06-29
DE102012211381.9 2012-06-29
DE102013212409.0A DE102013212409A1 (de) 2012-06-29 2013-06-27 Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung

Publications (1)

Publication Number Publication Date
DE102013212409A1 true DE102013212409A1 (de) 2014-03-13

Family

ID=49054180

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013212409.0A Ceased DE102013212409A1 (de) 2012-06-29 2013-06-27 Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung

Country Status (5)

Country Link
US (1) US10869020B2 (de)
EP (1) EP2753896B1 (de)
CN (1) CN104583713B (de)
DE (1) DE102013212409A1 (de)
WO (1) WO2014000738A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017005254A1 (de) 2015-07-09 2017-01-12 Inb Vision Ag Vorrichtung und verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts
DE102016119819B3 (de) * 2016-10-18 2017-05-04 Otto-Von-Guericke-Universität Magdeburg Vorrichtung und Verfahren zur optischen Vermessung von dreidimensionalen Oberflächen

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015208285A1 (de) 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
TWM526763U (zh) * 2015-11-27 2016-08-01 高準精密工業股份有限公司 發光裝置
MX2018006046A (es) * 2015-12-16 2018-09-12 Pirelli Metodo y aparato para revisar neumaticos.
WO2018022130A1 (en) * 2016-07-27 2018-02-01 Scannmen Ltd. Hybrid 3d optical scanning system
WO2018044265A1 (en) * 2016-08-30 2018-03-08 Empire Technology Development Llc Joint attention estimation using structured light
AU2019212751A1 (en) * 2018-01-26 2020-09-03 Vehicle Service Group, Llc Vehicle surface scanning system
CN108873363B (zh) * 2018-09-06 2023-11-17 深圳技术大学(筹) 基于结构光标记的三维光场成像系统及方法
WO2020127828A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, vermessungssystem und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche unter verwendung zweier spiegelungsmuster
JP7256368B2 (ja) * 2019-02-06 2023-04-12 ミツミ電機株式会社 測距カメラ
US11574395B2 (en) 2020-11-25 2023-02-07 Vehicle Service Group, Llc Damage detection using machine learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4402414C2 (de) 1993-01-28 1997-10-23 Oesterr Forsch Seibersdorf Verfahren und Vorrichtung zur dreidimensionalen Vermessung der Oberfläche von Gegenständen
DE19738480C1 (de) 1997-09-03 1998-11-26 Bernward Maehner Verfahren und Einrichtung zur optischen Vermessung von Objekten
DE19928341C2 (de) 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4687325A (en) 1985-03-28 1987-08-18 General Electric Company Three-dimensional range camera
JPH0726828B2 (ja) 1986-04-18 1995-03-29 株式会社トプコン 形状測定装置
US5414474A (en) * 1992-03-04 1995-05-09 Fujitsu Limited Moving body recognition apparatus
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
US5615003A (en) 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
FI20001568A (fi) * 2000-06-30 2001-12-31 Thermo Radiometrie Oy Pinnan muotojen määrittäminen
US6749310B2 (en) * 2001-09-07 2004-06-15 Contrast Lighting Services, Inc. Wide area lighting effects system
CA2369710C (en) * 2002-01-30 2006-09-19 Anup Basu Method and apparatus for high resolution 3d scanning of objects having voids
US7105848B2 (en) * 2002-04-15 2006-09-12 Wintriss Engineering Corporation Dual level out-of-focus light source for amplification of defects on a surface
JP2004117186A (ja) 2002-09-26 2004-04-15 Mitsutoyo Corp 3次元形状測定装置
IL155034A0 (en) * 2003-03-23 2004-06-20 M A M D Digital Data Proc Syst Automatic aerial digital photography and digital data processing systems
JP4883517B2 (ja) * 2004-11-19 2012-02-22 学校法人福岡工業大学 三次元計測装置および三次元計測方法並びに三次元計測プログラム
US7629998B2 (en) * 2005-06-23 2009-12-08 Elbex Video Limited Method and apparatus for measuring illumination and camera performances
US7454841B2 (en) * 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
CN101496032B (zh) * 2006-02-27 2011-08-17 普莱姆传感有限公司 使用斑纹解相关的距离映射的方法及设备
JP2008042332A (ja) * 2006-08-02 2008-02-21 Toshiba Corp 補間フレーム作成方法及び補間フレーム作成装置
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
DE102007022361A1 (de) * 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche
DE102007034689B4 (de) 2007-07-12 2009-06-10 Carl Zeiss Ag Verfahren und Vorrichtung zum optischen Inspizieren einer Oberfläche an einem Gegenstand
JP2009031150A (ja) * 2007-07-27 2009-02-12 Omron Corp 三次元形状計測装置、三次元形状計測方法、三次元形状計測プログラム、および記録媒体
US7768656B2 (en) * 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
US8248465B2 (en) * 2007-12-27 2012-08-21 Olympus Corporation Measuring endoscope apparatus and program
DE102008009680A1 (de) * 2008-02-18 2009-08-27 Siemens Aktiengesellschaft Dreidimensionale Vermessung von Objekten mittels eines modular aufgebauten Triangulationssensors
CN102132321B (zh) * 2008-08-04 2013-09-18 皇家飞利浦电子股份有限公司 用于医学图像的配准的自动预对准
DE102008047816B4 (de) * 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
US8294762B2 (en) * 2008-10-10 2012-10-23 Fujifilm Corporation Three-dimensional shape measurement photographing apparatus, method, and program
CN102470623B (zh) * 2009-07-24 2014-04-02 鲍勃斯脱股份有限公司 基片表面的构形分析装置
DE102009038965A1 (de) * 2009-08-20 2011-03-03 Carl Zeiss Oim Gmbh Vorrichtung und Verfahren zum optischen Inspizieren einer Oberfläche an einem Gegenstand
US8681211B2 (en) * 2009-09-22 2014-03-25 Cyberoptics Corporation High speed optical inspection system with adaptive focusing
US8388204B2 (en) * 2009-09-22 2013-03-05 Cyberoptics Corporation High speed, high resolution, three dimensional solar cell inspection system
CN101697233B (zh) * 2009-10-16 2012-06-06 长春理工大学 一种基于结构光的三维物体表面重建方法
CN101762243A (zh) * 2010-01-04 2010-06-30 北京航空航天大学 一种受限空间三维形貌结构光视觉测量方法
DE102010007396B4 (de) 2010-02-03 2013-10-02 Carl Zeiss Oim Gmbh Verfahren und Vorrichtung zum optischen Inspizieren eines Prüflings mit einer zumindest teilweise reflektierenden Oberfläche
DE102010015566B4 (de) 2010-04-19 2013-10-02 adomea GmbH Verfahren und System zur Vermessung spiegelnder Oberflächen
US20120176478A1 (en) * 2011-01-11 2012-07-12 Sen Wang Forming range maps using periodic illumination patterns
US9536312B2 (en) * 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
CN102519396B (zh) * 2011-12-21 2014-11-05 哈尔滨理工大学 三个灰度对称线性编码周期的采样点三维信息获取方法
CN102494637B (zh) * 2011-12-21 2014-06-11 哈尔滨理工大学 三个编码周期的三基色梯形相移三维信息获取方法
JP5995484B2 (ja) * 2012-03-30 2016-09-21 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法、及びプログラム
US9217636B2 (en) * 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4402414C2 (de) 1993-01-28 1997-10-23 Oesterr Forsch Seibersdorf Verfahren und Vorrichtung zur dreidimensionalen Vermessung der Oberfläche von Gegenständen
DE19738480C1 (de) 1997-09-03 1998-11-26 Bernward Maehner Verfahren und Einrichtung zur optischen Vermessung von Objekten
DE19928341C2 (de) 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Albrecht, Peter; Michaelis, Bernd: Improvement of the Spatial Resolution of an Optical 3-D Measurement Procedure. In: IEEE Transactions on Instrumentation and Measurement Bd. 47. Brisbane, 1998, S. 158-162
Kanade, T.; Okutomi, M.: A stereo matching algorithm with an adaptive window: theory and experiment. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 16 (1994), Nr. 9, S. 920-932
Lilienblum E., Michaelis, B.: Optical 3d surface reconstruction by a multi-period phase shift method. Journal of Computers (JCP), 2(2):73-83, April 2007
S. Son, H. Park, K. H. Lee: Automated laser scanning system for reverse engineering and inspection. International Journal of Machine Tools and Manufacture, Volume 42, Issue 8, June 2002, Seiten 889-897
Shirai, Yoshiaki und Motoi Suwa: Recognition of Polyhedrons with a Range Finder. In: Cooper, D. C. (Herausgeber): Proceedings of the 2nd International Joint Conference on Artificial Intelligence, (London, UK, September, 1971), Conference Proceedings, Seiten 80-87, 1971
Valkenburg, R. J.; McIvor, A. M.: Accurate 3d measurement using a structured light system. In: Image and Vision Computing 16 (1998), Nr. 2, S. 99-110
Wiora, G.:Optische 3D-Messtechnik: Präzise Gestaltvermessung mit einem erweiterten Streifenprojektionsverfahren, University Heidelberg, Dissertation, 2001

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017005254A1 (de) 2015-07-09 2017-01-12 Inb Vision Ag Vorrichtung und verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts
DE102016208049A1 (de) 2015-07-09 2017-01-12 Inb Vision Ag Vorrichtung und Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts
DE102016119819B3 (de) * 2016-10-18 2017-05-04 Otto-Von-Guericke-Universität Magdeburg Vorrichtung und Verfahren zur optischen Vermessung von dreidimensionalen Oberflächen
WO2018072783A1 (de) 2016-10-18 2018-04-26 Otto-Von-Guericke-Universität Magdeburg, Patentwesen Vorrichtung und verfahren zur generierung von lichtmustern zur optischen vermessung von dreidimensionalen oberflächen

Also Published As

Publication number Publication date
CN104583713B (zh) 2019-04-19
EP2753896A2 (de) 2014-07-16
US10869020B2 (en) 2020-12-15
WO2014000738A3 (de) 2014-03-27
US20150324991A1 (en) 2015-11-12
CN104583713A (zh) 2015-04-29
EP2753896B1 (de) 2020-09-30
WO2014000738A2 (de) 2014-01-03

Similar Documents

Publication Publication Date Title
EP2753896B1 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
EP1971820B1 (de) Erstellung eines abstandsbildes
DE102006007172B4 (de) Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
EP0168643B1 (de) Gerät zur Wafer-Inspektion
DE102006001634B3 (de) Erstellung eines Abstandsbildes
DE102015205738A1 (de) Bewegungsmesssystem einer Maschine und Verfahren zum Betreiben des Bewegungsmesssystems
EP2437027A2 (de) Vorrichtung und Verfahren zur dreidimensionalen optischen Abtastung einer Probe
DE102014206309A1 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
EP2589926A1 (de) Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen
EP3345032B1 (de) Verfahren zur bestimmung einer höhenlage eines objekts
EP1188035A1 (de) Verfahren und vorrichtung zur objektabtastung
EP2019961A1 (de) Verfahren zum erzeugen von bildinformationen
DE102006028409A1 (de) Rastermikroskop zur optischen Vermessung eines Objekts
DE4113279C2 (de) Konfokales optisches Rastermikroskop
DE10321883A1 (de) Verfahren und Sensor zur hochgenauen optischen Abtastung
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE102019208474A1 (de) Verfahren und System zum optischen Vermessen eines Objekts mit spiegelnder und/oder teilspiegelnder Oberfläche sowie entsprechende Messanordnung
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE102017208485A1 (de) Anordnung und Verfahren zur berührungslosen Entfernungsbestimmung nach Art des Lichtschnittverfahrens
DE10344051A1 (de) Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE102017007590B4 (de) Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Objekten auf Basis des Lichtschnittverfahrens
DE102014223747B4 (de) Vorrichtung und Verfahren zur Vermessung eines Höhenprofils einer Oberfläche unter Verwendung einer länglichen Blende
EP4227636B1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: INB VISION AG, DE

Free format text: FORMER OWNER: INB VISION AG, 39120 MAGDEBURG, DE

R082 Change of representative

Representative=s name: PATENT- UND RECHTSANWAELTE ULLRICH & NAUMANN P, DE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final