WO2013017618A1 - Optische oberflächenabtastung mit strukturierter beleuchtung - Google Patents

Optische oberflächenabtastung mit strukturierter beleuchtung Download PDF

Info

Publication number
WO2013017618A1
WO2013017618A1 PCT/EP2012/065012 EP2012065012W WO2013017618A1 WO 2013017618 A1 WO2013017618 A1 WO 2013017618A1 EP 2012065012 W EP2012065012 W EP 2012065012W WO 2013017618 A1 WO2013017618 A1 WO 2013017618A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information
image
evaluation
dimensional
Prior art date
Application number
PCT/EP2012/065012
Other languages
English (en)
French (fr)
Inventor
Gottfried Frankowski
Original Assignee
Gfmesstechnik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gfmesstechnik Gmbh filed Critical Gfmesstechnik Gmbh
Publication of WO2013017618A1 publication Critical patent/WO2013017618A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30144Printing quality

Definitions

  • the invention relates to a method and a device for processing information obtained by optical surface sampling as well as a corresponding computer program and a corresponding computer-readable storage medium, which can be used in particular in 3D vision sensors.
  • Vision sensors consist essentially of a camera with a corresponding intent or recording optics, a light source and a measurement or image processing software.
  • a vision sensor The function of a vision sensor is to record a camera image of the object to be measured, to be tested or inspected, to perform an A D conversion and then to supply this data for further processing or evaluation by means of a connected measurement or image processing software.
  • a scan of the object takes place through the individual pixels of the camera, which are then assigned pixels during further processing or evaluation.
  • the information present in the individual pixels or pixels results from the light reflected from the object surface.
  • the most important task in industrial image processing is the recognition of object boundaries or object edges as the first evaluation step. This results in the object recognition, object separation and then the analysis of the object shape or the measurement of individual object areas.
  • object edges can be identified at best by means of brightness jumps.
  • edge detection a suitable lighting arrangement is constructed which, however, is far from satisfactory in all cases.
  • edges are often recognizable only by shadowing ( Figure 1).
  • Figure 1 For objects with surface patterns, in turn, the distinction between patterns and Object edges difficult.
  • stereo cameras are occasionally used, which should ensure a photogrammetric detection of spatial information.
  • This poses the problem of initially finding contours in the two camera images and assigning them to one another, which in many aspects involves the same difficulties as already described with regard to two-dimensional image processing.
  • the advantage is therefore low overall.
  • this process gives little or no assignable contours or contrasts, and thus also no depth information.
  • Direct detection of the three-dimensional object shape would greatly simplify object recognition and separation, as well as the evaluation of features of interest such as position, location, shape deviations, completeness, number of features and objects.
  • features of interest such as position, location, shape deviations, completeness, number of features and objects.
  • the required object contours can be obtained from such shape data in a very efficient and reliable manner.
  • a device in the form of a signal processing unit comprising one or more cameras in conjunction with one or more structured illumination projection units
  • the camera (s) and projection units (n ) are preferably connected to at least one data processing unit, such as at least one digital signal processor and / or at least one programmable logic device (eg Field Programmable Gate Array, FPGA), such that the at least one data processing unit controls the entire process control for data acquisition and evaluation.
  • at least one data processing unit such as at least one digital signal processor and / or at least one programmable logic device (eg Field Programmable Gate Array, FPGA), such that the at least one data processing unit controls the entire process control for data acquisition and evaluation.
  • FPGA Field Programmable Gate Array
  • the data evaluation comprises 2D and / or SD image processing algorithms.
  • the at least one data processing unit is correspondingly configured such that the 2D and / or 3D image processing algorithms can be executed.
  • the at least one data processing unit is implemented as a processor, digital signal processor (DSP) and / or FPGA.
  • the device comprises a user interface for the configuration of the evaluation, which preferably takes place completely in the at least one data processing unit. It also proves to be advantageous if the output of the finished evaluation results is also effected by the device according to the invention and / or if other devices are actuated by the device as a function of the evaluation results.
  • the evaluation may include a completeness check of assemblies or a dimensional check. In these cases, information is then output by the device as to whether all parts of the assembly are present or whether tolerance limits have been exceeded.
  • appropriate actions can be initiated by the device, such as the removal of defective components from a production process.
  • the projection of the stripe pattern is performed using digitally controlled displays, in particular micromirror displays (DLP).
  • DLP micromirror displays
  • a preferred embodiment provides that the three-dimensional image information is converted by a mathematical operation into a two-dimensional image.
  • the three-dimensional image information is evaluated as height values with respect to a two-dimensional surface.
  • the height image information is subjected to one-dimensional or two-dimensional high-pass filtering,
  • the preprocessing of the height image information serves to detect any stamping markings on arbitrarily curved surfaces and / or the recognition of Braille characters on arbitrarily curved surfaces.
  • each pixel is compared with a height value from a predetermined comparison image and if equal or approximately equal, a pixel is set with a particular value in the result image, otherwise an image point is set with a specific second brightness value.
  • each pixel is compared with a height value from a predetermined comparison image and if larger - or smaller in an alternative embodiment - a pixel is set with a certain value in the result image, otherwise a picture point with a certain second Brightness value is set.
  • a further preferred embodiment provides that each pixel is added or subtracted with a height value from a predetermined comparison image and if the result is equal to or approximately equal to a certain predetermined value, a pixel is set in the result image with a specific value, otherwise a picture point is set with a certain second brightness value.
  • each pixel is added or subtracted with a height value from a given comparison image and if the result is greater - or smaller in an alternative embodiment - than a certain predetermined value, in the result image a pixel with a certain Value is set, otherwise an image point is set with a specific second brightness value.
  • the comparison image can be any one of the two images.
  • a spatial rotation of the three-dimensional image data set in three-dimensional coordinates is used prior to the evaluation as height information.
  • a comparison surface used or a comparative image used can be rotated in opposite directions in space prior to evaluation as height information.
  • a preferred embodiment provides that inclinations or curvatures in the space are compensated for by subtracting only the Z values belonging to the XY coordinates of an arbitrarily shaped surface lying in space from the Z values of an elevation image at the same XY coordinates ,
  • the data obtained are used in automatic production and testing operations.
  • Another preferred embodiment provides that the data obtained are used in measuring machines.
  • Yet another preferred embodiment provides that the data obtained is used to control robots.
  • a device has at least one chip and / or processor and is set up such that a method for processing information obtained by optical surface sampling can be carried out, wherein the information comprises at least information about a distance of the surface from at least one reference system, and wherein computer-readable data is generated from at least part of the information that can be evaluated by two-dimensional image processing methods. This ensures that the obtained three-dimensional image information of the utilization can be made accessible with the already highly developed methods of conventional two-dimensional image processing.
  • a preferred device for the 3D vision sensor system provides that the recording of the surface point clouds of objects takes place according to the method of the phase-measuring strip projection.
  • the projection of the stripe patterns takes place using digitally controlled displays, for example micromirror displays (DLP) or liquid crystal on silicon (LCOS or F-LCOS).
  • DLP micromirror displays
  • LCOS liquid crystal on silicon
  • F-LCOS F-LCOS
  • the device comprises at least one projection and at least one camera unit and the at least one projection and camera unit are integrated in a common, compact housing.
  • the acquisition of the two-dimensional image data takes place by means of a data processing unit likewise integrated in the housing.
  • Another preferred embodiment of the device provides that the execution of the two-dimensional image processing algorithms by means of a likewise integrated in the housing data processing unit.
  • Yet another preferred embodiment of the device provides that the acquired image information is converted into control signals for use in automatic production and testing processes by means of a data processing unit also integrated in the housing.
  • the entire recording unit including projection, camera, computing unit and power supply is housed in a compact housing and can be used mobile.
  • Yet another preferred embodiment of the device provides that the recording of the surface point cloud by means of guidance and positioning of the receiving device is done by hand.
  • a computer program according to the invention makes it possible for a data processing device, after being loaded into storage means of the data processing device, to carry out a method for processing information obtained by optical surface sampling, wherein the information comprises at least information about a distance of the surface from at least one reference system, and at least a portion of the information computer-readable data are generated, which are evaluable by two-dimensional image processing methods.
  • the computer program according to the invention has a modular structure, wherein individual modules are installed on different parts of the data processing device.
  • Advantageous embodiments additionally provide computer programs by which further method steps or method sequences specified in the description can be executed.
  • Such computer programs can be made available for download (for a fee or free of charge, freely accessible or password-protected) in a data or communication network, for example.
  • the computer programs thus provided can then be utilized by a method in which a computer program according to claim 48 is downloaded from an electronic data network, such as from the Internet, to a data processing device connected to the data network.
  • a computer-readable storage medium on which a program is stored which, after having been loaded into storage means of the data processing device, enables a data processing device to perform a method of processing optical surface sampling information the information comprises at least information about a distance of the surface from at least one reference system, and wherein computer-readable data, which can be evaluated by two-dimensional image processing methods, is generated from at least part of the information.
  • the data processing device has at least one measuring head for recording three-dimensional image information.
  • a further preferred embodiment provides that the method further comprises a data acquisition and a subsequent processing of the recorded data.
  • Another preferred embodiment provides that data is transmitted to the data processing device by the computer program by means of a data transmission device.
  • Core of the invention is a configuration of hardware and firmware, the 3D vision sensor ( Figure 1 1), which from one or more digital light projectors 1 (eg DLP pico projectors or LCOS), optionally also analog (eg LCD) projectors ), one or more recording cameras 2 (so-called intelligent or smart cameras), a circuit board with at least one processor and / or at least one FPGA 3 and a firmware that controls the entire projection and the recording and calculation of the 3D point cloud and optionally performs result evaluations for the specific application and can communicate via a data interface 4, in particular but not exclusively, for the purpose of configuration and result output.
  • DLP pico projectors or LCOS optionally also analog (eg LCD) projectors )
  • recording cameras 2 so-called intelligent or smart cameras
  • FIG. 1 shows a basic illustration of a conventional illumination arrangement for edge detection according to the prior art
  • FIG. 2 shows a basic illustration of an arrangement for a fringe projection
  • FIG. 3 shows a basic illustration of an exemplary height image
  • FIG. 4 shows a basic illustration of a first exemplary contour determination
  • FIG. 5 shows a basic illustration of a second exemplary contour determination by comparing a height relief with a comparison image
  • FIG. 6 shows a basic illustration of an exemplary equalization of a height relief
  • FIG. 7 shows a basic illustration of an exemplary separation of object contours
  • FIG. 8 shows a basic illustration of a first exemplary shape-retaining alignment of a height relief
  • FIG. 9 shows a basic illustration of a second example, simplified alignment of a height relief
  • Figure 11 is a schematic illustration of an exemplary embodiment including signal processing unit.
  • a planar scanning, optical method is used.
  • Particularly suitable is the method of planar probing previously used only in metrology by means of projected pattern (see also mentioned patent DE 196 39 999 C2).
  • This uses an arrangement of one or more light projectors 1, which projects a structured light pattern, preferably a striped pattern, onto objects and of one or more cameras 2 arranged in a defined position, which projects the objects at an angle different from the projection axis to capture.
  • the perspective distortion of the projected patterns on the object surface 3 corresponds to a triangulation for each individual captured pixel, so it contains the desired information for the removal of the point and thus the spatial shape of the object.
  • the usual method for this is, for example, the phase-measuring strip projection.
  • strips with continuous grayscale gradients are used, which provide the brightness of individual measured points in comparison to the pure gray image, a particularly accurate statement about the relative strip position.
  • successively at least three patterns offset by 1/3 period length are projected in order to produce suitable gray value gradients at all object points.
  • the method provides very fast and interference-free exact distance values, ie the desired three-dimensional object contour, which in the sense of vision sensors can also be referred to as contrasting in the third dimension, ie in the direction perpendicular to the recorded object contour.
  • the fringe patterns are advantageously projected using digitally controlled micromirror displays (DLP).
  • DLP digitally controlled micromirror displays
  • a preferred embodiment therefore provides for arranging a complete unit for the projection of the light patterns as well as for recording and evaluating the light patterns in a single signal processing unit.
  • the entire control of this process, both for the pattern projection and for the data evaluation, is preferably carried out on a digital signal processor (DSP) or a field programmable gate array (FPGA) integrated in the one signal processing unit.
  • DSP digital signal processor
  • FPGA field programmable gate array
  • a small and compact signal processing unit consisting of a so-called light engine (eg DLP picoprojector), a signal processing board and a camera (eg smart camera) is obtained.
  • This compact unit then forms the basis unit for 3D vision sensors, which transmit the determined 3D data in the form of xyz-scaled point clouds to an evaluation system via a corresponding data interface (eg Ethernet connection).
  • This signal processing system which is also referred to as a point cloud generator, can be expanded such that corresponding algorithms from the 3D measurement technology are converted directly to the processing on the signal processing system and thus makes possible a direct evaluation of the recorded 3D point cloud in the sense of the 3D measurement or SD inspection ,
  • a fully autonomous, ie without additional or external measurement and analysis computer working 3D-vision sensor is available.
  • An idea on which the invention is based is to make available the information obtained from such a planar attacking method of utilization with the already highly developed methods and algorithms of conventional two-dimensional image processing.
  • this elevation image already contains all the information about the object form, insofar as it can be detected from the camera perspective (FIG. 3).
  • a high-pass filtering for example, can be used for the separation of object contours, or for the separation of small objects in the height image (FIG. 7).
  • the complexity of the filter algorithm used depends, but limited due to the only two-dimensional evaluation.
  • Example of the use of this technique would be the recognition of embossed or stamped fonts on both monochrome and additional printed surfaces.
  • the Braille font on medication packages for example, is already difficult to visualize without additional printing with conventional methods; the height value detection described here on the other hand also suppresses additional printing and directly supplies a high-contrast point image, wherein a possible curvature or inclination of the considered surface can be easily and reliably suppressed, for example by a simple two-dimensional high-pass filtering.
  • a perspective distortion of surfaces can also be compensated very efficiently with a purely two-dimensional equalization of the height image (FIG. 10) and, as a rule, completely satisfactory result.
  • the equalization (preferably a projective coordinate transformation) in the plane can be combined with the method of FIG. 9 described above.
  • the described detection of a height relief by areal optical probing thus provides a very fast and efficient processing of image data for industrial image processing.
  • the described method of phase-measuring strip projection is complemented by measures for unambiguous determination of the object distance. This becomes necessary because the camera image does not provide a priori information as to which individual stripe is seen at a particular position. To gain this information, there are mainly two methods:
  • the additional fringe patterns can also be dispensed with if there are continuous object shapes and no absolute coordinate measurement values are required. This is often the case in industrial image processing.
  • the absolute strip number is then insignificant, only a relative assignment, as can be achieved by counting the strip, is then asked. Again, this is a specific use of the per se known method for the new industrial machine vision application.
  • the method described in connection with the device described is suitable, inter alia, for industrial monitoring, control and inspection, including robotics, and for use in measuring machines and, due to the compact design of the receiving unit, as well as for mobile use, including hand-guided measurements three-dimensional object shapes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium, welche insbesondere einsetzbar sind in der 3D-Visionsensorik. Hierfür wird ein Verfahren für die 3D-Vision-Sensorik vorgeschlagen, bei dem die Aufnahme der Oberflächen-Punktewolken von Objekten nach dem Verfahren der phasenmessenden Streifenprojektion erfolgt. Es wird ein Verfahren und eine Vorrichtung in Form einer Signalverarbeitungseinheit vorgeschlagen, die eine oder mehrere Kameras in Verbindung mit einer oder mehrerer Projektionseinheiten für die strukturierte Beleuchtung umfasst, die vorzugsweise mit mindestens einem digitalen Prozessor und/oder mindestens einem programmierbaren Logikbaustein (Field Programmable Gate Array) so verbunden sind, dass dieser die gesamte Prozesssteuerung zur Datenaufnahme und –auswertung steuert.

Description

OPTISCHE OBERFLÄCHENABTASTUNG MIT STRUKTURIERTER BELEUCHTUNG
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen sowie ein entsprechendes Com puterprog ramm und ein entsprechendes computerlesbares Speichermedium, welche insbesondere einsetzbar sind in der 3D- Visionsensorik.
Stand der Technik 2D-Visionsensorik
Der breitere Einsatz von Visionsensoren in der industriellen Bildverarbeitung und Inspektion begann mit der Verfügbarkeit leistungsfähiger Kamera- und Rechnersysteme vor etwa 20 Jahren. Visionsensoren bestehen im Wesentlichen aus einer Kamera mit einem entsprechenden Vorsatz- bzw. Aufnahmeoptik, einer Lichtquelle und einer Mess- bzw. Bildverarbeitungssoftware.
Die Funktion eines Visionsensors besteht darin, ein Kamerabild des zu messenden, zu prüfenden oder zu inspizierenden Objektes aufzunehmen, eine A D-Wandlung vorzunehmen und diese Daten dann der weiteren Verarbeitung bzw. Auswertung mittels einer angeschlossenen Mess- oder Bildverarbeitungssoftware zuzuführen. Eine Abtastung des Objektes erfolgt dabei durch die einzelnen Pixel der Kamera, denen dann bei der Weiterverarbeitung bzw. Auswertung Bildpunkte zugeordnet werden. Die in den einzelnen Bildpunkten bzw. Pixeln vorliegenden Informationen resultieren aus dem von der Objektoberfläche reflektierten Licht. Die räumliche Lage und/oder Ausdehnung der aufzunehmenden Objekte spielt zwar eine wichtige Rolle geht aber auf Grund der vorliegenden physikalischen Verhältnisse verloren. Somit spricht man bei den beschriebenen und herkömmlich eingesetzten Sensoren auch von 2D-Visionsensoren.
Wichtigste Aufgabe in der industriellen Bildverarbeitung ist als erster Auswertungsschritt die Erkennung von Objektgrenzen bzw. Objektkanten. Daraus folgt die Objekterkennung, Objektseparierung und dann die Analyse der Objektform bzw. die Vermessung einzelner Objektbereiche.
Im Falle eines zweidimensionalen grauwert- oder Farb-Kamerabildes können Objektkanten allenfalls anhand von Helligkeitssprüngen identifiziert werden. Es ist dabei aber keine Aussage über die räumliche Orientierung angrenzender Flächen möglich und ebenso keine Unterscheidung zwischen beleuchtungsbedingten Kantenkontrasten und Oberflächentexturen von Objekten.
Üblicherweise wird zur Verbesserung der Kantenerkennung eine geeignete Beleuchtungsanordnung konstruiert, welche aber bei weitem nicht in allen Fällen zufrieden stellende Ergebnisse liefern kann. Insbesondere bei einfarbigen Objekten sind Kanten oft nur durch Schattenbildung erkennbar (Figur 1 ). Bei Objekten mit Oberflächenmustern wiederum ist die Unterscheidung zwischen Mustern und Objektkanten schwierig. Zur besseren Objekterkennung werden daher gelegentlich Stereokameras eingesetzt, die eine photogrammetrische Erfassung räumlicher Informationen gewährleisten sollen. Hierbei stellt sich jedoch das Problem, zunächst Konturen in den beiden Kamerabildern zu finden und diese einender zuzuordnen, was in vielen Aspekten mit denselben Schwierigkeiten verbunden ist, wie bereits hinsichtlich der zweidimensionalen Bildverarbeitung beschrieben. Der Vorteil ist also insgesamt gering. Des Weiteren liefert dieses Verfahren im Falle gleichmäßig gefärbter Flächen (z.B. weiße Struktur auf weißem Untergrund) kaum oder überhaupt keine zuordenbaren Konturen oder Kontraste, mithin auch keine Tiefeninformation.
Eine direkte Erfassung der dreidimensionalen Objektform, unabhängig von den Reflektionseigenschaften der Objekte, würde die Objekterkennung und -Separation sowie die Auswertung hinsichtlich interessierender Merkmale wie Position, Lage, Formabweichungen, Vollständigkeit, Anzahl von Merkmalen und Objekten, sehr vereinfachen. Wie im Folgenden noch ausführlicher dargestellt, lassen sich aus derartigen Formdaten auf sehr effiziente und zuverlässige Weise die benötigten Objektkonturen gewinnen.
Vorteile der Erfindung
Diese Vorteile werden erreicht, indem für die Aufnahme und Auswertung von Oberflächendaten eine Vorrichtung in Form einer Signalverarbeitungseinheit eingesetzt wird, die eine oder mehrere Kameras in Verbindung mit einer oder mehreren Projektionseinheiten für die strukturierte Beleuchtung umfasst, wobei die Kamera(s) und Projektionseinheite(n) vorzugsweise mit mindestens einer Datenverarbeitungseinheit, wie beispielsweise mit mindestens einem digitalen Signalprozessor und/oder mindestens einem programmierbaren Logikbaustein (beispielsweise Field Programmable Gate Array, FPGA), so verbunden sind, dass die mindestens eine Datenverarbeitungseinheit die gesamte Prozesssteuerung zur Datenaufnahme und -auswertung steuert.
In einer bevorzugten Ausführungsform ist vorgesehen, dass die Datenauswertung 2D- und/oder SD- Bildverarbeitungsalgorithmen umfasst. Insbesondere ist die mindestens eine Datenverarbeitungseinheit entsprechend konfiguriert, dass die 2D- und/oder 3D-Bildverarbeitungsalgorithmen ausführbar sind. Vorzugsweise ist die mindestens eine Datenverarbeitungseinheit als Prozessor, digitaler Signalprozessor (DSP) und/oder FPGA realisiert.
In einer anderen bevorzugten Ausführungsform ist vorgesehen, dass die Vorrichtung ein Benutzerinterface umfasst zur Konfiguration der Auswertung, welche vorzugsweise vollständig in der mindestens einen Datenverarbeitungseinheit erfolgt. Als vorteilhaft erweist es sich auch, wenn auch die Ausgabe der fertigen Auswertungsergebnisse durch die erfindungsgemäße Vorrichtung erfolgt und/oder wenn von der Vorrichtung in Abhängigkeit der Auswertungsergebnisse andere Geräte angesteuert werden. Beispielsweise kann die Auswertung eine Vollständigkeitsprüfung von Baugruppen oder eine Maßhaltigkeitsprüfung umfassen. In diesen Fällen werden dann durch die Vorrichtung Informationen darüber ausgegeben, ob alle Teile der Baugruppe vorhanden sind oder ob Toleranzgrenzen überschritten wurden. Darüber hinaus können entsprechende Aktionen durch die Vorrichtung angestoßen werden, wie beispielsweise die Entfernung von fehlerhaften Bauteilen aus einem Produktionsprozess.
Als vorteilhaft erweist es sich, wenn ein Verfahren für die 3D-Vision-Sensorik genutzt wird, bei dem die Aufnahme der Oberflächen-Punktewolken von Objekten nach dem Verfahren der phasenmessenden Streifen projektion erfolgt.
Als vorteilhaft erweist es sich, wenn die gewonnenen dreidimensionalen Bildinformationen entsprechend einer oder mehrerer der nachfolgend beschriebenen Maßnahmen der Verwertung mit den bereits hoch entwickelten Verfahren der herkömmlichen zweidimensionalen Bildverarbeitung zugänglich gemacht werden.
In einer bevorzugten Ausführungsform ist vorgesehen, dass die Projektion der Streifenmuster unter Verwendung von digital angesteuerten Displays, insbesondere Mikrospiegeldisplays (DLP) erfolgt.
In einer anderen bevorzugten Ausführungsform ist vorgesehen, dass auf die Projektion zusätzlicher Muster zur absoluten Abstandsbestimmung verzichtet wird und nur eine relative Abstandsmessung realisiert wird.
Eine bevorzugte Ausführungsform sieht vor, dass die dreidimensionalen Bildinformationen durch eine mathematische Operation in ein zweidimensionales Bild umgewandelt werden.
In einer weiteren bevorzugten Ausführungsform ist vorgesehen, dass die dreidimensionalen Bildinformationen als Höhenwerte in Bezug auf eine zweidimensionale Fläche ausgewertet werden.
Andere bevorzugte Ausführungsformen sehen vor, dass die - mindestens erste - Ableitung von Höhenwerten in Bezug auf eine zweidimensionale Fläche gebildet und/oder
dass die Höhenbildinformation einer ein- oder zweidimensionalen Hochpassfilterung unterzogen wird, In einer bevorzugten Ausführungsform ist vorgesehen, dass die Vorverarbeitung der Höhenbildinformation der Erkennung von beliebigen Prägemarkierungen auf beliebig gewölbten Oberflächen und/oder der Erkennung von Braille-Schriftzeichen auf beliebig gewölbten Oberflächen dient.
Als vorteilhaft erweist es sich, wenn das zweidimensionale Integral der Höhenbildinformation zur Bestimmung eines Volumenwertes verwendet wird.
Als vorteilhaft erweist es sich, wenn das Höhenbild zur Vollständigkeitsprüfung von Baugruppen und/oder zur Maßhaltigkeitsprüfung von Bauteilen oder Baugruppen verwendet wird.
In einer bevorzugten Ausführungsform ist vorgesehen, dass jeder Bildpunkt mit einem Höhenwert aus einem vorgegeben Vergleichsbild verglichen wird und falls gleich oder annähernd gleich, im Resultatbild ein Bildpunkt mit einem bestimmten Wert gesetzt wird, andernfalls ein Bild punkt mit einem bestimmten zweiten Helligkeitswert gesetzt wird.
Eine andere bevorzugte Ausführungsform sieht vor, dass jeder Bildpunkt mit einem Höhenwert aus einem vorgegeben Vergleichsbild verglichen wird und falls größer - oder in einer alternativen Ausführung fall kleiner - im Resultatbild ein Bildpunkt mit einem bestimmten Wert gesetzt wird, andernfalls ein Bild punkt mit einem bestimmten zweiten Helligkeitswert gesetzt wird.
Eine weitere bevorzugte Ausführungsform sieht vor, dass jeder Bildpunkt mit einem Höhenwert aus einem vorgegeben Vergleichsbild addiert oder subtrahiert wird und falls das Ergebnis gleich oder annähernd gleich einem bestimmten vorgegebenen Wert ist, im Resultatbild ein Bildpunkt mit einem bestimmten Wert gesetzt wird, andernfalls ein Bild punkt mit einem bestimmten zweiten Helligkeitswert gesetzt wird.
Wieder eine andere bevorzugte Ausführungsform sieht vor, dass jeder Bildpunkt mit einem Höhenwert aus einem vorgegeben Vergleichsbild addiert oder subtrahiert wird und falls das Ergebnis größer - oder in einer alternativen Ausführung fall kleiner - ist als ein bestimmter vorgegebener Wert, im Resultatbild ein Bildpunkt mit einem bestimmten Wert gesetzt wird, andernfalls ein Bild punkt mit einem bestimmten zweiten Helligkeitswert gesetzt wird.
Das Vergleichsbild kann dabei
eine Ebene beliebiger Orientierung,
eine beliebig gekrümmte, mathematisch definierte Fläche oder
ein Höhenbild aus einer vorangegangenen dreidimensionalen Aufnahme
ein aus einem dreidimensionalen Zeichnungsdatensatz des gemessenen Objekts gewonnenes Höhenbild
sein. Als vorteilhaft erweist es sich, wenn mindestens ein Höhenbild vor der Verwendung einer beliebigen Transformation unterworfen wurde.
In einer bevorzugten Ausführungsform ist vorgesehen, dass vor der Auswertung als Höheninformation eine räumliche Drehung des dreidimensionalen Bilddatensatzes in dreidimensionalen Koordinaten zum Einsatz kommt.
Statt einer Drehung des gemessenen dreidimensionalen Bilddatensatzes kann vor der Auswertung als Höheninformation eine zum Einsatz kommende Vergleichsfläche oder ein zum Einsatz kommendes Vergleichsbild gegenläufig im Raum gedreht werden.
Eine bevorzugte Ausführungsform sieht vor, dass Schrägstellungen oder Krümmungen im Raum dadurch ausgeglichen werden, dass nur die zu den XY-Koordinaten einer im Raum liegenden beliebig geformten Fläche gehörenden Z-Werte von den Z-Werten eines Höhenbildes an den gleichen XY-Koordinaten subtrahiert werden.
Als vorteilhaft erweist es sich, wenn zusätzlich eine Entzerrung der XY-Koordinaten, vorzugsweise mittels einer projektiven Transformation zum Einsatz kommt.
In einer bevorzugten Ausführungsform ist vorgesehen, dass die gewonnenen Daten in automatischen Produktions- und Prüfvorgängen verwendet werden.
Eine andere bevorzugte Ausführungsform sieht vor, dass die gewonnenen Daten in Messmaschinen verwendet werden.
Wieder eine andere bevorzugte Ausführungsform sieht vor, dass die gewonnenen Daten zur Steuerung von Robotern verwendet werden.
Eine Vorrichtung nach der Erfindung weist mindestens einen Chip und/oder Prozessor auf und ist derart eingerichtet, dass ein Verfahren zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen ausführbar ist, wobei die Information zumindest Angaben über einen Abstand der Oberfläche zu mindestens einem Bezugssystem umfassen, und wobei aus zumindest einem Teil der Informationen computerlesbare Daten erzeugt werden, die durch zweidimensionale Bildverarbeitungsverfahren auswertbar sind. Damit wird erreicht, dass die gewonnenen dreidimensionalen Bildinformationen der Verwertung mit den bereits hoch entwickelten Verfahren der herkömmlichen zweidimensionalen Bildverarbeitung zugänglich gemacht werden. Eine bevorzugte Vorrichtung für die 3D-Vision-Sensorik sieht vor, dass die Aufnahme der Oberflächen- Punktewolken von Objekten nach dem Verfahren der phasenmessenden Streifenprojektion erfolgt.
In einer anderen bevorzugten Ausführungsform der Vorrichtung ist vorgesehen, dass die Projektion der Streifenmuster unter Verwendung von digital angesteuerten Displays, beispielsweise Mikrospiegeldisplays (DLP) oder Liquid Crystal on Silicon (LCOS oder F-LCOS), erfolgt. In einer weiteren bevorzugten Ausführungsform der Vorrichtung ist vorgesehen, dass auf die Projektion zusätzlicher Muster zur absoluten Abstandsbestimmung verzichtet wird und nur eine relative Abstandsmessung realisiert wird.
Als vorteilhaft erweist es sich, wenn die Vorrichtung mindestens eine Projektions- und mindestens eine Kameraeinheit umfasst und die mindestens eine Projektions- und Kameraeinheit in einem gemeinsamen, kompakten Gehäuse integriert sind.
In einer bevorzugten Ausführungsform der Vorrichtung ist vorgesehen, dass die Gewinnung der zweidimensionalen Bilddaten mittels einer ebenfalls im Gehäuse integrierten Datenverarbeitungseinheit erfolgt.
Eine andere bevorzugte Ausführungsform der Vorrichtung sieht vor, dass die Ausführung der zweidimensionalen Bildverarbeitungsalgorithmen mittels einer ebenfalls im Gehäuse integrierten Datenverarbeitungseinheit erfolgt.
Wieder eine andere bevorzugte Ausführungsform der Vorrichtung sieht vor, dass die gewonnenen Bildinformationen mittels einer ebenfalls im Gehäuse integrierten Datenverarbeitungseinheit in Steuersignale zur Verwendung in automatischen Produktions- und Prüfvorgängen umgesetzt werden.
In einer weiteren bevorzugten Ausführungsform der Vorrichtung ist vorgesehen, dass die gesamte Aufnahmeeinheit inklusive Projektion, Kamera, Recheneinheit und Energieversorgung in einem kompakten Gehäuse untergebracht und mobil einsetzbar ist.
Noch eine weitere bevorzugte Ausführungsform der Vorrichtung sieht vor, dass die Aufnahme der Oberflächen-Punktwolke mittels Führung und Positionierung der Aufnahmevorrichtung per Hand erfolgt.
Ein erfindungsgemäßes Computerprogramm ermöglicht es einer Datenverarbeitungseinrichtung, nachdem es in Speichermittel der Datenverarbeitungseinrichtung geladen worden ist, ein Verfahren zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen durchzuführen, wobei die Information zumindest Angaben über einen Abstand der Oberfläche zu mindestens einem Bezugssystem umfassen, und wobei aus zumindest einem Teil der Informationen computerlesbare Daten erzeugt werden, die durch zweidimensionale Bildverarbeitungsverfahren auswertbar sind. In einer weiteren bevorzugten Ausführungsform der Erfindung ist vorgesehen, dass das erfindungsgemäße Computerprogramm modular aufgebaut ist, wobei einzelne Module auf verschiedenen Teilen der Datenverarbeitungseinrichtung installiert sind.
Vorteilhafte Ausführungsformen sehen zusätzlich Computerprogramme vor, durch welche weitere in der Beschreibung angegebene Verfahrensschritte oder Verfahrensabläufe ausgeführt werden können.
Solche Computerprogramme können beispielsweise (gegen Gebühr oder unentgeltlich, frei zugänglich oder passwortgeschützt) downloadbar in einem Daten- oder Kommunikationsnetz bereitgestellt werden. Die so bereitgestellten Computerprogramme können dann durch ein Verfahren nutzbar gemacht werden, bei dem ein Computerprogramm nach Anspruch 48 aus einem elektronischen Datennetz, wie beispielsweise aus dem Internet, auf eine an das Datennetz angeschlossene Datenverarbeitungseinrichtung heruntergeladen wird.
Um das erfindungsgemäße Verfahren durchzuführen, ist vorgesehen, ein computerlesbares Speichermedium einzusetzen, auf dem ein Programm gespeichert ist, das es einer Datenverarbeitungseinrichtung ermöglicht, nachdem es in Speichermittel der Datenverarbeitungseinrichtung geladen worden ist, ein Verfahren zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen durchzuführen, wobei die Information zumindest Angaben über einen Abstand der Oberfläche zu mindestens einem Bezugssystem umfassen, und wobei aus zumindest einem Teil der Informationen computerlesbare Daten erzeugt werden, die durch zweidimensionale Bildverarbeitungsverfahren auswertbar sind.
In einer bevorzugten Ausführungsform ist vorgesehen, dass die Datenverarbeitungseinrichtung mindestens einen Messkopf zur Aufnahme dreidimensionaler Bild Information aufweist.
Eine weitere bevorzugte Ausführungsform sieht vor, dass das Verfahren weiter eine Datenaufnahme und eine anschließenden Verarbeitung der aufgenommenen Daten umfasst.
Eine andere bevorzugte Ausführungsform sieht vor, dass durch das Computerprogramm mittels einer Datenübertragungseinrichtung Daten in die Datenverarbeitungseinrichtung übertragen werden.
Kern der Erfindung ist eine Konfiguration aus Hard- und Firmware, der 3D-Visionsensor (Figur 1 1 ), welche aus einem oder mehreren digitalen Lichtprojektoren 1 (z.B. DLP-Pico-Projektoren oder LCOS), wahlweise auch analogen (z.B. LCD-) Projektoren), einen oder mehreren Aufnahmekameras 2 (sog. intelligenten oder smart-Kameras), einer Platine mit mindestens einem Prozessor und/oder mindestens einem FPGA 3 und einer Firmware besteht , die die gesamte Steuerung der Projektion sowie die Aufnahme und Berechnung der 3D-Punktwolke und wahlweise Ergebnisauswertungen für die konkrete Anwendung vornimmt und über eine Datenschnittstelle 4 - insbesondere aber nicht ausschließlich - zum Zweck der Konfiguration und der Ergebnisausgabe kommunizieren kann. Beschreibung der Figuren
Es zeigen:
Figur 1 eine prinzipielle Veranschaulichung einer herkömmlichen Beleuchtungsanordnung für eine Kantenerkennung nach dem Stand der Technik,
Figur 2 eine prinzipielle Veranschaulichung einer Anordnung für eine Streifenprojektion,
Figur 3 eine prinzipielle Veranschaulichung eines beispielhaften Höhenbildes,
Figur 4 eine prinzipielle Veranschaulichung einer ersten beispielhaften Konturenermittlung,
Figur 5 eine prinzipielle Veranschaulichung einer zweiten beispielhaften Konturenermittlung durch Vergleich eines Höhenreliefs mit einem Vergleichsbild,
Figur 6 eine prinzipielle Veranschaulichung einer beispielhaften Entzerrung eines Höhenreliefs,
Figur 7 eine prinzipielle Veranschaulichung einer beispielhaften Separation von Objektkonturen,
Figur 8 eine prinzipielle Veranschaulichung einer ersten beispielhaften formerhaltenden Ausrichtung eines Höhenreliefs,
Figur 9 eine prinzipielle Veranschaulichung einer zweiten beispielhaften, vereinfachten Ausrichtung eines Höhenreliefs,
Figur 10 eine prinzipielle Veranschaulichung einer beispielhaften Entzerrung eines Höhenreliefs und
Figur 11 eine prinzipielle Veranschaulichung einer beispielhaften Ausführung inklusive Signalverarbeitungseinheit.
Neuartiger Ansatz 3D-Visionsensorik
Basierend auf dem im Gebrauchsmuster DE 20 2010 000700 U1 „Vorrichtung zur Steuerung von Projektionsdisplays und zur Datenerfassung mittels Kamerasensoren" und der im Patent DE 196 39 999 C2 „Verfahren und Vorrichtung für die 3D-Messung" beschriebenen Konfiguration resultiert ein völlig neuer Sensor-Ansatz, der die Möglichkeiten der 2D-Bildverarbeitung mit den Möglichkeiten der 3D-Erfassung verbindet und so die Grundlage für einen 3D-Vision-Sensor liefert.
Hierzu kommt erfindungsgemäß ein flächenhaft antastendes, optisches Verfahren zum Einsatz. Besonders geeignet ist das bisher nur in der Messtechnik verwendete Verfahren der flächenhaften Antastung mittels projizierter Muster (siehe auch erwähntes Patent DE 196 39 999 C2). Dieses (Figur 2) verwendet eine Anordnung aus einem oder mehreren Lichtprojektoren 1 , welche ein strukturiertes Lichtmuster, vorzugsweise ein Streifenmuster auf Objekte projiziert, und von einer oder mehreren dazu in definierter Position angeordneten Kameras 2, die die Objekte unter einem von der Projektionsachse verschiedenen Winkel erfassen. Die perspektivische Verzeichnung der projizierten Muster auf der Objektoberfläche 3 entspricht eine Triangulation für jeden einzelnen erfassten Bildpunkt, sie enthält also die gewünschte Information zur Entfernung des Punktes und somit zur räumlichen Form des Objektes. Übliches Verfahren hierzu ist z.B. die phasenmessende Streifenprojektion. Bei dieser werden Streifen mit kontinuierlichen Grauwertverläufen verwendet, die über die Helligkeit einzelner gemessener Punkte im Vergleich zum reinen Graubild eine besonders genaue Aussage über die relative Streifenposition liefern. Üblicherweise werden nacheinander mindestens drei um 1/3 Periodenlänge versetzte Muster projiziert, um geeignete Grauwertverläufe an allen Objektpunkten zu erzeugen.
Das Verfahren liefert sehr schnell und störungssicher genaue Abstandswerte, also die gewünschte dreidimensionale Objektkontur, welche im Sinne der Visionsensorik auch als Kontrastierung in die dritte Dimension also in Richtung senkrecht zur aufgenommenen Objektkontur bezeichnet werden kann.
Gemäß der oben genannten Schriften (DE 20 2010 000700 U1 , DE 196 39 999 C2) werden die Streifenmuster vorteilhaft unter Verwendung von digital angesteuerten Mikrospiegeldisplays (DLP) projiziert. Besonders günstig für die hier betrachteten Anwendungen ist dabei die Integration der kompletten Erfassungseinheit und wahlweise einer zusätzlichen Recheneinheit in einem einzigen, kompakten Gehäuse (Figur 1 1 ). Eine bevorzugte Ausführungsform sieht daher vor, eine komplette Einheit für die Projektion der Lichtmuster als auch für Aufnahme und Auswertung der Lichtmuster in einer einzigen Signalverarbeitungseinheit anzuordnen. Die gesamte Steuerung dieses Prozesses sowohl für die Musterprojektion als auch für die Datenauswertung erfolgt vorzugsweise auf einem in die eine Signalverarbeitungseinheit integrierten digitalen Signalprozessor (DSP) oder einem Field Programmable Gate Array (FPGA). Auf diese Weise wird eine kleine und kompakte Signalverarbeitungseinheit bestehend aus einer sogenannten Light Engine (z.B. DLP-Picoprojektor), einem Signalverarbeitungsboard und einer Kamera (z.B. Smart-Kamera) erhalten. Diese kompakte Einheit bildet dann die Basiseinheit für 3D-Visionsensoren, die über einer entsprechendes Dateninterface (z.B. Ethernetverbindung) die ermittelten 3D-Daten in Form von xyz-skalierten Punktwolken an ein Auswertesystem übertragen. Dieses auch als Punktwolkengenerator bezeichnete Signalverarbeitungssystem kann dahingehend erweitert werden, dass entsprechende Algorithmen aus der 3D-Messtechnik direkt auf die Verarbeitung auf dem Signalverarbeitungssystem umgesetzt werden und so eine direkte Auswertung der aufgenommenen 3D-Punktwolke im Sinne der 3D-Messung oder SD- Inspektion möglich macht. Somit ist ein völlig autonom d.h. ohne zusätzlichen bzw. externen Mess- und Auswerterechner arbeitender 3D-Visionsensor verfügbar. Eine der Erfindung zugrunde liegende Idee ist, die gewonnenen Information aus einem solchen flächenhaft antastenden Verfahren der Verwertung mit den bereits hoch entwickelten Verfahren und Algorithmen der herkömmlichen zweidimensionalen Bildverarbeitung zugänglich zu machen.
Dies unterscheidet sich elementar von bisherigen Ansätzen, die von einer Auswertung von dreidimensionalen Bildinformationen (gewonnen z.B. mit Stereokameras oder anderen Verfahren) im Raum ausgehen. Diese Ansätze haben insbesondere den Nachteil, hohen Rechenaufwand zu erfordern, was für die industrielle Anwendung aufgrund der dort meist erforderlichen hohen Arbeitsgeschwindigkeit ungünstig ist.
Erfindungsgemäß wird daher die von der Sensorik - vorzugsweise ausgeführt nach den Prinzip der phasenmessenden Streifenprojektion - gelieferte Information als zweidimensionales Grauwertbild codiert, wobei jedoch die Grauwerte nicht einer Helligkeit, sondern spezifischen Objektabständen per Bildpunkt entsprechen (im folgenden Höhenbild genannt). Es handelt sich hier also um eine Art Reliefbild, das aber hinsichtlich der vorhandenen Informationsmenge und der notwendigen Rechenleistung zur Auswertung nur zweidimensionale Komplexität aufweist.
Dieses Höhenbild enthält trotz seiner relativen Einfachheit bereits alle Informationen zur Objektform, soweit diese aus der Kameraperspektive erfassbar ist (Figur 3).
Zur Verwendung mit Bildverarbeitungsalgorithmen werden erfindungsgemäß beispielsweise folgende Möglichkeiten offenbart:
• Bildung der 2. Ableitung der zweidimensionalen Höhenwerte-Funktion in x- und y- Richtung; hierdurch werden alle Flächengrenzen, mithin Konturen des Objektes, in Linien umgewandelt (Figur 4).
• Vergleich jedes Bildpunkte mit einem Höhenwert aus einem vorgegeben Vergleichsbild; falls gleich (oder annähernd gleich), wird im Resultatbild ein weißer Bildpunkt gesetzt, sonst ein schwarzer. Dies entspricht dem Legen einer Schnittfläche durch das Bildrelief, und liefert die Objektkontur in dieser Schnittfläche. Wichtig ist hier, dass es sich um eine rein zweidimensionale Prozedur handelt, mithin sehr weinig Rechenaufwand erfordert. Der Aufwand hängt auch nicht von der Form bzw. Komplexität der gewählten Schnittfläche ab.
• Vergleich jedes Bildpunkte mit einem Höhenwert aus einem vorgegeben Vergleichsbild; falls größer, wird im Resultatbild ein weißer Bildpunkt gesetzt, sonst ein schwarzer (Figur 5). Dies entspricht dem Legen einer Schnittfläche durch das Bildrelief, und liefert z.B. anhand der Anzahl der weißen bzw. schwarzen Bildpunkte eine Aussage, welcher Anteil der erfassten Objekte unterhalb und welcher oberhalb der Vergleichsfläche liegt. Wiederum ist dies eine einfache Operation von nur zweidimensionaler Komplexität und hängt auch nicht von der Form bzw. Komplexität der gewählten Schnittfläche ab. • Addition oder Subtraktion jedes Bildpunktes mit einem Höhenwert aus einem vorgegeben Vergleichsbild (Figur 6). Dies entspricht beispielsweise einem Ausrichten bzw. eine vertikalen Entzerrung des Höhenreliefs, sofern das Vergleichsbild eine Ebene oder gekrümmte Fläche darstellt. Das Vergleichsbild kann aber ebenso ein Abbild oder ein Negativ einer gewünschten Objektform bilden, womit die Gesamtheit der resultierenden Bildpunkte dann eine Aussage über die Abweichung von der gewünschten Form bildet. Wiederum ist dies eine einfache Operation von nur zweidimensionaler Komplexität.
• Filterung der Höhenbildinformation. Eine Hochpassfilterung beispielsweise kann zur Separation von Objektkonturen genutzt werden, oder zur Separation kleiner Objekte im Höhenbild (Figur 7). Hier ist die Komplexität vom eingesetzten Filteralgorithmus abhängig, jedoch aufgrund der nur zweidimensionalen Auswertung begrenzt. Beispiel für den Einsatz dieser Technik wäre die Erkennung von geprägten oder gestanzten Schriften auf sowohl einfarbigen wie zusätzlich bedruckten Oberflächen. Die Braille-Schrift auf Medikamentenpackungen beispielsweise ist bereits ohne zusätzlichen Aufdruck mit herkömmlichen Verfahren schwer sichtbar zu machen; die hier beschriebene Höhenwerterfassung dagegen blendet auch zusätzliche Bedruckungen aus und liefert unmittelbar ein kontrastreiches Punktebild, wobei eine eventuelle Wölbung oder Schrägstellung der betrachteten Fläche beispielsweise durch eine einfache zweidimensionale Hochpassfilterung einfach und sicher unterdrückt werden kann.
Neben den rein zweidimensionalen Vorbereitungsschritten kann auch eine Drehung des Reliefs in dreidimensionalen Koordinaten zum Einsatz kommen. Dies ermöglicht eine formerhaltende Ausrichtung des Höhenbildes (Figur 8). Hinsichtlich der angeführten zweidimensionalen Vergleichsoperationen ist dies jedoch nicht erforderlich. Erfindungsgemäß wird hier als eine Möglichkeit vorgeschlagen, die zum Einsatz kommende Vergleichsfläche einmalig gegenläufig im Raum zu drehen. Dann werden nur die zu den x-y-Koordinaten der Vergleichsfläche gehörenden Z-Werte von den Z-Werten des Höhenreliefs an den gleichen x-y-Koordinaten subtrahiert (Figur 9).
Eine perspektivische Verzeichnung von Oberflächen lässt sich erfindungsgemäß ebenfalls mit einer rein zweidimensionalen Entzerrung des Höhenbildes (Figur 10) sehr effizient und mit in der Regel völlig zufriedenstellendem Ergebnis ausgleichen. Die Entzerrung (vorzugsweise eine projektive Koordinatentransformation) in der Ebene kann dabei mit dem vorab beschriebenen Verfahren nach Figur 9 kombiniert werden.
Insgesamt bietet die beschriebene Erfassung eines Höhenreliefs mittels flächenhafter optischer Antastung also eine sehr schnelle und effiziente Aufbereitung von Bilddaten für die industrielle Bildverarbeitung. In der Messtechnik wird das beschriebene Verfahren der phasenmessenden Streifenprojektion ergänzt durch Maßnahmen zur eindeutigen Bestimmung des Objektabstandes. Dies wird notwendig, da das Kamerabild a priori keine Information liefert, welcher individuelle Streifen an einer bestimmten Position gesehen wird. Um diese Information dennoch zu gewinnen, existieren hauptsächlich zwei Verfahren:
• Zusätzlich zu den Streifenmustern werden separat Bilder mit binär codierten Schwarz-Weißen Streifenmustern unterschiedlicher Breite projiziert. Aus den Helligkeitswerten, die mehrere unterschiedliche Muster für einen bestimmten Bildpunkt zurückliefern, lässt sich bei geeigneter Anordnung direkt die dieser Position im Kamerabild entsprechende Streifennummer ablesen.
• Es werden mehrere Phasenmuster unterschiedlicher, nicht zueinander harmonischer Periodenzahl projiziert. Wiederum lässt sich aus dem Vergleich die Streifenposition bestimmen.
Erfindungsgemäß kann ein entsprechendes Verfahren zur absoluten Abstandsbestimmung zum Einsatz kommen. Dies erfordert jedoch die Projektion mehrerer zusätzlicher Streifenmuster und damit zusätzliche Zeit zur Bilddatenerfassung.
Ein deutlicher Geschwindigkeitsvorteil lässt sich erreichen, wenn auf diese zusätzlichen Muster verzichtet wird. In der Messtechnik ist dies nicht die übliche Vorgehensweise. Bei dem hier vorgestellten neuen Ansatz kommt es jedoch in vielen Fällen vorrangig nur auf die Konturfindung an, also auf abrupte Sprünge oder Richtungswechsel zwischen dreidimensionalen Oberflächenbereichen.
Diese finden sich als Phasensprünge bereits im Bild eines einfachen, projizierten Streifenmusters wieder. Somit wird als ein weiteres Verfahren vorgeschlagen, optional auf die Projektion zusätzlicher Muster zur absoluten Abstandsbestimmung zu verzichten und nur die Phasensprünge auszuwerten. Hieraus kann ein Ergebnis berechnet werden, das dem aus der oben vorgeschlagenen Bildung der Ableitung in x- und y-Richtung entspricht.
Auf die zusätzlichen Streifenmuster kann auch dann verzichtet werden, wenn stetige Objektformen vorliegen und keine absoluten Koordinatenmesswerte verlangt werden. Dies ist in der industriellen Bildverarbeitung oft der Fall. Die absolute Streifennummer ist dann unwesentlich, lediglich eine relative Zuordnung, wie sie durch Abzählen der Streifen erreicht werden Kann, ist dann gefragt. Wiederum handelt es sich um eine spezifische Verwendungsform des an sich bekannten Verfahrens für die neue Anwendung industrielle Bildverarbeitung.
Das beschriebene Verfahren in Verbindung mit der beschriebenen Vorrichtung eignet sich unter anderem für die industrielle Überwachung, Steuerung und Kontrolle, einschließlich der Robotik, sowie für den Einsatz in Messmaschinen und, aufgrund der kompakten Ausführung der Aufnahmeeinheit, ebenso für den mobilen Einsatz, einschließlich handgeführter Messungen dreidimensionaler Objektformen.

Claims

Patentansprüche
1. Verfahren zur Datenaufnahme und -auswertung, bei dem eine Vorrichtung verwendet wird, die eine oder mehrere Kameras, eine oder mehrere Projektionseinheiten für die strukturierte Beleuchtung und mindestens eine Datenverarbeitungseinheit umfasst, wobei die gesamte Prozesssteuerung zur Datenaufnahme und -auswertung durch die mindestens eine Datenverarbeitungseinheit gesteuert wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Datenauswertung eine 2D- und/oder 3D-Bildverarbeitung umfasst.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Datenauswertung eine Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen umfasst, wobei die Information zumindest Angaben über einen Abstand der Oberfläche zu mindestens einem Bezugssystem umfassen, und wobei aus zumindest einem Teil der Informationen computerlesbare Daten erzeugt werden, die durch zweidimensionale Bildverarbeitungsverfahren auswertbar sind.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Informationen als dreidimensionale Oberflächen-Punktwolke oder als dreidimensionale Bild Informationen eines Objektes vorliegen.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die computerlesbaren Daten als mindestens ein zweidimensionales Bild vorliegen und das mindestens eine zweidimensionale Bild durch Anwendung mindestens einer mathematischen Operation auf zumindest einem Teil der Informationen, insbesondere auf zumindest einem Teil der dreidimensionalen Oberflächen-Punktwolke oder der dreidimensionalen Bildinformationen, erzeugt wird.
6. Verfahren nach Anspruch 3 bis 5, dadurch gekennzeichnet, dass die Angaben über den Abstand als Höhenwerte (Höhenbildinformation) in Bezug auf eine zweidimensionale Fläche ausgewertet werden.
7. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Datenauswertung eine Vorverarbeitung der Informationen umfasst, wobei in der Vorverarbeitung die mindestens erste Ableitung der Abstände, insbesondere der Höhenwerte, in Bezug auf die zweidimensionale Fläche gebildet wird.
8. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Datenauswertung eine Vorverarbeitung der Informationen umfasst, wobei in der Vorverarbeitung die Informationen, insbesondere die Abstände oder die Höhenbildinformation, einer ein- oder zweidimensionalen Hochpassfilterung unterzogen werden.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Datenauswertung eine Vorverarbeitung der Informationen umfasst, wobei die Vorverarbeitung der Erkennung von beliebigen Prägemarkierungen auf beliebig gewölbten Oberflächen dient.
10. Verfahren nach Anspruch 7 oder 8 dadurch gekennzeichnet, dass die Datenauswertung eine Vorverarbeitung der Informationen umfasst, wobei die Vorverarbeitung der Erkennung von Braille-Schriftzeichen auf beliebig gewölbten Oberflächen dient.
1 1. Verfahren nach Anspruch 6 dadurch gekennzeichnet, dass das zweidimensionale Integral der Höhenbildinformation zur Bestimmung eines Volumenwertes verwendet wird.
12. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung zumindest ein Teil der Abstände mit einem Höhenwert aus einem vorgegeben Vergleichsbild verglichen wird und falls gleich oder annähernd gleich, in einem Resultatbild ein Bildpunkt mit einem ersten Wert gesetzt wird, andernfalls ein Bildpunkt mit einem zweiten Wert gesetzt wird.
13. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung zumindest ein Teil der Abstände mit einem Höhenwert aus einem vorgegeben Vergleichsbild verglichen wird und falls größer - oder in einer alternativen Ausführung falls kleiner - in einem Resultatbild ein Bildpunkt mit einem ersten Wert gesetzt wird, andernfalls ein Bildpunkt mit einem zweiten Wert gesetzt wird.
14. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung zumindest ein Teil der Abstände mit einem Höhenwert aus einem vorgegeben Vergleichsbild addiert oder subtrahiert wird und falls das Ergebnis gleich oder annähernd gleich einem bestimmten vorgegebenen Wert ist, in einem Resultatbild ein Bildpunkt mit einem ersten Wert gesetzt wird, andernfalls ein Bildpunkt mit einem zweiten Wert gesetzt wird.
15. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Datenauswertung zumindest ein Teil der Abstände mit einem Höhenwert aus einem vorgegeben Vergleichsbild addiert oder subtrahiert wird und falls das Ergebnis größer - oder in einer alternativen Ausführung falls kleiner - ist als ein bestimmter vorgegebener Wert, in einem Resultatbild ein Bildpunkt mit einem ersten Wert gesetzt wird, andernfalls ein Bildpunkt mit einem zweiten Wert gesetzt wird.
16. Verfahren nach einem oder mehreren der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Vergleichsbild eine Ebene beliebiger Orientierung repräsentiert.
17. Verfahren nach einem oder mehreren der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Vergleichsbild eine beliebig gekrümmte, mathematisch definierte Fläche repräsentiert.
18. Verfahren nach einem oder mehreren der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Vergleichsbild ein Höhenbild aus einer vorangegangenen dreidimensionalen Aufnahme ist.
19. Verfahren nach einem oder mehreren der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Vergleichsbild ein aus einem dreidimensionalen Zeichnungsdatensatz des gemessenen Objekts gewonnenes Höhenbild ist.
20. Verfahren nach einem oder mehreren der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Höhenbild vor der Verwendung einer beliebigen Transformation unterworfen wurde.
21. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung vor der Ermittlung der Abstände, insbesondere vor der Ermittlung der Höheninformation, eine räumliche Drehung der durch die optische Oberflächenantastung gewonnenen Informationen in dreidimensionalen Koordinaten zum Einsatz kommt.
22. Verfahren einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung vor Ermittlung der Abstände, insbesondere vor der Ermittlung der Höheninformation, eine zum Einsatz kommende Vergleichsfläche oder ein zum Einsatz kommendes Vergleichsbild gegenläufig im Raum gedreht wird.
23. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung Schrägstellungen oder Krümmungen des Objektes im Raum dadurch ausgeglichen werden, dass nur die zu den XY-Koordinaten einer im Raum liegenden beliebig geformten Fläche gehörenden Z-Werte von den Z-Werten des Höhenbildes des Objektes an den gleichen XY-Koordinaten subtrahiert werden.
24. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung zusätzlich eine Entzerrung der XY- Koordinaten, vorzugsweise mittels einer projektiven Transformation zum Einsatz kommt.
25. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung die durch die optische Oberflächenantastung gewonnenen Informationen, insbesondere das Höhenbild, zur Vollständigkeitsprüfung von Baugruppen verwendet werden.
26. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Datenauswertung die durch die optische Oberflächenantastung gewonnenen Informationen, insbesondere das Höhenbild, zur Maßhaltigkeitsprüfung von Bauteilen oder Baugruppen verwendet werden.
27. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die gewonnenen Daten in automatischen Produktions- und Prüfvorgängen verwendet werden.
28. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die gewonnenen Daten in Messmaschinen verwendet werden.
29. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die gewonnenen Daten zur Steuerung von Robotern verwendet werden.
30. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahme der dreidimensionalen Bild Information nach dem Verfahren der phasenmessenden Streifenprojektion erfolgt.
31. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Projektion der Streifenmuster unter Verwendung von digital angesteuerten Displays erfolgt.
32. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Projektion der Streifenmuster unter Verwendung von digital angesteuerten Mikrospiegeldisplays (DLP) erfolgt.
33. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass auf die Projektion zusätzlicher Muster zur absoluten Abstandsbestimmung verzichtet wird und nur eine relative Abstandsmessung realisiert wird.
34. Verfahren nach einem oder mehreren der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahme der Oberflächen-Punktwolke mittels Führung und Positionierung einer Aufnahmevorrichtung per Hand erfolgt.
35. Vorrichtung zur Datenaufnahme und -auswertung, wobei die Vorrichtung eine oder mehrere Kameras, eine oder mehrere Projektionseinheiten für die strukturierte Beleuchtung und mindestens eine Datenverarbeitungseinheit umfasst, dadurch gekennzeichnet, dass die Vorrichtung derart konfiguriert ist, dass gesamte Prozesssteuerung zur Datenaufnahme und -auswertung durch die mindestens eine Datenverarbeitungseinheit steuerbar ist.
36. Vorrichtung nach Anspruch 35, dadurch gekennzeichnet, dass die Datenaufnahme und/oder -auswertung Verfahren gemäß einem der Ansprüche 1 bis 34 umfasst.
37. Vorrichtung nach Anspruch 35 oder 36, dadurch gekennzeichnet, dass die Vorrichtung mindestens ein digital angesteuertes Display zur Projektion der Streifenmuster umfasst.
38. Vorrichtung nach Anspruch 35 oder 36, dadurch gekennzeichnet, dass die Vorrichtung mindestens ein digital angesteuertes Mikrospiegeldisplay (DLP) zur Projektion der Streifenmuster umfasst.
39. Vorrichtung nach Anspruch 35 bis 38, dadurch gekennzeichnet, dass die Vorrichtung mindestens eine Projektions- und mindestens eine Kameraeinheit umfasst, wobei die mindestens eine Projektions- und Kameraeinheit in einem gemeinsamen, kompakten Gehäuse integriert sind.
40. Vorrichtung nach Anspruch 39, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit konfiguriert ist zur Gewinnung der zweidimensionalen Bilddaten und in dem Gehäuse integriert ist.
41. Vorrichtung nach Anspruch 39 oder 40, dadurch gekennzeichnet, dass die
Datenverarbeitungseinheit konfiguriert ist zur Ausführung der zweidimensionalen Bildverarbeitungsalgorithmen und in dem Gehäuse integriert ist.
42. Vorrichtung nach einem oder mehreren der Ansprüche 39 bis 41 , dadurch gekennzeichnet, dass die Datenverarbeitungseinheit konfiguriert ist zur Umsetzung der gewonnenen Bild Informationen in Steuersignale zur Verwendung in automatischen Produktions- und Prüfvorgängen und in dem Gehäuse integriert ist.
43. Vorrichtung nach einem oder mehreren der Ansprüche 35 bis 42, dadurch gekennzeichnet, dass die Vorrichtung inklusive einer Energieversorgung in einem kompakten Gehäuse untergebracht und mobil einsetzbar ist.
44. Vorrichtung nach einem oder mehreren der Ansprüche 35 bis 43, dadurch gekennzeichnet, dass die Vorrichtung derart konfiguriert ist, dass ein Verfahren zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen ausführbar ist, wobei die gewonnenen dreidimensionalen Bildinformationen der Verwertung mit bereits hoch entwickelten Verfahren der herkömmlichen zweidimensionalen Bildverarbeitung zugänglich gemacht werden.
45. Vorrichtung nach einem oder mehreren der Ansprüche 35 bis 44, dadurch gekennzeichnet, dass die Vorrichtung konfiguriert ist zur Aufnahme der Oberflächen-Punktwolke, wobei die Aufnahme nach dem Verfahren der phasenmessenden Streifenprojektion erfolgt.
46. Vorrichtung nach einem oder mehreren der Ansprüche 35 bis 45 dadurch gekennzeichnet, dass die Vorrichtung derart konfiguriert ist, dass ein Verfahren zur Verarbeitung von durch optische Oberflächenantastung gewonnenen Informationen ausführbar ist, wobei auf die Projektion zusätzlicher Muster zur absoluten Abstandsbestimmung verzichtet wird und nur eine relative Abstandsmessung realisiert wird.
47. Vorrichtung nach einem oder mehreren der Ansprüche 35 bis 46 dadurch gekennzeichnet, dass die Vorrichtung ein Benutzerinterface umfasst zur Konfiguration von zumindest Teilen der Datenauswertung, vorzugsweise zur Konfiguration der kompletten Datenauswertung.
48. Computerprogramm, das es einer Datenverarbeitungseinrichtung ermöglicht, nachdem es in Speichermittel der Datenverarbeitungseinrichtung geladen worden ist, ein Verfahren zur Datenaufnahme und -auswertung entsprechend einem oder mehreren der Ansprüche 1 bis 34 durchzuführen.
49. Computerlesbares Speichermedium, auf dem ein Programm gespeichert ist, das es einer Datenverarbeitungseinrichtung ermöglicht, nachdem das Programm in Speichermittel der Datenverarbeitungseinrichtung geladen worden ist, ein Verfahren zur Datenaufnahme und - auswertung entsprechend einem oder mehreren der Ansprüche 1 bis 34 durchzuführen.
50. Verfahren, bei dem ein Computerprogramm nach Anspruch 48 aus einem elektronischen Datennetz, wie beispielsweise aus dem Internet, auf eine an das Datennetz angeschlossene Datenverarbeitungseinrichtung heruntergeladen wird.
PCT/EP2012/065012 2011-08-01 2012-08-01 Optische oberflächenabtastung mit strukturierter beleuchtung WO2013017618A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011080220 2011-08-01
DE102011080220.7 2011-08-01

Publications (1)

Publication Number Publication Date
WO2013017618A1 true WO2013017618A1 (de) 2013-02-07

Family

ID=46717820

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/065012 WO2013017618A1 (de) 2011-08-01 2012-08-01 Optische oberflächenabtastung mit strukturierter beleuchtung

Country Status (1)

Country Link
WO (1) WO2013017618A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3013648B1 (de) 2013-06-28 2018-03-28 Tönjes, Piet Verfahren zum herstellen eines kennzeichens und kennzeichen
US10176628B2 (en) 2015-08-08 2019-01-08 Testo Ag Method for creating a 3D representation and corresponding image recording apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19639999C2 (de) 1996-09-18 1998-08-20 Omeca Messtechnik Gmbh Verfahren und Vorrichtung für die 3D-Messung
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
US7088442B2 (en) * 2000-12-14 2006-08-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Device and method for a quality test of a body
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
WO2010007094A2 (de) * 2008-07-15 2010-01-21 Gfmesstechnik Gmbh Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium
DE202010000700U1 (de) 2010-01-07 2010-07-22 Gf Messtechnik Gmbh Vorrichtung zur Steuerung von Projektionsdisplays und zur Datenerfassung mittels Kamerasensoren
US20100265316A1 (en) * 2009-04-16 2010-10-21 Primesense Ltd. Three-dimensional mapping and imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19639999C2 (de) 1996-09-18 1998-08-20 Omeca Messtechnik Gmbh Verfahren und Vorrichtung für die 3D-Messung
US6771818B1 (en) * 2000-04-04 2004-08-03 Microsoft Corporation System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions
US7088442B2 (en) * 2000-12-14 2006-08-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Device and method for a quality test of a body
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
WO2010007094A2 (de) * 2008-07-15 2010-01-21 Gfmesstechnik Gmbh Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium
US20100265316A1 (en) * 2009-04-16 2010-10-21 Primesense Ltd. Three-dimensional mapping and imaging
DE202010000700U1 (de) 2010-01-07 2010-07-22 Gf Messtechnik Gmbh Vorrichtung zur Steuerung von Projektionsdisplays und zur Datenerfassung mittels Kamerasensoren

Non-Patent Citations (13)

* Cited by examiner, † Cited by third party
Title
"3D Kamera Ranger: Technische Beschreibung", 1 May 2009 (2009-05-01), pages 1 - 16, XP055042414, Retrieved from the Internet <URL:http://www.chronos-vision.de/downloads/RANGER.pdf> [retrieved on 20121026] *
"The PrimeSensor Reference Design 1.08", 1 January 2010 (2010-01-01), http://www.primesense.com, http://web.archive.org, pages 1 - 2, XP055042338, Retrieved from the Internet <URL:http://web.archive.org/web/20100203013635/http://www.primesense.com/files/PDF/PrimeSensor_RD1.08_Datasheet.PDF> [retrieved on 20121026] *
BERTALAN MOLNAR: "Vision Experts Unveils Braille Inspection System", FOLDING CARTON INDUSTRY, 1 August 2010 (2010-08-01), pages 1 - 2, XP055041763, Retrieved from the Internet <URL:www.vision-experts.hu/braille_fci.pdf> [retrieved on 20121022] *
BESL P J: "ACTIVE, OPTICAL RANGE IMAGING SENSORS", MACHINE VISION AND APPLICATIONS, SPRINGER VERLAG, DE, vol. 1, 1 January 1988 (1988-01-01), pages 127 - 152, XP000196923, ISSN: 0932-8092, DOI: 10.1007/BF01212277 *
FERREIRA J F ET AL: "Tele-3D-developing a handheld scanner using structured light projection", 3D DATA PROCESSING VISUALIZATION AND TRANSMISSION, 2002. PROCEEDINGS. FIRST INTERNATIONAL SYMPOSIUM ON JUNE 19-21, 2002, PISCATAWAY, NJ, USA,IEEE, LOS ALAMITOS, CA, USA, 19 June 2002 (2002-06-19), pages 788 - 791, XP010596751, ISBN: 978-0-7695-1521-2 *
FRATI V ET AL: "Using Kinect for hand tracking and rendering in wearable haptics", WORLD HAPTICS CONFERENCE (WHC), 2011 IEEE, IEEE, 21 June 2011 (2011-06-21), pages 317 - 321, XP032008619, ISBN: 978-1-4577-0299-0, DOI: 10.1109/WHC.2011.5945505 *
HOOVER A ET AL: "An experimental comparison of range image segmentation algorithms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 18, no. 7, 1 July 1996 (1996-07-01), pages 673 - 689, XP002213073, ISSN: 0162-8828, DOI: 10.1109/34.506791 *
J.G.N. ORLANDI ET AL: "Generation of Orthorectified Range Images for Robots using Monocular Vision and Laser Stripes", LATIN AMERICAN APPLIED RESEARCH, vol. 38, 1 January 2008 (2008-01-01), pages 27 - 33, XP055042388, ISSN: 0327-0793 *
JASON GENG: "Structured-light 3D surface imaging: a tutorial", ADVANCES IN OPTICS AND PHOTONICS, vol. 3, no. 2, 31 March 2011 (2011-03-31), pages 128, XP055033088, DOI: 10.1364/AOP.3.000128 *
JIANG X ET AL: "Some further results of experimental comparison of range image segmentation algorithms", PATTERN RECOGNITION, 2000. PROCEEDINGS. 15TH INTERNATIONAL CONFERENCE ON SEPTEMBER 3-7, 2000; [PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION. (ICPR)], LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 4, 3 September 2000 (2000-09-03), pages 877 - 882, XP010533216, ISBN: 978-0-7695-0750-7, DOI: 10.1109/ICPR.2000.903055 *
LUIGI GALLO ET AL: "Controller-free exploration of medical image data: Experiencing the Kinect", COMPUTER-BASED MEDICAL SYSTEMS (CBMS), 2011 24TH INTERNATIONAL SYMPOSIUM ON, IEEE, 27 June 2011 (2011-06-27), pages 1 - 6, XP032044595, ISBN: 978-1-4577-1189-3, DOI: 10.1109/CBMS.2011.5999138 *
PAL N R ET AL: "A REVIEW ON IMAGE SEGMENTATION TECHNIQUES", PATTERN RECOGNITION, ELSEVIER, GB, vol. 26, no. 9, 1 September 1993 (1993-09-01), pages 1277 - 1294, XP000403526, ISSN: 0031-3203, DOI: 10.1016/0031-3203(93)90135-J *
YOUNGJIN HONG ET AL: "Detecting and Tracking People by Mobile Robot Using Structured Light Range Sensor", 2005 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS; EDMONTON, AB, CANADA; 2 - 6 AUGUST 2005, IEEE, PISCATAWAY, NJ, USA, 2 August 2005 (2005-08-02), pages 2864 - 2869, XP010857506, ISBN: 978-0-7803-8912-0, DOI: 10.1109/IROS.2005.1545410 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3013648B1 (de) 2013-06-28 2018-03-28 Tönjes, Piet Verfahren zum herstellen eines kennzeichens und kennzeichen
US10176628B2 (en) 2015-08-08 2019-01-08 Testo Ag Method for creating a 3D representation and corresponding image recording apparatus

Similar Documents

Publication Publication Date Title
EP3278302B1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE69826753T2 (de) Optischer Profilsensor
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
EP2002203B1 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102018108027B4 (de) Objekterfassungsvorrichtung
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE112013002824T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE112014001470T5 (de) Diagnostizierung einer Mehrwegestörung und Entfernung einer Mehrwegestörung bei 3D-Scannern durch angeleitete Sondenuntersuchung
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102014016069A1 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE102006048725A1 (de) Verfahren zum Ermitteln der Drehachse eines Fahrzeugrades
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102008042145A1 (de) Verfahren und Messanordnung zum Bestimmen der Rad-oder Achsgeometrie eines Fahrzeugs
EP2589926B1 (de) Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen
DE102018123393A1 (de) Erkennung von Parkflächen
WO2013017618A1 (de) Optische oberflächenabtastung mit strukturierter beleuchtung
DE102014224274B4 (de) Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung
EP3809371A1 (de) Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12748666

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12748666

Country of ref document: EP

Kind code of ref document: A1