DE4007500A1 - Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen - Google Patents

Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen

Info

Publication number
DE4007500A1
DE4007500A1 DE4007500A DE4007500A DE4007500A1 DE 4007500 A1 DE4007500 A1 DE 4007500A1 DE 4007500 A DE4007500 A DE 4007500A DE 4007500 A DE4007500 A DE 4007500A DE 4007500 A1 DE4007500 A1 DE 4007500A1
Authority
DE
Germany
Prior art keywords
camera
projectors
projected
grids
stripe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4007500A
Other languages
English (en)
Inventor
Michael Dr Kuechel
Albrecht Dr Hof
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss SMT GmbH
Carl Zeiss AG
Original Assignee
Carl Zeiss SMT GmbH
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss SMT GmbH, Carl Zeiss AG filed Critical Carl Zeiss SMT GmbH
Priority to DE4007500A priority Critical patent/DE4007500A1/de
Priority to DE59104107T priority patent/DE59104107D1/de
Priority to EP91102736A priority patent/EP0445618B1/de
Priority to JP3043365A priority patent/JPH04220509A/ja
Priority to US07/666,247 priority patent/US5135309A/en
Priority to DE19914129796 priority patent/DE4129796A1/de
Publication of DE4007500A1 publication Critical patent/DE4007500A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur berührungslosen Vermessung von Objektoberflächen mit Hilfe von auf die Objektoberfläche projizierten Streifenmustern, die von einer Kamera detektiert und ausgewertet werden.
Es gibt bereits eine ganze Reihe verschiedener Verfahren, mit denen relativ große Bereiche einer Objektoberfläche bezüglich ihrer x-, y- und z-Koordinaten auf einmal vermessen werden, indem durch Projektion oder Schattenwurf eine regelmäßige, meist gitterförmige Struktur auf das Objekt aufbelichtet wird. Hierzu gehören die verschiedenen Varianten des unter dem Namen "Moir´-Topographie" bekannten Verfahrens, bei dem der infolge zweimaligen Lichtdurchganges durch ein Gitter gleicher Periode auftretende sogenannte Moir´-Effekt für die Gewinnung von Höheninformation der interessierenden Objektoberfläche ausgenutzt wird.
So wird beispielsweise in dem von Takasaki in Applied Optics 6 (1970), auf Seite 1467 beschriebenen "Schattenwurf"-Moir´- Verfahren die zu untersuchende Objektoberfläche durch ein davor gestelltes Amplitudengitter von einer möglichst punktförmigen Lichtquelle beleuchtet. Die derart strukturiert beleuchtete Oberfläche wird dann von einem Objektiv und zwar nochmals durch das gleiche Gitter hindurch, auf einen Schirm abgebildet, wobei die Beleuchtungsstrahlen und die Abbildungsstrahlen einen Winkel (α) einschließen. Da das auf die Objektoberfläche aufbelichtete Gitter entsprechend der Oberflächenform deformiert wird, entstehen aufgrund des Moir´-Effekts Konturlinien, die Information über die Tiefenausdehnung der Objektpunkte geben. Diese Konturlinien sind auch dann noch sichtbar, wenn die Grundfrequenz des zur Beleuchtung verwendeten Gitters selbst bei der Abbildung nicht mehr aufgelöst wird oder sogar gezielt "weggemittelt" wird, indem es während einer Aufnahme um eine oder mehrere volle Gitterperioden verschoben wird.
Eine weitere Variante der Moir´-Topographie-Verfahren ist das sogenannte Projektion-Moir´-Verfahren. Bei diesem Verfahren wird ein Gitter im Beleuchtungsstrahlengang eines Projektivs auf die Objektoberfläche abgebildet und die Objektoberfläche durch ein Objektiv auf ein zweites Gitter vor der verwendeten Aufnahmekamera abgebildet. Ein derartiges ist z. B. in der EP-B1-01 21 353 beschrieben. Auch in dieser Verfahrensvariante ist es wieder möglich, die beiden Gitter, das Projektionsgitter und das zur Abbildung verwendete Gitter, synchron während einer Aufnahme zu verschieben, um Gitterunregelmäßigkeiten auszumitteln, ohne daß sich dabei die aufgrund des Moir-Effektes entstehenden Konturlinien bzw. deren Lage im Raum ändert. Hierbei ist vorausgesetzt, daß die Gitter die gleiche Gitterkonstante besitzen und die Brennweiten von Projektiv und Objektiv gleich sind. Aus der genannten Patentschrift ist es außerdem bekannt, symmetrisch zum Meßstrahlgang zwei Projektoren beidseitig unter gleichem Abstand und gleichem Projektionswinkel anzuordnen, um durch die beidseitige Projektion überlappende und aneinander anschließende Gittermuster zu erzeugen und damit das Problem von Abschattungen bei der Vermessung von stark gekrümmten Objektoberflächen auszuschalten.
In der dritten bekannten Variante von Moir´-Topographie- Verfahren wird auf ein zweites Gitter von der Aufnahmekamera verzichtet. Stattdessen übernimmt hier das Raster der Zeilen der Aufnahmekamera oder die Pixelperiode einer CCD-Kamera die Funktion des Decodierungsgitters. Dieses sogenannte "Scanning"-Moir´-Verfahren ist beispielsweise in Applied Optics, Vol. 16, Nr. 8 (1977) auf Seite 2152 beschrieben.
Neben den beschriebenen Verfahren der Moir´-Topographie ist es auch bekannt, das Objekt zu vermessen, indem direkt die Höheninformation aus der Verformung des Streifenmusters auf der Objektoberfläche berechnet wird, ohne ein zweites Gitter vor der Kamera zu verwenden. Solche sogenannten "Streifenprojektionsverfahren" sind beispielsweise in der EP-A2-02 62 089, der US-PS 46 41 972, der US-PS 44 88 172 und der US-PS 44 99 492 beschrieben.
Sowohl bei den Moir´-Topographie-Verfahren als auch der Streifenprojektionsmethode ist es erforderlich, für die quantitative Auswertung der Streifenmuster bzw. Konturlinien zu Koordinatenmeßwerten die zyklische Helligkeitsvariation der Streifensysteme auf der Objektoberfläche zu messen. Dies wird im allgemeinen als Phasenmessung bezeichnet. Üblicherweise geht man hierbei so vor, daß die Lage des Projektionsgitters während einer Messung in mehreren Schritten um feste Beträge verschoben wird, die einer Phasenänderung von beispielsweise 90° oder 120° entsprechen.
Mit den bekannten Verfahren ist es jedoch nicht ohne weiteres möglich, größere Objekte aus dem Bereich der industriellen Fertigung ausreichend genau zu vermessen, insbesondere wenn diese Objektive Unstetigkeiten wie Kanten und Stufen aufweisen. Hierfür ist folgender Umstand verantwortlich:
Wegen der zentralperspektivischen Anordnung von Projektion und Beobachtung ist der Abstand aufeinanderfolgender Konturlinien nicht konstant sondern nimmt mit wachsender Tiefe des Objekts zu. Deshalb ist es ohne die Kenntnis des absoluten Abstandes der Objektoberfläche an mindestens einem Punkt auch nicht möglich, Aussagen über den Verlauf eines Profils einer stetigen Oberfläche zu gewinnen. Die gängigen Phasenmeßmethoden berechnen den Objektabstand jedoch nur Modulo 2 π, d. h. sie liefern nur Relativwerte innerhalb einer Streifenordnungszahl. Mit diesen Phasenmethoden ist es deshalb auch nicht möglich, die infolge von Kanten und Stufen auftretenden Sprungsstellen der auszuwertenden, zyklischen Funktion zu beseitigen.
Zur Lösung des Problems ist bereits vorgeschlagen worden, mehrere Streifenmuster mit stark voneinander abweichender Streifenperiode auf das Objekt zu projizieren und so mit Hilfe der längeren Streifenperiode den Bereich, in dem die Streifenphase eindeutig ist, zu vergrößern. Hierzu ist in der US-PS 44 88 172 ein zweiter Projektor vorgesehen, der ein zweites Streifenmuster mit achtfach längerer Periode projiziert. Für die Auswertung muß das zur Projektion benutzte Gitter jedoch mit einer gegenüber dem Gitter im anderen Projektor achtfach höherer Geschwindigkeit bewegt werden. Hierbei geht die feste räumliche Zuordnung der beiden Gitter zueinander verloren, die zur Projektion der Streifenmuster benutzt werden. Diese Zuordnung ist jedoch wichtig, wenn hochgenaue Messungen gemacht werden sollen.
In dem Gerät nach der EP-A2-02 62 089 hingegen werden die zwei verschiedenen Streifenmuster dadurch erzeugt, daß zwei Gitter gleicher Periode aufeinander gelegt und in unterschiedlichem Ausmaß gegeneinander verdreht werden, so daß die daraus resultierenden auf das Objekt projizierten Moir´-Streifenmuster stark voneinander abweichende Periodizitäten besitzen. Nachteilig hieran ist unter anderem, daß zur Erzeugung der Streifenmuster unterschiedlicher Periode die Gitter mechanisch verstellt werden und es deshalb nicht möglich ist, die Streifenmuster im Videotakt schnell hintereinander zu projizieren.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung der eingangs genannten Art zu schaffen, das eine eindeutige, absolute Abstandsmessung im gesamten Meßbereich gewährleistet und sich durch eine hohe Meßgenauigkeit sowie hohe Meßgeschwindigkeit auszeichnet.
Diese Aufgabe wird durch die im Kennzeichen des Anspruchs 1 angegebenen Maßnahmen gelöst.
Dadurch, daß mehrere Streifenmuster mit gleicher oder nur leicht voneinander abweichender Streifenperiode projiziert und die Schwebungsfrequenz zwischen den Streifenmustern ausgewertet wird, ist es möglich, die für die Projektion benutzten Gitter auch dann, wenn diese z. B. für die Phasenmessung oder aus anderen Gründen bewegt werden, in einer festen räumlichen Zuordnung zu halten. Beispielsweise können alle Gitter auf einem gemeinsamen Träger aufgebracht werden. Dies kommt der Genauigkeit der Abstandsmessung zugute, da die Relativlage der Gitter zueinander von Umwelteinflüssen unbeeinflußt bleibt.
Zweckmäßig ist es, wenn die Streifenmuster bei der Aufnahme durch die Kamera z. B. durch Zeitmultiplexverfahren oder Projektion von farblich unterschiedlichen Mustern voneinander getrennt einem Bildverarbeitungsrechner zugeführt werden und dann die Schwebungsfrequenzen unterschiedlicher effektiver Wellenlänge erst im Rechner, nämlich aus den Differenzen der Streifenphase der Streifenmuster, gebildet werden. In diesem Falle überlagern sich die Intensitäten der projizierten Streifenmuster nicht, so daß die jeweils einem Gitter zugeordneten Streifen eindeutig identifiziert und einzeln ausgewertet werden können, d. h. ihre Phase exakt bestimmt werden kann.
Es ist vorteilhaft, drei Gitter gleicher Periode unter verschiedenen Winkeln auf das Objekt zu projizieren. Auf diese Weise lassen sich zwei Schwebungsfrequenzen mit sehr unterschiedlicher effektiver Wellenlänge aus den Phasendifferenzen je zwei projizierter Streifenmuster bilden, ohne daß Gitter mit unterschiedlicher Gitterkonstante benötigt werden. Vielmehr genügt es, einfach den Projektionswinkel zwischen zwei Gittern klein gegenüber dem Projektionswinkel zweier anderer Gitter zu halten. Die auszuwertenden Schwebungsfrequenzen besitzen dann effektive Wellenlängen, die im Verhältnis der Projektionswinkel zueinander stehen.
Gitter gleicher Periode lassen sich außerdem sehr einfach herstellen und beispielsweise in einem Fertigungsprozeß nebeneinander auf einem gemeinsamen Gitterträger aufbringen. Sie liegen zweckmäßig in der gleichen Ebene, so daß die zur Auswertung der Streifenmuster erforderlichen Rechenvorgänge vereinfacht sind.
Es ist jedoch auch möglich, die Schwebungsfrequenz mit der größeren Wellenlänge dadurch zu erzeugen, daß zwei Gitter mit nur leicht voneinander unterschiedlicher Periode projiziert werden. Zweckmäßig werden hierfür zwei Projektoren vorgesehen und mit jedem der beiden im Winkel zueinander angeordneten Projektoren jeweils die beiden Gitter mit leicht unterschiedlicher Periode farblich oder polarisationsoptisch getrennt projiziert. In diesem Falle kann auf die dritte Projektionsoptik verzichtet werden.
Nachfolgend werden vorteilhafte Ausführungsformen der Erfindung anhand der Fig. 1-5 näher erläutert.
Fig. 1 ist eine Prinzipskizze, die den optisch- geometrischen Aufbau eines ersten Ausführungsbeispiels der Erfindung zeigt;
Fig. 2 ist eine perspektivische Darstellung der wesentlichen Bauteile der in Fig. 1 vereinfacht skizzierten Vorrichtung;
Fig. 3 ist eine Prinzipskizze eines zweiten, alternativen Ausführungsbeispiels;
Fig. 4 ist eine perspektivische Darstellung der wesentlichen Bauteile der in Fig. 3 vereinfacht skizzierten Vorrichtung;
Fig. 5a-b sind Teilschaltbilder des zur Signalauswertung der Vorrichtung nach Fig. 1 und 2 benutzten Auswerterechners.
In der schematischen Darstellung nach Fig. 1 ist ein Aufbau dargestellt, der im wesentlichen aus drei Projektoren mit den Projektionsoptiken (P₁), (P₂) und (P₃) und drei Gittern (G₁), (G₂) und (G₃) mit jeweils gleicher Gitterperiode besteht, die im Abstand (a) hinter den Projektionsoptiken (P₁-P₃) angeordnet sind. Der Kamerasensor ist mit (K) bezeichnet und befindet sich mit dem vorgesetzten Beobachtungsobjektiv (Bo) zwischen den Projektoren (P₁) und (P₂) im Abstand (ak) hinter dem Beobachtungsobjektiv (Bo). Während die Projektoren (P₁) und (P₃) nun unter einem relativ großen Winkel (α₁) von ca. 30° zueinander geneigt sind, schließen die beiden nebeneinander angeordneten Projektoren (P₂) und (P₃) einen relativ kleinen Winkel (α₂) von beispielsweise 0,5° ein. Durch diese Anordnung sind zwei Sätze von Ebenen konstanter Phasendifferenz definiert, nämlich die Phasendifferenzen der Streifenmuster der beiden Projektoren (P₁) und (P₂) oder (P₁) und (P₃) sowie die Phasendifferenzen der beiden Streifenmuster der Projektoren (P₂) und (P₃), wobei den beiden Sätzen unterschiedliche effektive Wellenlängen (λeff) in z-Richtung zugeordnet werden können. Die effektive Wellenlänge (λeff) wird durch die Gitterkontante der Gitter (G₁), (G₂) und (G₃) und den Winkel (α₁) bzw. (α₂) zwischen den Projektionsachsen der jeweiligen Projektoren bestimmt und hängt, da die Gitterkonstanten der Gitter (G₁) bis (G₃) gleich sind, deshalb nur von den Winkeln (α₁) und (α₂) ab. Nachfolgend werden Formeln abgeleitet, aus denen sich die Objektkoordinaten (x), (y) und (z) aus den von den drei Projektoren (P₁), (P₂) und (P₃) projizierten Streifenmustern für die einzelnen Punkte der Objektoberfläche berechnen lassen. Hierfür ist vorausgesetzt, daß sich die Projektionszentren (Z₁), (Z₂) und (Z₃) der Projektionsobjektive auf einer sich in x-Richtung erstreckenden Geraden liegen und die drei Gitter (G₁) bis (G₃) im gleichen Abstand (a) hinter diesen Geraden angeordnet sind. Die Gitter sind beispielsweise wie in Fig. 4 skizziert auf einem gemeinsamen Träger (W) aus Glas oder einem Material mit geringem thermischen Ausdehnungskoeffizienten wie z. B. Zerodur angeordnet und können gemeinsam relativ zur CCD- Kamera (K) in Richtung der Geraden x mit Hilfe einer Federwippe spielfrei bewegt werden. Die photoempfindliche Fläche der Kamera, d. h. der CCD-Sensor ist im Abstand (aK) hinter dem Beobachtungsobjektiv (Bo) angeordnet.
Durch den beschriebenen Aufbau ist die Geometrie des Meßgeräts im wesentlichen bestimmt. Die z. B. an einem exemplarischen Punkt (x, y=0, z) projizierten Gitterorte (xp1, xp2, xp3) werden mit der Videokamera (K), z. B. einer CCD-Kamera, beobachtet. Das Zentrum (x0k) des Beobachtungsobjektivs (Bo) der Kamera legt den Ursprung des von den Projektoren (P₁) bis (P₃) vorbestimmten Koordinatensystems fest.
Durch Betrachten ähnlicher Dreiecke erhält man für die Projektoren
und für die Kamera
Die Kombination der Kameragleichung (4) mit den Projektionsgleichungen (1)-(3) liefert
wobei die Differenzen (xopi-xpi, i=1 . . 3) als das (ni + δi)- fache der Streifenperiode (P) mit (ni) als einem Element der natürlichen Zahlen und (δi<1) ausgedrückt sind.
Betrachtet man den Zusammenhang zwischen den Beobachtungen der Streifenmuster zweier Projektoren und bildet Differenzen, so erhält man aus (5), (6) und (7)
oder
wobei K₁, K₂, K₃ Gerätekonstanten sind,
N₁ = n₁-n₂, N₂ = n₁-n₃, N₃ = n₂-n₃ und
Δ₁ = δ₁-δ₂, Δ₂ = δ₁-δ₃, Δ₃ = δ₂-δ₃ ist.
Die Formeln (11), (12) und (13) beschreiben Ebenen konstanter Phasendifferenz (Nii) zwischen je zwei Projektoren, die parallel zur x/y-Ebene liegen. Sie hängen nicht vom Beobachtungsort (xk, yk) auf der Kamera ab. Zur Messung müssen die ganzen Zahlen (N₁, N₂, N₃) und die Bruchteile (Δ₁, Δ₂, Δ₃) bestimmt werden.
Den Flächen gleicher Phasendifferenz, die durch die Gleichungen (11), (12) und (13) beschrieben sind, lassen sich unterschiedliche effektive Wellenlängen (λeff) der Phasendifferenzen zuordnen. Für die aus einer Kombination der Projektoren (P₁) und (P₂) gewonnene Gleichung (11) und die aus einer Kombination der Projektoren (P₁) und (P₃) gewonnene Gleichung (12) liegen relativ kurze effektive Wellenlängen vor, während dem durch Gleichung (13) beschriebenen Fall der Kombination der beiden Projektoren (P₂) und (P₃) eine vergleichsweise große Wellenlänge (λeff) zugeordnet werden kann. Wesentlich ist, daß die verschiedenen effektiven Wellenlängen über die Winkel (α₁), (α₂) zwischen den Projektoren hochstabil eingestellt werden können.
Für die Auswertung der Messungen in einem Rechner bietet es sich an, die Formeln (11), (12) und (13) noch einmal umzuformulieren:
Zur vollständigen Bestimmung der Koordinaten (x), (y) und (z) eines Bildpunktes werden die Lateralkoordinaten (x) und (y) über das Abbildungsgesetzt mit
berechnet.
Zur Auswertung werden die von den drei Projektoren (P₁) bis (P₃) in Zeitmultiplexbetrieb projizierten Streifenmuster der durch das Objektiv (Bo) von der Kamera (K) aufgenommen und getrennt in verschiedene Bildspeicher eingelesen. Die Berechnung der Objektkoordinaten (x), (y) und (z) nach den angegebenen Formeln geschieht dann wie nachstehend anhand von Fig. 5a und 5b beschrieben in einem hardwaremäßig aufgebauten Bildverarbeitungsrechner. Dieser Rechner verarbeitet die Bilddaten in Videoechtzeit. Er ist hierzu in Form einer Pipelinestruktur auch mit teilweise parallelen Datenpfaden aufgebaut und wird von einem Host-Rechner mit bekannter von Neumann-Struktur, d. h. beispielsweise einem kommerziell erhältlichen Prozeßrechner gesteuert. Für die weitere Beschreibung des Auswerterechners wird auf die Fig. 5a und 5b Bezug genommen, in denen dieser im Blockschaltbild dargestellt ist.
Dort sind die drei unterschiedlichen Funktionsbaugruppen mit (A), (B) und (C) bezeichnet. Die Funktionsbaugruppe (A) stellt die Schnittstelle zu den externen Sensoren bzw. zu steuernden Teilen der Vorrichtung dar. Sie enthält einen Analog/Digitalwandler (12), der das Signal der Kamera (K) in Videoechtzeit digitalisiert. Der Verstärkungsfaktor ist hierbei abhängig vom Ausgangssignal einer Photodiode (13) gesteuert, so daß das Videosignal an unterschiedliche Helligkeitsverhältnisse bzw. unterschiedliche Energien der als Blitzlampen ausgebildeten Lichtquellen (L₁) bis (L₃) (siehe Fig. 3 und 4) angepaßt werden kann, die zur Beleuchtung der Gitter (G₁-G₃) dienen. Zur Ansteuerung der Blitzlampen (L₁) bis (L₃) enthält die Schnittstellenkarte (A) eine Triggerschaltung (31), die mit Kamera (K) synchronisiert ist. Die Schnittstellenkarte (A) enthält außerdem die Steuerelektronik (32) für den Motor, mit dem das Objektiv (Bo) der Kamera (K) auf unterschiedliche Objektbereiche, wie in Fig. 4 durch den Pfeil (Pf₂) angedeutet, scharf gestellt werden kann. Die Abfolge der Blitze und die Verstellung des Objektivs wird entsprechend einem festgelegten Meßprogramm des in der Fig. 5 nicht dargestellten konventionellen Host-Rechners gesteuert. Dies ist durch die beiden Pfeile "Host" symbolisiert, die auch an anderer Stelle in der Schaltung nach Fig. 5a und 5b auftauchen.
Das digitalisierte Videosignal, das den A/D-Wandler (12) verläßt, ist den Eingängen zweier parallel geschalteter Konvolutionsbausteine (14a) und (14b) in der Funktionsbaugruppe (B) zugeführt. Diese beiden Bausteine (14a) und (14b) führen eine Faltungsoperation durch, um den Sinus bzw. Kosinus der Streifenphase an den einzelnen Bildpunkten aus dem Intensitätsverlauf des Signals in der näheren Umgebung der Bildpunkte zu bestimmen. Entsprechende Algorithmen sind beispielsweise im "Optical Engineering", Vol. 23, No. 4 (Juli/August 1984) auf Seite 391-395 beschrieben. Die Ausgänge der Bausteine (14a) und (14b) sind einer Schaltung (15) zugeführt, in der die Streifenphase aus dem Sinus und dem Kosinus berechnet wird. Hierzu ist in einer der Schaltung (15) zugeordneten Tabelle die Funktion Arcustangens abgelegt. Gleichzeitig werden auf der Basis der in der Schaltung (15) berechneten Phasenwerte ungültige Meßwerte maskiert. Ungültige Meßwerte sind solche, die bei entweder zu hoher oder zu geringer Beleuchtungsintensität aufgenommen worden sind und deren Pegel deshalb über oder unter einem vorbestimmten Grenzwert liegt. Die Maske, die diese Bildbereiche maskiert, wird in einem parallel zum Meßdatenstrom in dem mit (C) bezeichneten Schaltungsteil erzeugt, wie nachfolgend noch beschrieben werden wird.
Der Ausgang der Schaltung (15) ist über eine Berechnungsstufe (16) (arithmetic logic unit) drei parallel geschalteten Bildspeichers (17a-c) zugeführt. Dort werden die in der Schaltung (15) berechneten Streifenphasen (δ₁), (δ₂) und (δ₃) der von den drei Projektoren (P₁), (P₂) und (P₃) im Zeitmultiplexbetrieb nacheinander projizierten Streifenmuster zwischengespeichert. In drei weiteren Bildspeichern (18a), (18b) und (18c) sind Korrekturwerte abgelegt, die in einem Kalibrierverfahren gewonnen wurden und die von der Unvollkommenheit des geometrisch-optischen Aufbaus der Vorrichtung herrührenden Verzerrungen der Streifenphase der durch die drei Projektoren projizierten Muster beschreiben. Diese Korrekturwerte werden in der Recheneinheit (16) von den Streifenphasen (δ₁), (δ₂) und (δ₃) subtrahiert. Die so korrigierten Phasenwerte gelangen wieder in die Bildspeicher (17a, b und c) und werden danach in einer zweiten Recheneinheit (19) weiterverarbeitet, die die Differenzen (Δ₁=δ₁-δ₂) und (Δ₂=δ₁-δ₃) berechnet. Diese Werte sind zur Berechnung des Objektabstandes (z) nach den Formeln (11), (12) und (13) erforderlich. Dabei ist zu berücksichtigen, daß (Δ₃) sich als Differenz aus (Δ₂-Δ₁) ergibt.
Auf die Recheneinheit (19) folgt eine Summationsstufe (S) (siehe Fig. 5b), die aus einer Recheneinheit (20) und zwei RAM-Speichern (21a) und (21b) besteht. In diesen Speichern (21a) und (21b) werden die Phasendifferenzen (Δ₁) und (Δ₂) für jeden Bildpunkt aufakkumuliert. Dies kann z. B. in einer Integer-Arithmetik so erfolgen, daß die 8 Bit Eingangswerte der die Phasendifferenzen (Δ₁) und (Δ₂) repräsentierenden Signale in einem Datenbereich von 16 Bit in den Speichern (22a) und (22b) aufsummiert werden. Auf diese Weise ist es möglich, die aus 255 Bildern gewonnenen Phasendifferenzen durch Summation zu mitteln und damit hinsichtlich der Genauigkeit der Phasenmessung zu verbessern.
Die Ausgänge der Bildspeicher (21a) und (21b) sind zwei darauffolgenden weiteren Recheneinheiten (22a) und (22b) zugeführt, in denen über weitere Tabellen (look-up-tables) die Formeln zur Berechnung des Objektabstandes gemäß Gleichung (14) und (15) bereitgehalten sind. Diese Recheneinheiten (22a) und (22b) berechnen zwei Werte für den Objektabstand (z), die in einer darauffolgenden Rechenstufe (23) nochmals gemittelt werden. In einem darauffolgenden digitalen Signalprozessor (24) werden die Koordinaten (x) und (y) der Bildpunkte gemäß Gleichung (16) und (17) aus den Meßwerten für (z) und den vom Host-Rechner gelieferten Gerätekonstanten (xk), (yk) und (ak) berechnet und einer Ausgabeeinheit (25) zugeführt.
Mit der beschriebenen Methode wird die Höheninformation über das zu vermessende Objekt absolut gewonnen und nicht nur Module 2π der Streifenphase.
Das vorstehend beschriebene Auswerteverfahren setzt voraus, daß die von der Kamera (K) gelieferten Signale im linearen Bereich der Kamerakennlinie erzeugt werden, daß insbesondere keine Unter- oder Übersteuerung vorkommt. Weiterhin ist es für das beschriebene Verfahren erforderlich, daß innerhalb einer Aufnahmeserie der drei von den Projektoren (P₁), (P₂) und (P₃) projizierten Streifenmuster ein Phasenwert nur dann weiterverarbeitet wird, wenn die Phasenwerte in allen drei Bildern der Sequenz für den bestimmten Bildpunkt gültig sind. Diese Rechenoperationen werden im Schaltungsteil (C) von Fig. 5a durchgeführt. Ob ein Meßgerät gültig oder ungültig ist, wird in einem Bit des look-up-tables LUT in der Recheneinheit (15) abgefragt. Die "und" Verknüpfung über die drei Videobildsequenzen wird in der Rechenstufe (26) zusammen mit einem rekusiv geschalteten RAM-Baustein (27) erzeugt. In der anschließenden Rechenstufe (28) wird die Anzahl der gültigen Meßwerte an jedem Bildpunkt berechnet und in einem nachfolgenden RAM-Baustein (29) gespeichert. Unter der Anzahl der Meßwerte ist hierbei die Anzahl der Videobilder zu verstehen, über die die Phasendifferenzen im Summationsbaustein (S) von Fig. 5b aufsummiert werden. Setzt man eine geeignete gewählte Grenze, die eine Mindestanzahl von gültigen Messungen für jeden Bildpunkt beschreibt, dann werden all die Bildpunkte ausgeblendet, in denen die Anzahl der gültigen Messungen unterhalb dieser Grenzen liegt und alle übrigen Bildpunkte werden in die Ergebnisberechnung miteinbezogen. Die hierdurch beschriebene, über die Bildpunkte gelegte Datenmaske ist durch das mit (30) bezeichnete Quadrat in Fig. 5a symbolisiert. Mit ihr kann der zur Ausgabe dienende Videomonitor (42) an den entsprechenden Bildpunktstellen dunkelgesteuert werden.
Der anhand von Fig. 5a und 5b beschriebene in Hardware realisierte Auswerterechner stellt eine Lösung dar, mit der die Signale der Kamera zur Durchführung des erfindungsgemäßen Verfahrens verarbeitet werden können. Diese Lösung ist darauf zugeschnitten, daß die Streifenmuster durch die drei Projektoren (P₁), (P₂) und (P₃) im Zeitmultiplexbetrieb nacheinander projiziert und die Bilder dann von der Kamera (K) nacheinander aufgenommen und verarbeitet werden. Es ist jedoch auch möglich, die Streifenmuster beispielsweise in verschiedenen Farben gleichzeitig zu projizieren und mit drei über Farbteiler getrennte Kameras gleichzeitig aufzunehmen. Dann müssen allerdings der Eingangskanal, d. h. der A/D- Wandler (12), die Konvultionsbausteine (14a) und (14b), die Recheneinheiten (15) und (16), die im Zeitmultiplexbetrieb arbeiten, in entsprechender Anzahl von drei Stück parallel ausgeführt werden. Dies hat zwar höhere Kosten zur Folge, bietet jedoch auch eine größere Bandbreite in der Verarbeitungsfrequenz. Umgekehrt sind die beschriebenen Rechenoperationen auch auf einem passend programmierten, geeignet leistungsfähigen, sequentiell arbeitendem Rechner herkömmlicher Struktur ablauffähig, allerdings dort nur mit erheblich längeren Laufzeiten, so daß eine Echtzeitverarbeitung der Videosignale in diesem Falle nicht zu erzielen ist.
Dadurch, daß bei dem beschriebenen Verfahren die z-Messung immer als Differenz zweier Projektionen, beispielsweise der Streifenmuster der Projektoren (P₁) und (P₂) oder der Projektoren (P₂) und (P₃) gebildet wird, kann der Träger (W) mit den Gittern (G₁) bis (G₃) (siehe Fig. 4) in Richtung des Pfeils (Pf₁) verschoben werden, ohne daß die bei der Signalauswertung erhaltenen z-Werte beeinflußt werden. Hierbei können nun mehrere Messungen mit verschiedenen Stellungen des Gitterträgers (W) gemacht werden, bei denen entsprechend auch unterschiedliche Bereiche der Gitter beleuchtet sind. Da die Einzelmessungen hinsichtlich der Phasendifferenzen (Δi) über alle Bilder aufaddiert und hierbei gemittelt werden, wirkt sich das so aus, daß statistische Fehler, herrührend entweder von Fertigungsungenauigkeiten der Gitter oder herrührend durch die einmalige Anwendung des Auswertealgorithmus, mit √ verbessert werden, wenn N die Anzahl der Messungen ist.
Gleichzeitig kann die Beleuchtungsintensität von dem Wert Null bis zur Sättigung durchgesteuert werden, damit möglichst von allen Objektpunkten, deren Reflexionsvermögen ja durchaus unterschiedlich sein kann, brauchbare Meßwerte erhalten werden können. Die Maskierungselektronik in Teil (C) der Schaltung von Fig. 5a sorgt hierbei dafür, daß alle Messungen im nicht-linearen Bereich der Kamera (K) verworfen werden.
In den Fig. 3 und 4 ist ein zweites, alternatives Ausführungsbeispiel der Erfindung dargestellt. In Analogie zu Fig. 1 zeigt die Skizze des zweiten Ausführungsbeispieles in Fig. 3 den prinzipiellen Aufbau des Meßgeräts, der im wesentlichen aus zwei Projektionsoptiken (P₁₁) und (P₁₂) und vier Gittern (G₁₁/G₁₃) und (G₁₂/G₁₄) besteht. Der Kamerasensor ist wieder mit (K) bezeichnet und befindet sich mit dem vorgesetzten Beobachtungsobjektiv (Bo) zwischen den Projektoren (P₁₁) und (P₁₂). Im hier beschriebenen Falle enthält jeder der beiden Projektoren (P₁₁) und (P₁₂) zwei Gitter und die Gitterkonstanten bzw. Gitterperioden je zweier Gitter (G₁₁) und (G₁₂) sowie (G₁₃) und (G₁₄) sind paarweise gleich. Hingegen unterscheiden sich die Gitterkonstanten bzw. Perioden der Gitter (G₁₁) und (G₁₃) bzw. (G₁₂) und (G₁₄) innerhalb eines Projektors geringfügig. Beispielsweise besitzt das Gitter (G₁₁) eine Gitterkonstante von 25 Linienpaaren/mm und das Gitter (G₁₃) eine Gitterkonstante von 25,5 Linienpaaren/mm. Durch diese Anordnung lassen sich zwei geringfügig voneinander abweichende Sätze von Ebenen kostanter Phasendifferenz definieren, nämlich die Phasendifferenzen zwischen den paarweise nacheinander projizierten Gittern (G₁₁) und (G₁₂) und die Phasendifferenzen zwischen den paarweise nacheinander projizierten Gittern (G₁₃) und (G₁₄). Betrachtet man nun die Schwebungsfrequenz zwischen den beiden Sätzen von Ebenen konstanter Phasendifferenz, so läßt sich dieser eine effektive Wellenlänge
zuordnen, die sehr viel größer ist als die den Flächen gleicher Phasendifferenz zugeordneten effektiven Wellenlängen λ₁ bzw. λ₂. Durch Auswerten dieser Schwebungsfrequenz läßt sich die Vieldeutigkeit der Phasenmessung beseitigen, die auftritt, wenn nur mit zwei Gittern (G₁₁) und (G₁₂) gleicher Periode gearbeitet wird.
Die Formeln, die zur Auswertung der Streifenmuster dienen, die mit diesem Aufbau erzeugt werden, lassen sich leicht aus den anhand von Fig. 1 abgeleiteten Formeln gewinnen, indem nämlich von Gleichung (8) ausgegangen wird und man diese Gleichung für die beiden Gitterpaare (G₁₁/G₁₂) und (G₁₃/G₁₄) mit den beiden unterschiedlichen Periodizitäten (P¹) und (P²) aufschreibt. Man erhält
oder
wobei K eine Gerätekonstante
und N¹ = n₁¹-n₂¹, N²=n₁²-n₂²
sowie Δ¹ = δ₁²-δ₂² und Δ² = d₁²-δ₂² ist.
Hieraus ergibt sich
Diese Gleichung (22) beschreibt eine Funktion mit einer im Vergleich zu Gleichung (20) bzw. (21) sehr viel größerer effektiver Wellenlänge. Der Objektabstand z läßt sich hieraus in ganz ähnlicher Weise wie anhand von Fig. 5 beschrieben ermitteln, indem die Nachkommanteile der Phasen
δ₁¹, δ₁², δ₂¹, δ₂²
der durch die vier Gitter (G₁₁) bis (G₁₄) projizierten Streifenmuster gemessen und entsprechend der Gleichung (22) ausgewertet werden.
Wesentlich ist, daß die vier Streifenmuster getrennt projiziert werden, so daß auf der Oberfläche des Kamerasensors (K) immer nur ein definiertes Streifenmuster entsteht und ausgewertet werden kann, sich also nicht die Intensitäten unterschiedlicher Streifenmuster überlagern und die Auswertung stören. Hierzu sind wie in Fig. 4 dargestellt die beiden Gitter (G₁₁) und (G₁₃) hinter der Projektionsoptik (P₁₁) auf die Flächen eines ersten Strahlteilerwürfels (S₁) aufgesetzt und die beiden Gitter (G₁₂) und (G₁₄) hinter der Projektionsoptik (P₁₂) auf die Flächen eines zweiten Strahlteilerwürfels (S₂) aufgesetzt. Beleuchtet werden die Gitterpaare (G₁₁) und (G₁₃) von zwei verschiedenen Lichtquellen (L₁₁) und (L₁₃) durch Farbfilter (F₁₁) und (F₁₃) hindurch, so daß Streifenmuster in unterschiedlicher Farbe entstehen, die von einer Farbkamera (K) getrennt verarbeitet werden können. Die Trennung des Gitterpaares (G₁₂, G₁₄) erfolgt auf die gleiche Weise mit Farbfiltern (F₁₂) und (F₁₄), die von zwei Lampen (L₁₂) und (L₁₄) beleuchtet werden.
Alternativ zu der beschriebenen Farbcodierung ist es natürlich auch möglich, die vier Gitter nacheinander im Zeitmultiplex durch eine entsprechende Ansteuerung der Lampen (L₁₁) bis (L₁₄) zu projizieren oder die Trennung der Streifenmuster polarisationsoptisch vorzunehmen.

Claims (10)

1. Verfahren zur Vermessung von Objektoberflächen mit Hilfe von auf die Oberfläche projizierten Streifenmustern, die von einer Kamera aufgenommen und ausgewertet werden, wobei zur Vergrößerung des Meßbereiches in Richtung der Kameraachse (z) Strukturen mit unterschiedlicher Periodizität ausgewertet werden, dadurch gekennzeichnet, daß mehrere Streifenmuster (G₁, G₂, G₃) gleicher oder leicht voneinander abweichender Periode projiziert werden und daß mindestens zwei aus den Streifenmustern gewonnene Schwebungsfrequenzen mit unterschiedlicher effektiver Wellenlänge für die Auswertung herangezogen werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Streifenmuster (G₁, G₂, G₃) bei der Aufnahme durch die Kamera voneinander getrennt einem Bildverarbeitungsrechner zugeführt werden, und daß die Schwebungsfrequenzen im Rechner erzeugt werden, indem die Differenzen (Δ₁, Δ₂, Δ₃) der Streifenphase (δ₁, δ₂, δ₃) der Streifensysteme gebildet werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß drei Gitter (G₁, G₂, G₃) gleicher Periode unter verschiedenen Winkeln (α₁, α₂) auf das Objekt projiziert werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die drei Gitter (G₁, G₂, G₃) in einer gemeinsamen Ebene angeordnet sind.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Streifenmuster durch zwei Paare (G₁₁/G₁₂, G₁₃/G₁₄) von Gittern mit gleicher Periode projiziert werden, wobei die Perioden der Gitterpaare leicht unterschiedlich gewählt sind.
6. Vorrichtung zur Vermessung von Objektoberflächen mit mindestens zwei Projektoren, die ein Streifenmuster gleicher Periodizität auf das Objekt (O) projizieren und einer Kamera (K), von der ein Bild der Objektoberfläche aufgenommen wird und der ein Bildverarbeitungsrechner nachgeschaltet ist, der aus den Videosignalen der Kamera (K) die Höheninformation (z) für die einzelnen Punkte der Objektoberfläche gewinnt, dadurch gekennzeichnet, daß die Projektoren (P₂, P₃) unter einem gegenseitigen Winkel zueinander angeordnet ist, der klein gegenüber dem Winkel ist, den sie mit der Achse der Kamera (K) einschließen.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß mindestens drei Projektoren (P₁, P₂, P₃) vorgesehen sind, die Streifenmuster gleicher Periode projizieren, und daß die zur Projektion dienenden Gitter (G₁, G₂, G₃) auf einem gemeinsamen Träger (W) bzw. Substrat aufgebracht sind.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, daß der Träger bzw. das Substrat relativ zur optischen Achse der Kamera (K) in der Ebene der Gitter (G₁, G₂, G₃) beweglich gelagert ist.
9. Vorrichtung zur Vermessung von Objektoberflächen mit mindestens zwei Projektoren, die ein Streifenmuster gleicher Periodizität auf das Objekt (O) projizieren und einer Kamera (K), von der ein Bild der Objektoberfläche aufgenommen wird und der ein Bildverarbeitungsrechner nachgeschaltet ist, der aus den Videosignalen der Kamera (K) die Höheninformation (z) für die einzelnen Punkte der Objektoberfläche gewinnt, dadurch gekennzeichnet, daß jeder der beiden Projektoren zwei Gitter (G₁₁, G₁₃/G₁₂, G₁₄) mit leicht unterschiedlicher Gitterperiode getrennt projiziert.
10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, daß die Projektoren Farbteiler (F₁₁/F₁₂, F₁₃/F₁₄) zur Trennung der Streifenmuster enthalten und die Kamera (K) als Farbkamera ausgebildet ist.
DE4007500A 1990-03-09 1990-03-09 Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen Withdrawn DE4007500A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE4007500A DE4007500A1 (de) 1990-03-09 1990-03-09 Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE59104107T DE59104107D1 (de) 1990-03-09 1991-02-25 Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen.
EP91102736A EP0445618B1 (de) 1990-03-09 1991-02-25 Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
JP3043365A JPH04220509A (ja) 1990-03-09 1991-03-08 物体表面を無接触で測定する方法および装置
US07/666,247 US5135309A (en) 1990-03-09 1991-03-08 Method and apparatus for non-contact measuring of object surfaces
DE19914129796 DE4129796A1 (de) 1990-03-09 1991-09-09 Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4007500A DE4007500A1 (de) 1990-03-09 1990-03-09 Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen

Publications (1)

Publication Number Publication Date
DE4007500A1 true DE4007500A1 (de) 1991-09-12

Family

ID=6401802

Family Applications (2)

Application Number Title Priority Date Filing Date
DE4007500A Withdrawn DE4007500A1 (de) 1990-03-09 1990-03-09 Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE59104107T Expired - Fee Related DE59104107D1 (de) 1990-03-09 1991-02-25 Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen.

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE59104107T Expired - Fee Related DE59104107D1 (de) 1990-03-09 1991-02-25 Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen.

Country Status (4)

Country Link
US (1) US5135309A (de)
EP (1) EP0445618B1 (de)
JP (1) JPH04220509A (de)
DE (2) DE4007500A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19637682A1 (de) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19749435A1 (de) * 1997-11-09 1999-05-27 Bernward Maehner Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten
DE19846145A1 (de) * 1998-10-01 2000-04-20 Klaus Koerner Verfahren und Anordung zur 3D-Aufnahme
EP1262810A2 (de) * 2001-05-29 2002-12-04 Leica Microsystems AG Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
DE102004044695A1 (de) * 2004-09-15 2006-03-30 Sick Ag Verfahren und Vorrichtung zur Abstandsmessung
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
EP3064893A1 (de) * 2015-03-05 2016-09-07 Leuze electronic GmbH + Co KG Optischer Sensor
US10161742B2 (en) 2006-12-01 2018-12-25 Datalogic Usa, Inc. Range finder

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5343294A (en) * 1990-03-09 1994-08-30 Carl-Zeiss-Stiftung Method for analyzing periodic brightness patterns
NL9200071A (nl) * 1992-01-15 1993-08-02 Stichting Science Park Maastri Inrichting voor het bepalen van de topografie van een gekromd oppervlak.
DE4217768A1 (de) * 1992-05-29 1993-12-02 Zeiss Carl Fa Verfahren und Vorrichtung zur Vermessung von Objekttopographien mittels projizierter Streifenmuster
DE4416108C2 (de) * 1994-05-06 2000-05-11 Fraunhofer Ges Forschung Vorrichtung zum berührungsfreien Vermessen einer Objektoberfläche
JP2919267B2 (ja) * 1994-05-26 1999-07-12 松下電工株式会社 形状検出方法およびその装置
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
GB9824986D0 (en) * 1998-11-13 1999-01-06 Isis Innovation Non-contact topographical analysis apparatus and method thereof
US6763133B1 (en) * 1999-05-29 2004-07-13 Sun Moon University Moire image capturing apparatus and method therefor
US6208412B1 (en) 1999-06-14 2001-03-27 Visteon Global Technologies, Inc. Method and apparatus for determining optical quality
US6100990A (en) * 1999-06-14 2000-08-08 Ford Motor Company Method and apparatus for determining reflective optical quality using gray-scale patterns
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
JP2004509401A (ja) * 2000-09-13 2004-03-25 ネクストエンジン・インコーポレーテッド キャプチャファイルの忠実度を保証するように監視または制御された撮像システム
US6856407B2 (en) 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
US7358986B1 (en) 2000-09-13 2008-04-15 Nextengine, Inc. Digital imaging system having distribution controlled over a distributed network
JP2002213931A (ja) * 2001-01-17 2002-07-31 Fuji Xerox Co Ltd 3次元形状計測装置および3次元形状計測方法
US7233351B1 (en) 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
JP3519698B2 (ja) * 2001-04-20 2004-04-19 照明 與語 3次元形状測定方法
DE10130902A1 (de) * 2001-06-27 2003-01-16 Zeiss Carl Interferometersystem, Verfahren zum Aufnehmen eines Interferogramms und Verfahren zum Bereitstellen und Herstellen eines Objekts mit einer Soll-Oberfläche
US6634552B2 (en) * 2001-09-26 2003-10-21 Nec Laboratories America, Inc. Three dimensional vision device and method, and structured light bar-code patterns for use in the same
WO2004083778A1 (en) * 2003-03-18 2004-09-30 Hermary Alexander Thomas Coded-light dual-view profile scanner
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US20060045174A1 (en) * 2004-08-31 2006-03-02 Ittiam Systems (P) Ltd. Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock
JP4628762B2 (ja) * 2004-11-30 2011-02-09 株式会社ニデック 眼科測定装置
KR100612932B1 (ko) * 2005-12-14 2006-08-14 주식회사 고영테크놀러지 3차원 형상 측정장치 및 방법
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
US20080117438A1 (en) * 2006-11-16 2008-05-22 Solvision Inc. System and method for object inspection using relief determination
FR2910123B1 (fr) * 2006-12-19 2009-01-23 Phosylab Sarl Procede optico-informatique de mesure 3d de la surface exterieure d'un objet en relief par projection de franges et utilisation d'une methode a decalage de phase, systeme correspondant
EP2183546B1 (de) 2007-08-17 2015-10-21 Renishaw PLC Kontaktlose sonde
CN100455987C (zh) * 2007-08-23 2009-01-28 北京交通大学 利用合成波干涉全场纳米表面三维在线测量方法和系统
US7768656B2 (en) * 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
US8064068B2 (en) * 2008-01-25 2011-11-22 Cyberoptics Corporation Multi-source sensor for three-dimensional imaging using phased structured light
US8422030B2 (en) * 2008-03-05 2013-04-16 General Electric Company Fringe projection system with intensity modulating by columns of a plurality of grating elements
US7969583B2 (en) * 2008-03-05 2011-06-28 General Electric Company System and method to determine an object distance from a reference point to a point on the object surface
DE102008015499C5 (de) * 2008-03-25 2013-01-10 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
EP2314200B1 (de) * 2009-10-21 2016-01-13 SIS AG, Surgical Instrument Systems Vorrichtung und Verfahren zum Vermessen einer Cornea
US8414124B2 (en) 2009-10-21 2013-04-09 Sis Ag, Surgical Instrument Systems Device and method for measuring a cornea
JP2014182028A (ja) * 2013-03-19 2014-09-29 Omron Corp 限定領域反射型光電センサ
EP2799810A1 (de) * 2013-04-30 2014-11-05 Aimess Services GmbH Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
KR101736266B1 (ko) * 2014-01-10 2017-05-17 주식회사 고영테크놀러지 3차원 형상측정장치 및 방법
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
US20200320725A1 (en) * 2017-09-27 2020-10-08 Ams Sensors Singapore Pte. Ltd. Light projection systems

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3627427A (en) * 1970-02-11 1971-12-14 Lockheed Aircraft Corp Method and apparatus for contour measurement
FR2279066A1 (fr) * 1974-07-15 1976-02-13 Morin Secretan Rech Perfection Procede de visualisation directe de la forme et des deformations d'un objet tridimensionnel
FR2292213A1 (fr) * 1974-11-21 1976-06-18 Cem Comp Electro Mec Procede et dispositif permettant de determiner le signe des lignes de niveau d'un objet
US4499492A (en) * 1982-08-18 1985-02-12 Novon, Inc. Method and apparatus for three frame range imaging
US4488172A (en) * 1982-08-18 1984-12-11 Novon, Inc. Method and apparatus for range imaging
US4564295A (en) * 1983-03-07 1986-01-14 New York Institute Of Technology Apparatus and method for projection moire topography
US4641972A (en) * 1984-09-14 1987-02-10 New York Institute Of Technology Method and apparatus for surface profilometry
EP0262089A3 (de) * 1986-09-23 1989-08-09 KERN &amp; CO. AG Werke für Präzisionsmechanik Optik und Elektronik Vorrichtung zur Vermessung der Oberfläche eines Objektes
US4871256A (en) * 1987-04-29 1989-10-03 Lbp Partnership Means for projecting patterns of light

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19637682B4 (de) * 1996-09-05 2004-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19637682A1 (de) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19749435A1 (de) * 1997-11-09 1999-05-27 Bernward Maehner Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten
DE19749435B4 (de) * 1997-11-09 2005-06-02 Mähner, Bernward Verfahren und Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten
DE19846145A1 (de) * 1998-10-01 2000-04-20 Klaus Koerner Verfahren und Anordung zur 3D-Aufnahme
EP1262810A2 (de) * 2001-05-29 2002-12-04 Leica Microsystems AG Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
EP1262810A3 (de) * 2001-05-29 2003-01-08 Leica Microsystems AG Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
US7394552B2 (en) 2001-05-29 2008-07-01 Leica Microsystems Ag Method for measuring the separation of extended objects in conjunction with an optical observation system and microscope for carrying out the same
DE102004044695A1 (de) * 2004-09-15 2006-03-30 Sick Ag Verfahren und Vorrichtung zur Abstandsmessung
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
DE102006059132B4 (de) * 2005-12-14 2012-12-06 Koh Young Technology Inc. Dreidimensionales Bildmessverfahren
US10161742B2 (en) 2006-12-01 2018-12-25 Datalogic Usa, Inc. Range finder
EP3064893A1 (de) * 2015-03-05 2016-09-07 Leuze electronic GmbH + Co KG Optischer Sensor

Also Published As

Publication number Publication date
EP0445618A3 (en) 1992-03-11
US5135309A (en) 1992-08-04
DE59104107D1 (de) 1995-02-16
JPH04220509A (ja) 1992-08-11
EP0445618B1 (de) 1995-01-04
EP0445618A2 (de) 1991-09-11

Similar Documents

Publication Publication Date Title
EP0445618B1 (de) Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
EP0451474B1 (de) Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
EP1971820B1 (de) Erstellung eines abstandsbildes
EP0076866B1 (de) Interpolierendes Lichtschnitt-Verfahren
DE102013013791B4 (de) Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen
DE3930632A1 (de) Verfahren zur direkten phasenmessung von strahlung, insbesondere lichtstrahlung, und vorrichtung zur durchfuehrung dieses verfahrens
CH677972A5 (de)
CH626169A5 (de)
DE3122712A1 (de) &#34;verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen&#34;
DE102009009372A1 (de) Monitoring von kippbaren Spiegeln
DE3907430C1 (de)
EP2799810A1 (de) Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
DE102014113389A1 (de) Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
DE2539183C2 (de) Optisches Meßinstrument
DE19633686C2 (de) Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
DE2653545B1 (de) Fotoelektrische Auflicht-Wegmesseinrichtung
DE2620330A1 (de) Verfahren und vorrichtung zur bestimmung einer oberflaechengestalt
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE102007021964B4 (de) Verfahren und Vorrichtung zur dreidimensionalen Erfassung von Objektoberflächen
DE3413605C2 (de)
WO2012076182A1 (de) Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen
DE4129796A1 (de) Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE4119744B4 (de) Verfahren zur Auswertung periodischer Helligkeitsmuster
DE3934423C1 (en) Camera photographing topography of test piece surface - produces Moire image using CCD sensors recording phase shift between object grating and camera reference grating
DE102009006089B4 (de) Verfahren zur Zuordnung von Bildpunkten

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee