DE4007500A1 - Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen - Google Patents
Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechenInfo
- Publication number
- DE4007500A1 DE4007500A1 DE4007500A DE4007500A DE4007500A1 DE 4007500 A1 DE4007500 A1 DE 4007500A1 DE 4007500 A DE4007500 A DE 4007500A DE 4007500 A DE4007500 A DE 4007500A DE 4007500 A1 DE4007500 A1 DE 4007500A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- projectors
- projected
- grids
- stripe
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2531—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur
berührungslosen Vermessung von Objektoberflächen mit Hilfe
von auf die Objektoberfläche projizierten Streifenmustern,
die von einer Kamera detektiert und ausgewertet werden.
Es gibt bereits eine ganze Reihe verschiedener
Verfahren, mit denen relativ große Bereiche einer
Objektoberfläche bezüglich ihrer x-, y- und z-Koordinaten auf
einmal vermessen werden, indem durch Projektion oder
Schattenwurf eine regelmäßige, meist gitterförmige Struktur
auf das Objekt aufbelichtet wird. Hierzu gehören die
verschiedenen Varianten des unter dem Namen
"Moir´-Topographie" bekannten Verfahrens, bei dem der
infolge zweimaligen Lichtdurchganges durch ein Gitter
gleicher Periode auftretende sogenannte Moir´-Effekt für die
Gewinnung von Höheninformation der interessierenden
Objektoberfläche ausgenutzt wird.
So wird beispielsweise in dem von Takasaki in Applied Optics
6 (1970), auf Seite 1467 beschriebenen "Schattenwurf"-Moir´-
Verfahren die zu untersuchende Objektoberfläche durch ein
davor gestelltes Amplitudengitter von einer möglichst
punktförmigen Lichtquelle beleuchtet. Die derart strukturiert
beleuchtete Oberfläche wird dann von einem Objektiv und zwar
nochmals durch das gleiche Gitter hindurch, auf einen Schirm
abgebildet, wobei die Beleuchtungsstrahlen und die
Abbildungsstrahlen einen Winkel (α) einschließen. Da das auf
die Objektoberfläche aufbelichtete Gitter entsprechend der
Oberflächenform deformiert wird, entstehen aufgrund des
Moir´-Effekts Konturlinien, die Information über die
Tiefenausdehnung der Objektpunkte geben. Diese Konturlinien
sind auch dann noch sichtbar, wenn die Grundfrequenz des zur
Beleuchtung verwendeten Gitters selbst bei der Abbildung
nicht mehr aufgelöst wird oder sogar gezielt "weggemittelt"
wird, indem es während einer Aufnahme um eine oder mehrere
volle Gitterperioden verschoben wird.
Eine weitere Variante der Moir´-Topographie-Verfahren ist das
sogenannte Projektion-Moir´-Verfahren. Bei diesem Verfahren
wird ein Gitter im Beleuchtungsstrahlengang eines Projektivs
auf die Objektoberfläche abgebildet und die Objektoberfläche
durch ein Objektiv auf ein zweites Gitter vor der verwendeten
Aufnahmekamera abgebildet. Ein derartiges ist z. B.
in der EP-B1-01 21 353 beschrieben. Auch in dieser
Verfahrensvariante ist es wieder möglich, die beiden Gitter,
das Projektionsgitter und das zur Abbildung verwendete
Gitter, synchron während einer Aufnahme zu verschieben, um
Gitterunregelmäßigkeiten auszumitteln, ohne daß sich dabei
die aufgrund des Moir-Effektes entstehenden Konturlinien
bzw. deren Lage im Raum ändert. Hierbei ist vorausgesetzt,
daß die Gitter die gleiche Gitterkonstante besitzen und die
Brennweiten von Projektiv und Objektiv gleich sind. Aus der
genannten Patentschrift ist es außerdem bekannt, symmetrisch
zum Meßstrahlgang zwei Projektoren beidseitig unter
gleichem Abstand und gleichem Projektionswinkel anzuordnen,
um durch die beidseitige Projektion überlappende und
aneinander anschließende Gittermuster zu erzeugen und damit
das Problem von Abschattungen bei der Vermessung von stark
gekrümmten Objektoberflächen auszuschalten.
In der dritten bekannten Variante von Moir´-Topographie-
Verfahren wird auf ein zweites Gitter von der Aufnahmekamera
verzichtet. Stattdessen übernimmt hier das Raster der Zeilen
der Aufnahmekamera oder die Pixelperiode einer CCD-Kamera die
Funktion des Decodierungsgitters. Dieses sogenannte
"Scanning"-Moir´-Verfahren ist beispielsweise in Applied
Optics, Vol. 16, Nr. 8 (1977) auf Seite 2152 beschrieben.
Neben den beschriebenen Verfahren der Moir´-Topographie ist
es auch bekannt, das Objekt zu vermessen, indem direkt
die Höheninformation aus der Verformung des Streifenmusters
auf der Objektoberfläche berechnet wird, ohne ein zweites
Gitter vor der Kamera zu verwenden. Solche sogenannten
"Streifenprojektionsverfahren" sind beispielsweise in der
EP-A2-02 62 089, der US-PS 46 41 972, der US-PS 44 88 172 und
der US-PS 44 99 492 beschrieben.
Sowohl bei den Moir´-Topographie-Verfahren als auch der
Streifenprojektionsmethode ist es erforderlich, für die
quantitative Auswertung der Streifenmuster bzw. Konturlinien
zu Koordinatenmeßwerten die zyklische Helligkeitsvariation
der Streifensysteme auf der Objektoberfläche zu messen. Dies
wird im allgemeinen als Phasenmessung bezeichnet.
Üblicherweise geht man hierbei so vor, daß die Lage des
Projektionsgitters während einer Messung in mehreren
Schritten um feste Beträge verschoben wird, die einer
Phasenänderung von beispielsweise 90° oder 120° entsprechen.
Mit den bekannten Verfahren ist es jedoch nicht ohne weiteres
möglich, größere Objekte aus dem Bereich der industriellen
Fertigung ausreichend genau zu vermessen, insbesondere wenn
diese Objektive Unstetigkeiten wie Kanten und Stufen aufweisen.
Hierfür ist folgender Umstand verantwortlich:
Wegen der zentralperspektivischen Anordnung von Projektion
und Beobachtung ist der Abstand aufeinanderfolgender
Konturlinien nicht konstant sondern nimmt mit wachsender
Tiefe des Objekts zu. Deshalb ist es ohne die Kenntnis des
absoluten Abstandes der Objektoberfläche an
mindestens einem Punkt auch nicht möglich, Aussagen über
den Verlauf eines Profils einer stetigen Oberfläche zu
gewinnen. Die gängigen Phasenmeßmethoden berechnen den
Objektabstand jedoch nur Modulo 2 π, d. h. sie liefern nur
Relativwerte innerhalb einer Streifenordnungszahl. Mit diesen
Phasenmethoden ist es deshalb auch nicht möglich, die
infolge von Kanten und Stufen auftretenden Sprungsstellen der
auszuwertenden, zyklischen Funktion zu beseitigen.
Zur Lösung des Problems ist bereits vorgeschlagen worden,
mehrere Streifenmuster mit stark voneinander abweichender
Streifenperiode auf das Objekt zu projizieren und so mit
Hilfe der längeren Streifenperiode den Bereich, in dem die
Streifenphase eindeutig ist, zu vergrößern. Hierzu ist in der
US-PS 44 88 172 ein zweiter Projektor vorgesehen, der ein
zweites Streifenmuster mit achtfach längerer Periode
projiziert. Für die Auswertung muß das zur Projektion
benutzte Gitter jedoch mit einer gegenüber dem Gitter im
anderen Projektor achtfach höherer Geschwindigkeit bewegt
werden. Hierbei geht die feste räumliche Zuordnung der beiden
Gitter zueinander verloren, die zur Projektion der
Streifenmuster benutzt werden. Diese Zuordnung ist jedoch
wichtig, wenn hochgenaue Messungen gemacht werden sollen.
In dem Gerät nach der EP-A2-02 62 089 hingegen werden die
zwei verschiedenen Streifenmuster dadurch erzeugt, daß zwei
Gitter gleicher Periode aufeinander gelegt und in
unterschiedlichem Ausmaß gegeneinander verdreht werden, so
daß die daraus resultierenden auf das Objekt projizierten
Moir´-Streifenmuster stark voneinander abweichende
Periodizitäten besitzen. Nachteilig hieran ist unter anderem,
daß zur Erzeugung der Streifenmuster unterschiedlicher
Periode die Gitter mechanisch verstellt werden und es deshalb
nicht möglich ist, die Streifenmuster im Videotakt schnell
hintereinander zu projizieren.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren
und eine Vorrichtung der eingangs genannten Art zu schaffen,
das eine eindeutige, absolute Abstandsmessung im gesamten
Meßbereich gewährleistet und sich durch eine hohe
Meßgenauigkeit sowie hohe Meßgeschwindigkeit auszeichnet.
Diese Aufgabe wird durch die im Kennzeichen des Anspruchs 1
angegebenen Maßnahmen gelöst.
Dadurch, daß mehrere Streifenmuster mit gleicher oder nur
leicht voneinander abweichender Streifenperiode projiziert
und die Schwebungsfrequenz zwischen den Streifenmustern
ausgewertet wird, ist es möglich, die für die Projektion
benutzten Gitter auch dann, wenn diese z. B. für die
Phasenmessung oder aus anderen Gründen bewegt werden, in
einer festen räumlichen Zuordnung zu halten. Beispielsweise
können alle Gitter auf einem gemeinsamen Träger aufgebracht
werden. Dies kommt der Genauigkeit der Abstandsmessung
zugute, da die Relativlage der Gitter zueinander von
Umwelteinflüssen unbeeinflußt bleibt.
Zweckmäßig ist es, wenn die Streifenmuster bei der Aufnahme
durch die Kamera z. B. durch Zeitmultiplexverfahren oder
Projektion von farblich unterschiedlichen Mustern voneinander
getrennt einem Bildverarbeitungsrechner zugeführt werden und
dann die Schwebungsfrequenzen unterschiedlicher effektiver
Wellenlänge erst im Rechner, nämlich aus den Differenzen der
Streifenphase der Streifenmuster, gebildet werden. In diesem
Falle überlagern sich die Intensitäten der projizierten
Streifenmuster nicht, so daß die jeweils einem Gitter
zugeordneten Streifen eindeutig identifiziert und einzeln
ausgewertet werden können, d. h. ihre Phase exakt bestimmt
werden kann.
Es ist vorteilhaft, drei Gitter gleicher Periode unter
verschiedenen Winkeln auf das Objekt zu projizieren. Auf
diese Weise lassen sich zwei Schwebungsfrequenzen mit sehr
unterschiedlicher effektiver Wellenlänge aus den
Phasendifferenzen je zwei projizierter Streifenmuster bilden,
ohne daß Gitter mit unterschiedlicher Gitterkonstante
benötigt werden. Vielmehr genügt es, einfach den
Projektionswinkel zwischen zwei Gittern klein gegenüber dem
Projektionswinkel zweier anderer Gitter zu halten. Die
auszuwertenden Schwebungsfrequenzen besitzen dann effektive
Wellenlängen, die im Verhältnis der Projektionswinkel
zueinander stehen.
Gitter gleicher Periode lassen sich außerdem sehr einfach
herstellen und beispielsweise in einem Fertigungsprozeß
nebeneinander auf einem gemeinsamen Gitterträger aufbringen.
Sie liegen zweckmäßig in der gleichen Ebene, so daß die zur
Auswertung der Streifenmuster erforderlichen Rechenvorgänge
vereinfacht sind.
Es ist jedoch auch möglich, die Schwebungsfrequenz mit der
größeren Wellenlänge dadurch zu erzeugen, daß zwei Gitter mit
nur leicht voneinander unterschiedlicher Periode projiziert
werden. Zweckmäßig werden hierfür zwei Projektoren vorgesehen
und mit jedem der beiden im Winkel zueinander angeordneten
Projektoren jeweils die beiden Gitter mit leicht
unterschiedlicher Periode farblich oder polarisationsoptisch
getrennt projiziert. In diesem Falle kann auf die dritte
Projektionsoptik verzichtet werden.
Nachfolgend werden vorteilhafte Ausführungsformen der
Erfindung anhand der Fig. 1-5 näher erläutert.
Fig. 1 ist eine Prinzipskizze, die den optisch-
geometrischen Aufbau eines ersten
Ausführungsbeispiels der Erfindung zeigt;
Fig. 2 ist eine perspektivische Darstellung der
wesentlichen Bauteile der in Fig. 1 vereinfacht
skizzierten Vorrichtung;
Fig. 3 ist eine Prinzipskizze eines zweiten, alternativen
Ausführungsbeispiels;
Fig. 4 ist eine perspektivische Darstellung der
wesentlichen Bauteile der in Fig. 3 vereinfacht
skizzierten Vorrichtung;
Fig. 5a-b sind Teilschaltbilder des zur Signalauswertung der
Vorrichtung nach Fig. 1 und 2 benutzten
Auswerterechners.
In der schematischen Darstellung nach Fig. 1 ist ein Aufbau
dargestellt, der im wesentlichen aus drei Projektoren mit den
Projektionsoptiken (P₁), (P₂) und (P₃) und drei Gittern (G₁),
(G₂) und (G₃) mit jeweils gleicher Gitterperiode besteht, die
im Abstand (a) hinter den Projektionsoptiken (P₁-P₃)
angeordnet sind. Der Kamerasensor ist mit (K) bezeichnet und
befindet sich mit dem vorgesetzten Beobachtungsobjektiv (Bo)
zwischen den Projektoren (P₁) und (P₂) im Abstand (ak) hinter
dem Beobachtungsobjektiv (Bo). Während die Projektoren (P₁)
und (P₃) nun unter einem relativ großen Winkel (α₁) von ca.
30° zueinander geneigt sind, schließen die beiden
nebeneinander angeordneten Projektoren (P₂) und (P₃) einen
relativ kleinen Winkel (α₂) von beispielsweise 0,5° ein.
Durch diese Anordnung sind zwei Sätze von Ebenen konstanter
Phasendifferenz definiert, nämlich die Phasendifferenzen der
Streifenmuster der beiden Projektoren (P₁) und (P₂) oder (P₁)
und (P₃) sowie die Phasendifferenzen der beiden Streifenmuster
der Projektoren (P₂) und (P₃), wobei den beiden Sätzen
unterschiedliche effektive Wellenlängen (λeff) in
z-Richtung zugeordnet werden können. Die effektive
Wellenlänge (λeff) wird durch die Gitterkontante der
Gitter (G₁), (G₂) und (G₃) und den Winkel (α₁) bzw. (α₂)
zwischen den Projektionsachsen der jeweiligen Projektoren
bestimmt und hängt, da die Gitterkonstanten der Gitter (G₁)
bis (G₃) gleich sind, deshalb nur von den Winkeln (α₁) und
(α₂) ab. Nachfolgend werden Formeln abgeleitet, aus denen
sich die Objektkoordinaten (x), (y) und (z) aus den von den
drei Projektoren (P₁), (P₂) und (P₃) projizierten
Streifenmustern für die einzelnen Punkte der Objektoberfläche
berechnen lassen. Hierfür ist vorausgesetzt, daß sich die
Projektionszentren (Z₁), (Z₂) und (Z₃) der
Projektionsobjektive auf einer sich in x-Richtung
erstreckenden Geraden liegen und die drei Gitter (G₁) bis
(G₃) im gleichen Abstand (a) hinter diesen Geraden angeordnet
sind. Die Gitter sind beispielsweise wie in Fig. 4 skizziert
auf einem gemeinsamen Träger (W) aus Glas oder einem Material
mit geringem thermischen Ausdehnungskoeffizienten wie z. B.
Zerodur angeordnet und können gemeinsam relativ zur CCD-
Kamera (K) in Richtung der Geraden x mit Hilfe einer
Federwippe spielfrei bewegt werden. Die photoempfindliche
Fläche der Kamera, d. h. der CCD-Sensor ist im Abstand (aK)
hinter dem Beobachtungsobjektiv (Bo) angeordnet.
Durch den beschriebenen Aufbau ist die Geometrie des
Meßgeräts im wesentlichen bestimmt. Die z. B. an einem
exemplarischen Punkt (x, y=0, z) projizierten Gitterorte
(xp1, xp2, xp3) werden mit der Videokamera (K), z. B. einer
CCD-Kamera, beobachtet. Das Zentrum (x0k) des
Beobachtungsobjektivs (Bo) der Kamera legt den Ursprung des
von den Projektoren (P₁) bis (P₃) vorbestimmten
Koordinatensystems fest.
Durch Betrachten ähnlicher Dreiecke erhält man für die
Projektoren
und für die Kamera
Die Kombination der Kameragleichung (4) mit den
Projektionsgleichungen (1)-(3) liefert
wobei die Differenzen (xopi-xpi, i=1 . . 3) als das (ni + δi)-
fache der Streifenperiode (P) mit (ni) als einem Element der
natürlichen Zahlen und (δi<1) ausgedrückt sind.
Betrachtet man den Zusammenhang zwischen den Beobachtungen
der Streifenmuster zweier Projektoren und bildet Differenzen,
so erhält man aus (5), (6) und (7)
oder
wobei K₁, K₂, K₃ Gerätekonstanten sind,
N₁ = n₁-n₂, N₂ = n₁-n₃, N₃ = n₂-n₃ und
Δ₁ = δ₁-δ₂, Δ₂ = δ₁-δ₃, Δ₃ = δ₂-δ₃ ist.
Δ₁ = δ₁-δ₂, Δ₂ = δ₁-δ₃, Δ₃ = δ₂-δ₃ ist.
Die Formeln (11), (12) und (13) beschreiben Ebenen konstanter
Phasendifferenz (Ni-Δi) zwischen je zwei Projektoren, die
parallel zur x/y-Ebene liegen. Sie hängen nicht vom
Beobachtungsort (xk, yk) auf der Kamera ab. Zur Messung
müssen die ganzen Zahlen (N₁, N₂, N₃) und die Bruchteile (Δ₁,
Δ₂, Δ₃) bestimmt werden.
Den Flächen gleicher Phasendifferenz, die durch die
Gleichungen (11), (12) und (13) beschrieben sind, lassen sich
unterschiedliche effektive Wellenlängen (λeff) der
Phasendifferenzen zuordnen. Für die aus einer Kombination
der Projektoren (P₁) und (P₂) gewonnene Gleichung (11) und
die aus einer Kombination der Projektoren (P₁) und (P₃)
gewonnene Gleichung (12) liegen relativ kurze effektive
Wellenlängen vor, während dem durch Gleichung (13)
beschriebenen Fall der Kombination der beiden Projektoren
(P₂) und (P₃) eine vergleichsweise große Wellenlänge (λeff)
zugeordnet werden kann. Wesentlich ist, daß die verschiedenen
effektiven Wellenlängen über die Winkel (α₁), (α₂) zwischen
den Projektoren hochstabil eingestellt werden können.
Für die Auswertung der Messungen in einem Rechner bietet es
sich an, die Formeln (11), (12) und (13) noch einmal
umzuformulieren:
Zur vollständigen Bestimmung der Koordinaten (x), (y) und (z)
eines Bildpunktes werden die Lateralkoordinaten (x) und (y)
über das Abbildungsgesetzt mit
berechnet.
Zur Auswertung werden die von den drei Projektoren (P₁) bis
(P₃) in Zeitmultiplexbetrieb projizierten Streifenmuster der
durch das Objektiv (Bo) von der Kamera (K) aufgenommen und
getrennt in verschiedene Bildspeicher eingelesen. Die
Berechnung der Objektkoordinaten (x), (y) und (z) nach den
angegebenen Formeln geschieht dann wie nachstehend anhand von
Fig. 5a und 5b beschrieben in einem hardwaremäßig aufgebauten
Bildverarbeitungsrechner. Dieser Rechner verarbeitet die
Bilddaten in Videoechtzeit. Er ist hierzu in Form einer
Pipelinestruktur auch mit teilweise parallelen Datenpfaden
aufgebaut und wird von einem Host-Rechner mit bekannter von
Neumann-Struktur, d. h. beispielsweise einem kommerziell
erhältlichen Prozeßrechner gesteuert. Für die weitere
Beschreibung des Auswerterechners wird auf die Fig. 5a und
5b Bezug genommen, in denen dieser im Blockschaltbild
dargestellt ist.
Dort sind die drei unterschiedlichen Funktionsbaugruppen mit
(A), (B) und (C) bezeichnet. Die Funktionsbaugruppe (A)
stellt die Schnittstelle zu den externen Sensoren bzw. zu
steuernden Teilen der Vorrichtung dar. Sie enthält einen
Analog/Digitalwandler (12), der das Signal der Kamera (K) in
Videoechtzeit digitalisiert. Der Verstärkungsfaktor ist
hierbei abhängig vom Ausgangssignal einer Photodiode (13)
gesteuert, so daß das Videosignal an unterschiedliche
Helligkeitsverhältnisse bzw. unterschiedliche Energien der
als Blitzlampen ausgebildeten Lichtquellen (L₁) bis (L₃)
(siehe Fig. 3 und 4) angepaßt werden kann, die zur
Beleuchtung der Gitter (G₁-G₃) dienen. Zur Ansteuerung der
Blitzlampen (L₁) bis (L₃) enthält die Schnittstellenkarte (A)
eine Triggerschaltung (31), die mit Kamera (K)
synchronisiert ist. Die Schnittstellenkarte (A) enthält
außerdem die Steuerelektronik (32) für den Motor, mit dem das
Objektiv (Bo) der Kamera (K) auf unterschiedliche
Objektbereiche, wie in Fig. 4 durch den Pfeil (Pf₂)
angedeutet, scharf gestellt werden kann. Die Abfolge der
Blitze und die Verstellung des Objektivs wird entsprechend
einem festgelegten Meßprogramm des in der Fig. 5 nicht
dargestellten konventionellen Host-Rechners gesteuert. Dies
ist durch die beiden Pfeile "Host" symbolisiert, die auch an
anderer Stelle in der Schaltung nach Fig. 5a und 5b
auftauchen.
Das digitalisierte Videosignal, das den A/D-Wandler (12)
verläßt, ist den Eingängen zweier parallel geschalteter
Konvolutionsbausteine (14a) und (14b) in der
Funktionsbaugruppe (B) zugeführt. Diese beiden Bausteine
(14a) und (14b) führen eine Faltungsoperation durch, um den
Sinus bzw. Kosinus der Streifenphase an den einzelnen
Bildpunkten aus dem Intensitätsverlauf des Signals in der
näheren Umgebung der Bildpunkte zu bestimmen. Entsprechende
Algorithmen sind beispielsweise im "Optical Engineering",
Vol. 23, No. 4 (Juli/August 1984) auf Seite 391-395
beschrieben. Die Ausgänge der Bausteine (14a) und (14b) sind
einer Schaltung (15) zugeführt, in der die Streifenphase aus
dem Sinus und dem Kosinus berechnet wird. Hierzu ist in einer
der Schaltung (15) zugeordneten Tabelle die Funktion
Arcustangens abgelegt. Gleichzeitig werden auf der Basis der
in der Schaltung (15) berechneten Phasenwerte ungültige
Meßwerte maskiert. Ungültige Meßwerte sind solche, die bei
entweder zu hoher oder zu geringer Beleuchtungsintensität
aufgenommen worden sind und deren Pegel deshalb über oder
unter einem vorbestimmten Grenzwert liegt. Die Maske, die
diese Bildbereiche maskiert, wird in einem parallel zum
Meßdatenstrom in dem mit (C) bezeichneten Schaltungsteil
erzeugt, wie nachfolgend noch beschrieben werden wird.
Der Ausgang der Schaltung (15) ist über eine Berechnungsstufe
(16) (arithmetic logic unit) drei parallel geschalteten
Bildspeichers (17a-c) zugeführt. Dort werden die in der
Schaltung (15) berechneten Streifenphasen (δ₁), (δ₂) und (δ₃)
der von den drei Projektoren (P₁), (P₂) und (P₃) im
Zeitmultiplexbetrieb nacheinander projizierten
Streifenmuster zwischengespeichert. In drei weiteren
Bildspeichern (18a), (18b) und (18c) sind Korrekturwerte
abgelegt, die in einem Kalibrierverfahren gewonnen wurden und
die von der Unvollkommenheit des geometrisch-optischen
Aufbaus der Vorrichtung herrührenden Verzerrungen der
Streifenphase der durch die drei Projektoren projizierten
Muster beschreiben. Diese Korrekturwerte werden in der
Recheneinheit (16) von den Streifenphasen (δ₁), (δ₂) und (δ₃)
subtrahiert. Die so korrigierten Phasenwerte gelangen wieder
in die Bildspeicher (17a, b und c) und werden danach in einer
zweiten Recheneinheit (19) weiterverarbeitet, die die
Differenzen (Δ₁=δ₁-δ₂) und (Δ₂=δ₁-δ₃) berechnet.
Diese Werte sind zur Berechnung des Objektabstandes (z) nach
den Formeln (11), (12) und (13) erforderlich. Dabei ist zu
berücksichtigen, daß (Δ₃) sich als Differenz aus
(Δ₂-Δ₁) ergibt.
Auf die Recheneinheit (19) folgt eine Summationsstufe (S)
(siehe Fig. 5b), die aus einer Recheneinheit (20) und zwei
RAM-Speichern (21a) und (21b) besteht. In diesen Speichern
(21a) und (21b) werden die Phasendifferenzen (Δ₁) und
(Δ₂) für jeden Bildpunkt aufakkumuliert. Dies kann z. B. in
einer Integer-Arithmetik so erfolgen, daß die 8 Bit
Eingangswerte der die Phasendifferenzen (Δ₁) und (Δ₂)
repräsentierenden Signale in einem Datenbereich von 16 Bit in
den Speichern (22a) und (22b) aufsummiert werden. Auf diese
Weise ist es möglich, die aus 255 Bildern gewonnenen
Phasendifferenzen durch Summation zu mitteln und damit
hinsichtlich der Genauigkeit der Phasenmessung zu verbessern.
Die Ausgänge der Bildspeicher (21a) und (21b) sind zwei
darauffolgenden weiteren Recheneinheiten (22a) und (22b)
zugeführt, in denen über weitere Tabellen (look-up-tables)
die Formeln zur Berechnung des Objektabstandes gemäß
Gleichung (14) und (15) bereitgehalten sind. Diese
Recheneinheiten (22a) und (22b) berechnen zwei Werte für den
Objektabstand (z), die in einer darauffolgenden Rechenstufe
(23) nochmals gemittelt werden. In einem darauffolgenden
digitalen Signalprozessor (24) werden die Koordinaten (x) und
(y) der Bildpunkte gemäß Gleichung (16) und (17) aus den
Meßwerten für (z) und den vom Host-Rechner gelieferten
Gerätekonstanten (xk), (yk) und (ak) berechnet und einer
Ausgabeeinheit (25) zugeführt.
Mit der beschriebenen Methode wird die Höheninformation über
das zu vermessende Objekt absolut gewonnen und nicht nur
Module 2π der Streifenphase.
Das vorstehend beschriebene Auswerteverfahren setzt voraus,
daß die von der Kamera (K) gelieferten Signale im linearen
Bereich der Kamerakennlinie erzeugt werden, daß insbesondere
keine Unter- oder Übersteuerung vorkommt. Weiterhin ist es
für das beschriebene Verfahren erforderlich, daß innerhalb
einer Aufnahmeserie der drei von den Projektoren (P₁), (P₂)
und (P₃) projizierten Streifenmuster ein Phasenwert nur dann
weiterverarbeitet wird, wenn die Phasenwerte in allen drei
Bildern der Sequenz für den bestimmten Bildpunkt gültig sind.
Diese Rechenoperationen werden im Schaltungsteil (C) von Fig. 5a
durchgeführt. Ob ein Meßgerät gültig oder ungültig ist,
wird in einem Bit des look-up-tables LUT in der Recheneinheit
(15) abgefragt. Die "und" Verknüpfung über die drei
Videobildsequenzen wird in der Rechenstufe (26) zusammen mit
einem rekusiv geschalteten RAM-Baustein (27) erzeugt. In der
anschließenden Rechenstufe (28) wird die Anzahl der gültigen
Meßwerte an jedem Bildpunkt berechnet und in einem
nachfolgenden RAM-Baustein (29) gespeichert. Unter der Anzahl
der Meßwerte ist hierbei die Anzahl der Videobilder zu
verstehen, über die die Phasendifferenzen im
Summationsbaustein (S) von Fig. 5b aufsummiert werden. Setzt
man eine geeignete gewählte Grenze, die eine Mindestanzahl von
gültigen Messungen für jeden Bildpunkt beschreibt, dann
werden all die Bildpunkte ausgeblendet, in denen die Anzahl
der gültigen Messungen unterhalb dieser Grenzen liegt und alle
übrigen Bildpunkte werden in die Ergebnisberechnung
miteinbezogen. Die hierdurch beschriebene, über die
Bildpunkte gelegte Datenmaske ist durch das mit (30)
bezeichnete Quadrat in Fig. 5a symbolisiert. Mit ihr kann der
zur Ausgabe dienende Videomonitor (42) an den entsprechenden
Bildpunktstellen dunkelgesteuert werden.
Der anhand von Fig. 5a und 5b beschriebene in Hardware
realisierte Auswerterechner stellt eine Lösung dar, mit der
die Signale der Kamera zur Durchführung des erfindungsgemäßen
Verfahrens verarbeitet werden können. Diese Lösung ist darauf
zugeschnitten, daß die Streifenmuster durch die drei
Projektoren (P₁), (P₂) und (P₃) im Zeitmultiplexbetrieb
nacheinander projiziert und die Bilder dann von der Kamera
(K) nacheinander aufgenommen und verarbeitet werden. Es ist
jedoch auch möglich, die Streifenmuster beispielsweise in
verschiedenen Farben gleichzeitig zu projizieren und mit drei
über Farbteiler getrennte Kameras gleichzeitig aufzunehmen.
Dann müssen allerdings der Eingangskanal, d. h. der A/D-
Wandler (12), die Konvultionsbausteine (14a) und (14b), die
Recheneinheiten (15) und (16), die im Zeitmultiplexbetrieb
arbeiten, in entsprechender Anzahl von drei Stück parallel
ausgeführt werden. Dies hat zwar höhere Kosten zur Folge,
bietet jedoch auch eine größere Bandbreite in der
Verarbeitungsfrequenz. Umgekehrt sind die beschriebenen
Rechenoperationen auch auf einem passend programmierten,
geeignet leistungsfähigen, sequentiell arbeitendem Rechner
herkömmlicher Struktur ablauffähig, allerdings dort nur mit
erheblich längeren Laufzeiten, so daß eine
Echtzeitverarbeitung der Videosignale in diesem Falle nicht
zu erzielen ist.
Dadurch, daß bei dem beschriebenen Verfahren die z-Messung
immer als Differenz zweier Projektionen, beispielsweise der
Streifenmuster der Projektoren (P₁) und (P₂) oder der
Projektoren (P₂) und (P₃) gebildet wird, kann der Träger (W)
mit den Gittern (G₁) bis (G₃) (siehe Fig. 4) in Richtung des
Pfeils (Pf₁) verschoben werden, ohne daß die bei der
Signalauswertung erhaltenen z-Werte beeinflußt werden.
Hierbei können nun mehrere Messungen mit verschiedenen
Stellungen des Gitterträgers (W) gemacht werden, bei denen
entsprechend auch unterschiedliche Bereiche der Gitter
beleuchtet sind. Da die Einzelmessungen hinsichtlich der
Phasendifferenzen (Δi) über alle Bilder aufaddiert und
hierbei gemittelt werden, wirkt sich das so aus, daß
statistische Fehler, herrührend entweder von
Fertigungsungenauigkeiten der Gitter oder herrührend durch
die einmalige Anwendung des Auswertealgorithmus, mit √
verbessert werden, wenn N die Anzahl der Messungen ist.
Gleichzeitig kann die Beleuchtungsintensität von dem Wert
Null bis zur Sättigung durchgesteuert werden, damit möglichst
von allen Objektpunkten, deren Reflexionsvermögen ja
durchaus unterschiedlich sein kann, brauchbare Meßwerte
erhalten werden können. Die Maskierungselektronik in Teil (C)
der Schaltung von Fig. 5a sorgt hierbei dafür, daß alle
Messungen im nicht-linearen Bereich der Kamera (K) verworfen
werden.
In den Fig. 3 und 4 ist ein zweites, alternatives
Ausführungsbeispiel der Erfindung dargestellt. In Analogie zu
Fig. 1 zeigt die Skizze des zweiten Ausführungsbeispieles in
Fig. 3 den prinzipiellen Aufbau des Meßgeräts, der im
wesentlichen aus zwei Projektionsoptiken (P₁₁) und (P₁₂) und
vier Gittern (G₁₁/G₁₃) und (G₁₂/G₁₄) besteht. Der
Kamerasensor ist wieder mit (K) bezeichnet und befindet sich
mit dem vorgesetzten Beobachtungsobjektiv (Bo) zwischen den
Projektoren (P₁₁) und (P₁₂). Im hier beschriebenen Falle
enthält jeder der beiden Projektoren (P₁₁) und (P₁₂) zwei
Gitter und die Gitterkonstanten bzw. Gitterperioden je zweier
Gitter (G₁₁) und (G₁₂) sowie (G₁₃) und (G₁₄) sind paarweise
gleich. Hingegen unterscheiden sich die Gitterkonstanten bzw.
Perioden der Gitter (G₁₁) und (G₁₃) bzw. (G₁₂) und (G₁₄)
innerhalb eines Projektors geringfügig. Beispielsweise
besitzt das Gitter (G₁₁) eine Gitterkonstante von 25
Linienpaaren/mm und das Gitter (G₁₃) eine Gitterkonstante
von 25,5 Linienpaaren/mm. Durch diese Anordnung lassen sich
zwei geringfügig voneinander abweichende Sätze von Ebenen
kostanter Phasendifferenz definieren, nämlich die
Phasendifferenzen zwischen den paarweise nacheinander
projizierten Gittern (G₁₁) und (G₁₂) und die
Phasendifferenzen zwischen den paarweise nacheinander
projizierten Gittern (G₁₃) und (G₁₄). Betrachtet man nun die
Schwebungsfrequenz zwischen den beiden Sätzen von Ebenen
konstanter Phasendifferenz, so läßt sich dieser eine
effektive Wellenlänge
zuordnen, die sehr viel größer ist als die den Flächen
gleicher Phasendifferenz zugeordneten effektiven Wellenlängen
λ₁ bzw. λ₂. Durch Auswerten dieser Schwebungsfrequenz
läßt sich die Vieldeutigkeit der Phasenmessung beseitigen,
die auftritt, wenn nur mit zwei Gittern (G₁₁) und (G₁₂)
gleicher Periode gearbeitet wird.
Die Formeln, die zur Auswertung der Streifenmuster dienen,
die mit diesem Aufbau erzeugt werden, lassen sich leicht aus
den anhand von Fig. 1 abgeleiteten Formeln gewinnen, indem
nämlich von Gleichung (8) ausgegangen wird und man diese
Gleichung für die beiden Gitterpaare (G₁₁/G₁₂) und (G₁₃/G₁₄)
mit den beiden unterschiedlichen Periodizitäten (P¹) und (P²)
aufschreibt. Man erhält
oder
wobei K eine Gerätekonstante
und N¹ = n₁¹-n₂¹, N²=n₁²-n₂²
sowie Δ¹ = δ₁²-δ₂² und Δ² = d₁²-δ₂² ist.
sowie Δ¹ = δ₁²-δ₂² und Δ² = d₁²-δ₂² ist.
Hieraus ergibt sich
Diese Gleichung (22) beschreibt eine Funktion mit einer im
Vergleich zu Gleichung (20) bzw. (21) sehr viel größerer
effektiver Wellenlänge. Der Objektabstand z läßt sich hieraus
in ganz ähnlicher Weise wie anhand von Fig. 5 beschrieben
ermitteln, indem die Nachkommanteile der Phasen
δ₁¹, δ₁², δ₂¹, δ₂²
der durch die vier Gitter (G₁₁) bis (G₁₄) projizierten
Streifenmuster gemessen und entsprechend der Gleichung (22)
ausgewertet werden.
Wesentlich ist, daß die vier Streifenmuster getrennt
projiziert werden, so daß auf der Oberfläche des
Kamerasensors (K) immer nur ein definiertes Streifenmuster
entsteht und ausgewertet werden kann, sich also nicht die
Intensitäten unterschiedlicher Streifenmuster überlagern und
die Auswertung stören. Hierzu sind wie in Fig. 4 dargestellt
die beiden Gitter (G₁₁) und (G₁₃) hinter der Projektionsoptik
(P₁₁) auf die Flächen eines ersten Strahlteilerwürfels (S₁)
aufgesetzt und die beiden Gitter (G₁₂) und (G₁₄) hinter der
Projektionsoptik (P₁₂) auf die Flächen eines zweiten
Strahlteilerwürfels (S₂) aufgesetzt. Beleuchtet werden die
Gitterpaare (G₁₁) und (G₁₃) von zwei verschiedenen
Lichtquellen (L₁₁) und (L₁₃) durch Farbfilter (F₁₁) und (F₁₃)
hindurch, so daß Streifenmuster in unterschiedlicher Farbe
entstehen, die von einer Farbkamera (K) getrennt verarbeitet
werden können. Die Trennung des Gitterpaares (G₁₂, G₁₄)
erfolgt auf die gleiche Weise mit Farbfiltern (F₁₂) und
(F₁₄), die von zwei Lampen (L₁₂) und (L₁₄) beleuchtet werden.
Alternativ zu der beschriebenen Farbcodierung ist es
natürlich auch möglich, die vier Gitter nacheinander im
Zeitmultiplex durch eine entsprechende Ansteuerung der Lampen
(L₁₁) bis (L₁₄) zu projizieren oder die Trennung der
Streifenmuster polarisationsoptisch vorzunehmen.
Claims (10)
1. Verfahren zur Vermessung von Objektoberflächen mit Hilfe
von auf die Oberfläche projizierten Streifenmustern, die
von einer Kamera aufgenommen und ausgewertet werden,
wobei zur Vergrößerung des Meßbereiches in Richtung der
Kameraachse (z) Strukturen mit unterschiedlicher
Periodizität ausgewertet werden, dadurch gekennzeichnet,
daß
mehrere Streifenmuster (G₁, G₂, G₃) gleicher oder leicht
voneinander abweichender Periode projiziert
werden und daß mindestens zwei aus den Streifenmustern
gewonnene Schwebungsfrequenzen mit unterschiedlicher
effektiver Wellenlänge für die Auswertung herangezogen
werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die Streifenmuster (G₁, G₂, G₃) bei der Aufnahme durch
die Kamera voneinander getrennt einem Bildverarbeitungsrechner
zugeführt werden, und daß die
Schwebungsfrequenzen im Rechner erzeugt werden, indem
die Differenzen (Δ₁, Δ₂, Δ₃) der Streifenphase
(δ₁, δ₂, δ₃) der Streifensysteme gebildet werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
drei Gitter (G₁, G₂, G₃) gleicher Periode unter
verschiedenen Winkeln (α₁, α₂) auf das Objekt projiziert
werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß
die drei Gitter (G₁, G₂, G₃) in einer gemeinsamen Ebene
angeordnet sind.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die Streifenmuster durch zwei Paare (G₁₁/G₁₂, G₁₃/G₁₄)
von Gittern mit gleicher Periode projiziert werden, wobei
die Perioden der Gitterpaare leicht unterschiedlich
gewählt sind.
6. Vorrichtung zur Vermessung von Objektoberflächen mit
mindestens zwei Projektoren, die ein Streifenmuster
gleicher Periodizität auf das Objekt (O) projizieren und
einer Kamera (K), von der ein Bild der Objektoberfläche
aufgenommen wird und der ein Bildverarbeitungsrechner
nachgeschaltet ist, der aus den Videosignalen der Kamera
(K) die Höheninformation (z) für die einzelnen Punkte der
Objektoberfläche gewinnt, dadurch gekennzeichnet, daß die
Projektoren (P₂, P₃) unter einem gegenseitigen Winkel
zueinander angeordnet ist, der klein gegenüber dem Winkel
ist, den sie mit der Achse der Kamera (K) einschließen.
7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, daß
mindestens drei Projektoren (P₁, P₂, P₃) vorgesehen sind,
die Streifenmuster gleicher Periode projizieren, und daß
die zur Projektion dienenden Gitter (G₁, G₂, G₃) auf
einem gemeinsamen Träger (W) bzw. Substrat aufgebracht
sind.
8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, daß
der Träger bzw. das Substrat relativ zur optischen Achse
der Kamera (K) in der Ebene der Gitter (G₁, G₂, G₃)
beweglich gelagert ist.
9. Vorrichtung zur Vermessung von Objektoberflächen mit
mindestens zwei Projektoren, die ein Streifenmuster
gleicher Periodizität auf das Objekt (O) projizieren und
einer Kamera (K), von der ein Bild der Objektoberfläche
aufgenommen wird und der ein Bildverarbeitungsrechner
nachgeschaltet ist, der aus den Videosignalen der Kamera
(K) die Höheninformation (z) für die einzelnen Punkte der
Objektoberfläche gewinnt, dadurch gekennzeichnet, daß
jeder der beiden Projektoren zwei Gitter (G₁₁, G₁₃/G₁₂,
G₁₄) mit leicht unterschiedlicher Gitterperiode getrennt
projiziert.
10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, daß
die Projektoren Farbteiler (F₁₁/F₁₂, F₁₃/F₁₄) zur
Trennung der Streifenmuster enthalten und die Kamera (K)
als Farbkamera ausgebildet ist.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4007500A DE4007500A1 (de) | 1990-03-09 | 1990-03-09 | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
DE59104107T DE59104107D1 (de) | 1990-03-09 | 1991-02-25 | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen. |
EP91102736A EP0445618B1 (de) | 1990-03-09 | 1991-02-25 | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen |
JP3043365A JPH04220509A (ja) | 1990-03-09 | 1991-03-08 | 物体表面を無接触で測定する方法および装置 |
US07/666,247 US5135309A (en) | 1990-03-09 | 1991-03-08 | Method and apparatus for non-contact measuring of object surfaces |
DE19914129796 DE4129796A1 (de) | 1990-03-09 | 1991-09-09 | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4007500A DE4007500A1 (de) | 1990-03-09 | 1990-03-09 | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4007500A1 true DE4007500A1 (de) | 1991-09-12 |
Family
ID=6401802
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4007500A Withdrawn DE4007500A1 (de) | 1990-03-09 | 1990-03-09 | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
DE59104107T Expired - Fee Related DE59104107D1 (de) | 1990-03-09 | 1991-02-25 | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen. |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE59104107T Expired - Fee Related DE59104107D1 (de) | 1990-03-09 | 1991-02-25 | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen. |
Country Status (4)
Country | Link |
---|---|
US (1) | US5135309A (de) |
EP (1) | EP0445618B1 (de) |
JP (1) | JPH04220509A (de) |
DE (2) | DE4007500A1 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19637682A1 (de) * | 1996-09-05 | 1998-03-12 | Fraunhofer Ges Forschung | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens |
DE19749435A1 (de) * | 1997-11-09 | 1999-05-27 | Bernward Maehner | Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten |
DE19846145A1 (de) * | 1998-10-01 | 2000-04-20 | Klaus Koerner | Verfahren und Anordung zur 3D-Aufnahme |
EP1262810A2 (de) * | 2001-05-29 | 2002-12-04 | Leica Microsystems AG | Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben |
DE102004044695A1 (de) * | 2004-09-15 | 2006-03-30 | Sick Ag | Verfahren und Vorrichtung zur Abstandsmessung |
US7830528B2 (en) | 2005-12-14 | 2010-11-09 | Koh Young Technology, Inc. | 3D image measuring apparatus and method thereof |
EP3064893A1 (de) * | 2015-03-05 | 2016-09-07 | Leuze electronic GmbH + Co KG | Optischer Sensor |
US10161742B2 (en) | 2006-12-01 | 2018-12-25 | Datalogic Usa, Inc. | Range finder |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5343294A (en) * | 1990-03-09 | 1994-08-30 | Carl-Zeiss-Stiftung | Method for analyzing periodic brightness patterns |
NL9200071A (nl) * | 1992-01-15 | 1993-08-02 | Stichting Science Park Maastri | Inrichting voor het bepalen van de topografie van een gekromd oppervlak. |
DE4217768A1 (de) * | 1992-05-29 | 1993-12-02 | Zeiss Carl Fa | Verfahren und Vorrichtung zur Vermessung von Objekttopographien mittels projizierter Streifenmuster |
DE4416108C2 (de) * | 1994-05-06 | 2000-05-11 | Fraunhofer Ges Forschung | Vorrichtung zum berührungsfreien Vermessen einer Objektoberfläche |
JP2919267B2 (ja) * | 1994-05-26 | 1999-07-12 | 松下電工株式会社 | 形状検出方法およびその装置 |
US6028672A (en) * | 1996-09-30 | 2000-02-22 | Zheng J. Geng | High speed three dimensional imaging method |
US5838428A (en) * | 1997-02-28 | 1998-11-17 | United States Of America As Represented By The Secretary Of The Navy | System and method for high resolution range imaging with split light source and pattern mask |
GB9824986D0 (en) * | 1998-11-13 | 1999-01-06 | Isis Innovation | Non-contact topographical analysis apparatus and method thereof |
US6763133B1 (en) * | 1999-05-29 | 2004-07-13 | Sun Moon University | Moire image capturing apparatus and method therefor |
US6208412B1 (en) | 1999-06-14 | 2001-03-27 | Visteon Global Technologies, Inc. | Method and apparatus for determining optical quality |
US6100990A (en) * | 1999-06-14 | 2000-08-08 | Ford Motor Company | Method and apparatus for determining reflective optical quality using gray-scale patterns |
US6639684B1 (en) | 2000-09-13 | 2003-10-28 | Nextengine, Inc. | Digitizer using intensity gradient to image features of three-dimensional objects |
JP2004509401A (ja) * | 2000-09-13 | 2004-03-25 | ネクストエンジン・インコーポレーテッド | キャプチャファイルの忠実度を保証するように監視または制御された撮像システム |
US6856407B2 (en) | 2000-09-13 | 2005-02-15 | Nextengine, Inc. | Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels |
US7358986B1 (en) | 2000-09-13 | 2008-04-15 | Nextengine, Inc. | Digital imaging system having distribution controlled over a distributed network |
JP2002213931A (ja) * | 2001-01-17 | 2002-07-31 | Fuji Xerox Co Ltd | 3次元形状計測装置および3次元形状計測方法 |
US7233351B1 (en) | 2001-02-23 | 2007-06-19 | Nextengine, Inc. | Method for high resolution incremental imaging |
JP3519698B2 (ja) * | 2001-04-20 | 2004-04-19 | 照明 與語 | 3次元形状測定方法 |
DE10130902A1 (de) * | 2001-06-27 | 2003-01-16 | Zeiss Carl | Interferometersystem, Verfahren zum Aufnehmen eines Interferogramms und Verfahren zum Bereitstellen und Herstellen eines Objekts mit einer Soll-Oberfläche |
US6634552B2 (en) * | 2001-09-26 | 2003-10-21 | Nec Laboratories America, Inc. | Three dimensional vision device and method, and structured light bar-code patterns for use in the same |
WO2004083778A1 (en) * | 2003-03-18 | 2004-09-30 | Hermary Alexander Thomas | Coded-light dual-view profile scanner |
US7711179B2 (en) | 2004-04-21 | 2010-05-04 | Nextengine, Inc. | Hand held portable three dimensional scanner |
US20060045174A1 (en) * | 2004-08-31 | 2006-03-02 | Ittiam Systems (P) Ltd. | Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock |
JP4628762B2 (ja) * | 2004-11-30 | 2011-02-09 | 株式会社ニデック | 眼科測定装置 |
KR100612932B1 (ko) * | 2005-12-14 | 2006-08-14 | 주식회사 고영테크놀러지 | 3차원 형상 측정장치 및 방법 |
US7995834B1 (en) | 2006-01-20 | 2011-08-09 | Nextengine, Inc. | Multiple laser scanner |
US20080117438A1 (en) * | 2006-11-16 | 2008-05-22 | Solvision Inc. | System and method for object inspection using relief determination |
FR2910123B1 (fr) * | 2006-12-19 | 2009-01-23 | Phosylab Sarl | Procede optico-informatique de mesure 3d de la surface exterieure d'un objet en relief par projection de franges et utilisation d'une methode a decalage de phase, systeme correspondant |
EP2183546B1 (de) | 2007-08-17 | 2015-10-21 | Renishaw PLC | Kontaktlose sonde |
CN100455987C (zh) * | 2007-08-23 | 2009-01-28 | 北京交通大学 | 利用合成波干涉全场纳米表面三维在线测量方法和系统 |
US7768656B2 (en) * | 2007-08-28 | 2010-08-03 | Artec Group, Inc. | System and method for three-dimensional measurement of the shape of material objects |
US8064068B2 (en) * | 2008-01-25 | 2011-11-22 | Cyberoptics Corporation | Multi-source sensor for three-dimensional imaging using phased structured light |
US8422030B2 (en) * | 2008-03-05 | 2013-04-16 | General Electric Company | Fringe projection system with intensity modulating by columns of a plurality of grating elements |
US7969583B2 (en) * | 2008-03-05 | 2011-06-28 | General Electric Company | System and method to determine an object distance from a reference point to a point on the object surface |
DE102008015499C5 (de) * | 2008-03-25 | 2013-01-10 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts |
GB0915904D0 (en) | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
EP2314200B1 (de) * | 2009-10-21 | 2016-01-13 | SIS AG, Surgical Instrument Systems | Vorrichtung und Verfahren zum Vermessen einer Cornea |
US8414124B2 (en) | 2009-10-21 | 2013-04-09 | Sis Ag, Surgical Instrument Systems | Device and method for measuring a cornea |
JP2014182028A (ja) * | 2013-03-19 | 2014-09-29 | Omron Corp | 限定領域反射型光電センサ |
EP2799810A1 (de) * | 2013-04-30 | 2014-11-05 | Aimess Services GmbH | Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen |
KR101736266B1 (ko) * | 2014-01-10 | 2017-05-17 | 주식회사 고영테크놀러지 | 3차원 형상측정장치 및 방법 |
US10643343B2 (en) | 2014-02-05 | 2020-05-05 | Creaform Inc. | Structured light matching of a set of curves from three cameras |
US20200320725A1 (en) * | 2017-09-27 | 2020-10-08 | Ams Sensors Singapore Pte. Ltd. | Light projection systems |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3627427A (en) * | 1970-02-11 | 1971-12-14 | Lockheed Aircraft Corp | Method and apparatus for contour measurement |
FR2279066A1 (fr) * | 1974-07-15 | 1976-02-13 | Morin Secretan Rech Perfection | Procede de visualisation directe de la forme et des deformations d'un objet tridimensionnel |
FR2292213A1 (fr) * | 1974-11-21 | 1976-06-18 | Cem Comp Electro Mec | Procede et dispositif permettant de determiner le signe des lignes de niveau d'un objet |
US4499492A (en) * | 1982-08-18 | 1985-02-12 | Novon, Inc. | Method and apparatus for three frame range imaging |
US4488172A (en) * | 1982-08-18 | 1984-12-11 | Novon, Inc. | Method and apparatus for range imaging |
US4564295A (en) * | 1983-03-07 | 1986-01-14 | New York Institute Of Technology | Apparatus and method for projection moire topography |
US4641972A (en) * | 1984-09-14 | 1987-02-10 | New York Institute Of Technology | Method and apparatus for surface profilometry |
EP0262089A3 (de) * | 1986-09-23 | 1989-08-09 | KERN & CO. AG Werke für Präzisionsmechanik Optik und Elektronik | Vorrichtung zur Vermessung der Oberfläche eines Objektes |
US4871256A (en) * | 1987-04-29 | 1989-10-03 | Lbp Partnership | Means for projecting patterns of light |
-
1990
- 1990-03-09 DE DE4007500A patent/DE4007500A1/de not_active Withdrawn
-
1991
- 1991-02-25 EP EP91102736A patent/EP0445618B1/de not_active Expired - Lifetime
- 1991-02-25 DE DE59104107T patent/DE59104107D1/de not_active Expired - Fee Related
- 1991-03-08 US US07/666,247 patent/US5135309A/en not_active Expired - Lifetime
- 1991-03-08 JP JP3043365A patent/JPH04220509A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19637682B4 (de) * | 1996-09-05 | 2004-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens |
DE19637682A1 (de) * | 1996-09-05 | 1998-03-12 | Fraunhofer Ges Forschung | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens |
DE19749435A1 (de) * | 1997-11-09 | 1999-05-27 | Bernward Maehner | Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten |
DE19749435B4 (de) * | 1997-11-09 | 2005-06-02 | Mähner, Bernward | Verfahren und Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten |
DE19846145A1 (de) * | 1998-10-01 | 2000-04-20 | Klaus Koerner | Verfahren und Anordung zur 3D-Aufnahme |
EP1262810A2 (de) * | 2001-05-29 | 2002-12-04 | Leica Microsystems AG | Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben |
EP1262810A3 (de) * | 2001-05-29 | 2003-01-08 | Leica Microsystems AG | Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben |
US7394552B2 (en) | 2001-05-29 | 2008-07-01 | Leica Microsystems Ag | Method for measuring the separation of extended objects in conjunction with an optical observation system and microscope for carrying out the same |
DE102004044695A1 (de) * | 2004-09-15 | 2006-03-30 | Sick Ag | Verfahren und Vorrichtung zur Abstandsmessung |
US7830528B2 (en) | 2005-12-14 | 2010-11-09 | Koh Young Technology, Inc. | 3D image measuring apparatus and method thereof |
DE102006059132B4 (de) * | 2005-12-14 | 2012-12-06 | Koh Young Technology Inc. | Dreidimensionales Bildmessverfahren |
US10161742B2 (en) | 2006-12-01 | 2018-12-25 | Datalogic Usa, Inc. | Range finder |
EP3064893A1 (de) * | 2015-03-05 | 2016-09-07 | Leuze electronic GmbH + Co KG | Optischer Sensor |
Also Published As
Publication number | Publication date |
---|---|
EP0445618A3 (en) | 1992-03-11 |
US5135309A (en) | 1992-08-04 |
DE59104107D1 (de) | 1995-02-16 |
JPH04220509A (ja) | 1992-08-11 |
EP0445618B1 (de) | 1995-01-04 |
EP0445618A2 (de) | 1991-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0445618B1 (de) | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen | |
EP0451474B1 (de) | Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen | |
EP1971820B1 (de) | Erstellung eines abstandsbildes | |
EP0076866B1 (de) | Interpolierendes Lichtschnitt-Verfahren | |
DE102013013791B4 (de) | Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen | |
DE3930632A1 (de) | Verfahren zur direkten phasenmessung von strahlung, insbesondere lichtstrahlung, und vorrichtung zur durchfuehrung dieses verfahrens | |
CH677972A5 (de) | ||
CH626169A5 (de) | ||
DE3122712A1 (de) | "verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen" | |
DE102009009372A1 (de) | Monitoring von kippbaren Spiegeln | |
DE3907430C1 (de) | ||
EP2799810A1 (de) | Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen | |
DE102014113389A1 (de) | Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern | |
DE2539183C2 (de) | Optisches Meßinstrument | |
DE19633686C2 (de) | Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung | |
DE2653545B1 (de) | Fotoelektrische Auflicht-Wegmesseinrichtung | |
DE2620330A1 (de) | Verfahren und vorrichtung zur bestimmung einer oberflaechengestalt | |
DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme | |
DE102007021964B4 (de) | Verfahren und Vorrichtung zur dreidimensionalen Erfassung von Objektoberflächen | |
DE3413605C2 (de) | ||
WO2012076182A1 (de) | Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen | |
DE4129796A1 (de) | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen | |
DE4119744B4 (de) | Verfahren zur Auswertung periodischer Helligkeitsmuster | |
DE3934423C1 (en) | Camera photographing topography of test piece surface - produces Moire image using CCD sensors recording phase shift between object grating and camera reference grating | |
DE102009006089B4 (de) | Verfahren zur Zuordnung von Bildpunkten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |