DE4313860A1 - Optischer Sensor zur Formerfassung dreidimensionaler Objekte - Google Patents
Optischer Sensor zur Formerfassung dreidimensionaler ObjekteInfo
- Publication number
- DE4313860A1 DE4313860A1 DE19934313860 DE4313860A DE4313860A1 DE 4313860 A1 DE4313860 A1 DE 4313860A1 DE 19934313860 DE19934313860 DE 19934313860 DE 4313860 A DE4313860 A DE 4313860A DE 4313860 A1 DE4313860 A1 DE 4313860A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- intensity distributions
- curve
- pixel
- optical sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2531—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft einen optischen Sensor zur Formerfassung dreidimen
sionaler Objekte, beruhend auf dem Prinzip der pixelweise parallel arbeiten
den Triangulationssensoren.
Für die berührungslose Vermessung von Oberflächen im Raum werden opti
sche 3D-Sensoren verwendet. Ein weit verbreitetes Prinzip für 3D-Messungen
ist die aktive Triangulation. Dazu wird das Objekt strukturiert aus einer
Richtung beleuchtet und aus einer anderen Richtung beobachtet.
Ein Sensor soll in möglichst kurzer Zeit eine möglichst große Anzahl von
3D-Meßdaten bei möglichst hoher Meßgenauigkeit liefern.
Es ist bekannt, zur Erfüllung dieses Zwecks Sensoren einzusetzten, bei denen
das gesamte Objekt strukturiert beleuchtet wird, und die für jeden Kame
rapixel einzeln einen Höhenwert (der Abstand eines Oberflächenpunkts zur
Kamera) ermitteln. Beispiele für diese Art von Belichtung sind das phasen
messende Moireverfahen [1] [2], der codierte Lichtansatz [3] [4] oder die Farb-
Triangulation [6]. Solche Sensoren sind deswegen besonders für die schnelle
3D-Formerfassung geeignet, da immer parallel eine sehr große Zahl von Bild
punkten gewonnen werden kann.
Jedoch ist die Anzahl der sequentiell projizierten Belichtungen beim Codier
ten Lichtansatz und beim phasenmessenden Triangulationsverfahren unnötig
hoch (wie im Verlauf der Beschreibung gezeigt werden wird) und erhöht da
mit einerseits den technischen Aufwand für den Sensor und andererseits die
Zeit, in der die 3D-Rekonstruktion erfolgen kann.
Beim Farb-Triangulationsverfahren wird zwar nur eine Belichtung projiziert,
jedoch ist die Anzahl der unterscheidbaren Höhenstufen unnötig gering.
Der Erfindung liegt die Aufgabe zugrunde, das Verhältnis zwischen der An
zahl der projizierten Belichtungen und der resultierenden Anzahl von Höhen
stufen zu optimieren.
Diese Aufgabe wird durch die kennzeichnenden Merkmale des Anspruchs 1
gelöst.
Eine weitere Lösung wird durch die kennzeichnenden Merkmale des An
spruchs 2 erreicht, dabei ist grundsätzlich nur eine einzige Belichtung nötig.
Die mit der Erfindung erzielbaren Vorteile bestehen in
- - Einer Verkürzung der Meßzeit
- - einer Vergrößerung der Anzahl der Höhenstufen und
- - einer Verringerung des technischen Aufwands zum Bau eines entspre chenden Sensors.
Die Datenrate eines Sensors nach Anspruch 1 oder 2 liegt (bei Verwendung
von Standard-TV-Kameras) in der Größenordnung von 2 Mio. 3D-Meßdaten
pro Sekunde.
Ein Sensor nach Anspruch 1 oder 2 kann eine Datenrate liefern, die in der
Größenordnung von 2 Mio. 3D-Meßdaten pro Sekunde liefern.
In dieser Beschreibung wird, weil es sachlich geboten ist, zunächst die Erfin
dung nach Anspruch 1 beschrieben, erst danach wird die Realisierung gemäß
Anspruch 2 erläutert.
Der Aufbau des Sensors ergibt sich aus einer Kette von logischen Betrach
tungen und Rechnungen; diese Betrachtungen führen im Fall des Anspruchs
1 zu einer Regel zur Konstruktion des Projektionssystems.
Die Beschreibung bedient sich dabei einer sehr mathematischen Sprache, weil
es sachlich geboten ist. Es handelt sich dabei aber immer um Überlegungen
zur Gestaltung der Intensitätsverteilungen.
Wir gehen von einem pixelweise parallel arbeitenden Sensor, der gemäß
Abb. 1 arbeitet, aus.
Wir wollen den Kamerapixel mit den Koordinaten (x₀, y₀) betrachten.
Der topographische Punkt, der mit Hilfe dieses Pixels rekonstruiert wer
den soll, liegt dann auf einer Geraden, die durch den Pixel (x₀, y₀) und den
Hauptpunkt des optischen Systems des Kameraobjektivs gegeben ist. Für die
vollständige 3D-Rekonstruktion muß also nur noch der Abstand zur Kamera
bestimmt werden.
Aufgabe des Projektors (oder eines Systems von Projektoren) ist es, die ein
zelnen Abstände, die in Abb. 1 als Kästchen dargestellt sind, mit Licht zu
markieren.
Dies geschieht durch N sequentiell projizierte Einzelbelichtungen. Die Inten
sitäten dieser Belichtungen sind Funktionen des räumlichen Freiheitsgrades
z und sollen mit Sj(z) bezeichnet werden. (1 j N).
Das Licht wird am Meßobjekt diffus reflektiert. Das reflektierte Licht mit
der Intensität Tj gelangt in die Kamera und wird in ein elektronisches Signal
der Stärke Ij umgewandelt. Die darauffolgende Dekodierung gestattet es, den
Freiheitsgrad z den gemessenen Intensitäten wieder zuzuordnen.
Dieser Vorgang läßt sich formalisieren:
Bei dieser Formalisierung ist nur ein einzelnes Kamerapixel betrachtet wor
den. Aus den N Beobachtungen resultieren also N in diesem Pixel ausgelesene
Intensitäten I₁, . . . IN.
Aus diesen Intensitäten muß der Freiheitsgrad z bestimmt werden. Das ge
lingt in der Dekodierungsphase mit Hilfe der Abbildung f:
∫x₀,y₀ : I₁ . . . IN →z (2)
Das Kamerarauschen ΔI kann als additives Rauschen betrachtet werden.
(Diese Tatsache ist ein experimentelles Ergebnis aus meinen Messungen.)
Deswegen wird der relative Fehler bei einer Intensitätsmessung umso kleiner,
je größer die gemessene Intensität ist.
Im weiteren Verlauf wird eine Fehlerbetrachtung für die Abbildung ∫x0,y0
durchgeführt, und es wird gezeigt, wie sich das Kamerarauschen ΔI per Feh
lerfortpflanzungsrechnung auf ein Δz abbildet. Dieser Prozeß begrenzt die
Genauigkeit aller pixelweise parallel arbeitenden Sensoren.
Umgekehrt liefert die Fehlerbetrachtung auch eine Vorschrift für das De
sign strukturierter Beleuchtungen, mit deren Hilfe eine maximale Anzahl
von Höhenstufen unterschieden werden kann.
Das Meßobjekt hat eine unbekannte, örtlich variable Reflektivität. Die einge
strahlten Beleuchtungsstärken (S₁, . . ., SN) werden deshalb bei der Reflexion
mit einem unbekannten Faktor multipliziert, der zudem von Kamerapixel zu
Kamerapixel variieren kann.
Damit der Sensor invariant gegenüber der Objektreflektivität arbeiten kann,
muß ein bestimmter Vektor von gemessenen Intensitäten (I₁ . . ., IN) eine
Äquivalenzklasse mit allen Vektoren der Form C * (I₁, . . ., IN) bilden, d. h.
alle solchen Vektoren müssen als Argument der Funktion f auf den gleichen
Wert z abgebildet werden.
Aus dieser Tatsache läßt sich eine Strategie für die Beleuchtung ableiten:
Die einzelnen Beleuchtungsstärken Si können Werte zwischen 0 und einem
Wert Smax, den der Projektor maximal liefern kann, annehmen. Der Vektor
der Beleuchtungsstärken (S₁, . . ., SN) läßt sich wegen der geforderten Invari
anz ohne weiteres mit einem skalaren Faktor C umnormieren, ohne daß das
System letztendlich einen anderen Wert für z ausgibt.
Die Beleuchtungsstärken sollten nun so normiert werden, daß der Maximal
wert des Projektors Smax auch ausgenutzt wird, d. h. an jeder Stelle z soll
mindestens eine der Beleuchtungsstärken den maximal erreichba
ren Wert annehmen.
Andernfalls wäre der von der Kamera gemessene Vektor (I₁, . . ., IN) mit einem
höheren relativen Fehler behaftet und z würde zwangsläufig mit geringerer
Genauigkeit bestimmt werden.
Die Komponenten der Kamera und des Auswertungssystems sind dann so
einzustellen, daß bei der Beleuchtungsstärke Smax das System gerade noch
nicht übersteuert ist, wenn das Meßobjekt im betrachteten Punkt die maxi
male Reflexion aufweist.
Die Erfindung beruht darauf, daß der Code die folgenden Forderungen erfüllt:
Jeder Wert von z muß eindeutig auf eine Äquivalenzklasse von Inten
sitäten abgebildet werden. Diese Bedingung ist für das Funktionieren
eines Sensors absolut notwendig.
Es soll umgekehrt zu jeder Äquivalenzklasse von Intensitäten auch
einen Wert z geben, dessen Code eben jene Äquivalenzklasse ist.
Aufgrund des Kamerarauschens läßt sich nur eine endliche An
zahl von Äquivalenzklassen (und damit Höhenstufen) unterscheiden.
Eine maximal unterscheidbare Anzahl von Höhenstufen läßt sich nur
dann erreichen, wenn jeder Äquivalenzklasse auch ein Wert von z ent
spricht.
(Dieses Prinzip ist beim phasenmessenden Moireverfahren bereits verletzt, wie später
gezeigt werden wird.)
Die Forderungen nach Eindeutigkeit und Vollständigkeit gewährleisten,
daß eine maximale Anzahl von Höhenstufen unterschieden werden
kann.
Die unterscheidbaren Höhenstufen sollen äquidistant längs des Frei
heitsgrades z angeordnet sein, um die Genauigkeit des Sensors längs z
konstant zu halten.
Dieses Prinzip wurde bereits begründet. Es fordert, daß mindestens
eine der Beleuchtungsstärken den maximalen Wert annimmt. Ein ent
sprechender Code soll als "maximalitätstreu" bezeichnet werden.
Wenn ein Punkt(I₁, . . ., IN) auf eines Wert z abgebildet wird, soll auch
eine Umgebung dieses Punktes mit auf eine Umgebung von z abgebildet
werden.
Diese Umgebung des Punktes (I₁, . . ., IN) muß so groß sein, daß eine
Störung dieses Punktes, die vom Kamerarauschen herrührt, nicht aus
dem Bereich herausführt und sprunghaft zu einem sehr großen Fehler
führt.
Wir wollen nun ein System mit zwei Belichtungen betrachten und die auf
gestellten Forderungen anwenden. Dabei kommen wir zu der angekündigten
Fehlerrechnung:
Zwei Vektoren von Intensitäten sind dann äquivalent, wenn gilt:
d. h. jede Äquivalenzklasse von Intensitäten entspricht einem bestimmten
Quotienten.
Demnach muß es für einen eindeutigen und vollständigen Code eine um
kehrbare Abbildung z ↔ Q geben. Für die Rechnung benötigen wir z als
Funktion von Q.
Die Forderungen nach Eindeutigkeit und Vollständigkeit lassen sich in diesem
System leicht erfüllen: es müssen nur alle Quotienten durchlaufen werden.
Wegen der Maximalitätsforderung soll zunächst die Funktion S₂ auf dem
Wert Smax festgehalten werden, während S₁ von 0 auf Smax ansteigt. (Um
alle möglichen Kombinationen abzudecken, werden wir später auch den um
gekehrten Fall diskutieren)
Wir suchen also die Funktion S₁(z), die die Forderungen nach Äquidistanz
und Stabilität gegenüber dem Kamerarauschen erfüllt (siehe Abb. 2).
In diesem Bereich ist Q ∈ [0; 1]. Gesucht ist also die Funktion S₁(z). Diese
Funktion können wir erhalten, wenn wir nun die Äquidistanz fordern:
Δz = constz (6)
Nun führen wir auf der Basis von Beziehung 1 eine Fehlerfortpflanzungsrech
nung durch, in der wir Δz letztendlich durch ΔI ausdrücken wollen. Es ergibt
sich:
Die Fehlerfortpflanzung endet beim Kamerarauschen ΔI, das wir als konstant
angesehen haben.
Wenn man die Partialableitungen unter Verwendung der Beziehungen (5)
und (3) ausführt, gelangt man zu der Beziehung:
In diesem Ausdruck sind die Größen R, ΔI und I₂ nicht von z abhängig,
während I₁ eine Funktion von z ist.
Wir erkennen daß der Term unter der Wurzel eine Funktion von z ist, daß
also der Fehler Δz nicht konstant bleibt; wenn konstant wäre.
z darf also nicht in linearer Weise von Q abhängen.
Wenn wir jetzt Δz als konstant fordern, ergibt sich aus (8) folgende Diffe
rentialgleichung:
Daraus läßt sich per Integration die gesuchte Abbildung zwischen z und Q
bestimmen:
Der entscheidende Schritt ist hiermit getan. Die Konstanten Δz und z(a)
werden günstigerweise so gewählt, daß die Werte von z das Intervall [0; 1]
durchlaufen. Es ergibt sich:
Nun können wir auch den analogen Code für zwei Belichtungen angeben:
S₂ war im betrachteten Intervall konstant. Wegen
gilt für S₁:
Mit anderen Worten: Die in Abb. 2 gesuchte Funktion war der sinus hyper
bolicus.
Wir müssen nun noch alle die Möglichkeiten hinzunehmen, bei denen S₁ =
Smax ist. Dies wird dazu führen, das die Abb. 2 symmetrisch ergänzt werden
kann, womit dann alle möglichen Quotienten abgedeckt sind.
Wir wollen aber versuchen, das Hinzufügen eines symmetrischen Bereichs
von einem höheren Standpunkt aus zu verstehen:
Die Grundmenge, aus der wir die Werte für z entnehmen können, soll als "Zu
standsraum des Projektionssystems" bezeichnet werden. Dieser Zustands
raum hat aufgrund der obigen Konstruktion die Eigenschaft, daß die unter
scheidbaren Zustände auf gleich große Teilintervalle Δz abgebildet werden.
Die Rolle des Referenzwertes I₂ kann ebenso von I₁ übernommen werden.
Grundsätzlich kann das dekodierende System diese zwei übergeordneten
Merkmale unterscheiden, weil die Eigenschaft einer Intensität, größer als eine
andere zu sein, nicht verloren geht, wenn die Intensitäten mit dem gleichen
Faktor (der Reflektivität) multipliziert werden.
Das System kann daher neben dem Wert z noch eine natürliche Zahl k, die
Plazierung des Referenzwertes, übertragen. Bei einem System mit N
Belichtungen gibt es N mögliche Plazierungen - in unserem System entspre
chend nur zwei Plazierungen. Damit erweitert sich der Zustandsraum des
Projektionssystems von einem Intervall [0; 1] auf zwei nebeneinanderliegende
Intervalle, deren gegenseitige Anordnung noch nicht festgelegt ist.
Jede dieser Intervalle weist jedoch eine Besonderheit an einem ihrer Inter
vallgrenzen auf, wenn gilt z = 1. Dieser Zustand bedeutet nichts anderes, als
daß beide Intensitäten gleich groß sind.
An dieser Stelle ist die Plazierung des Referenzwertes nicht mehr eindeutig
feststellbar, d. h. es wäre möglich, dem Zustand zwei Punkte an den Enden
der beiden getrennten Intervalle zuzuordnen. Einen solchen Zustandsraum
des Projektionssystems zu konstruieren wäre aber ungünstig, denn wir wollen
fordern, daß jeder Punkt in diesem Zustandsraum genau einem vom Dekoder
unterscheidbaren Zustand entspricht.
Zwangsläufig müssen die beiden Punkte identisch sein. Wir sind also gezwun
gen, die beiden Intervalle an den Intervallgrenzen z = 1 zusammenzufügen.
Das entstehende mathematische Objekt ist wieder ein Intervall, nämlich [0; 2].
Es sollen nun N Belichtungen sequentiell auf das Objekt projiziert werden.
Wegen der Maximalitätsforderung soll in jedem Punkt des beleuchteten Ob
jekts mindestens eine der N Beleuchtungsstärken den maximalen Wert an
nehmen.
Die Belichtung Sk soll nun als Referenz dienen, sie entspricht damit S₂ in der
vorangegangenen Diskussion.
Mit ihrer Hilfe läßt sich nun nicht mehr nur ein Quotient, sondern N-1
Quotienten definieren, die N-1 Freiheitsgraden ζi entsprechen:
Wir haben jetzt als nicht mehr nur einen räumlichen Freiheitsgrad z vorliegen,
sondern N-1 (zunächst abstrakte) Freiheitsgrade. Da es sich nicht mehr
um räumliche Freiheitsgrade handelt, wurden nicht das Symbol z, sondern
das Symbol ζ verwendet.
Der jeweilige Wert der einzelnen Freiheitsgrade läßt sich unabhängig vonein
ander einstellen, da jeder Freiheitsgrad mit einem noch freien Parameter Si
gekoppelt ist.
Die Werte ζi können anschaulich als relative Helligkeit der Belichtungen zum
Referenzwert interpretiert werden.
Von jedem dieser Freiheitsgrade kann aufgrund des Kamerarauschens eine
bestimmte Anzahl verschiedener Werte unterschieden werden. Bei Verwen
dung einer Standard-TV-Kamera lassen sich etwa 20 verschiedene Werte
unterscheiden.
(experimentelles Ergebnis aus eigenen Messungen).
Der Projektor bildet dann den räumlichen Freiheitsgrad z zunächst auf einen
bestimmten Satz von Werten der ζi ab.
Der Dekoder arbeitet mit der umgekehrten Abbildung:
Durch diesen Trick wurde die Anzahl der unterscheidbaren Höhenstufen po
tenziert!
Eine Abbildung der Art von g₁ ist als "Kurve" des Punktes
(ζ₁, . . ., ζN(z), k(z)) interpretierbar.
- - zwei Freiheitsgrade, ζ₁ und ζ₂,
übertragen.
An dieser Stelle müssen wir einige Betrachtungen zur Topologie dieses Zu
standsraumes anstellen:
Es liegt also im konkretem Fall dreimal das mathematische Objekt [0; 1]-
[0; 1] vor, also drei endliche, quadratische Flächen.
Wir wollen uns nun überlegen, in welcher Art die drei quadratischen Flächen
aneinandergefügt werden müssen. Dabei werden wir jedoch feststellen, daß
der Zustandsraum eine komplizierte Topologie aufweist. Wie wir erkennen
werden, müssen wir drei Flächen zu einer Topologie gemäß Abb. 3 verbinden.
Jede der drei Flächen weist nämlich eine Besonderheit an zwei ihrer be
grenzenden Kanten auf: an der Kante ζ₁ = 1 und an der Kante ζ₂ = 1.
Wenn ein Zustand projiziert werden soll, der an einer solchen Kante liegt,
sind zwei der drei Intensitäten gleich groß, und die Plazierung des Refe
renzwertes ist nicht mehr eindeutig feststellbar, d. h. es wäre möglich, dem
Zustand zwei Punkte auf den Kanten zweier verschiedener Flächen zuzuord
nen. Zwangsläufig müssen die beiden Punkte identisch sein, d. h. die Flächen
müssen an den Kanten mit ζ = 1 zusammengefügt werden.
Nun soll ein Sensor für ein System mit mehr als zwei Belichtungen entwickelt
werden.
Dies geschieht in folgender Art und Weise: Zunächst wird eine Kurve vorge
geben; sie gibt an, welche Zustände räumlich hintereinander auf das Objekt
projiziert werden sollen.
Abb. 4 zeigt die einfachste mögliche Kurve für ein System mit 3 Belichtungen.
Die in Abb. 4 gezeigte Kurve nicht die einzig mögliche, sondern Repräsentant
einer Klasse möglicher Kurven, die das Verlangte leisten.
Aus der Kurve lassen sich die Funktionen S₁(z), . . ., SN(z) bestimmen.
Der Konfidenzbereich Δζ entspricht der Kantenlänge eines der kleinen Qua
drate, die die einzelnen unterscheidbaren Zellen des Zustandsraumes darstel
len. Bildlich gesprochen werden die unterscheidbaren Zellen - wie an einer
Perlenschnur - entlang des räumlichen Freiheitsgrades z aufgereiht.
Wir wollen nun noch explizit untersuchen, ob die Forderung nach Stabilität
gegenüber dem Kamerarauschen erfüllt ist:
Bei Systemen mit mehr als zwei Belichtungen hatte der Zustandsraum des
Projektionssystems nicht mehr die mathematische Form eines Intervalls, son
dern die eines höherdimensionalen Gebildes. Der Zustandsraum mußte aber
zwangsläufig auf ein Intervall abgebildet werden. Dies geschah durch die
Einführung der Kurve. Ein Fehler in der Lokalisation eines Punktes im Zu
standsraum kann nun zu zweierlei Arten von Fehlern in der Bestimmung von
z führen:
- - longitudinale Versetzungen sie führen zu kleinen Fehlern längs der Kurve.
- - transversale Sprünge von einem Teil der Kurve zu einem anderen in
der Nähe befindlichen Teil.
Ein solcher Sprung würde das Übertragungssystem (1) in fataler Weise überlisten. Und zu einem Fehler führen, der viel größer ist, als es die Fehlerfortpflanzungsrechnung vorhersagt.
Ein transversaler Sprung verletzt die Forderung nach Stabilität gegenüber
dem Kamerarauschen. Transversale Sprünge müssen also vermieden werden.
Es ist prinzipiell unmöglich, solche Sprünge völlig auszuschließen, also muß
die Wahrscheinlichkeit für transversale Sprünge klein gehalten werden.
Das ist erreichbar, indem der transversale Abstand, also der minimale Ab
stand, den zwei nebeneinanderlaufende Teilabschnitte der Kurve zueinander
haben, groß genug bleibt.
Daher wird bei der gattungsgemäßen Einrichtung meiner Erfindung ein trans
versaler Abstand gewählt, der mindestens 3 Standardabweichungen beträgt.
Nun sind in einer Kette logischer Schlußfolgerungen ein neuer Typ von 3D-
Sensoren entstanden.
Die verwendete Codierung ist nur im Fall des Systems mit 2 Belichtungen
eindeutig, bei Systemen mit mehr als 2 Belichtungen ergibt sich eine ganze
Klasse von gleichwertigen Codes, die als Bestandteil des Sensors in Frage
kommen.
Die Wahl der Kurve im Zustandsraum ist (ähnlich wie die Wahl der Bahn
eines Mähdreschers auf einem Feld) nicht eindeutig. Wir fassen die Kriterien
für die Wahl dieser Bahn zusammen:
- - Die Bahn muß überschneidungsfrei sein.
- - Die Bahn wird von einer Art "Schlauch" von einer bestimmten Breite umgeben.
- - Die Bahn und der "Schlauch" müssen den gesamten Zustandsraum abdecken. (Der Grund dafür ist die geforderte Surjektivität)
Anhand der Kurve aus Abb. 4 sollen die drei Intensitätsverteilungen ange
geben werden, die dieser Kurve entsprechen. Diese Intensitätsverteilungen
lassen sich nun mit Hilfe der Definitionen 14 berechnen, der Verlauf der In
tensitätsverteilungen ist in Abb. 5 dargestellt.
Ein möglicher Sensor zur Formerfassung dreidimensionaler Objekte gemäß
Anspruch I arbeitet zusammenfassend nun nach folgendem Prinzip:
- 1. Eine Belichtungseinheit projiziert nacheinander drei Streifenmuster auf ein Meßobjekt, deren funktionaler Verlauf in Abb. 5 gezeigt ist.
- 2. Die Kamera nimmt jeweils ein Bild auf.
- 3. Der Dekoder kann für jeden Kamerapixel einzeln aus den beobachteten Intensitäten den Abstand zur Kamera eindeutig ermitteln. Der Grund dafür liegt in der mathematischen Konstruktion der Belichtungen.
Es wurde ein pixelweise parallel arbeitender 3D-Sensor entwickelt, der eine
maximale Anzahl von Höhenstufen unterscheiden kann.
Um die vorteilhaften Wirkungen des Sensors demonstrieren zu können, soll
der Sensor mit 3 Belichtungen mit dem phasenmessenden Moireverfahren
verglichen werden.
Beim phasenmessenden Moireverfahren sind die Funktionen S₁(z), . . ., S₃(z)
drei Sinus-Funktionen, die zueinander eine Phasenverschiebung von 120° auf
weisen. Gemäß der Definition der Koordinaten σ₁ in (14) läßt sich die ent
sprechende Kurve zeichnen. Sie ist in Abb. 5 dargestellt.
Nachteile des phasenmessenden Moireverfahrens:
- - Verletzung der Maximalität
Es ist nicht zu jedem Zeitpunkt eine der drei Intensitätsverteilungen maximal. Dadurch ist der Fehler des Sensors prinzipiell größer als nötig - - Verletzung der Vollständigkeit (Surjektivität)
Jeder unterscheidbare Zustand entspricht in Abb. 5 einem Kästchen. - Es gibt Zustände, die das dekodierende System unterscheiden könnte,
die aber vom Projektor an keiner Stelle z codiert werden. Die Kurve
tangiert die entsprechenden Kästchen nicht. Daraus ergibt sich:
Das Phasenmessende Triangulationsverfahren nutzt den zur Verfügung stehenden Vorrat an Codewörtern nur zu einem Bruchteil aus.
Bei der Einrichtung der Erfindung gemäß Anspruch 2 wird ein Spektrum
verschiedener Wellenlängen auf das Meßobjekt projiziert und das Objekt auf
diese Weise markiert.
Als Gedankenexperiment werden nun vor den Projektor nacheinander Farb
filter gebracht, deren Transmissionskennlinie genau den funktionalen Verlauf
aufweist, wie er für die Intensitätsverteilungen hergeleitet wurde. Die Farb
filter "übersetzen" also die Markierung mit Wellenlängen in eine Markierung
mit Intensitäten. Die Intensitäten werden von der Kamera aufgenommen,
erst dabei wird ein Rauschen addiert.
Diese Realisierung der Erfindung ist vom informationstheoretischen Stand
punkt aus gesehen völlig äquivalent zur Realisierung nach Anspruch 1.
Aufgrund der Linearität optischer Systeme können die Farbfilter auch erst
unmittelbar vor der Kamera eingebaut werden, man erhält dann das gleiche
Ergebnis.
Das eröffnet den Weg zur Realisierung der Erfindung nach Anspruch 2: Jeder
Filter erhält eine eigene Kamera. Die Kameras müssen gegenseitig so justiert
sein, daß sie das gleiche Gesichtsfeld haben, d. h. ein bestimmter Oberflächen
punkt des Meßobjekts soll in den verschiedenen Kameras jeweils auf den
gleichen Pixel abgebildet werden.
Der technische Vorteil der Realisierung nach Anspruch 2 liegt in einer wei
teren Parallelisierung. Nun können die gesuchten Intensitätsverteilungen
nämlich gleichzeitig beobachtet werden.
Der nachgeschaltete Dekoder arbeitet genau in der gleichen Art und Weise
wie er für die Realisierung nach Anspruch 1 beschrieben worden ist.
Die Sensoren nach Anspruch 1 und nach Anspruch 2 sind informationstheo
retisch äquivalent.
Besonders günstig erscheinen Systeme mit bis zu vier Belichtungen (An
spruch 1) bzw. 4 Farbfiltern (Anspruch 2) weil dann noch eine Auswertung
per look-up-table möglich ist.
Bei Systemen mit mehr als drei Belichtungen läßt sich der Zustandsraum
nicht mehr bildlich darstellen. Damit stellt sich die Frage, ob bei solchen
Systemen eine passende Kurve gefunden werden kann. Diese Frage kann, wie
wir sehen werden, positiv beantwortet werden:
Zunächst wollen wir einen Begriff definieren: Als "randständiger Zustand"
soll ein Zustand bezeichnet werden, bei dem alle Koordinaten ζi entweder
den Wert 0 oder den Wert 1 aufweisen.
Eine mögliche Kurve (und damit ein Satz möglicher Intensitätsverläufe) kann
nach einem Konstruktionsverfahren gefunden werden. Dieses Verfahren geht
von einer Kurve in einer Dimension aus, konstruiert daraus eine Kurve in
zwei Dimensionen, dann eine Kurve in drei Dimensionen usw.:
Zur Konstruktion einer Kurve in einem N-dimensionalem Zustandsraum
muß vorausgesetzt werden, daß die Konstruktion einer Kurve in einem N-1-
dimensionalen Zustandsraum, die bei einem randständigen Zustand beginnt
und auch bei einem randständigen Zustand endet, bereits erfolgreich abge
schlossen wurde. Dies ist beim System mit zwei Belichtungen der Fall.
Nun, im N-dimensionalen Fall, ist ein neuer Freiheitsgrad ζN hinzugekom
men. Die Kurve soll nun folgenden Verlauf haben:
- - Es wird zunächst der Anfangspunkt festgesetzt: SN+1 soll Null sein. Damit ist ζN ebenfalls gleich Null. Die anderen Freiheitsgrade sollen auf den randständigen Anfangszustand der bereits konstruierten Kurve im N-1-dimensionalen Zustandsraum gesetzt werden.
- - Nun durchlaufen wir diese Kurve bis zu ihrem Endpunkt, wobei wir stets ζN = 0 beibehalten.
- - Dann wird ζN erhöht, und zwar um den Betrag eines transversalen Ab stands. Mit dieser Einstellung von ζN durchlaufen wir die Kurve erneut, diesmal allerdings mit umgekehrter Parametrisierungsrichtung, weil wir nach Beendigung der Phase 1 am Endpunkt der Kurve angekommen waren.
- - Auf diese Weise alternierend können wir den Referenzwert ζN immer wieder um ein Stück erhöhen und gelangen schließlich zum Wert ζN = 1.
- - Nun ist SN+1 die Beleuchtung, die als Referenzwert dient. Wir müssen
nur noch den Unterraum abtasten, der zu diesem (festen) Referenzwert
gehört. Dieser Unterraum hat aber die einfache Topologie [0; 1]N-1 (Hy
perwürfel) und ist mit einem ähnlichen induktiven Verfahren abtastbar:
- - eine Fläche kann abgetastet werden, indem eine Koordinate ab wechselnd von 0 bis 1 und wieder zurück läuft, während eine zweite Koordinate schrittweise vergrößert (oder verkleinert) wird.
- - ein Würfel kann abgetastet werden, indem zwei Koordinaten eine Fläche abtasten, während eine dritte schrittweise vergrößert (oder verkleinert) wird.
- - auf diese Weise kann jeder (beliebig hochdimensionale) Hy perwürfel abgetastet werden.
- Am Ende des Verfahrens ist wieder ein randständiger Punkt erreicht worden.
[1] Matthias Gruber: Ein Phasenmessendes Triangulationsverfahren zur par
allelen optischen Erfassung der Form dreidimensionaler Objekte, Diplom
arbeit Universität Erlangen-Nürnberg, 1991
[2] Takasaki H.: Moir´ topography, Applied Optics 9, 1970
[3] Thomas Stahs: "3D-Sensorsysteme in der Robotik" in "Automatisierung mit Industrierobotern" herausgegeben von Winfried Rehr, Braunschweig; Wiesbaden: Vieweg 1989
[4] Firma ABW, Automatisierung Bildverarbeitung Dr. Wolf, Strohgäugasse 5, 7303 Neuhausen a.d.F.: "Produktbeschreibung Linienprojektor LCD 320 und Codierter Lichtansatz"
[5] H. Tiziani, Lehrstuhl für technische Optik, Universität Stuttgart: "Dy namische ON-Line 3-D-Konturvermessung", Manuskript im Rahmen des BMFT-Verbundprojekts 3-D-Objektvermessung auf kleinen Entfernun gen, Februar 1993
[6] Dieter Ritter: Parallele optische Formerfassung durch "Farb - Triangula tion", Diplomarbeit Universität Erlangen-Nürnberg, 1991
[2] Takasaki H.: Moir´ topography, Applied Optics 9, 1970
[3] Thomas Stahs: "3D-Sensorsysteme in der Robotik" in "Automatisierung mit Industrierobotern" herausgegeben von Winfried Rehr, Braunschweig; Wiesbaden: Vieweg 1989
[4] Firma ABW, Automatisierung Bildverarbeitung Dr. Wolf, Strohgäugasse 5, 7303 Neuhausen a.d.F.: "Produktbeschreibung Linienprojektor LCD 320 und Codierter Lichtansatz"
[5] H. Tiziani, Lehrstuhl für technische Optik, Universität Stuttgart: "Dy namische ON-Line 3-D-Konturvermessung", Manuskript im Rahmen des BMFT-Verbundprojekts 3-D-Objektvermessung auf kleinen Entfernun gen, Februar 1993
[6] Dieter Ritter: Parallele optische Formerfassung durch "Farb - Triangula tion", Diplomarbeit Universität Erlangen-Nürnberg, 1991
Claims (5)
1. Optischer Sensor zur Formerfassung dreidimensionaler Objekte, beru
hend auf dem Prinzip der pixelweise parallel arbeitenden Sensoren und
bestehend aus
- (a) einer Kamera
- (b) einem Belichtungssystem, dessen Aufgabe es ist, die Höhenstufen des Meßobjekts mit verschiedenen Intensitäten zu markieren.
- (c) Einer Dekodierungseinheit, die aus den Kamerasignalen 3D- Daten gewinnen kann
durch streifenartige, vom Belichtungssystem projizierte Intensitätsver
teilungen gekennzeichnet, die einen bestimmten Verlauf aufweisen:
- (a) Die Intensitätsverteilungen sind maximalitätstreue Funktionen.
- (b) Die den Intensitätsverteilungen entsprechende Kurve im Zu
standsraum des Projektionssystems
- i. ist überschneidungsfrei.
- ii. weist einen transversalen Abstand von mindestens 3 Konfi denzintervallen auf.
- iii. überdeckt zusammen mit der von transversalen Abstand ge bildeten Umgebung den gesamten Zustandsraum.
Die kennzeichnenden Merkmale werden erst mit den in der Beschrei
bung gegebenden Definitionen verständlich.
2. Optischer Sensor nach Anspruch 1, jedoch bestehend aus:
- (a) einem System von Kameras, die
- i. so justiert sind, daß sie das gleiche Beobachtungsfeld haben
- ii. jeweils mit einem Farbfilter versehen sind
- (b) einem Belichtungssystem, welches die Höhenstufen des Meßob jekts mit einem Spektrum von Licht verschiedener Wellenlängen markiert.
- (c) Einer Dekodierungseinheit, die aus den Kamerasignalen 3D- Daten gewinnen kann
gekennzeichnet dadurch, daß die Transmissionskurven der optischen Fil
ter einen besonderen Verlauf haben, dessen Merkmale identisch mit
den Merkmalen der Intensitätsverteilungen aus dem kennzeichnenden
Teil von Anspruch 1 sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19934313860 DE4313860A1 (de) | 1993-04-28 | 1993-04-28 | Optischer Sensor zur Formerfassung dreidimensionaler Objekte |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19934313860 DE4313860A1 (de) | 1993-04-28 | 1993-04-28 | Optischer Sensor zur Formerfassung dreidimensionaler Objekte |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4313860A1 true DE4313860A1 (de) | 1994-11-03 |
Family
ID=6486558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19934313860 Withdrawn DE4313860A1 (de) | 1993-04-28 | 1993-04-28 | Optischer Sensor zur Formerfassung dreidimensionaler Objekte |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4313860A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4414112A1 (de) * | 1994-04-22 | 1995-10-26 | Johannes Bauer Maschinen Und A | Verfahren und Vorrichtung zum Trennen unterschiedlicher Wertstoffe |
WO2002023918A2 (en) * | 2000-09-13 | 2002-03-21 | Nextengine, Inc. | Mehthod and device for measuring three-dimensional shapes |
US6639684B1 (en) | 2000-09-13 | 2003-10-28 | Nextengine, Inc. | Digitizer using intensity gradient to image features of three-dimensional objects |
US7711179B2 (en) | 2004-04-21 | 2010-05-04 | Nextengine, Inc. | Hand held portable three dimensional scanner |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3858981A (en) * | 1971-08-09 | 1975-01-07 | Ibm | Method of measuring irregularities in the evenness of surfaces |
US4185918A (en) * | 1975-08-27 | 1980-01-29 | Solid Photography Inc. | Arrangement for sensing the characteristics of a surface and determining the position of points thereon |
US4212073A (en) * | 1978-12-13 | 1980-07-08 | Balasubramanian N | Method and system for surface contouring |
US4634278A (en) * | 1984-02-06 | 1987-01-06 | Robotic Vision Systems, Inc. | Method of three-dimensional measurement with few projected patterns |
-
1993
- 1993-04-28 DE DE19934313860 patent/DE4313860A1/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3858981A (en) * | 1971-08-09 | 1975-01-07 | Ibm | Method of measuring irregularities in the evenness of surfaces |
US4185918A (en) * | 1975-08-27 | 1980-01-29 | Solid Photography Inc. | Arrangement for sensing the characteristics of a surface and determining the position of points thereon |
US4212073A (en) * | 1978-12-13 | 1980-07-08 | Balasubramanian N | Method and system for surface contouring |
US4634278A (en) * | 1984-02-06 | 1987-01-06 | Robotic Vision Systems, Inc. | Method of three-dimensional measurement with few projected patterns |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4414112A1 (de) * | 1994-04-22 | 1995-10-26 | Johannes Bauer Maschinen Und A | Verfahren und Vorrichtung zum Trennen unterschiedlicher Wertstoffe |
WO2002023918A2 (en) * | 2000-09-13 | 2002-03-21 | Nextengine, Inc. | Mehthod and device for measuring three-dimensional shapes |
WO2002023918A3 (en) * | 2000-09-13 | 2003-02-06 | Nextengine Inc | Mehthod and device for measuring three-dimensional shapes |
US6639684B1 (en) | 2000-09-13 | 2003-10-28 | Nextengine, Inc. | Digitizer using intensity gradient to image features of three-dimensional objects |
US6980302B2 (en) | 2000-09-13 | 2005-12-27 | Nextengine, Inc. | Three dimensional digitizer using multiple methods |
US7659995B2 (en) | 2000-09-13 | 2010-02-09 | NextPat, Ltd. | Digitizer using plural capture methods to image features of 3-D objects |
US7711179B2 (en) | 2004-04-21 | 2010-05-04 | Nextengine, Inc. | Hand held portable three dimensional scanner |
US8116559B2 (en) | 2004-04-21 | 2012-02-14 | Nextengine, Inc. | Hand held portable three dimensional scanner |
US8699829B2 (en) | 2004-04-21 | 2014-04-15 | Nextpat Limited | Hand held portable three dimensional scanner |
US9549168B2 (en) | 2004-04-21 | 2017-01-17 | Nextpat Limited | Hand held portable three dimensional scanner |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1971820B1 (de) | Erstellung eines abstandsbildes | |
EP2275990B1 (de) | 3D-Sensor | |
DE112008002148B4 (de) | Verfahren zum dreidimensionalen Messen der Höhe eines Objektteils | |
DE2209667C3 (de) | Einrichtung zur beruhrungslosen Messung | |
DE102008002730B4 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
DE112015005073B4 (de) | Abbildungssystem, enthaltend eine Linse mit longitudinaler chromatischer Aberration, Endoskop und Abbildungsverfahren | |
DE3328753C2 (de) | Verfahren und Vorrichtung zur Abbildung einer Szene | |
EP2598836B1 (de) | Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern | |
DE4130237A1 (de) | Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen | |
EP3433577B1 (de) | Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen | |
DE102012108567A1 (de) | Verfahren und Vorrichtung zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters | |
DE102008002725B4 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
EP2019281B1 (de) | Verfahren zum Betrieb eines 3D-Sensors | |
EP2865987B1 (de) | Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche | |
DE112011103006T5 (de) | Verfahren und Vorrichtung zum Messen der Form eines Objekts | |
DE102014113389A1 (de) | Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern | |
EP2627968B1 (de) | Vorrichtung und verfahren zur dreidimensionalen bilderfassung | |
DE19525561C2 (de) | 3D-Meßvorrichtung | |
EP2799810A1 (de) | Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen | |
DE2210681B2 (de) | Einrichtung zur berührungslosen Messung | |
DE102019105358A1 (de) | Erstellung eines Abstandsbildes | |
EP4285327A1 (de) | Vorrichtung und verfahren zur korrespondenzanalyse in bildern | |
DE102016100132B4 (de) | Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen | |
DE102011117894A1 (de) | Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen | |
DE4313860A1 (de) | Optischer Sensor zur Formerfassung dreidimensionaler Objekte |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8122 | Nonbinding interest in granting licenses declared | ||
8139 | Disposal/non-payment of the annual fee |