DE4313860A1 - Optischer Sensor zur Formerfassung dreidimensionaler Objekte - Google Patents

Optischer Sensor zur Formerfassung dreidimensionaler Objekte

Info

Publication number
DE4313860A1
DE4313860A1 DE19934313860 DE4313860A DE4313860A1 DE 4313860 A1 DE4313860 A1 DE 4313860A1 DE 19934313860 DE19934313860 DE 19934313860 DE 4313860 A DE4313860 A DE 4313860A DE 4313860 A1 DE4313860 A1 DE 4313860A1
Authority
DE
Germany
Prior art keywords
camera
intensity distributions
curve
pixel
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19934313860
Other languages
English (en)
Inventor
Ralf Lampalzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19934313860 priority Critical patent/DE4313860A1/de
Publication of DE4313860A1 publication Critical patent/DE4313860A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Die Erfindung betrifft einen optischen Sensor zur Formerfassung dreidimen­ sionaler Objekte, beruhend auf dem Prinzip der pixelweise parallel arbeiten­ den Triangulationssensoren.
1. Stand der Technik und Aufgabenstellung
Für die berührungslose Vermessung von Oberflächen im Raum werden opti­ sche 3D-Sensoren verwendet. Ein weit verbreitetes Prinzip für 3D-Messungen ist die aktive Triangulation. Dazu wird das Objekt strukturiert aus einer Richtung beleuchtet und aus einer anderen Richtung beobachtet.
Ein Sensor soll in möglichst kurzer Zeit eine möglichst große Anzahl von 3D-Meßdaten bei möglichst hoher Meßgenauigkeit liefern.
Es ist bekannt, zur Erfüllung dieses Zwecks Sensoren einzusetzten, bei denen das gesamte Objekt strukturiert beleuchtet wird, und die für jeden Kame­ rapixel einzeln einen Höhenwert (der Abstand eines Oberflächenpunkts zur Kamera) ermitteln. Beispiele für diese Art von Belichtung sind das phasen­ messende Moireverfahen [1] [2], der codierte Lichtansatz [3] [4] oder die Farb- Triangulation [6]. Solche Sensoren sind deswegen besonders für die schnelle 3D-Formerfassung geeignet, da immer parallel eine sehr große Zahl von Bild­ punkten gewonnen werden kann.
2. Kritik am Stand der Technik
Jedoch ist die Anzahl der sequentiell projizierten Belichtungen beim Codier­ ten Lichtansatz und beim phasenmessenden Triangulationsverfahren unnötig hoch (wie im Verlauf der Beschreibung gezeigt werden wird) und erhöht da­ mit einerseits den technischen Aufwand für den Sensor und andererseits die Zeit, in der die 3D-Rekonstruktion erfolgen kann.
Beim Farb-Triangulationsverfahren wird zwar nur eine Belichtung projiziert, jedoch ist die Anzahl der unterscheidbaren Höhenstufen unnötig gering.
3. Aufgabe
Der Erfindung liegt die Aufgabe zugrunde, das Verhältnis zwischen der An­ zahl der projizierten Belichtungen und der resultierenden Anzahl von Höhen­ stufen zu optimieren.
Diese Aufgabe wird durch die kennzeichnenden Merkmale des Anspruchs 1 gelöst.
Eine weitere Lösung wird durch die kennzeichnenden Merkmale des An­ spruchs 2 erreicht, dabei ist grundsätzlich nur eine einzige Belichtung nötig.
4. Erzielbare Vorteile
Die mit der Erfindung erzielbaren Vorteile bestehen in
  • - Einer Verkürzung der Meßzeit
  • - einer Vergrößerung der Anzahl der Höhenstufen und
  • - einer Verringerung des technischen Aufwands zum Bau eines entspre­ chenden Sensors.
Die Datenrate eines Sensors nach Anspruch 1 oder 2 liegt (bei Verwendung von Standard-TV-Kameras) in der Größenordnung von 2 Mio. 3D-Meßdaten pro Sekunde.
Ein Sensor nach Anspruch 1 oder 2 kann eine Datenrate liefern, die in der Größenordnung von 2 Mio. 3D-Meßdaten pro Sekunde liefern.
5. Beschreibung der Erfindung
In dieser Beschreibung wird, weil es sachlich geboten ist, zunächst die Erfin­ dung nach Anspruch 1 beschrieben, erst danach wird die Realisierung gemäß Anspruch 2 erläutert.
Der Aufbau des Sensors ergibt sich aus einer Kette von logischen Betrach­ tungen und Rechnungen; diese Betrachtungen führen im Fall des Anspruchs 1 zu einer Regel zur Konstruktion des Projektionssystems.
Die Beschreibung bedient sich dabei einer sehr mathematischen Sprache, weil es sachlich geboten ist. Es handelt sich dabei aber immer um Überlegungen zur Gestaltung der Intensitätsverteilungen.
5.1 Systemtheoretische Modellierung eines punkt­ weise arbeitenden 3D-Sensors
Wir gehen von einem pixelweise parallel arbeitenden Sensor, der gemäß Abb. 1 arbeitet, aus.
Wir wollen den Kamerapixel mit den Koordinaten (x₀, y₀) betrachten.
Der topographische Punkt, der mit Hilfe dieses Pixels rekonstruiert wer­ den soll, liegt dann auf einer Geraden, die durch den Pixel (x₀, y₀) und den Hauptpunkt des optischen Systems des Kameraobjektivs gegeben ist. Für die vollständige 3D-Rekonstruktion muß also nur noch der Abstand zur Kamera bestimmt werden.
Aufgabe des Projektors (oder eines Systems von Projektoren) ist es, die ein­ zelnen Abstände, die in Abb. 1 als Kästchen dargestellt sind, mit Licht zu markieren.
Dies geschieht durch N sequentiell projizierte Einzelbelichtungen. Die Inten­ sitäten dieser Belichtungen sind Funktionen des räumlichen Freiheitsgrades z und sollen mit Sj(z) bezeichnet werden. (1 j N).
Das Licht wird am Meßobjekt diffus reflektiert. Das reflektierte Licht mit der Intensität Tj gelangt in die Kamera und wird in ein elektronisches Signal der Stärke Ij umgewandelt. Die darauffolgende Dekodierung gestattet es, den Freiheitsgrad z den gemessenen Intensitäten wieder zuzuordnen.
Dieser Vorgang läßt sich formalisieren:
Bei dieser Formalisierung ist nur ein einzelnes Kamerapixel betrachtet wor­ den. Aus den N Beobachtungen resultieren also N in diesem Pixel ausgelesene Intensitäten I₁, . . . IN.
Aus diesen Intensitäten muß der Freiheitsgrad z bestimmt werden. Das ge­ lingt in der Dekodierungsphase mit Hilfe der Abbildung f:
x₀,y₀ : I₁ . . . IN →z (2)
Das Kamerarauschen ΔI kann als additives Rauschen betrachtet werden. (Diese Tatsache ist ein experimentelles Ergebnis aus meinen Messungen.) Deswegen wird der relative Fehler bei einer Intensitätsmessung umso kleiner, je größer die gemessene Intensität ist.
Im weiteren Verlauf wird eine Fehlerbetrachtung für die Abbildung ∫x0,y0 durchgeführt, und es wird gezeigt, wie sich das Kamerarauschen ΔI per Feh­ lerfortpflanzungsrechnung auf ein Δz abbildet. Dieser Prozeß begrenzt die Genauigkeit aller pixelweise parallel arbeitenden Sensoren.
Umgekehrt liefert die Fehlerbetrachtung auch eine Vorschrift für das De­ sign strukturierter Beleuchtungen, mit deren Hilfe eine maximale Anzahl von Höhenstufen unterschieden werden kann.
5.2 Invarianz des Sensors gegenüber der Objektre­ flektivität
Das Meßobjekt hat eine unbekannte, örtlich variable Reflektivität. Die einge­ strahlten Beleuchtungsstärken (S₁, . . ., SN) werden deshalb bei der Reflexion mit einem unbekannten Faktor multipliziert, der zudem von Kamerapixel zu Kamerapixel variieren kann.
Damit der Sensor invariant gegenüber der Objektreflektivität arbeiten kann, muß ein bestimmter Vektor von gemessenen Intensitäten (I₁ . . ., IN) eine Äquivalenzklasse mit allen Vektoren der Form C * (I₁, . . ., IN) bilden, d. h. alle solchen Vektoren müssen als Argument der Funktion f auf den gleichen Wert z abgebildet werden.
Aus dieser Tatsache läßt sich eine Strategie für die Beleuchtung ableiten:
Die einzelnen Beleuchtungsstärken Si können Werte zwischen 0 und einem Wert Smax, den der Projektor maximal liefern kann, annehmen. Der Vektor der Beleuchtungsstärken (S₁, . . ., SN) läßt sich wegen der geforderten Invari­ anz ohne weiteres mit einem skalaren Faktor C umnormieren, ohne daß das System letztendlich einen anderen Wert für z ausgibt.
Die Beleuchtungsstärken sollten nun so normiert werden, daß der Maximal­ wert des Projektors Smax auch ausgenutzt wird, d. h. an jeder Stelle z soll mindestens eine der Beleuchtungsstärken den maximal erreichba­ ren Wert annehmen.
Andernfalls wäre der von der Kamera gemessene Vektor (I₁, . . ., IN) mit einem höheren relativen Fehler behaftet und z würde zwangsläufig mit geringerer Genauigkeit bestimmt werden.
Die Komponenten der Kamera und des Auswertungssystems sind dann so einzustellen, daß bei der Beleuchtungsstärke Smax das System gerade noch nicht übersteuert ist, wenn das Meßobjekt im betrachteten Punkt die maxi­ male Reflexion aufweist.
5.3 Anforderungen an die Strukturierte Beleuchtung
Die Erfindung beruht darauf, daß der Code die folgenden Forderungen erfüllt:
Eindeutigkeit (Injektivität)
Jeder Wert von z muß eindeutig auf eine Äquivalenzklasse von Inten­ sitäten abgebildet werden. Diese Bedingung ist für das Funktionieren eines Sensors absolut notwendig.
Vollständigkeit (Surjektivität)
Es soll umgekehrt zu jeder Äquivalenzklasse von Intensitäten auch einen Wert z geben, dessen Code eben jene Äquivalenzklasse ist. Aufgrund des Kamerarauschens läßt sich nur eine endliche An­ zahl von Äquivalenzklassen (und damit Höhenstufen) unterscheiden. Eine maximal unterscheidbare Anzahl von Höhenstufen läßt sich nur dann erreichen, wenn jeder Äquivalenzklasse auch ein Wert von z ent­ spricht. (Dieses Prinzip ist beim phasenmessenden Moireverfahren bereits verletzt, wie später gezeigt werden wird.)
Äquidistanz
Die Forderungen nach Eindeutigkeit und Vollständigkeit gewährleisten, daß eine maximale Anzahl von Höhenstufen unterschieden werden kann.
Die unterscheidbaren Höhenstufen sollen äquidistant längs des Frei­ heitsgrades z angeordnet sein, um die Genauigkeit des Sensors längs z konstant zu halten.
Maximalität
Dieses Prinzip wurde bereits begründet. Es fordert, daß mindestens eine der Beleuchtungsstärken den maximalen Wert annimmt. Ein ent­ sprechender Code soll als "maximalitätstreu" bezeichnet werden.
Stabilität gegenüber Kamerarauschen
Wenn ein Punkt(I₁, . . ., IN) auf eines Wert z abgebildet wird, soll auch eine Umgebung dieses Punktes mit auf eine Umgebung von z abgebildet werden.
Diese Umgebung des Punktes (I₁, . . ., IN) muß so groß sein, daß eine Störung dieses Punktes, die vom Kamerarauschen herrührt, nicht aus dem Bereich herausführt und sprunghaft zu einem sehr großen Fehler führt.
5.4 Entwicklung eines Codes für ein System mit zwei Belichtungen
Wir wollen nun ein System mit zwei Belichtungen betrachten und die auf­ gestellten Forderungen anwenden. Dabei kommen wir zu der angekündigten Fehlerrechnung:
Zwei Vektoren von Intensitäten sind dann äquivalent, wenn gilt:
d. h. jede Äquivalenzklasse von Intensitäten entspricht einem bestimmten Quotienten.
Demnach muß es für einen eindeutigen und vollständigen Code eine um­ kehrbare Abbildung z ↔ Q geben. Für die Rechnung benötigen wir z als Funktion von Q.
Die Forderungen nach Eindeutigkeit und Vollständigkeit lassen sich in diesem System leicht erfüllen: es müssen nur alle Quotienten durchlaufen werden.
Wegen der Maximalitätsforderung soll zunächst die Funktion S₂ auf dem Wert Smax festgehalten werden, während S₁ von 0 auf Smax ansteigt. (Um alle möglichen Kombinationen abzudecken, werden wir später auch den um­ gekehrten Fall diskutieren)
Wir suchen also die Funktion S₁(z), die die Forderungen nach Äquidistanz und Stabilität gegenüber dem Kamerarauschen erfüllt (siehe Abb. 2).
In diesem Bereich ist Q ∈ [0; 1]. Gesucht ist also die Funktion S₁(z). Diese Funktion können wir erhalten, wenn wir nun die Äquidistanz fordern:
Δz = constz (6)
Nun führen wir auf der Basis von Beziehung 1 eine Fehlerfortpflanzungsrech­ nung durch, in der wir Δz letztendlich durch ΔI ausdrücken wollen. Es ergibt sich:
Die Fehlerfortpflanzung endet beim Kamerarauschen ΔI, das wir als konstant angesehen haben.
Wenn man die Partialableitungen unter Verwendung der Beziehungen (5) und (3) ausführt, gelangt man zu der Beziehung:
In diesem Ausdruck sind die Größen R, ΔI und I₂ nicht von z abhängig, während I₁ eine Funktion von z ist.
Wir erkennen daß der Term unter der Wurzel eine Funktion von z ist, daß also der Fehler Δz nicht konstant bleibt; wenn konstant wäre.
z darf also nicht in linearer Weise von Q abhängen.
Wenn wir jetzt Δz als konstant fordern, ergibt sich aus (8) folgende Diffe­ rentialgleichung:
Daraus läßt sich per Integration die gesuchte Abbildung zwischen z und Q bestimmen:
Der entscheidende Schritt ist hiermit getan. Die Konstanten Δz und z(a) werden günstigerweise so gewählt, daß die Werte von z das Intervall [0; 1] durchlaufen. Es ergibt sich:
Nun können wir auch den analogen Code für zwei Belichtungen angeben: S₂ war im betrachteten Intervall konstant. Wegen
gilt für S₁:
Mit anderen Worten: Die in Abb. 2 gesuchte Funktion war der sinus hyper­ bolicus.
Wir müssen nun noch alle die Möglichkeiten hinzunehmen, bei denen S₁ = Smax ist. Dies wird dazu führen, das die Abb. 2 symmetrisch ergänzt werden kann, womit dann alle möglichen Quotienten abgedeckt sind.
Wir wollen aber versuchen, das Hinzufügen eines symmetrischen Bereichs von einem höheren Standpunkt aus zu verstehen:
Die Grundmenge, aus der wir die Werte für z entnehmen können, soll als "Zu­ standsraum des Projektionssystems" bezeichnet werden. Dieser Zustands­ raum hat aufgrund der obigen Konstruktion die Eigenschaft, daß die unter­ scheidbaren Zustände auf gleich große Teilintervalle Δz abgebildet werden.
Die Rolle des Referenzwertes I₂ kann ebenso von I₁ übernommen werden. Grundsätzlich kann das dekodierende System diese zwei übergeordneten Merkmale unterscheiden, weil die Eigenschaft einer Intensität, größer als eine andere zu sein, nicht verloren geht, wenn die Intensitäten mit dem gleichen Faktor (der Reflektivität) multipliziert werden.
Das System kann daher neben dem Wert z noch eine natürliche Zahl k, die Plazierung des Referenzwertes, übertragen. Bei einem System mit N Belichtungen gibt es N mögliche Plazierungen - in unserem System entspre­ chend nur zwei Plazierungen. Damit erweitert sich der Zustandsraum des Projektionssystems von einem Intervall [0; 1] auf zwei nebeneinanderliegende Intervalle, deren gegenseitige Anordnung noch nicht festgelegt ist.
Jede dieser Intervalle weist jedoch eine Besonderheit an einem ihrer Inter­ vallgrenzen auf, wenn gilt z = 1. Dieser Zustand bedeutet nichts anderes, als daß beide Intensitäten gleich groß sind.
An dieser Stelle ist die Plazierung des Referenzwertes nicht mehr eindeutig feststellbar, d. h. es wäre möglich, dem Zustand zwei Punkte an den Enden der beiden getrennten Intervalle zuzuordnen. Einen solchen Zustandsraum des Projektionssystems zu konstruieren wäre aber ungünstig, denn wir wollen fordern, daß jeder Punkt in diesem Zustandsraum genau einem vom Dekoder unterscheidbaren Zustand entspricht.
Zwangsläufig müssen die beiden Punkte identisch sein. Wir sind also gezwun­ gen, die beiden Intervalle an den Intervallgrenzen z = 1 zusammenzufügen. Das entstehende mathematische Objekt ist wieder ein Intervall, nämlich [0; 2].
5.5 Diskussion eines Zustandsraumes für Systeme mit mehr als zwei Belichtungen
Es sollen nun N Belichtungen sequentiell auf das Objekt projiziert werden. Wegen der Maximalitätsforderung soll in jedem Punkt des beleuchteten Ob­ jekts mindestens eine der N Beleuchtungsstärken den maximalen Wert an­ nehmen.
Die Belichtung Sk soll nun als Referenz dienen, sie entspricht damit S₂ in der vorangegangenen Diskussion.
Mit ihrer Hilfe läßt sich nun nicht mehr nur ein Quotient, sondern N-1 Quotienten definieren, die N-1 Freiheitsgraden ζi entsprechen:
Wir haben jetzt als nicht mehr nur einen räumlichen Freiheitsgrad z vorliegen, sondern N-1 (zunächst abstrakte) Freiheitsgrade. Da es sich nicht mehr um räumliche Freiheitsgrade handelt, wurden nicht das Symbol z, sondern das Symbol ζ verwendet.
Der jeweilige Wert der einzelnen Freiheitsgrade läßt sich unabhängig vonein­ ander einstellen, da jeder Freiheitsgrad mit einem noch freien Parameter Si gekoppelt ist.
Die Werte ζi können anschaulich als relative Helligkeit der Belichtungen zum Referenzwert interpretiert werden.
Von jedem dieser Freiheitsgrade kann aufgrund des Kamerarauschens eine bestimmte Anzahl verschiedener Werte unterschieden werden. Bei Verwen­ dung einer Standard-TV-Kamera lassen sich etwa 20 verschiedene Werte unterscheiden. (experimentelles Ergebnis aus eigenen Messungen).
Der Projektor bildet dann den räumlichen Freiheitsgrad z zunächst auf einen bestimmten Satz von Werten der ζi ab.
Der Dekoder arbeitet mit der umgekehrten Abbildung:
Durch diesen Trick wurde die Anzahl der unterscheidbaren Höhenstufen po­ tenziert!
Eine Abbildung der Art von g₁ ist als "Kurve" des Punktes (ζ₁, . . ., ζN(z), k(z)) interpretierbar.
  • - zwei Freiheitsgrade, ζ₁ und ζ₂,
übertragen.
An dieser Stelle müssen wir einige Betrachtungen zur Topologie dieses Zu­ standsraumes anstellen:
Es liegt also im konkretem Fall dreimal das mathematische Objekt [0; 1]- [0; 1] vor, also drei endliche, quadratische Flächen.
Wir wollen uns nun überlegen, in welcher Art die drei quadratischen Flächen aneinandergefügt werden müssen. Dabei werden wir jedoch feststellen, daß der Zustandsraum eine komplizierte Topologie aufweist. Wie wir erkennen werden, müssen wir drei Flächen zu einer Topologie gemäß Abb. 3 verbinden.
Jede der drei Flächen weist nämlich eine Besonderheit an zwei ihrer be­ grenzenden Kanten auf: an der Kante ζ₁ = 1 und an der Kante ζ₂ = 1. Wenn ein Zustand projiziert werden soll, der an einer solchen Kante liegt, sind zwei der drei Intensitäten gleich groß, und die Plazierung des Refe­ renzwertes ist nicht mehr eindeutig feststellbar, d. h. es wäre möglich, dem Zustand zwei Punkte auf den Kanten zweier verschiedener Flächen zuzuord­ nen. Zwangsläufig müssen die beiden Punkte identisch sein, d. h. die Flächen müssen an den Kanten mit ζ = 1 zusammengefügt werden.
5.6 Entwicklung eines pixelweise arbeitenden 3D-Sensors für ein System mit mehr als zwei Belichtungen
Nun soll ein Sensor für ein System mit mehr als zwei Belichtungen entwickelt werden.
Dies geschieht in folgender Art und Weise: Zunächst wird eine Kurve vorge­ geben; sie gibt an, welche Zustände räumlich hintereinander auf das Objekt projiziert werden sollen.
Abb. 4 zeigt die einfachste mögliche Kurve für ein System mit 3 Belichtungen.
Die in Abb. 4 gezeigte Kurve nicht die einzig mögliche, sondern Repräsentant einer Klasse möglicher Kurven, die das Verlangte leisten.
Aus der Kurve lassen sich die Funktionen S₁(z), . . ., SN(z) bestimmen.
Der Konfidenzbereich Δζ entspricht der Kantenlänge eines der kleinen Qua­ drate, die die einzelnen unterscheidbaren Zellen des Zustandsraumes darstel­ len. Bildlich gesprochen werden die unterscheidbaren Zellen - wie an einer Perlenschnur - entlang des räumlichen Freiheitsgrades z aufgereiht.
Wir wollen nun noch explizit untersuchen, ob die Forderung nach Stabilität gegenüber dem Kamerarauschen erfüllt ist:
Bei Systemen mit mehr als zwei Belichtungen hatte der Zustandsraum des Projektionssystems nicht mehr die mathematische Form eines Intervalls, son­ dern die eines höherdimensionalen Gebildes. Der Zustandsraum mußte aber zwangsläufig auf ein Intervall abgebildet werden. Dies geschah durch die Einführung der Kurve. Ein Fehler in der Lokalisation eines Punktes im Zu­ standsraum kann nun zu zweierlei Arten von Fehlern in der Bestimmung von z führen:
  • - longitudinale Versetzungen sie führen zu kleinen Fehlern längs der Kurve.
  • - transversale Sprünge von einem Teil der Kurve zu einem anderen in der Nähe befindlichen Teil.
    Ein solcher Sprung würde das Übertragungssystem (1) in fataler Weise überlisten. Und zu einem Fehler führen, der viel größer ist, als es die Fehlerfortpflanzungsrechnung vorhersagt.
Ein transversaler Sprung verletzt die Forderung nach Stabilität gegenüber dem Kamerarauschen. Transversale Sprünge müssen also vermieden werden. Es ist prinzipiell unmöglich, solche Sprünge völlig auszuschließen, also muß die Wahrscheinlichkeit für transversale Sprünge klein gehalten werden.
Das ist erreichbar, indem der transversale Abstand, also der minimale Ab­ stand, den zwei nebeneinanderlaufende Teilabschnitte der Kurve zueinander haben, groß genug bleibt.
Daher wird bei der gattungsgemäßen Einrichtung meiner Erfindung ein trans­ versaler Abstand gewählt, der mindestens 3 Standardabweichungen beträgt.
6. Resultate der Überlegungen
Nun sind in einer Kette logischer Schlußfolgerungen ein neuer Typ von 3D- Sensoren entstanden.
Die verwendete Codierung ist nur im Fall des Systems mit 2 Belichtungen eindeutig, bei Systemen mit mehr als 2 Belichtungen ergibt sich eine ganze Klasse von gleichwertigen Codes, die als Bestandteil des Sensors in Frage kommen.
Die Wahl der Kurve im Zustandsraum ist (ähnlich wie die Wahl der Bahn eines Mähdreschers auf einem Feld) nicht eindeutig. Wir fassen die Kriterien für die Wahl dieser Bahn zusammen:
  • - Die Bahn muß überschneidungsfrei sein.
  • - Die Bahn wird von einer Art "Schlauch" von einer bestimmten Breite umgeben.
  • - Die Bahn und der "Schlauch" müssen den gesamten Zustandsraum abdecken. (Der Grund dafür ist die geforderte Surjektivität)
7. Ein Weg zur Ausführung der Erfindung
Anhand der Kurve aus Abb. 4 sollen die drei Intensitätsverteilungen ange­ geben werden, die dieser Kurve entsprechen. Diese Intensitätsverteilungen lassen sich nun mit Hilfe der Definitionen 14 berechnen, der Verlauf der In­ tensitätsverteilungen ist in Abb. 5 dargestellt.
Ein möglicher Sensor zur Formerfassung dreidimensionaler Objekte gemäß Anspruch I arbeitet zusammenfassend nun nach folgendem Prinzip:
  • 1. Eine Belichtungseinheit projiziert nacheinander drei Streifenmuster auf ein Meßobjekt, deren funktionaler Verlauf in Abb. 5 gezeigt ist.
  • 2. Die Kamera nimmt jeweils ein Bild auf.
  • 3. Der Dekoder kann für jeden Kamerapixel einzeln aus den beobachteten Intensitäten den Abstand zur Kamera eindeutig ermitteln. Der Grund dafür liegt in der mathematischen Konstruktion der Belichtungen.
8. Vorteilhafte technische Wirkungen der Realisierung der Erfindung nach An­ spruch 1 unter Bezugnahme auf den Stand der Technik
Es wurde ein pixelweise parallel arbeitender 3D-Sensor entwickelt, der eine maximale Anzahl von Höhenstufen unterscheiden kann.
Um die vorteilhaften Wirkungen des Sensors demonstrieren zu können, soll der Sensor mit 3 Belichtungen mit dem phasenmessenden Moireverfahren verglichen werden.
Beim phasenmessenden Moireverfahren sind die Funktionen S₁(z), . . ., S₃(z) drei Sinus-Funktionen, die zueinander eine Phasenverschiebung von 120° auf­ weisen. Gemäß der Definition der Koordinaten σ₁ in (14) läßt sich die ent­ sprechende Kurve zeichnen. Sie ist in Abb. 5 dargestellt.
Nachteile des phasenmessenden Moireverfahrens:
  • - Verletzung der Maximalität
    Es ist nicht zu jedem Zeitpunkt eine der drei Intensitätsverteilungen maximal. Dadurch ist der Fehler des Sensors prinzipiell größer als nötig
  • - Verletzung der Vollständigkeit (Surjektivität)
    Jeder unterscheidbare Zustand entspricht in Abb. 5 einem Kästchen.
  • Es gibt Zustände, die das dekodierende System unterscheiden könnte, die aber vom Projektor an keiner Stelle z codiert werden. Die Kurve tangiert die entsprechenden Kästchen nicht. Daraus ergibt sich:
    Das Phasenmessende Triangulationsverfahren nutzt den zur Verfügung stehenden Vorrat an Codewörtern nur zu einem Bruchteil aus.
9. Beschreibung der Realisierung der Erfin­ dung nach Anspruch 2
Bei der Einrichtung der Erfindung gemäß Anspruch 2 wird ein Spektrum verschiedener Wellenlängen auf das Meßobjekt projiziert und das Objekt auf diese Weise markiert.
Als Gedankenexperiment werden nun vor den Projektor nacheinander Farb­ filter gebracht, deren Transmissionskennlinie genau den funktionalen Verlauf aufweist, wie er für die Intensitätsverteilungen hergeleitet wurde. Die Farb­ filter "übersetzen" also die Markierung mit Wellenlängen in eine Markierung mit Intensitäten. Die Intensitäten werden von der Kamera aufgenommen, erst dabei wird ein Rauschen addiert.
Diese Realisierung der Erfindung ist vom informationstheoretischen Stand­ punkt aus gesehen völlig äquivalent zur Realisierung nach Anspruch 1.
Aufgrund der Linearität optischer Systeme können die Farbfilter auch erst unmittelbar vor der Kamera eingebaut werden, man erhält dann das gleiche Ergebnis.
Das eröffnet den Weg zur Realisierung der Erfindung nach Anspruch 2: Jeder Filter erhält eine eigene Kamera. Die Kameras müssen gegenseitig so justiert sein, daß sie das gleiche Gesichtsfeld haben, d. h. ein bestimmter Oberflächen­ punkt des Meßobjekts soll in den verschiedenen Kameras jeweils auf den gleichen Pixel abgebildet werden.
Der technische Vorteil der Realisierung nach Anspruch 2 liegt in einer wei­ teren Parallelisierung. Nun können die gesuchten Intensitätsverteilungen nämlich gleichzeitig beobachtet werden.
Der nachgeschaltete Dekoder arbeitet genau in der gleichen Art und Weise wie er für die Realisierung nach Anspruch 1 beschrieben worden ist.
Die Sensoren nach Anspruch 1 und nach Anspruch 2 sind informationstheo­ retisch äquivalent.
Besonders günstig erscheinen Systeme mit bis zu vier Belichtungen (An­ spruch 1) bzw. 4 Farbfiltern (Anspruch 2) weil dann noch eine Auswertung per look-up-table möglich ist.
Anhang: Konstruktion einer Kurve für ein System mit mehr als 3 Belichtungen
Bei Systemen mit mehr als drei Belichtungen läßt sich der Zustandsraum nicht mehr bildlich darstellen. Damit stellt sich die Frage, ob bei solchen Systemen eine passende Kurve gefunden werden kann. Diese Frage kann, wie wir sehen werden, positiv beantwortet werden:
Zunächst wollen wir einen Begriff definieren: Als "randständiger Zustand" soll ein Zustand bezeichnet werden, bei dem alle Koordinaten ζi entweder den Wert 0 oder den Wert 1 aufweisen.
Eine mögliche Kurve (und damit ein Satz möglicher Intensitätsverläufe) kann nach einem Konstruktionsverfahren gefunden werden. Dieses Verfahren geht von einer Kurve in einer Dimension aus, konstruiert daraus eine Kurve in zwei Dimensionen, dann eine Kurve in drei Dimensionen usw.:
Zur Konstruktion einer Kurve in einem N-dimensionalem Zustandsraum muß vorausgesetzt werden, daß die Konstruktion einer Kurve in einem N-1- dimensionalen Zustandsraum, die bei einem randständigen Zustand beginnt und auch bei einem randständigen Zustand endet, bereits erfolgreich abge­ schlossen wurde. Dies ist beim System mit zwei Belichtungen der Fall.
Nun, im N-dimensionalen Fall, ist ein neuer Freiheitsgrad ζN hinzugekom­ men. Die Kurve soll nun folgenden Verlauf haben:
  • - Es wird zunächst der Anfangspunkt festgesetzt: SN+1 soll Null sein. Damit ist ζN ebenfalls gleich Null. Die anderen Freiheitsgrade sollen auf den randständigen Anfangszustand der bereits konstruierten Kurve im N-1-dimensionalen Zustandsraum gesetzt werden.
  • - Nun durchlaufen wir diese Kurve bis zu ihrem Endpunkt, wobei wir stets ζN = 0 beibehalten.
  • - Dann wird ζN erhöht, und zwar um den Betrag eines transversalen Ab­ stands. Mit dieser Einstellung von ζN durchlaufen wir die Kurve erneut, diesmal allerdings mit umgekehrter Parametrisierungsrichtung, weil wir nach Beendigung der Phase 1 am Endpunkt der Kurve angekommen waren.
  • - Auf diese Weise alternierend können wir den Referenzwert ζN immer wieder um ein Stück erhöhen und gelangen schließlich zum Wert ζN = 1.
  • - Nun ist SN+1 die Beleuchtung, die als Referenzwert dient. Wir müssen nur noch den Unterraum abtasten, der zu diesem (festen) Referenzwert gehört. Dieser Unterraum hat aber die einfache Topologie [0; 1]N-1 (Hy­ perwürfel) und ist mit einem ähnlichen induktiven Verfahren abtastbar:
    • - eine Fläche kann abgetastet werden, indem eine Koordinate ab­ wechselnd von 0 bis 1 und wieder zurück läuft, während eine zweite Koordinate schrittweise vergrößert (oder verkleinert) wird.
    • - ein Würfel kann abgetastet werden, indem zwei Koordinaten eine Fläche abtasten, während eine dritte schrittweise vergrößert (oder verkleinert) wird.
    • - auf diese Weise kann jeder (beliebig hochdimensionale) Hy­ perwürfel abgetastet werden.
  • Am Ende des Verfahrens ist wieder ein randständiger Punkt erreicht worden.
Literatur
[1] Matthias Gruber: Ein Phasenmessendes Triangulationsverfahren zur par­ allelen optischen Erfassung der Form dreidimensionaler Objekte, Diplom­ arbeit Universität Erlangen-Nürnberg, 1991
[2] Takasaki H.: Moir´ topography, Applied Optics 9, 1970
[3] Thomas Stahs: "3D-Sensorsysteme in der Robotik" in "Automatisierung mit Industrierobotern" herausgegeben von Winfried Rehr, Braunschweig; Wiesbaden: Vieweg 1989
[4] Firma ABW, Automatisierung Bildverarbeitung Dr. Wolf, Strohgäugasse 5, 7303 Neuhausen a.d.F.: "Produktbeschreibung Linienprojektor LCD 320 und Codierter Lichtansatz"
[5] H. Tiziani, Lehrstuhl für technische Optik, Universität Stuttgart: "Dy­ namische ON-Line 3-D-Konturvermessung", Manuskript im Rahmen des BMFT-Verbundprojekts 3-D-Objektvermessung auf kleinen Entfernun­ gen, Februar 1993
[6] Dieter Ritter: Parallele optische Formerfassung durch "Farb - Triangula­ tion", Diplomarbeit Universität Erlangen-Nürnberg, 1991

Claims (5)

1. Optischer Sensor zur Formerfassung dreidimensionaler Objekte, beru­ hend auf dem Prinzip der pixelweise parallel arbeitenden Sensoren und bestehend aus
  • (a) einer Kamera
  • (b) einem Belichtungssystem, dessen Aufgabe es ist, die Höhenstufen des Meßobjekts mit verschiedenen Intensitäten zu markieren.
  • (c) Einer Dekodierungseinheit, die aus den Kamerasignalen 3D- Daten gewinnen kann
durch streifenartige, vom Belichtungssystem projizierte Intensitätsver­ teilungen gekennzeichnet, die einen bestimmten Verlauf aufweisen:
  • (a) Die Intensitätsverteilungen sind maximalitätstreue Funktionen.
  • (b) Die den Intensitätsverteilungen entsprechende Kurve im Zu­ standsraum des Projektionssystems
    • i. ist überschneidungsfrei.
    • ii. weist einen transversalen Abstand von mindestens 3 Konfi­ denzintervallen auf.
    • iii. überdeckt zusammen mit der von transversalen Abstand ge­ bildeten Umgebung den gesamten Zustandsraum.
Die kennzeichnenden Merkmale werden erst mit den in der Beschrei­ bung gegebenden Definitionen verständlich.
2. Optischer Sensor nach Anspruch 1, jedoch bestehend aus:
  • (a) einem System von Kameras, die
    • i. so justiert sind, daß sie das gleiche Beobachtungsfeld haben
    • ii. jeweils mit einem Farbfilter versehen sind
  • (b) einem Belichtungssystem, welches die Höhenstufen des Meßob­ jekts mit einem Spektrum von Licht verschiedener Wellenlängen markiert.
  • (c) Einer Dekodierungseinheit, die aus den Kamerasignalen 3D- Daten gewinnen kann
gekennzeichnet dadurch, daß die Transmissionskurven der optischen Fil­ ter einen besonderen Verlauf haben, dessen Merkmale identisch mit den Merkmalen der Intensitätsverteilungen aus dem kennzeichnenden Teil von Anspruch 1 sind.
DE19934313860 1993-04-28 1993-04-28 Optischer Sensor zur Formerfassung dreidimensionaler Objekte Withdrawn DE4313860A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19934313860 DE4313860A1 (de) 1993-04-28 1993-04-28 Optischer Sensor zur Formerfassung dreidimensionaler Objekte

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19934313860 DE4313860A1 (de) 1993-04-28 1993-04-28 Optischer Sensor zur Formerfassung dreidimensionaler Objekte

Publications (1)

Publication Number Publication Date
DE4313860A1 true DE4313860A1 (de) 1994-11-03

Family

ID=6486558

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19934313860 Withdrawn DE4313860A1 (de) 1993-04-28 1993-04-28 Optischer Sensor zur Formerfassung dreidimensionaler Objekte

Country Status (1)

Country Link
DE (1) DE4313860A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4414112A1 (de) * 1994-04-22 1995-10-26 Johannes Bauer Maschinen Und A Verfahren und Vorrichtung zum Trennen unterschiedlicher Wertstoffe
WO2002023918A2 (en) * 2000-09-13 2002-03-21 Nextengine, Inc. Mehthod and device for measuring three-dimensional shapes
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3858981A (en) * 1971-08-09 1975-01-07 Ibm Method of measuring irregularities in the evenness of surfaces
US4185918A (en) * 1975-08-27 1980-01-29 Solid Photography Inc. Arrangement for sensing the characteristics of a surface and determining the position of points thereon
US4212073A (en) * 1978-12-13 1980-07-08 Balasubramanian N Method and system for surface contouring
US4634278A (en) * 1984-02-06 1987-01-06 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3858981A (en) * 1971-08-09 1975-01-07 Ibm Method of measuring irregularities in the evenness of surfaces
US4185918A (en) * 1975-08-27 1980-01-29 Solid Photography Inc. Arrangement for sensing the characteristics of a surface and determining the position of points thereon
US4212073A (en) * 1978-12-13 1980-07-08 Balasubramanian N Method and system for surface contouring
US4634278A (en) * 1984-02-06 1987-01-06 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4414112A1 (de) * 1994-04-22 1995-10-26 Johannes Bauer Maschinen Und A Verfahren und Vorrichtung zum Trennen unterschiedlicher Wertstoffe
WO2002023918A2 (en) * 2000-09-13 2002-03-21 Nextengine, Inc. Mehthod and device for measuring three-dimensional shapes
WO2002023918A3 (en) * 2000-09-13 2003-02-06 Nextengine Inc Mehthod and device for measuring three-dimensional shapes
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
US6980302B2 (en) 2000-09-13 2005-12-27 Nextengine, Inc. Three dimensional digitizer using multiple methods
US7659995B2 (en) 2000-09-13 2010-02-09 NextPat, Ltd. Digitizer using plural capture methods to image features of 3-D objects
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US8116559B2 (en) 2004-04-21 2012-02-14 Nextengine, Inc. Hand held portable three dimensional scanner
US8699829B2 (en) 2004-04-21 2014-04-15 Nextpat Limited Hand held portable three dimensional scanner
US9549168B2 (en) 2004-04-21 2017-01-17 Nextpat Limited Hand held portable three dimensional scanner

Similar Documents

Publication Publication Date Title
EP1971820B1 (de) Erstellung eines abstandsbildes
EP2275990B1 (de) 3D-Sensor
DE112008002148B4 (de) Verfahren zum dreidimensionalen Messen der Höhe eines Objektteils
DE2209667C3 (de) Einrichtung zur beruhrungslosen Messung
DE102008002730B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE112015005073B4 (de) Abbildungssystem, enthaltend eine Linse mit longitudinaler chromatischer Aberration, Endoskop und Abbildungsverfahren
DE3328753C2 (de) Verfahren und Vorrichtung zur Abbildung einer Szene
EP2598836B1 (de) Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern
DE4130237A1 (de) Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
EP3433577B1 (de) Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen
DE102012108567A1 (de) Verfahren und Vorrichtung zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP2019281B1 (de) Verfahren zum Betrieb eines 3D-Sensors
EP2865987B1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE112011103006T5 (de) Verfahren und Vorrichtung zum Messen der Form eines Objekts
DE102014113389A1 (de) Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
EP2627968B1 (de) Vorrichtung und verfahren zur dreidimensionalen bilderfassung
DE19525561C2 (de) 3D-Meßvorrichtung
EP2799810A1 (de) Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
DE2210681B2 (de) Einrichtung zur berührungslosen Messung
DE102019105358A1 (de) Erstellung eines Abstandsbildes
EP4285327A1 (de) Vorrichtung und verfahren zur korrespondenzanalyse in bildern
DE102016100132B4 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
DE102011117894A1 (de) Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen
DE4313860A1 (de) Optischer Sensor zur Formerfassung dreidimensionaler Objekte

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee