DE2637905A1 - Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes - Google Patents
Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandesInfo
- Publication number
- DE2637905A1 DE2637905A1 DE19762637905 DE2637905A DE2637905A1 DE 2637905 A1 DE2637905 A1 DE 2637905A1 DE 19762637905 DE19762637905 DE 19762637905 DE 2637905 A DE2637905 A DE 2637905A DE 2637905 A1 DE2637905 A1 DE 2637905A1
- Authority
- DE
- Germany
- Prior art keywords
- point
- projection field
- segments
- object surface
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2536—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
Dr. Dreier F. Morf c^3-oiö
Dr. Hans-A. grauns {
8 München 88, Pienzeaauwstr. 28 !
DYNELL ELECTRONICS CORPORATION 75 Maxess Road, Melville, N.Y. 117*16, V.St.A.
Verfahren und Vorrichtung zum Bestimmen der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes
Die Erfindung betrifft die Reproduktion oder Herstellung
von Gegenständen mit komplexen Oberflächen, bei der es häufig wesentlich ist, die räumliche Lage von Punkten auf
der Oberfläche zu bestimmen. Zur sehr genauen Reproduktion oder Herstellung einer Oberfläche ist es notwendig,
eine sehr große Anzahl eng benachbarter Punkte zu spezifizieren oder genau festzulegen.
Die Bestimmung von Punkten auf einer komplexen Oberfläche
wurde bisher in mühsamer Weise durchgeführt, indem die Positionen der Punkte planmäßig aufgezeichnet wurden, bis
die Oberfläche mit der erforderlichen Genauigkeit spezifiziert worden war. Bei der Aufnahme der Messungen der
Punkte auf der Oberfläche wurde die Oberfläche häufig z. B. mit einem Instrument berührt. Die endgültige Menge der
aufgezeichneten Daten war außerdem umfangreich und schwierig zu analysieren. Wegen der großen Menge von Daten, die
bezüglich einer großen Anzahl von Punkten aufgezeichnet werden mußte, um die vorgegebene Genauigkeit zu erreichen,
war es besonders anfällig für Meß- und Aufzeichnungsfehler.
Gegenstand der Erfindung ist daher eine Anordnung, bei der
709810/0799
ein Gegenstand in eine große Anzahl von Abschnitten unterteilt wird, so daß die Positionen von Punkten auf der Oberfläche
des Gegenstandes mit sehr hoher Auflösung bestimmt werden können.
Gegenstand der Erfindung ist ferner eine Anordnung, bei der den unterteilten Abschnitten des Gegenstandes ein bestimmter
Code zugewiesen wird, der den Abschnitt eindeutig gegenüber den anderen Abschnitten definiert.
Die Erfindung betrifft ferner eine Anordnung der obigen Art, bei der der Gegenstand mit einer minimalen Anzahl von
Masken in Abschnitte unterteilt wird, wobei die Masken zur Erzielung einer bestimmten Auflösung der Abschnitte und
entsprechender Präzision dienen.
Die Erfindung schafft ferner eine Anordnung der beschriebenen Art, bei der die räumlichen Positionen von Punkten
innerhalb jedes Abschnittes dadurch bestimmt werden können, daß die Punkte in Korrelation zu einer Referenzoberfläche
gesetzt werden, die durch Kameras im Zusammenwirken mit Projektoren und Masken fotografiert wurde.
Erfindungsgemäß wird eine Mehrzahl von Projektoren mit
Masken um den Gegenstand herum angeordnet, dessen Oberfläche geometrisch analysiert werden soll. Jeder Projektor
schickt einen kollimierten Strahl durch die entsprechende Maske und wirft dadurch ein projiziertes Muster auf
den Gegenstand, das den Gegenstand in vorgegebene Abschnitte unterteilt. Für jede verwendete Maske beleuchtet der
Projektor ausgewählte Abschnitte des Gegenstandes. Die beleuchteten und nicht beleuchteten Abschnitte bilden zusammen
ein vorgegebenes Muster, das dem zugewiesenen Code
_ 2 —
709810/0799
C 23-018
entspricht. Die Masken werden in dem Projektor in einer Reihenfolge weiterbewegt und erzeugen ein eigenes Beleuchtungsmuster
auf dem Gegenstand für jede verwendete Maske. Zusammengenommen unterteilen die verschiedenen Muster den
Gegenstand entsprechend einem vorgegebenen digitalen Code in eine sehr große Anzahl von Abschnitten. Der Code wird
erfindungsgemäß so gewählt, daß eine große Anzahl von
unterteilten Abschnitten für eine relativ geringe Anzahl von Masken oder auf den Gegenstand projizierten Mustern
erhalten wird.
Jedes Muster von einer Maske zugeordneten Abschnitten wird durch zusammenwirkende Kameras fotografiert, die die gesamte
Oberfläche innerhalb ihres Gesichtsfelds haben. Die mit den Kameras aufgenommenen Fotografien werden in Korrelation
zu Fotografien gesetzt, die in ähnlicher Weise von einem Referenzgegenstand aufgenommen wurden, und es wird
die räumliche Lage von Punkten auf der Oberfläche des Gegenstandes
bestimmt.
Die Projektoren, die um den Gegenstand mit der zu analysierenden Oberfläche angeordnet sind, besitzen zusammenwirkende
Masken, so daß das beleuchtete Muster eines Projektors entsprechend mit dem beleuchteten Muster der übrigen
Projektoren zusammenwirkt. Die Mehrzahl der um den Gegenstand angeordneten Projektoren dient dazu, die gesamte Oberfläche des Gegenstandes zu erfassen.
Die selektive Beleuchtung der Oberfläche durch die Projektoren kann durch verschiedene Formen verfügbarer elektromagnetischer
Strahlung bewirkt werden. Die Unterteilung des Gegenstandes in Abschnitte kann längs vorteilhafter Achsen
durchgeführt werden.
709810/0799
C 23-018
Die neuen Merkmale, die als kennzeichnend für die Erfindung
angesehen werden, sind insbesondere in den beiliegenden Ansprüchen angegeben. Die Erfindung selbst ist jedoch
hinsichtlich ihrer Konstruktion und Arbeitsweise zusammen mit weiteren Merkmalen und den erreichbaren Vorteilen
am besten aus der nachfolgenden Beschreibung bestimmter Ausführungsformen und in Verbindung mit den beiliegenden
Zeichnungen zu verstehen. Es zeigen:
Figur 1 in Draufsicht die relative Anordnung der zu untersuchenden
Oberfläche, der Projektoren und der Kameras gemäß der Erfindung;
Figur 1 a einen schematischen Aufriß nach 1 a - 1 a von Figur 1;
Figur 2 beispielhafte Fotografien, die mit einer Kamera in
der Anordnung von Figur 1 aufgenommen wurden;
Figur 3 in einer Teildarstellung Codierungsmasken auf einem Träger, der in den Projektoren von Figur 1
transportiert wird;
Figur 4 in einer schematischen Darstellung die Anordnung zum Abtasten der Fotografien von Figur 2;
Figur 5 Fotografien, die mit einer Kamera unter Verwendung eines Verfahrens aufgenommen wurden, bei dem Farbbänder
auf die zu untersuchende Oberfläche erfindungsgemäß projiziert werden;
Figur 6 in einer schematischen Darstellung die erfindungsgemäße Anordnung zur Gewinnung von Punkten auf
709810/0799
26379G5
einer Referenz-Oberfläche;
Figur 7 die Anordnung eines Netzes, das von Abbildungen abgeleitet
ist, die mittels der Kamera von der Referenz-Oberfläche aufgenommen sind;
Figur 8 in einer schematischen Darstellung das erfindungsgemäße
Verfahren zum Bestimmen der Lage eines Punktes auf einer Oberfläche, bei dem man eine Gerade
und eine Ebene zum Schnitt bringt;
Figur 8 a beispielhafte Fotografien, die mit einer Kamera
aufgenommen wurden, wobei ein unterteilter Gegenstand in Volumenelemente eingepaßt ist;
Figur 9 in einer schematischen Darstellung das erfindungsgemäße Verfahren zum Bestimmen der Lage des Linsenknotenpunktes
der Kamera;
Figur 9 a eine schematische Darstellung der für Figur 9 geltenden trigonometrischen Beziehungen;
Figur 10 in Draufsicht die Anordnung von Figur 9;
Figur 11 in einer perspektivischen Darstellung den Schnitt
eines massiven Gegenstandes mit einem Volumenelement der Beleuchtung in einer nicht fokussierten
Anordnung.
Figur 11 a in einer perspektivischen Darstellung den Schnitt
eines massiven Gegenstandes mit einem Volumenelement der Beleuchtung in einer fokussierten Anordnung;
709810/0799
C 23-018
Figur 12 ein Schaltschema einer Anordnung zur Gewinnung eines Verschiebecodes zur Verwendung in Verbindung
mit der vorliegenden Erfindung;
Figur 13 eine Codierungsmaske, die zur Gewinnung eines
Verschiebecodes ausgebildet ist;
Figur 14 Masken, die zur Gewinnung eines codierten Musters von Bändern ausgestaltet sind, die gleiche Abstände
und sich ändernde Breiten besitzen;
Figur 15 die Konfiguration, die man durch Übereinanderlegen
der Masken von Figur 14 erhält;
Figur 16 in Draufsicht eine Anordnung zur Gewinnung eines
kollimierten Lichtbündels, das in Verbindung mit
den Projektoren und Codierungsmasken verwendet wird;
Figur 17 im Aufriß eine andere Ausführungsform zur Gewinnung
eines kollimierten Lichtbündels und
Figur 18 in Draufsicht die Anordnung von Figur 17.
Gemäß der Zeichnung und insbesondere Figur 1 befindet sich ein Gegenstand 20 mit der geometrisch zu untersuchenden
Oberfläche 22 auf einem Halter 24. Projektoren 26, 28, und 32 sind zur Erfassung der gesamten Oberfläche des Gegenstandes
oder eines bestimmten Teiles davon im Abstand um den Gegenstand 20 herum angeordnet. Jeder Projektor richtet
ein kollimiertes, belichtendes Bündel 34 (Fig. 1 a) auf den Gegenstand 20. Auf dem Weg der kollimierten Lichtbündel
709810/0799
C 23-018
befinden sich Masken 36 (Fig. 3 ), die in einer Reihenfolge in den Projektoren weiterbewegt werden können.
Jede Maske 36 befindet sich zweckmaßigerweise auf einem
Rollfilm, wie es z. B. in Figur 3 gezeigt ist. Die Masken können in genau angegebener Weise mittels einer Perforation
36 entlang der Ränder des Filmstreifens in einer Reihenfolge in den entsprechenden Projektoren weiterbewegt
werden. Der Film kann aufgewickelt und auf Spulen in herkömmlicher Weise gelagert werden. Das Weiterbewegen
oder Transportieren eines Filmes im Lichtweg eines Projektors ist bekannt und wird deshalb hier nicht weiter
im Detail beschrieben» Andererseits können auch einzelne Glasbilder, von denen jedes eine eigene Maske enthält, anstatt
eines Filmstreifens, der eine Mehrzahl aufeinanderfolgender Masken enthält, in Verbindung mit einem Projektor
verwendet werden.
Während der Zeitspanne, in der sich eine bestimmte Maske in einem Projektor befindet, werden vorher ausgewählte Bereiche
der Oberfläche 22 durch das Lichtbündel beleuchtet, das durch den Projektor durch die Maske geschickt wird.
Die Beleuchtung der ausgewählten Abschnitte wird auf der Grundlage durchgeführt, daß die Oberfläche 22 für eine relativ
geringe Anzahl von Masken in eine sehr große Anzahl von Abschnitten unterteilt werden soll. Eine relativ geringe
Zahl von Masken oder Beleuchtungsmustern, die in Verbindung mit dem Projektor verwendet werden, liefern somit
ausreichend Daten zum Unterteilen der Oberfläche 22 in eine im wesentlichen große Anzahl von Abschnitten oder
Intervallen und ergibt Abschnitte hoher Auflösung. Wenn die Projektoren 26, 28, 30 und 32 zusammenwirkend eingesetzt
werden, sind'alle Projektoren mit identischen Masken
— 7 —
70 9 8 10/0799
C 23-018
versehen, auf denen sich identische Muster befinden. Diese Anordnung ermöglicht es, die Oberfläche des Gegenstandes
zu erfassen und vermeidet Schatteneffekte, die entstehen können, wenn nur ein einziger Projektor verwendet wird.
Die Beziehung zwischen der Anzahl von Masken 36, die in
Verbindung mit einem Projektor verwendet werden, und der
Anzahl der unterteilten Abschnitte der Oberfläche 22 gewinnt man auf die nachfolgende Weise:
Wenn die Oberfläche 22 in N Abschnitte unterteilt werden soll, die einer vorgegebenen Auflösungsgenauigkeit entsprechen,
dann kann diese Menge N ausgedrückt werden durch die Reihe von Binärgliedern N = 2° + 21 + 22 + 23 + 24
Aus dieser Reihe von Binärgliedern kann man erkennen, daß eine im wesentlichen große Zahl N für relativ wenige Glieder
in der Reihenfolge erhalten werden kann. Um dieses Prinzip auf die vorliegende Erfindung anzuwenden, läßt
man jedes Binärglied der Reihenfolge einem einzelnen Maskenmuster, das auf die Oberfläche 22 projiziert wird, entsprechen.
Für jede Maske ist ein bestimmtes Beleuchtungsmuster vorgesehen, das dem betreffenden Binärglied entsprxcht.
Für das Binärglied 2 wird so zum Beispiel das Beleuchtungsmuster der Figur 2 a erzeugt. Bei diesem Muster
wird die Oberfläche 22 in zwei Abschnitte oder Intervalle unterteilt. Der beleuchtete Abschnitt ist in Figur
schraffiert gezeigt. Der nicht beleuchtete Abschnitt ist
2 leer gelassen. In ähnlicher Weise wird das Binärglied 2
durch das Beleuchtungsmuster der Figur 2 b dargestellt. In Figur 2 b ist die Oberfläche 22 in vier Abschnitte unterteilt.
Figur 2 c entspricht folglich dem Binärglied 2 In dieser Figur ist die Oberfläche 22 in acht Abschnitte
709810/0799
C 23-018
oder Intervalle unterteilt.
Jedes Beleuchtungsmuster, wie es durch die Figuren 2 a, 2 b und 2c beispielsweise dargestellt wird, wird durch
Kameras 40 fotografiert, die die gesamte Oberfläche 22
innerhalb ihres Gesichtsfeldes haben. Während in der Figur nur drei Muster dargestellt sind, die drei getrennten
Binärgliedern entsprechen, fotografieren in der Praxis
die Kameras 40 jedes Muster getrennt für so viele Binärglieder, wie zur Erreichung der Menge N notwendig
sind. Für jede Fotografie, die durch die Kameras 40 aufgenommen wird, projizieren die Projektoren 26, 28, 30,
32 ein einziges Muster einer einzigen Maske auf den Gegenstand.
Das in Abschnitte unterteilte Muster auf den Masken kann z. B. dadurch gewonnen werden, daß der Film oder die Glasbilder
mit abwechselnden Abschnitten oder Flächen versehen werden, die Licht durchlassen bzw am Durchtritt hindern.
Die durch die Kameras 40 aufgenommenen Fotografien 44 der in Abschnitte unterteilten Muster, die auf dem Gegenstand
20 erscheinen, sind in Figur 2 gezeigt.
Bei der Verwendung eines reinen Binärcodes, um, wie oben beschrieben, die Anzahl N von Unterteilungen der Oberfläche
22 auszudrücken, wird jeder Unterteilung oder jedem Band ein eindeutiger Code zugewiesen, der zur eindeutigen
Identifizierung jedes Bandes gegenüber den übrigen Bändern dient. Die mit 5, 6 und 7 numerierten Bänder haben
damit die zugewiesenen Codes 101000, 011000 bzw. 111000. In ähnlicher Weise besitzt jedes andere Band von dem ersten
bis zum letzten (Band N) einen eindeutig zugewiesenen Binärcode.
709810/0799
C 23-018 J(Q
Erfindungsgemäß besteht daher eine Beziehung zwischen den binärcodierten Bändern und der Anzahl von Fotografien 44,
die durch die Kameras 40 aufgenommen sind. Die Beziehung ermöglicht es einer relativ kleinen Anzahl von Fotografien,
die vollständige Information einer im wesentlichen großen Anzahl von Bändern zu enthalten. So werden z. B. nur zehn
Fotografien benötigt, um eintausend Bänder vollständig zu spezifizieren. Die codierte Information auf den Bändern
kann in der nachfolgend beschriebenen Weise in einen Computer eingegeben und verarbeitet werden.
Die Fotografien 44 werden nacheinander mittels einer fotoelektrischen
Zelle oder eines Elektronenstrahl-Scanners 4 6 oder anderer herkömmlicher Abtasteinrichtungen z. B. abgetastet,
und die abgetastete Information wird in einen Computer 48 gegeben, wie es in Figur 4 gezeigt ist. Ein Punkt
P auf der Oberfläche 22 wird z. B. auch in den Fotografien 44 erscheinen, die durch die Kameras 40 aufgenommen werden.
Je nach der einzelnen Fotografie, die in der Reihenfolge von Mustern z. B. gemäß Figur 2 aufgenommen ist, wird der
Punkt P innerhalb verschiedener abgedunkelter und nicht abgedunkelter Bänder erscheinen. Wenn einem abgedunkelten
Band die Ziffer " 1" und einem nicht abgedunkelten Band die
Ziffer "0" zugewiesen wird, dann erkennt man unter Bezugnahme auf Figur 2, daß in Figur 2 a der Punkt P innerhalb
eines abgedunkelten Bandes liegt, so daß der Figur 2 a eine "Ziffer 1" zugewiesen werden kann. Da der Punkt P in
Figur 2 b innerhalb eines nicht abgedunkelten Bandes und in Figur 2 c wiederum in einem abgedunkelten Band liegt,
können in ähnlicher Weise die Ziffern "0" und "1" den Figuren 2 b bzw. 2 c hinsichtlich des Punktes P zugewiesen
werden. Falls der Punkt P nachfolgend nicht in einem ab-
- 10 -
709810/0799
C 23-018
gedunkelten Band in irgendeiner der zusätzlichen Fotografien
erscheint, die durch die Kameras 40 aufgenommen werden können, dann kann dem Punkt P der Code 101000 zugewiesen
werden. Aus dem zuletzt genannten Code erkennt man, daß dieser Binär-Code die Bandnummer 5 darstellt und folglich
der Punkt P innerhalb dieser Bandnummer 5 liegen muß.
In der Praxis erkennt oder fühlt der Scanner 46 diesen Punkt P auf den Fotografien 44, die in einer Reihenfolge
abgetastet werden. Der Scanner 46 fühlt ab, ob der Punkt P innerhalb eines abgedunkelten oder eines nicht abgedunkelten
Bandes liegt. Die erhaltene Information wird in den Computer 4 8 eingegeben. Der Computer bringt die Reihenfolge
der Fotografien, die daraufhin abgetastet worden sind, ob der Punkt P in einem abgedunkelten oder einem nicht abgedunkelten
Band erscheint, in Korrelation und erzeugt daraus die binär codierte Zahl, die eine bestimmte Nummer des
Bandes definiert, in der der Punkt P liegt, z. B. Band Nummer
5 in dem vorausgehenden Beispiel. Aus der in dem Computer gespeicherten Information kann die Oberfläche 22 sofort
rekonstruiert werden, da jedes Band eindeutig definiert ist und der Punkt P daher auf der rekonstruierten
Oberfläche in dem richtigen Band erscheint.
Das Abtasten fotografischer Bilder zum Abfühlen darauf enthaltener
Information, wie z. B; des Punktes P, ist allgemein bekannt und wird daher nicht weiter im Detail beschrieben.
Der Scanner 46 kann außerdem z. B. ein Elektronenstrahl-Scanner, ein fotoelektrischer oder anderer optischer
Scanner sein. Auf den Fotografien angebrachte Deckungsmarken 45 dienen als ein Bezugspunkt zur Positionierung der
Fotografien in einer vorgegebenen Lage vor dem Abtasten.
- 11 -
709810/0799
C 23-018
Bei der oben beschriebenen Ausführungsform für die Zuweisung einer eindeutigen Bandidentität für den Punkt P wurde
ein reiner Binärcode verwendet. Die erfxndungsgemäße Anordnung kann erweitert werden und ebensogut andere Code
enthalten, wie z. B. Dezimal-Binär-Code, ternäre Code,
Code, bei denen Verschiebeprozeduren angewendet werden und Kombinationen dieser. Bei Verwendung eines ternären
Codes wird daher die Anzahl von Bändern N, in die die Oberfläche 22 zu unterteilen ist, ausgedrückt durch die
Folge der Glieder N = 3° + 31 + 32 +'33 ...
Bei Verwendung des ternären Codes kann erfindungsgemäß vorteilhafter
Weise ein Farbschema verwendet werden. Bei einem solchen Farbschema können drei verschiedene Farben, z.
B. Rot, Grün und Blau, verwendet werden. Anstatt der abgedunkelten und nicht abgedunkelten Bänder, die oben bei
dem Binärsystem beschrieben wurden, werden abwechselnd Rot,
Grün und Blau zur Beleuchtung der Oberfläche 22 durch die Projektoren verwendet. Die durch die Kamera aufgenommene
Fotografie 50, die bei dieser Anordnung dem Glied 3 entspricht, ist in Figur 5 a dargestellt. In ähnlicher Weise
zeigt Figur 5 b die Fotografie, die dem Glied 3 entspricht. Man erkennt aus dieser Analyse, daß abwechselnde Farbbänder
zweckmäßig dazu verwendet werden können, auf analoge Weise wie bei dem oben beschriebenen binären Codierungssystem,
die Oberfläche 22 in eine Folge getrennter Bänder zu unterteilen. Bei Verwendung eines ternären Codes in Verbindung
mit dem Farbschema wird außerdem eine kleinere Anzahl von Fotografien für eine gegebene Anzahl von unterteilten Bändern
N benötigt als bei Verwendung des reinen Binärcodes.
0 12 3 Dxes kann man aus der Reihe N=3 +3+3+3 erkennen,
bei der weniger Glieder benötigt werden, um die Anzahl N
- 12 -
709810/0799
C 23-018
zu erreichen. Während also die Figur 5 a entsprechend dem
Glied 31 drei Bänder enthält, enthält die Figur 5 b ent-
2
sprechend dem Glied 3 neun Bänder.
sprechend dem Glied 3 neun Bänder.
Zur ferneren Erläuterung der erfindungsgemäßen Anordnung
können anstatt der Farbbänder z. B. verschiedene Frequenzen elektromagnetischer Strahlung verwendet werden. Die
verschiedenen Frequenzen können angewendet werden, um so wie die drei getrennten Farbbänder eine getrennte Identifikation
der verschiedenen Bänder zu ermöglichen. Es ist außerdem nicht erforderlich, daß die elektromagnetische
Strahlung innerhalb des sichtbaren Spektrums liegt. Die Projektoren 26, 28, 30, 32 können die Oberfläche 22 z. B.
ebensogut mit infraroter Strahlung beleuchten, und für die Kameras 4 0 kann ein Film verwendet werden, der dementsprechend im infraroten Bereich empfindlich ist. Auch kann
elektromagnetische Strahlung in anderen Teilen des Spektrums mit vorteilhaften Ergebnissen verwendet werden.
Um die Koordinaten des Punktes P im Raum zu finden, wird
eine Referenzoberfläche 5 2 verwendet, die den Körper 20 auf der Halterung 24 gemäß Figur 6 ersetzt. Die allgemeine
Position der Referenzoberfläche 52 hinsichtlich des Projektors
26 und der Kamera 40 ist die gleiche wie für den Körper 20. Bei einer vorteilhaften Ausfuhrungsform der Referenzoberfläche
52 ist diese im wesentlichen zylindrisch ausgebildet. Die Oberfläche 52 wird aus eng benachbarten
horizontalen kreisförmigen Elementen 54 und vertikalen Elementen 56, die quer zu den Elementen 54 verlaufen, erzeugt.
Die Anordnung ist in Figur 6 gezeigt.
Bei einer anderen Ausführungsform der Erfindung wird die Lage des Punktes auf einer Oberfläche durch Berechnung be-
- 13 -
709810/0799
C 23-018
stimmt, die den Schnitt einer Geraden und einer Ebene beinhaltet. In Figur 8 ist die geometrische Beziehung zwischen
der Referenzoberflache 52, der Linse 104 der Kamera
40 und des Filmes 106 gezeigt, auf dem das Abbild eines Punktes P2 auf der Referenzoberfläche erscheint, nachdem
er fotografiert wurde. Entsprechend bekannter geometrischer Optik geht eine Gerade, die zwischen dem Punkt P 2
und dem entsprechenden Abbild P-. des Punktes auf dem Film
gezogen wird, durch den Linsenknotenpunkt 108. Der Linsenknotenpunkt 108 kann als ein Punkt in der Kameralinse 104
angesehen werden, durch den alle Lichtstrahlen auf ihrem Weg zu dem Film 106 gehen. Ein Punkt P^, der auf dem Film
106 erscheint, liegt so betrachtet auf einer Geraden 110, die durch den Punkt P3 und den Linsenknotenpunkt 108 geht.
Zur Aufstellung der Gleichung der Geraden 110 in den räumlichen
Koordinaten (x, y, z) wird die Anordnung gemäß Figur 9 verwendet.
Zwei Lichtquellen 112 und 114 oder andere Strahlungseinrichtungen,
für die der Film 106 empfindlich ist, werden im inneren der Referenzoberfläche 52 und auf deren Achse
angeordnet. Die Licht- oder Beleuchtungsquellen 112 und 114 werden im Abstand voneinander auf der Achse der zylindrischen
Referenzoberfläche 52 angeordnet. Nachdem diese beiden Quellen 112 und 114 fotografiert worden sind,
zeigt der Film nach Entwicklung, daß sich die Quelle 112 in der Nachbarschaft des Schnittes des horizontalen oder
Breiten-Elements 116 mit dem vertikalen oder Längen-Element
124 liegt, der ebenfalls fotografiert wurde und auf dem.entwickelten Film erscheint. Dieser Schnittpunkt entspricht
dem Punkt P4 auf der Referenzoberfläche. Auf ähnliche
Weise wird gefunden, daß die Quelle 114 auf dem entwickelten
Film in der Nähe des Schnittpunktes des hori-
- 14 -
709810/0799
C 23-018
zontalen oder Breiten-Elementes 118 mit dem vertikalen oder Längen-Elements 124 liegt. Dieser Schnittpunkt entspricht
dem Punkt P1. auf der Referenzoberfläche. Die Beleuchtungsquellen
112 und 114 werden im wesentlichen klein gemacht, so daß sie praktisch als Punktquellen
betrachtet werden können. Da die Quelle 112, so wie sie
auf dem Film zu sehen ist, näherungsweise mit dem Abbild des Punktes P4 zusammenfällt, ist bekannt, daß die Quelle
112, Punkt P. und Linsenknotenpunkt 108 auf einer geraden
Linie liegen. Eine ähnliche Analyse zeigt, daß die Quelle 114, Punkt P5 und Linsenknotenpunkt 108 auf einer
geraden Linie liegen. Der Linsenknotenpunkt 108 muß demnach auf dem Schnittpunkt dieser beiden Geraden liegen.
Die geometrischen Beziehungen sind in Figur 9 a dargestellt.
Da der Radius der Referenzoberfläche R und die Höhe des
Punktes 118 über dem Punkt 114 und der Abstand a zwischen den Quellen 112 und 114 bekannt ist und der Abstand
b zwischen den Elementen 116 und 118 gemessen werden kann
und daher ebenfalls bekannt ist, gehen die Geraden 120 und 122 durch diese bekannten Punkte, wie es in Figur 9 gezeigt
ist, und schneiden sich unter Bildung eines Dreieckes beim Linsenknotenpunkt 108. Dieses Verfahren kann
graphisch durchgeführt werden, woraus man erkennt, daß die physikalische Lage des Linsenknotenpunktes 108 in der Ebene
des Dreiecks mit den Ecken 108, 112 und 114 bestimmt
werden kann.
Zur Auffindung der räumlichen Koordinaten des Punktes ist es ferner wesentlich, die winklige Orientierung der
Ebene des Dreieckes 108, 112, 114 zu berücksichtigen. Dies
geschieht in Verbindung mit Figur 10, die eine Draufsicht
- 15 -
7098 10/0799
C 23-018 4
auf die Anordnung von Figur 9 zeigt. Aus der Draufsicht von Figur 10 wird die Richtung der Geraden 120 dadurch
bestimmt, daß man darauf achtet, daß auf dem entwickelten Film oder der Fotografie die Gerade 120 die Referenzoberfläche
52 in der Nähe des Längen-Elementes 124 schneidet. Die geometrischen Beziehungen von Figur 10 können in
ähnlicher Weise wie bei Figur 9 auch graphisch abgeleitet werden. Die graphische Kombination der Figur 9 und der
Figur 10 legt daher die Lage des Punktes oder des Linsenknotenpunktes 108 in den räumlichen Koordinaten (x, y, z)
fest.
Wenn man sich nun wieder Figur 8 zuwendet, so erkennt man, daß die Gerade 110 zwischen dem Linsenknotenpunkt 108 und
dem Punkt P„ auf der Referenzoberfläche in den räumlichen
Koordinaten (x, y, z) ausgedrückt werden kann, da die räumlichen Koordinaten beider Punkte 108 und P„ bekannt sind.
Da nun das Abbild von P„ auf dem Film 106 bei P3 erscheint,
erscheinen offensichtlich alle Punkte längs der Geraden auf dem Film bei Punkt P-,. Wenn folglich ein Punkt auf einer
Oberfläche fotografiert wird und sein Abbild auf dem Film 106 bei Punkt P3 erscheint, so steht fest, daß der
Oberflächenpunkt irgendwo auf der Geraden 110 liegt. Jeder identifizierbare bekannte Punkt auf der Referenzoberfläche,
so wie der Punkt P2, definiert folglich eine bekannte Gerade
zwischen sich selbst und dem Linsenknotenpunkt 108 und bestimmt ferner einen Punkt auf dem Film, wie P3, der
der bekannten Geraden entspricht. Im Effekt kann das Bild der Referenzoberfläche (Figur 7) als eine Schablone für die
Bilder einer unbekannten Oberfläche verwendet werden, um Positionen auf dem Film in Geraden durch den Linsenknotenpunkt
umzuwandeln, die geometrisch exakt sind. Wenn eine
- 16 -
7098 10/07 99
C 23-018
dieser Geraden die fotografierte Oberfläche in einer bestimmten Ebene schneidet und diese Ebene ebenfalls in den
räumlichen Koordinaten (x, y, z) ausgedrückt wird, dann kann der Schnittpunkt der Geraden und dieser Ebene berechnet
werden und Können als Ergebnis einem Punkt, der z. B. auf einer Fotografie des entwickelten Filmes 106 erscheint,
räumliche Koordinaten zugewiesen werden, wenn bekannt ist, in welcher Ebene auf der Oberfläche dieser Punkt liegt.
Bei der Anwendung der Ausführungsformen der Figuren 8 bis
10 in der Praxis, wird ein Punkt P auf der Oberfläche 22 z. B. mit der Anordnung von Figur'1 fotografiert. Das unterteilte
Band auf der Oberfläche, in dem der Punkt P liegt, wird dann z. B. nach dem Verfahren, das in Verbindung mit
den Figuren 2 bis 5 beschrieben wurde, bestimmt. Wenn dieses Band dann in der Breite so schmal gewählt wird, daß es
ausreichend genau durch eine Ebene dargestellt werden kann, das durch räumliche Koordinaten (x, y, z) definiert wird,
dann können dem Punkt P räumliche Koordinaten zugewiesen werden, da dieser Punkt als der Schnittpunkt dieser Ebene
und der Geraden gefunden werden kann, die aus der Position des Abbildes des Punktes auf dem Film erhalten wird.
Zur Identifizierung fotografierter Punkte auf dem entwikkelten Film 106 der Kamera 40 in Relation zu den horizontalen
und vertikalen Elementen auf der Referenzoberfläche ist es zweckmäßig, die Punkte, die horizontalen oder Breiten-Elemente
und die vertikalen oder Längen-Elemente getrennt zu fotografieren. Durch Übereinanderlegen der entsprechenden
Bilder wird dann die Identifizierung der Lagen der Punkte hinsichtlich der Breiten- und Längen-Elemente
erleichtert. Dies kann so erreicht werden, daß die Breiten- und Längen- Elemente getrennt eingeschaltet oder erregt werden.
- 17 -
C 23-018
Außerdem wird durch die Verwendung verschiedener Farben z. B. für unterschiedliche, benachbarte Breiten- und Längen-Elemente
die Aufgabe der Identifizierung der Lagen der Punkte auf den Fotografien weiter vereinfacht.
Zur Bildung unterteilter Bänder, die auf die Oberfläche
22 des Gegenstandes 20 projiziert werden, besitzen die Masken rechteckige Flächen gemäß Figur 3, die Licht durchlassen.
In Figur 3 sind Flächen, die Licht nicht durchlassen, in den Masken z. B. schraffiert, während Flächen, die
Licht durchlassen, freigelassen sind. Nach dem Durchtritt durch eine solche rechteckige lichtdurchlässige Fläche der
Masken läuft das Lichtbündel 130, wenn es unfokussiert ist, auseinander, bevor es die Oberfläche 22 trifft. Wenn es
fokussiert ist, konvergiert es zum Brennpunkt hin und kann vor dem Auftreffen auf die Oberfläche 22 konvergieren oder
divergieren. Gemäß Figur 11 und 11a nimmt das Lichtbündel
130 nach dem Durchgang durch die Maske ein Volumenelement z. B. in Form einer divergierenden Scheibe ein. Dieses Volumenelement
schneidet oder trifft die Oberfläche 22, und es ist der Schnitt des Volumenelementes 130 und der Oberfläche
22, der das unterteilte Band oder einen Teil davon bildet. Der Schnitt des Volumenelementes 130 und der Oberfläche
22 enthält daher eine Schnittfläche für das Band auf dem Gegenstand 20.
Figur 11a kann in einer ähnlichen Weise wie Figur 11 angewendet
werden. Im Gegensatz zu Figur 11, die ein nicht fokussiertes Lichtbündel 130 zeigt, zeigt Fig. 11a ein fokussiertes
Lichtbündel 131, das aus dem optischen System des Projektors austritt.
Erfindungsgemäß können die bekannten Lagen der Schnittpunkte
- 18 -
709810/0799
C 23-018 ·*9
auf der Referenzoberfläche nach dem Abtasten der Fotografien der Referenzoberfläche in der in Verbindung mit Figur
4 beschriebenen Weise in einen Computer eingegeben werden. Bei Verwendung eines Computers 48 für diesen
Zweck kann der Computer die erforderlichen Interpolationen durchführen, um die räumlichen Koordinaten und Lagen
der Punkte auf der Oberfläche 22 mit der gewünschten Genauigkeit
festzulegen. Bei Verwendung eines Computers für diesen Zweck werden daher die Netze oder Gitter 82 in dem
Computer gespeichert.
Ein Merkmal der vorliegenden Erfindung ist es ferner, daß es nicht notwendig ist, eine Referenzoberfläche auf der
Halterung 24 zu lokalisieren und die in Verbindung mit Figur
6 beschriebenen Verfahrensschritte durchzuführen. Die Referenzoberfläche kann mathematisch durch geeignete Gleichungen
z. B. in dem Computer 48 festgelegt werden. Die zu Figur 7 gehörenden Konfigurationen können durch den
Computer berechnet werden, wobei die Geometrie und die relativen Positionen der Oberfläche 22, des Projektors 26
und der Kamera 40 berücksichtigt werden. Es ist somit möglich, die in dem Netz 82 enthaltene Information dadurch
abzuleiten, daß man lediglich geometrische Berechnungen
durchführt. Die Anwendung geometrischer Berechnungen alleine verringert jedoch die Genauigkeit, da bei ihnen Linsenverzerrungen
nicht kompensiert werden.
Es ist erfindungsgemäß nicht wesentlich, daß mehr als ein einziger Projektor verwendet wird. Bei Verwendung eines
einzigen Projektors und Weglassen der übrigen Projektoren
von Figur 1 wird erfindungsgemäß ein Dreh- und Fortschaltmechanismus
102 vorgesehen , der die Halterung 24 in aufeinanderfolgenden Schritten um einen bestimmten
- 19 -
709810/0799
C 23-018
Winkel dreht und es dem Projektor und der Kamera ermöglicht,
den Umfang der gesamten Oberfläche 22 zu erfassen. Zu diesem Zweck schaltet der Dreh- und Fortschaltmechanismus
102 die Halterung 24 um vorgegebene Winkel weiter, die z. B. durch die Größe des Gesichtsfeldes des
Projektors und der Kamera bestimmt sind, und hält die Halterung 24 in der weitergeschalteten Position, bis der
Projektor eine vollständige Folge von Masken, wie es bei Figur 1 beschrieben ist, angewendet hat. Kleinere Drehungen
als das Gesichtsfeld können notwendig sein, um einen Teil der Gegenstandsoberfläche, der einen anderen
Teil der Gegenstandsoberfläche gegenüber der Kamera oder dem Projektor abdeckt, zu sehen. Ein Dreh- und Fortschaltmechanismus
wie der mit 102 bezeichnete ist allgemein bekannt und wird aus diesem Grund nicht im Detail beschrieben.
Erfindungsgemäß ist es ferner möglich, den Gegenstand 20 festzuhalten und die Kamera 40 und den Projektor 26 zum
Abtasten der vollständigen Oberfläche 22 um die Oberfläche 22 in einer Drehbewegung weiterzuschalten. Es ist somit
lediglich notwendig, den Gegenstand 20 relativ zu dem Projektor 26 und der Kamera 40 zu versetzen.
Wie oben angegeben, kann die Referenzoberfläche vollständig durch Berechnung festgelegt- werden, die lediglich aus
Betrachtungen der relativen geometrischen Lagen der Oberfläche 22, der Kamera und des Projektors abgeleitet wird.
Die Kamera und der Projektor enthalten jedoch optische Elemente mit inhärenten Unvollkommenheiten. Solche optischen
Unvollkommenheiten lassen sich nicht ohne weiteres theoretisch vorhersagen und berechnen. Solche optischen Unvollkommenheiten
können daher nicht bei den Berechnungen
- 20 -
709810/0799
C 23-018 j^
zur Gewinnung der Netze oder Gitter 82 berücksichtigt werden.
Um den optischen Unvollkommenheiten der Linsen und Elemente
der Kamera und des Projektors Rechnung zu tragen, ist es daher zweckmäßig eine gegenständliche Referenzoberfläche
vorzusehen und die Folge von Verfahrensschritten durchzuführen, die mit dem Verfahren von Figur 6 verbunden ist.
Auf diese Weise enthält das Netz 82 (Figur 7) unmittelbar alle Unvollkommenheiten, die in dem optischen System der
Kamera und des Projektors enthalten sind, so daß das Netz 82 eine getreue und genaue Konfiguration zur Bestimmung
der räumlichen Koordinaten von Punkten schafft, wie sie „ durch die Kamera 40 bei Beleuchtung durch die Projektoren
26, 28, 30, 32 beobachtet werden. Die Verwendung einer gegenständlichen Referenzoberfläche erfordert es daher nicht,
daß die Unvollkommenheiten der optischen Systeme der Kamera und des Projektors durch mathematische Beziehungen ausgedrückt werden. Die Verwendung der Referenzoberfläche in
körperlicher Form vereinfacht außerdem die Ableitung des Gitters 82, da es nicht notwendig ist, verwickelte und
komplizierte mathematische Beziehungen zu programmieren, die die geometrischen Relativpositionen zwischen der Oberfläche
22, der Kamera und dem Projektor ausdrücken.
Es ist ein wesentliches Merkmal der Erfindung, daß die Referenzoberfläche
nicht einer bestimmten Form entsprechen muß. Es ist möglich, für die Referenzoberfläche im wesentlichen
jede passende Form mit einer Oberfläche bekannter Koordinaten zu verwenden.
Die Erfindung betrifft insbesondere die Festlegung der Koordinaten
von Punkten einer dreidimensionalen Oberfläche.
— 21 —
709810/0799
C 23-018
Gemäß Figur 1 wird z. B. die z-Koordinate eines Punktes P durch das Band festgelegt, indem man feststellt, daß sich
der Punkt befindet, wie es durch die Masken in z-Richtung festgelegt wird. Die y-x-Koordinaten des Punktes P werden
dann durch Abtasten der Fotografie 44 und Auflegen des Gitters oder Netzes 82 auf diese Fotografie, wie es z. B. in
Figur 2 a gezeigt ist, bestimmt. Das Auflegen des Gitters oder Netzes 82 auf die Fotografie (Figur 2 a) zur Bestimmung
der y-x-Koordinaten des Punktes P kann z. B. von Hand oder mittels eines Computers 48 durchgeführt werden.
Die Anwendung der Erfindung kann auf das Unterteilen eines massiven Gegenstandes in Volumenelemente ausgedehnt werden.
Dies kann z. B. dadurch erreicht werden, daß die Projektoren 26, 28, 30, 32 in Figur 1 zusammenwirkend so betrieben
werden, daß der Gegenstand 20 in eine Mehrzahl von Abschnitten oder Bändern parallel zu der y-x-Ebene unterteilt wird.
Wenn die Abschnitte oder Bänder codiert werden, entsprechen die durch die Kamera 40 von diesen Abschnitten aufgenommenen
Fotografien 101 den Ansichten a bis c von Figur 8 a.
Eine weitere Unterteilung des Körpers 20 wird dadurch erreicht, daß man z. B. die beiden gegenüberliegend angeordneten
Projektoren 28 und 32 durch ihre Masken eine Mehrzahl vertikaler Abschnitte oder Bänder projizieren läßt. In codierter
Form erscheinen diese Bänder dann wie es in den Darstellungen d bis f von Figur 8 a gezeigt ist. Die in
den Darstellungen d bis f gezeigten Reihen von Bändern sind jeweils parallel zur z-Achse und senkrecht zu der y-x-Ebene.
Die Unterteilung des Körpers 20 durch Verwendung der Projektoren zur Erzeugung der Darstellungen a bis f von Figur 8 a
ergibt im wesentlichen längliche oder rechteckige Elemente,
- 22 -
709810/0799
C 23-018
deren Längsachse parallel zu der y-Achse verläuft, deren Richtung in Figur 1 angegeben ist. Zur weiteren Unterteilung
des Körpers, so daß sich z. B. im wesentlichen kubische Elemente ergeben, werden die Projektoren 26 und
gemeinsam in der Weise betätigt, daß eine Mehrzahl von Abschnitten oder Bändern parallel zu der x-z-Ebene projiziert
werden. Die Schnitte der Bänder mit dem Körper sind in den Darstellungen g bis i von Figur 8 a gezeigt.
Bei Anwendung des Unterteilungsverfahrens gemäß Figur 8 a ist es nicht wesentlich, daß das Verfahren mit der Referenzoberfläche
52, die z. B. in Figur 6 gezeigt ist, durchgeführt wird. Aus den Darstellungen a bis c von Figur 8 a
sind die Positionen jedes der zur y-x-Ebene parallelen Bänder hinsichtlich der z-Achse bekannt und ist daher die Position
oder Lage jedes Punktes P auf den Fotografien 101 hinsichtlich der z-Achse bekannt. In ähnlicher Weise sind
die Positionen der vertikalen Bänder der Darstellungen d bis f von Figur 8 a bezüglich der x-Achse bekannt. Bei den
Darstellungen g bis i von Figur 8 a sind die Positionen der Bänder hinsichtlich der y-Achse bekannt. Jeder Punkt P, der
in den Fotografien erscheint, die schematisch in a bis dargestellt sind, hat folglich eine bekannte Lage, ausgedrückt
in X-, Y- und Z-Koordinaten.
Diese Unterteilung eines festen. Körpers in Volumenelemente
ist nicht auf die Unterteilung z. B. in kubische Elemente beschränkt. So können ebene Formen zur Bildung von Volumenoder Massenelementen erweitert werden, so daß man ζ. Β.
rechteckige, kreisförmige und radiale Elemente erhalten kann.
Bei Verwendung der 'ReferenzZylinderoberfläche 52 ist es
- 23 -
709810/0 799
C 23-018
nicht notwendig, hierauf Markierungen oder andere Zeichen vorzusehen, die z. B. Breiten-Elemente angeben. Die Wirkung
solcher Breiten- oder Längen-Elemente kann in gleichwertiger Weise dadurch erreicht werden, daß man die Masken
so einrichtet, daß sie vorgegebene Linien oder Schritte projizieren, die diese Breiten- oder horizontalen Elemente
markieren. In ähnlicher Weise können die Masken eingerichtet werden, um Linien in der anderen senkrecht dazu
stehenden Richtung zu projizieren, um die Charakteristiken der Längen- oder vertikalen Elemente der Referenzoberfläche
.zu schaffen.
Die Herstellung von Masken zur Unterteilung des Gegenstandes in Abschnitte, die einer der Konfigurationen der Figuren
17 und 18a entsprechen, ist besonders vorteilhaft, da es dabei nur notwendig ist, auf einem Film, der die Masken
trägt, das jeweilige zu projezierende Muster aufzunehmen.
Solche auf dem Film aufgenommene Muster werden durch Abschnitte auf dem Film erzeugt, die Licht durchlassen bzw.
den Durchtritt von Licht verhindern. Es können verschiedene Projektoren verwendet werden, so daß zu einem bestimmten
Zeitabschnitt eine Maske eines Projektors horizontale Linien auf den Gegenstand projiziert, während zu einem späteren
Zeitpunkt eine andere Maske in Verbindung mit einem anderen Projektor vertikale Linien auf den Gegenstand projiziert.
Durch Verwendung eines Farbfilmes und Farbprojektionen oder ähnlicher für elektromagnetische Frequenzen selektiver Aufzeichnungstechniken
können die verschiedenen zusammenwirkenden Muster gleichzeitig projiziert werden. Alle vier Projektoren
von Figur 1 können z. B. horizontale Bänder in Rot aussenden, während gegenüberliegende Paare von Projektoren
- 24 -
709810/0799
C 23-018
vertikale Bänder in Blau bzw. Grün aussenden.
Bei der Anwendung der in Verbindung mit den Figuren 2 bis 5 beschriebenen Codierungsverfahren kann z. B. auch ein
durch ein Schieberegister erzeugter Code verwendet werden. Dieser Code besitzt besondere Vorteile bei der Identifizierung
der Breiten- und Längenelemente der Referenzoberflächen. Solch ein 3-Bit-Verschiebecode, der in Tabellenform
unten angegeben ist, kann mittels der Schaltung von Figur 12 erzeugt werden.
Impuls Nr. |
208 | Klemme 210 |
212 |
■ζ | 0 | 0 | 0 |
1 | 1 | 0 | 0 |
2 | 1 | 1 | 0 |
3 | 0 | 1 | 1 |
4 | 1 | 0 | 1 |
5 | 0 | 1 | 0 |
6 | 0 | 0 | 1 |
7 | 0 | 0 | 0 |
Der obige 3-Bit-Verschiebecode wird mittels eines Schieberegisters
206 mit Klemmen 208, 210, 212 erzeugt. Die Klemmen 210 und 212 werden an die Eingänge eines EX.OR-Gliedes
214 gelegt. Das Ausgangssignal dieses Gliedes 214 wird über einen Inverter 216 an den Eingang des Schieberegisters
206 gelegt. Das Register erhält an der Klemme 220 einen Taktimpuls. Bei der Analysierung der Impulsfolge, die
an den Klemmen 208, 210, 212, wie oben in Tabellenform angegeben, auftritt, wird ersichtlich die Impulsfolge an der
Klemme 210 um eine Stelle gegenüber der Impulsfolge an der
- 25 -
709810/0799
C 23-018
Klemme 208 verschoben. In ähnlicher Weise wird die Impulsfolge an der Klemme 212 um eine Stelle gegenüber der Impulsfolge
an der Klemme 210 verschoben. Der Code wird aufgrund dieser Eigenschaft als Verschiebecode bezeichnet.
Diese besondere Eigenschaft des Verschiebecodes, durch die
die Impulsfolge zur Gewinnung einer anderen Folge lediglich verschoben wird, ermöglicht es, Fehler zu erkennen,
die bei den Codierungs- und Identifizierungsvorgängen aufgetreten sind. Da die Impulsfolge vorgegeben ist,
kann folglich sofort festgestellt werden, ob ein "1" oder "0" fälschlicherweise in der Folge vorhanden ist. Zu diesem
Zweck ist es möglich, nur die letzten drei Bit einer Folge zu prüfen und daraus den gegenwärtigen Zustand des
Schieberegisters zu bestimmen und folglich das darauffolgende Bit der Reihe vorherzusagen. Angesichts der vorhersagbaren
Eigenschaften des Codes ist ferner eine Computerverarbeitung der Fotografien zur Identifizierung, wie es
oben in Verbindung mit den Figuren 2 bis 5 beschrieben wurde, besonders vorteilhaft.
Der Verschiebecode ist besonders vorteilhaft, wenn er in
Verbindung mit Masken zum Unterteilen eines Gegenstandes in Abschnitte oder Bänder verwendet wird. Wenn eine Maske
so konstruiert ist, daß sie dem Code-Muster, das an der Klemme 208 auftritt, wie es in Figur 13 gezeigt ist, entspricht,
dann kann das Code-Muster an der Klemme 210 dadurch erhalten werden, daß man lediglich die Maske in Figur
13 um den Abstand eines Bandes versetzt. In ähnlicher
Weise kann das Code-Muster, das an der Klemme 212 auftritt, dadurch erhalten werden, daß man die Maske von Figur 13 um
ein weiteres Band versetzt. Die Versetzung der Maske um eine Entfernung, die z. B. nur der Breite eines einzigen
Bandes entspricht, ist wesentlich geringer als die Verset-
- 26 -
709810/0799
C 23-018 ■
zung, die zur Auswechslung oder Weiterförderung einer ganzen
Maske notwendig ist. Da Auswechseln oder Weiterfördern von Masken im wesentlichen ein mechanischer Vorgang ist,
der eine mechanische oder körperliche Bewegung beinhaltet, ist die Geschwindigkeit, mit der eine solche Auswechslung
von Masken stattfinden kann, durch die Fähigkeit des Filmes und des zugeordneten Transportmechanismus , den bei
solchen Versetzungen auftretenden Kräften zu widerstehen, begrenzt. Die wesentlich kürzere Versetzung, die folglich
bei Verwendung eines Schiebecodes nötig ist, erlaubt eine
wesentlich schnellere Auswechslung der Code-Muster und ermöglicht
dadurch eine Erhöhung der Geschwindigkeit, mit der der Vorgang der Unterteilung eines Gegenstandes in Abschnitte
oder Bänder durchgeführt wird.
Bei dem Aufbau der Maske 208 a von Figur 13 oder der Maske 36 von Figur 3 ist es z. B. nicht notwendig, daß diese Masken
durch einen Filmstreifen oder Träger 218 gehalten wird.
Der Träger für die Masken kann auch in Form eines flexiblen Kunststoffes oder Papieres vorliegen und ebenso als ein
Streifen einer Glasplatte, die wie herkömmliche Projektor-Glasbilder verwendet werden können.
Wie oben angegeben, besitzt der Schiebe-Code Vorteile hinsichtlich
des Ausmaßes der notwendigen Maskenbewegung, insbesondere bei einem reinen Binär-Code, bei dem sehr große Maskenversetzungen
stattfinden, um eine völlig verschiedene Maske in dem Projektor für jedes Code-Muster anzuordnen.
Eine andere Anordnung zum Codieren des Musters der Bänder, die wesentlich kürzere Versetzungen der Masken und dadurch
höhere Verfahfensgeschwindigkeiten ermöglicht, ist in Figur
14 gezeigt. Bei dieser Anordnung besitzen zwei Masken 220 und 222 abwechselnde Bänder, die Licht durchlassen bzw.
- 27 -
7 098 10/07 99
C 23-018
den Durchtritt von Licht verhindern. Die schraffiert gezeichneten Bänder 224 lassen kein Licht durch, während die
freigelassenen Bänder 226 Licht durchlassen. Die beiden Masken 220 und 222 sind von identischer Konstruktion, insbesondere
hinsichtlich der Breite und des Abstandes der Bänder. Die Masken,220 und 222 werden in dem Projektor
übereinandergelegt, um ein Bandmuster zu erhalten, in dem die Bänder in der Breite durch gegenseitige Versetzung der
beiden Masken in dem Projektor verändert werden kann. Wenn folglich die beiden Masken 220 und 222 in der Weise übereinandergelegt
werden, daß die schraffierte Fläche oder das schraffierte Band der Maske 222 genau mit einem schraffierten
Band der Maske 220 zusammenfällt, dann besitzen die Licht durchlassenden Bänder ihre volle Breite, die z. B.
der Breite des Bandes 226 entspricht. Wenn nun die Maske 222 relativ zu der Maske 220 in Längsrichtung um den Betrag
einer halben Bandbreite versetzt wird, dann wird die Breite der Ixchtdurchlässigen Bänder um die Hälfte oder 50% reduziert.
Das Bändermuster, das sich bei einer solchen Relativversetzung der Maske 222 gegenüber der Maske 220 bei
deren Überlagerung ergibt, ist durch die Konfiguration des Musters 228 in Figur 15 gezeigt. Gemäß den Verfahren der
Figuren 14 und 15 ist es daher möglich, die Breite der Bänder kontinuierlich zu verändern, wenn ein Gegenstand in Abschnitte
unterteilt wird. Die Größen der Bandbreiten können außerdem zur Identifizierung der Muster codiert werden.
Es ist außerdem nicht notwendig, daß die Kamera 40 eine herkömmliche
Filmkamera ist. Die Funktion der Kamera zur Aufzeichnung der Abbilder kann indessen auch mittels Fotodioden,
Vidicon-Einrichtungen oder andere Fühler und Einrichtungen erfüllt werden, die herkömmlicherweise zum Speichern
von Information in digitaler oder analoger Form verwendet
- 28 -
709810/079 9
C 23-018
werden, einschließlich ζ. B. von Magnetbändern und Magnettrommeln.
Gleichzeitig kann die Bildinformation unmittelbar in dem Speicher eines Computers gespeichert werden und
kann ein solcher Speicher aus einem Kernspeicher, Festkörper-Einrichtungen
und ebenso Magnetplatten, -trommeln und
-bändern bestehen.'
Bei der Durchführung der vorliegenden Erfindung können die Masken in der Richtung durch den Lichtweg des Projektors
transportiert werden, die für die Konstruktion gemäß Figur 3 geeignet ist, bei der der Maskenträger parallel zur
Längsrichtung der Bänder bewegt wird. Die Masken können jedoch auch in der Richtung bewegt werden, die für die Konstruktion
der Figuren 14 und 15 geeignet ist, bei denen der Träger 218 senkrecht zur Längsrichtung der Bänder bewegt
wird, übereinandergelegte Maskenträger können außerdem relativ
zueinander in Richtungen bewegt werden, die zur Erzeugung von Konfigurationen nicht senkrecht aufeinanderstellen.
Es ist ferner auch möglich, die Projektoren 26, 28, 30, 32 so einzusetzen, daß unterschiedliche Projektoren unterschiedliche
Masken darstellen, die zusammengenommen ein vorgegebenes Code-Muster erzeugen.
Bei der erfindungsgemäßen Bedienung der Projektoren und Masken sollen die Projektoren möglichst kollimierte Lichtbündel
abgeben. Ein Verfahren zur Erzeugung kollimierter Lichtbündel zur Verwendung bei der vorliegenden Erfindung
ist in Figur 16 gezeigt. Bei dieser Anordnung schickt eine Licht- oder Beleuchtungsquelle 252 Licht durch einen Kondensor
254, der als eine Kollimationslinse dient. Das aus der Kollimationslinse 254 austretende Licht wird immer noch
etwas divergent sein, und zur Verbesserung des Lichtbündels sind in einiger Entfernung von der Linse 254 zusätzlich
- 29 -
709810/0799
C 23-018
Kollimationsmasken 256 vorgesehen. Diese Kollimationsmasken 256 dienen dazu, den Lichtweg so stark zu beschränken,
daß ein im wesentlichen kollimiertes Lichtbündel z. B. durch die Masken der Figuren 3, 13 oder 14 gerichtet werden
kann.
Bei einer weiteren Ausführungsform zur Erzielung kollimierter
Lichtbündel wird die Lichtquelle 252 zusammen mit einer Zylinderlinse 258 und einer zylindrischen Reflexionsfläche 260 gemäß den Figuren 17 und 18 eingesetzt. Nach der
Reflexion von der Zylinderfläche 260 wird das Licht zur weiteren Verbesserung des Lichtbündels zur Verwendung mit
den Masken durch Kollimationsmasken 256 (Figur 17) geschickt. Bei der Anordnung von Figur 17 wird dabei anstatt
des Kondensors 254 eine Zylinderlinse und eine zylindrische Reflexionsfläche verwendet.
Zur Erzielung einer im wesentlichen gleichförmigen Lichtverteilung
entlang einer Codierungsmaske kann die Lichtoder Beleuchtungsquelle z. B. in Form von drei Lichtquellen
vorliegen, die gleichförmig entlang der codierten Maske verteilt sind, wie es in Figur 18 gezeigt ist. Figur 18
ist eine Draufsicht von Figur 17. Bei dieser Anordnung mit mehrfachen Lichtquellen ist jede einzelne Lichtquelle mit
einer eigenen Zylinderlinse 258 versehen, wie es in Figur 18 gezeigt ist. Durch die Verwendung getrennter zylindrischer
Optik ist es möglich, das Licht entlang einer Achse stark zu kollimieren und entlang einer anderen Achse divergieren
zu lassen oder zu fokussieren.
Die vorausgehende Beschreibung offenbart den Grundgedanken der Erfindung so vollständig, daß die Erfindung aufgrund
von Fachwissen ohne weiteres verschiedenen Anwendungen an-
- 30 -
709810/0799
C 23-018
gepaßt werden kann, ohne daß Merkmale weggelassen werden, die vom Stand der Technik aus betrachtet wesentliche Merkmale
der Erfindung darstellen. Solche Anpassungen fallen daher unter die nachfolgenden Ansprüche und deren Äquivalente
.
- 31 -
709810/0799
Claims (11)
1.) Verfahren zum Bestimmen der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes, dadurch gekennzeichnet,
dass man
(a) den Gegenstand und eine Referenzoberfläche in dem Gesichtsfeld
der Linse anordnet, wobei die Referenzoberfläche unterscheidbare Stellen von jeweils bekannter
Position besitzt;
(b) diejenige Lage oder Stelle der Referenzoberfläche bestimmt, die sich in Gesichtsweite zu dem Knotenpunkt
der Linse und zu dem Oberflächenpunkt der Gegenstand befindet, wodurch die Gerade zwischen dem Linsenknotenpunkt
und dem Oberflächenpunkt des Gegenstandes identifiziert wird;
(c) die Lagenebene des Oberflächenpunktes des Gegenstandes
hinsichtlich des Linsenknotenpunktes bestimmt, in dem man
(1) ein Projektionsfeld festlegt, das wenigstens einen
Teil der Gegenstandsoberfläche einschliesslich des Punktes beinhaltet;
(2) Teile der Gegenstands-Teiloberflache beleuchtet, indem
man Strahlung auf bestimmte Segmente des Projektionsfeldes
projiziert, wobei diese Segmente zusammen das Projektionsfeld festlegen;
(3) durch den Linsenknotenpunkt hindurch bei derartiger
- 32 -
709810/0799
Beleuchtung eine Aufnahme der Gegenstands-Teiloberfläche
macht und
(4) ein Ausgangssignal erzeugt, das bezeichnend ist für die
Anzahl der Projektionsfeldsegmente in dieser Aufnahme
und derjenigen Projektionsfeldsegmente in dieser Aufnahme, die den Gegenstandsoberflächenpunkt enthalten,
und aus dem Ausgangssignal diese Ebene identifiziert;
(d) die Ebene mit der Geraden zum Schnitt bringt, wodurch die räumliche Lage des Punktes der Gegenstandsoberfläche
bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass
der Schritt ic) (2) dadurch ausgeführt wird, dass die Bereiche
der Gegenstands-Teiloberfläche aufeinander folgend beleuchtet werden, indem Strahlung getrennt in die bestimmten Projektionsfeldsegmente
projiziert wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Verfahrensschritt (c) (3) dadurch ausgeführt wird, dass Aufnahmen
in. einer Aufeinanderfolge gemacht werden, die der Aufeinanderfolge der Beleuchtung entsprechen.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Verfahrensschritt (c) (2) dadurch ausgeführt wird, dass eine
erregbare Strahlungsquelle zur Projektion auf die Gegenstandsoberfläche angeordnet wird, aufeinanderfolgend Masken mit verschiedenen
Strahlen Durchlässigkeitseigenschaften zwischen der Quelle und der Gegenstandsoberfläche angeordnet werden
und die Quelle nach jeder Anordnung für eine Maske erregt wird.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Referenzoberfläche durch kodierte Breiten- und Längenelemente...
definiert ist, wobei die Schnittpunkte der Elemente die
- 33 -
709810/0799
Lagen der Referenzoberfläche definieren.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Referenzoberfläche durch einen Verschiebekode kodiert ist.
7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Maske die Referenzoberfläche definiert.
8. Vorrichtung zur Durchführung des Verfahrensschrxttes (c) (2) des Verfahrens nach Anspruch 1, gekennzeichnet durch eine
Mehrzahl von Projektoren mit jeweils einer ein kollimiertes Lichtbündel erzeugender Quelle und Maskeneinrichtungen, die
zur Abgabe des kollimierten Lichtbündels auf die Projektionsfeldsegmente
gehalten ist.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Verfahrensschritt (a) dadurch ausgeführt wird, dass der Gegenstand
und die Referenzoberfläche getrennt in dem Gesichtsfeld der Linse angeordnet werden, und dass der Verfahrensschritt (b) zum Teil dadurch ausgeführt wird, dass getrennte
Aufnahmen des Gegenstandes und der Referenzoberfläche durch den Linsenknotenpunkt hindurch aufgenommen werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Verfahrensschritt (b) ferner dadurch ausgeführt wird, dass
eine dieser Aufnahmen über eine andere gelegt wird, wodurch Positionen auf der Aufnahme des Gegenstandes zu Geraden, die
durch den Linsenknotenpunkt führen, umgewandelt werden.
11. Verfahren zur Bestimmung der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes in einem Volumen mit
3 aufeinander senkrecht stehenden Achsen (x, y, ζ), dadurch gekennzeichnet, dass man
(a) die Lage des Punktes der Gegenstandsoberfläche hinsichtlich
- 34 -
709810/0799
der ζ-Achse bestimmt, in dem man
(1) ein Projektionsfeld festlegt, das wenigstens einen
Teil der Gegenstandsoberflächen einschliesslich des Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch bestrahlt, dass man Strahlung in bestimmte
Segmente des Projektionsfeldes projiziert, wobei
jedes solches Segment parallel zur Ebenen der x- und y-Achsen liegt und die Segmente zusammen das
Projektionsfeld festlegen;
(3) eine erste Aufzeichnung des Teiles der Gegenstands oberfläche bei dessen Bestrahlung aufnimmt und
(4) ein erstes Ausgangssignal erzeugt, das bezeichnend für die Anzahl der Projektionsfeldsegmente in der
ersten Aufzeichnung und demjenigen Projektionsfeldsegment · in der ersten Aufzeichnung ist, das den?
Punkt der Gegenstandsoberfläche enthält, und die z-Achsenkoordinate des Punktes der Gegenstandsoberfläche
aus dem ersten Ausgangssignal bestimmt und
(b) die Lage des Punktes des Gegenstandsoberfläche hinsichtlich der y-Achse bestimmt, indem man
(1) ein Projektionsfeld festlegt, das wenigstens einen
Teil der Gegenstandsoberfläche einschliesslich des .
Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch beleuchtet, dass man Strahlung in bestimmte Segmente
des Projektionsfeldes projiziert, wobei jedes solche
Segment parallel zu der Ebene der x- und z-Achsen liegt und die Segmente zusammen das Projektionsfeld
- 35 -
709810/0799
festlegen;
(3) eine zweite Aufnahme des Teiles der Gegenstandsoberfläche dessen Bestrahlung macht und
(4) ein Ausgangssignal erzeugt, dass für die Anzahl der Projektionsfeldsegmente in dieser zweiten Aufzeichnung
und dasjenige Projektionsfeldsegmente in dieser zweiten Aufzeichnung ist, das den Punkt der Gegenstandsoberfläche
enthält, und die y-Achsenkoordinalte des Punktes der Gegenstandsoberfläche aus diesem
zweiten Ausgangssignal bestimmt;und
(c) die Lage des Punktes der Gegenstandsoberfläche hinsichtlich der x-Achse bestimmt, indem man
(1) ein Projektionsfeld festlegt, das wenigstens einen
Teil der Gegenstandsoberfläche einschliesslich dieses Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch bestrahlt, dass man Strahlung in bestimmte Segmente
des Projektionsfeldes projiziert, wobei jedes solche
Segment parallel zu der Ebenen der y- und z-Achsen legt und Segmente zusammen das Projektionsfeld festlegen;
(3) eine dritte Aufzeichnung des Teiles der Gegenstandsoberfläche bei dessen Beleuchtung macht und
(4) ein Ausgangssignal erzeugt, das bezeichnend für die Anzahl der Projektionsfeldsegmente in dieser dritten
Aufzeichnung und für dasjenige Projektionsfeldsegment
in dieser dritten Aufzeichnung ist, das den Punkt der Gegenstandsoberfläche einschliesst, und die x-Achsenkoordinate
des Punktes der Gegenstandsoberfläche aus diesem dritten Ausgangssignal bestimmt.
- 36 -
709810/0799
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US05/608,265 US4175862A (en) | 1975-08-27 | 1975-08-27 | Arrangement for sensing the geometric characteristics of an object |
Publications (1)
Publication Number | Publication Date |
---|---|
DE2637905A1 true DE2637905A1 (de) | 1977-03-10 |
Family
ID=24435735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19762637905 Ceased DE2637905A1 (de) | 1975-08-27 | 1976-08-23 | Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes |
Country Status (13)
Country | Link |
---|---|
US (2) | US4175862A (de) |
JP (1) | JPS5229252A (de) |
BE (1) | BE845465A (de) |
CA (1) | CA1079965A (de) |
CH (1) | CH611016A5 (de) |
DE (1) | DE2637905A1 (de) |
DK (1) | DK386576A (de) |
ES (1) | ES451007A1 (de) |
FR (1) | FR2322358A1 (de) |
GB (1) | GB1570091A (de) |
IT (1) | IT1073688B (de) |
NL (1) | NL7609498A (de) |
SE (2) | SE432021B (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4511252A (en) * | 1975-08-27 | 1985-04-16 | Robotic Vision Systems, Inc. | Arrangement for sensing the geometric characteristics of an object |
US4259017A (en) * | 1977-10-03 | 1981-03-31 | Dynell Electronics Corporation | Methods for use in definition of object surfaces |
US4212073A (en) * | 1978-12-13 | 1980-07-08 | Balasubramanian N | Method and system for surface contouring |
US4259589A (en) * | 1979-07-20 | 1981-03-31 | Solid Photography, Inc. | Generation of contiguous data files of three-dimensional information |
US4294544A (en) * | 1979-08-03 | 1981-10-13 | Altschuler Bruce R | Topographic comparator |
DE3021448A1 (de) * | 1980-06-06 | 1981-12-24 | Siemens AG, 1000 Berlin und 8000 München | Verfahren und anordnung zur erfassung raeumlicher abweichungen von einer glatten ebene an oberflaechen von gegenstaenden |
US4357108A (en) * | 1980-06-06 | 1982-11-02 | Robotic Vision Systems, Inc. | Method for reproducton of object surfaces |
US4349277A (en) * | 1980-06-11 | 1982-09-14 | General Electric Company | Non-contact measurement of surface profile |
US4402608A (en) * | 1980-10-02 | 1983-09-06 | Solid Photography Inc. | Room scanning system using multiple camera and projector sensors |
US4392182A (en) * | 1981-06-12 | 1983-07-05 | Solid Photography, Inc. | Arrangement for scanning points in space |
US4488172A (en) * | 1982-08-18 | 1984-12-11 | Novon, Inc. | Method and apparatus for range imaging |
US4499492A (en) * | 1982-08-18 | 1985-02-12 | Novon, Inc. | Method and apparatus for three frame range imaging |
US4443705A (en) * | 1982-10-01 | 1984-04-17 | Robotic Vision Systems, Inc. | Method for locating points on a three-dimensional surface using light intensity variations |
US4520388A (en) * | 1982-11-01 | 1985-05-28 | General Electric Company | Optical signal projector |
US4634278A (en) * | 1984-02-06 | 1987-01-06 | Robotic Vision Systems, Inc. | Method of three-dimensional measurement with few projected patterns |
US4648717A (en) * | 1984-02-06 | 1987-03-10 | Robotic Vision Systems, Inc. | Method of three-dimensional measurement with few projected patterns |
US4664470A (en) * | 1984-06-21 | 1987-05-12 | General Electric Company | Method and system for structured radiation production including a composite filter and method of making |
JPH061164B2 (ja) * | 1985-01-31 | 1994-01-05 | 伍良 松本 | 立体形状測定装置 |
US4757379A (en) * | 1986-04-14 | 1988-07-12 | Contour Dynamics | Apparatus and method for acquisition of 3D images |
US4846577A (en) * | 1987-04-30 | 1989-07-11 | Lbp Partnership | Optical means for making measurements of surface contours |
US4982438A (en) * | 1987-06-02 | 1991-01-01 | Hitachi, Ltd. | Apparatus and method for recognizing three-dimensional shape of object |
US4979815A (en) * | 1989-02-17 | 1990-12-25 | Tsikos Constantine J | Laser range imaging system based on projective geometry |
DE4115445C2 (de) * | 1990-07-05 | 1994-02-17 | Reinhard Malz | Verfahren zum Aufnehmen eines dreidimensionalen Bildes eines Objektes nach dem aktiven Triangulationsprinzip und Vorrichtung hierzu |
AT404638B (de) * | 1993-01-28 | 1999-01-25 | Oesterr Forsch Seibersdorf | Verfahren und vorrichtung zur dreidimensionalen vermessung der oberfläche von gegenständen |
US5819016A (en) * | 1993-10-05 | 1998-10-06 | Kabushiki Kaisha Toshiba | Apparatus for modeling three dimensional information |
US5548418A (en) * | 1994-01-14 | 1996-08-20 | Dcs Corporation | Holographic structured light generator |
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
US6044170A (en) * | 1996-03-21 | 2000-03-28 | Real-Time Geometry Corporation | System and method for rapid shape digitizing and adaptive mesh generation |
US5864640A (en) * | 1996-10-25 | 1999-01-26 | Wavework, Inc. | Method and apparatus for optically scanning three dimensional objects using color information in trackable patches |
US5838428A (en) * | 1997-02-28 | 1998-11-17 | United States Of America As Represented By The Secretary Of The Navy | System and method for high resolution range imaging with split light source and pattern mask |
DE69833813T2 (de) * | 1997-05-22 | 2006-11-30 | Kabushiki Kaisha Topcon | Vorrichtung zur Korrespondenzsuche in einem Bildpaar |
EP0901105A1 (de) | 1997-08-05 | 1999-03-10 | Canon Kabushiki Kaisha | Bildverarbeitungsvorrichtung |
US6647146B1 (en) | 1997-08-05 | 2003-11-11 | Canon Kabushiki Kaisha | Image processing apparatus |
EP0898245B1 (de) | 1997-08-05 | 2004-04-14 | Canon Kabushiki Kaisha | Bildverarbeitungsverfahren und -gerät |
DE19747061B4 (de) * | 1997-10-24 | 2005-02-10 | Mähner, Bernward | Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten |
AU3991799A (en) | 1998-05-14 | 1999-11-29 | Metacreations Corporation | Structured-light, triangulation-based three-dimensional digitizer |
US6262803B1 (en) | 1998-09-10 | 2001-07-17 | Acuity Imaging, Llc | System and method for three-dimensional inspection using patterned light projection |
US6155489A (en) * | 1998-11-10 | 2000-12-05 | Ncr Corporation | Item checkout device including a bar code data collector and a produce data collector |
US6332573B1 (en) | 1998-11-10 | 2001-12-25 | Ncr Corporation | Produce data collector and produce recognition system |
US6431446B1 (en) * | 1999-07-28 | 2002-08-13 | Ncr Corporation | Produce recognition system and method |
US7065242B2 (en) * | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
US6754370B1 (en) * | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
US20030046177A1 (en) * | 2001-09-05 | 2003-03-06 | Graham Winchester | 3-dimensional imaging service |
US7440590B1 (en) * | 2002-05-21 | 2008-10-21 | University Of Kentucky Research Foundation | System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
US20040222987A1 (en) * | 2003-05-08 | 2004-11-11 | Chang Nelson Liang An | Multiframe image processing |
US7154613B2 (en) * | 2004-03-15 | 2006-12-26 | Northrop Grumman Corporation | Color coded light for automated shape measurement using photogrammetry |
US7620209B2 (en) * | 2004-10-14 | 2009-11-17 | Stevick Glen R | Method and apparatus for dynamic space-time imaging system |
JP2008537190A (ja) * | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
JP4953589B2 (ja) * | 2005-05-25 | 2012-06-13 | 株式会社ミツトヨ | エンコーダの原点信号生成方法及び装置 |
US20070146685A1 (en) * | 2005-11-30 | 2007-06-28 | Yoo Woo S | Dynamic wafer stress management system |
DE102006022878B3 (de) * | 2006-05-15 | 2007-09-06 | Sartorius Biotech Gmbh | Verfahren und Detektionsvorrichtung zur bildgebenden Erfassung einer Probe |
US7957007B2 (en) * | 2006-05-17 | 2011-06-07 | Mitsubishi Electric Research Laboratories, Inc. | Apparatus and method for illuminating a scene with multiplexed illumination for motion capture |
WO2008033329A2 (en) * | 2006-09-15 | 2008-03-20 | Sciammarella Cesar A | System and method for analyzing displacements and contouring of surfaces |
EP2084491A2 (de) * | 2006-11-21 | 2009-08-05 | Mantisvision Ltd. | Geometrische modellierung in 3d und videoinhaltserzeugung in 3d |
CA2606267A1 (fr) * | 2007-10-11 | 2009-04-11 | Hydro-Quebec | Systeme et methode de cartographie tridimensionnelle d'une surface structurelle |
US8646689B2 (en) | 2007-12-28 | 2014-02-11 | Cognex Corporation | Deformable light pattern for machine vision system |
US7986321B2 (en) * | 2008-01-02 | 2011-07-26 | Spatial Integrated Systems, Inc. | System and method for generating structured light for 3-dimensional image rendering |
US8908016B2 (en) * | 2008-10-06 | 2014-12-09 | Mantivision Ltd. | Method and system for providing three-dimensional and range inter-planar estimation |
FR2938330A1 (fr) * | 2008-11-07 | 2010-05-14 | Michelin Soc Tech | Evaluation du relief de la surface d'un pneumatique par stereovision active |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
DE102012021185A1 (de) | 2012-10-30 | 2014-04-30 | Smart Optics Sensortechnik Gmbh | Verfahren zur optischen 3D-Vermessung von Zähnen mit verkleinerter Point-Spread-Funktion |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
JP6104662B2 (ja) * | 2013-03-25 | 2017-03-29 | 株式会社東芝 | 計測装置、方法及びプログラム |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
WO2016024200A2 (en) * | 2014-08-12 | 2016-02-18 | Mantisvision Ltd. | Structured light projection and imaging |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10139217B1 (en) * | 2016-02-16 | 2018-11-27 | Google Llc | Array based patterned illumination projector |
DE102016113228A1 (de) * | 2016-07-18 | 2018-01-18 | Ensenso GmbH | System mit Kamera, Projektor und Auswerteeinrichtung |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
CN111489382B (zh) * | 2019-01-28 | 2023-03-31 | 合肥美亚光电技术股份有限公司 | 编码条纹图的获取以及基于结构光的重构的方法和装置 |
DE102020127894B4 (de) | 2020-10-22 | 2022-09-22 | Smart Optics Sensortechnik Gmbh | Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten |
DE102020008179B4 (de) | 2020-10-22 | 2023-10-26 | Smart Optics Sensortechnik Gmbh | Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE705543C (de) * | 1939-12-16 | 1941-05-02 | Christoph Metzler | Vorrichtung zum Reinigen und Ausrichten von Strohhalmen fuer die Herstellung von Strohhuelsen |
US3184732A (en) * | 1960-04-15 | 1965-05-18 | Rca Corp | Computer circuit |
NL279202A (de) * | 1961-06-02 | |||
US3234863A (en) * | 1963-03-05 | 1966-02-15 | Gerald C Peterson | Photographic construction records |
US3682553A (en) * | 1968-09-19 | 1972-08-08 | Optics Technology Inc | Apparatus for acquiring and laying real time 3-d information |
US3684824A (en) * | 1970-03-16 | 1972-08-15 | Itt | Multispected imaging system |
FR2150037A5 (de) * | 1971-08-09 | 1973-03-30 | Ibm | |
GB1407248A (en) * | 1971-08-29 | 1975-09-24 | Fujitsu Ltd | System for read out of the coordinates of a matrix type display |
DE2327355A1 (de) * | 1973-05-29 | 1975-01-02 | Deutsche Forsch Luft Raumfahrt | Verfahren zur fernerkundung insbesondere der erdoberflaeche sowie geraet zur durchfuehrung des verfahrens |
US3866052A (en) * | 1973-11-02 | 1975-02-11 | Dynell Elec | Methods for generating signals defining three-dimensional object surfaces |
GB1472346A (en) * | 1974-07-06 | 1977-05-04 | Grundig Emv | Aerial reconnaissance apparatus |
-
1975
- 1975-08-27 US US05/608,265 patent/US4175862A/en not_active Expired - Lifetime
-
1976
- 1976-08-16 CA CA259,195A patent/CA1079965A/en not_active Expired
- 1976-08-23 FR FR7625485A patent/FR2322358A1/fr active Granted
- 1976-08-23 GB GB35051/76A patent/GB1570091A/en not_active Expired
- 1976-08-23 DE DE19762637905 patent/DE2637905A1/de not_active Ceased
- 1976-08-23 SE SE7609326A patent/SE432021B/xx not_active IP Right Cessation
- 1976-08-24 BE BE170032A patent/BE845465A/xx not_active IP Right Cessation
- 1976-08-25 IT IT51021/76A patent/IT1073688B/it active
- 1976-08-26 ES ES451007A patent/ES451007A1/es not_active Expired
- 1976-08-26 NL NL7609498A patent/NL7609498A/xx not_active Application Discontinuation
- 1976-08-26 DK DK386576A patent/DK386576A/da not_active Application Discontinuation
- 1976-08-26 CH CH1084176A patent/CH611016A5/xx not_active IP Right Cessation
- 1976-08-27 JP JP51102520A patent/JPS5229252A/ja active Granted
-
1977
- 1977-03-14 US US05/776,991 patent/US4145991A/en not_active Expired - Lifetime
-
1982
- 1982-08-04 SE SE8204577A patent/SE8204577L/sv not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
Also Published As
Publication number | Publication date |
---|---|
NL7609498A (nl) | 1977-03-01 |
ES451007A1 (es) | 1977-08-16 |
SE432021B (sv) | 1984-03-12 |
FR2322358B1 (de) | 1981-11-27 |
US4145991A (en) | 1979-03-27 |
SE7609326L (sv) | 1977-02-28 |
CA1079965A (en) | 1980-06-24 |
JPS6232406B2 (de) | 1987-07-14 |
FR2322358A1 (fr) | 1977-03-25 |
JPS5229252A (en) | 1977-03-04 |
SE8204577D0 (sv) | 1982-08-04 |
SE8204577L (sv) | 1982-08-04 |
CH611016A5 (de) | 1979-05-15 |
IT1073688B (it) | 1985-04-17 |
US4175862A (en) | 1979-11-27 |
DK386576A (da) | 1977-02-28 |
BE845465A (fr) | 1976-12-16 |
GB1570091A (en) | 1980-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE2637905A1 (de) | Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes | |
DE2447789C3 (de) | ||
DE69132853T2 (de) | Dreidimensionales Messinstrument | |
DE3650479T2 (de) | Vorrichtung zur Aussendung von Lichtflächen | |
DE1034690B (de) | Anordnung zur Einstellung der Koordinatenlage einer Punktlichtquelle auf einer Oberflaeche in Abhaengigkeit von binaer verschluesselten Signalen | |
EP0002668B1 (de) | Einrichtung zur optischen Abstandsmessung | |
DE2127381A1 (de) | Vorrichtung zum Ermitteln der rieh tigen Belichtung beim Kopieren von Vor lagen | |
DE3116671C2 (de) | ||
DE2259762B2 (de) | Verfahren zur automatischen Auswertung von Stereobildern | |
DE102012023623A1 (de) | Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes | |
DE3235812C2 (de) | Layout-Tisch für elektronisches Layout | |
DE4304529C1 (de) | Meßkameraanordnung, insbesondere für photogrammetrische Messungen an technischen Objekten | |
DE1943785C3 (de) | Halbleiterscheibe mit Markierungen zur maschinellen Identifizierung und Einrichtung zur maschinellen Identifizierung solcher Halbleiterscheiben | |
DE68926721T2 (de) | Verfahren und Gerät zur Charakterisierung von optischen Systemen | |
DE102005043753A1 (de) | Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens | |
DE1280581C2 (de) | Verfahren, aufzeichnungstraeger und vorrichtung zum speichern von informationen | |
DE1065641B (de) | Speicher mit beweglichem Aufzeichnungsträger | |
DE1099223B (de) | Schnellwirkende Informationsspeicherungsvorrichtung und Informationsspeicherverfahren | |
DE1902782C3 (de) | Fotorepetierkamera | |
DE1079559B (de) | Verfahren zur Herstellung einer Bindungspunkte aufweisenden, photoelektrisch abtastbaren Vorlage | |
DE2263515B2 (de) | Einrichtung zur Speicherung graphischer Daten | |
DE3508378C2 (de) | ||
WO2014114663A1 (de) | Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras | |
DE2532585A1 (de) | Verfahren und vorrichtung zur bestimmung der ortskoordinaten einer unbekannten lage | |
CH625953A5 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8131 | Rejection |