DE2637905A1 - Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes - Google Patents

Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes

Info

Publication number
DE2637905A1
DE2637905A1 DE19762637905 DE2637905A DE2637905A1 DE 2637905 A1 DE2637905 A1 DE 2637905A1 DE 19762637905 DE19762637905 DE 19762637905 DE 2637905 A DE2637905 A DE 2637905A DE 2637905 A1 DE2637905 A1 DE 2637905A1
Authority
DE
Germany
Prior art keywords
point
projection field
segments
object surface
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19762637905
Other languages
English (en)
Inventor
Paul L Dimatteo
Joseph A Ross
Howard K Stern
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynell Electronics Corp
Original Assignee
Dynell Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynell Electronics Corp filed Critical Dynell Electronics Corp
Publication of DE2637905A1 publication Critical patent/DE2637905A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2536Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

Patentanwaltes 23. AU&UST 1976
Dr. Dreier F. Morf c^3-oiö
Dr. Hans-A. grauns {
8 München 88, Pienzeaauwstr. 28 !
DYNELL ELECTRONICS CORPORATION 75 Maxess Road, Melville, N.Y. 117*16, V.St.A.
Verfahren und Vorrichtung zum Bestimmen der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes
Die Erfindung betrifft die Reproduktion oder Herstellung von Gegenständen mit komplexen Oberflächen, bei der es häufig wesentlich ist, die räumliche Lage von Punkten auf der Oberfläche zu bestimmen. Zur sehr genauen Reproduktion oder Herstellung einer Oberfläche ist es notwendig, eine sehr große Anzahl eng benachbarter Punkte zu spezifizieren oder genau festzulegen.
Die Bestimmung von Punkten auf einer komplexen Oberfläche wurde bisher in mühsamer Weise durchgeführt, indem die Positionen der Punkte planmäßig aufgezeichnet wurden, bis die Oberfläche mit der erforderlichen Genauigkeit spezifiziert worden war. Bei der Aufnahme der Messungen der Punkte auf der Oberfläche wurde die Oberfläche häufig z. B. mit einem Instrument berührt. Die endgültige Menge der aufgezeichneten Daten war außerdem umfangreich und schwierig zu analysieren. Wegen der großen Menge von Daten, die bezüglich einer großen Anzahl von Punkten aufgezeichnet werden mußte, um die vorgegebene Genauigkeit zu erreichen, war es besonders anfällig für Meß- und Aufzeichnungsfehler.
Gegenstand der Erfindung ist daher eine Anordnung, bei der
709810/0799
ein Gegenstand in eine große Anzahl von Abschnitten unterteilt wird, so daß die Positionen von Punkten auf der Oberfläche des Gegenstandes mit sehr hoher Auflösung bestimmt werden können.
Gegenstand der Erfindung ist ferner eine Anordnung, bei der den unterteilten Abschnitten des Gegenstandes ein bestimmter Code zugewiesen wird, der den Abschnitt eindeutig gegenüber den anderen Abschnitten definiert.
Die Erfindung betrifft ferner eine Anordnung der obigen Art, bei der der Gegenstand mit einer minimalen Anzahl von Masken in Abschnitte unterteilt wird, wobei die Masken zur Erzielung einer bestimmten Auflösung der Abschnitte und entsprechender Präzision dienen.
Die Erfindung schafft ferner eine Anordnung der beschriebenen Art, bei der die räumlichen Positionen von Punkten innerhalb jedes Abschnittes dadurch bestimmt werden können, daß die Punkte in Korrelation zu einer Referenzoberfläche gesetzt werden, die durch Kameras im Zusammenwirken mit Projektoren und Masken fotografiert wurde.
Erfindungsgemäß wird eine Mehrzahl von Projektoren mit Masken um den Gegenstand herum angeordnet, dessen Oberfläche geometrisch analysiert werden soll. Jeder Projektor schickt einen kollimierten Strahl durch die entsprechende Maske und wirft dadurch ein projiziertes Muster auf den Gegenstand, das den Gegenstand in vorgegebene Abschnitte unterteilt. Für jede verwendete Maske beleuchtet der Projektor ausgewählte Abschnitte des Gegenstandes. Die beleuchteten und nicht beleuchteten Abschnitte bilden zusammen ein vorgegebenes Muster, das dem zugewiesenen Code
_ 2 —
709810/0799
C 23-018
entspricht. Die Masken werden in dem Projektor in einer Reihenfolge weiterbewegt und erzeugen ein eigenes Beleuchtungsmuster auf dem Gegenstand für jede verwendete Maske. Zusammengenommen unterteilen die verschiedenen Muster den Gegenstand entsprechend einem vorgegebenen digitalen Code in eine sehr große Anzahl von Abschnitten. Der Code wird erfindungsgemäß so gewählt, daß eine große Anzahl von unterteilten Abschnitten für eine relativ geringe Anzahl von Masken oder auf den Gegenstand projizierten Mustern erhalten wird.
Jedes Muster von einer Maske zugeordneten Abschnitten wird durch zusammenwirkende Kameras fotografiert, die die gesamte Oberfläche innerhalb ihres Gesichtsfelds haben. Die mit den Kameras aufgenommenen Fotografien werden in Korrelation zu Fotografien gesetzt, die in ähnlicher Weise von einem Referenzgegenstand aufgenommen wurden, und es wird die räumliche Lage von Punkten auf der Oberfläche des Gegenstandes bestimmt.
Die Projektoren, die um den Gegenstand mit der zu analysierenden Oberfläche angeordnet sind, besitzen zusammenwirkende Masken, so daß das beleuchtete Muster eines Projektors entsprechend mit dem beleuchteten Muster der übrigen Projektoren zusammenwirkt. Die Mehrzahl der um den Gegenstand angeordneten Projektoren dient dazu, die gesamte Oberfläche des Gegenstandes zu erfassen.
Die selektive Beleuchtung der Oberfläche durch die Projektoren kann durch verschiedene Formen verfügbarer elektromagnetischer Strahlung bewirkt werden. Die Unterteilung des Gegenstandes in Abschnitte kann längs vorteilhafter Achsen durchgeführt werden.
709810/0799
C 23-018
Die neuen Merkmale, die als kennzeichnend für die Erfindung angesehen werden, sind insbesondere in den beiliegenden Ansprüchen angegeben. Die Erfindung selbst ist jedoch hinsichtlich ihrer Konstruktion und Arbeitsweise zusammen mit weiteren Merkmalen und den erreichbaren Vorteilen am besten aus der nachfolgenden Beschreibung bestimmter Ausführungsformen und in Verbindung mit den beiliegenden Zeichnungen zu verstehen. Es zeigen:
Figur 1 in Draufsicht die relative Anordnung der zu untersuchenden Oberfläche, der Projektoren und der Kameras gemäß der Erfindung;
Figur 1 a einen schematischen Aufriß nach 1 a - 1 a von Figur 1;
Figur 2 beispielhafte Fotografien, die mit einer Kamera in der Anordnung von Figur 1 aufgenommen wurden;
Figur 3 in einer Teildarstellung Codierungsmasken auf einem Träger, der in den Projektoren von Figur 1 transportiert wird;
Figur 4 in einer schematischen Darstellung die Anordnung zum Abtasten der Fotografien von Figur 2;
Figur 5 Fotografien, die mit einer Kamera unter Verwendung eines Verfahrens aufgenommen wurden, bei dem Farbbänder auf die zu untersuchende Oberfläche erfindungsgemäß projiziert werden;
Figur 6 in einer schematischen Darstellung die erfindungsgemäße Anordnung zur Gewinnung von Punkten auf
709810/0799
26379G5
einer Referenz-Oberfläche;
Figur 7 die Anordnung eines Netzes, das von Abbildungen abgeleitet ist, die mittels der Kamera von der Referenz-Oberfläche aufgenommen sind;
Figur 8 in einer schematischen Darstellung das erfindungsgemäße Verfahren zum Bestimmen der Lage eines Punktes auf einer Oberfläche, bei dem man eine Gerade und eine Ebene zum Schnitt bringt;
Figur 8 a beispielhafte Fotografien, die mit einer Kamera aufgenommen wurden, wobei ein unterteilter Gegenstand in Volumenelemente eingepaßt ist;
Figur 9 in einer schematischen Darstellung das erfindungsgemäße Verfahren zum Bestimmen der Lage des Linsenknotenpunktes der Kamera;
Figur 9 a eine schematische Darstellung der für Figur 9 geltenden trigonometrischen Beziehungen;
Figur 10 in Draufsicht die Anordnung von Figur 9;
Figur 11 in einer perspektivischen Darstellung den Schnitt eines massiven Gegenstandes mit einem Volumenelement der Beleuchtung in einer nicht fokussierten Anordnung.
Figur 11 a in einer perspektivischen Darstellung den Schnitt eines massiven Gegenstandes mit einem Volumenelement der Beleuchtung in einer fokussierten Anordnung;
709810/0799
C 23-018
Figur 12 ein Schaltschema einer Anordnung zur Gewinnung eines Verschiebecodes zur Verwendung in Verbindung mit der vorliegenden Erfindung;
Figur 13 eine Codierungsmaske, die zur Gewinnung eines Verschiebecodes ausgebildet ist;
Figur 14 Masken, die zur Gewinnung eines codierten Musters von Bändern ausgestaltet sind, die gleiche Abstände und sich ändernde Breiten besitzen;
Figur 15 die Konfiguration, die man durch Übereinanderlegen der Masken von Figur 14 erhält;
Figur 16 in Draufsicht eine Anordnung zur Gewinnung eines kollimierten Lichtbündels, das in Verbindung mit den Projektoren und Codierungsmasken verwendet wird;
Figur 17 im Aufriß eine andere Ausführungsform zur Gewinnung eines kollimierten Lichtbündels und
Figur 18 in Draufsicht die Anordnung von Figur 17.
Gemäß der Zeichnung und insbesondere Figur 1 befindet sich ein Gegenstand 20 mit der geometrisch zu untersuchenden Oberfläche 22 auf einem Halter 24. Projektoren 26, 28, und 32 sind zur Erfassung der gesamten Oberfläche des Gegenstandes oder eines bestimmten Teiles davon im Abstand um den Gegenstand 20 herum angeordnet. Jeder Projektor richtet ein kollimiertes, belichtendes Bündel 34 (Fig. 1 a) auf den Gegenstand 20. Auf dem Weg der kollimierten Lichtbündel
709810/0799
C 23-018
befinden sich Masken 36 (Fig. 3 ), die in einer Reihenfolge in den Projektoren weiterbewegt werden können.
Jede Maske 36 befindet sich zweckmaßigerweise auf einem Rollfilm, wie es z. B. in Figur 3 gezeigt ist. Die Masken können in genau angegebener Weise mittels einer Perforation 36 entlang der Ränder des Filmstreifens in einer Reihenfolge in den entsprechenden Projektoren weiterbewegt werden. Der Film kann aufgewickelt und auf Spulen in herkömmlicher Weise gelagert werden. Das Weiterbewegen oder Transportieren eines Filmes im Lichtweg eines Projektors ist bekannt und wird deshalb hier nicht weiter im Detail beschrieben» Andererseits können auch einzelne Glasbilder, von denen jedes eine eigene Maske enthält, anstatt eines Filmstreifens, der eine Mehrzahl aufeinanderfolgender Masken enthält, in Verbindung mit einem Projektor verwendet werden.
Während der Zeitspanne, in der sich eine bestimmte Maske in einem Projektor befindet, werden vorher ausgewählte Bereiche der Oberfläche 22 durch das Lichtbündel beleuchtet, das durch den Projektor durch die Maske geschickt wird. Die Beleuchtung der ausgewählten Abschnitte wird auf der Grundlage durchgeführt, daß die Oberfläche 22 für eine relativ geringe Anzahl von Masken in eine sehr große Anzahl von Abschnitten unterteilt werden soll. Eine relativ geringe Zahl von Masken oder Beleuchtungsmustern, die in Verbindung mit dem Projektor verwendet werden, liefern somit ausreichend Daten zum Unterteilen der Oberfläche 22 in eine im wesentlichen große Anzahl von Abschnitten oder Intervallen und ergibt Abschnitte hoher Auflösung. Wenn die Projektoren 26, 28, 30 und 32 zusammenwirkend eingesetzt werden, sind'alle Projektoren mit identischen Masken
— 7 —
70 9 8 10/0799
C 23-018
versehen, auf denen sich identische Muster befinden. Diese Anordnung ermöglicht es, die Oberfläche des Gegenstandes zu erfassen und vermeidet Schatteneffekte, die entstehen können, wenn nur ein einziger Projektor verwendet wird.
Die Beziehung zwischen der Anzahl von Masken 36, die in
Verbindung mit einem Projektor verwendet werden, und der
Anzahl der unterteilten Abschnitte der Oberfläche 22 gewinnt man auf die nachfolgende Weise:
Wenn die Oberfläche 22 in N Abschnitte unterteilt werden soll, die einer vorgegebenen Auflösungsgenauigkeit entsprechen, dann kann diese Menge N ausgedrückt werden durch die Reihe von Binärgliedern N = 2° + 21 + 22 + 23 + 24
Aus dieser Reihe von Binärgliedern kann man erkennen, daß eine im wesentlichen große Zahl N für relativ wenige Glieder in der Reihenfolge erhalten werden kann. Um dieses Prinzip auf die vorliegende Erfindung anzuwenden, läßt man jedes Binärglied der Reihenfolge einem einzelnen Maskenmuster, das auf die Oberfläche 22 projiziert wird, entsprechen. Für jede Maske ist ein bestimmtes Beleuchtungsmuster vorgesehen, das dem betreffenden Binärglied entsprxcht. Für das Binärglied 2 wird so zum Beispiel das Beleuchtungsmuster der Figur 2 a erzeugt. Bei diesem Muster wird die Oberfläche 22 in zwei Abschnitte oder Intervalle unterteilt. Der beleuchtete Abschnitt ist in Figur schraffiert gezeigt. Der nicht beleuchtete Abschnitt ist
2 leer gelassen. In ähnlicher Weise wird das Binärglied 2 durch das Beleuchtungsmuster der Figur 2 b dargestellt. In Figur 2 b ist die Oberfläche 22 in vier Abschnitte unterteilt. Figur 2 c entspricht folglich dem Binärglied 2 In dieser Figur ist die Oberfläche 22 in acht Abschnitte
709810/0799
C 23-018
oder Intervalle unterteilt.
Jedes Beleuchtungsmuster, wie es durch die Figuren 2 a, 2 b und 2c beispielsweise dargestellt wird, wird durch Kameras 40 fotografiert, die die gesamte Oberfläche 22 innerhalb ihres Gesichtsfeldes haben. Während in der Figur nur drei Muster dargestellt sind, die drei getrennten Binärgliedern entsprechen, fotografieren in der Praxis die Kameras 40 jedes Muster getrennt für so viele Binärglieder, wie zur Erreichung der Menge N notwendig sind. Für jede Fotografie, die durch die Kameras 40 aufgenommen wird, projizieren die Projektoren 26, 28, 30, 32 ein einziges Muster einer einzigen Maske auf den Gegenstand.
Das in Abschnitte unterteilte Muster auf den Masken kann z. B. dadurch gewonnen werden, daß der Film oder die Glasbilder mit abwechselnden Abschnitten oder Flächen versehen werden, die Licht durchlassen bzw am Durchtritt hindern. Die durch die Kameras 40 aufgenommenen Fotografien 44 der in Abschnitte unterteilten Muster, die auf dem Gegenstand 20 erscheinen, sind in Figur 2 gezeigt.
Bei der Verwendung eines reinen Binärcodes, um, wie oben beschrieben, die Anzahl N von Unterteilungen der Oberfläche 22 auszudrücken, wird jeder Unterteilung oder jedem Band ein eindeutiger Code zugewiesen, der zur eindeutigen Identifizierung jedes Bandes gegenüber den übrigen Bändern dient. Die mit 5, 6 und 7 numerierten Bänder haben damit die zugewiesenen Codes 101000, 011000 bzw. 111000. In ähnlicher Weise besitzt jedes andere Band von dem ersten bis zum letzten (Band N) einen eindeutig zugewiesenen Binärcode.
709810/0799
C 23-018 J(Q
Erfindungsgemäß besteht daher eine Beziehung zwischen den binärcodierten Bändern und der Anzahl von Fotografien 44, die durch die Kameras 40 aufgenommen sind. Die Beziehung ermöglicht es einer relativ kleinen Anzahl von Fotografien, die vollständige Information einer im wesentlichen großen Anzahl von Bändern zu enthalten. So werden z. B. nur zehn Fotografien benötigt, um eintausend Bänder vollständig zu spezifizieren. Die codierte Information auf den Bändern kann in der nachfolgend beschriebenen Weise in einen Computer eingegeben und verarbeitet werden.
Die Fotografien 44 werden nacheinander mittels einer fotoelektrischen Zelle oder eines Elektronenstrahl-Scanners 4 6 oder anderer herkömmlicher Abtasteinrichtungen z. B. abgetastet, und die abgetastete Information wird in einen Computer 48 gegeben, wie es in Figur 4 gezeigt ist. Ein Punkt P auf der Oberfläche 22 wird z. B. auch in den Fotografien 44 erscheinen, die durch die Kameras 40 aufgenommen werden. Je nach der einzelnen Fotografie, die in der Reihenfolge von Mustern z. B. gemäß Figur 2 aufgenommen ist, wird der Punkt P innerhalb verschiedener abgedunkelter und nicht abgedunkelter Bänder erscheinen. Wenn einem abgedunkelten Band die Ziffer " 1" und einem nicht abgedunkelten Band die Ziffer "0" zugewiesen wird, dann erkennt man unter Bezugnahme auf Figur 2, daß in Figur 2 a der Punkt P innerhalb eines abgedunkelten Bandes liegt, so daß der Figur 2 a eine "Ziffer 1" zugewiesen werden kann. Da der Punkt P in Figur 2 b innerhalb eines nicht abgedunkelten Bandes und in Figur 2 c wiederum in einem abgedunkelten Band liegt, können in ähnlicher Weise die Ziffern "0" und "1" den Figuren 2 b bzw. 2 c hinsichtlich des Punktes P zugewiesen werden. Falls der Punkt P nachfolgend nicht in einem ab-
- 10 -
709810/0799
C 23-018
gedunkelten Band in irgendeiner der zusätzlichen Fotografien erscheint, die durch die Kameras 40 aufgenommen werden können, dann kann dem Punkt P der Code 101000 zugewiesen werden. Aus dem zuletzt genannten Code erkennt man, daß dieser Binär-Code die Bandnummer 5 darstellt und folglich der Punkt P innerhalb dieser Bandnummer 5 liegen muß.
In der Praxis erkennt oder fühlt der Scanner 46 diesen Punkt P auf den Fotografien 44, die in einer Reihenfolge abgetastet werden. Der Scanner 46 fühlt ab, ob der Punkt P innerhalb eines abgedunkelten oder eines nicht abgedunkelten Bandes liegt. Die erhaltene Information wird in den Computer 4 8 eingegeben. Der Computer bringt die Reihenfolge der Fotografien, die daraufhin abgetastet worden sind, ob der Punkt P in einem abgedunkelten oder einem nicht abgedunkelten Band erscheint, in Korrelation und erzeugt daraus die binär codierte Zahl, die eine bestimmte Nummer des Bandes definiert, in der der Punkt P liegt, z. B. Band Nummer 5 in dem vorausgehenden Beispiel. Aus der in dem Computer gespeicherten Information kann die Oberfläche 22 sofort rekonstruiert werden, da jedes Band eindeutig definiert ist und der Punkt P daher auf der rekonstruierten Oberfläche in dem richtigen Band erscheint.
Das Abtasten fotografischer Bilder zum Abfühlen darauf enthaltener Information, wie z. B; des Punktes P, ist allgemein bekannt und wird daher nicht weiter im Detail beschrieben. Der Scanner 46 kann außerdem z. B. ein Elektronenstrahl-Scanner, ein fotoelektrischer oder anderer optischer Scanner sein. Auf den Fotografien angebrachte Deckungsmarken 45 dienen als ein Bezugspunkt zur Positionierung der Fotografien in einer vorgegebenen Lage vor dem Abtasten.
- 11 -
709810/0799
C 23-018
Bei der oben beschriebenen Ausführungsform für die Zuweisung einer eindeutigen Bandidentität für den Punkt P wurde ein reiner Binärcode verwendet. Die erfxndungsgemäße Anordnung kann erweitert werden und ebensogut andere Code enthalten, wie z. B. Dezimal-Binär-Code, ternäre Code, Code, bei denen Verschiebeprozeduren angewendet werden und Kombinationen dieser. Bei Verwendung eines ternären Codes wird daher die Anzahl von Bändern N, in die die Oberfläche 22 zu unterteilen ist, ausgedrückt durch die Folge der Glieder N = 3° + 31 + 32 +'33 ...
Bei Verwendung des ternären Codes kann erfindungsgemäß vorteilhafter Weise ein Farbschema verwendet werden. Bei einem solchen Farbschema können drei verschiedene Farben, z. B. Rot, Grün und Blau, verwendet werden. Anstatt der abgedunkelten und nicht abgedunkelten Bänder, die oben bei dem Binärsystem beschrieben wurden, werden abwechselnd Rot, Grün und Blau zur Beleuchtung der Oberfläche 22 durch die Projektoren verwendet. Die durch die Kamera aufgenommene Fotografie 50, die bei dieser Anordnung dem Glied 3 entspricht, ist in Figur 5 a dargestellt. In ähnlicher Weise zeigt Figur 5 b die Fotografie, die dem Glied 3 entspricht. Man erkennt aus dieser Analyse, daß abwechselnde Farbbänder zweckmäßig dazu verwendet werden können, auf analoge Weise wie bei dem oben beschriebenen binären Codierungssystem, die Oberfläche 22 in eine Folge getrennter Bänder zu unterteilen. Bei Verwendung eines ternären Codes in Verbindung mit dem Farbschema wird außerdem eine kleinere Anzahl von Fotografien für eine gegebene Anzahl von unterteilten Bändern N benötigt als bei Verwendung des reinen Binärcodes.
0 12 3 Dxes kann man aus der Reihe N=3 +3+3+3 erkennen, bei der weniger Glieder benötigt werden, um die Anzahl N
- 12 -
709810/0799
C 23-018
zu erreichen. Während also die Figur 5 a entsprechend dem
Glied 31 drei Bänder enthält, enthält die Figur 5 b ent-
2
sprechend dem Glied 3 neun Bänder.
Zur ferneren Erläuterung der erfindungsgemäßen Anordnung können anstatt der Farbbänder z. B. verschiedene Frequenzen elektromagnetischer Strahlung verwendet werden. Die verschiedenen Frequenzen können angewendet werden, um so wie die drei getrennten Farbbänder eine getrennte Identifikation der verschiedenen Bänder zu ermöglichen. Es ist außerdem nicht erforderlich, daß die elektromagnetische Strahlung innerhalb des sichtbaren Spektrums liegt. Die Projektoren 26, 28, 30, 32 können die Oberfläche 22 z. B. ebensogut mit infraroter Strahlung beleuchten, und für die Kameras 4 0 kann ein Film verwendet werden, der dementsprechend im infraroten Bereich empfindlich ist. Auch kann elektromagnetische Strahlung in anderen Teilen des Spektrums mit vorteilhaften Ergebnissen verwendet werden.
Um die Koordinaten des Punktes P im Raum zu finden, wird eine Referenzoberfläche 5 2 verwendet, die den Körper 20 auf der Halterung 24 gemäß Figur 6 ersetzt. Die allgemeine Position der Referenzoberfläche 52 hinsichtlich des Projektors 26 und der Kamera 40 ist die gleiche wie für den Körper 20. Bei einer vorteilhaften Ausfuhrungsform der Referenzoberfläche 52 ist diese im wesentlichen zylindrisch ausgebildet. Die Oberfläche 52 wird aus eng benachbarten horizontalen kreisförmigen Elementen 54 und vertikalen Elementen 56, die quer zu den Elementen 54 verlaufen, erzeugt. Die Anordnung ist in Figur 6 gezeigt.
Bei einer anderen Ausführungsform der Erfindung wird die Lage des Punktes auf einer Oberfläche durch Berechnung be-
- 13 -
709810/0799
C 23-018
stimmt, die den Schnitt einer Geraden und einer Ebene beinhaltet. In Figur 8 ist die geometrische Beziehung zwischen der Referenzoberflache 52, der Linse 104 der Kamera 40 und des Filmes 106 gezeigt, auf dem das Abbild eines Punktes P2 auf der Referenzoberfläche erscheint, nachdem er fotografiert wurde. Entsprechend bekannter geometrischer Optik geht eine Gerade, die zwischen dem Punkt P 2 und dem entsprechenden Abbild P-. des Punktes auf dem Film gezogen wird, durch den Linsenknotenpunkt 108. Der Linsenknotenpunkt 108 kann als ein Punkt in der Kameralinse 104 angesehen werden, durch den alle Lichtstrahlen auf ihrem Weg zu dem Film 106 gehen. Ein Punkt P^, der auf dem Film 106 erscheint, liegt so betrachtet auf einer Geraden 110, die durch den Punkt P3 und den Linsenknotenpunkt 108 geht. Zur Aufstellung der Gleichung der Geraden 110 in den räumlichen Koordinaten (x, y, z) wird die Anordnung gemäß Figur 9 verwendet.
Zwei Lichtquellen 112 und 114 oder andere Strahlungseinrichtungen, für die der Film 106 empfindlich ist, werden im inneren der Referenzoberfläche 52 und auf deren Achse angeordnet. Die Licht- oder Beleuchtungsquellen 112 und 114 werden im Abstand voneinander auf der Achse der zylindrischen Referenzoberfläche 52 angeordnet. Nachdem diese beiden Quellen 112 und 114 fotografiert worden sind, zeigt der Film nach Entwicklung, daß sich die Quelle 112 in der Nachbarschaft des Schnittes des horizontalen oder Breiten-Elements 116 mit dem vertikalen oder Längen-Element 124 liegt, der ebenfalls fotografiert wurde und auf dem.entwickelten Film erscheint. Dieser Schnittpunkt entspricht dem Punkt P4 auf der Referenzoberfläche. Auf ähnliche Weise wird gefunden, daß die Quelle 114 auf dem entwickelten Film in der Nähe des Schnittpunktes des hori-
- 14 -
709810/0799
C 23-018
zontalen oder Breiten-Elementes 118 mit dem vertikalen oder Längen-Elements 124 liegt. Dieser Schnittpunkt entspricht dem Punkt P1. auf der Referenzoberfläche. Die Beleuchtungsquellen 112 und 114 werden im wesentlichen klein gemacht, so daß sie praktisch als Punktquellen betrachtet werden können. Da die Quelle 112, so wie sie auf dem Film zu sehen ist, näherungsweise mit dem Abbild des Punktes P4 zusammenfällt, ist bekannt, daß die Quelle 112, Punkt P. und Linsenknotenpunkt 108 auf einer geraden Linie liegen. Eine ähnliche Analyse zeigt, daß die Quelle 114, Punkt P5 und Linsenknotenpunkt 108 auf einer geraden Linie liegen. Der Linsenknotenpunkt 108 muß demnach auf dem Schnittpunkt dieser beiden Geraden liegen. Die geometrischen Beziehungen sind in Figur 9 a dargestellt.
Da der Radius der Referenzoberfläche R und die Höhe des Punktes 118 über dem Punkt 114 und der Abstand a zwischen den Quellen 112 und 114 bekannt ist und der Abstand b zwischen den Elementen 116 und 118 gemessen werden kann und daher ebenfalls bekannt ist, gehen die Geraden 120 und 122 durch diese bekannten Punkte, wie es in Figur 9 gezeigt ist, und schneiden sich unter Bildung eines Dreieckes beim Linsenknotenpunkt 108. Dieses Verfahren kann graphisch durchgeführt werden, woraus man erkennt, daß die physikalische Lage des Linsenknotenpunktes 108 in der Ebene des Dreiecks mit den Ecken 108, 112 und 114 bestimmt werden kann.
Zur Auffindung der räumlichen Koordinaten des Punktes ist es ferner wesentlich, die winklige Orientierung der Ebene des Dreieckes 108, 112, 114 zu berücksichtigen. Dies geschieht in Verbindung mit Figur 10, die eine Draufsicht
- 15 -
7098 10/0799
C 23-018 4
auf die Anordnung von Figur 9 zeigt. Aus der Draufsicht von Figur 10 wird die Richtung der Geraden 120 dadurch bestimmt, daß man darauf achtet, daß auf dem entwickelten Film oder der Fotografie die Gerade 120 die Referenzoberfläche 52 in der Nähe des Längen-Elementes 124 schneidet. Die geometrischen Beziehungen von Figur 10 können in ähnlicher Weise wie bei Figur 9 auch graphisch abgeleitet werden. Die graphische Kombination der Figur 9 und der Figur 10 legt daher die Lage des Punktes oder des Linsenknotenpunktes 108 in den räumlichen Koordinaten (x, y, z) fest.
Wenn man sich nun wieder Figur 8 zuwendet, so erkennt man, daß die Gerade 110 zwischen dem Linsenknotenpunkt 108 und dem Punkt P„ auf der Referenzoberfläche in den räumlichen Koordinaten (x, y, z) ausgedrückt werden kann, da die räumlichen Koordinaten beider Punkte 108 und P„ bekannt sind. Da nun das Abbild von P„ auf dem Film 106 bei P3 erscheint, erscheinen offensichtlich alle Punkte längs der Geraden auf dem Film bei Punkt P-,. Wenn folglich ein Punkt auf einer Oberfläche fotografiert wird und sein Abbild auf dem Film 106 bei Punkt P3 erscheint, so steht fest, daß der Oberflächenpunkt irgendwo auf der Geraden 110 liegt. Jeder identifizierbare bekannte Punkt auf der Referenzoberfläche, so wie der Punkt P2, definiert folglich eine bekannte Gerade zwischen sich selbst und dem Linsenknotenpunkt 108 und bestimmt ferner einen Punkt auf dem Film, wie P3, der der bekannten Geraden entspricht. Im Effekt kann das Bild der Referenzoberfläche (Figur 7) als eine Schablone für die Bilder einer unbekannten Oberfläche verwendet werden, um Positionen auf dem Film in Geraden durch den Linsenknotenpunkt umzuwandeln, die geometrisch exakt sind. Wenn eine
- 16 -
7098 10/07 99
C 23-018
dieser Geraden die fotografierte Oberfläche in einer bestimmten Ebene schneidet und diese Ebene ebenfalls in den räumlichen Koordinaten (x, y, z) ausgedrückt wird, dann kann der Schnittpunkt der Geraden und dieser Ebene berechnet werden und Können als Ergebnis einem Punkt, der z. B. auf einer Fotografie des entwickelten Filmes 106 erscheint, räumliche Koordinaten zugewiesen werden, wenn bekannt ist, in welcher Ebene auf der Oberfläche dieser Punkt liegt.
Bei der Anwendung der Ausführungsformen der Figuren 8 bis 10 in der Praxis, wird ein Punkt P auf der Oberfläche 22 z. B. mit der Anordnung von Figur'1 fotografiert. Das unterteilte Band auf der Oberfläche, in dem der Punkt P liegt, wird dann z. B. nach dem Verfahren, das in Verbindung mit den Figuren 2 bis 5 beschrieben wurde, bestimmt. Wenn dieses Band dann in der Breite so schmal gewählt wird, daß es ausreichend genau durch eine Ebene dargestellt werden kann, das durch räumliche Koordinaten (x, y, z) definiert wird, dann können dem Punkt P räumliche Koordinaten zugewiesen werden, da dieser Punkt als der Schnittpunkt dieser Ebene und der Geraden gefunden werden kann, die aus der Position des Abbildes des Punktes auf dem Film erhalten wird.
Zur Identifizierung fotografierter Punkte auf dem entwikkelten Film 106 der Kamera 40 in Relation zu den horizontalen und vertikalen Elementen auf der Referenzoberfläche ist es zweckmäßig, die Punkte, die horizontalen oder Breiten-Elemente und die vertikalen oder Längen-Elemente getrennt zu fotografieren. Durch Übereinanderlegen der entsprechenden Bilder wird dann die Identifizierung der Lagen der Punkte hinsichtlich der Breiten- und Längen-Elemente erleichtert. Dies kann so erreicht werden, daß die Breiten- und Längen- Elemente getrennt eingeschaltet oder erregt werden.
- 17 -
C 23-018
Außerdem wird durch die Verwendung verschiedener Farben z. B. für unterschiedliche, benachbarte Breiten- und Längen-Elemente die Aufgabe der Identifizierung der Lagen der Punkte auf den Fotografien weiter vereinfacht.
Zur Bildung unterteilter Bänder, die auf die Oberfläche 22 des Gegenstandes 20 projiziert werden, besitzen die Masken rechteckige Flächen gemäß Figur 3, die Licht durchlassen. In Figur 3 sind Flächen, die Licht nicht durchlassen, in den Masken z. B. schraffiert, während Flächen, die Licht durchlassen, freigelassen sind. Nach dem Durchtritt durch eine solche rechteckige lichtdurchlässige Fläche der Masken läuft das Lichtbündel 130, wenn es unfokussiert ist, auseinander, bevor es die Oberfläche 22 trifft. Wenn es fokussiert ist, konvergiert es zum Brennpunkt hin und kann vor dem Auftreffen auf die Oberfläche 22 konvergieren oder divergieren. Gemäß Figur 11 und 11a nimmt das Lichtbündel 130 nach dem Durchgang durch die Maske ein Volumenelement z. B. in Form einer divergierenden Scheibe ein. Dieses Volumenelement schneidet oder trifft die Oberfläche 22, und es ist der Schnitt des Volumenelementes 130 und der Oberfläche 22, der das unterteilte Band oder einen Teil davon bildet. Der Schnitt des Volumenelementes 130 und der Oberfläche 22 enthält daher eine Schnittfläche für das Band auf dem Gegenstand 20.
Figur 11a kann in einer ähnlichen Weise wie Figur 11 angewendet werden. Im Gegensatz zu Figur 11, die ein nicht fokussiertes Lichtbündel 130 zeigt, zeigt Fig. 11a ein fokussiertes Lichtbündel 131, das aus dem optischen System des Projektors austritt.
Erfindungsgemäß können die bekannten Lagen der Schnittpunkte
- 18 -
709810/0799
C 23-018 ·*9
auf der Referenzoberfläche nach dem Abtasten der Fotografien der Referenzoberfläche in der in Verbindung mit Figur 4 beschriebenen Weise in einen Computer eingegeben werden. Bei Verwendung eines Computers 48 für diesen Zweck kann der Computer die erforderlichen Interpolationen durchführen, um die räumlichen Koordinaten und Lagen der Punkte auf der Oberfläche 22 mit der gewünschten Genauigkeit festzulegen. Bei Verwendung eines Computers für diesen Zweck werden daher die Netze oder Gitter 82 in dem Computer gespeichert.
Ein Merkmal der vorliegenden Erfindung ist es ferner, daß es nicht notwendig ist, eine Referenzoberfläche auf der Halterung 24 zu lokalisieren und die in Verbindung mit Figur 6 beschriebenen Verfahrensschritte durchzuführen. Die Referenzoberfläche kann mathematisch durch geeignete Gleichungen z. B. in dem Computer 48 festgelegt werden. Die zu Figur 7 gehörenden Konfigurationen können durch den Computer berechnet werden, wobei die Geometrie und die relativen Positionen der Oberfläche 22, des Projektors 26 und der Kamera 40 berücksichtigt werden. Es ist somit möglich, die in dem Netz 82 enthaltene Information dadurch abzuleiten, daß man lediglich geometrische Berechnungen durchführt. Die Anwendung geometrischer Berechnungen alleine verringert jedoch die Genauigkeit, da bei ihnen Linsenverzerrungen nicht kompensiert werden.
Es ist erfindungsgemäß nicht wesentlich, daß mehr als ein einziger Projektor verwendet wird. Bei Verwendung eines einzigen Projektors und Weglassen der übrigen Projektoren von Figur 1 wird erfindungsgemäß ein Dreh- und Fortschaltmechanismus 102 vorgesehen , der die Halterung 24 in aufeinanderfolgenden Schritten um einen bestimmten
- 19 -
709810/0799
C 23-018
Winkel dreht und es dem Projektor und der Kamera ermöglicht, den Umfang der gesamten Oberfläche 22 zu erfassen. Zu diesem Zweck schaltet der Dreh- und Fortschaltmechanismus 102 die Halterung 24 um vorgegebene Winkel weiter, die z. B. durch die Größe des Gesichtsfeldes des Projektors und der Kamera bestimmt sind, und hält die Halterung 24 in der weitergeschalteten Position, bis der Projektor eine vollständige Folge von Masken, wie es bei Figur 1 beschrieben ist, angewendet hat. Kleinere Drehungen als das Gesichtsfeld können notwendig sein, um einen Teil der Gegenstandsoberfläche, der einen anderen Teil der Gegenstandsoberfläche gegenüber der Kamera oder dem Projektor abdeckt, zu sehen. Ein Dreh- und Fortschaltmechanismus wie der mit 102 bezeichnete ist allgemein bekannt und wird aus diesem Grund nicht im Detail beschrieben.
Erfindungsgemäß ist es ferner möglich, den Gegenstand 20 festzuhalten und die Kamera 40 und den Projektor 26 zum Abtasten der vollständigen Oberfläche 22 um die Oberfläche 22 in einer Drehbewegung weiterzuschalten. Es ist somit lediglich notwendig, den Gegenstand 20 relativ zu dem Projektor 26 und der Kamera 40 zu versetzen.
Wie oben angegeben, kann die Referenzoberfläche vollständig durch Berechnung festgelegt- werden, die lediglich aus Betrachtungen der relativen geometrischen Lagen der Oberfläche 22, der Kamera und des Projektors abgeleitet wird. Die Kamera und der Projektor enthalten jedoch optische Elemente mit inhärenten Unvollkommenheiten. Solche optischen Unvollkommenheiten lassen sich nicht ohne weiteres theoretisch vorhersagen und berechnen. Solche optischen Unvollkommenheiten können daher nicht bei den Berechnungen
- 20 -
709810/0799
C 23-018 j^
zur Gewinnung der Netze oder Gitter 82 berücksichtigt werden.
Um den optischen Unvollkommenheiten der Linsen und Elemente der Kamera und des Projektors Rechnung zu tragen, ist es daher zweckmäßig eine gegenständliche Referenzoberfläche vorzusehen und die Folge von Verfahrensschritten durchzuführen, die mit dem Verfahren von Figur 6 verbunden ist. Auf diese Weise enthält das Netz 82 (Figur 7) unmittelbar alle Unvollkommenheiten, die in dem optischen System der Kamera und des Projektors enthalten sind, so daß das Netz 82 eine getreue und genaue Konfiguration zur Bestimmung der räumlichen Koordinaten von Punkten schafft, wie sie „ durch die Kamera 40 bei Beleuchtung durch die Projektoren 26, 28, 30, 32 beobachtet werden. Die Verwendung einer gegenständlichen Referenzoberfläche erfordert es daher nicht, daß die Unvollkommenheiten der optischen Systeme der Kamera und des Projektors durch mathematische Beziehungen ausgedrückt werden. Die Verwendung der Referenzoberfläche in körperlicher Form vereinfacht außerdem die Ableitung des Gitters 82, da es nicht notwendig ist, verwickelte und komplizierte mathematische Beziehungen zu programmieren, die die geometrischen Relativpositionen zwischen der Oberfläche 22, der Kamera und dem Projektor ausdrücken.
Es ist ein wesentliches Merkmal der Erfindung, daß die Referenzoberfläche nicht einer bestimmten Form entsprechen muß. Es ist möglich, für die Referenzoberfläche im wesentlichen jede passende Form mit einer Oberfläche bekannter Koordinaten zu verwenden.
Die Erfindung betrifft insbesondere die Festlegung der Koordinaten von Punkten einer dreidimensionalen Oberfläche.
— 21 —
709810/0799
C 23-018
Gemäß Figur 1 wird z. B. die z-Koordinate eines Punktes P durch das Band festgelegt, indem man feststellt, daß sich der Punkt befindet, wie es durch die Masken in z-Richtung festgelegt wird. Die y-x-Koordinaten des Punktes P werden dann durch Abtasten der Fotografie 44 und Auflegen des Gitters oder Netzes 82 auf diese Fotografie, wie es z. B. in Figur 2 a gezeigt ist, bestimmt. Das Auflegen des Gitters oder Netzes 82 auf die Fotografie (Figur 2 a) zur Bestimmung der y-x-Koordinaten des Punktes P kann z. B. von Hand oder mittels eines Computers 48 durchgeführt werden.
Die Anwendung der Erfindung kann auf das Unterteilen eines massiven Gegenstandes in Volumenelemente ausgedehnt werden. Dies kann z. B. dadurch erreicht werden, daß die Projektoren 26, 28, 30, 32 in Figur 1 zusammenwirkend so betrieben werden, daß der Gegenstand 20 in eine Mehrzahl von Abschnitten oder Bändern parallel zu der y-x-Ebene unterteilt wird. Wenn die Abschnitte oder Bänder codiert werden, entsprechen die durch die Kamera 40 von diesen Abschnitten aufgenommenen Fotografien 101 den Ansichten a bis c von Figur 8 a.
Eine weitere Unterteilung des Körpers 20 wird dadurch erreicht, daß man z. B. die beiden gegenüberliegend angeordneten Projektoren 28 und 32 durch ihre Masken eine Mehrzahl vertikaler Abschnitte oder Bänder projizieren läßt. In codierter Form erscheinen diese Bänder dann wie es in den Darstellungen d bis f von Figur 8 a gezeigt ist. Die in den Darstellungen d bis f gezeigten Reihen von Bändern sind jeweils parallel zur z-Achse und senkrecht zu der y-x-Ebene.
Die Unterteilung des Körpers 20 durch Verwendung der Projektoren zur Erzeugung der Darstellungen a bis f von Figur 8 a ergibt im wesentlichen längliche oder rechteckige Elemente,
- 22 -
709810/0799
C 23-018
deren Längsachse parallel zu der y-Achse verläuft, deren Richtung in Figur 1 angegeben ist. Zur weiteren Unterteilung des Körpers, so daß sich z. B. im wesentlichen kubische Elemente ergeben, werden die Projektoren 26 und gemeinsam in der Weise betätigt, daß eine Mehrzahl von Abschnitten oder Bändern parallel zu der x-z-Ebene projiziert werden. Die Schnitte der Bänder mit dem Körper sind in den Darstellungen g bis i von Figur 8 a gezeigt.
Bei Anwendung des Unterteilungsverfahrens gemäß Figur 8 a ist es nicht wesentlich, daß das Verfahren mit der Referenzoberfläche 52, die z. B. in Figur 6 gezeigt ist, durchgeführt wird. Aus den Darstellungen a bis c von Figur 8 a sind die Positionen jedes der zur y-x-Ebene parallelen Bänder hinsichtlich der z-Achse bekannt und ist daher die Position oder Lage jedes Punktes P auf den Fotografien 101 hinsichtlich der z-Achse bekannt. In ähnlicher Weise sind die Positionen der vertikalen Bänder der Darstellungen d bis f von Figur 8 a bezüglich der x-Achse bekannt. Bei den Darstellungen g bis i von Figur 8 a sind die Positionen der Bänder hinsichtlich der y-Achse bekannt. Jeder Punkt P, der in den Fotografien erscheint, die schematisch in a bis dargestellt sind, hat folglich eine bekannte Lage, ausgedrückt in X-, Y- und Z-Koordinaten.
Diese Unterteilung eines festen. Körpers in Volumenelemente ist nicht auf die Unterteilung z. B. in kubische Elemente beschränkt. So können ebene Formen zur Bildung von Volumenoder Massenelementen erweitert werden, so daß man ζ. Β. rechteckige, kreisförmige und radiale Elemente erhalten kann.
Bei Verwendung der 'ReferenzZylinderoberfläche 52 ist es
- 23 -
709810/0 799
C 23-018
nicht notwendig, hierauf Markierungen oder andere Zeichen vorzusehen, die z. B. Breiten-Elemente angeben. Die Wirkung solcher Breiten- oder Längen-Elemente kann in gleichwertiger Weise dadurch erreicht werden, daß man die Masken so einrichtet, daß sie vorgegebene Linien oder Schritte projizieren, die diese Breiten- oder horizontalen Elemente markieren. In ähnlicher Weise können die Masken eingerichtet werden, um Linien in der anderen senkrecht dazu stehenden Richtung zu projizieren, um die Charakteristiken der Längen- oder vertikalen Elemente der Referenzoberfläche .zu schaffen.
Die Herstellung von Masken zur Unterteilung des Gegenstandes in Abschnitte, die einer der Konfigurationen der Figuren 17 und 18a entsprechen, ist besonders vorteilhaft, da es dabei nur notwendig ist, auf einem Film, der die Masken trägt, das jeweilige zu projezierende Muster aufzunehmen. Solche auf dem Film aufgenommene Muster werden durch Abschnitte auf dem Film erzeugt, die Licht durchlassen bzw. den Durchtritt von Licht verhindern. Es können verschiedene Projektoren verwendet werden, so daß zu einem bestimmten Zeitabschnitt eine Maske eines Projektors horizontale Linien auf den Gegenstand projiziert, während zu einem späteren Zeitpunkt eine andere Maske in Verbindung mit einem anderen Projektor vertikale Linien auf den Gegenstand projiziert.
Durch Verwendung eines Farbfilmes und Farbprojektionen oder ähnlicher für elektromagnetische Frequenzen selektiver Aufzeichnungstechniken können die verschiedenen zusammenwirkenden Muster gleichzeitig projiziert werden. Alle vier Projektoren von Figur 1 können z. B. horizontale Bänder in Rot aussenden, während gegenüberliegende Paare von Projektoren
- 24 -
709810/0799
C 23-018
vertikale Bänder in Blau bzw. Grün aussenden.
Bei der Anwendung der in Verbindung mit den Figuren 2 bis 5 beschriebenen Codierungsverfahren kann z. B. auch ein durch ein Schieberegister erzeugter Code verwendet werden. Dieser Code besitzt besondere Vorteile bei der Identifizierung der Breiten- und Längenelemente der Referenzoberflächen. Solch ein 3-Bit-Verschiebecode, der in Tabellenform unten angegeben ist, kann mittels der Schaltung von Figur 12 erzeugt werden.
Impuls
Nr.
208 Klemme
210
212
■ζ 0 0 0
1 1 0 0
2 1 1 0
3 0 1 1
4 1 0 1
5 0 1 0
6 0 0 1
7 0 0 0
Der obige 3-Bit-Verschiebecode wird mittels eines Schieberegisters 206 mit Klemmen 208, 210, 212 erzeugt. Die Klemmen 210 und 212 werden an die Eingänge eines EX.OR-Gliedes 214 gelegt. Das Ausgangssignal dieses Gliedes 214 wird über einen Inverter 216 an den Eingang des Schieberegisters 206 gelegt. Das Register erhält an der Klemme 220 einen Taktimpuls. Bei der Analysierung der Impulsfolge, die an den Klemmen 208, 210, 212, wie oben in Tabellenform angegeben, auftritt, wird ersichtlich die Impulsfolge an der Klemme 210 um eine Stelle gegenüber der Impulsfolge an der
- 25 -
709810/0799
C 23-018
Klemme 208 verschoben. In ähnlicher Weise wird die Impulsfolge an der Klemme 212 um eine Stelle gegenüber der Impulsfolge an der Klemme 210 verschoben. Der Code wird aufgrund dieser Eigenschaft als Verschiebecode bezeichnet. Diese besondere Eigenschaft des Verschiebecodes, durch die die Impulsfolge zur Gewinnung einer anderen Folge lediglich verschoben wird, ermöglicht es, Fehler zu erkennen, die bei den Codierungs- und Identifizierungsvorgängen aufgetreten sind. Da die Impulsfolge vorgegeben ist, kann folglich sofort festgestellt werden, ob ein "1" oder "0" fälschlicherweise in der Folge vorhanden ist. Zu diesem Zweck ist es möglich, nur die letzten drei Bit einer Folge zu prüfen und daraus den gegenwärtigen Zustand des Schieberegisters zu bestimmen und folglich das darauffolgende Bit der Reihe vorherzusagen. Angesichts der vorhersagbaren Eigenschaften des Codes ist ferner eine Computerverarbeitung der Fotografien zur Identifizierung, wie es oben in Verbindung mit den Figuren 2 bis 5 beschrieben wurde, besonders vorteilhaft.
Der Verschiebecode ist besonders vorteilhaft, wenn er in Verbindung mit Masken zum Unterteilen eines Gegenstandes in Abschnitte oder Bänder verwendet wird. Wenn eine Maske so konstruiert ist, daß sie dem Code-Muster, das an der Klemme 208 auftritt, wie es in Figur 13 gezeigt ist, entspricht, dann kann das Code-Muster an der Klemme 210 dadurch erhalten werden, daß man lediglich die Maske in Figur 13 um den Abstand eines Bandes versetzt. In ähnlicher Weise kann das Code-Muster, das an der Klemme 212 auftritt, dadurch erhalten werden, daß man die Maske von Figur 13 um ein weiteres Band versetzt. Die Versetzung der Maske um eine Entfernung, die z. B. nur der Breite eines einzigen Bandes entspricht, ist wesentlich geringer als die Verset-
- 26 -
709810/0799
C 23-018 ■
zung, die zur Auswechslung oder Weiterförderung einer ganzen Maske notwendig ist. Da Auswechseln oder Weiterfördern von Masken im wesentlichen ein mechanischer Vorgang ist, der eine mechanische oder körperliche Bewegung beinhaltet, ist die Geschwindigkeit, mit der eine solche Auswechslung von Masken stattfinden kann, durch die Fähigkeit des Filmes und des zugeordneten Transportmechanismus , den bei solchen Versetzungen auftretenden Kräften zu widerstehen, begrenzt. Die wesentlich kürzere Versetzung, die folglich bei Verwendung eines Schiebecodes nötig ist, erlaubt eine wesentlich schnellere Auswechslung der Code-Muster und ermöglicht dadurch eine Erhöhung der Geschwindigkeit, mit der der Vorgang der Unterteilung eines Gegenstandes in Abschnitte oder Bänder durchgeführt wird.
Bei dem Aufbau der Maske 208 a von Figur 13 oder der Maske 36 von Figur 3 ist es z. B. nicht notwendig, daß diese Masken durch einen Filmstreifen oder Träger 218 gehalten wird. Der Träger für die Masken kann auch in Form eines flexiblen Kunststoffes oder Papieres vorliegen und ebenso als ein Streifen einer Glasplatte, die wie herkömmliche Projektor-Glasbilder verwendet werden können.
Wie oben angegeben, besitzt der Schiebe-Code Vorteile hinsichtlich des Ausmaßes der notwendigen Maskenbewegung, insbesondere bei einem reinen Binär-Code, bei dem sehr große Maskenversetzungen stattfinden, um eine völlig verschiedene Maske in dem Projektor für jedes Code-Muster anzuordnen. Eine andere Anordnung zum Codieren des Musters der Bänder, die wesentlich kürzere Versetzungen der Masken und dadurch höhere Verfahfensgeschwindigkeiten ermöglicht, ist in Figur 14 gezeigt. Bei dieser Anordnung besitzen zwei Masken 220 und 222 abwechselnde Bänder, die Licht durchlassen bzw.
- 27 -
7 098 10/07 99
C 23-018
den Durchtritt von Licht verhindern. Die schraffiert gezeichneten Bänder 224 lassen kein Licht durch, während die freigelassenen Bänder 226 Licht durchlassen. Die beiden Masken 220 und 222 sind von identischer Konstruktion, insbesondere hinsichtlich der Breite und des Abstandes der Bänder. Die Masken,220 und 222 werden in dem Projektor übereinandergelegt, um ein Bandmuster zu erhalten, in dem die Bänder in der Breite durch gegenseitige Versetzung der beiden Masken in dem Projektor verändert werden kann. Wenn folglich die beiden Masken 220 und 222 in der Weise übereinandergelegt werden, daß die schraffierte Fläche oder das schraffierte Band der Maske 222 genau mit einem schraffierten Band der Maske 220 zusammenfällt, dann besitzen die Licht durchlassenden Bänder ihre volle Breite, die z. B. der Breite des Bandes 226 entspricht. Wenn nun die Maske 222 relativ zu der Maske 220 in Längsrichtung um den Betrag einer halben Bandbreite versetzt wird, dann wird die Breite der Ixchtdurchlässigen Bänder um die Hälfte oder 50% reduziert. Das Bändermuster, das sich bei einer solchen Relativversetzung der Maske 222 gegenüber der Maske 220 bei deren Überlagerung ergibt, ist durch die Konfiguration des Musters 228 in Figur 15 gezeigt. Gemäß den Verfahren der Figuren 14 und 15 ist es daher möglich, die Breite der Bänder kontinuierlich zu verändern, wenn ein Gegenstand in Abschnitte unterteilt wird. Die Größen der Bandbreiten können außerdem zur Identifizierung der Muster codiert werden.
Es ist außerdem nicht notwendig, daß die Kamera 40 eine herkömmliche Filmkamera ist. Die Funktion der Kamera zur Aufzeichnung der Abbilder kann indessen auch mittels Fotodioden, Vidicon-Einrichtungen oder andere Fühler und Einrichtungen erfüllt werden, die herkömmlicherweise zum Speichern von Information in digitaler oder analoger Form verwendet
- 28 -
709810/079 9
C 23-018
werden, einschließlich ζ. B. von Magnetbändern und Magnettrommeln. Gleichzeitig kann die Bildinformation unmittelbar in dem Speicher eines Computers gespeichert werden und kann ein solcher Speicher aus einem Kernspeicher, Festkörper-Einrichtungen und ebenso Magnetplatten, -trommeln und -bändern bestehen.'
Bei der Durchführung der vorliegenden Erfindung können die Masken in der Richtung durch den Lichtweg des Projektors transportiert werden, die für die Konstruktion gemäß Figur 3 geeignet ist, bei der der Maskenträger parallel zur Längsrichtung der Bänder bewegt wird. Die Masken können jedoch auch in der Richtung bewegt werden, die für die Konstruktion der Figuren 14 und 15 geeignet ist, bei denen der Träger 218 senkrecht zur Längsrichtung der Bänder bewegt wird, übereinandergelegte Maskenträger können außerdem relativ zueinander in Richtungen bewegt werden, die zur Erzeugung von Konfigurationen nicht senkrecht aufeinanderstellen. Es ist ferner auch möglich, die Projektoren 26, 28, 30, 32 so einzusetzen, daß unterschiedliche Projektoren unterschiedliche Masken darstellen, die zusammengenommen ein vorgegebenes Code-Muster erzeugen.
Bei der erfindungsgemäßen Bedienung der Projektoren und Masken sollen die Projektoren möglichst kollimierte Lichtbündel abgeben. Ein Verfahren zur Erzeugung kollimierter Lichtbündel zur Verwendung bei der vorliegenden Erfindung ist in Figur 16 gezeigt. Bei dieser Anordnung schickt eine Licht- oder Beleuchtungsquelle 252 Licht durch einen Kondensor 254, der als eine Kollimationslinse dient. Das aus der Kollimationslinse 254 austretende Licht wird immer noch etwas divergent sein, und zur Verbesserung des Lichtbündels sind in einiger Entfernung von der Linse 254 zusätzlich
- 29 -
709810/0799
C 23-018
Kollimationsmasken 256 vorgesehen. Diese Kollimationsmasken 256 dienen dazu, den Lichtweg so stark zu beschränken, daß ein im wesentlichen kollimiertes Lichtbündel z. B. durch die Masken der Figuren 3, 13 oder 14 gerichtet werden kann.
Bei einer weiteren Ausführungsform zur Erzielung kollimierter Lichtbündel wird die Lichtquelle 252 zusammen mit einer Zylinderlinse 258 und einer zylindrischen Reflexionsfläche 260 gemäß den Figuren 17 und 18 eingesetzt. Nach der Reflexion von der Zylinderfläche 260 wird das Licht zur weiteren Verbesserung des Lichtbündels zur Verwendung mit den Masken durch Kollimationsmasken 256 (Figur 17) geschickt. Bei der Anordnung von Figur 17 wird dabei anstatt des Kondensors 254 eine Zylinderlinse und eine zylindrische Reflexionsfläche verwendet.
Zur Erzielung einer im wesentlichen gleichförmigen Lichtverteilung entlang einer Codierungsmaske kann die Lichtoder Beleuchtungsquelle z. B. in Form von drei Lichtquellen vorliegen, die gleichförmig entlang der codierten Maske verteilt sind, wie es in Figur 18 gezeigt ist. Figur 18 ist eine Draufsicht von Figur 17. Bei dieser Anordnung mit mehrfachen Lichtquellen ist jede einzelne Lichtquelle mit einer eigenen Zylinderlinse 258 versehen, wie es in Figur 18 gezeigt ist. Durch die Verwendung getrennter zylindrischer Optik ist es möglich, das Licht entlang einer Achse stark zu kollimieren und entlang einer anderen Achse divergieren zu lassen oder zu fokussieren.
Die vorausgehende Beschreibung offenbart den Grundgedanken der Erfindung so vollständig, daß die Erfindung aufgrund von Fachwissen ohne weiteres verschiedenen Anwendungen an-
- 30 -
709810/0799
C 23-018
gepaßt werden kann, ohne daß Merkmale weggelassen werden, die vom Stand der Technik aus betrachtet wesentliche Merkmale der Erfindung darstellen. Solche Anpassungen fallen daher unter die nachfolgenden Ansprüche und deren Äquivalente .
- 31 -
709810/0799

Claims (11)

C 23-O18 Patentansprüche
1.) Verfahren zum Bestimmen der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes, dadurch gekennzeichnet, dass man
(a) den Gegenstand und eine Referenzoberfläche in dem Gesichtsfeld der Linse anordnet, wobei die Referenzoberfläche unterscheidbare Stellen von jeweils bekannter Position besitzt;
(b) diejenige Lage oder Stelle der Referenzoberfläche bestimmt, die sich in Gesichtsweite zu dem Knotenpunkt der Linse und zu dem Oberflächenpunkt der Gegenstand befindet, wodurch die Gerade zwischen dem Linsenknotenpunkt und dem Oberflächenpunkt des Gegenstandes identifiziert wird;
(c) die Lagenebene des Oberflächenpunktes des Gegenstandes hinsichtlich des Linsenknotenpunktes bestimmt, in dem man
(1) ein Projektionsfeld festlegt, das wenigstens einen Teil der Gegenstandsoberfläche einschliesslich des Punktes beinhaltet;
(2) Teile der Gegenstands-Teiloberflache beleuchtet, indem man Strahlung auf bestimmte Segmente des Projektionsfeldes projiziert, wobei diese Segmente zusammen das Projektionsfeld festlegen;
(3) durch den Linsenknotenpunkt hindurch bei derartiger
- 32 -
709810/0799
Beleuchtung eine Aufnahme der Gegenstands-Teiloberfläche macht und
(4) ein Ausgangssignal erzeugt, das bezeichnend ist für die Anzahl der Projektionsfeldsegmente in dieser Aufnahme und derjenigen Projektionsfeldsegmente in dieser Aufnahme, die den Gegenstandsoberflächenpunkt enthalten, und aus dem Ausgangssignal diese Ebene identifiziert;
(d) die Ebene mit der Geraden zum Schnitt bringt, wodurch die räumliche Lage des Punktes der Gegenstandsoberfläche bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass
der Schritt ic) (2) dadurch ausgeführt wird, dass die Bereiche der Gegenstands-Teiloberfläche aufeinander folgend beleuchtet werden, indem Strahlung getrennt in die bestimmten Projektionsfeldsegmente projiziert wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Verfahrensschritt (c) (3) dadurch ausgeführt wird, dass Aufnahmen in. einer Aufeinanderfolge gemacht werden, die der Aufeinanderfolge der Beleuchtung entsprechen.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Verfahrensschritt (c) (2) dadurch ausgeführt wird, dass eine erregbare Strahlungsquelle zur Projektion auf die Gegenstandsoberfläche angeordnet wird, aufeinanderfolgend Masken mit verschiedenen Strahlen Durchlässigkeitseigenschaften zwischen der Quelle und der Gegenstandsoberfläche angeordnet werden und die Quelle nach jeder Anordnung für eine Maske erregt wird.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Referenzoberfläche durch kodierte Breiten- und Längenelemente... definiert ist, wobei die Schnittpunkte der Elemente die
- 33 -
709810/0799
Lagen der Referenzoberfläche definieren.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Referenzoberfläche durch einen Verschiebekode kodiert ist.
7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Maske die Referenzoberfläche definiert.
8. Vorrichtung zur Durchführung des Verfahrensschrxttes (c) (2) des Verfahrens nach Anspruch 1, gekennzeichnet durch eine Mehrzahl von Projektoren mit jeweils einer ein kollimiertes Lichtbündel erzeugender Quelle und Maskeneinrichtungen, die zur Abgabe des kollimierten Lichtbündels auf die Projektionsfeldsegmente gehalten ist.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Verfahrensschritt (a) dadurch ausgeführt wird, dass der Gegenstand und die Referenzoberfläche getrennt in dem Gesichtsfeld der Linse angeordnet werden, und dass der Verfahrensschritt (b) zum Teil dadurch ausgeführt wird, dass getrennte Aufnahmen des Gegenstandes und der Referenzoberfläche durch den Linsenknotenpunkt hindurch aufgenommen werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Verfahrensschritt (b) ferner dadurch ausgeführt wird, dass eine dieser Aufnahmen über eine andere gelegt wird, wodurch Positionen auf der Aufnahme des Gegenstandes zu Geraden, die durch den Linsenknotenpunkt führen, umgewandelt werden.
11. Verfahren zur Bestimmung der räumlichen Lage eines Punktes auf der Oberfläche eines Gegenstandes in einem Volumen mit 3 aufeinander senkrecht stehenden Achsen (x, y, ζ), dadurch gekennzeichnet, dass man
(a) die Lage des Punktes der Gegenstandsoberfläche hinsichtlich
- 34 -
709810/0799
der ζ-Achse bestimmt, in dem man
(1) ein Projektionsfeld festlegt, das wenigstens einen Teil der Gegenstandsoberflächen einschliesslich des Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch bestrahlt, dass man Strahlung in bestimmte Segmente des Projektionsfeldes projiziert, wobei jedes solches Segment parallel zur Ebenen der x- und y-Achsen liegt und die Segmente zusammen das Projektionsfeld festlegen;
(3) eine erste Aufzeichnung des Teiles der Gegenstands oberfläche bei dessen Bestrahlung aufnimmt und
(4) ein erstes Ausgangssignal erzeugt, das bezeichnend für die Anzahl der Projektionsfeldsegmente in der ersten Aufzeichnung und demjenigen Projektionsfeldsegment · in der ersten Aufzeichnung ist, das den? Punkt der Gegenstandsoberfläche enthält, und die z-Achsenkoordinate des Punktes der Gegenstandsoberfläche aus dem ersten Ausgangssignal bestimmt und
(b) die Lage des Punktes des Gegenstandsoberfläche hinsichtlich der y-Achse bestimmt, indem man
(1) ein Projektionsfeld festlegt, das wenigstens einen Teil der Gegenstandsoberfläche einschliesslich des . Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch beleuchtet, dass man Strahlung in bestimmte Segmente des Projektionsfeldes projiziert, wobei jedes solche Segment parallel zu der Ebene der x- und z-Achsen liegt und die Segmente zusammen das Projektionsfeld
- 35 -
709810/0799
festlegen;
(3) eine zweite Aufnahme des Teiles der Gegenstandsoberfläche dessen Bestrahlung macht und
(4) ein Ausgangssignal erzeugt, dass für die Anzahl der Projektionsfeldsegmente in dieser zweiten Aufzeichnung und dasjenige Projektionsfeldsegmente in dieser zweiten Aufzeichnung ist, das den Punkt der Gegenstandsoberfläche enthält, und die y-Achsenkoordinalte des Punktes der Gegenstandsoberfläche aus diesem zweiten Ausgangssignal bestimmt;und
(c) die Lage des Punktes der Gegenstandsoberfläche hinsichtlich der x-Achse bestimmt, indem man
(1) ein Projektionsfeld festlegt, das wenigstens einen Teil der Gegenstandsoberfläche einschliesslich dieses Punktes enthält;
(2) Bereiche des Teiles der Gegenstandsoberfläche dadurch bestrahlt, dass man Strahlung in bestimmte Segmente des Projektionsfeldes projiziert, wobei jedes solche Segment parallel zu der Ebenen der y- und z-Achsen legt und Segmente zusammen das Projektionsfeld festlegen;
(3) eine dritte Aufzeichnung des Teiles der Gegenstandsoberfläche bei dessen Beleuchtung macht und
(4) ein Ausgangssignal erzeugt, das bezeichnend für die Anzahl der Projektionsfeldsegmente in dieser dritten Aufzeichnung und für dasjenige Projektionsfeldsegment in dieser dritten Aufzeichnung ist, das den Punkt der Gegenstandsoberfläche einschliesst, und die x-Achsenkoordinate des Punktes der Gegenstandsoberfläche aus diesem dritten Ausgangssignal bestimmt.
- 36 -
709810/0799
DE19762637905 1975-08-27 1976-08-23 Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes Ceased DE2637905A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US05/608,265 US4175862A (en) 1975-08-27 1975-08-27 Arrangement for sensing the geometric characteristics of an object

Publications (1)

Publication Number Publication Date
DE2637905A1 true DE2637905A1 (de) 1977-03-10

Family

ID=24435735

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19762637905 Ceased DE2637905A1 (de) 1975-08-27 1976-08-23 Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes

Country Status (13)

Country Link
US (2) US4175862A (de)
JP (1) JPS5229252A (de)
BE (1) BE845465A (de)
CA (1) CA1079965A (de)
CH (1) CH611016A5 (de)
DE (1) DE2637905A1 (de)
DK (1) DK386576A (de)
ES (1) ES451007A1 (de)
FR (1) FR2322358A1 (de)
GB (1) GB1570091A (de)
IT (1) IT1073688B (de)
NL (1) NL7609498A (de)
SE (2) SE432021B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4511252A (en) * 1975-08-27 1985-04-16 Robotic Vision Systems, Inc. Arrangement for sensing the geometric characteristics of an object
US4259017A (en) * 1977-10-03 1981-03-31 Dynell Electronics Corporation Methods for use in definition of object surfaces
US4212073A (en) * 1978-12-13 1980-07-08 Balasubramanian N Method and system for surface contouring
US4259589A (en) * 1979-07-20 1981-03-31 Solid Photography, Inc. Generation of contiguous data files of three-dimensional information
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
DE3021448A1 (de) * 1980-06-06 1981-12-24 Siemens AG, 1000 Berlin und 8000 München Verfahren und anordnung zur erfassung raeumlicher abweichungen von einer glatten ebene an oberflaechen von gegenstaenden
US4357108A (en) * 1980-06-06 1982-11-02 Robotic Vision Systems, Inc. Method for reproducton of object surfaces
US4349277A (en) * 1980-06-11 1982-09-14 General Electric Company Non-contact measurement of surface profile
US4402608A (en) * 1980-10-02 1983-09-06 Solid Photography Inc. Room scanning system using multiple camera and projector sensors
US4392182A (en) * 1981-06-12 1983-07-05 Solid Photography, Inc. Arrangement for scanning points in space
US4488172A (en) * 1982-08-18 1984-12-11 Novon, Inc. Method and apparatus for range imaging
US4499492A (en) * 1982-08-18 1985-02-12 Novon, Inc. Method and apparatus for three frame range imaging
US4443705A (en) * 1982-10-01 1984-04-17 Robotic Vision Systems, Inc. Method for locating points on a three-dimensional surface using light intensity variations
US4520388A (en) * 1982-11-01 1985-05-28 General Electric Company Optical signal projector
US4634278A (en) * 1984-02-06 1987-01-06 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns
US4648717A (en) * 1984-02-06 1987-03-10 Robotic Vision Systems, Inc. Method of three-dimensional measurement with few projected patterns
US4664470A (en) * 1984-06-21 1987-05-12 General Electric Company Method and system for structured radiation production including a composite filter and method of making
JPH061164B2 (ja) * 1985-01-31 1994-01-05 伍良 松本 立体形状測定装置
US4757379A (en) * 1986-04-14 1988-07-12 Contour Dynamics Apparatus and method for acquisition of 3D images
US4846577A (en) * 1987-04-30 1989-07-11 Lbp Partnership Optical means for making measurements of surface contours
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
DE4115445C2 (de) * 1990-07-05 1994-02-17 Reinhard Malz Verfahren zum Aufnehmen eines dreidimensionalen Bildes eines Objektes nach dem aktiven Triangulationsprinzip und Vorrichtung hierzu
AT404638B (de) * 1993-01-28 1999-01-25 Oesterr Forsch Seibersdorf Verfahren und vorrichtung zur dreidimensionalen vermessung der oberfläche von gegenständen
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
US5548418A (en) * 1994-01-14 1996-08-20 Dcs Corporation Holographic structured light generator
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US5864640A (en) * 1996-10-25 1999-01-26 Wavework, Inc. Method and apparatus for optically scanning three dimensional objects using color information in trackable patches
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
DE69833813T2 (de) * 1997-05-22 2006-11-30 Kabushiki Kaisha Topcon Vorrichtung zur Korrespondenzsuche in einem Bildpaar
EP0901105A1 (de) 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung
US6647146B1 (en) 1997-08-05 2003-11-11 Canon Kabushiki Kaisha Image processing apparatus
EP0898245B1 (de) 1997-08-05 2004-04-14 Canon Kabushiki Kaisha Bildverarbeitungsverfahren und -gerät
DE19747061B4 (de) * 1997-10-24 2005-02-10 Mähner, Bernward Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
AU3991799A (en) 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
US6262803B1 (en) 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
US6155489A (en) * 1998-11-10 2000-12-05 Ncr Corporation Item checkout device including a bar code data collector and a produce data collector
US6332573B1 (en) 1998-11-10 2001-12-25 Ncr Corporation Produce data collector and produce recognition system
US6431446B1 (en) * 1999-07-28 2002-08-13 Ncr Corporation Produce recognition system and method
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6754370B1 (en) * 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US20030046177A1 (en) * 2001-09-05 2003-03-06 Graham Winchester 3-dimensional imaging service
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US20040222987A1 (en) * 2003-05-08 2004-11-11 Chang Nelson Liang An Multiframe image processing
US7154613B2 (en) * 2004-03-15 2006-12-26 Northrop Grumman Corporation Color coded light for automated shape measurement using photogrammetry
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
JP2008537190A (ja) * 2005-01-07 2008-09-11 ジェスチャー テック,インコーポレイテッド 赤外線パターンを照射することによる対象物の三次元像の生成
JP4953589B2 (ja) * 2005-05-25 2012-06-13 株式会社ミツトヨ エンコーダの原点信号生成方法及び装置
US20070146685A1 (en) * 2005-11-30 2007-06-28 Yoo Woo S Dynamic wafer stress management system
DE102006022878B3 (de) * 2006-05-15 2007-09-06 Sartorius Biotech Gmbh Verfahren und Detektionsvorrichtung zur bildgebenden Erfassung einer Probe
US7957007B2 (en) * 2006-05-17 2011-06-07 Mitsubishi Electric Research Laboratories, Inc. Apparatus and method for illuminating a scene with multiplexed illumination for motion capture
WO2008033329A2 (en) * 2006-09-15 2008-03-20 Sciammarella Cesar A System and method for analyzing displacements and contouring of surfaces
EP2084491A2 (de) * 2006-11-21 2009-08-05 Mantisvision Ltd. Geometrische modellierung in 3d und videoinhaltserzeugung in 3d
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US8646689B2 (en) 2007-12-28 2014-02-11 Cognex Corporation Deformable light pattern for machine vision system
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
US8908016B2 (en) * 2008-10-06 2014-12-09 Mantivision Ltd. Method and system for providing three-dimensional and range inter-planar estimation
FR2938330A1 (fr) * 2008-11-07 2010-05-14 Michelin Soc Tech Evaluation du relief de la surface d'un pneumatique par stereovision active
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
DE102012021185A1 (de) 2012-10-30 2014-04-30 Smart Optics Sensortechnik Gmbh Verfahren zur optischen 3D-Vermessung von Zähnen mit verkleinerter Point-Spread-Funktion
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
JP6104662B2 (ja) * 2013-03-25 2017-03-29 株式会社東芝 計測装置、方法及びプログラム
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
WO2016024200A2 (en) * 2014-08-12 2016-02-18 Mantisvision Ltd. Structured light projection and imaging
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10139217B1 (en) * 2016-02-16 2018-11-27 Google Llc Array based patterned illumination projector
DE102016113228A1 (de) * 2016-07-18 2018-01-18 Ensenso GmbH System mit Kamera, Projektor und Auswerteeinrichtung
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN111489382B (zh) * 2019-01-28 2023-03-31 合肥美亚光电技术股份有限公司 编码条纹图的获取以及基于结构光的重构的方法和装置
DE102020127894B4 (de) 2020-10-22 2022-09-22 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
DE102020008179B4 (de) 2020-10-22 2023-10-26 Smart Optics Sensortechnik Gmbh Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE705543C (de) * 1939-12-16 1941-05-02 Christoph Metzler Vorrichtung zum Reinigen und Ausrichten von Strohhalmen fuer die Herstellung von Strohhuelsen
US3184732A (en) * 1960-04-15 1965-05-18 Rca Corp Computer circuit
NL279202A (de) * 1961-06-02
US3234863A (en) * 1963-03-05 1966-02-15 Gerald C Peterson Photographic construction records
US3682553A (en) * 1968-09-19 1972-08-08 Optics Technology Inc Apparatus for acquiring and laying real time 3-d information
US3684824A (en) * 1970-03-16 1972-08-15 Itt Multispected imaging system
FR2150037A5 (de) * 1971-08-09 1973-03-30 Ibm
GB1407248A (en) * 1971-08-29 1975-09-24 Fujitsu Ltd System for read out of the coordinates of a matrix type display
DE2327355A1 (de) * 1973-05-29 1975-01-02 Deutsche Forsch Luft Raumfahrt Verfahren zur fernerkundung insbesondere der erdoberflaeche sowie geraet zur durchfuehrung des verfahrens
US3866052A (en) * 1973-11-02 1975-02-11 Dynell Elec Methods for generating signals defining three-dimensional object surfaces
GB1472346A (en) * 1974-07-06 1977-05-04 Grundig Emv Aerial reconnaissance apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen

Also Published As

Publication number Publication date
NL7609498A (nl) 1977-03-01
ES451007A1 (es) 1977-08-16
SE432021B (sv) 1984-03-12
FR2322358B1 (de) 1981-11-27
US4145991A (en) 1979-03-27
SE7609326L (sv) 1977-02-28
CA1079965A (en) 1980-06-24
JPS6232406B2 (de) 1987-07-14
FR2322358A1 (fr) 1977-03-25
JPS5229252A (en) 1977-03-04
SE8204577D0 (sv) 1982-08-04
SE8204577L (sv) 1982-08-04
CH611016A5 (de) 1979-05-15
IT1073688B (it) 1985-04-17
US4175862A (en) 1979-11-27
DK386576A (da) 1977-02-28
BE845465A (fr) 1976-12-16
GB1570091A (en) 1980-06-25

Similar Documents

Publication Publication Date Title
DE2637905A1 (de) Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes
DE2447789C3 (de)
DE69132853T2 (de) Dreidimensionales Messinstrument
DE3650479T2 (de) Vorrichtung zur Aussendung von Lichtflächen
DE1034690B (de) Anordnung zur Einstellung der Koordinatenlage einer Punktlichtquelle auf einer Oberflaeche in Abhaengigkeit von binaer verschluesselten Signalen
EP0002668B1 (de) Einrichtung zur optischen Abstandsmessung
DE2127381A1 (de) Vorrichtung zum Ermitteln der rieh tigen Belichtung beim Kopieren von Vor lagen
DE3116671C2 (de)
DE2259762B2 (de) Verfahren zur automatischen Auswertung von Stereobildern
DE102012023623A1 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE3235812C2 (de) Layout-Tisch für elektronisches Layout
DE4304529C1 (de) Meßkameraanordnung, insbesondere für photogrammetrische Messungen an technischen Objekten
DE1943785C3 (de) Halbleiterscheibe mit Markierungen zur maschinellen Identifizierung und Einrichtung zur maschinellen Identifizierung solcher Halbleiterscheiben
DE68926721T2 (de) Verfahren und Gerät zur Charakterisierung von optischen Systemen
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
DE1280581C2 (de) Verfahren, aufzeichnungstraeger und vorrichtung zum speichern von informationen
DE1065641B (de) Speicher mit beweglichem Aufzeichnungsträger
DE1099223B (de) Schnellwirkende Informationsspeicherungsvorrichtung und Informationsspeicherverfahren
DE1902782C3 (de) Fotorepetierkamera
DE1079559B (de) Verfahren zur Herstellung einer Bindungspunkte aufweisenden, photoelektrisch abtastbaren Vorlage
DE2263515B2 (de) Einrichtung zur Speicherung graphischer Daten
DE3508378C2 (de)
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE2532585A1 (de) Verfahren und vorrichtung zur bestimmung der ortskoordinaten einer unbekannten lage
CH625953A5 (de)

Legal Events

Date Code Title Description
8131 Rejection