DE69726025T2 - Verfahren und vorrichtung zum erhalten einer dreidimensionalen form - Google Patents
Verfahren und vorrichtung zum erhalten einer dreidimensionalen form Download PDFInfo
- Publication number
- DE69726025T2 DE69726025T2 DE69726025T DE69726025T DE69726025T2 DE 69726025 T2 DE69726025 T2 DE 69726025T2 DE 69726025 T DE69726025 T DE 69726025T DE 69726025 T DE69726025 T DE 69726025T DE 69726025 T2 DE69726025 T2 DE 69726025T2
- Authority
- DE
- Germany
- Prior art keywords
- pattern
- image
- scene
- relative
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 2
- 230000005855 radiation Effects 0.000 claims 1
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Photoreceptors In Electrophotography (AREA)
- Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
- Manipulator (AREA)
Description
- Die Verwendung von dreidimensionalen Bildern oder Gestalten wird immer wichtiger, auch für neue Anwendungsbereiche, wie das Zeigen von Objekten im Internet, in der Virtual Reality, der Filmindustrie usw..
- Dreidimensionale Gestaltbeschreibungen werden normalerweise mit zwei oder mehreren Kameras oder durch die Verwendung von Lasersystemen erstellt. Bestehende Systeme können sehr kostspielig sein, ein zeitaufwendiges Kalibrierverfahren benötigen und schwierig zu transportieren sein, während in manchen Fällen die Szene statisch sein muss, das Arbeitsspeichervolumen für die Szene bestimmt wird oder nicht ausreichende Informationen bezüglich der Topologie der Gestalt erhalten werden.
- Ein Beispiel einer verwandten Forschung ist ein Artikel von A. Blake und andere „Trinocular Active Range-Sensing", IEEE Transactions on Pattern Analysis and Machine Intelligence, Band 15, Nr. 5, S. 477–483, 1993. Nach diesem Verfahren werden zwei Reihen paralleler Linien sequentiell projiziert. Die Linien im Bild können durch Sicherstellen, dass die projizierten Linien und epipolar Linien sich seitlich kreuzen, identifiziert werden. Die Linien sollten deswegen nicht zu nahe beieinander sein.
- Ein weiteres Beispiel ist ein Artikel von Vuori und Smith „Three Dimensional Imaging System with Structured Lighting and Practical Constraints", Journal of Electronic Imaging 6 (1), 5. 140–144, 1997. Nach diesem Verfahren wird ein einzelnes Muster projiziert, aber Einschränkungen sind den Dimensionen der Szene zum Aufnehmen und den relativen Abständen zwischen den Musterelementen auferlegt. Dies ermöglicht vorherzusagen, in welchem Teil der Bildebene jedes einzelne Musterelement projiziert wird.
- Außerdem beginnen bekannte Systeme und Verfahren oft bei absoluten Messungen und Dimensionen, welche nicht immer und in erster Linie nicht dann benötigt werden, wenn die Anwendung auf das Zeigen und nicht das Messen der Objekte gerichtet ist.
- Im Artikel von Zen Chen und anderen mit dem Titel „Polyhedral Face Reconstruction and Modeling from a Single Image with Structured Light", IEEE Transactions on Systems, Man and Cybernetics, Band 23 Nr. 3, Mai/Juni 1993, New York, US Seiten 864–872 ein ist ein Verfahren zum Erstellen von Bildern von polyedrischen Objekten beschrieben. Das Verfahren ist auf ebene Flecken auf dem Objekt angewiesen und eignet sich nicht für Freiform-Oberflächen.
- Der Artikel von Whoi-Yul Yura Kim mit dem Titel „Experiment with Cross-Stripe Structured Light System Using Coon's Patch Formalism", 1990 IEEE International Conference on Systems, Conf. Proceedings, Nov. 4–7, 1990 beschreibt ein weiteres System zum Erstellen von Bildern mittels eines Triangulationsverfahrens. Bei diesem Verfahren muss eine eindeutige Zuordnung zwischen projizierten und beobachteten Mustern bekannt sein.
- Die vorliegende Erfindung liefert ein Verfahren zum Erstellen einer dreidimensionalen Gestalt oder Bildes eines Objekts oder einer Szene, wobei ein oder mehrere vorbestimmte Muster von Komponenten mit einer bekannten relativen Positionierung auf das Objekt oder die Szene projiziert werden, gekennzeichnet durch: das Erstellen eines oder mehrerer Bilder des Objekts oder der Szene, wobei zumindest ein Teil des Objekts oder der Szene Freiform-Oberflächen enthält, und das Berechnen der dreidimensionalen Gestalt oder des dreidimensionalen Bildes auf der Basis der relativen Abstände zwischen Musterkomponenten, wie sie in dem einen oder den mehreren erstellten Bildern beobachtet werden.
- Die Erfindung liefert zudem ein System zum Erstellen einer dreidimensionalen Gestalt einer Szene oder eines Objekts einschließlich Freiform-Oberflächen mit:
- – zumindest einem Mustergenerator zum Projizieren eines Musters von Komponenten mit einer bekannten relativen Positionierung auf die Szene oder das Objekt;
- – zumindest einer Abbildungsvorrichtung zum Beobachten der Szene oder des Objekts zum Erstellen von einem oder mehreren Bildern; gekennzeichnet durch:
- – eine Berechnungseinrichtung zum Bestimmen des dreidimensionalen Bildes oder der dreidimensionalen Gestalt der Szene oder des Objekts einschließlich Freiform-Oberflächen davon auf der Basis der relativen Abstände zwischen den Komponenten, wie in einem oder mehreren Bildern beobachtet.
- Die benötigte Hardware ist einfach und das System nach der vorliegenden Erfindung ist daher nicht sehr kostspielig.
- Nach der vorliegenden Erfindung ist es nicht länger erforderlich Komponenten des projizierten Musters, wie z. B. Linien oder Punkte, entweder über einen Code im Muster selbst oder über durch die Szene und/oder Anordnung auferlegte Einschränkungen oder ein Vorwissen darüber einzeln zu identifizieren. Beim Verfahren nach der vorliegenden Erfindung kann die Gestalt über die relativen Positionen der Komponenten im Muster, beispielsweise durch Bestimmen der relativen Sequenz der Musterlinien erstellt werden.
- Nach der vorliegenden Erfindung wird ein einzelnes Bild ausreichen, um ein dreidimensionales Bild oder eine dreidimensionale Gestaltbeschreibung zu erstellen und eine Erstellungszeit wird benötigt, welche nicht länger als die zum Erstellen eines einzelnen Bildes erforderte Zeit ist.
- Da die Aufnahmezeit eines einzelnen Bildes begrenzt bleiben kann und da Rekonstruktionen für eine schnelle Aufeinanderfolge verschiedener Bilder durchgeführt werden können, können sich bewegende Objekte und ihre dreidimensionalen Bewegungen und Wechsel der Gestalt rekonstruiert werden.
- Nach der vorliegenden Erfindung kann das Kalibrierverfahren einfach gehalten werden und wenige Einschränkungen müssen der relativen Position des/der Mustergenerators/Mustergeneratoren und der Kameras) auferlegt werden.
- Nach der vorliegenden Erfindung kann das projizierte Muster sehr einfach und stark verkettet gehalten werden, wie z. B. ein Liniengitternetz. Infolge der Einfachheit kann die hohe Auflösung des Musters und dadurch der dreidimensionalen Rekonstruktion beibehalten werden. Aufgrund der starken Verkettung des Musters wird ermöglicht die genaue Oberflächentopologie eindeutig als eine Komponente der Ausgabe zu bestimmen.
- Nach der vorliegenden Erfindung ist die absolute Position der Musterkomponenten innerhalb der Gesamtheit des Musters von zweitrangiger Bedeutung. Dreidimensionale Gestaltbeschreibungen können ohne solche Informationen, bis auf einen Skalierungsfaktor, durch Annehmen eines (pseudo-)orthographischen Modells für die Geometrie der Musterprojektion und Bildformation erzeugt werden. Perspektiveffekte in dieser Geometrie werden vorzugsweise begrenzt gehalten.
- Nach der vorliegenden Erfindung kann sowohl die dreidimensionale Gestalt als auch die Oberflächentextur der Szenen bestimmt werden. Es ist hierin möglich Schwierigkeiten des Abgleichs der Gestalt und Textur zu beseitigen, da die Gestalt und Textur unter Verwendung der gleichen Kamera (s) bestimmt werden. Die endgültige Ausgabe, welche eine dreidimensionale Gestaltbeschreibung mit oder ohne Textur sein kann, kann natürliche in jedem beliebigen Format einschließlich Formaten, welche beispielweise für graphische Arbeitsplatzstationen oder das Internet geeignet sind, gemacht werden.
- Nach einer bevorzugten Ausführungsform kann die Oberflächentextur darüber hinaus vom gleichen Bild erstellt werden, welches zur Bestimmung der dreidimensionalen Gestalt verwendet wird. Ein ähnliches Verfahren kann auch für Fälle erweitert werden, bei welchen ein Muster mit einer absoluten Bildauflösung der Komponenten verwendet wird. Es wird offensichtlich sein, dass sich das Verfahren zum Erstellen einer farbigen oder multispektralen Oberflächentextur, d. h. das Zusammensetzten von verschiedenen Spektralbasisbildern, nicht wesentlich von den Verfahren für ein Einbasisbild unterscheidet.
- Nach einer bevorzugten Ausführungsform ist das projizierte Muster gleichmäßig und besteht aus ähnlichen Grundformen, wie z. B. Rechtecken und Quadraten, welche durch die Zusammensetzung von zwei zueinander senkrechten Reihen paralleler Zentrallinien gebildet werden.
- Nach einer bevorzugten Ausführungsform findet das Kalibrieren statt, indem dem System zwei Ebenen zwischen welchen der Winkel bekannt ist, beispielsweise ein rechter Winkel, gezeigt werden. Die für die Gestaltauflösung benötigten Parameter können hieraus bestimmt werden, wie z. B. der Winkel der Reflektion der projizierten Strahlen relativ zur Bildebene und, wenn nötig, das Höhen-Breiten-Verhältnis der Pixel.
- Weitere Vorteile, Eigenschaften und Details der vorliegenden Erfindung werden basierend auf der folgenden Beschreibung der bevorzugten Ausführungsform derselben mit Bezug auf die beiliegenden Zeichnungen erklärt werden, in welchen:
-
1 eine schematische Ansicht einer bevorzugten Ausführungsform des Verfahrens nach der vorliegenden Erfindung zeigt; -
2 ein Beispiel eines Details eines mit der Anordnung in1 erstellten Bildes zeigt; - die
3a –3d eine Detailansicht mit den Ergebnissen der Liniendetektoren und der Kombination derselben nach einem ersten Korrekturschritt zeigen; -
4 ein Beispiel einer Diskontinuität im erfassten Muster zeigt; - die
5a ,b ,c ein den Gitteraufbau erklärendes Diagramm zeigen; - die
6a –6b ein Diagramm zeigen, welches das Verfeinern der Positionen des Gitters zeigen; -
7 ein die Versorgung der Gitterpunkte mit einem Label erklärendes Diagramm zeigt; - die
8a –8b das Ergebnis des gesamten Verfahrens der Gitterextraktion für ein Detailbild zeigen; - die
9a –9b zwei Bilder zeigen, welche den Schritt zum Erstellen einer Oberflächentextur erklären; - die
10a –h Beispiele erhaltener Ergebnisse zeigen. - In der Anordnung der
1 wird ein Muster durch einen Projektor auf die Szene geworfen und durch eine Kamera in einer Bildebene eingefangen. In dieser Ausführungsform wurden der Projektor und die Kamera in einem Abstand von ca. 4 m von der Szene positioniert. Der Winkel zwischen der Projektionsrichtung und der Blickrichtung betrug ca. 7°. Das projizierte Muster war ein im wesentlichen quadratisches Gitter bestehend aus 600 horizontalen und 600 vertikalen Linien, welche unter Verwendung von lithographischen Techniken auf einem Dia mit einer Linienstärke von 10 μm angeordnet sind und in gegenseitigen Abständen von 50 μm platziert sind. In dieser Ausführungsform wurde ein 512 × 512 Bild gebildet, welches zum größeren Teil durch den Teil der Szene zur Rekonstruktion aufgenommen wurde, und üblicherweise wurden 100 horizontal und 100 vertikal projizierte Linien effektiv im Bild gesehen. -
2 zeigt ein Detail eines unter den oben beschriebenen Bedingungen aufgenommenen Bildes. -
3a zeigt solch ein Bild detaillierter und die Erwiderung der Horizontallinien- und Vertikalliniendetektoren wird in den3b und3c gezeigt. Nach dem Bestimmen der Zentrallinie dieser Erwiderungen und einem ersten Füllen der Lücken werden die Zentrallinien in einer anfänglichen Rekonstruktion des Bildmusters (d) kombiniert. - Aufgrund von z. B. einem Störgeräusch oder anderen Gründen werden Diskontinuitäten in den ermittelten Musterlinien in Bereichen vorhanden sein, in welchen die Erwiderung eines Liniendetektors relativ schwach ist.
4 zeigt ein Beispiel zweier Linien, welche in diesem Fall in der Nähe ihres Schnittpunkts unterbrochen werden. Wie in4 gezeigt, wird die unmittelbare Nähe der zwei Endpunkte des Segments einer Linie in der derzeit bevorzugten Ausführungsform der Erfindung über einen Bereich in der Linie einer Breite s gescannt. Wenn Punkte anderer Liniensegmente in diesem Verfahren getroffen werden, wird eine Marke basierend auf Eigenschaften dazu zugeordnet, wie beispielsweise der Unterschied im Neigungswinkel ε der Liniensegmente nahe der Diskontinuität, der Abstand zu den Endpunkten dieser Segmente, der Intensitätsunterschied des gegebenen Endpunktes und des Endpunktes eines Kandidatsegments und die Durchschnittsintensität entlang der geradlinigen Verbindung zwischen den Endpunkten. Zwei Segmente werden miteinander verbunden, wenn die Summe der Marken optimal ist. Solch ein Ergebnis wird bereits in der3d gezeigt. -
5 zeigt wie die Kreuzungen oder Schnittpunkte konstruiert sind.5a zeigt das Kreuzen zweier Linien. Solche Schnittpunkte werden in einer Gitterrepräsentation zusammengebracht, wobei jeder Gitterpunkt maximal vier Nachbarn (N, E, S und W) aufweist, wie in der5b gezeigt. Gitterpunkte, welche Scheitelpunkte eines vollen Vierecks sind, sind bei aufeinanderfolgenden Korrekturschritten von besonderer Bedeutung. Diese werden als Reflektionsstellen durch die aufeinanderfolgende Auswahl des Nachbarn E, seinem Nachbarn S, seinem Nachbarn W, seinem Nachbarn N (c) ermittelt. -
6 zeigt einen am Gitter angewandten Verfeinerungsschritt. Dieser Schritt behandelt das Gitter als ein System von verbundenen Linien, deren Position durch Ausziehen ihrer Kontinuität relativ zu ihrer ursprünglich diskreten Darstellung, in6a gezeigt, und durch Hinzufügen einer Anziehungskraft verfeinert werden, welche auch den verfeinerten Linienpositionen eine Präferenz für Positionen mit Bildintensitäten der gleichen Polarität, wie die Linien im Muster, gibt. Das Ergebnis dieses Verbesserungsschritts wird in6b gezeigt. - Die Gitterpunkte sind mit Labeln oder Nummern versehen, wie in
7 gezeigt. Ein zufälliger Gitterpunkt im Bild wird als Referenzpunkt O(0,0) ausgewählt. Den anderen Gitterpunkten werden zwei Label gegeben, ein „horizontales" Label i und ein „vertikales" Label j, welche die relative Position relativ zur Referenz angeben. Die horizontalen Linienlabel i werden mit jedem Schritt E erhöht oder mit jedem Schritt W schrittweise verringert, welche zum Erreichen des Gitterpunktes vom Referenzpunkt erforderlich sind. Die vertikalen Linienlabels j werden mit jedem Schritt N erhöht oder mit jedem Schritt S schrittweise verringert, welche zur Erreichung des Gitterpunktes vom Referenzpunkt benötigt werden. Das Definieren der Labels beläuft sich auf dem Definieren der Kohärenz des Gitters. -
7 zeigt ebenso ein Beispiel, bei welchem sich unterschiedliche Labels aus dem Auswählen eines anderen Weges, beispielsweise für den Punkt P, ergeben können. Hierin ist der umschriebene Weg zur rechten zuverlässiger, da er die mit weiß gekennzeichneten falschen Teile des Gitters umgeht. Die Zuverlässigkeit des Weges wird basierend auf der Zuverlässigkeit der einzelnen Gitterpunkte entlang dem Weg bestimmt und verringert sich je mehr Verbindungen zu angrenzenden Gitterpunkten fehlen und je weniger die einzeln ermittelten Vierecke im beobachteten Muster Ähnlichkeit mit Quadraten zeigen, wenn aus der Projektionsrichtung betrachtet. Die Label werden bei Bedarf iterativ/rekursiv korrigiert. Altere Label werden hierin durch neue Label überschrieben, wenn letztere zuverlässiger sind. -
8b zeigt das endgültig ermittelte Gitter für das Detailbild in8a . - Für weitere Details in Bezug auf das Definieren der Gitterreferenz wird Bezug auf die Anlage genommen, welche den Artikel der Erfinder „Active Acquisition of 3D Shape for Moving Objects" enthält.
- Nachdem das Gitter somit präzise definiert wurde, kann die dreidimensionale Gestalt desselben berechnet werden.
- Die dreidimensionale Gestalt der sichtbaren mit dem Muster beleuchteten Oberfläche wird basierend auf den dreidimensionalen Positionen der Gitterpunkte rekonstruiert. In der bevorzugten Ausführungsform werden die relativen Positionen der letzteren von den Schnittpunkten von zwei parallelen Strahlenbündeln erhalten, wobei das eine die Musterprojektionsstrahlen und das andere die Bildprojektionsstrahlen darstellt und welche so sind, dass sie einen Winkel bilden, welcher durch Kalibrieren definiert ist, und dass ihre Schnittpunkte mit den erfassten Positionen der Gitterpunkte im Bild übereinstimmen.
- Für weitere Details bezüglich der Definition der in der bevorzugten Ausführungsform verwendeten dreidimensionalen Gestaltbeschreibung und des Kalibrierens wird Bezug auf die Anlage genommen, welche den Artikel der Erfinder „One-Shot Active 3D Shape Acquisition" enthält.
- Nachdem das Gitter somit präzise definiert wurde, wird in einer bevorzugten Ausführungsform die Textur auch aus dem gleichen Bild extrahiert, welches für die Gestaltauflösung verwendet wurde.
- Im Bild wird der Querschnitt eines Intensitätsprofils eines Musterstreifens ein Gaußscher Querschnitt sein, welcher durch die folgende Funktion angenähert wird:
- Bei einem Versuch wurde n = 2 ausgewählt und die Funktion war eine Gaußsche Funktion. Die Intensitätsschwächung der Musterstreifen wurde anschließend durch Übereinanderlegen dieses Profils über die gewonnenen Gitterlinien modelliert. Das Ergebnis für das Gitter der
8b wird in der9a gezeigt. Je größer die Schwächung, desto weniger repräsentativ gilt die Bildintensität für die wirkliche Textur. Um die Textur zu bestimmen, wird eine Interpolation der Intensitäten als Ausgangspunkt genommen, wobei die relativen Schwächungen und die Abstände zu dem Punkt, an welchem die Intensität wiederhergestellt wird, in Betracht gezogen werden. Das Ergebnis dient nur dazu einen nicht linearen Diffusionsvorgang an der Intensität einzuleiten, welcher die übrigen Spuren der Musterstreifen beseitigt. Das Ergebnis für das Bild der8a wird in der9b gezeigt. - Schließlich wird die gewonnene Textur auf der Oberfläche angeordnet („abgebildet").
- Für weitere Details bezüglich dem Bestimmen der Oberflächentextur wird Bezug auf den Anhang genommen, welcher den Artikel der Erfinder „A Sensor that Extracts Both 3D Shape and Surface Texture" enthält.
-
10 zeigt mit dieser Ausführungsform erhaltene Ergebnisse. Die10a und10b zeigen zwei Eingabebilder für eine Hand und ein Gesicht. Die10c und10d zeigen zwei Ansichten der Gestaltbeschreibung, welche für die Hand erhalten wurde, und die10e und10f die Gestaltbeschreibung des Gesichts. Die10g und10h zeigen zwei Ansichten der durch die Textur bedeckten (durch die Textur abgebildeten) Gestaltbeschreibung des Gesichts. - Unter Verwendung zusätzlicher Schritte, kann ein Perspektiveffekt bei der Projektion und Sichtgeometrie bei der oben beschriebenen bevorzugten Ausführungsform des Verfahrens und der Vorrichtung in Betracht gezogen werden. Unter Verwendung von Datenadditionen können absolute Dimensionen und absolute Abstände erhalten werden, so dass der unbekannte Skalierungsfaktor der Gestaltbeschreibung verschwindet.
- Es ist natürlich weiterhin möglich Codes zum Projektionsmuster hinzuzufügen, was die Identifizierung von Musterkomponenten ermöglicht. Andere Projektionen und/oder Bilder können gleichzeitig verwendet werden. Die Oberflächentextur kann auch von Bildern erhalten werden, bei welchen das Muster nicht sichtbar ist- beispielsweise durch die Verwendung von nicht sichtbaren Wellenlängen oder durch Ausschalten des Musters- und/oder die Textur kann durch Herausfiltern des Musters auf andere Weisen, als die in dieser Ausführungsform beschriebenen extrahiert werden.
Claims (26)
- Verfahren zum Erstellen einer dreidimensionalen Gestalt oder eines dreidimensionalen Bildes eines Objektes oder einer Szene, wobei ein oder mehrere vorbestimmte Muster von Komponenten mit einer bekannten relativen Positionierung auf das Objekt oder die Szene projiziert werden, gekennzeichnet durch das Erstellen eines oder mehrerer Bilder des Objekts oder der Szene, wobei zumindest ein Teil des Objekts oder der Szene Freiform-Oberflächen enthält; und das Berechnen der dreidimensionalen Gestalt oder des dreidimensionalen Bildes auf der Basis von relativen Abständen zwischen Musterkomponenten, wie sie in dem einen oder den mehreren erstellten Bildern beobachtet werden.
- Verfahren nach Anspruch 1, wobei die absoluten Dimensionen der Gestalt oder des Bildes durch Fixieren eines geeigneten Skalierungsfaktors erhalten werden.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei relative räumliche Positionen der Punkte auf dem dreidimensionalen Objekt direkt aus relativen beobachteten Positionen der Komponenten in dem Bild berechnet werden.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei ein einzelnes Muster projiziert wird und eine dreidimensionale Gestalt des Objekts auf der Basis eines einzelnen erstellten Bildes rekonstruiert wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Sequenz dreidimensionaler Gestalten aus Bildern rekonstruiert wird, die zeitsequentiell erstellt werden.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei ein oder mehrere Muster der Linien auf die Szene oder das Objekt projiziert werden und die dreidimensionale Gestalt auf der Basis von beobachteten relativen Abständen zwischen den Linien und/oder Schnittpunkten der Linien des Musters erstellt wird.
- Verfahren nach Anspruch 6, wobei der Schritt des Berechnens der Gestalt oder des Bildes den Schritt des Berechnens der dreidimensionalen Gestalt des Objekts oder der Szene auf der Basis der Berechnung relativer dreidimensionaler Positionen der Schnittpunkte aufweist, wobei die relativen dreidimensionalen Positionen der Schnittpunkte aus einem pseudoorthographischen oder einem orthographischen geometrischen Modell mit den Schnittpunkten von ersten und zweiten parallelen Strahlenbündeln abgeleitet werden, wobei das erste parallele Strahlenbündel Musterprojektionsstrahlen repräsentiert und das zweite parallele Strahlenbündel die Bildprojektionsstrahlen repräsentiert.
- Verfahren nach Anspruch 6 oder 7, wobei das Muster von Linien ein Gitter gerader Linien ist.
- Verfahren nach Anspruch 8, wobei das Gitter aus zwei zueinander senkrechten Reihen paralleler Linien besteht.
- Verfahren nach einem der Ansprüche 6 bis 9, wobei Musterlinien und/oder deren Schnittpunkte aus dem Bild bzw. den Bildern extrahiert werden.
- Verfahren nach Anspruch 10, wobei verschiedene Linien und/oder Schnittpunkte gemeinsam extrahiert werden.
- Verfahren nach Anspruch 10, wobei die Schnittpunkte der Linien bestimmt werden und ihre relativen Positionen in dem Muster bzw. den Mustern mit relativen sequentiellen Nummern assoziiert werden.
- Verfahren nach einem der Ansprüche 6 bis 12, wobei die Position der Linien durch eine Vereinheitlichungstechnik verfeinert werden.
- Verfahren nach einem der Ansprüche 1 bis 13, wobei eine Textur durch Ausfiltern des Musters erhalten wird.
- Verfahren nach einem der Ansprüche 1 bis 14, wobei ein Code dem projizierten Muster bzw. den projizierten Mustern hinzugefügt wird.
- Verfahren nach einem der Ansprüche 1 bis 15, wobei das System durch Vorgeben von zwei Ebenen, welche einen bekannten Winkel aufspannen, kalibriert wird.
- Verfahren nach einem der Ansprüche 1 bis 16, wobei die Kalibration des Systems lediglich die Bestimmung der Höhen-Breiten-Proportion der Pixel einer Vorrichtung zum Erstellen des Bildes und die relative Richtung der Musterprojektion und Bilderstellung erfordert.
- System zum Erhalten einer dreidimensionalen Gestalt einer Szene oder eines Objektes einschließlich Freiform-Oberflächen, mit: – zumindest einem Mustergenerator zum Projizieren eines Musters von Komponenten mit einer bekannten relativen Positionierung auf die Szene oder das Objekt; – zumindest einer Abbildungsvorrichtung zum Beobachten der Szene oder des Objekts zum Erstellen von einem oder mehreren Bildern; gekennzeichnet durch: – eine Berechnungseinrichtung zum Bestimmen des dreidimensionalen Bildes oder der Gestalt der Szene oder des Objekts einschließlich Freiform-Oberflächen davon auf der Basis der relativen Abstände zwischen den Komponenten, wie in einem oder mehreren der Bilder beobachtet.
- System nach Anspruch 18, dadurch gekennzeichnet, dass das System zum Bestimmen der Zuverlässigkeit der Positionierung der Komponenten in dem erstellten Bild gestaltet ist.
- System nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass nur ein Mustergenerator und eine Abbildungsvorrichtung verwendet werden.
- System nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass der Mustergenerator und die Abbildungsvorrichtung eine derartige relative Anordnung aufweisen, dass zumindest ein Teil des Musters durch die Abbildungsvorrichtung beobachtet wird und die Projektions- und Abbildungsrichtungen nicht insgesamt zusammenfallen.
- System nach einem der Ansprüche 18 bis 21, dadurch gekennzeichnet, dass der Mustergenerator zum Projizieren von Strahlung gestaltet ist, die für das menschliche Auge unsichtbar ist.
- System nach einem der Ansprüche 18 bis 22, wobei das System zum Extrahieren einer Textur des Objekts oder der Szene aus dem Bild gestaltet ist.
- System nach einem der Ansprüche 18 bis 23, dadurch gekennzeichnet, dass der Mustergenerator zum Ein- und Ausschalten des Musters gestaltet ist.
- System nach Anspruch 24, dadurch gekennzeichnet, dass das System zum Extrahieren einer Textur oder von Oberflächenmustern während der Periode, wenn kein Muster projiziert wird, gestaltet ist.
- System nach einem der Ansprüche 18 bis 25, wobei das System zum Berechnen der dreidimensionalen Gestalt des Objekts oder der Szene auf der Basis der Berechnung relativer dreidimensionaler Positionen von den Schnittpunkten gestaltet ist, wobei die relativen dreidimensionalen Positionen der Schnittpunkte aus einem pseudo-orthographischen oder einem orthographischen geometrischen Modell mit den Schnittpunkten erster und zweiter paralleler Strahlenbündel abgeleitet werden, wobei das erste parallele Strahlenbündel Musterprojektionsstrahlen repräsentiert und das zweite parallele Strahlenbündel die Bildprojektionsstrahlen repräsentiert.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP96201643 | 1996-06-13 | ||
EP96201643 | 1996-06-13 | ||
PCT/BE1997/000070 WO1997047942A1 (en) | 1996-06-13 | 1997-06-12 | Method and system for acquiring a three-dimensional shape description |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69726025D1 DE69726025D1 (de) | 2003-12-11 |
DE69726025T2 true DE69726025T2 (de) | 2004-09-16 |
Family
ID=8224076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69726025T Expired - Lifetime DE69726025T2 (de) | 1996-06-13 | 1997-06-12 | Verfahren und vorrichtung zum erhalten einer dreidimensionalen form |
Country Status (12)
Country | Link |
---|---|
US (1) | US6510244B2 (de) |
EP (1) | EP1009969B1 (de) |
JP (1) | JP2000512012A (de) |
KR (1) | KR20000016663A (de) |
AT (1) | ATE253721T1 (de) |
AU (1) | AU712090B2 (de) |
BR (1) | BR9709679A (de) |
CA (1) | CA2256587A1 (de) |
DE (1) | DE69726025T2 (de) |
IL (1) | IL127534A (de) |
NO (1) | NO985746L (de) |
WO (1) | WO1997047942A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10317078B4 (de) * | 2003-04-11 | 2013-03-28 | Karlsruher Institut für Technologie, Institut für Mess- und Regelungstechnik | Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen |
DE102017129737A1 (de) * | 2017-12-13 | 2019-06-13 | Hauni Maschinenbau Gmbh | Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie |
DE102021108232A1 (de) | 2021-03-31 | 2022-10-06 | Carl Zeiss Industrielle Messtechnik Gmbh | Messgerät zur 3D-Erfassung einer Oberfläche |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2785674B1 (fr) * | 1998-11-06 | 2000-12-08 | Eastman Kodak Co | Procede de restitution d'informations relatives a un objet en trois dimensions |
US6957177B1 (en) * | 1999-12-10 | 2005-10-18 | Microsoft Corporation | Geometric model database for use in ubiquitous computing |
DE10000790C2 (de) * | 2000-01-11 | 2003-11-13 | Map Medizin Technologie Gmbh | Atemmasekenanordnung und Verfahren zur Bereitstellung derselben |
US6900802B2 (en) * | 2000-08-04 | 2005-05-31 | Pts Corporation | Method of determining relative Z-ordering in an image and method of using same |
US6993179B1 (en) * | 2000-08-07 | 2006-01-31 | Koninklijke Philips Electronics N.V. | Strapdown system for three-dimensional reconstruction |
US6959104B2 (en) * | 2001-02-05 | 2005-10-25 | National Instruments Corporation | System and method for scanning a region using a low discrepancy sequence |
US7034831B2 (en) * | 2001-02-05 | 2006-04-25 | National Instruments Corporation | System and method for generating a low discrepancy curve in a region |
US6917710B2 (en) * | 2001-02-05 | 2005-07-12 | National Instruments Corporation | System and method for scanning a region using a low discrepancy curve |
US6909801B2 (en) * | 2001-02-05 | 2005-06-21 | National Instruments Corporation | System and method for generating a low discrepancy curve on an abstract surface |
US6950552B2 (en) * | 2001-02-05 | 2005-09-27 | National Instruments Corporation | System and method for precise location of a point of interest |
EP1236970A1 (de) | 2001-02-26 | 2002-09-04 | Leuze electronic GmbH + Co. | Bilderverarbeitungssystem |
JP3519698B2 (ja) * | 2001-04-20 | 2004-04-19 | 照明 與語 | 3次元形状測定方法 |
US7127100B2 (en) * | 2001-06-25 | 2006-10-24 | National Instruments Corporation | System and method for analyzing an image |
FR2830079B1 (fr) * | 2001-09-26 | 2004-04-30 | Holo 3 | Procede et dispositif de mesure d'au moins une grandeur geometrique d'une surface optiquement reflechissante |
DE10212364A1 (de) * | 2002-03-20 | 2003-10-16 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objekts |
CA2391133C (en) * | 2002-06-21 | 2011-02-15 | Jiwei Yang | Method and apparatus for measuring the thickness of compressed objects |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
TW200413694A (en) * | 2003-01-17 | 2004-08-01 | Xsense Technology Corp | Three-dimensional scanning system and its method |
EP1524494A1 (de) * | 2003-10-17 | 2005-04-20 | inos Automationssoftware GmbH | Verfahren zur Kalibrierung einer Kamera-Lasereinheit in Bezug auf einem Kalibrierungsobjekt |
GB2410794A (en) * | 2004-02-05 | 2005-08-10 | Univ Sheffield Hallam | Apparatus and methods for three dimensional scanning |
WO2005082075A2 (en) * | 2004-02-25 | 2005-09-09 | The University Of North Carolina At Chapel Hill | Systems and methods for imperceptibly embedding structured light patterns in projected color images |
US8152305B2 (en) * | 2004-07-16 | 2012-04-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer program products for full spectrum projection |
EP1619623A1 (de) * | 2004-07-22 | 2006-01-25 | Icos Vision Systems N.V. | Vorrichtung zur dreidimensionalen Vermessung in einem elektronischen Bauteil |
US9024949B2 (en) * | 2004-10-13 | 2015-05-05 | Sony Corporation | Object representation using distance functions |
US7620209B2 (en) * | 2004-10-14 | 2009-11-17 | Stevick Glen R | Method and apparatus for dynamic space-time imaging system |
WO2006074310A2 (en) * | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
US20060153427A1 (en) * | 2005-01-12 | 2006-07-13 | Zanzucchi Peter J | Image methods for determining contour of terrain |
JP5058820B2 (ja) * | 2005-01-12 | 2012-10-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きの知覚 |
FR2891645B1 (fr) * | 2005-09-30 | 2007-12-14 | Thales Sa | Procede et dispositif d'evaluation de la liceite de la situation d'un mobile sur la surface d'un aeroport. |
US20070171526A1 (en) * | 2006-01-26 | 2007-07-26 | Mass Institute Of Technology (Mit) | Stereographic positioning systems and methods |
US20070273894A1 (en) * | 2006-05-23 | 2007-11-29 | Johnson James T | Method and apparatus for remote spatial calibration and imaging |
BRPI0621997A2 (pt) * | 2006-09-21 | 2011-12-27 | Thomson Licensing | mÉtodo e sistema para aquisiÇço de modelo tridimensional |
EP1923836A1 (de) * | 2006-11-20 | 2008-05-21 | Agfa HealthCare NV | Selektion aus fusionierten, in 3D-Volumen dargestellten Bildern und Aktualisierung der entsprechenden Ansichten in Übereinstimmung mit einer Selektionsaktion |
US8090194B2 (en) | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
CN101627280B (zh) | 2006-11-21 | 2013-09-25 | 曼蒂斯影像有限公司 | 三维几何建模和三维视频内容创建 |
US7877210B2 (en) * | 2007-01-11 | 2011-01-25 | Siemens Industry, Inc. | System and method for projecting b-rep outlines to detect collisions along a translational path |
EP2122409B1 (de) | 2007-02-25 | 2016-12-07 | Humaneyes Technologies Ltd. | Verfahren und system zum kalibrieren und/oder visualisieren einer mehrbildanzeige und zum verringern von ghosting-artefakten |
WO2009013744A2 (en) | 2007-07-23 | 2009-01-29 | Humaneyes Technologies Ltd. | Multi view displays and methods for producing the same |
JP5689681B2 (ja) * | 2007-08-17 | 2015-03-25 | レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company | 非接触プローブ |
DE602007014218D1 (de) * | 2007-09-20 | 2011-06-09 | Biocompatibles Uk Ltd | Vorrichtung und Verfahren zur Messung der Kollagendicke |
CA2606267A1 (fr) * | 2007-10-11 | 2009-04-11 | Hydro-Quebec | Systeme et methode de cartographie tridimensionnelle d'une surface structurelle |
US8244066B2 (en) * | 2008-03-24 | 2012-08-14 | The Aerospace Corporation | Adaptive membrane shape deformation system |
FR2929421B1 (fr) * | 2008-03-25 | 2012-04-27 | Thales Sa | Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique |
JP5317169B2 (ja) | 2008-06-13 | 2013-10-16 | 洋 川崎 | 画像処理装置、画像処理方法およびプログラム |
US8339616B2 (en) * | 2009-03-31 | 2012-12-25 | Micrometric Vision Technologies | Method and apparatus for high-speed unconstrained three-dimensional digitalization |
WO2010129363A2 (en) * | 2009-04-28 | 2010-11-11 | The Regents Of The University Of California | Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera |
EP2446259B1 (de) | 2009-06-25 | 2020-08-05 | The University of North Carolina At Chapel Hill | Verfahren und system zur verwendung von aktivierten oberflächenfixierten pfosten zur beurteilung der bioflüssigkeitsrheologie |
US8363957B2 (en) * | 2009-08-06 | 2013-01-29 | Delphi Technologies, Inc. | Image classification system and method thereof |
GB0915904D0 (en) * | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
US9116003B2 (en) | 2009-10-01 | 2015-08-25 | Qualcomm Incorporated | Routing graphs for buildings |
US8812015B2 (en) | 2009-10-01 | 2014-08-19 | Qualcomm Incorporated | Mobile device locating in conjunction with localized environments |
US8880103B2 (en) | 2009-10-12 | 2014-11-04 | Qualcomm Incorporated | Method and apparatus for transmitting indoor context information |
EP2512142A4 (de) * | 2009-12-08 | 2014-02-26 | Korea Electronics Telecomm | Vorrichtung und verfahren zur extraktion eines texturbilds und eines tiefenbilds |
JP5578844B2 (ja) * | 2009-12-21 | 2014-08-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9389085B2 (en) | 2010-01-22 | 2016-07-12 | Qualcomm Incorporated | Map handling for location based services in conjunction with localized environments |
KR20120020627A (ko) * | 2010-08-30 | 2012-03-08 | 삼성전자주식회사 | 3d 영상 포맷을 이용한 영상 처리 장치 및 방법 |
WO2012074505A1 (en) * | 2010-11-29 | 2012-06-07 | Hewlett-Packard Development Company, L.P. | System and method for creating a three-dimensional image file |
AT511223B1 (de) | 2011-03-18 | 2013-01-15 | A Tron3D Gmbh | Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten |
WO2012135014A2 (en) * | 2011-03-25 | 2012-10-04 | Tk Holdings Inc. | Image sensor calibration system and method |
JP6170281B2 (ja) * | 2011-05-10 | 2017-07-26 | キヤノン株式会社 | 三次元計測装置、三次元計測装置の制御方法、およびプログラム |
US8754954B2 (en) * | 2011-05-16 | 2014-06-17 | National Research Council Of Canada | High resolution high contrast edge projection |
WO2012160470A1 (en) * | 2011-05-24 | 2012-11-29 | Koninklijke Philips Electronics N.V. | 3d scanner using structured lighting |
US9325974B2 (en) | 2011-06-07 | 2016-04-26 | Creaform Inc. | Sensor positioning for 3D scanning |
US9305449B2 (en) * | 2011-07-20 | 2016-04-05 | Kurt A. Goszyk | Laser obstacle detector |
US8385732B2 (en) | 2011-07-29 | 2013-02-26 | Hewlett-Packard Development Company, L.P. | Image stabilization |
US8675997B2 (en) | 2011-07-29 | 2014-03-18 | Hewlett-Packard Development Company, L.P. | Feature based image registration |
US9349182B2 (en) | 2011-11-10 | 2016-05-24 | Carestream Health, Inc. | 3D intraoral measurements using optical multiline method |
US9295532B2 (en) | 2011-11-10 | 2016-03-29 | Carestream Health, Inc. | 3D intraoral measurements using optical multiline method |
WO2013076605A1 (en) * | 2011-11-23 | 2013-05-30 | Creaform Inc. | Method and system for alignment of a pattern on a spatial coded slide image |
US9217636B2 (en) | 2012-06-11 | 2015-12-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and a computer-readable storage medium |
US9816809B2 (en) | 2012-07-04 | 2017-11-14 | Creaform Inc. | 3-D scanning and positioning system |
EP2875314B1 (de) | 2012-07-18 | 2017-08-16 | Creaform Inc. | System und verfahren zur 3d-abtastung der oberflächengeometrie eines objektes |
JP6055228B2 (ja) * | 2012-08-07 | 2016-12-27 | 中央発條株式会社 | 形状計測装置 |
JP6394005B2 (ja) * | 2014-03-10 | 2018-09-26 | 株式会社リコー | 投影画像補正装置、投影する原画像を補正する方法およびプログラム |
WO2015183550A1 (en) * | 2014-05-27 | 2015-12-03 | Bourbaki 13, Inc. | Determining three-dimensional information from projections or placement of two-dimensional patterns |
JP6694873B2 (ja) | 2014-08-28 | 2020-05-20 | ケアストリーム ヘルス インク | 歯の表面に従ってセンサ画素配列を照射画素配列にマッピングするための装置の作動方法、及び、歯の表面輪郭画像を提供する装置の作動方法 |
TWI503518B (zh) * | 2014-12-29 | 2015-10-11 | Pixart Imaging Inc | 測距方法與裝置 |
CN104729430B (zh) * | 2015-03-26 | 2017-09-22 | 中国科学院电工研究所 | 一种塔式太阳能热发电用定日镜面形检测方法 |
CN105464374B (zh) * | 2015-11-20 | 2018-02-06 | 河北省电力勘测设计研究院 | 建筑方格网控制点测量平差后的改正方法 |
AU2017227599A1 (en) * | 2016-03-01 | 2018-08-30 | Magic Leap, Inc. | Depth sensing systems and methods |
CH713447B1 (de) * | 2017-02-09 | 2020-08-14 | Besi Switzerland Ag | Verfahren und Vorrichtung für die Montage von Halbleiterchips. |
CN109996060B (zh) * | 2017-12-30 | 2021-09-03 | 深圳多哚新技术有限责任公司 | 一种虚拟现实影院系统及信息处理方法 |
JP6880512B2 (ja) | 2018-02-14 | 2021-06-02 | オムロン株式会社 | 3次元測定装置、3次元測定方法及び3次元測定プログラム |
JP2020102014A (ja) | 2018-12-21 | 2020-07-02 | 富士通株式会社 | 生体認証装置、生体認証プログラム、及び生体認証方法 |
CN111121664A (zh) * | 2019-12-18 | 2020-05-08 | 南京理工大学 | 一种类干涉镜面面型检测方法 |
DE102021205046A1 (de) * | 2021-05-18 | 2022-11-24 | Wmf Gmbh | Vorrichtung, Verfahren und Getränkeautomat zur Volumenbestimmung eines Behälters |
US20240255415A1 (en) * | 2023-01-31 | 2024-08-01 | Lawrence Livermore National Security, Llc | Optimal parameter selection for structured light metrology |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4640620A (en) * | 1983-12-29 | 1987-02-03 | Robotic Vision Systems, Inc. | Arrangement for rapid depth measurement using lens focusing |
US4584704A (en) * | 1984-03-01 | 1986-04-22 | Bran Ferren | Spatial imaging system |
FR2591329B1 (fr) * | 1985-12-10 | 1992-05-22 | Canon Kk | Appareil et procede de traitement d'informations tridimensionnelles |
US4982438A (en) * | 1987-06-02 | 1991-01-01 | Hitachi, Ltd. | Apparatus and method for recognizing three-dimensional shape of object |
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
US5619625A (en) * | 1993-05-28 | 1997-04-08 | Ricoh Company, Ltd. | Method for interpolating smooth free-form surfaces into curve mesh including composite curves |
JP2919284B2 (ja) * | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
-
1997
- 1997-06-12 BR BR9709679-2A patent/BR9709679A/pt not_active IP Right Cessation
- 1997-06-12 US US09/202,184 patent/US6510244B2/en not_active Expired - Fee Related
- 1997-06-12 DE DE69726025T patent/DE69726025T2/de not_active Expired - Lifetime
- 1997-06-12 AU AU30852/97A patent/AU712090B2/en not_active Ceased
- 1997-06-12 EP EP97925795A patent/EP1009969B1/de not_active Expired - Lifetime
- 1997-06-12 AT AT97925795T patent/ATE253721T1/de not_active IP Right Cessation
- 1997-06-12 KR KR1019980710262A patent/KR20000016663A/ko not_active Application Discontinuation
- 1997-06-12 WO PCT/BE1997/000070 patent/WO1997047942A1/en not_active Application Discontinuation
- 1997-06-12 JP JP10501003A patent/JP2000512012A/ja not_active Ceased
- 1997-06-12 IL IL12753497A patent/IL127534A/xx not_active IP Right Cessation
- 1997-06-12 CA CA002256587A patent/CA2256587A1/en not_active Abandoned
-
1998
- 1998-12-08 NO NO985746A patent/NO985746L/no not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10317078B4 (de) * | 2003-04-11 | 2013-03-28 | Karlsruher Institut für Technologie, Institut für Mess- und Regelungstechnik | Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen |
DE102017129737A1 (de) * | 2017-12-13 | 2019-06-13 | Hauni Maschinenbau Gmbh | Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie |
DE102021108232A1 (de) | 2021-03-31 | 2022-10-06 | Carl Zeiss Industrielle Messtechnik Gmbh | Messgerät zur 3D-Erfassung einer Oberfläche |
Also Published As
Publication number | Publication date |
---|---|
AU712090B2 (en) | 1999-10-28 |
IL127534A0 (en) | 1999-10-28 |
BR9709679A (pt) | 2000-01-11 |
US20020057832A1 (en) | 2002-05-16 |
NO985746L (no) | 1999-02-12 |
NO985746D0 (no) | 1998-12-08 |
EP1009969A1 (de) | 2000-06-21 |
AU3085297A (en) | 1998-01-07 |
US6510244B2 (en) | 2003-01-21 |
JP2000512012A (ja) | 2000-09-12 |
ATE253721T1 (de) | 2003-11-15 |
WO1997047942A1 (en) | 1997-12-18 |
DE69726025D1 (de) | 2003-12-11 |
EP1009969B1 (de) | 2003-11-05 |
CA2256587A1 (en) | 1997-12-18 |
KR20000016663A (ko) | 2000-03-25 |
IL127534A (en) | 2001-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69726025T2 (de) | Verfahren und vorrichtung zum erhalten einer dreidimensionalen form | |
DE112010004767B4 (de) | Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm | |
DE19983341B4 (de) | Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren | |
DE102008015499C5 (de) | Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts | |
DE102009023896B4 (de) | Vorrichtung und Verfahren zum Erfassen einer Pflanze | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE10020893B4 (de) | Verfahren zur optischen Formerfassung von Gegenständen | |
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
DE112016006262B4 (de) | Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen | |
DE10330011B4 (de) | Verfahren zur Hinderniserkennung und Geländeklassifikation | |
EP3433574B1 (de) | Vorrichtung zur 3-dimensionalen vermessung eines objekts, verfahren und computerprogramm mit bildbasierter auslösung | |
DE102008031942A1 (de) | Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts | |
EP1718926A1 (de) | Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts | |
EP3775767B1 (de) | Verfahren und system zur vermessung eines objekts mittels stereoskopie | |
DE102008002725A1 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
DE112018008035T5 (de) | Dreidimensionale Messvorrichtung | |
EP2019961B1 (de) | Verfahren zum erzeugen von bildinformationen | |
DE102018123717B4 (de) | Kalibriervorlage und Kalibrierverfahren zum geometrischen Kalibrieren einer Vielzahl von Kameras eines Kamera-Arrays | |
DE4426424C2 (de) | Vorrichtung zur rasterstereografischen Vermessung von Körperoberflächen | |
EP2504659B1 (de) | Vorrichtung und verfahren zur messung und kompensation von bewegungseinflüssen bei phasenschiebe-profilometern und dessen anwendung auf mobile, freihandgeführte profilometrie | |
DE102017010683A1 (de) | Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems | |
DE10359104B3 (de) | Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche | |
EP2660560A1 (de) | Verfahren zur Ermittlung der Oberflächengeometrie eines Tunnelabschnitts | |
DE102012013079B4 (de) | Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur | |
DE102019122421B4 (de) | Verfahren zur Messdatenauswertung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: EYETRONICS NV, HEVERLEE, BE |
|
8328 | Change in the person/name/address of the agent |
Representative=s name: MICHALSKI HUETTERMANN & PARTNER PATENTANWAELTE, 40 |