DE19604977A1 - Three-dimensional measurement method for dynamic spatial regions - Google Patents

Three-dimensional measurement method for dynamic spatial regions

Info

Publication number
DE19604977A1
DE19604977A1 DE1996104977 DE19604977A DE19604977A1 DE 19604977 A1 DE19604977 A1 DE 19604977A1 DE 1996104977 DE1996104977 DE 1996104977 DE 19604977 A DE19604977 A DE 19604977A DE 19604977 A1 DE19604977 A1 DE 19604977A1
Authority
DE
Grant status
Application
Patent type
Prior art keywords
image
spatial
significant
point
sources
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1996104977
Other languages
German (de)
Inventor
Walter Prof Dr Ing Ameling
Lothar Dipl Ing Thieling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ameling Walter Prof Dr-Ing 52080 Aachen De
Thieling Lothar Dipl-Ing Eynatten Be
Original Assignee
Ameling Walter Prof Dr-Ing 52080 Aachen De
Thieling Lothar Dipl-Ing Eynatten Be
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Abstract

The method involves calibrating an image acquisition device and sources of signal pattern generation to a common spatial coordinate system. A simultaneous set of images from several devices or a single image can be used. The sources perform central projection so that all theoretically possible significant points generated by a point on the signal pattern lie on a spatial line. The acquisition device operates by projection e.g. central. The sources are arranged so that each significant point image is accurately associated with a spatial line and with a significant point. In an alignment phase the global coordinates of all theoretically possible and relevant points are placed in a table indexed by the entered image positions. The spatial position coordinates are determined during a measurement phase from the image positions by reading the corresponding table entries.

Description

Technisches Gebiet technical field

Die Erfindung betrifft ein Verfahren zur schnellen Vermessung von dynamischen Raumbereichen. The invention relates to a method for the rapid measurement of dynamic space areas. Hierzu wird im Betriebszustand der zu vermessende Raumbereich mit einem strukturierten Signalmuster beaufschlagt, so daß durch die Strukturen des Signalmusters markante Raumpunkte hervorgehoben werden. For this purpose is acted upon in the operating state of the to be measured area with a textured pattern signal, so that will be highlighted by the structures of the signal pattern distinctive points in space. Von einem oder mehreren Bildaufnehmern werden Bilder des mit dem Signalmuster beaufschlagten Raumbereiches zeitgleich generiert und in eine rechnerverarbeitbare Form gebracht. Of one or more images of the image sensors acted upon by the signal pattern space region are simultaneously generated and brought into a form rechnerverarbeitbare.

Durch die Nutzung der a priori bekannten Menge aller möglichen durch die Signalmusterquelle generierten, markanten Raumpunkte können wesentliche durchzuführende Rechenschritte vorab in einer Einrichtphase durchgeführt und deren Ergebnisse in Tabellen festgehalten werden. known through the use of a priori set of all possible generated by the signal pattern source, distinctive points in space can be carried out essential calculation steps carried out in advance in a setup phase and their results are recorded in tables.

In der Vermessungsphase werden die Positionen (eingenommene Bildpositionen) der Abbilder der markanten Raumpunkte in den generierten Bildern berechnet und durch Auslesen der durch die eingenommenen Bildpositionen bestimmten Tabelleneintrage eine schnelle Berechnung der Raumkoordinaten der markanten Raumpunkte durchgeführt. In the measurement phase, the position (occupied image positions) of the images of the distinct points in space are calculated in the generated images and performed by reading out the determined by the assumed image positions table entries a quick calculation of the space coordinates of the prominent points in space.

In einer Ausführungsform des Verfahrens werden a priori die Weltkoordinaten aller möglichen markanten Raumpunkte berechnet und in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt. In one embodiment of the method a priori calculated world coordinates of all the possible striking points in space and stored in an indexed by the area occupied image positions table. In der Vermessungsphase werden die tatsächlich vorliegenden eingenommenen Bildpositionen berechnet und die Weltkoordinaten der markanten Raumpunkte durch Auslesen der entsprechenden Tabelleneinträge ermittelt. In the measurement phase, the actually present image occupied positions are calculated and determines the world coordinates of the prominent points in space by reading the appropriate table entries.

Zur Berechnung der Raumpunkte reicht ein zeitgleich gewonnener Satz von Bildern mehrerer Bildaufnehmer, mindestens jedoch ein Bild eines Bildaufnehmers, so daß bei einer genügend kurzen Dauer für die Bilderzeugung (z. B. unter Verwendung einer CCD-Kamera mit einer Belichtungszeit von 1/16000 Sekunden) auch sich in ihrem geometrischen Aufbau schnell verändernde Raumbereiche vermessen werden können. To calculate the spatial points reaches a time equal derived set of images of a plurality imager, but at least one image of an image recorder so that (with a sufficiently short time for the image formation z., Using a CCD camera with an exposure time of 1/16000 seconds ) rapidly changing room areas can be measured in their geometric structure as well.

Typische Anwendungsbereiche des Verfahrens sind: Die schnelle Vermessung vom gefertigten Teilen zwecks Qualitätskontrolle, die Ermittlung des geometrischen Aufbaus von Raumbereichen zwecks Kollisionsvermeidung von Handhabungsgeräten, die Ermittlung der Lage und Orientierung bzw. der Identifikation von Bauteilen oder Baugruppen zwecks Montage durch Handhabungssysteme. Typical applications of the method are: the rapid measurement of manufactured parts for quality control purposes, the determination of the geometric structure of space areas for the purpose of collision avoidance of handling devices, the determination of the location and orientation or the identification of components or assemblies for the purpose of assembly by handling systems.

Zugrundeliegender Stand der Technik Underlying the art

Grundsätzlich können anhand der zur dreidimensionalen Vermessung verwendeten physikalischen Prinzipien drei auf verschiedenen Meßprinzipien basierende existierende Verfahrensansätze unterschieden werden: Basically three different measuring principles based on existing methods approaches can be distinguished by the physical principles used for three-dimensional measurement:

  • - Radarverfahren - radar method
  • - Interferometrische Verfahren - Interferometric methods
  • - Triangulationsverfahren - triangulation

Im weiteren soll kurz das wesentliche dieser Verfahrensansätze sowie verschiedene Implementierungen dargestellt werden. In another short, the essence of this method approaches and different implementations to be displayed.

Die Radarverfahren basieren auf der Aussendung elektromagnetischer Wellen und Auswertung der an den Objekten entstehenden Reflexionen. The radar methods are based on the emission of electromagnetic waves and evaluation of the resulting objects to the reflections. Eine Radaranordnung besteht aus einem Sender zur gerichteten Aussendung von Wellen und einem sich am Ort des Senders befindlichen Empfänger zur Messung der aus der Senderichtung zurückgeworfenen Reflexionen wobei sich aus der Zeitdauer zwischen Aussendung und Empfang eines Signals die Entfernung des reflektierenden Objektes zum Empfänger bzw. Sender ergibt. A radar system consists of a transmitter for directional transmission of waves and a receiver is located at the location of the transmitter for the measurement of reflected from the transmit direction reflections wherein the distance of the reflecting object to the receiver or transmitter results from the time between transmission and reception of a signal , Die Erfassung weiträumiger Bereiche geschieht durch Variieren der Senderichtung mittels einer mechanischen Scan- Vorrichtung. The long-range detection areas is effected by varying the transmission direction by means of a mechanical scanning device. Eine zeitgleiche Erfassung des gesamten zu vermessenden Raumbereiches ist somit nicht möglich. A simultaneous acquisition of the entire area to be surveyed area is not possible. In [LEWI77], [JARV83], [HEIK86], [BANI87] [MORI89] werden Implementierungen dieses Verfahrensansatzes vorgestellt bei denen das Sendesignal gepulst ist. In [LEWI77], [JARV83], [HEIK86], [BANI87] [MORI89] implementations of this method approach presented in which the transmission signal is pulsed. Die in in [PERC87], [MILL87], [BING87] [NITZ77], [ZUK83], [SAMP87], [SVET84] [BOUL86], [WEHR89] dargestellten Implementierungen arbeiten mit amplitudenmodulierten und die in [HERS87] und [BEHE86] aufgeführten Implementierungen mit frequenzmodulierten Sendesignalen. The implementations shown in in [PERC87], [MILL87], [BING87] [NITZ77], [ZUK83], [SAMP87], [SVET84] [BOUL86], [WEHR89] work with amplitude-modulated and in [HERS87] and [BEHE86 ] implementations listed with frequency-modulated transmission signals.

Interferometrische Verfahren gewinnen räumliche Informationen unter Ausnutzung der Überlagerungserscheinungen von Wellen. Interferometric methods gain spatial information by taking advantage of the superposition of waves phenomena. Hierzu wird der Effekt der Schwebung ausgenutzt, der bei der Überlagerung zweier annähernd gleichfrequenter periodischer Signale auftritt. To this end, the effect of the beat is utilized which occurs in the superposition of two approximately gleichfrequenter periodic signals. Hinsichtlich der Art der periodischen Signale, die zur Tiefendatengewinnung überlagert werden ergeben sich grundsätzlich zwei verschiedene Varianten: Regarding the type of the periodic signals, which are superimposed on the depth data extraction result basically two different ways:

  • - Moir´-Verfahren mit der Überlagerung räumlich modulierter Signale - Moir' method with the superposition of spatially modulated signals
  • - Holographische Verfahren mit der Überlagerung phasenverschobener kohärenter Lichtwellen - Holographic methods with the superposition of phase-shifted coherent light waves

Entscheidend für die Bewertung dieser Varianten ist die Tatsache, daß der vermeßbare Raumbereich in seiner Ausdehnung in Richtung der Tiefenmessung nur wenige Wellenlängen der verwendeten periodischen Signale beträgt. Decisive for the evaluation of these variants is the fact that The accessible space area is only a few wavelengths of the periodic signals used in its extension in the direction of the depth measurement.

Das Prinzip der Moir´-Verfahren ist die Auswertung der sich aus der Überlagerung zweier räumlich amplitudenmodulierter Signale ergebenden Schwebung. The principle of Moir' process is the evaluation of the results from the superposition of two spatially amplitude modulated signals beat. Bei den Moir´-Verfahren wird die zu vermessende Szene mittels eines Projektors durch ein Gitter hindurch beleuchtet und von einer sich vor dem Gitter befindlichen CCD-Kamera betrachtet. In the Moir' method to be measured scene is illuminated by a projector by a grid through and viewed from a situated in front of the grating CCD camera. Hierbei interferiert das aufprojizierte Lichtmuster mit dem Muster des Gitters. Here, the aufprojizierte light pattern with the pattern of the grid interferes.

Implementierungen finden sich in [KHEA75], [REID86], [SHAR90], [SEIB90], [KURZ90], [ZAWI90], [SRIN85], [BOEH86], [HACH93]. Implementations can be found in [KHEA75], [REID86], [SHAR90], [SEIB90], [KURZ90], [ZAWI90], [SRIN85], [BOEH86], [HACH93].

Im Gegensatz zu den Moir´-Verfahren, die auf der Interferenz von Lichtmustern basieren, nutzen die holographischen Verfahren die Überlagerungseigenschaften kohärenter Lichtwellen. Unlike the Moir' process, based on the interference of light patterns, holographic methods use the superposition characteristics of coherent light waves. Die zu vermessende Szene wird mit kohärenten Lichtwellen beleuchtet, die nach passieren eines Halbspiegels sowohl an einem Referenzobjekt (Referenzwellen) als auch an dem zu vermessenden Objekt (Objektwellen) reflektieren und als weiterhin kohärente Lichtwellen in der Beobachtungsebene interferieren. To be measured scene is illuminated with coherent light waves that pass by a half mirror interfere both a reference object (reference wave) and to the object to be measured (object wave) reflect and as further coherent light waves in the observation plane. Das dabei entstehende Muster ergibt sich aus den jeweiligen Phasendifferenzen zwischen den Objekt- und Referenzwellen, so daß hieraus die Tiefeninformationen gewonnen werden können. The resulting pattern resulting from the respective phase differences between the object and reference waves therefrom so that the depth information can be obtained.

Implementierungen dieser Verfahren finden sich in [OKAD90], [SAM90], [TIZI87], [PANT86], [SASA86], [DAND85], [HERC90], [HOEL91], [TOZE85], [wUER85]. Implementations of this method can be found in [OKAD90], [SAM90], [TIZI87], [PANT86], [SASA86], [DAND85], [HERC90], [HOEL91], [TOZE85], [wUER85].

Triangulationsverfahren basieren auf einem geometrischen Ansatz, bei dem durch Auswertung von bekannten Abständen und Winkeln unter Ausnutzung der fundamentalen Zusammenhänge zwischen den Seiten und Winkeln eines Dreiecks Raumpunkte vermessen werden. Triangulation based on a geometrical approach in which space points are measured by evaluation of known distances and angles by utilizing the fundamental relationships between the sides and angles of a triangle. Die verschiedenen Varianten können nach der Art der verwendeten Systemkomponenten wie folgt unterschieden werden: The different versions can be distinguished by the type of system components used as follows:

  • - Laser-Scan-Verfahren, - laser scanning method,
  • - Lichtschnittverfahren, - beam method,
  • - Stereoskopische Verfahren. - Stereoscopic method.

Laser-Scan-Verfahren führen eine mittels eines Lasers erzeugte punktförmige Beleuchtung über den zu vermessenden Raumbereich wobei die Reflexion des Beleuchtungspunktes mittels eines lichtempfindlichen Positionsdetektors ermittelt und daraus der Ort des Lichtpunktes bestimmt wird. Laser scanning methods result in a generated by a laser spot illumination over the spatial region to be measured with the reflection of the illumination point determined by means of a photosensitive position detector and from this the location of the light spot is determined. Implementierungen dieser Variante finden sich in [RIOU93], [HARD86], [RIOU84], [JUHA87], [BICK85], [CYBE87], [LORE86], [SELC87], [PIPI83], [HARR90], [SEIT86], [GOTT87]. Implementations of this variant can be found in [RIOU93], [HARD86], [RIOU84], [JUHA87], [BICK85], [CYBE87], [LORE86], [SELC87], [PIPI83], [HARR90], [SEIT86] [GOTT87].

Die Lichtschnittverfahren projizieren streifenförmige Lichtmuster in den zu vermessenden Raumbereich und erfassen die Reflexionen dieser Lichtsteifen mittels elektronischer Bildaufnehmer. The light section method project stripe-shaped light pattern in the spatial region to be measured and capture the reflections of these light strips by means of electronic image recorder. Da die Bildaufnehmer stets nicht fluchtend zur Projektionsrichtung der Lichtstreifen ausgerichtet sind, erscheinen die Reflexionen der Lichtstreifen abhängig vom Tiefenverlauf des mit dem Lichtstreifen beaufschlagten Raumbereiches mehr oder weniger deformiert. Since the image sensor are always misaligned to the projection direction of the light strips, the reflections of light streaks appear depending on the depth profile of the applied with the light stripe space area more or less deformed. Aus diesen Deformationen lassen sich unter Kenntnis der Lage und Orientierung vom Lichtstreifenprojektor und Bildaufnehmer die Raumkoordinaten der beaufschlagten Raumpunkte bestimmen. These deformations of the position and orientation of the light stripe projector and image sensor can be determined the spatial coordinates of points in space is acted upon with knowledge. Die verschiedenen Realisierungen des Lichtschnittverfahrens unterscheiden sich in der Art der Erzeugung des Lichtstreifenmusters. The various implementations of the beam method differ in the mode of production of the light stripe pattern. So existieren Verfahren, die mittels einer Zylinderoptik einen Laserstrahl zu einer Lichtebene umformen [SILV86], [CYBE87], [OZEK86]. Thus, methods exist which a laser beam into a light plane transform means of a cylindrical lens [SILV86], [CYBE87], [OZEK86]. Die Erfassung der gesamten Szene erfolgt durch Auswertung mehrerer hintereinander gewonnener Aufnahmen. Capturing the entire scene by evaluating several shots in succession won. Hierbei wird durch Änderung der Projektionsrichtung der Lichtebene die Position des projizierten Lichtstreifens zwischen den Aufnahmen variiert. Here, it is varied by changing the projection direction of the light plane, the position of the projected light stripe between shots. Die in [INOK84], [SATO84], [STAH90] vorgestellten implementierten Lichtschnittverfahren führen eine sequentielle Beleuchtung der Szenen mit unterschiedlichen binärkodierten Streifenmustern durch [INOK84], [SATO84], [STAH90]. The results presented in [INOK84], [SATO84], [STAH90] implemented light technique carry a sequential lighting of the scenes with different binary coded stripe patterns by [INOK84], [SATO84], [STAH90]. Die Identifikation eines virtuellen Streifens wird hierbei an Hand der Helligkeitsfolge, die während der Beleuchtungssequenz durchlaufen wird, ermittelt. The identification of a virtual strip is here at hand the brightness sequence that is run during the illumination sequence determined.

Im Gegensatz zu allen bisher aufgeführten Verfahren, die den zu vermessenden Raumbereich mit definierten Signalmustern beaufschlagen und deren Reflexionen mittels eines Sensors detektieren, benötigen die stereoskopischen Verfahren keine definierten Signalmuster sondern gewinnen die räumliche Information mittels zweier oder mehrerer passiver CCD-Kameras, die nur unter Ausnutzung der Umgebungsbeleuchtung Bilder von Szenen erzeugen. Unlike all previously listed procedures that apply to be surveyed area with defined signal patterns and detect their reflections by a sensor, stereoscopic methods require no defined signal pattern but win the spatial information by two or more passive CCD cameras that only taking advantage generate ambient light images of scenes. Auch hier wird nach dem Prinzip der Triangulation unter Voraussetzung bekannter Lagen und Orientierungen der verschiedenen Kameras zueinander die Raumpunktberechnung durchgeführt. Again, the triangulation is performed, the spatial point calculation condition known positions and orientations of the various cameras to one another according to the principle. Hierbei wird von der Tatsache Gebrauch gemacht, daß die Bildgenerierung der Kameras auf eine zentralprespektivische Projektion zurückgeführt werden kann. Here, it is made use of the fact that the image generation of the cameras can be attributed to a zentralprespektivische projection.

Für die Raumpunktberechnung müssen in den verschiedenen Bildern korrespondierende Bildpunkte herangezogen werden. For the space point calculation in the various images corresponding image points must be used. Das Auffinden solcher korrespondierenden Bildpunkte ist recht aufwendig und ggf. nicht eindeutig, so daß die Lösung dieses Korrespondenzproblems die Meßrate dieser Verfahren drastisch einschränkt. Finding such corresponding pixels is quite expensive and may not be unique, so that the solution of this correspondence problem limits the sample rate of these processes dramatically.

Da diese passiven Verfahren keine markanten Raumpunkte mittels Beleuchtung hervorheben sind sie auf das Vorhandensein von perse markanten Raumpunkten z. Since these passive methods emphasize no marked points in space by means of lighting they are on the presence of distinctive spatial points perse z. B. in Form von Objektecken oder -Kanten angewiesen. As instructed in the form of object corners or edges. Strukturlose Objekte, wie z. Structureless objects such. B. eine einfarbige Kugeloberfläche können nicht vermessen werden. As a monochrome spherical surface can not be measured.

Implementierungen dieses Verfahrens finden sich in [SHAH89], [FÖHR90], [STEU88], [ZHAO91], [CHIO91], [AYAC88], [ITO86]. Implementations of this process are found in [SHAH89], [FÖHR90], [STEU88], [ZHAO91], [CHIO91], [AYAC88], [ITO86].

Ein Vergleich der verschiedenen Verfahrensansätze und deren oben aufgeführter Implementierungen kann an Hand der für den Einsatz eines Sensorsystems im industriellen Umfeld wesentlich relevanten technischen Leistungsmerkmale wie A comparison of the different procedures and their approaches listed above implementations, with reference to the significantly relevant for the use of a sensor system in industrial environments such as technical performance

  • - die Genauigkeit der Messung und - the accuracy of measurement and
  • - die Meßrate - the measuring rate
  • - Tiefenmeßbereich - Tiefenmeßbereich

vorgenommen werden. be made.

Hierbei zeigt sich, daß die interferometrischen Verfahren, die eine Szenenauswertung nicht unter einer Sekunde erlauben, für Anforderungsprofile mit höchster Genauigkeit von bis zu unter zeitlich unkritischen Randbedingungen nur für Anwendungen mit geringem Tiefenmeßbereich prädestiniert sind. This reveals that the interferometric methods that do not allow a scene under a second evaluation, are predestined for up requirement profiles with the highest accuracy of time to be non-critical conditions only for applications with low Tiefenmeßbereich.

Laserbasierte Triangulationsverfahren erreichen Genauigkeiten von bis zu 10 -7 m bei einer Szenenauswertung im Subsekundenbereich. Laser-based triangulation achieve an accuracy of up to 10 -7 m in a scene analysis in the subsecond range. Sie weisen jedoch aufgrund des verfahrensbedingten Abtastens der Szene Meßwerterfassungszeiten auf, die eine Auswertung dynamischer Vorgänge nur sehr bedingt zulassen. but as a result of the process-related scanning the scene on Meßwerterfassungszeiten that allow an evaluation of dynamic processes only partly.

Stereoskopische Triangulationsverfahren ermöglichen bei einer Genauigkeit von bis zu 10 -4 m eine Szenenauswertung in mehreren Sekunden, sind jedoch für die Vermessung strukturloser Objekte und Objektteile (z. B. Freiformflächen) nicht anwendbar. Stereoscopic triangulation methods enable with an accuracy of up to 10 -4 m a scene analysis in several seconds, however, for the measurement structureless objects and object parts (z. B. freeform surfaces) are not applicable.

Lichtschnittverfahren unter Verwendung von CCD-Kameras und flächendeckenden Lichtmustern erlauben eine Szenenauswertung mit mittlerer Genauigkeit (10 -3 m-10 -4 m) im Subsekundenbereich. Light-section method using CCD cameras and area-wide light patterns allow a scene evaluation with medium accuracy (10 m -3 10 -4 m) in the subsecond range. Hierbei werden jedoch in zeitlicher Abfolge generierte Bilder der Szene benötigt, wodurch eine untere Grenze für die Meßwerterfassungszeit gegeben ist, so daß dynamische Vorgänge nur bedingt erfaßbar sind. In this case generated in a time sequence images of the scene, however, are needed whereby a lower limit for the Meßwerterfassungszeit is given so that dynamic events are only partly detected.

Die für viele Anwendungfälle wünschenswerten Eigenschaften an eine Raumvermessung wie die Möglichkeit The desirable for many applications properties to a room measuring as possible

  • - der Vermessung dynamischer Raumbereiche bei großem Tiefenmeßbereich - the measurement of dynamic space areas with a large Tiefenmeßbereich
  • - der schnellen Raumpunktberechnung durch konsequente Ausnutzung von a priori bekannten Gegebenheiten und - the rapid spatial point calculation known through consistent utilization of a priori conditions and
  • - die Vermessung auch strukturloser Raumbereiche - the survey also structureless space areas

werden von dem hier vorgestellten Verfahren in einzigartiger Weise kombiniert. are combined by the method presented here in a unique way.

Offenbarung der Erfindung Disclosure of the Invention

Der Erfindung liegt die Aufgabe zu Grunde Raumbereiche in deren geometrischem Aufbau schnell zu vermessen, insbesondere auch dann noch, wenn sich der geometrische Aufbau des Raumbereichs schnell verändert. The invention is based on the object of space areas in their geometric structure to measure quickly, especially then, when the geometric structure of the space region is rapidly changing. Dies ist z. This is for. B. bei der Vermessung sich bewegender Objekte der Fall. As in the measurement of moving objects the case.

Das Prinzip des Verfahrens gestaltet sich wie folgt: The principle of the method is as follows:

Das von einer Signalmusterquelle erzeugte Lichtmuster generiert markante Raumpunkte in der von einem Bildaufnehmer betrachteten Szene. The light pattern generated by a signal pattern source generates distinctive points in space in the considered by an image recorder scene. Da die Signalmusterquelle projizierend arbeitet, liegen alle theoretisch möglichen durch einen Punkt (Dn) des Signalmusters generierbaren Raumpunkte (Rn1 bis Rnm) auf einer Raumgeraden (Ln). Since the signal pattern source operates Projective, all theoretically possible by a point (Dn) are the signal pattern can be generated spatial points (Rn1 to Rnm) on a spatial straight line (Ln).

Durch eine Kalibrierung des Bildaufnehmers wird ein mathematischer Zusammenhang ermittelt, mit dem sowohl aus den Weltkoordinaten eines Raumpunktes die Position seines Abbildes im Bild des Bildaufnehmers (eingenommene Bildposition Pnm) als auch aus der eingenommenen Bildposition (Pnm) die Projektionsgerade (Mnm) berechnet werden kann. Through a calibration of the image sensor, a mathematical relationship is determined, the projection line (Mnm) can be calculated with the position of its image in the image of the image recorder (occupied image position Pnm) and from the ingested image position both from the world coordinates of a point in space (Pnm). Die Verfahren zur Kalibrierung sind bekannt [MEIS93]. The method for calibration are known [MEIS93].

Durch eine Kalibrierung der Signalmusterquelle wird zu jedem Punkt des Signalmusters (D1 . . . Dn) die Raumgerade im Weltkoordinatensystem bestimmt, auf der alle markanten Raumpunkte liegen. Through a calibration of the signal pattern source (. Dn D1..) Is added to each point of the signal pattern determines the space straight line in the world coordinate system, are on the all striking points in space. Ein mögliches Verfahren zur Kalibrierung der Signalmusterquelle wird im Ausführungsbeispiel genannt. A possible method for the calibration of the signal pattern source is mentioned in the embodiment. Das Ergebnis dieser Kalibrierung ist die Kenntnis der Lage und Orientierung der Raumgeraden im Weltkoordinatensystem und eine eindeutige Kennung (z. B. Numerierung) der Raumgeraden. The result of this calibration is the knowledge of the position and orientation of the spatial straight line in the world coordinate system and a unique identifier (eg. B. numbering) said spatial straight line.

Aufgrund des projizierenden Abbildungsverhaltens des Bildaufnehmers finden sich die Raumgeraden (Ln) als Gerade (Epipolarlinie En) in der Bildebene des Bildaufnehmers wieder. Due to the projected imaging behavior of the imager, the space line (Ln) found as a straight line (epipolar En) in the image plane of the image recorder again.

Die Epipolarlinien stellen somit alle theoretisch möglichen Abbilder der durch die Signalmusterquelle generierten markanten Raumpunkte dar. The epipolar lines thus represent all theoretically possible images of the generated by the signal pattern source striking points in space.

Eine eindeutige Zuordnung einer Raumgeraden (Ln) zu einer eingenommenen Bildposition (Pnm) ist dann gegeben, wenn folgende Bedingungen erfüllt sind: Clear allocation of space line (Ln) to an assumed screen position (P nm) is given if the following conditions are met:

  • - Zu einer eingenommenen Bildposition (Pnm) existiert genau eine Epipolarlinie (En). - For an assumed screen position (P nm) there is exactly one epipolar line (En).
  • - Zu einer Epipolarlinie (En) existiert genau eine Raumgerade (Rn). - For an epipolar line (En) there is exactly one space line (Rn).

Diese Bedingungen lassen sich, wie im Ausführungsbeispiel gezeigt, durch eine geeignete Wahl des Signalmusters und einer geeigneten relativen Lage und Position der Signalmusterquelle zum Bildaufnehmer theoretisch für eine beliebige Anzahl von Raumgeraden bzw. Epipolarlinien erfüllen. These conditions can be as shown in the exemplary embodiment, satisfied by a suitable choice of the signal pattern and an appropriate relative location and position of the signal pattern source to the imager for theoretically any number of spatial straight or epipolar lines. In der Praxis ist deren Anzahl jedoch durch das Auflösungsvermögen des Bildaufnehmers begrenzt. In practice, the number of which is limited by the resolution of the image sensor.

Sind die og Bedingungen erfüllt, so kann durch Bestimmung der Zugehörigkeit einer eingenommenen Bildposition (Pnm) zur einer Epipolarlinie (En) die korrespondierende Raumgerade (Ln) ermittelt werden. If the above mentioned conditions are fulfilled, the corresponding space straight line (Ln), by determining the affiliation of an image occupied position (Pnm) for an epipolar line (En) are determined. Ist die Lage und Orientierung der Raumgerade im Weltkoordinatensystem bekannt, so kann der zur eingenommenen Bildposition (Pnm) korrespondierende markante Raumpunkt (Rnm), der den Schnittpunkt der Projektionsgeraden mit der Raumgeraden darstellt, berechnet werden. If the position and orientation of the space straight line in the world coordinate system is known, the area occupied on the image position (Pnm) can corresponding salient point in space (Rnm) which represents the intersection of the projection lines with the spatial straight line can be calculated.

Man kann somit eine Zuordnungsvorschrift ZL aufstellen, die einer eingenommenen Bildposition (Pnm) genau eine Raumgerade zuordnet (ZL: Pnm→Ln). It is thus not an assignment rule ZL, the one occupied image position (P nm) exactly one space straight assigns (ZL: P n → Ln). Desweiteren läßt sich eine Zuordnungsvorschrift ZR aufstellen, die einer eingenommenen Bildposition (Pnm) genau einen markanten Raumpunkt (Rnm) und dem markanten Raumpunkt (Rnm) genau eine eingenommene Bildposition (Pnm) zuordnet (ZR: Pnm↔Rnm). Furthermore, an association rule ZR the one occupied image position (Pnm) precisely a distinctive point in space (Rnm) and the striking point in space (Rnm) can be set up, just an area occupied image position (Pnm) assigns (ZR: Pnm↔Rnm).

Bei einer festen geometrischen Anordnung von Signalmusterquelle und Bildaufnehmer lassen sich a priori gemäß der Zuordnungsvorschriften ZR bzw. ZL drei durch die eingenommenen Bildpositionen indizierte Tabellen (ZR:Raumbelegungstabelle, ZL:Raumgeradentabelle und Korrespondenztabelle) erstellen. (ZL occupancy table: ZR room straight table and correspondence table) at a fixed geometric arrangement of signal pattern source and image receptor to a priori blank according to the assignment rules ZR and ZL three occupied by the image positions indexed tables create. Die Raumbelegungstabelle enthält die Weltkoordinaten aller bei der entsprechenden geometrischen Anordnung theoretisch möglichen und sich im Sichtfeld des Bildaufnehmers befindlichen markanten Raumpunkte. The occupancy table contains the world coordinates of all theoretically possible at the corresponding geometrical arrangement and located in the field of view of the imager distinctive points in space. Die Raumgeradentabelle enthält die Geradenparameter der den eingenommenen Bildpositionen jeweils zuordbaren Raumgeraden. The space table contains precisely the straight line parameters of the image positions occupied respectively assignable spatial straight line. Die Korrespondenztabelle enthält die den eingenommenen Bildpositionen jeweils zuordbaren für alle Bildaufnehmer gleichen und eindeutigen Kennungen (z. B. Nummern) der Raumgeraden. The correspondence table includes the image positions occupied in each case can be associated with the same for all image recorder and unique identifiers (z. B. numbers) of the spatial straight line.

Da die Anzahl der auf einer Epipolarlinie liegenden eingenommenen Bildpositionen unendlich ist, muß im Rahmen der Realisierung des Verfahrens eine sinnvolle Reduzierung der möglichen eingenommenen Bildpositionen erfolgen. Since the number of lying on an epipolar line occupied image positions is infinite, must be carried out within the framework of realization of the process of a sensible reduction of the possible positions occupied image. So kann z. Thus, can. B. eine Diskretisierung der Epipolarlinien vorgenommen werden, die unterhalb der erreichbaren Auflösungsgenauigkeit des Bildaufnehmers liegt und somit nicht begrenzend auf die Meßgenauigkeit wirkt. B. a discretization of the epipolar lines are made, which is below the achievable resolution accuracy of the image sensor and thus do not have a limiting effect on the measurement accuracy.

In den Verfahren nach Anspruch 1, 2 und 3 wird in der Einrichtphase eine Kalibrierung der Bildaufnehmer und der Signalmusterquellen bezüglich eines Weltkoordinatensystems vorgenommen. In the method according to claim 1, 2 and 3, a calibration of the image sensor and the signal pattern sources is made with respect to a world coordinate system in the setup phase.

In den Verfahren nach Anspruch 1 werden in der Einrichtphase gemäß der Zuordnungverschrift ZR für jede eingenommene Bildposition (Pnm) die Weltkoordinaten des korrespondierenden markanten Raumpunktes (Rnm) mittels bekannter Verfahren (z. B. Triangulation) berechnet und in einer durch die eingenommene Bildposition indizierten Tabelle (Raumbelegungstabelle) vermerkt. In the method of claim 1 (Pnm) are calculated world coordinates of the corresponding striking spatial point (Rnm) by known methods (eg. As triangulation) in the setup phase of the Zuordnungverschrift ZR for each occupied image position and in an indexed by the area occupied image location table (space allocation table) noted. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Weltkoordinaten der vorliegenden markanten Raumpunkte (Rnm) bestimmt. In the measurement phase (Pnm) are read out of the respective table entries, the world coordinates of the present distinctive spatial points (Rnm) after determination of the present image occupied positions.

In den Verfahren nach Anspruch 2 wird in der Einrichtphase gemäß der Zuordnungverschrift ZL für jede eingenommene Bildposition (Pnm) die korrespondierenden Raumgerade (Rnm) in Form ihrer Geradenparameter ermittelt und in einer durch die eingenommene Bildposition indizierten Tabelle (Raumgeradentabelle) vermerkt. In the method according to claim 2 (Pnm) is determined, the corresponding space straight line (Rnm) in the form of their straight line parameters and in an indexed by the area occupied image location table (room straight table) indicated in the setup phase of the Zuordnungverschrift ZL for each occupied image position. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Geradenparameter der korrespondierenden Raumgeraden (Rnm) ermittelt. In the measurement phase (Pnm) the line parameters of the corresponding spatial straight line (Rnm) are determined by determination of the present image positions occupied by reading out the corresponding table entries. Der Raumpunkt kann dann mittels bekannter Verfahren z. The spatial point may then by known methods such. B. auf Basis der Triangulation, dh als Schnittpunkt der Raumgeraden (Rnm) mit der Projektionsgeraden (Mnm), berechnet werden. B. on the basis of triangulation, that is, as the intersection of the straight line in space (Rnm) with the projection line (Mnm) are calculated.

In den Verfahren nach Anspruch 3 wird in der Einrichtphase gemäß der Zuordnungvorschrift ZL für jede eingenommene Bildposition (Pnm) die korrespondierenden Raumgerade (Rnm) in Form einer eindeutigen Raumgeradenkennung (z. B. Nummer) ermittelt und in einer durch die eingenommene Bildposition indizierten Tabelle (Korrespondenztabelle) vermerkt. In the method according to claim 3 (Pnm) is in the set-up phase in accordance with the allocation rule ZL for each occupied image position determines the corresponding space straight line (Rnm) in the form of a clear space Especially identifier (z. B. Number), and (in an indexed by the area occupied image location table correspondence table) noted. In der Vermessungsphase werden nach Bestimmung der vorliegenden eingenommenen Bildpositionen (Pnm) durch Auslesen der entsprechenden Tabelleneinträge die Raumgeradenkennungen ermittelt. In the measurement phase (Pnm) are determined by reading out the corresponding table entries for the spatial identifiers Just after determination of the present image occupied positions. Die Raumgeradenkennungen sind für alle Bildaufnehmer identisch und eindeutig, so daß durch diese Kennung korrespondierende eingenommene Bildpositionen in den Bildern mehrerer Bildaufnehmer bestimmt werden können und somit das allgemein als Korrespondenzproblem bekannte Problem gelöst wird. The space Especially identifiers are identical for all imager and unambiguously, so that corresponding occupied image positions can be determined in the images of a plurality imager by this identifier, and thus the generally known as the correspondence problem problem is solved. Die Berechnung der Raumpunkte anhand korrespondierender eingenommener Bildpositionen wird dann mit bekannten Verfahren durchgeführt. The calculation of the spatial points on the basis of corresponding ingested image positions is then performed by known methods.

Da bei den Verfahren nach Anspruch 1 oder 2 der 3 die Vermessung des Raumbereiches anhand nur eines einzigen zeitgleich gewonnenen Satzes von Bildern mehrerer Bildaufnehmer bzw. eines Bildes eines Bildaufnehmers durchgeführt wird, kann die bildliche Erfassung des Raumbereiches von beliebig kurzer Dauer sein. Since the 3, the measurement of the spatial region is carried out on the basis of only one simultaneously obtained set of images from multiple image sensor or an image of an image receptor in the methods according to claim 1 or 2, the visual detection of the spatial area of ​​an arbitrarily short period may be. Somit kann selbst von dynamische Szenen (z. B. sich bewegende Objekte) eine Momentaufnahme gemacht werden, so daß konsistente Vermessungsdaten garantiert sind. Thus of dynamic scenes (z. B. moving objects) can be made a snapshot of themselves so that consistent survey data are guaranteed. Eine Möglichkeit der kurzzeitigen bildlichen Erfassung des Raumbereiches wird im Ausführungsbeispiel gegeben. One possibility for the short-term visual detection of the space area is given in the embodiment.

Erläuterung der Zeichnungen Explanation of the Drawings

Fig. 1 zeigt die prinzipiellen technischen Zusammenhänge des Verfahrens bezüglich der Signalmuster (Dn), der Raumgeraden (Ln), der Raumpunkte (Rnm), der Projektionsgeraden (Mnm), der Epipolarlinien (En) und der eingenommenen Bildpositionen (Pnm) Fig. 1 shows the basic technical aspects of the process with respect to the signal pattern (Dn), said spatial straight line (Ln) of the spatial points (Rnm), the projection line (Mnm), the epipolar lines (En) and the assumed image positions (Pnm)

Fig. 2 zeigt den prinzipiellen Sensoraufbau eines Ausführungsbeispiels des Verfahrens. Fig. 2 shows the basic sensor structure of an embodiment of the method.

Fig. 3 zeigt die prinzipielle Vorgehensweise des Verfahrens Fig. 3 shows the basic procedure of the method

Fig. 4 zeigt die geometrischen Zusammenhänge bei einer Ausführungsform der Kalibrierung der Signalmusterquelle durch Vermessung der Raumgeraden mittels zweier kalibrierter Kameras. Fig. 4 shows the geometrical relationships in one embodiment of calibration of the signal pattern source by measuring the spatial straight line by means of two calibrated cameras.

Fig. 5 und Fig. 6 zeigen geometrischen Zusammenhänge zur Ableitung der geometrischen Randbedingungen für die Erzeugung paralleler und äquidistanter Epipolarlinien. Fig. 5 and Fig. 6 show geometrical relationships used to derive the geometric boundary conditions for the generation of parallel and equidistant epipolar lines.

Fig. 7 stellt für ein Ausführungsbeispiel das Signalmuster dar, das bei einem Winkel von 60° zwischen den Hauptachsen von Projektor und Kamera für die Erzeugung paralleler und äquidistanter Epipolarlinien benötigt wird. Fig. 7 for an exemplary embodiment illustrates the signal pattern that is required at an angle of 60 ° between the major axes of the projector and the camera for generating parallel and equidistant epipolar lines.

Ausführungsbeispiel der Erfindung Embodiment of the invention Aufbau und Komponenten Design and components

Fig. 2 stellt eine Ausführungsform der Erfindung dar, bei der ein Bildaufnehmer in Form einer CCD-Kamera und eine Signalmuster quelle in Form eines Projektors nach dem Funktionsprinzip des Diaprojektors zum Einsatz kommen. Fig. 2 illustrates an embodiment of the invention in which an image sensor in the form of a CCD camera and a signal pattern come source in the form of a projector according to the functional principle of the slide projector for use. Die Lichtquelle des Projektors besteht aus einem Blitzlicht, das eine kurzzeitige Signalmusterbeaufschlagung ermöglicht. The light source of the projector consists of a flashlight that enables a momentary Signalmusterbeaufschlagung. Als CCD-Kamera kommt eine asynchron shutterbare Kamera (z. B. PULNIX TM9700) zum Einsatz. As a CCD camera asynchronously shutterbare camera (z. B. PULNIX TM9700) is used. Die asynchrone Bildaufnahme der Kamera wird auf ein Signal zur Auslösung des Blitzes synchronisiert. The asynchronous image recording of the camera is synchronized with a signal for triggering the flash. Hierdurch wird neben einer kurzzeitigen Bilderfassung auch die Anhebung des Lichtmusters gegenüber des Umgebungslichtes durchgeführt. In this way, in addition to a brief image capture and raising the light pattern with respect to the ambient light is performed. Sowohl die Kamera als auch der Projektor werden zentralprojizierend angenommen. Both the camera and the projector are centrally Projective accepted. Das Signalmuster ist hierbei ein sichtbares Lichtmuster. The signal pattern here is a visible light pattern.

Aufbauend auf signaltheoretischen Modellen ([LENZ88], [NEGI87], [LI88], [CLAR93]) wird durch eine geeignete Wahl des verwendeten Lichtmusters in Form von Kreisflächen der Einfluß unerwünschter Eigenschaften des bildgebenden Systems auf die Genauigkeit des Verfahrens drastisch reduziert. Based on signal theoretical models ([LENZ88], [NEGI87], [LI88], [CLAR93]) is drastically reduced by a suitable choice of the light pattern used in the form of circular surfaces, the influence of undesirable properties of the imaging system to the accuracy of the method.

Der Projektor projiziert somit ellipsenförmige Flächen in den Raumbereich, die sich als ebenfalls ellipsenförmige Abbilder (Blobs) im Kamerabild widerspiegeln. The projector thus projected ellipsoidal surfaces in the spatial region, which is reflected as also elliptical images (blobs) in the camera image. Die eingenommenen Bildpositionen dieser Blobs als Schwerpunkt der elliptischen Flächen im Bild können subpixelgenau bestimmt werden. The image positions occupied these blobs as the focus of the elliptical areas in the image can be determined with subpixel accuracy. Neben dieser durch das gewählte Lichtmuster gegebenen Genauigkeitssteigerung ist die relativ einfache Berechnung der eingenommenen Bildpositionen (Schwerpunktsberechnung) im Hinblick auf eine hardwaremäßige Implementierung zwecks Steigerung der Auswerterate für die Wahl dieses Lichtmusters von entscheidender Bedeutung. In addition to that given by the chosen light pattern accuracy improvement is the relatively simple calculation of the assumed image positions (center of gravity calculation) in terms of hardware implementation in order to increase the evaluation rate for choosing this light pattern is crucial.

Verfahrensablauf process flow

Zur Realisierung des skizzierten Verfahrens müssen mehrere wesentliche Teilaufgaben bewältigt werden, deren Einbindung in das Verfahren durch die in Fig. 3 dargestellte Vorgehensweise bei der Aufstellung der Raumbelegungstabelle und der Vermessung von Raumpunkten verdeutlicht wird. To implement the procedure outlined several essential part of their integration tasks is illustrated in the method by the embodiment shown in Fig. 3 Procedure for the formation of the space allocation table, and the measurement of spatial points have to be overcome.

Die Kalibrierung der Kamera wird wie in [MEIS93] beschrieben durchgeführt und liefert Abbildungsvorschriften, mit denen sowohl die zu einer Raumposition gehörende eingenommene Bildposition als auch die zu einer eingenommenen Bildposition gehörende Projektionsgerade ( Fig. 2) bestimmt werden können. The calibration of the camera is carried out as described in [MEIS93] and provides mapping rules with which both belonging to a spatial position occupied image position and the belonging to a space occupied image position projected straight line (Fig. 2) can be determined. Das der Kalibrierung zu Grunde gelegte Kameramodell ist durch die Berücksichtigung nicht idealer Eigenschaften des optischen Systems und der Bildabtastung eine Erweiterung des oben vorausgesetzten idealen zentralperspektivischen Kameramodells und kann durch geeignete Transformationen in ein solches überführt werden. The calibration specified underlying camera model is to be transferred by taking into account non-ideal properties of the optical system and the image scanning an extension of the above assumed ideal central perspective camera model and, by appropriate transformations into one.

Die Vermessung der Raumgeraden wird unter Verwendung zweier kalibrierter Kameras durchgeführt, die auf Basis der Triangulation eine Berechnung von diskreten, auf den Raumgeraden liegenden Raumpunkten vornehmen. The measurement of the spatial straight line is carried out using two calibrated cameras, which perform triangulation on the basis of a computation of discrete, lying on the spatial straight line spatial points. Hierzu wird wie in Fig. 4 dargestellt eine weiße Kalibrierebenen in verschiedenen Abständen zum Projektor in den Strahlengang des Projektors gebracht. For this purpose, as shown in Fig. 4, a white calibration planes located in different distances from the projector into the beam path of the projector. In einem zweiten Schritt gehen die so ermittelten Raumpunkte dann als Stützstellen in die Ausgleichsrechnung zur Bestimmung der Raumgeraden ein. In a second step, the spatial points thus determined then go as a support points in the regression analysis for determining the spatial straight line.

Bei der Zuordnung der Raumpunkte zu den Raumgeraden wird von zwei wesentlichen Randbedingungen Gebrauch gemacht: When allocating the space points to the straight line in space is made of two main parameters on use:

  • - Die Raumpunkte können, bedingt durch die näherungsweise äquidistanten Positionierungen der Kalibrierebene zum Projektor, in entsprechende Abstandsklassen A₁ . - The space points can, due to the approximately equidistant positioning of the calibration plane to the projector, in corresponding distance classes A₁. . , . , A n aufgeteilt werden. A n be split. Jede Abstandsklasse A i enthält dabei m i Raumpunkte. Each spacer Class A i m i contains at points in space.
  • - Idealerweise gehen alle Raumgeraden aufgrund der zentralperspektivischen Projektionseigenschaft des Projektors von dessen Projektionszentrum aus. - Ideally, go all straight line in space due to the central perspective projection properties of the projector from the projection center. Ein realer Projektor weist jedoch aufgrund der Linsenverzeichnung kein solches isoliertes Projektionszentrum auf. However, a real projector has no such an isolated center of projection due to the lens distortion. Es kann jedoch angenommen werden, daß alle Raumgeraden eine Toleranzkugel mit dem Durchmesser D um das vermeintliche Projektionszentrum als Mittelpunkt des optischen Linsensystems des Projektors schneiden. It can be assumed, however, that all spatial lines intersect a tolerance sphere of diameter D to the supposed center of projection at the center of the optical lens system of the projector.

Ausgehend von einem Punkt R in der höchsten Abstandsklasse A n werden alle Kombinationen von R in mit jedem Punkt R j(n-1) (j=l . . . m (n-1) ) der nächst tieferen Abstandsklasse betrachtet und dahingehend überprüft, ob die durch diese Raumpunktkombination bestimmte Raumgerade die Toleranzkugel schneidet ( Fig. 4). Are Starting n of a point R in the highest distance class A, all combinations of R in every point R j (n-1) (j = l... M (n-1)) is considered the next lower distance class, and then checked to whether the point in space determined by this combination is precisely the space tolerance sphere intersects (FIG. 4).

Ist dies der Fall, so gehören die beiden Raumpunkte zu einer Raumgeraden. If this is the case, then the two points in space belonging to a straight line in space. In diesem Fall wird für alle Raumpunkte der Abstandsklasse A n-2 der Abstand zur Raumgeraden berechnet und der Raumpunkt mit dem kleinsten Abstand zur Raumgeraden ausgewählt. In this case, the distance class A n-2 is calculated the distance to the spatial straight line and the spatial point with the smallest distance to the spatial straight line selected for all points in space. Dieser Raumpunkt wird als weitere Stützstelle zur Raumgeradenberechnung herangezogen. This point in space is used as a further reference point for room straight calculation. Schneidet die berechnete Raumgerade die Toleranzkugel, so wird ein Raumpunkt aus der nächst tieferen Abstandsklasse ausgewählt und als weitere Stützstelle mit in die Berechnungen aufgenommen. Intersects the calculated room Especially the tolerance sphere, a point in space is selected from the next lowest distance class and added as a further reference point in the calculations. Ein solches iteratives Vorgehen bis zur Abstandsklasse A₁ liefert die endgültige Raumgerade. Such iterative procedure until the distance class A₁ provides the final space line.

Den im Rahmen dieser Vorgehensweise benötigten Wert für D erhält man aus elementaren geometrischen Zusammenhängen. The required pursuant to this approach value for D is obtained from elementary geometrical relationships. Wird die Kammerkonstante c des Projektors durch die Brennweite f des Objektives abgeschätzt, so ergibt sich bei bekanntem Abstand a benachbarter Diapositionen ein Richtwert für D gemäß folgender Gleichung: Is the chamber constant c of the projector estimated by the focal length f of the lens, as a reference value for D is obtained according to the following equation at a known distance a of adjacent slide positions:

Hierbei beschreibt s den Abstand benachbarter Raumpunkte in der ersten Abstandsklasse. Here, s describes the distance between adjacent points in space in the first distance range. Die Raumpunkte befinden sich in einer Entfernung d₁ zum vermeintlichen Projektionszentrum (Mittelpunkt der Toleranzkugel), Δd ist der Abstand benachbarter Abstandsklassen. The spatial points are located at a distance d₁ to the putative projection center (center of the tolerance sphere), .DELTA.d is the distance between adjacent distance classes.

Die Bestimmung der Epipolarlinien geschieht durch die Abbildung dieser Raumgeraden entsprechend der durch die Kalibrierung der Kamera erhaltenen Abbildungsvorschriften. The determination of the epipolar lines is accomplished by the mapping of this space corresponding to the straight line obtained by the calibration of the camera mapping rules. Eine Reduzierung der einnehmbaren Bildpositionen ergibt sich durch die Diskretisierung der Epipolarlinien entsprechend dem Auflösungsvermögen der Kamera. A reduction of the ingestible image positions resulting from the discretization of the epipolar lines corresponding to the resolution of the camera.

Zur Berechnung der Raumbelegungstabelle werden die zu den diskreten eingenommenen Bildpositionen gehörenden Projektionsgeraden mit der korrespondierenden Raumgeraden geschnitten ( Fig. 2). To calculate the occupancy table belonging to the discrete positions occupied image projection straight cut with the corresponding spatial straight line (Fig. 2).

Die Vermessung der vom Lichtmuster generierten markanten Raumpunkte basiert auf der Bestimmung der eingenommenen diskreten Bildpositionen und Auslesen der durch diese eingenommenen Bildpositionen bestimmten Einträge in der Raumbelegungstabelle. The measurement of the light pattern generated by the striking points in space based on the determination of the area occupied discrete image positions and read out the image positions determined by these occupied entries in the space allocation table.

Geometrische Randbedingungen an den Senoraufbau Geometric boundary conditions at the construction Senor

Die Anzahl der vermeßbaren Raumpunkte ist durch die Anzahl der Epipolarlinien im Kamerabild, die eindeutig einer Raumgeraden zugeordnet werden können, begrenzt. The number of vermeßbaren space points is limited by the number of epipolar lines in the camera image that can be uniquely associated with a spatial straight line. Nur dann ist das Korrespondenzproblem lösbar und ein eindeutiger Zugriff auf die Raumbelegungstabelle gewährleistet. Only the correspondence problem is solvable and ensures a clear access to the room occupancy table. Aufgrund der fehlerbehafteten Bestimmung der Blobschwerpunkte liegen die ermittelten eingenommenen Bildpositionen i. Due to the erroneous determination of the determined occupied Blobschwerpunkte image positions are i. allg. nicht exakt auf der Epipolarlinie, sondern vielmehr in einem Unsicherheitsbereich darüber oder darunter. allg. not exactly on the epipolar line, but rather in an uncertainty region above or below it. Für die Funktionstüchtigkeit des Verfahrens muß sichergestellt sein, daß For the functional efficiency of the process is necessary to ensure that

  • - die Unsicherheitsbereiche der Epipolarlinien sich nicht überlagern. - the uncertainty ranges of epipolar lines do not overlap.

Möchte man die maximal mögliche Anzahl von Raumpunkten vermessen, so müssen die Epipolarlinien If you want to measure the maximum possible number of points in space, the epipolar lines must

  • - parallel verlaufen und - parallel and
  • - äquidistant angeordnet sein be disposed equidistant -

Die Anzahl der vermeßbaren Raumpunkte ist dann lediglich durch die Größe der Unsicherheitsbereiche begrenzt. The number of vermeßbaren points in space is then only limited by the size of the uncertainty ranges. Die bei dieser idealen Anordnung zu beachtenden geometrischen Randbedingungen werden im folgenden detaillierter beschrieben. To be observed, in this ideal arrangement geometrical boundary conditions are described in more detail below.

Die Parallelität der Epipolarlinien ist für solche Anordnungen immer erfüllt, bei denen sich das Projektionszentrum des Projektors in der Fluchtebene der Kamera befindet. The parallelism of the epipolar lines is always fulfilled for such arrangements in which the center of projection of the projector is in the alignment plane of the camera. Die Fluchtebene ist die Ebene, die das Projektionszentrum der Kamera enthält und parallel zur Bildebene der Kamera ausgerichtet ist. The alignment plane is the plane containing the projection center of the camera and is aligned parallel to the image plane of the camera. Unter der Annahme eines rein zentralperspektivischen Abbildungsverhaltens des Projektors stellt das Projektionszentrum den einzigen Schnittpunkt der Raumgeraden dar. Bei der gewählten Anordnung wird dieser Schnittpunkt nicht in die Bildebene der Kamera abgebildet. Assuming a purely central perspective imaging behavior of the projector represents the projection center of the single point of intersection of the straight line in space. In the chosen arrangement of this intersection is not displayed in the image plane of the camera. Die Epipolarlinien als Abbilder der Raumgeraden müssen somit zwangsweise parallel verlaufen. The epipolar lines as images of the spatial straight must therefore run forcibly parallel.

Diese geometrischen Randbedingungen hinsichtlich der Lage und Orientierung des Projektors zur Kamera ermöglichen zwar die Generierung parallel verlaufender Epipolarlinien, garantieren jedoch nicht deren äquidistante Anordnung. Although these geometrical constraints on the position and orientation of the projector to the camera allow the generation of parallel epipolar lines, but does not guarantee their equidistant arrangement.

Für die Herleitung der für die äquidistante Anordnung der Epipolarlinien notwendigen geometrischen Randbedingungen werden zunächst die folgenden Betrachtungen vorausgesetzt, so daß die Hauptachsen von Kamera und Projektor in einer Ebene liegen und den Winkel Θ bilden ( Fig. 2). For the derivation of the necessary for the equidistant arrangement of the epipolar geometric constraints First, the following considerations are provided so that the main axes of the camera and projector in one plane and the angle Θ form (Fig. 2). Somit ergeben sich als Schnitt der räumlichen Anordnung von Kamera und Projektor in dieser Ebene die in Fig. 5 dargestellten geometrischen Zusammenhänge. Thus, result as a section of the spatial arrangement of the camera and projector in this plane the illustrated geometric relationships in Fig. 5. Durch Erfüllung der oben genannten Randbedingungen sind parallele Epipolarlinien anzunehmen. By satisfying the above constraints parallel epipolar lines are to be accepted.

Betrachtet man die unendlich ausgedehnte Bildebene E der Kamera, so ergibt sich als ein Bildpunkt einer mit der Hauptachse zusammenfallenden Raumgeraden L₁ deren Schnittpunkt A₁ mit der Bildebene. Considering the infinitely extended image plane E of the camera, it is clear than an image point of a coinciding with the main axis spatial straight line L₁ whose intersection A₁ with the image plane. In dem zur Betrachtungsebene senkrechten Schnitt entlang der Raumgeraden L₁ finden sich aufgrund der untereinander mit dem Abstand b₁ im Dia angeordneten Diapositionen D₁, D₂, D₃, . In the direction perpendicular to the viewing plane section along the spatial straight line L₁ can be found due to the b₁ one another with a distance arranged in the slide slide positions D₁, D₂, D₃,. . , . , weitere Raumgeraden L₂, L₃, . more space line L₂, L₃. . , . , , die die Bildebene in den Punkten A₂, A₃, . That the image plane in the points A₂, A₃. . , . , schneiden. to cut. Der Abstand der zu den Raumgeraden gehörenden Epipolarlinien ist somit gleich dem Abstand b₂ dieser Schnittpunkte. The spacing of the belonging to the spatial straight epipolar lines is thus equal to the distance b₂ these intersections.

Betrachtet man die Raumgerade L′₁, die mit der Hauptachse des Projektors den Winkel ϕ bildet, so ergibt sich bei gleichem Abstand b₁ der untereinander angeordneten Diapositionen ein gegenüber b₂ vergrößerter Abstand b′₂, der Epipolarlinien. Considering the space straight line L'₁, which forms the angle φ with the major axis of the projector, the result at the same distance of each other arranged slide positions b₁ a b'₂ opposite b₂ increased distance, the epipolar lines. Sollen unabhängig von der Diaposition alle Epipolarlinien äquidistant sein (b′₂=b₂), so muß abhängig vom Winkel ϕ der Abstand der untereinander angeordneten Diapositionen entsprechend folgender Gleichung auf den Wert b k korrigiert werden. Are independent of the slide position all epipolar lines equidistant be (b'₂ = b₂), it must depend on the angle φ the spacing of the mutually arranged slide positions according to the following equation can be corrected to the value b k. Aufgrund der elementaren geometrischen Zusammenhänge ergibt sich b k wie folgt: Because of the elementary geometrical relationships resulting b k as follows:

Man erhält somit ein Diamuster, das in Abhängigkeit von der Sensoranordnung (Θ, ϕ) für jede Spalte i einen entsprechenden vertikalen Abstand b ki der Diapositionen vorsieht. One thus obtains a Diamuster, the function of the sensor arrangement (Θ, φ) has a corresponding vertical distance b of the slide positions ki provides for each column i. Fig. 6 stellt ein Diamuster für Θ=60° dar. Fig. 6 illustrates a Diamuster for Θ = 60 ° is.

Für Θ=90° gilt b k =b₁, und man erhält ein Diamuster mit rechteckig angeordneten Diapositionen. For Θ = 90 ° applies b k = b₁, and there is obtained a Diamuster with rectangular arranged slide positions. Damit die Epipolarlinien nicht ineinanderfallen, muß als hinreichende Bedingung für äquidistante Epipolarlinien die bezüglich des Diamusters vertikale Gerade G H , mit der projizierten Verbindungsgeraden der Projektionszentren von Kamera und Projektor G KP einen geeigneten Winkel β bilden. Thus, non-intermeshing drop the epipolar lines, must straight line G H form as a sufficient condition for the epipolar lines equidistant with respect to the vertical Diamusters with the projected connecting line of the projection centers of the camera and projector G KP an appropriate angle β. Für Θ=90° sind die geometrischen Zusammenhänge in Fig. 7 dargestellt. For Θ = 90 °, the geometric relationships in Fig. 7 are shown.

Der Winkel β ergibt sich gemäß folgender Gleichung aus der Anzahl n der Spalten des Diamusters, die äquidistant im Abstand d zueinander angeordnet sind, und dem vertikalen Abstand b₁, der Diapositionen. The angle β is obtained according to the following equation from the number n of columns of the Diamusters, which are arranged equidistantly at a distance d from each other, and b₁, the vertical distance of the slide positions.

Der Winkel β nimmt für typische Diamuster mit d=b₁ und n<30 Werte kleiner als 2° an, so daß sich der Winkel ϕ bei Drehung des Diamusters um den Winkel β nur unwesentlich ändert. The angle β takes for typical Diamuster with d = b₁ and n <30 values ​​of less than 2 °, so that the angle φ for rotation of the Diamusters by the angle β changes only insignificantly. Diese Gleichung hat unter diesen Voraussetzungen auch für Q≠90° Gültigkeit. This equation has under these conditions for Q ≠ 90 ° validity.

Quellenangaben Sources

[AYAC88] N. Ayache, OD Faugeras, F. Lustman, and Z. Zhang. [AYAC88] N. Ayache, OD Faugeras, F. Lustman, and Z. Zhang. Visual navigation of a mobile robot: Recent steps. Visual navigation of a mobile robot: Recent steps. In Proceedings of the 19th International Symposium on Industrial Robots, Sydney, Australia, Nov. 1988, pages 725-740, Springer Verlag, 1988. In Proceedings of the 19th International Symposium on Industrial Robots, Sydney, Australia, Nov. 1988, pages 725-740, Springer Verlag., 1988

[BANI87] J. Banic, S. Sizgoric, R. O′Neil. [BANI87] J. Banic, p Sizgoric, R. O'Neil. Airborne scanning lidar bathymeter measures water depth. Airborne lidar scanning bathymeter measures water depth. Laser focus/Electro-optics, Feb., pages 48-52, 1987. Laser focus / Electro-Optics, February, pages 48-52., 1987

[BEHE86] G. Beheim, K. Fritsch. [BEHE86] G. Beheim, K. Fritsch. Range finding using frequency-modulated laser diode. Range finding using frequency-modulated laser diode. Appl. Appl. Opt. 25(9): 1439-1442,1986. Opt. 25 (9): 1439 to 1442.1986.

[BICK85] G. Bickel, G. Hausler, M. Maul. [BICK85] G. Bickel, G. Hausler, M. Maul. Triangulation with expanded range of depth. Triangulation with expanded range of depth. Opt. Engrg. Opt. Engrg. 24(6), pages 975-979, 1985. 24 (6), pages 975-979., 1985

[BING87] N. Binger, SJ Harris. [BING87] N. Binger, SJ Harris. Applications of laser radar technology. Applications of laser radar technology. Sensors 4(4):42-44, 1987. Sensor 4 (4): 42-44., 1987

[BOEH86] AJ Boehnlein, KG Harding. [BOEH86] AJ Boehnlein, KG Harding. Adaptation of a parallel architecture computer to phase-shifted moir´ interferometry. Adaptation of a parallel architecture computer to phase-shifted moir' interferometry. In Proc. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Cambridge, Mass., 728, pages 132-i46, 1986. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Cambridge, Mass., 728, pages 132-i46 1986.

[BOUL86] Boulder Electro-Optics. [BOUL86] Boulder Electro-Optics. Product Information. Product information. 1986. 1986th

[CHIO91] RN Chiou, KC Hung, CH Chen, and JY Lee. [CHIO91] RN Chiou, KC Hung, CH Chen, and JY Lee. Image reconstruction and stereo matching for polyhedron objects. Image reconstruction and stereo matching for polyhedron objects. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 218-224, Pattern Recognition Society of Denmark and Aalborg University, 1991. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 218-224, Pattern Recognition Society of Denmark and Aalborg University., 1991

[CLAR93] TA Clarke, MAR Cooper, JG Fryer. [CLAR93] TA Clarke, MAR Cooper, JG Fryer. An estimator for the random error subpixel target location and its use in the bundle adjustment. An estimator for the random error subpixel target location and its use in the bundle adjustment. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 161-168, 1993. In Proceedings of the 2nd Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 161-168., 1993

[CYBE87] Cyberoptics Corporation. [CYBE87] Cyber ​​Optics Corporation. Product Information, Minneapolis, Minn, 1987. Product Information, Minneapolis, Minn., 1987

[DAND85] R. Dandliker, R. Thalmann. [DAND85] R. Dandliker, R. Thalmann. Heterodyne and quasi heterodyne holographic interferometry. Heterodyne and quasi heterodyne holographic interferometry. Opt. Engrg. Opt. Engrg. 24(5): 824-831, 1985. 24 (5): 824-831., 1985

[FÖHR90] R. Föhr. [FÖHR90] R. Fohr. Photogrammetrische Erfassung räumlicher Informationen aus Videobildern. Photogrammetric detection of spatial information from video images. Dissertation, Rogowski-Institut der RWTH Aachen, Verlag Vieweg, 1981. Dissertation, Rogowski Institute of RWTH Aachen, Verlag Vieweg., 1981

[GOTT87] R. Gottwald, W. Brenner. [GOTT87] R. Gottwald, W. Brenner. The new Kern system for positioning and automated coordinate evaluation; The new core system for positioning and automated coordinate evaluation; advanced technology for automated 3D coordinate determination. advanced technology for automated 3D coordinate determination. Product Information. Product information. Kern Instruments, Aarau, Switzerland. Core instrument, Aarau, Switzerland. 1987. 1987th

[GRIF92] PM Griffin, LS Narasimhan, SR Yee. [GRIF92] PM Griffin, LS Narasimhan, SR Yee. Generation of uniquely encoded light pattern for range data acquisition, Pattern Recognition, 25 (6), pages 609- 616, 1992. Generation of uniquely encoded light pattern for range data acquisition, Pattern Recognition, 25 (6), pages 609- 616. 1992

[GUIS91] L. Guisser, R. Payrissat, S. Castan. [GUIS91] L. Guisser, R. Payrissat, p Castan. A 3D Active vision system with direct parametrization of surface. A 3D Active vision system with direct parametrization of surface. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 210-2i7, Pattern Recognition Society of Denmark and Aalborg University, 1991. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 210-2i7, Pattern Recognition Society of Denmark and Aalborg University., 1991

[HACH93] E. Kach. [HACH93] E. Kach. Moir´ measurement of the displacement field of a wall under dynamic load. Moir' measurement of the displacement field of a wall under dynamic load. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 161-168, 1993. In Proceedings of the 2nd Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 161-168., 1993

[HALL82] EL Hall, JBK Tio, CA McPherson, FA Sadjadi. [HALL82] EL Hall, JBK Tio, CA McPherson, FA Sadjadi. Measuring curved surfaces for robot vision. Measuring curved surfaces for robot vision. Computer 15 (12): 42-54. Computer 15 (12): 42-54. 1982. 1,982th

[HARD86] KG Harding, K. Goodson. [HARD86] KG Harding, K. Goodson. Hybrid high accuracy structured light profiler. Hybrid high accuracy structured light profiler. In Proc. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 728, pages 132-145, 1986. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 728, pages 132-145 1986.

[HARR90] D. Harrison, M. Weir. [HARR90] D. Harrison, M. Weir. High-speed triangulation-based 3D imaging with orthonormal data projections and error detection. High-speed triangulation-based 3D imaging with orthonormal data Projections and error detection. IEEE Transaction on Pattern Analysis and Machine Intelligence, 12(4): 409-416, April 1990. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12 (4): 409-416, May 1990th

[HEIK86) T. Heikkine, R. Ahola, M. Manninen. [HEIK86) T. Heikkine, R. Ahola, M. Manninen. Recent results of the performance analysis of a 3D sensor based on time flight. Recent results of the performance analysis of a 3D sensor based on time flight. In Proc. In Proc. SPIE Quebec Int′l Symp. on Optical and Optoelectronic Applied Sci. SPIE Quebec Int'l Symp. On Optical and Optoelectronic Applied Sci. and Engrg., 1986. and Engrg., 1986.

[HERS87] M. Hersman, F Goodwin, S. Kenyon, A. Slotwinski. [HERS87] M. Hersman, F Goodwin, S. Kenyon, A. Slotwinski. Coherent laser radar application to 3D vision and metrology. Coherent laser radar application to 3D vision and metrology. In Proc. In Proc. Vision′87 Conf., 3.1-3-12, 1987. Vision'87 Conf., 3.1-3-12 1987.

[HERC90] M. Hercher, G. Wyntjes. [HERC90] M. Hercher, G. Wyntjes. Laser diode interferometry. Laser diode interferometry. In Proc. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 92-99, 1989. SPIE Laser Interferometry. Quantitative Analysis of interferogram, Vol 1162, pages 92-99 1989.

[HOEL91] C. Hölscher, K. Hinsch, G. Gülker. [HOEL91] C. Hölscher, K. Hinsch, G. Gülker. Holographic interferometry of high spatial resolution for the study of relative displacement of small grains in natural stones. Holographic interferometry of high spatial resolution for the study of relative displacement of small grains in natural stones. In Proc. In Proc. SPIE Laser Interferometry IV: Computer-Aided Interferometry, Vol. 1553, pages 366-375, 1991. SPIE Laser Interferometry IV. Computer-Aided Interferometry, Vol 1553, pages 366-375 1991.

[INOK84] S. Inokuchi, K. Sato, F. Matsuda. [INOK84] S. Inokuchi, K. Sato, F. Matsuda. Range-imaging system for 3-D object recognition. Range-imaging system for 3-D object recognition. Proceedings of the First int. Conference on Pattern Recognition, Montreal, 2 : 807-809, 1984. . Proceedings of the First int Conference on Pattern Recognition, Montreal, 2: 807-809 1984.

[ITO86] M. Ito and A. Ishii. [ITO86] M. Ito and A. Ishii. Three-view stereo analysis. Three-view stereo analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(4):524-532, 1986. IEEE Transactions on Pattern Analysis and Machine Intelligence, 8 (4): 524-532., 1986

[JARV83] RA Jarvis. [JARV83] RA Jarvis. A laser time-of-flight range scanner for robotic vision. A laser time-of-flight range scanner for robotic vision. IEEE Computer 15(6): 9-23, 1982. IEEE Computer 15 (6): 9-23., 1982

[JUHA87] M. Juha, J. Donahue. [JUHA87] M. Juha J. Donahue. Improving automated SMT inspection with 3D vision. Improving automated SMT inspection with 3D vision. Product literature. Product literature. Photonic Automation Inc., Santa Ana, Calif., 1987. Photonic Automation Inc., Santa Ana, Calif., 1987.

[KANA87] T. Kanade, M. Fuhrman. [KANA87] T. Kanade, M. Fuhrman. A noncontact optical proximity sensor for measuring surface shape. A noncontact optical proximity sensor for measuring surface shape. In Three Dimensional Machine Vision, Kluwer Academic, Boston, 1987. In Three Dimensional Machine Vision, Kluwer Academic, Boston., 1987

[KHEA75] The theory and application of projection moir´methods. [KHEA75] The theory and application of projection moir'methods. Ph.D. Ph.D. dissertation. dissertation. Department of Engineering Mechanics, State University of New York, Stony Brook, NY, 1975. Department of Engineering Mechanics, State University of New York, Stony Brook, NY., 1975

[KURZ90] H. Kurz, O. Leder. [KURZ90] H. Short, O. leather. PC-based moir´ or field studies on the human body surface. PC-based moir' or field studies on the human body surface. In Proc. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1066-1074, 1990. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1066 to 1074 in 1990.

[LENZ88] Reimar Lenz. [LENZ88] Reimar Lenz. Zur Genauigkeit der Videometrie mit CCD-Sensoren. The accuracy of the videometry with CCD sensors. In Informatik-Fachberichte 180, 10. DAGM Symposium 1988, Zürich, Seiten 179-189, Springer, 1988. In computer science technical reports 180 10 DAGM Symposium 1988, Zurich, pages 179-189, Springer., 1988

[LEWI77] RA Lewis AR Johnston. [LEWI77] RA Lewis AR Johnston. A scanning laser rangefinder for a robotic vehicle. A scanning laser rangefinder for a robotic vehicle. In Proc. In Proc. 5th Intl. 5th Intl. Joint Conference on Artificial Intelligence (Cambridge, Mass.), pages 762-768, 1977. Joint Conference on Artificial Intelligence (Cambridge, Mass.), Pages 762-768 1977.

[LI88] Y. Li, T. Young, J. Magerl. [LI88] Y. Li, T. Young, J. Magerl. Subpixel detection and estimation with a microprocessor-controlled line scan camera. Subpixel detection and estimation with a microprocessor-controlled line scan camera. IEEE Transaction on Industrial Electronics, 15(1): 105-112, February 1988. IEEE Transactions on Industrial Electronics, 15 (1): 105-112, February 1988th

[LORE86] RD Lorenz. [LORE86] RD Lorenz. A novel, high-range-to-resolution ratio, optical sensing technique for high speed surface geometry measurement. A novel, high-range-to-resolution ratio, optical sensing technique for high speed surface geometry measurement. In Proc. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, 728, pages 152-156, 1986. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, 728, pages 152-156., 1986

[MEIS93] A. Meisel. [MEIS93] A. Meisel. 3D Bildverarbeitung für feste und bewegte Kameras auf Photogrammetrischer Basis. 3D image processing for fixed and moving cameras on photogrammetric base. Der Fakultät für Elekrotechnik der RWTH Aachen vorgelegte Dissertation zur Erlangung des akademischen Grades eines Doktors der Ingenieurwissenschaften, RWTH Aachen, 1993. Dissertation submitted to the Faculty of Elekrotechnik RWTH Aachen for obtaining the academic degree of Doctor of Engineering, RWTH Aachen University., 1993

[MILL87] GL Miller, ER Wagner. [MILL87] GL Miller, ER Wagner. An optical rangefinder for autonomous robot cart navigation. An optical rangefinder for autonomous robot cart navigation. In proc. In proc. SPIE Industrial Electronics, Cambridge Mass., 1987. SPIE Industrial Electronics, Cambridge Mass., 1987.

[MORI89] I. Moring, R. Myllylä. [MORI89] I. Moring, R. Myllylä. New 3D-vision sensor for shape measurement applications. New 3D vision sensor for shape measurement applications. In Proc. In Proc. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 1194, pages 232- 241, 1989. SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision, Vol. 1194, pages 232 241 1989.

[NAKA87] Y. Nakagawa, T. Ninomiya. [NAKA87] Y. Nakagawa, T. Ninomiya. Three-dimensional vision systems using the structured light method for inspecting solder joints and assembly robots. Three-dimensional vision system using the structured light method for inspecting solder joints and assembly robots. In Three-dimensional machine vision, Kluwer Academic, Boston, pages 543-565. In Three-dimensional machine vision, Kluwer Academic, Boston, pages 543-565. 1987. 1987th

[NEGI87] M. Negin. [NEGI87] M. Negin. Subpixel resolution methodologv limitations. Subpixel resolution methodologv limitations. VISION′ 87, Conference Proceedings, June 8-11, Detroit, North Holland, 1987. VISION '87, Conference Proceedings, June 8-11, Detroit, North Holland., 1987

[NITZ77] D. Nitzan, AE Brain, RO Duda. [NITZ77] D. Nitzan, AE Brain, RO Duda. The measurement and use of registered reflectance and range data in scene analysis. The measurement and use of registered reflectance and range data in scene analysis. Proc. Proc. IEEE 65(2), pages 206-220, 1977. IEEE 65 (2), pages 206-220., 1977

[OKAD90] K. Okada, J. Tsujiuchi. [OKAD90] K. Okada, J. Tsujiuchi. Wavelength scanning interferometry for the measurement of both surface shapes and refractive index inhomogeneity. Wavelength scanning interferometry for the measurement of Both surface shapes and refractive index inhomogeneity. In Proc. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 395-401, 1989. SPIE Laser Interferometry. Quantitative Analysis of interferogram, Vol 1162, pages 395-401 1989.

[OZEK86] O. Ozeki, T. Nakano, S. Yamamoto. [OZEK86] O. Ozeki, T. Nakano, S. Yamamoto. Real-time range measurement device for three-dimensional object recognition, IEEE Transaction on Pattern Analysis and Machine Intelligence, 8(4): 768-773, July 1986. Real-time range measurement device for three-dimensional object recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, 8 (4): 768-773, July 1986th

[PANT86] D. Pantzer, J. Policht, L. Ek. [PANT86] D. Pantzer, J. Policht, L. Ek. Heterodyne profiling instrument for the angstrom region. Heterodyne profiling instrument for the angstrom region. Appl. Appl. Opt. 25(22), pages 4168-4172, 1986. Opt. 25 (22), pages 4168-4172., 1986

[PELO86] KR Pelowski. [PELO86] KR Pelowski. 3D measurement with machine vision. 3D measurement with machine vision. In proc. In proc. Vision′ 86 Conference, SME, pages 2-17 to 2- 31. 1986. Vision '86 Conference, SME, pages 2-17 to 2- 31 1986th

[PERC87] Perceptron. [PERC87] Perceptron. Product information. Product information. Farming Hills, Mich., 1987. Farming Hills, Mich., 1987.

[PIPI83] FJ Pipitone, TG Marshall. [PIPI83] FJ Pipitone, TG Marshall. A wide-field scanning triangulation rangefinder for machine vision. A wide-field scanning triangulation rangefinder for machine vision. Intl. Intl. J. Robotics Res. 2(1), pages 39-49, 1983. J. Robotics Res. 2 (1), pages 39-49., 1983

[POTM83] M. Potmesil. [POTM83] M. Potmesil. Generating models of solid objects by matching 3D surface segments. Generating models of solid objects by matching 3D surface segment. In proc. In proc. 8th International Joint Conference on Artificial Intelligence, pages 1089-1093. 8th International Joint Conference on Artificial Intelligence, pages 1089-1093. 1983. 1,983th

[REID86] GT Reid. [REID86] GT Reid. Automatic fringe pattern analysis: A review. Automatic fringe pattern analysis: A review. Opt. and Laser in Engrg., 7, pages 37-68, 1986. Opt. And laser Engrg., 7, pages 37-68 1986.

[RIOU84] M. Rioux. [RIOU84] M. Rioux. Laser range finder based upon synchronized scanners. Laser range finder based upon synchronized scanners. Appl. Appl. Opt. 23(21), pages 3837-3844, 1984. Opt. 23 (21), pages 3837-3844., 1984

[RIOU93] M. Rioux, G. Godin, F. Blais, R. Baribeau. [RIOU93] M. Rioux, G. Godin, F. Blais, R. Baribeau. Differential inspection of shapes using optical 3-D measurement. Differential inspection of shapes using optical 3-D measurement. In Proceedings of the 2. Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, Oktober 1993, pages 402-409, 1993. In Proceedings of the 2nd Conference on Optical 3-D Measurement Techniques, Zurich, Switzerland, October 1993, pages 402-409., 1993

[SAMP87] RE Sampson. [SAMP87] RE Sampson. 3D range sensor via phase shift detection. 3D range sensor via phase shift detection. IEEE Computer 20(8), pages 23-24, 1987. IEEE Computer 20 (8), pages 23-24., 1987

[SAM90] RC Sam, K. Leslie, J. Goodwin, R. Page. [SAM90] RC Sam K. Leslie, J. Goodwin, R. Page. Real time TV holography using an alexandrite laser. Realtime TV holography using at alexandrite laser. In Proc. In Proc. SPIE Laser Interferometry: Quantitative Analysis of Interferograms, Vol. 1162, pages 447-455, 1989. SPIE Laser Interferometry. Quantitative Analysis of interferogram, Vol 1162, pages 447-455 1989.

[SASA86] O. Sasaki, H. Okazaki. [SASA86] O. Sasaki, H. Okazaki. Sinusoidal phase modulating interferometry for surface profile measurement. Sinusoidal phase Modulating interferometry for surface profile measurement. Appl. Appl. Opt., 25(18), pages 3137-3140, 1986. Opt., 25 (18), pages 3137-3140., 1986

[SATO84) K. Sato, S. Inokuchi. [SATO84) K. Sato, S. Inokuchi. Three-dimensional surface measurement by space encoding range imaging. Three-dimensional surface measurement by space encoding range imaging. Journal of Robotic Systems 2(1), 1985. Journal of Robotic Systems 2 (1)., 1985

[SEIT86] G. Seitz, H. Tiziani, R. Litschel. [SEIT86] G. Seitz, H. Tiziani, R. Litschel. 3-D- Koordinatenmessung durch optische Triangulation. 3-D coordinate measurement by optical triangulation. Feinwerktechnik & Meßtechnik (7): 432-425, 1986. Feinwerktechnik & Messtechnik (7): 432-425., 1986

[SEIB90] M. Seib. [SEIB90] M. Seib. Hochauflösendes Projektions-Moir´-Verfahren zur Formerkennung mit modifizierter CCD-Kamera. High-resolution projection Moir' method for shape recognition of modified CCD camera. Proc. Proc. of Ident Vision′ 90, S. 92-104, Mesago Stuttgart, 1990. of Ident Vision '90, pp 92-104, Mesago Stuttgart., 1990

[SELC87] Selcom. [SELC87] Selcom. Optocator product information. Optocator product information. Valdese, NC, Partille, Sweden; Valdese, NC, Partille, Sweden; Krefeld, West Germany, 1987. Krefeld, West Germany. 1987

[SHAH89] YC Shah, RB Mahani. [SHAH89] YC Shah, RB Mahani. A new technique to extract range information from stereo images. A new technique to extract range information from stereo images. IEEE Transaction on Pattern Analysis and Machine Intelligence, 11(7): 768-773, July 1989. IEEE Transactions on Pattern Analysis and Machine Intelligence, 11 (7): 768-773, July 1989th

[SHAR90] B. Sharp, G. Kuhl. [SHAR90] B. Sharp, G. Kuhl. Interferometrie - neue Möglichkeiten durch Bildverarbeitung. Interferometry - new possibilities through image processing. Fertigungstechnik (4): 158-162, 1990. Manufacturing Technology (4): 158-162., 1990

[SILV86] C. Silvaggi, W. North. [SILV86] C. Silvaggi, W. North. Position/dimension by structured light. Position / dimension by structured light. Exper. Exper. tech. tech. (Oct.), pages 22-25, 1986. (Oct.), pages 22-25., 1986

[SRIN85] V. Srinivasan, HC Liu, M. Halioua. [SRIN85] V. Srinivasan, HC Liu, M. Halioua. Automated phase measuring profilometry: A phase-mapping approach. Automated phase measuring profilometry: A phase-mapping approach. Appl. Appl. Opt. 24(2), pages 185-188, 1985. Opt. 24 (2), pages 185-188., 1985

[STAH90] T. Stahs, F. Wahl. [STAH90] T. Stahs, F. choice. Fast and robust range data acquisition in a low-cost environment. Fast and rugged range data acquisition in a low-cost environment. SPIE Close Range Photogrammetry meets Machine Vision, Vol. 1395 : 496-503, 1990. SPIE Close Range Photogrammetry Meets Machine Vision, Vol 1395. 496-503 1990.

[STEU88] J. Steurer, R. Lenz und S. Orecher. [STEU88] J. Steurer, R. Lenz and S. Orecher. 3D-Vermessung mit mehreren geeichten Kameras. 3D measurement with multiple calibrated cameras. In Informatik- Fachberichte 180, 10. DAGM Symposium 1988, Zurich, Seiten 197-203, Springer, 1988. In Computer Science Technical Reports 180, 10. DAGM Symposium 1988, Zurich, pages 197-203, Springer., 1988

[SVET84] DJ Svetkoff, PF Leonard, RE Sampson, RC Jain. [SVET84] DJ Svetkoff, PF Leonard, RE Sampson, RC Jain. Techniques for real-time feature extracting using range information. Techniques for real-time feature extracting using range information. In proc. In proc. Intelligence Robotics and Computer Vision, SPIE 521, pages 302- 309, 1984. Intelligence Robotics and Computer Vision, SPIE 521, pages 302- 309. 1984

[TIZI87] H. Tiziani. [TIZI87] H. Tiziani. Rechnerunterstützte Laser-Meßtechnik. Computer-aided laser measurement technology. Technisches Messen (6): 221-230, 1987. Technisches Messen (6): 221-230., 1987

[TOZE85] BA Tozer, R. Glanville, AL Gordon, MJ Webster, DG Wright. [TOZE85] BA Tozer, R. Glanville, AL Gordon, MJ Webster, DG Wright. Holography applied to inspection and measurement in an industrial environment. Holography Applied to inspection and measurement in a industrial environment. Opt. Engrg. Opt. Engrg. 24(5): 746-753, 1985. 24 (5): 746-753., 1985

[VUYL90] P. Vuylsteke and A. Oosterlinck. [VUYL90] P. Vuylsteke and A. Oosterlinck. Range image acquisition with a single binary-encoded light pattern. Range image acquisition with a single binary-encoded light pattern. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12(2):148-164, 1990. IEEE Transactions on Pattern Analysis and Machine Intelligence, 12 (2): 148-164., 1990

[WEHR89] A. Wehr. [WEHR89] A. Wehr. 3D-Mapping by a semiconductor laser mapper and its application possibilities. 3D mapping by a semiconductor laser mapper and its application possibilities. In Proceedings of the 1. Conference on Optical 3-D Measurement Techniques, Vienna, Austria, September 1989, pages 180-195, 1989. In Proceedings of the 1st Conference on Optical 3-D Measurement Techniques, Vienna, Austria, September 1989, pages 180-195., 1989

[WUER85] RF Wuerker, DA Hill. [WUER85] RF Würker, DA Hill. Holographic microscopy. Holographic microscopy. Opt. Engrg. Opt. Engrg. 24(3): 480-484. 24 (3): 480-484.

[ZAWI90] D. Zawieska, A. Spik. [ZAWI90] D. Zawieska, A. Spik. Topography moir´ using phase stepping method with CCD-camera. Topography moir' using phase-stepping method with CCD camera. In Proc. In Proc. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1214-1220, 1990. SPIE Conference on Close-Range Photogrammetry Meets Machine Vision, Vol. 1395, pages 1214 to 1220 in 1990.

[ZHAO91] J. Zhao, J. Shen, and S. Castan. [ZHAO91] J. Zhao, J. Shen, and S. Castan. Trinocular stereo vision by window matching in 3D-space. Trinocular stereovision by window matching in 3D space. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 202-209, Pattern Recognition Society of Denmark and Aalborg University, 1991. In Proceedings of the 7th Scandinavian Conference on Image Analysis, Aalborg, Denmark, August 1991, pages 202-209, Pattern Recognition Society of Denmark and Aalborg University., 1991

[ZUK83] DM Zuk, ML Dell′eva. [ZUK83] DM Zuk, ML Dell'eva. Three-dimensional vision system for the adaptive suspension vehicle. Three-dimensional vision system for the adaptive suspension vehicle. Final report No. Final report No. 170400-3-F, ERIM, DARPA 4468, Defense Supply Service, Washington, DC, 1983. 170400-3-F, ERIM, DARPA 4468, Defense Supply Service, Washington, DC., 1983

Claims (3)

  1. 1. Verfahren zur dreidimensionalen Vermessung von Raumbereichen mit den Verfahrensschritten 1. A method for three-dimensional measurement of spatial regions comprising the steps of
    • (a) Generierung von markanten Raumpunkten durch Beaufschlagung des Raumbereiches mit einem strukturierten Signalmuster, (A) Generation of distinctive points in space by application of the space region with a textured pattern signal,
    • (b) Erfassung des mit dem Signalmuster beaufschlagten Raumbereiches mittels einem oder mehreren elektronischen Bildaufnehmern (B) detection of the applied signal with the pattern space area by means of one or more electronic imagers
    • (c) Überführung der aufgenommenen Bilder in eine rechnerverarbeitbare Form mit dem Ziel einer rechnergestützten Weiterverarbeitung, (C) converting the captured images into a rechnerverarbeitbare shape with the aim of a computer-aided processing,
    • (d) Bestimmung der eingenommenen Bildpositionen, dh der Positionen der Abbilder der zu berechnenden Raumpunkte in den aufgenommenen Bildern (D) determining the image occupied positions, ie, the positions of the images of the spatial points to be calculated in the captured images
    • (e) Berechnung der Raumpunkte aus den bestimmten eingenommenen Bildpositionen (E) calculation of the spatial points from the determined occupied image positions
      dadurch gekennzeichnet, daß characterized in that
    • (f) die Bildaufnehmer und die Quellen zur Signalmustergenerierung auf ein gemeinsames Raumkoordinatensystem kalibriert sind, (F) the image receiver and the sources are calibrated to the signal pattern generation on a common spatial coordinate system,
    • (g) zur Vermessung des Raumbereiches ein zeitgleich gewonnener Satz von Bildern mehrerer Bildaufnehmer bzw. ein Bild eines Bildaufnehmers herangezogen wird (G) is used at the same time a recovered set of images of multiple image sensor or an image of an image recorder for measuring the spatial area
    • (h) die Quellen zur Signalmustergenerierung projizierend arbeiten (z. B. Zentralprojektion), so daß alle theoretisch möglichen durch einen Punkt des Signalmusters generierbaren, markanten Raumpunkte auf einer Raumgeraden liegen. (H) the sources for signal pattern generation work (z. B. central projection) Projective so that all can be generated theoretically possible by a period of the signal pattern, prominent spatial points lie on a straight line in space.
    • (i) die Bildaufnehmer projizierend arbeiten (z. B. Zentralprojektion) (I) the imagers Projective work (eg. As central projection)
    • (j) die Anordnung der Signalmusterquellen zu den Bildaufnehmern so ausgelegt ist, daß jedem Abbild eines markanten Raumpunktes genau eine Raumgerade zugeordnet werden kann. (J) the arrangement of the signal pattern sources is adapted to the image sensors such that each image of a marked point in space can be associated with exactly one space line.
    • (k) die Anordnung der Signalmusterquellen zu den Bildaufnehmern so ausgelegt ist, daß jedem Abbild eines markanten Raumpunktes genau ein markanter Raumpunkt zugeordnet werden kann. (K) the arrangement of the signal pattern sources is adapted to the image sensors such that each image of a marked point in space can be assigned to just a striking point in space.
    • (l) in einer Einrichtphase a priori die Weltkoordinaten alle theoretisch möglichen und relevanten durch die Beaufschlagung mit dem Signalmuster bestimmten markanten Raumpunkte in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden. (L) in a set-up phase a priori world coordinates all theoretically possible and relevant are stored by the application of the signal pattern certain distinctive points in space in an indexed by the area occupied image positions table.
    • (m) in der Vermessungsphase die Bestimmung der Raumpunktkoordinaten aus den zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte durch Auslesen der entsprechenden Tabelleneinträge durchgeführt wird. (M) in the measurement phase, the determination of the space coordinates is carried out from the previously determined area occupied image positions of the images of distinctive spatial points by reading the corresponding table entries.
  2. 2. Verfahren nach Anspruch 1a bis k, dadurch gekennzeichnet, daß 2. The method of claim 1 a to k, characterized in that
    • (n) in einer Einrichtphase a priori die Parameter der Geradengleichungen der Raumgeraden im Weltkoordinatensystem berechnet und in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden. (N) are calculated in a set-up phase a priori the parameters of the line equations of the spatial straight line in the world coordinate system and stored in an indexed by the area occupied image positions table.
    • (o) in der Vermessungsphase die durch die zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte bestimmten Tabelleneinträge ausgelesen und zur Berechnung des Raumpunktes herangezogen werden. (O) are read out in the measurement phase, determined by the predetermined occupied image positions of the images of distinct points in space table entries and used to calculate the spatial point.
  3. 3. Verfahren nach Anspruch 1a bis k, dadurch gekennzeichnet, daß 3. The method of claim 1 a to k, characterized in that
    • (p) in einer Einrichtphase a priori allen Raumgeraden eine individuelle Kennung gegeben wird, die für alle Bildaufnehmer identisch ist und die in einer durch die eingenommenen Bildpositionen indizierten Tabelle abgelegt werden. (P) an individual identifier is given in a setup phase of a priori all spatial straight line, which is identical for all image sensor and which are stored in an indexed by the area occupied image positions table.
    • (q) in der Vermessungsphase die durch die zuvor bestimmten eingenommenen Bildpositionen der Abbilder der markanten Raumpunkte bestimmten Tabelleneinträge ausgelesen und zur Berechnung des Raumpunktes herangezogen werden. (Q) are read out in the measurement phase, determined by the predetermined occupied image positions of the images of distinct points in space table entries and used to calculate the spatial point.
DE1996104977 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions Withdrawn DE19604977A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1996104977 DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1996104977 DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Publications (1)

Publication Number Publication Date
DE19604977A1 true true DE19604977A1 (en) 1997-08-07

Family

ID=7785106

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1996104977 Withdrawn DE19604977A1 (en) 1996-02-03 1996-02-03 Three-dimensional measurement method for dynamic spatial regions

Country Status (1)

Country Link
DE (1) DE19604977A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10244992A1 (en) * 2002-09-26 2004-04-01 Conti Temic Microelectronic Gmbh Space monitoring system, especially for monitoring a motor vehicle interior has at least one sensor so that, for example, sound playback, noise damping or climate control, can be matched to the number of occupants,
DE102004020587A1 (en) * 2004-04-27 2005-11-24 Siemens Ag Method and apparatus for visually supporting an electrophysiological catheter application with 2D X-ray images
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
US7486805B2 (en) 2003-02-27 2009-02-03 Storz Endoskop Produktions Gmbh Method and optical system for measuring the topography of a test object
DE102011007520A1 (en) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Method for calibrating orientation unit of labeling device for e.g. glass bottle for storing drinks, involves calculating algorithm for coordinate transformation from camera coordinate system into absolute Cartesian coordinate system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3129492A1 (en) * 1981-07-27 1983-02-10 Siemens Ag 3d airspace-ueberwachungsradar
US4668094A (en) * 1985-01-31 1987-05-26 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for measuring the three-dimensional shape of a solid object
DE3541891A1 (en) * 1985-11-27 1987-06-04 Kambiz Kachanian Method for detecting, storing and reproducing geometrical data of objects, in particular of jaw models, and a device for carrying out the method
US4707698A (en) * 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4802759A (en) * 1986-08-11 1989-02-07 Goro Matsumoto Three-dimensional shape measuring apparatus
US4937445A (en) * 1986-09-24 1990-06-26 Softac Systems Ltd. Apparatus for determining the distances of points on a surface from a reference axis
DE4123898A1 (en) * 1991-07-18 1993-01-21 Siemens Ag Three=dimensional radar system using two azimuthal sweeps - applies Pythagoras theorem to calculate altitude of target from measured slant range and horizontal triangle geometry
DE4134117C2 (en) * 1991-10-15 1996-02-01 Kaltenbach & Voigt A method for optical measurement of objects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4707698A (en) * 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
DE3129492A1 (en) * 1981-07-27 1983-02-10 Siemens Ag 3d airspace-ueberwachungsradar
US4668094A (en) * 1985-01-31 1987-05-26 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for measuring the three-dimensional shape of a solid object
DE3541891A1 (en) * 1985-11-27 1987-06-04 Kambiz Kachanian Method for detecting, storing and reproducing geometrical data of objects, in particular of jaw models, and a device for carrying out the method
US4802759A (en) * 1986-08-11 1989-02-07 Goro Matsumoto Three-dimensional shape measuring apparatus
US4937445A (en) * 1986-09-24 1990-06-26 Softac Systems Ltd. Apparatus for determining the distances of points on a surface from a reference axis
DE4123898A1 (en) * 1991-07-18 1993-01-21 Siemens Ag Three=dimensional radar system using two azimuthal sweeps - applies Pythagoras theorem to calculate altitude of target from measured slant range and horizontal triangle geometry
DE4134117C2 (en) * 1991-10-15 1996-02-01 Kaltenbach & Voigt A method for optical measurement of objects

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IDESAWA,Masanori, et.al.: Scanning moirE method and automatic measurement of 3-D shapes. In: Applied Optics, Vol.16, No.8, Aug. 1977, S.2152-2162 *
JANOCHA,Hartmut, ZAPP,Michael: Fertigungsnahe 3D-Koordinatenmessung mit bewegter CCD-Kamera. In: tm - Technisches Messen 61, 1994, 9, S.329- S.334 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10310768B4 (en) * 2002-03-13 2016-08-04 Omron Corp. Apparatus for monitoring in three dimensions
US7263217B2 (en) 2002-03-13 2007-08-28 Omron Corporation Three-dimensional monitoring apparatus
DE10244992A1 (en) * 2002-09-26 2004-04-01 Conti Temic Microelectronic Gmbh Space monitoring system, especially for monitoring a motor vehicle interior has at least one sensor so that, for example, sound playback, noise damping or climate control, can be matched to the number of occupants,
US7486805B2 (en) 2003-02-27 2009-02-03 Storz Endoskop Produktions Gmbh Method and optical system for measuring the topography of a test object
US7502642B2 (en) 2004-04-27 2009-03-10 Siemens Aktiengesellschaft Method and device for visually supporting an electrophysiological catheter application
DE102004020587B4 (en) * 2004-04-27 2016-02-18 Siemens Aktiengesellschaft Method and apparatus for visually supporting an electrophysiological catheter application with 2D X-ray images
DE102004020587A1 (en) * 2004-04-27 2005-11-24 Siemens Ag Method and apparatus for visually supporting an electrophysiological catheter application with 2D X-ray images
DE102011007520A1 (en) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Method for calibrating orientation unit of labeling device for e.g. glass bottle for storing drinks, involves calculating algorithm for coordinate transformation from camera coordinate system into absolute Cartesian coordinate system

Similar Documents

Publication Publication Date Title
Sansoni et al. Three-dimensional vision based on a combination of gray-code and phase-shift light projection: analysis and compensation of the systematic errors
Garcia et al. A combined temporal tracking and stereo-correlation technique for accurate measurement of 3D displacements: application to sheet metal forming
Pieraccini et al. 3D digitizing of cultural heritage
US4893183A (en) Robotic vision system
Cowan et al. Automatic sensor placement from vision task requirements
Bergevin et al. Towards a general multi-view registration technique
US5475422A (en) Method and apparatus for reconstructing three-dimensional objects
US6195455B1 (en) Imaging device orientation information through analysis of test images
Marshall et al. Computer vision, models, and inspection
Geng Rainbow three-dimensional camera: new concept of high-speed three-dimensional vision systems
US20060103854A1 (en) Non-contact apparatus and method for measuring surface profile
Beraldin Integration of laser scanning and close-range photogrammetry–The last decade and beyond
US4979815A (en) Laser range imaging system based on projective geometry
US20070195162A1 (en) Single-lens aperture-coded camera for three dimensional imaging in small volumes
Altschuler et al. Laser electro-optic system for rapid three-dimensional (3-D) topographic mapping of surfaces
Ivanov et al. Computer stereo plotting for 3-D reconstruction of a maize canopy
US20110134225A1 (en) System for adaptive three-dimensional scanning of surface characteristics
US4653104A (en) Optical three-dimensional digital data acquisition system
Boehler et al. The potential of non-contact close range laser scanners for cultural heritage recording
US20060209193A1 (en) Aperture coded camera for three dimensional imaging
Jarvis A perspective on range finding techniques for computer vision
Sequeira et al. Automated 3D reconstruction of interiors with multiple scan views
Maas Complexity analysis for the establishment of image correspondences of dense spatial target fields
Dapena et al. Three-dimensional cinematography with control object of unknown shape
EP2023077A1 (en) Method and measuring system for contactless coordinate measurement of the surface of an object

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8122 Nonbinding interest in granting licenses declared
8139 Disposal/non-payment of the annual fee