DE102007023920A1 - Method and device for surface detection of a spatial object - Google Patents
Method and device for surface detection of a spatial object Download PDFInfo
- Publication number
- DE102007023920A1 DE102007023920A1 DE200710023920 DE102007023920A DE102007023920A1 DE 102007023920 A1 DE102007023920 A1 DE 102007023920A1 DE 200710023920 DE200710023920 DE 200710023920 DE 102007023920 A DE102007023920 A DE 102007023920A DE 102007023920 A1 DE102007023920 A1 DE 102007023920A1
- Authority
- DE
- Germany
- Prior art keywords
- illumination
- different
- lighting
- object point
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren und Vorrichtung zur Oberflächenerfassung eines räumlichen Objektes (1) mittels Bildaufnahme über eine Fläche oder entlang einer Linie, strukturierter Beleuchtung sowie unterschiedlicher Beleuchtungs- (7) und Aufnahmerichtung (5), dadurch gekennzeichnet, dass mittels unterschiedlichem zeitlichen Beleuchtungsverlauf von Objektpunkten oder Objektpunktgruppen die am jeweiligen Objektpunkt (P) vorliegende Beleuchtungsrichtung (7) bestimmt wiung (5) der Bildaufnahme die Raumkoordinaten des Objektpunktes berechnet werden.Method and device for surface detection of a spatial object (1) by means of image acquisition over a surface or along a line, structured illumination and different illumination (7) and recording direction (5), characterized in that by means of different temporal illumination course of object points or object point groups on determined illumination point (7) determines wiung (5) of the image acquisition, the spatial coordinates of the object point are calculated.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Oberflächenerfassung einer dreidimensionalen Objektoberfläche, wobei allgemein eine Bilderfassung mit strukturierter Beleuchtung und Triangulation erfolgt.The The invention relates to a method and a device for surface detection a three-dimensional object surface, generally an image capture done with structured lighting and triangulation.
In der industriellen Bildverarbeitung wird zunehmend die Erfassung und Verarbeitung dreidimensionaler Bilder aufgrund der Komplexität der Aufgabenstellung sowie der notwendigen Zuverlässigkeit erforderlich. Ähnliches gilt für die Bereiche Safety/Sicherheitstechnik zum Schutz von Personen und Security/Sicherheitstechnik zur Zugangsüberwachung, sowie auch für den Bereich Medizintechnik. Dabei werden hohe Anforderungen an die Datenrate, die Dynamik sowie die Auflösung der dreidimensionalen Bildinformationen gestellt. Zusätzlich sollten aus Kostengründen weitgehend Standardkomponenten Verwendung finden. Derzeit kommen hierfür in erster Linie Verfahren der Videobildverarbeitung in Verbindung mit aktiver Beleuchtung und Triangulation zur Anwendung. Unter aktiver Beleuchtung ist insbesondere eine strukturierte Beleuchtung zu verstehen.In The industrial image processing is increasingly the detection and processing three-dimensional images due to the complexity of the task as well as the necessary reliability required. something similar applies to the areas safety / security technology for the protection of persons and Security / security technology for access control, as well as for the area Medical technology. There are high demands on the data rate, the dynamics as well as the resolution the three-dimensional image information provided. In addition, should for cost reasons are largely standard components use. Currently coming therefor primarily method of video image processing with active lighting and triangulation for use. Under active Lighting is to be understood in particular as a structured illumination.
Die heute in der Regel eingesetzten dreidimensionalen (3D)-Verfahren auf der Basis von Videokameras und Triangulation unterscheiden sich im Wesentlichen durch die Art der aktiven Beleuchtung. Allen Verfahren ist dabei gemeinsam, dass die Raumkoordinaten eines Objektpunktes durch den Schnitt eines Sehstrahls (Beobachtungsstrahl) der Videokamera und einer Raumebene, welche durch die aktive Beleuchtung vorgegeben und bekannt ist, bestimmt wird. Die einfachste Generierung von definierten Raumebenen stellen Hell-Dunkel-Streifen bei der Objektbeleuchtung dar. An dieser Stelle wird jedoch sehr schnell bei entsprechenden Tiefensprüngen an der Objektoberfläche die Eindeutigkeit gestört. Dieses Problem wird umgan gen durch den so genannten Grey-Code, wobei jede Beleuchtungsebene im Raum durch die eine zeitliche Sequenz von Binärmustern eindeutig definiert ist. Der Nachteil liegt in der deutlich geringeren Datenrate im Verhältnis zu Systemen ohne diese Codierung, da mit der Codierung eine Vielzahl von Videobildern erforderlich wird, wie beispielsweise acht Bilder. Auch haben die auf Streifenmustern basierenden Verfahren grundsätzlich den Nachteil, dass die Tiefeninformation nur an Kantenübergängen bestimmt werden kann, nicht jedoch innerhalb der Strukturen.The today generally used three-dimensional (3D) method on the Basics of video cameras and triangulation are essentially different by the kind of active lighting. All procedures are included common that the spatial coordinates of an object point through the cut a visual beam (observation beam) of the video camera and a Room level, which is given by the active lighting and known is determined. The simplest generation of defined room levels represent light-dark stripes in the object lighting. At this However, position becomes very fast at corresponding depth jumps the object surface the uniqueness disturbed. This problem is circumvented by the so-called gray code, where every lighting level in the room through the one temporal sequence of binary patterns is clearly defined. The disadvantage is in the much lower Data rate in proportion to systems without this encoding, because with the coding a variety requires video pictures, such as eight pictures. Also, the striped pattern-based methods basically have the Disadvantage that the depth information only determines at edge transitions but not within the structures.
Zur Lösung des oben angesprochenen Problems kann das so genannte Phasen-Shift-Verfahren eingesetzt werden. Hier wird eine sinusförmig modulierte Helligkeitsverteilung in unterschiedlichen Phasenlagen und Perioden sequentiell auf das Projekt projiziert. Nachteilig gestaltet sich hier allerdings auch die Vielzahl von erforderlichen Videobildern zur Gewinnung eines einzigen dreidimensionalen Bildes. Durch unterschiedliche farbige Gestaltung der Beleuchtungsebenen kann aus einem einzigen Videobild auch die Lage der Beleuchtungsebenen im Raum bestimmt werden. Die daraus resultierende hohe Datenrate für die 3D-Bilder hat jedoch den Nachteil, dass nur an den Kanten 3D-Informationen gewonnen werden können. Ferner führt die Verwendung eines breiten Farbspektrums zu einer höheren Empfindlichkeit gegenüber Tageslicht.to solution of the above-mentioned problem, the so-called phase shift method can be used become. Here is a sinusoidal modulated brightness distribution in different phase angles and periods projected sequentially onto the project. adversely However, here too, the large number of required ones is created Video images for obtaining a single three-dimensional image. By different colored design of lighting levels can From a single video image, the location of the lighting levels to be determined in the room. The resulting high data rate for the However, 3D images has the disadvantage that only 3D information is gained at the edges can be. Further leads the use of a broad color spectrum to a higher sensitivity across from Daylight.
Der Erfindung liegt somit die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur dreidimensionalen Objekterfassung zu beschreiben, welche/s Nachteile entsprechend dem Stand der Technik vermeidet.Of the Invention is therefore the object of a method and a Describe apparatus for three-dimensional object detection which avoids disadvantages of the prior art.
Die Lösung dieser Aufgabe geschieht durch die Merkmalskombination des Patentanspruchs 1 bzw. des Anspruchs 16. Vorteilhafte Ausgestaltungen sowie Verwendungen sind den Unteransprüchen zu entnehmen.The solution This task is done by the combination of features of the claim 1 and of claim 16. Advantageous embodiments and uses are the dependent claims refer to.
Der Erfindung liegt die Erkenntnis zugrunde, dass unter Beibehaltung der allgemeinen Verfahrensweise zur Oberflächener fassung eines räumlichen Objektes mittels strukturierter Beleuchtung und unterschiedlicher Beleuchtungs- und Aufnahmerichtung eine wesentliche Verfahrensvereinfachung, Beschleunigung und Reproduktionssicherheit durch die Anwendung einer erfindungsgemäßen Codierung des strukturierten Lichtes erzielen lässt. Diese Strukturierung des Lichtes wird durch eine zeitliche Codierung der optischen Triangulation dargestellt, wodurch mittels lediglich zweier Videobilder die vollständige Erfassung eines dreidimensionalen Bildes erzielbar ist. Die räumlichen Koordinaten eines Objektpunktes werden aus dem Schnittpunkt einer Ebene und eines Strahls bestimmt. Dies liegt vor, falls ein Kamerastrahl/Sehstrahl eine Ebene schneidet, eine Beleuchtungsebene, für die eine bestimmte Zeitcodierung zutrifft und die somit eindeutig identifizierbar ist. Der Objektpunkt liegt dabei sowohl auf dem Sehstrahl als auch auf der Beleuchtungsebene. An dieser Stelle kann ein geometrisches Berechnungsverfahren ansetzen, wobei in der Regel zweckmäßigerweise die Triangulation verwendet wird. Somit ergibt sich aus dem Sehstrahl und dessen Richtung durch die ermittelte Beleuchtungsebene eindeutig die räumliche Position des einen oder bei weiteren Kombinationen für die Vielzahl von Objektoberflächenpunkten jeweils deren Position. Insgesamt lässt sich daraus ein vollständiges dreidimensionales Bild zusammensetzen.Of the Invention is based on the finding that while maintaining the general procedure for Oberflächener constitution of a spatial Object by means of structured lighting and different Lighting and recording direction an essential procedural simplification, Acceleration and reproductive safety through the application of a coding of the invention structured light. This structuring of the Light is given by a temporal coding of the optical triangulation represented, whereby by means of only two video images, the complete detection a three-dimensional image is achievable. The spatial Coordinates of an object point become from the intersection of a Plane and a beam. This is if there is a camera beam / line of sight a plane intersects, a lighting plane, for a given time encoding is true and thus clearly identifiable. The object point lies both on the line of sight and on the lighting level. At this point, a geometric calculation method can begin, usually expediently the triangulation is used. This results from the line of sight and its direction by the determined lighting level clearly the spatial Position of one or more combinations for the plurality of object surface points each their position. Overall, it can be a complete three-dimensional Assemble picture.
Die Kombination der Zeitcodierung und der optischen Triangulation zur vollständigen Erfassung eines dreidimensionalen Bildes ergibt wesentliche Vorteile. Für industrielle Anwendungen sind wesentliche Vorteile hinsichtlich einer höheren Datenrate im Vergleich zu bestehenden Verfahren zu erwarten.The Combination of time coding and optical triangulation complete Capturing a three-dimensional image yields significant benefits. For industrial Applications are significant advantages in terms of a higher data rate compared to existing procedures.
Die räumliche Lage einer Ebene kann mittels der Zeitcodierung der Beleuchtung am Kamerabild erkannt werden. Da bisherige Verfahren lange Zeit als Codierungskriterium Farbe oder unterschiedliche Schwarz-Weiß-Sequenzen oder Phasenverschiebungen eingesetzt haben, obwohl damit unterschiedliche Nachteile vorhanden waren, stellt der Einsatz einer zeitcodierten strukturierten Beleuchtung einen wesentlichen erfinderischen Schritt dar. Mit der Zeitcodierung wird die Raumebene oder der Strahl, auf dem der Objektpunkt liegt, eindeutig durch die an dem Objektpunkt herrschende Beleuchtungsdauer Tn codiert bzw. gekennzeichnet. Zur Verifizierung von Beleuchtungsebenen mit jeweils unterschiedlicher Beleuchtungsdauer wird beispielsweise eine Hell-Dunkelkante derart vor der Beleuchtung bewegt, dass für jede Position auf der Objektoberfläche eine eindeutige, aber unterschiedliche Beleuchtungsdauer Tn entsteht.The spatial position of a plane can be detected by means of the time coding of the illumination on the camera image. Since previous methods have long used color or different black-and-white sequences or phase shifts as the coding criterion, although different disadvantages have been present, the use of time-coded structured illumination represents an essential inventive step. With the time coding, the spatial plane or the beam, on which the object point lies, unambiguously coded or marked by the illumination duration T n prevailing at the object point. In order to verify illumination levels with different illumination durations, for example, a bright-dark edge is moved in front of the illumination in such a way that a unique but different illumination duration T n is produced for each position on the object surface.
Die Aufbringung einer derartig strukturierten Beleuchtung auf einer Objektoberfläche kann vorteilhafterweise durch eine dynamische Beleuchtung über einen Digital Mirror Device (DMD) realisiert werden, wobei simuliert wird, dass eine optische Kante, die sich bewegt, erzeugt wird. insbesondere bei makroskopischen Anwendungen im Bereich von Safety und Security ist auch eine Anordnung von Halbleiter-Lichtquellen sinnvoll, die definierte Beleuchtungsstrahlen erzeugen und deren Codierung bzw. die Codierung des Lichtes wird durch eine zeitlich versetzte Einschaltung erzeugt.The Application of such a structured lighting on one object surface can advantageously by a dynamic lighting over a Digital Mirror Device (DMD), simulating that an optical edge that moves is generated. especially for macroscopic applications in the area of safety and security is also an arrangement of semiconductor light sources makes sense generate defined illumination beams and their coding or the coding of the light is by a time-shifted activation generated.
Wesentlich für die Erfindung ist die Erkennung der Beleuchtungsdauer für jeden einzelnen Objektpunkt bzw. für jedes Pixel in einem Kamerabild und damit die Bestimmung der Raumebene oder des Strahls, auf dem der einzelne Objektpunkt sich befindet. Hierzu wird vorteilhafterweise eine integrierende Halbleiterkamera mit m mal n Elementen eingesetzt, die über eine Integrationszeit T0 an jedem Pixel die lokale Beleuchtungsstärke aufintegriert und als Ergebnis eine Spannung U0n liefert. Die Steigung dieses Anstiegs an einem beliebigen Pixel n beträgt dann bei exakter Integration und konstanter Beleuchtung innerhalb der Integrationszeit T0: tan α = U0n/T0.Essential for the invention is the detection of the illumination duration for each individual object point or for each pixel in a camera image and thus the determination of the spatial plane or of the beam on which the individual object point is located. For this purpose, an integrating semiconductor camera with m by n elements is advantageously used, which integrates the local illumination intensity at each pixel over an integration time T 0 and as a result delivers a voltage U 0n . The slope of this rise at any pixel n is then, with exact integration and constant illumination within the integration time T 0 : tan α = U 0n / T 0 .
In einem weiteren Kamerabild wird nun synchron zum Beginn der Integration der Halbleiter-Kamera die Beleuchtung des Gesichtsfeldes über die Bewegung der Hell-Dunkel-Kante gestartet. Zweckmäßigerweise wird die volle Beleuchtung deutlich vor dem Ende der Integrationszeit erreicht, um die Beleuch tungsdauer der einzelnen Pixel nicht zu unterschiedlich ausfallen zu lassen. Beispielsweise kann TS = T0/2 sein. Die Beleuchtungsdauer Tn eines beliebigen Objektpunktes hängt dann eindeutig von dessen Lage sowie dem zeitlichen Bewegungsverhalten der Hell-Dunkel-Kante ab. Für jeden einzelnen Objektpunkt errechnet sich die Zeit Tn aus der jeweiligen Spannung Un bei dynamischer Beleuchtung sowie aus der jeweiligen Spannung U0n bei der vollständigen Beleuchtung über die gesamte Integrationszeit T0 hinweg, wobei letztere aus dem ersten aufgenommenen Kamerabild bekannt ist.In another camera image, the illumination of the field of view is started by the movement of the light-dark edge synchronously with the beginning of the integration of the semiconductor camera. Conveniently, the full illumination is achieved significantly before the end of the integration time so as not to make the lighting duration of each pixel too different. For example, T S = T 0/2 . The illumination duration T n of any object point then depends uniquely on its position and the temporal movement behavior of the light-dark edge. For each individual object point, the time T n is calculated from the respective voltage U n in the case of dynamic illumination and from the respective voltage U 0n during complete illumination over the entire integration time T 0 , the latter being known from the first recorded camera image.
Eine mathematische Beziehung für den Zusammenhang entsprechend dem letzten Absatz ist wie folgt A mathematical relationship for the context according to the last paragraph is as follows
Durch die beschriebene Kombination einer dynamischen Beleuchtung und einer Vollbildbeleuchtung wird für jeden einzelnen Bildpunkt die Beleuchtungsdauer aus dem resultierenden Kamerabild bestimmbar und damit die Beleuchtungsebenen bzw. der Beleuchtungsstrahl, auf dem sich der einzelne Objektpunkt befindet.By the described combination of a dynamic lighting and a Full screen lighting is used for every single pixel the illumination duration from the resulting Camera image determined and thus the lighting levels or the Illuminating beam on which the single object point is located.
Der Einsatz einer bewegbaren Hell-Dunkel-Kante zur Erzeugung einer Lichtcodierung erlaubt darüber hinaus eine lückenlose Erfassung der dreidimensionalen Koordinaten aller Objektpunkte. Die Verwendung von monochromatischem Licht, vorzugsweise im nahen Infrarotbereich macht das Verfahren insgesamt gegenüber Umgebungsbeleuchtung robust. Ein zusätzlicher Vorteil liegt in einer weiteren Unempfindlichkeit gegenüber einer unscharfen Abbildung aufgrund der Quotientenbildung zweier integraler Intensitätswerte am gleichen Ort.Of the Use of a movable light-dark edge to generate a light coding allowed over it beyond a gapless Acquisition of the three-dimensional coordinates of all object points. The Use of monochromatic light, preferably in the near infrared range makes the process overall robust against ambient lighting. An additional one Advantage lies in a further insensitivity to one blurred figure due to the quotient of two integral intensity values at the same place.
Im Folgenden werden anhand der schematischen begleitenden Figuren Ausführungsbeispiele beschrieben:in the Exemplary embodiments will be described below with reference to the schematic accompanying figures:
Die
Vorteile der Erfindung liegen insbesondere darin, dass
– eine hohe
Datenrate verarbeitbar ist, da pro aufgenommenem dreidimensionalen
Bild lediglich zwei Videobilder erforderlich sind,
– umgebungsunabhängige dreidimensionale
Messungen für
jedes Pixel möglich
sind,
– ein
monochromatisches Verfahren möglich
ist, welches insbesondere eine hohe Stabilität bzw. Robustheit gegenüber Umgebungslicht
aufweist,
– das
Verfahren weitgehend unabhängig
von der Abbildungsqualität
der aktiven Beleuchtung ist, die beispielsweise durch eine Hell-Dunkel-Kante
dargestellt ist, wobei die Kantenschärfe betrachtet wird.The advantages of the invention are in particular that
A high data rate can be processed since only two video images are required per recorded three-dimensional image,
- environment-independent three-dimensional measurements are possible for each pixel,
- A monochromatic method is possible, wel Ches in particular has a high stability or robustness to ambient light,
- The method is largely independent of the imaging quality of the active illumination, which is represented for example by a light-dark edge, the edge sharpness is considered.
Das Prinzip der Erfindung lässt sich derart skizzieren, dass jede Beleuchtungsebene bei der dreidimensionalen Objektaufnahme eindeutig über die Beleuchtungsdauer bzw. den zeitlichen Beginn der Beleuchtung codiert bzw. zugeordnet wird, und die pixelspezifische Beleuchtungsdauer bzw. der zeitliche Beginn der Beleuchtung unmittelbar aus dem Videosignal des einzelnen Pixels bestimmt wird.The Principle of the invention leaves Outline yourself in such a way that each lighting level in the three-dimensional Object photograph clearly above the Illumination time or the beginning of the lighting coded or mapped, and the pixel-specific illumination duration or the timing of the lighting directly from the video signal of the individual pixel is determined.
Im
Vergleich zur bekannten Grey-Code-Verfahren, Phasen-Shift-Verfahren, Colour-coded
Triangulation, weist die so genannte Time-coded Triangulation/zeitcodierte
Triangulation Vorteile auf:
Es können höhere Datenraten erzielt werden,
es wird ein gesamtes dreidimensionales Bild erzeugt, die Robustheit
gegen Umgebungsbeleuchtung ist groß und die Robustheit gegenüber Unschärfen im
System ist ebenfalls groß.Compared to the well-known gray code method, phase shift method, color-coded triangulation, so-called time-coded triangulation / time-coded triangulation has advantages:
Higher data rates can be achieved, an entire three-dimensional image is generated, the robustness against ambient lighting is high and the robustness against blurring in the system is also great.
Die zeitcodierte Triangulation hat somit insgesamt eine größere Anzahl von wesentlichen Vorteilen gegenüber dem im Stand der Technik bekannten Verfahren bei gleichem Kostenaufwand. So genannte Phasen-Shift-Verfahren sind mit dem Nachteil einer niedrigen Datenrate verbunden. So genanntes Colour-coded Triangulations-Verfahren weist zwar eine hohe Datenrate auf, ist jedoch in anderen Punkten nachteilig.The Time-coded triangulation thus has a larger number overall of significant advantages over the method known in the art at the same cost. So-called phase-shift methods are at a disadvantage of being low Data rate connected. So-called color-coded triangulation method Although it has a high data rate, it is in other respects disadvantageous.
Die
Wesentlich ist die Erfassung des zeitlichen Verlaufs der Beleuchtung je Pixel in der Bildaufnahme. Dabei sind zumindest die Erfassung von Beleuchtungsanfang und Beleuchtungsende, bzw. die Dauer der Beleuchtung zu verstehen. Eine Vorrichtung zur Auswertung dieses zeitlichen Verlaufs der Beleuchtung enthält einen besonders geeigneten Halbleiterchip, der Pro Pixel diesen Wert bzw. diese Werte ausgibt.Essential is the acquisition of the temporal course of illumination per pixel in the picture. In this case, at least the detection of lighting start and lighting end, or to understand the duration of the lighting. A device for evaluating this time course of the illumination contains a particularly suitable semiconductor chip, the Pro Pixel this Value or outputs these values.
Die
in den Formeln in
- Un
- mittlere Beleuchtungsebene,
- U0n
- Spannung an beliebigem Pixel n,
- Tn
- Beleuchtungsdauer,
- T0
- Integrationszeit
- P
- Objektpunkt.
- U n
- middle lighting level,
- U 0n
- Voltage at any pixel n,
- T n
- Light time,
- T 0
- integration time
- P
- Object point.
Claims (16)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200710023920 DE102007023920A1 (en) | 2007-05-23 | 2007-05-23 | Method and device for surface detection of a spatial object |
PCT/EP2008/055558 WO2008141924A1 (en) | 2007-05-23 | 2008-05-06 | Method and device for detecting the surface of a spatial object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200710023920 DE102007023920A1 (en) | 2007-05-23 | 2007-05-23 | Method and device for surface detection of a spatial object |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102007023920A1 true DE102007023920A1 (en) | 2008-12-04 |
Family
ID=39691124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE200710023920 Ceased DE102007023920A1 (en) | 2007-05-23 | 2007-05-23 | Method and device for surface detection of a spatial object |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102007023920A1 (en) |
WO (1) | WO2008141924A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015002282A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement |
DE102016108496A1 (en) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optical transit time measurement according to a one- or two-stage delta-sigma method and associated device |
WO2017148772A1 (en) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19810495A1 (en) * | 1998-03-11 | 1999-09-23 | Bernd Schleifenbaum | Optical three-dimensional sensor with very high measurement speed and accuracy for three-dimensional measurement of work piece surfaces |
DE10344051B4 (en) * | 2003-09-23 | 2008-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for measuring distances and / or spatial coordinates of an object |
JP4730836B2 (en) * | 2005-09-15 | 2011-07-20 | Jfeスチール株式会社 | Apparatus and method for measuring surface distortion |
-
2007
- 2007-05-23 DE DE200710023920 patent/DE102007023920A1/en not_active Ceased
-
2008
- 2008-05-06 WO PCT/EP2008/055558 patent/WO2008141924A1/en active Application Filing
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015002282A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement |
DE102015002283A1 (en) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Device and method for in particular three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement and object-dependent spatial resolution of several different individual scanners |
DE102015002270A1 (en) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Device and method for in particular three-dimensional optical scanning, measuring and classifying objects and for object recognition by means of light transit time measurement |
DE102015002271A1 (en) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Device and method for especially three-dimensional optical scanning and measuring of objects and for object recognition by means of light transit time measurement |
DE102015002283B4 (en) | 2014-05-09 | 2023-01-19 | Elmos Semiconductor Se | Device for, in particular, three-dimensional optical scanning and measuring of objects and for object recognition using time-of-flight measurement and object-dependent spatial resolution of a number of different individual scanners |
DE102016108496A1 (en) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optical transit time measurement according to a one- or two-stage delta-sigma method and associated device |
WO2017148772A1 (en) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver |
US11187792B2 (en) | 2016-03-01 | 2021-11-30 | Elmos Semiconductor Se | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver |
Also Published As
Publication number | Publication date |
---|---|
WO2008141924A1 (en) | 2008-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2400261A1 (en) | Optical measurement method and system for determining 3D coordination in a measuring object surface | |
EP1784978A1 (en) | Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry | |
DE102008002725B4 (en) | Method and device for 3D reconstruction | |
WO2016188881A1 (en) | Method and camera for the three-dimensional measurement of a dental object | |
DE102008002730A1 (en) | Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves selecting one of structural elements such that each element exhibits different intensity value | |
EP2019281B1 (en) | Method for operating a 3D sensor | |
EP2791619B1 (en) | Method and device for the 3d measurement of depth-limited objects | |
DE102009009372A1 (en) | Monitoring of tiltable mirrors | |
DE102009018464B4 (en) | Optical sensor | |
EP2799810A1 (en) | Apparatus and method for simultaneous three-dimensional measuring of surfaces with multiple wavelengths | |
DE102017222708A1 (en) | 3D environment detection via projector and camera modules | |
DE102011101476B4 (en) | Process for 3D measurement of objects | |
WO2015193383A1 (en) | Method for determining a spatial displacement vector field | |
DE102005034990B4 (en) | Method and device for digital projection with high image sharpness | |
DE102007023920A1 (en) | Method and device for surface detection of a spatial object | |
EP2887010A1 (en) | Method and device for three dimensional optical measurement of objects with a topometric measuring method and computer programme for same | |
DE10321883A1 (en) | Triangulation measurement device for determining object 3D structure has illumination and observation arrays with a projected pattern being evaluated using cross correlation or phase shift analysis | |
DE102015208442A1 (en) | Method and device for determining at least one object image in an environment around a non-sensitive optical image sensor | |
DE102010036852A1 (en) | Stereo camera for safety-related monitoring of spatial area, has stereoscopy charging unit charging two raw images to three-dimensional depth map, and generation unit generating two-dimensional diagnostic image from raw image | |
EP1808669A1 (en) | Device and method for three dimensional optical measuring | |
DE102016109131B4 (en) | Method for the three-dimensional detection of an object | |
DE19753246C2 (en) | Device for determining three-dimensional data from objects | |
DE10301094B4 (en) | Device for measuring the distance of distance points to a camera | |
EP3158287B1 (en) | Method for detecting an image of a preferably structured surface of an object | |
DE10333493A1 (en) | 3D object measurement system strip projector has light source modulated in synchronism with rotating mirror to suit camera exposure time |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |