EP2326914A2 - 3d-vermessungssystem sowie 3d-vermessungsverfahren - Google Patents

3d-vermessungssystem sowie 3d-vermessungsverfahren

Info

Publication number
EP2326914A2
EP2326914A2 EP09781946A EP09781946A EP2326914A2 EP 2326914 A2 EP2326914 A2 EP 2326914A2 EP 09781946 A EP09781946 A EP 09781946A EP 09781946 A EP09781946 A EP 09781946A EP 2326914 A2 EP2326914 A2 EP 2326914A2
Authority
EP
European Patent Office
Prior art keywords
surveying
active
analog
light
optics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP09781946A
Other languages
English (en)
French (fr)
Inventor
Wolfgang Niem
Wolfgang Niehsen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP2326914A2 publication Critical patent/EP2326914A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Definitions

  • the present invention relates to an active 3D surveying system for measuring objects and to a corresponding 3D surveying method.
  • 3D surveying systems are divided into active and passive systems. Active systems actively illuminate the system being measured with an artificial light source, while passive methods work alone with the ambient light.
  • the actively illuminating methods include, for example, runtime-measuring laser scanners, range video sensors, active triangulation methods with a high-quality projector and digital video camera and ultrasound sensors.
  • An example of a passive 3D surveying system is the stereo camera, for example.
  • Ultrasonic sensors today provide cost-effective 3D surveying systems, which are used in particular in the field of robotics.
  • a disadvantage of ultrasonic sensors, however, is that you get only a small angular resolution and virtually only one 3D depth value per measurement.
  • the present invention provides an active SD surveying system with a striped light projection optics, a video camera with an analog video output; an analog operational amplifier circuit, which is designed such that it detects points with a high gray-scale gradient in the analog video signal, and a microphone rocontroller, which is designed such that it digitally determines the depth of the detected points.
  • the detection of points with a high gray scale gradient and thus the detection of points projected onto the object to be measured strip light in the video signal is thus analogous using an analog operational amplifier circuit, for example, a video amplifier, differentiator, comparators and may have.
  • an inexpensive video camera can be used and, on the other hand, expensive components that would be required for digital detection can be dispensed with.
  • the subsequent further processing of the output signals of the analog operational amplifier circuit for determining depth values of the detected points can be carried out with the aid of an inexpensive microcontroller, preferably with the aid of a conventional 8-bit microcontroller, such as a PIC or the like.
  • the total cost of an active 3D surveying system with the structure described above is very small. Furthermore, many 3D depth values can be measured with good angular resolution per measurement with the SD measuring system according to the invention.
  • This combination of positive properties opens up a broad spectrum of new application possibilities. For example, in the field of robotics, ultrasonic sensors that have low angular resolution and provide virtually only one 3D depth value per measurement can be replaced with no significant additional cost by 3D surveying systems according to the present invention, if a good angular resolution and a plurality of depth values are desirable per measurement.
  • the surveying system according to the invention also has potential as a sensor for vehicle parking aids, measuring tools, monitoring systems, etc.
  • a sync separator between the analog operational amplifier circuit is provided according to a preferred embodiment of the present invention, which generates the required vertical and horizontal synchronization signals from the analog composite video signal.
  • the video camera is advantageously rigidly connected to an optical system, which improves the robustness of the active 3D surveying system according to the present invention.
  • the optics preferably comprise an NIR light source, wherein an NIR filter is arranged in the beam path of the video camera, which at least partially filters out visible light. Accordingly, the points to be detected have a greater contrast or gray-scale gradient with respect to the environment, which is why the projected strip light is better detectable in the video image of the video camera.
  • the optics is further aligned such that the light stripes are emitted parallel to an axis of a coordinate system, which is based on the determination of depth values.
  • the computational effort for determining the depth values or the scope of a look-up table (LUT), which is used to determine depth values can be significantly reduced, as will be explained in more detail in the description of an embodiment of the present invention .
  • the present invention provides a 3D surveying method, in particular using an active 3D surveying system of the kind described above, the method comprising the steps of: projecting strip light onto an object to be measured; Taking a video image of the object; Picking up an analog video signal; Searching for and detecting high gray scale gradient points on predefined search lines in the analog video signal; Associating the detected points with projected fringe lines; and determining depth values of the points.
  • the depth values can be calculated or determined on the basis of a previously created LUT.
  • the video image of the video camera is calibrated prior to carrying out the method according to the invention with respect to the projecting strip light.
  • the light stripes are advantageously emitted parallel to an axis of the coordinate system on which the determination of depth values is based in order to reduce the computational effort for determining the depth values.
  • a further video image of the object is recorded as a reference image, wherein no light stripes are projected onto the object.
  • a negative influence of the ambient light on the detection of points with a high gray-scale gradient can be minimized. Accordingly, incorrect measurements can be prevented.
  • Figure 1 is a schematic view of a 3D surveying system according to the present invention
  • Figure 2 is a schematic view of a camera image taken with the arrangement shown in Figure 1;
  • FIG. 3 is a diagram on the basis of which an exemplary sequence of the 3D surveying method according to the invention is explained using the arrangement illustrated in FIG. 1;
  • Figure 4 is a view on which the calculation of the 3D depth values is explained.
  • FIG. 1 shows a schematic view of one embodiment of an active SD surveying system according to the present invention, generally designated by reference numeral 10.
  • the active 3D surveying system 10 comprises an optical system 12, a video camera 14 which is rigidly connected to the optical system 12, an analog operational amplifier circuit 16, a microcontroller 18 and an output device 20.
  • the optical system 12 comprises an NIR light source which generates short-wave NIR radiation. Radiation in the form of light strips 22 in the direction of an object to be measured 24 radiates. In this case, the optics 12 is aligned such that the light strips 22 are emitted parallel to the y-axis of a coordinate system on which the calculation of the depth values is based. The light strips 22 are projected in the form of lines 26 onto the object 24 to be measured.
  • the video camera 14 takes a video image of the object 24 to be measured, wherein in the beam path of the video camera 14, an optical filter 28 is arranged, which filters out visible light at least partially, to detect the detectability of the projected using the NIR light source on the object to be measured 24 To improve light strip 26.
  • the video image recorded by the video camera 14 is supplied to the analog operational amplifier circuit 16 via an analog video output.
  • the latter is designed such that it detects dots 30 with a high gray-scale gradient along predefined search lines 32 in the analog video signal and determines the intersection points of search lines 32 and light strips 26, as shown in FIG.
  • the detected points 30 are then fed as an output signal of the analog operational amplifier circuit 16 to the microcontroller 18, which in the present case is an 8-bit microcontroller.
  • the microcontroller 18 then digitally determines the depth values of the detected points 30, which can then be output via the output device 20.
  • the output device 20 may be, for example, a display or the like.
  • each emitted light strip 22 can be described by a plane E: whose
  • the computational effort can be significantly reduced if the design of the system ensures that the projected light slices are arranged parallel to the y-axis of the coordinate system. This is because the depth calculation is independent of y, i. The same calculation rule applies to each search line:
  • the determination of the Z values can be realized via an LUT.
  • N 8 light stripes 22
  • TZ 200 coordinates / line
  • step S3 light strips 26 are projected onto the object 24 with the aid of the optics 12, whereupon the illuminated object 24 is recorded with the aid of the video camera 14 in step S4.
  • another shot of the object 24 can be made using the video camera 14, with no light strips 26 projected onto the object 24.
  • This further image can then serve as a reference image in order to avoid negative influences of the ambient light on the measurement result.
  • step S5 the analog video signal of the video camera 14 is tapped.
  • step S6 in the analog video signal on the predefined search lines 30, double gradients in the gray value profile are searched for.
  • the video system used is based on a hybrid (analog / digital) signal processing concept.
  • image signal gradients are detected by the analog operational amplifier circuit 16, which includes, for example, a video amplifier, differentiator, comparators and the like, and further processed on the simple 8-bit microcontroller 18.
  • Synchronization between analog and digital signal processing is achieved through the use of a sync separator, which generates the vertical and horizontal sync signals required from the composite analog video signal.
  • this module can be omitted if necessary, if the required signals can be tapped directly in the video camera 14, which is why the sync separator is not shown in the figures.
  • the signal processing provides for each search line 32 a plurality of measurement points 30 which mark the centers of the double gradients.
  • a usable resolution in the line direction is achieved.
  • the points 30 are assigned to the light strips 26 in the step S7. In the simplest case, this is done on the assumption that the sequence of the imaged light strips 26 corresponds to the sequence in which the Light strips 22 were emitted from the optics 12.
  • the corresponding 3D coordinates can then be calculated for these pixels in step S8 using the equations (1), (2), (3) or (4), or depth values can be read out from a previously calculated LUT. If one assumes that it is possible to detect about 200 measured values / line for the analogue line detection, a depth resolution on the average of 0.5% based on the measuring volume can be estimated.
  • the present invention thus provides an active 3D-surveying system, which allows in a simple manner and using very inexpensive individual components to detect a plurality of depth values per measurement with good angular resolution.
  • the production costs can be reduced many times over with conventional active 3D surveying systems. Reductions in the production costs of more than 90% are possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Aktives 3D-Vermessungssystem (10) umfassend -eine Optik (12) zur Streifenlichtprojektion; -eine Videokamera (14) mit analogem Videoausgang; -eine analoge Operationsverstärkerschaltung (16), die derart ausgebildet ist, dass sie Punkte (30) mit hohem Grauwert-Gradienten im analogen Videosignal detektiert; und -einen Mikrocontroller (18), der derart ausgebildet ist, dass er Tiefen zu den detektieren Punkte (30) ermittelt.

Description

3D-Vermessungssystem sowie 3D-Vermessungsverfahren
Die vorliegende Erfindung betrifft ein aktives 3D-Vermessungssystem zum Vermessen von Objekten sowie ein entsprechendes 3D-Vermessungsverfahren.
Derzeit bekannte 3D-Vermessungssysteme unterteilt man in aktive und passive Systeme. Aktive Systeme beleuchten das zu vermessene System aktiv mit einer künstlichen Lichtquelle, während passive Verfahren alleine mit dem Umgebungslicht arbeiten. Zu den aktiv beleuchtenden Verfahren zählen beispielsweise laufzeitmessende Laserscanner, Range- Video- Sensoren, aktive Triangulationsverfahren mit hochwertigem Projektor und digitaler Videokamera sowie Ultraschallsensoren. Ein Beispiel für ein passives 3D-Vermessungssystem stellt beispielsweise die Stereokamera dar.
Mit Ultraschallsensoren werden heutzutage kostengünstige 3D-Vermessungssysteme bereitgestellt, die insbesondere auf dem Gebiet der Robotik Anwendung finden. Ein Nachteil von Ultraschallsensoren besteht allerdings darin, dass man nur eine geringe Winkelauflösung und praktisch nur einen 3D-Tiefenwert pro Messung erhält.
Mit den anderen der zuvor genannten aktiven 3D-Vermessungssystemen können pro Messung viele 3D-Tiefenwerte mit guter Winkelauflösung ermittelt werden. Die Kosten für die Systeme sind jedoch bedingt durch die sehr teuren Einzelkomponenten, wie beispielsweise Digitalkamera oder Scan-Mechanik, und aufgrund der digitalen Signalverarbeitung sehr hoch, weshalb bei vielen technischen Anwendungen bewusst auf den Einsatz solcher Systeme verzichtet wird.
Ausgehend von diesem Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, ein kostengünstiges 3D-Vermessungssystem mit guter Winkelauflösung und hoher Robustheit bereitzustellen. Ferner ist eine Aufgabe der vorliegenden Erfindung, ein entsprechendes Vermessungsverfahren bereitzustellen.
Zur Lösung dieser Aufgabe schafft die vorliegende Erfindung ein aktives SD-Vermessungssystem mit einer Optik zur Streifenlichtprojektion, einer Videokamera mit analogem Video- Ausgang; einer analogen Operationsverstärkerschaltung, die derart ausgebildet ist, dass sie Punkte mit hohem Grauwert-Gradienten im analogen Videosignal detektiert, und einem Mik- rocontroller, der derart ausgebildet ist, dass er Tiefenwerk zu den detektierten Punkten digital bestimmt.
Bei dem erfindungsgemäßen aktiven 3D-Vermessungssystem erfolgt die Detektion von Punkten mit hohem Grauwert-Gradienten und somit die Detektion von Punkten des auf ein zu vermessendes Objekt projizierten Streifenlichts im Videosignal demnach analog unter Einsatz einer analogen Operationsverstärkerschaltung, die beispielsweise einen Videoverstärker, Differenzierer, Komparatoren und dergleichen aufweisen kann. Entsprechend kann zum einen eine preiswerte Videokamera zum Einsatz kommen und zum anderen auf teure Komponenten verzichtet werden, die zur digitalen Detektion erforderlich wären. Die sich anschließende Weiterverarbeitung der Ausgangssignale der analogen Operationsverstärkerschaltung zur Bestimmung von Tiefenwerten kann der detektierten Punkte mit Hilfe eines preiswerten MikroControllers erfolgen, bevorzugt mit Hilfe eines herkömmlichen 8-bit Mik- rocontrollers, wie beispielsweise ein PIC oder dergleichen.
Die Gesamtkosten für ein aktives 3D-Vermessungssystem mit dem zuvor beschriebenen Aufbau sind sehr gering. Ferner lassen sich mit dem erfindungsgemäßen SD-Vermessungssystem pro Messung viele 3D-Tiefenwerte mit guter Winkelauflösung vermessen. Diese Kombination positiver Eigenschaften eröffnet ein breites Spektrum an neuen Einsatzmög- lichkeiten. Beispielsweise können auf dem Gebiet der Robotik eingesetzte Ultraschallsensoren, die eine geringe Winkelauflösung aufweisen und praktisch nur einen 3D-Tiefenwert pro Messung liefern, ohne nennenswerte zusätzliche Kosten durch 3D-Vermessungssysteme gemäß der vorliegendne Erfindung ersetzt werden, wenn eine gute Winkelauflösung und eine Vielzahl von Tiefenwerten pro Messung wünschenswert sind. Das erfindungsgemäße Vermessungssystem hat aber ebenso Potential als Sensorik für Fahrzeugeinparkhilfen, Messwerkzeuge, Überwachungsanlagen, etc.
Zur Synchronisation zwischen analoger und digitaler Signalverarbeitung ist gemäß einer bevorzugten Ausgestaltung der vorliegenden Erfindung ein Sync-Separator zwischen der analogen Operationsverstärkerschaltung vorgesehen, der die benötigten vertikalen und horizontalen Synchronisationssignale aus dem analogen Composite- Video-Signal generiert.
Die Videokamera ist vorteilhaft starr mit einer Optik verbunden, wodurch die Robustheit des aktiven 3D-Vermessungssystems gemäß der vorliegenden Erfindung verbessert wird. Die Optik umfasst bevorzugt eine NIR-Lichtquelle, wobei ein NIR-Filter im Strahlengang der Videokamera angeordnet ist, der sichtbares Licht zumindest teilweise ausfiltert. Entsprechend weisen die zu detektierenden Punkte einen größeren Kontrast bzw. Grauwert- Gradienten bezüglich der Umgebung auf, weshalb das projizierte Streifenlicht in dem Videobild der Videokamera besser detektierbar ist.
Vorteilhaft ist die Optik ferner derart ausgerichtet, dass die Lichtstreifen parallel zu einer Achse eines Koordinatensystems ausgesendet werden, das der Ermittlung von Tiefenwerten zugrundegelegt wird. Auf diese Weise lässt sich der Rechenaufwand zur Bestimmung der Tiefenwerte oder der Umfang einer Look-Up-Tabelle (LUT), die zur Bestimmung von Tiefenwerten herangezogen wird, erheblich reduzieren, wie es nachfolgend in der Beschreibung einer Ausführungsform der vorliegenden Erfindung noch genauer erläutert wird.
Zudem schafft die vorliegende Erfindung ein 3D-Vermessungsverfahren, insbesondere unter Verwendung eines aktiven 3D-Vermessungssystems der zuvor beschreibenden Art, wobei das Verfahren die Schritte aufweist: Projizieren von Streifenlicht auf ein zu vermessendes Objekt; Aufnehmen eines Videobildes des Objektes; Abgreifen eines analogen Videosignals; Suchen nach und Erfassen von Punkten mit hohem Grauwert-Gradienten auf vordefinierten Suchlinien im analogen Videosignal; Zuordnen der erfassten Punkte zu projizierten Streifenlichtlinien; und Ermitteln von Tiefenwerten der Punkte. Dabei können die Tiefenwerte berechnet oder anhand einer vorab erstellten LUT bestimmt werden.
Bevorzugt wird das Videobild der Videokamera vor der Durchführung des erfindungsgemäßen Verfahrens bezüglich des projizierenden Streifenlichts kalibriert.
Die Lichtstreifen werden vorteilhaft parallel zu einer Achse des Koordinatensystems ausgesendet, das der Ermittlung von Tiefenwerten zugrundegelegt wird, um den Rechenaufwand zur Ermittlung der Tiefenwerte zu verringern.
Vorzugsweise wird als Referenzbild ein weiteres Videobild des Objekts aufgenommen, wobei auf das Objekt keine Lichtstreifen projiziert werden. Auf diese Weise kann ein negativer Einfluss des Umgebungslichts auf das Erfassen von Punkten mit hohem Grauwert- Gradienten minimiert werden. Entsprechend können Fehlmessungen verhindert werden.
Nachfolgend wird eine bevorzugte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die beiliegende Zeichnung genauer beschrieben, wobei Figur 1 eine schematische Ansicht eines 3D-Vermessungssystems gemäß der vorliegenden Erfindung ist;
Figur 2 eine schematische Ansicht eines Kamerabildes ist, das mit der in Figur 1 dargestellten Anordnung aufgenommen wurde;
Figur 3 ein Diagramm ist, anhand dessen ein beispielhafter Ablauf des erfindungsgemäßen 3D-Vermessungsverfahrens unter Verwendung der in Figur 1 dargestellten Anordnung erläutert wird; und
Figur 4 eine Ansicht ist, anhand der die Berechnung der 3D-Tiefenwerte erläutert wird.
Figur 1 zeigt eine schematische Ansicht einer Ausführungsform eines aktiven SD- Vermessungssystems gemäß der vorliegenden Erfindung, das allgemein mit der Bezugsziffer 10 bezeichnet ist. Das aktive 3D-Vermessungssystem 10 umfasst eine Optik 12, eine Videokamera 14, die starr mit der Optik 12 verbunden ist, eine analoge Operationsverstärkerschaltung 16, einen MikroController 18 und eine Ausgabeeinrichtung 20. Die Optik 12 umfasst eine NIR-Lichtquelle, die kurzwellige NIR- Strahlung in Form von Lichtstreifen 22 in Richtung eines zu vermessenden Objektes 24 ausstrahlt. Dabei ist die Optik 12 derart ausgerichtet, dass die Lichtstreifen 22 parallel zur y- Achse eines Koordinatensystems ausgesendet werden, auf dem auch die Berechnung der Tiefenwerte basiert. Die Lichtstreifen 22 werden in Form von Linien 26 auf das zu vermessende Objekt 24 projiziert. Diese Linien 26 sind bei einer ebenen Oberfläche des Objektes 24 geradlinig und parallel zueinander angeordnet und werden bei unebener Oberflächentopografie des Objektes 24 entsprechend verzerrt. Die Videokamera 14 nimmt ein Videobild des zu vermessenden Objektes 24 auf, wobei im Strahlengang der Videokamera 14 ein optischer Filter 28 angeordnet ist, der sichtbares Licht zumindest teilweise ausfiltert, um die Detektierbarkeit der mit Hilfe der NIR-Lichtquelle auf das zu vermessende Objekt 24 projizierten Lichtstreifen 26 zu verbessern.
Das von der Videokamera 14 aufgezeichnete Videobild wird über einen analogen Videoausgang der analogen Operationsverstärkerschaltung 16 zugeführt. Letztere ist derart ausgebildet, dass sie Punkte 30 mit hohem Grauwert-Gradienten entlang von vordefinierten Suchlinien 32 im analogen Videosignal detektiert und entsprechend die Schnittpunkte von Suchlinien 32 und Lichtstreifen 26 ermittelt, wie es in Figur 2 gezeigt ist. Die detektierten Punkte 30 werden als Ausgangssignal der analogen Operationsverstärkerschaltung 16 anschließend dem MikroController 18 zugeführt, bei dem es sich vorliegend um einen 8-bit Mikrocontrol- ler handelt. Der MikroController 18 bestimmt daraufhin digital die Tiefenwerte der detektier- ten Punkte 30, die dann über die Ausgabeeinrichtung 20 ausgegeben werden können. Bei der Ausgabeeinrichtung 20 kann es sich beispielsweise um ein Display oder dergleichen handeln.
Zur Berechnung der Tiefenwerte wird in dem MikroController 18 zunächst eine Vorab- Berechnung durchgeführt, bei der die Videokamera 14 bezüglich der projizierten Lichtstreifen 22 kalibriert wird. Mit dem in Figur 4 definierten Koordinatensystem lässt sich jeder ausgesendete Lichtstreifen 22 beschreiben durch eine Ebene E: , deren
Parameter bei der Kalibrierung bestimmt werden. Für jede Suchlinie und jeden ausgesendeten Lichtstreifen 22 lassen sich dann die zugehörigen 3D-Koordinaten als Schnitt einer Sichtlinie durch einen
Bildpunkt (x, y) und der jeweiligen Lichtschnitt-Ebene E anhand der nachfolgenden Gleichungen berechnen, wobei f die Kamerakonstante ist:
Der Rechenaufwand kann erheblich reduziert werden, wenn beim Aufbau des Systems dafür gesorgt wird, dass die projizierten Lichtschnittebenen parallel zur y- Achse des Koordinatensystems angeordnet sind. Hierdurch wird nämlich die Tiefenberechnung unabhängig von y, d.h. für jede Suchlinie gilt die gleiche Berechnungsvorschrift:
Das Ermitteln der Z- Werte kann über eine LUT realisiert werden. Für ein System mit N=8 Lichtstreifen 22, TZ=200 Koordinaten/Zeile und einer Q=8-bit Quantisierung der Tiefenwerte benötigt man beispielsweise N*TZ*Q=12,8 kbit. Soll mit Hilfe des aktiven 3D-Vermessungssystems 10 ein Objekt 24 vermessen werden, wie es in Figur 1 gezeigt ist, so werden die in Fig. 3 dargestellten Verfahrensschritte ausgeführt. Zunächst werden vorab in einem ersten Schritt Sl die zuvor beschriebene Kalibrierung von Videokamera 14 und projizierten Streifenlichtlinien 22 und in einem Schritt S2 eine Vorab- Berechnung der Tiefenwerte für jede Suchzeile/für jede projizierte Streifenlichtlinie durchgeführt. Daruafhin werden im Schritt S3 mit Hilfe der Optik 12 Lichtstreifen 26 auf das Objekt 24 projiziert, woraufhin das beleuchtete Objekt 24 im Schritt S4 mit Hilfe der Videokamera 14 aufgenommen wird. Optional kann eine weitere Aufnahme des Objekts 24 unter Verwendung der Videokamera 14 erfolgen, wobei keine Lichtstreifen 26 auf das Objekt 24 projiziert werden. Diese weitere Aufnahme kann dann als Referenzbild dienen, um negative Einflüsse des Umgebungslichts auf das Messergebnis zu vermeiden. Anschließend wird im Schritt S5 das analoge Videosignal der Videokamera 14 abgegriffen. Dann werden im Schritt S6 im analogen Videosignal auf den vordefinierten Suchlinien 30 Doppelgradienten im Grauwertverlauf gesucht. Das eingesetzte Videosystem basiert auf einem hybriden (analog/digital) Signalverarbeitungskonzept. Hierbei werden Bildsignalgradienten durch die analoge Operationsverstärkerschaltung 16, die beispielsweise einen Videoverstärker, Differenzierer, Komperatoren und dergleichen umfasst, detektiert und auf dem einfachen 8bit Mikrcontroller 18 weiterverarbeitet. Die Synchronisation zwischen analoger und digitaler Signalverarbeitung wird durch den Einsatz einer Sync- Separators erreicht, der die benötigten vertikalen und horizontalen Synchronisationssignale aus dem analogen Composite- Video- Signal generiert. Dieser Baustein kann jedoch ggf. entfallen, wenn die benötigten Signale direkt in der Videokamera 14 abgegriffen werden können, weshalb der Sync-Separator in den Figuren nicht dargestellt ist. Die Signalverarbeitung liefert für jede Suchlinie 32 mehrere Messpunkte 30, welche die Zentren der Doppelgradienten markieren. Bei einer Taktfrequenz des Mikrocontrollers 18 von 16 MHz und einem 8 bit Zähler mit 4 MHz-Zählfrequenz wird eine nutzbare Auflösung in Zeilenrichtung von etwa 200 Bildpunkten erreicht.
Nachdem die Punkte 30 mit hohem Grauwert-Gradienten lokalisiert worden sind, erfolgt im Schritt S7 eine Zuordnung der Punkte 30 zu den Lichtstreifen 26. Im einfachsten Fall geschieht dies unter der Annahme, dass die Reihenfolge der abgebildeten Lichtstreifen 26 derjenigen Reihenfolge entspricht, in der die Lichtstreifen 22 von der Optik 12 ausgesendet wurden.
Nach erfolgter Zuordnung der Punkte 30 können dann mit den Gleichungen (1), (2), (3) bzw. (4) für diese Bildpunkte in Schritt S8 die zugehörigen 3D-Koordinaten berechnet oder aber Tiefenwerte aus einer vorab berechneten LUT ausgelesen werden. Legt man für die analoge Liniendetektion die Annahme zugrunde, dass man etwa 200 Messwerte/Zeile detektieren kann, lässt sich eine Tiefenauflösung im Mittel von 0,5% bezogen auf das Messvolumen abschätzen.
Im Gegensatz zum Stand der Technik schafft die vorliegende Erfindung somit ein aktives 3D-Vermessungssystem, das in einfacher Art und Weise und unter Verwendung sehr preiswerter Einzelkomponenten ein Erfassen einer Mehrzahl von Tiefenwerten pro Messung bei guter Winkelauflösung ermöglicht. Die Planherstellungskosten können mithin gegenüber herkömmlichen aktiven 3D-Vermessungssystemen um ein Vielfaches gesenkt werden. Dabei sind Reduzierungen der Planherstellungskosten von mehr als 90% möglich.

Claims

Patentansprüche
1. Aktives 3D-Vermessungssystem (10) umfassend
- eine Optik (12) zur Streifenlichtprojektion;
- eine Videokamera (14) mit analogem Videoausgang;
- eine analoge Operationsverstärkerschaltung (16), die derart ausgebildet ist, dass sie Punkte (30) mit hohem Grauwert-Gradienten im analogen Videosignal detektiert; und
- einen Mikrocontroller (18), der derart ausgebildet ist, dass er Tiefen zu den detek- tieren Punkte (30) ermittelt.
2. Aktives 3D-Vermessungssystem (10) nach Anspruch 1, dadurch gekennzeichnet, dass der Mikrocontroller (18) ein 8 Bit Mikrocontroller ist.
3. Aktives 3D-Vermessungssystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Sync-Separator zur Synchronisation zwischen analoger oder digitaler Signalverarbeitung vorgesehen ist.
4. Aktives 3D-Vermessungssystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Videokamera (14) starr mit der Optik (12) verbunden ist.
5. Aktives 3D-Vermessungssystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Optik (12) eine NIR-Lichtquelle aufweist und ein optischer Filter (28) im Strahlgang der Videokamera (14) angeordnet ist.
6. Aktives 3D-Vermessungssystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Optik (12) derart ausgerichtet ist, dass sie Lichtstreifen parallel zu einer Achse eines Koordinatensystems ausgesendet werden, das der Ermittlung von Tiefenwerten zugrundegelegt wird.
7. 3D-Vermessungsverfahren, insbesondere unter Verwendung eines aktiven SD- Vermessungssystems (10) nach einem der vorhergehenden Ansprüche, wobei das Verfahren die Schritte aufweist:
a) Projizieren von Streifenlicht auf ein zu vermessendes Objekt (24);
b) Aufnehmen eines Videobildes des Objektes (24);
c) Abgreifen eines analogen Videosignals;
d) Suchen nach und Erfassen von Punkten (30) mit hohem Grauwert-Gradienten auf vordefinierten Suchlinien im analogen Videosignal;
e) Zuordnen der erfassten Punkte (30) zu projizierten Streifenlichtlinien; und
f) Ermitteln von Tiefenwerten der Punkte (30).
8. 3D-Vermessungsverfahren nach Anspruch 7, dadurch gekennzeichnet, dass eine Kalibrierung von Videobild und projizierten Streifenlicht vor dem Durchführen der Schritte a) bis f) erfolgt.
9. 3D-Vermessungsverfahren nach Anspruch 7 oder 8, wobei die Tiefenwerte berechnet oder anhand einer vorab erstellten Look-Up-Tabelle bestimmt werden.
10. 3D-Vermessungsverfahren nach einem der Ansprüche 7 bis 9, wobei die Optik (12) derart ausgerichtet wird, dass die Lichtstreifen parallel zu einer Achse eines Koordinatensystems ausgesendet werden, das der Ermittlung von Tiefenwerten zugrundegelegt wird.
11. 3D-Vermessungsverfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass zusätzlich zu dem in Schnitt b) aufgenommenen Videobild des Objekts ein weiteres Bild des Objekts als Referenzbild aufgenommen wird, ohne dass Streifenlicht auf das Objekt projiziert wird.
EP09781946A 2008-08-19 2009-08-18 3d-vermessungssystem sowie 3d-vermessungsverfahren Withdrawn EP2326914A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200810041343 DE102008041343A1 (de) 2008-08-19 2008-08-19 3D-Vermessungssystem sowie 3D-Vermessungsverfahren
PCT/EP2009/060664 WO2010020635A2 (de) 2008-08-19 2009-08-18 3d-vermessungssystem sowie 3d-vermessungsverfahren

Publications (1)

Publication Number Publication Date
EP2326914A2 true EP2326914A2 (de) 2011-06-01

Family

ID=41507932

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09781946A Withdrawn EP2326914A2 (de) 2008-08-19 2009-08-18 3d-vermessungssystem sowie 3d-vermessungsverfahren

Country Status (3)

Country Link
EP (1) EP2326914A2 (de)
DE (1) DE102008041343A1 (de)
WO (1) WO2010020635A2 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8243289B2 (en) 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
US8823930B2 (en) 2012-08-07 2014-09-02 Carl Zeiss Industrielle Messtechnik Gmbh Apparatus and method for inspecting an object
WO2014023345A1 (de) 2012-08-07 2014-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Verbesserte vorrichtung zum inspizieren eines objekts und verfahren

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4743771A (en) * 1985-06-17 1988-05-10 View Engineering, Inc. Z-axis height measurement system
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
WO2010020635A2 (de) 2010-02-25
DE102008041343A1 (de) 2010-02-25
WO2010020635A3 (de) 2010-04-15

Similar Documents

Publication Publication Date Title
EP3467432B1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE19520190C2 (de) Vorrichtung zur Überwachung eines Klebstoffauftrags
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102011114674C5 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
EP1173749A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
EP0507923A1 (de) Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE10328523B4 (de) Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche
EP2326914A2 (de) 3d-vermessungssystem sowie 3d-vermessungsverfahren
WO1997010488A1 (de) Verfahren und vorrichtung zum erfassen und vermessen dreidimensionaler körper oder von beliebigen flächen
DE102014219423B4 (de) Dynamisches Modell zur Kompensation von Verzeichnungen einer Windschutzscheibe
DE102006048954A1 (de) Verfahren und Messvorrichtung zur Erfassung des Querschnitts eines Strangprofils im Inline-Betrieb
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
DE102013021475A1 (de) Optische Lenkwinkelbestimmung
DE102005052044A1 (de) Verfahren und Vorrichtung zur Vermessung eines transparenten Objekts
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
EP3657125A1 (de) Vorrichtung und verfahren zum ermitteln von planheitsabweichungen beim behandeln eines bandförmigen guts
EP3049757B1 (de) Fahrwerksvermessung bei umgebungslicht
EP3433669A1 (de) Verfahren und vorrichtung zur ermittlung von 3d-koordinaten zumindest eines vorbestimmten punktes eines objekts
DE102020201379A1 (de) Konturerkennungsvorrichtung, konturerkennungssystem und konturerkennungsverfahren
EP3798570B1 (de) Verfahren zur kalibrierung eines optischen messsystems, optisches messsystem und kalibrierobjekt für ein optisches messsystem
EP2972071A1 (de) Vorrichtung zur vermessung eines schlachttierkörperobjekts

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110321

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

AX Request for extension of the european patent

Extension state: AL BA RS

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20170124

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170607