DE102014213289A1 - Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts - Google Patents

Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts Download PDF

Info

Publication number
DE102014213289A1
DE102014213289A1 DE102014213289.4A DE102014213289A DE102014213289A1 DE 102014213289 A1 DE102014213289 A1 DE 102014213289A1 DE 102014213289 A DE102014213289 A DE 102014213289A DE 102014213289 A1 DE102014213289 A1 DE 102014213289A1
Authority
DE
Germany
Prior art keywords
camera
line
lines
measurement object
area sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014213289.4A
Other languages
English (en)
Inventor
Thomas Seiffert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014213289.4A priority Critical patent/DE102014213289A1/de
Publication of DE102014213289A1 publication Critical patent/DE102014213289A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur dreidimensionalen optischen Erfassung eines Messobjekts, wobei das Messobjekt mit einer digitalen Kamera mit einem Flächen-Sensor und einem entozentrischen Objektiv erfasst wird, wobei der Flächen-Sensor mittels einer Funktion zur Erfassung zumindest zweier zeilenförmiger Regionen (Multi-ROI) ausgelesen werden kann und wobei das Messobjekt senkrecht zu der Ausrichtung der Zeilen der Kamera durch das Bildfeld der Kamera entlang einer Bewegungsrichtung bewegt wird. Erfindungsgemäß ist vorgesehen, dass für eine Bildaufnahme zumindest je eine linienförmige Region senkrecht zu einer Ausrichtung der Zeilen auf dem Flächen-Sensor auf beiden Seiten zu einer optischen Achse der Kamera ausgewählt wird, dass das Messobjekt durch das Bildfeld der Kamera entlang der Bewegungsrichtung bewegt wird und dass aus den so erhaltenen zumindest zwei linienförmigen Datensätzen auf beiden Seiten der optischen Achse die dreidimensionale Form des Messobjekts bestimmt wird.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur dreidimensionalen optischen Erfassung eines Messobjekts, wobei das Messobjekt mit einer digitalen Kamera mit einem Flächen-Sensor und einem entozentrischen Objektiv erfasst wird, wobei der Flächen-Sensor mittels einer Funktion zur Erfassung zumindest zweier zeilenförmiger Regionen (Multi-ROI) ausgelesen werden kann und wobei das Messobjekt senkrecht zu der Ausrichtung der Zeilen der Kamera durch das Bildfeld der Kamera entlang einer Bewegungsrichtung bewegt wird.
  • Die Erfindung betrifft weiterhin eine Vorrichtung zur Verwirklichung des Verfahrens.
  • Eine dreidimensionale optische Erfassung eines Objekts kann beispielhaft durch eine Bildaufnahme mittels zumindest zwei unter einem Triangulationswinkel untereinander angeordneten Kameras erfolgen. Durch eine den Triangulationswinkel einbeziehende Kalibrierung kann aus den Ansichten die dreidimensionale Form des Messobjekts abgeleitet werden. Bei unbewegten Objekten kann die Bildaufnahme auch mit einer einzelnen Kamera erfolgen, die unter unterschiedlichen Winkeln das Messobjekt erfasst. Anstatt zweier jeweils ein zweidimensionales Abbild erfassender unter dem Triangulationswinkel angeordneter Kameras können auch zwei Zeilenkameras verwendet werden, die jeweils durch einen Abtastvorgang senkrecht zur Zeilenrichtung (scan) die zweidimensionalen Bilder schrittweise erfassen. Aus den beiden Zeilenaufnahmen kann die dreidimensionale Form des Messobjekts abgeleitet werden, wobei zu beachten ist, dass sich die Parameter in Abtastrichtung und in Zeilenrichtung deutlich unterscheiden. Nachteilig ist hier die Notwendigkeit von mehreren Zeilenkameras oder mehreren Scans mit einer Zeilenkamera unter mehreren Triangulationswinkeln.
  • Werden anstatt zweier Kameras mehr als zwei Kameras verwendet, kann die dreidimensionale Form aus den in einem so genannten „Multi-View-Stereo“-Verfahren aufgenommenen Bildern abgeleitet werden.
  • Ein alternatives Verfahren sieht vor, ein Lichtfeld des Objekts zu erfassen, wobei mehrere Ansichten aus unterschiedlichen Winkeln gleichzeitig erfasst werden. Eine Vorrichtung und ein Verfahren zur Erfassung eines Lichtfelds sind beispielhaft in der Patentschrift US 725,567 (Frederic E. Ives) beschrieben. Aus einem so erzeugten 4D-Datenwürfel kann die dreidimensionale Form des Messobjekts abgeleitet werden, wobei je nach Anordnung bei gegebener Gesamt-Auflösung eine hohe laterale oder eine hohe Winkelauflösung erzielt werden kann. Ein Vorteil eines solchen Verfahrens ist, dass aus dem Datensatz in unterschiedlichen Ansichten korrespondierende Punkte dadurch gefunden werden können, dass beispielhaft in einer Ansicht entlang einer Kante liegende Punkte in einer senkrecht zur Kante liegenden Ansicht übereinander liegen müssen. Hierdurch wird das Korrespondenzproblem bei der Rekonstruktion des dreidimensionalen Messobjekts lösbar.
  • Im praktischen technischen Umfeld soll häufig die dreidimensionale Form texturierter oder strukturierter Objekte optisch erfasst werden. Hier kann eine Auswertung der Textur oder Struktur aus den unterschiedlichen Blickwinkeln zur Lösung des Korrespondenzproblems herangezogen werden.
  • In einem Teilgebiet der Problemstellung der dreidimensionalen optischen Erfassung von Messobjekten soll die Form von lang gestreckten in der dazu senkrechten Richtung jedoch schmalen Objekten bestimmt werden. Dies kann mit unter einem Triangulationswinkel angeordneten Zeilenkameras erfolgen, an denen das Messobjekt entlang seiner Längsrichtung quer zur Ausrichtung der Zeilen der Kameras vorbeibewegt wird. Zur Verbesserung der Lichtempfindlichkeit können dabei Zeilenkameras mit mehreren Zeilen zur Vergrößerung der lichtempfindlichen Fläche verwendet werden, wobei die Bildinformation mit der Bewegung des Objekts derart synchronisiert wird, dass die Information eines Bildpunkts in den nebeneinander liegenden Zeilen integriert wird. Solche Anordnungen werden auch mit „Time Delay & Integration – Zeilenkamera“ (TDI) bezeichnet.
  • Es ist Aufgabe der Erfindung, ein Verfahren für eine vereinfachte optische Erfassung eines dreidimensionalen Messobjekts anzugeben.
  • Es ist weiterhin Aufgabe der Erfindung, eine Vorrichtung zur Durchführung des Verfahrens bereitzustellen.
  • Offenbarung der Erfindung
  • Die das Verfahren betreffende Aufgabe der Erfindung wird dadurch gelöst, dass für eine Bildaufnahme zumindest je eine linienförmige Region senkrecht zu einer Ausrichtung der Zeilen auf dem Flächen-Sensor auf beiden Seiten zu einer optischen Achse der Kamera ausgewählt wird, dass das Messobjekt durch das Bildfeld der Kamera entlang der Bewegungsrichtung bewegt wird und dass aus den so erhaltenen zumindest zwei linienförmigen Datensätzen auf beiden Seiten der optischen Achse die dreidimensionale Form des Messobjekts bestimmt wird. Bei der hier behandelten optischen Erfassung eines Messobjekts wird ein entozentrisches Objektiv verwendet. Ein solches Objektiv bildet nahe Gegenstände größer und entfernte Gegenstände kleiner ab und bildet so die üblichen Sehgewohnheiten ab. Im Gegensatz zu einem entozentrischen Objektiv verlaufen die objektseitigen Strahlen bei einem telezentrischen Objektiv – zumindest in einem gewissen Entfernungsbereich – parallel, wodurch Gegenstände in unterschiedlicher Entfernung gleich groß erscheinen. Dies kann für Messaufgaben an dreidimensionalen Messobjekten sinnvoll sein, ist jedoch für das hier behandelte Verfahren und die zugehörige Vorrichtung nicht geeignet.
  • Durch die Auswahl einer linienförmigen Region auf dem Flächen-Sensor seitlich der optischen Achse der Kamera verlaufen die Lichtstrahlen vom Messobjekt zu dem Objektiv unter einem von der optischen Achse wegzeigenden Winkel. Hierdurch blickt das Objektiv auch auf geeignet geneigte Seitenflächen des Messobjekts. Erfindungsgemäss wird eine zweite linienförmige Region auf dem Flächen-Sensor auf der zu der ersten Region auf der gegenüber liegenden Seite der optischen Achse ausgewählt. Bei einer Bildaufnahme stehen daher gegebenenfalls Informationen von einander gegenüber liegenden Seiten des Messobjekts zu Verfügung. Weiterhin werden naturgemäß auch Bildpunkte von der Kamera direkt zugewandten Flächen des Messobjekts erfasst. Bei Verwendung sehr weitwinkliger entozentrischer Objektive werden gerade Linien auf dem Objekt, die zum Rand des Bildfeldes hin liegen, als gebogene Linien auf dem Flächen-Sensor abgebildet. Dieser „Fischaugen-Effekt“ muss bei der Daten-Erfassung und -Auswertung berücksichtigt werden und ist Gegenstand von Unteransprüchen.
  • Die pro Zeile während der Bewegung („scan“) erzeugten Datensätze zeigen jeweils das Objekt aus einer bestimmten Blickrichtung. Zur Verbesserung der Datenaufnahme können mehrere Zeilen seitwärts der optischen Achse der Kamera und auch eine die optische Achse im wesentlichen schneidende Zeile verwendet werden, wobei diese Zeile nur die direkt aus Richtung der Kamera sichtbaren Flächen des Messobjekts erfasst. Die entozentrische Optik bewirkt, dass auch nicht direkt der Kamera zugewendete Seitenflächen des Messobjekts erfasst werden; dies gilt insbesondere bei Verwendung von Optiken mit kurzer Brennweite und daher weitwinkliger Bilderfassung bei einem kurzen Arbeitsabstand, da hier der Strahlengang stark gegen die optische Achse geneigt ist.
  • Die Auswahl der auszuwertenden Zeilen auf dem Flächen-Sensor kann bei digitalen Kameras mit einer programmierbaren Auswahl von mehreren „Regions of Interest“ (Multi-ROI) erfolgen. In Richtung der ausgewählten zeilenförmigen Region wird die Bildinformation mit der vollen Pixel-Auflösung des Flächen-Sensors erfasst. Ähnlich wie bei Zeilenkameras mit „Time Delay & Integration“ (TDI), bei denen die Information eines Punktes des Messobjekts bei Bewegung senkrecht zu den Zeilen sinngemäß zugeordnet und integriert wird, kann auch bei einer Multi-ROI-Anordnung die Information einiger nebeneinander liegender Zeilen zur Verbesserung der Lichtempfindlichkeit miteinander verknüpft werden.
  • Die ausgewählten Zeilen können bevorzugt äquidistant angeordnet sein, müssen dies aber nicht. Bei einer spezifischen Messaufgabe kann die Zeilenanordnung geeignet gewählt werden. Da die Triangulation nur in Richtung der relativen Bewegung von Kamera und Messobjekt erfolgt, muss das Objekt gegebenenfalls geeignet ausgerichtet werden oder nach einer Drehung um eine Achse parallel zur optischen Achse der Kamera ein zweites Mal abgetastet werden.
  • Die relative Bewegung von Kamera und Objekt kann auch erreicht werden, indem die Kamera bewegt wird und das Objekt stillsteht. Häufig ist jedoch die Bewegung mehrerer zu erfassender Objekte, beispielhaft auf einem Förderband, praktisch einfacher umzusetzen. Bevorzugt wird das Messobjekt sowohl senkrecht zu den Zeilen als auch senkrecht zu der optischen Achse bewegt, da dann die geometrischen Verhältnisse eine besonders einfache Auswertung der Datensätze erlauben.
  • In einer Ausbildung des Verfahrens ist vorgesehen, dass die linienförmige Region auf dem Flächen-Sensor durch eine Zeile oder mehrere nebeneinander liegende Zeilen des Flächen-Sensors gebildet wird und dass der linienförmige Datensatz aus den Bilddaten der einen Zeile oder der nebeneinander liegenden Zeilen besteht. Eine solche Variante ist vorteilhaft, wenn das verwendete entozentrische Objektiv eine Abbildung mit einer geringen geometrischen Verzerrung liefert und gerade Linien auf dem Messobjekt auch im Randbereich des Bildfelds auf gerade Linien auf dem Flächensensor abbildet, weil dann ein einfaches Auslesen von Bildpunkten entlang der Zeilen des Flächen-Sensors genutzt werden kann. Soll auch bei Verzerrungen durch das entozentrische Objektiv die einfache Auslesung entlang von Zeilen benutzt werden, ist das durch eine nachfolgende Korrektur bei der Bestimmung der dreidimensionalen Form des Messobjekts zu berücksichtigen.
  • In einer weiteren Ausbildung des Verfahrens ist vorgesehen, dass die linienförmige Region auf dem Flächen-Sensor eine durch die optische Verzerrung des entozentrischen Objektivs bestimmte gebogene Linie ist und dass bei der Bildaufnahme Bildpunkte entlang dieser Linie aus unterschiedlichen Zeilen des Flächen-Sensor zu einem linienförmigen Datensatz zusammengefügt werden. Die Form der Linie auf dem Flächen-Sensor wird vorab in einem Kalibrierschritt bestimmt. Zur Bildaufnahme wird eine „Region of Interest“ gewählt, die diese Linie umfasst. Aus den so ausgewählten mehreren Zeilen werden dann Bildpunkte ausgewählt, die auf der Linie liegen und in dem linienförmigen Datensatz zusammengefasst, der zur weiteren Auswertung in einer Zeile eines Speicherbereichs abgelegt werden kann.
  • In einer bevorzugten Ausführung des Verfahrens ist vorgesehen, dass zur Ableitung der dreidimensionalen Form des Messobjekts eine Abbildung des Messobjekts in Abhängigkeit von der Position der Zeile auf dem Flächen-Sensor korrigiert wird. Bei weitwinkligen entozentrischen Objektiven werden insbesondere die Randbereiche des Bildfeldes verzerrt auf dem Flächen-Sensor abgebildet. Diese Verzerrung muss bei der Bewegung des Messobjekts durch das Bildfeld berücksichtigt und korrigiert werden. Diese Korrektur kann besonders schnell durch einen Schaltkreis (FPGA) in der Bilderfassung (frame grabber) erfolgen.
  • Die die Vorrichtung betreffende Aufgabe der Erfindung wird dadurch gelöst, dass für eine Bildaufnahme zumindest je eine zeilenförmige Region senkrecht zu einer Ausrichtung der Zeilen auf dem Flächen-Sensor auf beiden Seiten zu einer optischen Achse der Kamera ausgewählt ist, dass ein Speicher zur Ablage der Daten aus den ausgewählten Zeilen des Flächen-Sensors während der relativen Bewegung von Kamera und Messobjekt durch ein Bildfeld der Kamera vorgesehen ist und dass ein Schaltkreis oder Programmablauf zur Bestimmung der dreidimensionalen Form des Messobjekts aus den in dem Speicher abgelegten Daten aus den ausgewählten Zeilen des Flächen-Sensors vorgesehen ist. Durch Auswahl von zumindest zwei voneinander getrennt liegenden zeilenförmigen Regionen wird eine Triangulation ermöglicht, durch die aus den Daten ein dreidimensionales Abbild des Messobjekts abgeleitet werden kann. Da die Vorrichtung ein entozentrisches Objektiv beinhaltet und die zeilenförmigen Regionen auf unterschiedlichen Seiten der optischen Achse der Kamera liegen, können auch in Bewegungsrichtung einander gegenüber liegende Flächen erfasst und in die Rekonstruktion der dreidimensionalen Form einbezogen werden.
  • Die Erfindung wird im Folgenden anhand eines in den Figuren dargestellten Ausführungsbeispiels näher erläutert. Es zeigen:
  • 1 eine Kamera mit Flächen-Sensor zur optischen Erfassung der dreidimensionalen Form eines Messobjekts,
  • 2 eine Darstellung von Datensätzen bei der Erfassung des Messobjekts.
  • 1 zeigt eine Kamera 10 mit einem Flächen-Sensor 13 und einem entozentrischen Objektiv 14. Die Kamera 10 ist mit einer optischen Achse 17 auf ein erstes Messobjekt 20 gerichtet, das entlang einer Bewegungsrichtung 23 an der Kamera 10 vorbei bewegt wird. Auf dem Flächen-Sensor 13 sind mittels einer „Region of Interest-Funktion“ eine erste Zeile 11 und eine zweite Zeile 12 ausgewählt, deren Daten in einer hier nicht dargestellten Anordnung erfasst, gespeichert und ausgewertet werden. Die Bewegungsrichtung 23 verläuft senkrecht zu der ersten und zweiten Zeile 11, 12 und zur optischen Achse 17. In der hier dargestellten Momentaufnahme wird der ersten Zeile 11 entlang eines ersten Lichtwegs 15 die Bildinformation eines ersten Messflecks 19 zugeführt, der sich auf einer Seitenfläche 22 des ersten Messobjekts 20 befindet. Die Seitenfläche 22 kann erfasst werden, da der erste Lichtweg 15 von dem entozentrischen Objektiv 14 aus betrachtet auf die optische Achse 17 zuläuft. Der zweiten Zeile 12 wird über einen zweiten Lichtweg 16 Bildinformation eines zweiten Messflecks 18 zugeführt, der sich auf einer Oberseite 21 des ersten Messobjekts 20 befindet. Entlang der ersten und zweiten Zeile 11, 12 auf dem Flächen-Sensor 13 wird somit je ein linienförmiger Bereich des ersten Messobjekts 20 erfasst. Wegen der Verwendung eines weitwinkligen entozentrischen Objektivs 14, (Fischaugen-Objektiv) kann der linienförmige Bereich auch gebogen sein. Wird zusätzlich eine Zeile des Fläche-Sensors ausgelesen, die im wesentlichen die optische Achse 17 schneidet, wird in dem zugeordneten Datensatz die direkt die der Kamera 10 gegenüber liegende Oberseite 21 erfasst. Wird das erste Messobjekt 20 für einen folgenden Mess-Schritt entlang der Bewegungsrichtung 23 bewegt, treffen sowohl der erste Lichtweg 15 als auch der zweite Lichtweg 16 auf die Oberseite 21. Zu keinem Zeitpunkt der Datenerfassung wird die Seitenfläche 22 über den zweiten Lichtweg 16 erreicht; diese ist nur über den ersten Lichtweg 15 erreichbar und damit für die erste Zeile 11 des Flächen-Sensors 13 sichtbar, nicht aber für die zweite Zeile 12.
  • Ist der auf dem Messobjekt 20, 30 durch eine Zeile des Flächen-Sensors 13 erfasste linienförmige Bereich wegen der fischaugenförmigen Verzerrung des entozentrischen Objektivs 14 gebogen, was insbesondere zum Rande des Bildfelds hin auftritt, so wird dies bei der Auswertung der Daten des Flächen-Sensors 13 berücksichtigt und kompensiert. In einer alternativen Ausführung wird die Abbildungseigenschaft des entozentrischen Objektivs 14 dadurch berücksichtigt, dass mehrere nebeneinander liegende Zeilen auf dem Flächen-Sensor 13 ausgelesen werden und Bildpunkte auf einer gebogenen Linie auf dem Flächen-Sensor 13 ausgelesen werden, die einer Abbildung einer geraden Linie auf dem Messobjekt entsprechen.
  • 2 zeigt eine perspektivische Darstellung eines zweiten Messobjekts 30 sowie des Inhalts von Datensätzen, die von der Kamera 10 bei der Abtastung des zweiten Messobjekts 30 aufgenommen werden. Das zweite Messobjekt 30 weist ein erste Teilfläche 31, eine erste Seitenfläche 32, eine zweite Teilfläche 33, eine zweite Seitenfläche 34 und eine dritte Teilfläche 35 auf. Wird das zweite Messobjekt 30 an der Kamera 10 entlang der Bewegungsrichtung 23 vorbeibewegt, wird von der zweiten Zeile 12 des Flächen-Sensors 13 ein erster Datensatz 40 aufgenommen. Zu einem Zeitpunkt von der zweiten Zeile 12 eingelesene Daten liegen hier auf einer senkrechten Linie. Zeitlich nacheinander aufgenommene Daten liegen horizontal nebeneinander. Der erste Datensatz 40 ist in der gewählten Darstellung ein bildliche Verdeutlichung eines Inhalts eines Speichers, in dem von der zweiten Zeile 12 aufgenommene Daten für eine Weiterverarbeitung gespeichert und vorgehalten werden. Daten der ersten Teilfläche 31 werden in einem ersten Abschnitt 41 des ersten Datensatzes 40 abgelegt. Auf diese Art werden Daten der ersten Seitenfläche 32 in einem zweiten Abschnitt 42, Daten der zweiten Teilfläche 33 in einem dritten Abschnitt 43 und Daten der dritten Teilfläche 35 in einem vierten Abschnitt 44 abgelegt. Die zweite Seitenfläche 34 ist für die erste Zeile 11 nicht sichtbar.
  • Gleichzeitig zur Aufnahme des ersten Datensatzes 40 wird über eine im wesentlichen die optische Achse 17 schneidende Zeile auf dem Flächen-Sensor 13 während der Abtastung entlang der Bewegungsrichtung 23 ein zweiter Datensatz 50 erfasst. In dem zweiten Datensatz 50 werden in einem fünften Abschnitt 51 Bild-Daten von der ersten Teilfläche 31, in einem sechsten Abschnitt 52 Bild-Daten von der zweiten Teilfläche 33 und in einem siebenten Abschnitt 53 Bild-Daten von der dritten Teilfläche 35 abgelegt.
  • Ebenfalls gleichzeitig zur Aufnahme des ersten und zweiten Datensatzes 40, 50 wird von der ersten Zeile 11 der Kamera 10 ein dritter Datensatz 60 aufgenommen. In dem dritten Datensatz 60 sind in einem achten Abschnitt 61 Bild-Daten von der ersten Teilfläche 31, in einem neunten Abschnitt 62 Bild-Daten von der zweiten Teilfläche 33, in einem zehnten Abschnitt 63 Bild-Daten von der zweiten Seitenfläche 34 und in einem elften Abschnitt 64 Bild-Daten von der dritten Teilfläche 35 abgelegt.
  • In einem Auswertungs-Schritt wird, gegebenenfalls nach einer Korrektur von durch das entozentrische Objektiv 14 verursachten Verzerrungen, aus dem ersten Datensatz 40, dem zweiten Datensatz 50 und dem dritten Datensatz 60 die dreidimensionale Form des zweiten Messobjekts 30 bestimmt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 725567 [0005]

Claims (5)

  1. Verfahren zur dreidimensionalen optischen Erfassung eines Messobjekts (20, 30), wobei das Messobjekt (20, 30) mit einer digitalen Kamera (10) mit einem Flächen-Sensor (13) und einem entozentrischen Objektiv (14) erfasst wird, wobei der Flächen-Sensor (13) mittels einer Funktion zur Erfassung zumindest zweier zeilenförmiger Regionen (Multi-ROI) ausgelesen werden kann und wobei das Messobjekt (20, 30) senkrecht zu der Ausrichtung der Zeilen der Kamera (10) durch das Bildfeld der Kamera (10) entlang einer Bewegungsrichtung (23) bewegt wird, dadurch gekennzeichnet, dass für eine Bildaufnahme zumindest je eine linienförmige Region senkrecht zu einer Ausrichtung der Zeilen auf dem Flächen-Sensor (13) auf beiden Seiten zu einer optischen Achse (17) der Kamera (10) ausgewählt wird, dass das Messobjekt (20, 30) durch das Bildfeld der Kamera (10) entlang der Bewegungsrichtung (23) bewegt wird und dass aus den so erhaltenen zumindest zwei linienförmigen Datensätzen auf beiden Seiten der optischen Achse (17) die dreidimensionale Form des Messobjekts (20, 30) bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die linienförmige Region auf dem Flächen-Sensor (13) durch eine Zeile oder mehrere nebeneinander liegende Zeilen des Flächen-Sensors (13) gebildet wird und dass der linienförmige Datensatz aus den Bilddaten der einen Zeile oder der nebeneinander liegenden Zeilen besteht.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die linienförmige Region auf dem Flächen-Sensor (13) eine durch die optische Verzerrung des entozentrischen Objektivs (14) bestimmte gebogene Linie ist und dass bei der Bildaufnahme Bildpunkte entlang dieser Linie aus unterschiedlichen Zeilen des Flächen-Sensor (13) zu einem linienförmigen Datensatz zusammengefügt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Ableitung der dreidimensionalen Form des Messobjekts (20, 30) eine Abbildung des Messobjekts (20, 30) in Abhängigkeit von der Position der Zeile (11, 12) auf dem Flächen-Sensor (13) korrigiert wird.
  5. Vorrichtung zur dreidimensionalen optischen Erfassung eines Messobjekts (20, 30), wobei zur Erfassung des Messobjekts (20, 30) eine digitale Kamera (10) mit einem Flächen-Sensor (13) und einem entozentrischen Objektiv (14) vorgesehen ist, wobei zur Auslesung des Flächen-Sensors (13) eine Funktion zur Auslesung zumindest zweier zeilenförmiger Regionen (Multi-ROI) vorgesehen ist und wobei eine Teil-Vorrichtung zur gegenseitigen Bewegung von Kamera und Messobjekt (20, 30) senkrecht zu der Ausrichtung der Zeilen der Kamera (10) vorgesehen ist, dadurch gekennzeichnet, dass für eine Bildaufnahme zumindest je eine zeilenförmige Region senkrecht zu einer Ausrichtung der Zeilen auf dem Flächen-Sensor (13) auf beiden Seiten zu einer optischen Achse (17) der Kamera (10) ausgewählt ist, dass ein Speicher zur Ablage der Daten aus den ausgewählten Zeilen des Flächen-Sensors (13) während der relativen Bewegung von Kamera (10) und Messobjekt (20, 30) durch ein Bildfeld der Kamera (10) vorgesehen ist und dass ein Schaltkreis oder Programmablauf zur Bestimmung der dreidimensionalen Form des Messobjekts (20, 30) aus den in dem Speicher abgelegten Daten aus den ausgewählten Zeilen des Flächen-Sensors (13) vorgesehen ist.
DE102014213289.4A 2014-07-09 2014-07-09 Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts Withdrawn DE102014213289A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014213289.4A DE102014213289A1 (de) 2014-07-09 2014-07-09 Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014213289.4A DE102014213289A1 (de) 2014-07-09 2014-07-09 Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts

Publications (1)

Publication Number Publication Date
DE102014213289A1 true DE102014213289A1 (de) 2016-01-14

Family

ID=54866868

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014213289.4A Withdrawn DE102014213289A1 (de) 2014-07-09 2014-07-09 Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts

Country Status (1)

Country Link
DE (1) DE102014213289A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017139541A1 (en) * 2016-02-12 2017-08-17 Bartell Machinery Systems, L.L.C. Bead measurement system
DE102016205219A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Verfahren
DE102016205245A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Vorrichtung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US725567A (en) 1902-09-25 1903-04-14 Frederic E Ives Parallax stereogram and process of making same.
WO2003087713A1 (en) * 2002-04-05 2003-10-23 Ivp Integrated Vision Products Ab Arrangement in a measuring system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US725567A (en) 1902-09-25 1903-04-14 Frederic E Ives Parallax stereogram and process of making same.
WO2003087713A1 (en) * 2002-04-05 2003-10-23 Ivp Integrated Vision Products Ab Arrangement in a measuring system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017139541A1 (en) * 2016-02-12 2017-08-17 Bartell Machinery Systems, L.L.C. Bead measurement system
CN109416243A (zh) * 2016-02-12 2019-03-01 巴特尔机械系统有限公司 胎圈测量系统
US10365084B2 (en) 2016-02-12 2019-07-30 Bartell Machinery Systems, L.L.C. Bead measurement system
DE102016205219A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Verfahren
DE102016205245A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Vorrichtung

Similar Documents

Publication Publication Date Title
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE69826753T2 (de) Optischer Profilsensor
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102009032771B4 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
DE102008047816A1 (de) Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE202012013561U1 (de) Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
EP2753896A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE102016205382A1 (de) Randerkennungsabweichungskorrekturwertberechnungsverfahren, Randerkennungsabweichungskorrekturverfahren und Randerkennungsabweichungskorrekturprogramm
WO2013124056A1 (de) Vorrichtung zur berührungslosen temperaturmessung und temperaturmessverfahren
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE102009038588A1 (de) Verfahren zur Ermittlung eines Gesamtdatensatzes eines zu messenden Objektes
DE102014213289A1 (de) Verfahren und Vorrichtung zur dreidimensionalen optischen Erfassung eines Objekts
DE102004058655B4 (de) Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes
WO2014086511A1 (de) Inspektionsvorrichtung
EP2851677B1 (de) Mehrzeilen-Scantechnik
DE102009040649A1 (de) Verfahren und Vorrichtung zur Erzeugung von digitalen Einzelbildern von scheibenförmigen Elementen in einem Herstellungsprozess
DE102018123717B4 (de) Kalibriervorlage und Kalibrierverfahren zum geometrischen Kalibrieren einer Vielzahl von Kameras eines Kamera-Arrays
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
EP3907466A1 (de) 3d-sensor und verfahren zur erfassung von dreidimensionalen bilddaten eines objekts
DE102013011848A1 (de) Vorrichtung und Verfahren zum Bestimmen der 3D-Koordinaten eines Objekts
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
DE102006013318A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren
DE102011102777B4 (de) Verfahren zur Aufnahme von Bildern von Gegenständen

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee