DE602004001500T2 - Apparat für dreidimensionale Messungen - Google Patents

Apparat für dreidimensionale Messungen Download PDF

Info

Publication number
DE602004001500T2
DE602004001500T2 DE602004001500T DE602004001500T DE602004001500T2 DE 602004001500 T2 DE602004001500 T2 DE 602004001500T2 DE 602004001500 T DE602004001500 T DE 602004001500T DE 602004001500 T DE602004001500 T DE 602004001500T DE 602004001500 T2 DE602004001500 T2 DE 602004001500T2
Authority
DE
Germany
Prior art keywords
pixels
brightened
dimensional
measuring apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004001500T
Other languages
English (en)
Other versions
DE602004001500D1 (de
Inventor
Fanuc Manshonharimomi Atsushi Aizawa
Toshinari Gotanba-shi Tamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE602004001500D1 publication Critical patent/DE602004001500D1/de
Application granted granted Critical
Publication of DE602004001500T2 publication Critical patent/DE602004001500T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die Erfindung betrifft eine dreidimensionale Messapparatur, wobei ein Objekt mit Lichtschnitt oder Pseudo-Lichtschnitt beleuchtet wird, die gleichzeitig durch Abtast-Spotlicht erzeugt werden, so dass ein linearer heller Anteil erzeugt wird, der durch Bildaufnahmevorrichtungen ermittelt wird, und Information über die dreidimensionale Position des Objekts aus der Position des hellen Anteils in dem aufgenommenen Bild erhalten wird. Die erfindungsgemäße dreidimensionale Messapparatur wird beispielsweise an einem Roboter montiert verwendet.
  • 2. Beschreibung des verwandten Standes der Technik
  • Vor kurzem hat man Roboter intelligenter gemacht, wodurch sich in vielen Fällen die periphere Ausrüstung vereinfacht, beispielsweise Werkstückzufuhr- und -positionierungsausrüstung. Eine dreidimensionale Messapparatur, die die dreidimensionale Position, Orientierung, Form, Größe usw. (im folgenden zusammen als "Information über die dreidimensionale Position" bezeichnet) eines Werkstücks erkennt, dient als wichtige Grundvorrichtung für intelligente Roboter. Weil die dreidimensionale Messapparatur oft an einem Roboter montiert verwendet wird, muss die Messapparatur nicht nur sehr genau, sondern auch miniaturisiert sein.
  • Siehe 6a: Bei einer dreidimensionalen Messapparatur wird Lichtschnitt (im folgenden ist der Begriff "Lichtschnitt" eine generische Bezeichnung, die "durch Abtasten mittels Spotlicht erzeugten Pseudo-Lichtschnitt" beinhaltet) unter Verwendung eines Projektors auf ein Messobjekt gestrahlt, so dass ein heller Anteil gebildet wird, Licht (gestreutes oder reflektiertes Licht) von dem hellen Anteil von einem Photodetektor ermittelt wird und Information über die dreidimensionale Position des Messobjekts aus der Position des ermittelten hellen Anteils in dem ermittelten Bild gemessen wird. Dabei befinden sich der Projektor 10 und der Photodetektor 20 in einem Abstand nebeneinander. So kann die Messapparatur durch Verkleinern des Installationsabstandes zwischen dem Projektor 10 und dem Photodetektor 20 miniaturisiert werden, wie in 6b dargestellt.
  • Wird die Messapparatur mithilfe dieses Ansatzes miniaturisiert, verschlechtert sich wahrscheinlich die Messgenauigkeit (insbesondere die Messgenauigkeit in Tiefenrichtung, von der Messapparatur aus gesehen) aufgrund des Messprinzips. D.h. bei der dreidimensionalen Messapparatur unter Verwendung von Lichtschnitt-Projektion kommt es in der Regel zu den einander widersprechende Anforderungen der Miniaturisierung der Apparatur und der Verbesserung der Messgenauigkeit. Daher und zur Kompensation von Nachteilen aufgrund der Miniaturisierung wird eine Technik zur Bereitstellung einer sehr genauen dreidimensionalen Messapparatur, die Lichtschnitt-Projektion verwendet, dringend benötigt.
  • In dieser Hinsicht wurde zum Beispiel in JP-A-63 132 107 eine "Objekt-Messapparatur auf Basis eines Lichtschnittverfahrens" vorgeschlagen. Der Vorschlag betrifft eine Objekt-Messapparatur zum Messen der Position einer Lichtschnittlinie in einem Bild mit größerer Genauigkeit als die Auflösung eines Bildaufnahmegeräts und zum Durchführen von Hochgeschwindigkeits-Rechenverarbeitung, so dass eine Hochgeschwindigkeitsmessung erzielt wird. Die in JP-A-63 132 107 offenbarte Apparatur verwendet ein Verfahren, bei dem man Luminanzvariation in einem Differenzbild zwischen einem Originalbild und einem Bild, das beobachtet wird, wenn Lichtschnitt auf eine Schnittlinie gestrahlt wird, in Richtung jeder Abtastlinie einer Kamera untersucht und die mittlere Position des Lichtschnitts für jede Abtastlinie mittels gewichteter Mittelwertverarbeitung auf Basis einer Verteilung von Luminanz bestimmt, die höher als oder gleich einer bestimmten Schwelle ist.
  • Wenn aber ein Oberflächenanteil eines zu messenden Objekts, auf das Lichtschnitt gestrahlt wird, sich im Grad der Färbung oder Oberflächenrauheit von dem Rest unterscheidet, wird nach diesem Stand der Technik ein ermittelter linearer heller Anteil schmal oder seine mittlere Position (was die "mittlere Position angibt, die beobachtet wird, wird der helle Anteil in Breitenrichtung überquert" (im folgenden so verwendet)) verschiebt sich, was manchmal dazu führt, dass die ermittelten Daten stark gestört werden. Dann verschlechtert sich die Genauigkeit der Ermittlung. Die Verschlechterung wird noch ausgeprägter, wenn die obengenannte Ursache und Miniaturisierung der Messapparatur zusammenkommen und die Nachweisgenauigkeit verschlechtern. Deshalb ist es schwierig, die Miniaturisierung durchzuführen, ohne dass sich die Nachweisgenauigkeit verschlechtert.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung stellt eine dreidimensionale Messapparatur bereit, die die erforderliche Messgenauigkeit bei der Ermittlung eines durch Beleuchten mit Lichtschnitt erzeugten hellen Anteils sogar dann gewährleisten kann, wenn ermittelte Daten durch ungleichmäßige Färbung oder ungleichmäßige Rauheit einer Messobjektoberfläche oder dergleichen leicht gestört werden.
  • Die Erfindung ermöglicht den Ausschluss von unzuverlässigen Ermittlungsdaten in der obengenannten dreidimensionalen Messapparatur, die Lichtschnitt-Projektion ver wendet, so dass Information über die dreidimensionale Position für die Messung sogar dann verwendet werden kann, wenn die ermittelten Daten durch ungleichmäßige Färbung oder ungleichmäßige Rauheit einer Messobjektoberfläche oder dergleichen leicht gestört werden.
  • Eine erfindungsgemäße dreidimensionale Messapparatur erhält Information über eine dreidimensionale Position eines Objekts auf Basis der Ermittlung einer Position von einem hellen Anteil, der im Wesentlichen linear erzeugt wird durch Beleuchten mit Lichtschnitt oder Pseudo-Lichtschnitt, erzeugt durch Abtasten des Objekts mit Spotlicht, auf einem durch Bildaufnahmevorrichtungen aufgenommenen Bild des Objekts. Die dreidimensionale Messapparatur ist mit mindestens den folgenden Einrichtungen (a)-(c) ausgestattet:
    • (a) einer Einrichtung zum Zählen der Anzahl aufgehellter Pixel, die zum hellen Anteil entlang jeder von einer Mehrzahl Ermittlungslinien gehören, die den hellen Anteil in dem aufgenommenen Bild durchqueren;
    • (b) einer Einrichtung zum Bestimmen eines zulässigen Bereichs für die Anzahl aufgehellter Pixel entlang einer Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und
    • (c) einer Einrichtung zum Aufnehmen von Daten der aufgehellten Pixel entlang jeder Ermittlungslinie, wobei die Anzahl aufgehellter Pixel in dem zulässigen Bereich liegt, als richtige Daten zum Erhalten der Information über die dreidimensionale Position des Objekts.
  • Die Information über die dreidimensionale Position des Objekts kann eine Information aus einer dreidimensionalen Position, einer dreidimensionalen Haltung, einer dreidimensionalen Gestalt und einer Größe des Objekts beinhalten.
  • Die Einrichtung zur Bestimmung des zulässigen Bereichs kann folgendes umfassen: eine Einrichtung zum Erhalten der durchschnittlichen Anzahl aufgehellter Pixel pro Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und eine Einrichtung zum Berechnen des zulässigen Bereichs auf Basis der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel und minimaler und maximaler Verhältnisse, die jeweils mit der ermittelten durchschnittlichen Anzahl aufgehellter Pixel multipliziert werden.
  • Ersatzweise umfasst die Einrichtung zur Ermittlung des zulässigen Bereichs: eine Einrichtung zum Erhalten einer durchschnittlichen Anzahl aufgehellter Pixel pro Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und eine Einrichtung zum Berechnen des zulässigen Bereichs auf Basis der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel, einer Subtraktionszahl, die von der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel subtrahiert wird, und einer Additionszahl, die zu der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel addiert wird.
  • Das minimale und das maximale Verhältnis sowie die Subtraktions- und die Additionszahl können ähnlich wie bei üblichen Stellparametern veränderlich gemacht werden. Erfindungsgemäß ist es möglich, unzuverlässige Daten auszuschließen, so dass Information über die dreidimensionale Position erhalten wird, die für die Messung verwendet werden kann, sogar wenn Lichtschnitt auf einen Oberflächenanteil eines Messobjekts gestrahlt wird, der sich im Grad der Färbung oder der Oberflächenrauheit von dem Rest unterscheidet, wodurch der ermittelte lineare helle Anteil schmaler wird oder sich seine mittlere Position verschiebt. Dadurch erhält man den Vorteil, dass "die Messung ohne Einfluss durch den Oberflächenzustand des Messobjekts durchgeführt werden kann". Dabei wird gegenüber dem Stand der Technik der Vorteil erzielt, dass "die Position von Lichtschnitt mit größerer Genauigkeit als die Auflösung des Bildaufnahmeelements gemessen werden kann". Unter einem anderen Gesichtspunkt kann die Erfindung Schwankung in der Messgenauigkeit unterdrücken. Dadurch kann der Installationsabstand zwischen einem Projektor und einem Photodetektor leicht schmaler gemacht und die Messapparatur miniaturisiert werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt/zeigen:
  • 1 den Gesamtaufbau einer erfindungsgemäßen dreidimensionalen Messapparatur;
  • 2 eine Ansicht, die das Verfahren zur Bestimmung einer dreidimensionalen Position von einem hellen Anteil auf einem Bild des hellen Anteils, der durch Lichtschnitt-Projektion erzeugt wird, erläutert;
  • 3 eine Darstellung beispielhafter Luminanz-Daten für Pixel, die jeweils entlang einer Abtastlinie ermittelt werden, die ein Bild 4 von einem hellen Anteil überquert;
  • 4a-4c, wie der Unterschied zwischen einer ermittelten Position und einer tatsächlichen Auftreffposition von Lichtschnitt aufgrund einer Störung auf einem Bild von einem hellen Anteil zustande kommt; dabei zeigt: 4a schematisch das gesamte ermittelte Bild; 4b vergrößert eine Region, in der eine Störung vorliegt, im Bild des hellen Anteils; und 4c beispielhaft die Abweichung zwischen der ermittelten Position und der tatsächlichen Auftreffposition von Lichtschnitt;
  • 5 ein Fließschema der bei einer Ausführungsform durchgeführten Verarbeitung; und
  • 6a und 6b die Beziehungen zwischen dem Installationsabstand zwischen einem Projektor und einem Photodetektor und der Miniaturisierung einer Messapparatur; dabei zeigt 6a eine Anordnung mit breitem Abstand und 6b eine Anordnung mit schmalem Abstand zwischen dem Projektor und dem Photodetektor.
  • EINGEHENDE BESCHREIBUNG
  • Im folgenden wird eine Ausführungsform der Erfindung anhand von 1-5 erläutert. Dabei zeigt 1 die Gesamtanordnung einer dreidimensionalen Messapparatur nach einer Ausführungsform der Erfindung. Ein Projektor zum Projizieren von Lichtschnitt (einschließlich durch Abtasten mit Spotlicht erzeugtem Pseudo-Lichtschnitt, wie oben erwähnt) ist mit der Bezugszahl 10 bezeichnet. In einem kleinen Abstand vom Projektor 10 befindet sich ein Photodetektor 20. Der Projektor 10 und der Photodetektor 20 sind in einem Ermittlungskopf vereinigt, der beispielsweise an einem distalen Armende eines Roboters (nicht gezeigt) montiert verwendet wird. Wird kein Roboter verwendet, werden der Projektor und der Photodetektor an geeigneten Stellen platziert. Sie können sogar an geeigneten Stellen platziert und nicht am Roboter montiert werden, wenn ein Roboter verwendet wird.
  • Wie erwähnt, kann die Messgenauigkeit (insbesondere die Messgenauigkeit in Tiefenrichtung, vom Projektor und Photodetektor aus gesehen) umso leichter gewährleistet werden, je größer der Installationsabstand zwischen dem Projektor 10 und dem Photodetektor 20 ist, aber dann ist es auch umso schwerer, den Miniaturisierungsbedarf zu erfüllen. Bei der Festlegung des Installationsabstandes wird daher ein Gleichgewicht berücksichtigt. Erfindungsgemäß kann eine Schwankung in der Messgenauigkeit vorteilhaft unterdrückt werden. Daher ist es leichter als im Stand der Technik, den Installationsabstand zwischen Projektor und Photodetektor zu verringern.
  • Der Projektor 10 projiziert in bekannter Weise Lichtschnitt auf ein Messobjekt (beispielsweise ein Werkstück) 1, wodurch ein linearer heller Anteil 2 auf der Oberfläche des Messobjekts 1 erzeugt wird. Durch dieses von dem Projektor 10 erzeugte Licht entsteht Streu- oder Reflexionslicht von dem hellen Anteil 2. Das Licht von dem hellen Anteil 2 wird durch den Photodetektor 20 zusammen mit Licht (Streulicht oder reflektiertes Licht, das von ursprünglich in der Arbeitsumgebung vorhandenem Licht stammt) um den hellen Anteil 2 herum ermittelt. Der Photodetektor 20 besteht zum Beispiel aus einer CCD-Digitalkamera, die zusammen mit dem Projektor 10 mit einem Bildverarbeitungsgerät 30 verbunden ist. Das Bildverarbeitungsgerät 30 ist für die An/Aus-Steuerung des Projektors 10, die Bildaufnahme vom Photodetektor 20, die anschließende Bildabholung usw. ausgelegt.
  • Ist der Ermittlungskopf an einem Roboter montiert, werden die Position und Orientierung des Roboters zum Messzeitpunkt ermittelt, wobei die Projektionsrichtung des Projektors 20 (oder die dreidimensionale Orientierung einer Lichtschnitt-Ebene) ausgewählt werden. Ist der Ermittlungskopf nicht am Roboter montiert, kann die Projektionsrichtung mit einem geeigneten Einstellmechanismus eingestellt werden. Siehe 1: In jedem Fall wird der Projektor 10 angeschaltet und dadurch ein linearer heller Anteil 2 erzeugt, der durch einen willkürlichen, zu messenden Anteil des Messobjekts 1 geht. Ein Bild des hellen Anteils 2 wird vom Photodetektor 20 erfasst. In diesem Fall werden Bilddaten, einschließlich des hellen Anteils 2 (zumindest eines Teils davon) in die Bildverarbeitungsvorrichtung 30 übertragen und als ermitteltes Bild auf dem Schirm einer Monitoranzeige 40 angezeigt, die mit der Bildverarbeitungsvorrichtung 30 verbunden ist. Mit Ausnahme der im folgenden genannten Software (siehe die Erläuterungen bei dieser Ausführungsform) hat die Bildverarbeitungsvorrichtung 30 eine üblicherweise bekannte Konstruktion sowie Funktionen. Daher entfällt eine eingehende Beschreibung.
  • In 1 enthält das ermittelte Bild ein Bild von dem Messobjekt 1, das mit der Bezugszahl 3 bezeichnet ist, und ein mit der Bezugszahl 4 bezeichnetes Bild von dem hellen Abschnitt 2. Der helle Abschnitt 2 oder sein Bild 4 haben in der Regel eine lineare oder bandförmige Gestalt mit einer bestimmten Breite. Sie können aber auch einen gestörten oder abgeschnittenen Teil enthalten, wie im folgenden erläutert wird. Hier wird der helle Anteil als "linearer heller Anteil" oder "Bild des linearen hellen Anteils" bezeichnet, auch wenn eine derartige Störung vorliegt.
  • Bekanntlich wird Information über die Position des Messobjekts 1 im dreidimensionalen Raum aus der Position des Bildes von dem hellen Anteil 4 in dem ermittelten Bild bestimmt. D.h. die dreidimensionale Position von einem oder mehreren Punkten im Raum, entsprechend einem oder mehreren Punkten in dem Bild 4 des hellen Anteils, wird als ermittelte Daten bestimmt. Auf Basis der ermittelten Daten wird beispielsweise Folgendes gemessen: die dreidimensionale Position des Messobjekts 1 (zum Beispiel die Position eines charakteristischen Punktes, der für das Messobjekt 1 repräsentativ ist); die dreidimensionale Orientierung (zum Beispiel die Orientierung einer Oberfläche und die Erstreckungsrichtung einer Kantenlinie, die die Orientierung des Messobjekts 1 wiedergeben); die dreidimensionale Gestalt (zum Beispiel die Rundheit eines kreisförmigen Profils); die Größe (zum Beispiel der Durchmesser eines kreisförmigen Lochs) und der glei chen. Ein Verfahren zur Berechnung dieser Parameter aus den ermittelten Daten, die dem Bild 4 des hellen Anteils entsprechen, ist bekannt und betrifft nicht direkt die Erfindung, so dass eingehende Erläuterungen entfallen.
  • Die Erfindung ist gekennzeichnet durch eine "Weise der Auswahl der ermittelten Daten, die dem Bild 4 des hellen Anteils entsprechen" und die zur Berechnung der Information über die dreidimensionale Position verwendet werden. Im folgenden werden hauptsächlich Besonderheiten im Hinblick auf dieses Merkmal erklärt. 2 erläutert ein Verfahren zur Berechnung der dreidimensionalen Position des hellen Anteils 2 aus dem ermittelten Bild von dem hellen Anteil 2 (Bild 4 des hellen Anteils), das durch Projektion von Lichtschnitt hergestellt wird, unter Verwendung der in 1 gezeigten Messapparatur. Weil das Verfahren bekannt ist, wird es nur in Umrissen beschrieben.
  • Siehe 2: Wird die Lichtquelle eines Projektors 10 angeschaltet, wird Lichtschnitt aus einer Projektionsöffnung (nicht gezeigt) des Projektors 10 ausgesendet, wodurch eine Lichtschnitt-Ebene 5 gebildet wird, die sich trichterförmig erweitert. Der helle Anteil 2 wird an einer Position gebildet, an der die Lichtschnitt-Ebene 5 eine Oberfläche des Messobjekts 1 durchquert. Er wird als Bild 4 des hellen Anteils in dem ermittelten Bild beobachtet, das mittels Bildaufnahme mit dem Photodetektor 20 erhalten wird. Hier wird ein willkürlicher, zu messender Punkt auf dem hellen Anteil 2, anders gesagt, sowohl auf der Oberfläche des Messobjekts 1 als auch auf der Lichtschnitt-Ebene 5, mit P bezeichnet. Die dreidimensionale Position des Punktes P im realen Raum (dreidimensionalen Raum) wird mit (x,y,z) wiedergegeben. Zudem wird die Position eines Punktes p im ermittelten Bild, der dem Punkt P (x,y,z) entspricht, mit (u,v) bezeichnet. (u,v) ist ein Koordinatenwert auf den (horizontalen bzw. vertikalen) Achsen Hz und Vt eines zweidimensionalen rechtwinkligen Koordinatensystems, das auf der Bildebene erstellt wird.
  • Zudem ist die Abtastrichtung bei der Bildaufnahme, die von einem Bildempfangsgerät vorgenommen wird, parallel zur Achse Hz.
  • Hier wird eine Gerade, die durch den Punkt p und die Linsenmitte des Photodetektors 20 geht, als Sichtlinie 6 bezeichnet. Die Position der Sichtlinie 6 im realen Raum (eine Gleichung, die die Gerade für die Sichtlinie 6 beschreibt, oder Parameterwerte, die zur Festlegung dieser Gleichung notwendig und ausreichend sind) kann unter Verwendung von Kalibrierungsdaten bestimmt werden, die zuvor im Bildverarbeitungsgerät 30 gespeichert wurden. Somit wird die Position (x,y,z) des zu messenden Punktes P im dreidimensionalen Raum als Position des Schnittpunktes zwischen der Lichtschnitt-Ebene 5 und der Sichtlinie 6 bestimmt. Die Position der Lichtschnitt-Ebene 5 (eine Gleichung oder Parameterwerte, die zur Festlegung dieser Gleichung notwendig und ausreichend sind) kann aus Kalibrierungsdaten für den Projektor 10 bestimmt werden. Ist der Projektor 10 an einem Roboter befestigt, kann die Position der Lichtschnitt-Ebene 5 aus Kalibrierungsdaten für den Projektor 10 und Daten über die gegenwärtige Roboterposition bestimmt werden.
  • Vorstehend ist das Verfahren beschrieben, bei dem die dreidimensionale Position des hellen Anteils 2 mit der Messapparatur von 1 aus dem ermittelten Bild des hellen Anteils 2 (Bild 4 des hellen Anteils), das mittels Lichtschnitt-Projektion erzeugt wird, berechnet wird. Bei diesem Verfahren sind die im Stand der Technik bekannte Weise der Erkennung der Position (u,v) des Punktes p im ermittelten Bild sowie die Zuverlässigkeit der erhaltenen Daten signifikante Faktoren, die die Messgenauigkeit stark verändern können. Wie bereits erwähnt, wird das tatsächlich erhaltene Bild 4 des hellen Anteils gewöhnlich als lineare helle Region mit einer Breite erzeugt. Daher ist es durch Sammeln von Daten einer ermittelten Lichtintensität (Luminanz) für jedes einzelne Pixel entlang einer Abtastlinie des Photodetektors 20 (Abtastlinie zum Zeitpunkt der Bildaufnahme) und durch Entnehmen der Pixel, deren Luminanzen eine bestimmte Schwelle übersteigen, möglich, aus den Daten für die entnommenen Pixel die ermittelte Position des Bildes 4 von dem hellen Anteil entsprechend jeder Abtastlinie zu bestimmen, weil die entnommenen Pixel sich auf der Abtastlinie befinden und Teil des Bildes 4 von dem hellen Anteil sind.
  • 3 zeigt beispielhaft in einem Säulendiagramm die Luminanzdaten von Pixeln entlang einer Abtastlinie, die über das Bild 4 von dem hellen Anteil geht. Jede Säulenbreite im Säulendiagramm entspricht einem Pixel. Zur Bestimmung der ermittelten Position des Bildes 4 von dem hellen Anteil, die dieser Abtastlinie entspricht, aus der Luminanzverteilung wird zunächst eine gewichtete mittlere Luminanz in Abtastrichtung anhand der Pixel bestimmt, für die Luminanzen oberhalb der Nachweisgrenze ermittelt wurden, und dann die ermittelte Position berechnet. Versuchsweise wird angenommen, dass durch Bestimmen der ermittelten Position auf die obige Weise die ermittelte Position des Bildes 4 von dem hellen Anteil mit einer Genauigkeit bestimmt werden kann, die größer ist als die Pixelbreite. Dadurch verbessert sich die Genauigkeit der Information über die dreidimensionale Position, die auf Basis der so bestimmten ermittelten Position erhalten Tatsächlich gilt das obige Konzept nicht oft, hauptsächlich weil verschiedene Störungen oder Anomalien in der Luminanzverteilung für Pixel entlang einer Abtastlinie erzeugt werden. Befindet sich, genauer gesagt, eine Verfärbung auf dem Messobjekt oder ist seine Oberflächenrauheit stellenweise ungleichmäßig, entsteht die Störung oder Ungleichmäßigkeit natürlicherweise in der Reflexionscharakteristik des Messobjekts, die bei Projektion von Licht darauf beobachtet wird. In einigen Fällen entstehen dadurch beispielsweise eine Störung in der Breite (Größe) des ermittelten Bildes 4 von dem linearen hellen Anteil oder eine Unterbrechung in dem Bild 4 von dem hellen Anteil (es gibt keine Pixel, deren Luminanz die Schwelle übersteigt), oder die Luminanzverteilung entlang einer Abtastlinie ist in zwei oder mehr aufgespalten (was zu einer Mehrzahl an Luminanzpeaks führt).
  • Ist die Oberfläche des Messobjekts 1 teilweise spiegelnd, strahlt der auf das Messobjekt 1 projizierte Lichtschnitt und wird verbreitert, so dass die Anzahl an Pixeln, deren Luminanz die Schwelle übersteigt, anomal zunehmen kann. Die Information über die dreidimensionale Position, die an einer Stelle gemessen wird, an der eine solche Anomalie auftritt, enthält einen großen Fehler, wodurch sich die Nachweisgenauigkeit verschlechtert. Die 4a-4c stellen diese Situationen schematisch dar.
  • 4 zeigt ein Schema von einem gesamten ermittelten Bild mit einem Messobjekt-Bild 3 und einem Bild 4 eines hellen Anteils. Das Bild 4 eines hellen Anteils erstreckt sich als Ganzes linear. Aus dem obengenannten Grund kommt es zu einer Störung in einer mit dem Bezugssymbol A bezeichneten Region. 4b zeigt eine Vergrößerung der Region A mit der Störung. In 4b stellt jedes Quadrat ein Pixel dar. Eine zweistufige Grauskala zeigt schematisch, ob die ermittelte Luminanz für jedes einzelne Pixel die Schwelle übersteigt oder nicht, die zur Bestimmung des Pixels im hellen Anteil verwendet wird (siehe das Diagramm in 3 und die Erläuterungen dazu).
  • In 4a und 4b verläuft die Abtastrichtung für die Bildaufnahme im Bildempfangsgerät von links nach rechts.
  • Die mit B-B bezeichnete Gerade stellt eine Gerade von ermittelten Positionen dar, die man beobachtete, würde ein Bild der einfallenden Position des auf das Messobjekt 1 projizierten Lichtschnitts korrekt ermittelt. Betrachtet man das in 4b gezeigte Beispiel eingehend, dann sind im oberen linken und im unteren rechten Abschnitt der Region A, in denen keine Störung vorliegt, eine Gruppe von Pixeln, deren Luminanzen die Schwelle überschreiten, mit einer bestimmten Breite linear verteilt.
  • Im mittleren Abschnitt der Region A gibt es jedoch eine Störung in der oder verschmälernd die lineare Verteilung von Pixeln, deren ermittelte Luminanzen die Schwelle überschreiten.
  • Zählt man die Anzahl an Pixeln mit Luminanzen über der Schwelle in Abtastrichtung (hier von links nach rechts) im Bildempfangsgerät, ist die Anzahl gezählter Pixel für den Teil, in dem es Störung gibt, erheblich kleiner als in dem Teil ohne Störung. Wird die ermittelte Position auf einem gewichteten Mittel der Luminanzen weniger Pixel berechnet, ist das Rechenergebnis nicht sehr zuverlässig. Es besteht daher die Möglichkeit, dass die ermittelte Position von der Gerade B-B mit den korrekt ermittelten Positionen stark abweicht. 4c zeigt die Situation schematisch.
  • In 4c bezeichnen die Symbole C1 und C2 jeweils ein Beispiel für die ermittelte Position, berechnet auf Basis der Luminanzen ermittelter Pixel (die die Schwellenbedingung erfüllen), die entlang der Abtastlinie durch den Teil, der keine Störung enthält, aufgenommen wurden. Das Symbol C3 gibt ein Beispiel für die ermittelte Position wieder, die auf Basis von Luminanzen weniger Pixel berechnet wurde. Im Wesentlichen besteht kein Unterschied zwischen den ermittelten Positionen C1, C2 und der korrekt ermittelten Gerade B-B (der ermittelten Position, die die tatsächliche Lichtschnitt-Auftreffposition widerspiegelt). Im Gegensatz dazu weicht die ermittelte Position C3 stark von der korrekt ermittelten Gerade B-B ab.
  • Erfindungsgemäß werden Daten für die ermittelte Position mit einer hohen Wahrscheinlichkeit, dass sie eine solche starke Abweichung verursachen, aus den für die Berechnung von Information über die dreidimensionale Position verwendeten Daten entfernt. Dadurch werden Genauigkeit und Zuverlässigkeit der Messung besser. Auf Basis dieses Konzepts wird bei dieser Ausführungsform ein zulässiger Bereich für die Anzahl ermittelter Pixel in dem ermittelten Bild pro Abtastlinie auf Basis der Anzahl ermittelter Pixel (die die Schwellenbedingung erfüllen (im folgenden so verwendet)) festgelegt, die für eine Mehrzahl an Abtastlinien einzeln gezählt werden. Fällt die Anzahl ermittelter Pixel für eine gegebene Abtastlinie in den zulässigen Bereich, wird bestimmt, dass die ermittelten Pixel auf dieser Abtastlinie korrekte Daten sind, die zur Messung von Information über die dreidimensionale Position des Messobjekts verwendet werden können. Ist dagegen die Anzahl ermittelter Pixel außerhalb des zulässigen Bereichs, wird bestimmt, dass die ermittelten Pixel keine korrekten Daten sind. Bei dem Beispiel in 4c werden die ermittelten Positionen C1, C2 als korrekte Daten zugelassen, aber die ermittelte Position C3 wird nicht den korrekten Daten zugerechnet, so dass die Ergebnisse der dreidimensionalen Messung keine unzuverlässigen Daten enthalten. Dadurch wird eine Verringerung der Messgenauigkeit vermieden.
  • Das Fließschema in 5 zeigt ein Beispiel für konkrete Verarbeitungsverfahren, einschließlich der obengenannten Bestimmung des Vorliegens oder Fehlens korrekter Daten. Die Verarbeitung erfolgt im Bildverarbeitungsgerät 30, das mit einem Speicher ausgestattet ist, in dem zuvor erforderliche Programmdaten, Parameterdaten usw. gespeichert werden. Der Hauptpunkt jedes Schrittes lautet wie folgt:
    Im Schritt S1 wird zunächst an jeder zur Bildaufnahme verwendeten Abtastlinie im Photodetektor 20 überprüft, ob mindestens ein Pixel ermittelt wurde, dessen Luminanz die Schwelle übersteigt. Dann wird eine durchschnittliche Anzahl ermittelter Pixel bestimmt, die jeweils einzeln auf den Abtastlinien ermittelt wurden, für die jeweils mindestens ein Pixel ermittelt wurde. Die so bestimmte durchschnittliche Anzahl ermittelter Pixel wird im folgenden mit Nav bezeichnet.
  • Im Schritt S2 wird ein Bereich für eine korrekte Anzahl ermittelter Pixel pro Abtastlinie bestimmt. Dazu werden eine Obergrenze Nmax bzw. eine Untergrenze Nmin anhand der folgenden Gleichungen (1), (2) berechnet: Nmin = Nav × αmin (1), Nmax = Nav × αmax (2),wobei αmin und αmax korrekte Minimal- und Maximalverhältnisse sind, die zuvor als Parameter so eingestellt werden, dass die Beziehungen 0 < αmin < 1 und αmax > 1 erfüllt werden. Zum Beispiel werden Nav, αmin und αmax so eingestellt, dass die Beziehungen Nav = 50, αmin = 0,8 und αmax = 1,2 erfüllt sind. In diesem Fall variiert die korrekte Anzahl ermittelter Pixel in einem Bereich von 40 bis 60.
  • Ersatzweise können die Obergrenze Nmax und die Untergrenze Nmin anhand der folgenden Gleichungen (3) und (4) berechnet werden: Nmin = Nav – β (3), Nmax = Nav + γ (4),wobei β und γ eine Subtraktionszahl von Pixeln bzw. eine Additionszahl von Pixeln sind, die zuvor als Parameter so eingestellt werden, dass die Beziehungen 0 < β und 0 < γ erfüllt werden. Zum Beispiel werden Nav, β und γ so eingestellt, dass die Beziehungen Nav = 50, β = 8 und γ = 9 erfüllt sind. In diesem Fall variiert die korrekte Anzahl ermittelter Pixel im Bereich von 42 bis 59. Wie bei gewöhnlichen Parametern können die voreingestellten Werte αmin, αmax oder β, γ geeignet verändert werden.
  • Im Schritt S3 wird unter allen Abtastlinien zur Berechnung von Nav für diejenigen Abtastlinien, für die jeweils Pixel ermittelt wurden, deren Anzahl in den zulässigen Bereich von Nmin bis Nmax fällt, festgelegt, dass die für die Pixel auf jeder Abtastlinie ermittelten Luminanzdaten korrekte Daten sind, die zur Messung von Information über die dreidimensionale Position des Messobjekts 1 verwendet werden. Dann wird an jeder Abtastlinie, für die korrekte Daten erhalten wurden, die bekannte gewichteter-Mittelwert-Verarbeitung mit Gewichten durchgeführt, die jeweils proportional zu den ermittelten Lu minanzen der Pixel auf der Abtastlinie sind, wodurch die ermittelte Position (mittlere Position) des Lichtschnitts bestimmt wird.
  • Im Schritt S4 erfolgt auf Basis der im Schritt S3 bestimmten Daten über die ermittelte Position des Lichtschnitts die Berechnung, mit der Information über die dreidimensionale Position des Messobjekts 1 erhalten wird. Das Berechnungsergebnis wird gespeichert. Die Information über die dreidimensionale Position des Messobjekts 1 kann beispielsweise die Position eines charakteristischen Punktes sein, der für das Messobjekt 1 repräsentativ ist, die Orientierung einer Oberfläche und/oder die Erstreckungsrichtung einer Kantenlinie, die die Orientierung des Messobjekts 1 wiedergeben, die Gestalt eines Profils, die Größe des Profils und dergleichen. Welcher dieser Parameter aus den in Schritt S3 erhaltenen Ermittlungsdaten berechnet wird, hängt von der Anwendung ab. Ein Berechnungsverfahren ist bekannt und betrifft nicht direkt Merkmale dieser Erfindung. Deshalb werden keine Einzelheiten des Verfahrens ausgeführt.
  • Bei der oben erläuterten Ausführungsform erfolgt die obengenannte Verarbeitung durch das Bildverarbeitungsgerät 30. Wird ein Roboter verwendet, kann ersatzweise eine Robotersteuerung auf bekannte Weise als Bildverarbeitungsvorrichtung 30 dienen. Bei der Ausführungsform verwendet man die Abtastlinien (parallel zur Hz-Achse in 2), die zur Bildaufnahme im Photodetektor 20 verwendet werden, als "Abtastlinien" zum Zählen der dem hellen Anteil entsprechenden ermittelten Pixel (die die Schwellenbedingung erfüllen). Ersatzweise können Linien verwendet werden, die sich in einer anderen Richtung als die zur Bildaufnahme im Photodetektor 20 verwendeten Abtastlinien erstrecken, solange diese Linien nicht zu dem Bild 4 des linearen hellen Anteils parallel sind. Zum Beispiel können "Abtastlinien" verwendet werden, die parallel zur Vt-Achse (siehe 2) sind, d.h. senkrecht zu den zur Bildaufnahme im Photodetektor 20 verwendeten Abtastlinien sind.

Claims (6)

  1. Dreidimensionale Messapparatur zum Erhalten von Information über eine dreidimensionale Position eines Objekts (1) auf Basis der Ermittlung einer Position von einem hellen Anteil (2), der im Wesentlichen linear erzeugt wird durch Beleuchten mit Lichtschnitt oder Pseudo-Lichtschnitt, erzeugt durch Abtasten des Objekts (1) mit Spotlicht, auf einem durch Bildaufnahmevorrichtungen (20) aufgenommenen Bild des Objekts, wobei die dreidimensionale Messapparatur folgendes umfasst: eine Einrichtung zum Zählen der Anzahl aufgehellter Pixel, die zum hellen Anteil (4) entlang jeder von einer Mehrzahl Ermittlungslinien gehören, die den hellen Anteil in dem aufgenommenen Bild durchqueren; eine Einrichtung zum Bestimmen eines zulässigen Bereichs für die Anzahl aufgehellter Pixel entlang einer Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und eine Einrichtung zum Aufnehmen von Daten der aufgehellten Pixel entlang jeder Ermittlungslinie, wobei die Anzahl aufgehellter Pixel in dem zulässigen Bereich liegt, als richtige Daten zum Erhalten der Information in Verbindung mit der dreidimensionalen Position des Objekts.
  2. Dreidimensionale Messapparatur nach Anspruch 1, wobei die Information in Bezug auf die dreidimensionale Position des Objekts eine Information aus einer dreidimensionalen Position, einer dreidimensionalen Haltung, einer dreidimensionalen Gestalt und einer Größe des Objekts beinhaltet.
  3. Dreidimensionale Messapparatur nach Anspruch 1, wobei die Einrichtung zur Bestimmung des zulässigen Bereichs folgendes umfasst: eine Einrichtung zum Erhalten der durchschnittlichen Anzahl aufgehellter Pixel pro Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und eine Einrichtung zum Berechnen des zulässigen Bereichs auf Basis der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel und minimaler und maximaler Verhältnisse, die jeweils mit der ermittelten durchschnittlichen Anzahl aufgehellter Pixel multipliziert werden.
  4. Dreidimensionale Messapparatur nach Anspruch 3, wobei die minimalen und maximalen Verhältnisse veränderlich sind.
  5. Dreidimensionale Messapparatur nach Anspruch 1, wobei die Einrichtung zur Ermittlung des zulässigen Bereichs folgendes umfasst: eine Einrichtung zum Erhalten einer durchschnittlichen Anzahl aufgehellter Pixel pro Ermittlungslinie auf Basis der Anzahl aufgehellter Pixel, die jeweils entlang der Mehrzahl Ermittlungslinien gezählt werden; und eine Einrichtung zum Berechnen des zulässigen Bereichs auf Basis der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel, einer Subtraktionszahl, die von der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel subtrahiert wird, und einer Additionszahl, die zu der erhaltenen durchschnittlichen Anzahl aufgehellter Pixel addiert wird.
  6. Dreidimensionale Messapparatur nach Anspruch 5, wobei die Subtraktionszahl und die Additionszahl veränderlich sind.
DE602004001500T 2003-10-16 2004-10-12 Apparat für dreidimensionale Messungen Expired - Lifetime DE602004001500T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003356747A JP3892838B2 (ja) 2003-10-16 2003-10-16 3次元測定装置
JP2003356747 2003-10-16

Publications (2)

Publication Number Publication Date
DE602004001500D1 DE602004001500D1 (de) 2006-08-24
DE602004001500T2 true DE602004001500T2 (de) 2006-11-16

Family

ID=34373611

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004001500T Expired - Lifetime DE602004001500T2 (de) 2003-10-16 2004-10-12 Apparat für dreidimensionale Messungen

Country Status (4)

Country Link
US (1) US7486816B2 (de)
EP (1) EP1524492B1 (de)
JP (1) JP3892838B2 (de)
DE (1) DE602004001500T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006059416A1 (de) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Steigerung der Mess-Genauigkeit digitaler 3D-Geometriemesssysteme
DE102019123232A1 (de) * 2019-08-29 2021-03-04 SmartRay GmbH Mehrfach-Belichtungsverfahren

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3930482B2 (ja) * 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
US20050286767A1 (en) * 2004-06-23 2005-12-29 Hager Gregory D System and method for 3D object recognition using range and intensity
JP4691158B2 (ja) 2005-06-16 2011-06-01 ストライダー ラブス,インコーポレイテッド 三次元クラスモデルを用いた二次元画像における認識システムおよび方法
DE102005045748A1 (de) * 2005-09-23 2007-04-05 Kappner, Helmut A. Messvorrichtung zum Vermessen eines Werkstücks
US7595483B1 (en) * 2008-06-12 2009-09-29 The United States Of America As Represented By The Secretary Of The Navy Calibration method for a stellar sensor
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5245938B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5602392B2 (ja) * 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
DE102009034244A1 (de) 2009-07-22 2011-01-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Vermessung eines Bauteils
JP5636691B2 (ja) * 2010-02-26 2014-12-10 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5170154B2 (ja) * 2010-04-26 2013-03-27 オムロン株式会社 形状計測装置およびキャリブレーション方法
WO2012051715A1 (en) * 2010-10-18 2012-04-26 Will Bauer System and method for controlling media projectors
JP5798318B2 (ja) * 2010-12-15 2015-10-21 キヤノン株式会社 距離データ生成装置、位置姿勢計測装置、距離データ生成装置の制御方法およびプログラム
JP6092530B2 (ja) * 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP6631647B2 (ja) * 2018-03-08 2020-01-15 株式会社島津製作所 走査型プローブ顕微鏡及び表面画像補正方法
CN112361977B (zh) * 2020-11-10 2021-05-28 成都新西旺自动化科技有限公司 一种基于权重分配的直线间距测量方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598086A (ja) * 1982-07-07 1984-01-17 Hitachi Ltd 直方体状部品の平面形状検出装置
JPS61191905A (ja) 1985-02-20 1986-08-26 Sumitomo Metal Ind Ltd 開先位置検出装置
JPH0810130B2 (ja) * 1986-11-25 1996-01-31 株式会社日立製作所 光切断線法による物体測定装置
JP3013254B2 (ja) * 1990-06-06 2000-02-28 光洋精工株式会社 形状測定方法
JPH04117578A (ja) 1990-06-13 1992-04-17 Yaskawa Electric Corp ライン検出方法
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JP2989744B2 (ja) * 1994-06-13 1999-12-13 株式会社東芝 測定面抽出装置及びその方法
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
DE59709824D1 (de) * 1996-07-29 2003-05-22 Elpatronic Ag Bergdietikon Verfahren und Vorrichtung zur Kantenverfolgung und Kantenprüfung
JPH10190972A (ja) * 1996-10-25 1998-07-21 Minolta Co Ltd 画像読取り装置
JP3201297B2 (ja) 1996-12-26 2001-08-20 日本鋼管株式会社 コイル位置検出装置
US6084980A (en) * 1997-05-13 2000-07-04 3D Systems, Inc. Method of and apparatus for deriving data intermediate to cross-sectional data descriptive of a three-dimensional object
US6233049B1 (en) * 1998-03-25 2001-05-15 Minolta Co., Ltd. Three-dimensional measurement apparatus
US6965689B2 (en) * 2001-04-05 2005-11-15 Thomas Eliott Lee Image based volumetric measuring device
US7338168B2 (en) * 2001-07-06 2008-03-04 Palantyr Research, Llc Particle analyzing system and methodology
US7024027B1 (en) * 2001-11-13 2006-04-04 Koninklijke Philips Electronics N.V. Method and apparatus for three-dimensional filtering of angiographic volume data
US20040239673A1 (en) * 2003-05-30 2004-12-02 Schmidt Karl Johann Rendering soft shadows using depth maps
JP4756819B2 (ja) * 2003-10-21 2011-08-24 オリンパス株式会社 走査型顕微鏡システム
US7170592B2 (en) * 2004-03-10 2007-01-30 Acushnet Company Method of inspecting a sphere without orienting the sphere

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006059416A1 (de) * 2006-12-15 2008-06-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Steigerung der Mess-Genauigkeit digitaler 3D-Geometriemesssysteme
DE102006059416B4 (de) * 2006-12-15 2009-05-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Steigerung der Messgenauigkeit digitaler 3D-Geometriemesssysteme
DE102019123232A1 (de) * 2019-08-29 2021-03-04 SmartRay GmbH Mehrfach-Belichtungsverfahren

Also Published As

Publication number Publication date
EP1524492A1 (de) 2005-04-20
EP1524492B1 (de) 2006-07-12
DE602004001500D1 (de) 2006-08-24
JP3892838B2 (ja) 2007-03-14
JP2005121486A (ja) 2005-05-12
US7486816B2 (en) 2009-02-03
US20050084149A1 (en) 2005-04-21

Similar Documents

Publication Publication Date Title
DE602004001500T2 (de) Apparat für dreidimensionale Messungen
DE102015116047B4 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
DE69826753T2 (de) Optischer Profilsensor
CH643959A5 (de) Verfahren und vorrichtung zur automatischen lageerkennung von halbleiterchips.
EP1173749A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE60018663T2 (de) Abstandsmesser, welcher stereoskopische Bilder verwendet
DE102007003586A1 (de) Automatische Kollimationsvorrichtung für ein Vermessungsgerät
DE69105619T3 (de) Justierungsverfahren für optische Achsen von Fahrzeugscheinwerfern.
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
EP2511648A1 (de) Messanordnung und Verfahren zur Bestimmung mindestens der Crimphöhe eines Leitercrimps
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE4212404B4 (de) Vorrichtung und Verfahren zur Bestimmung der räumlichen Form eines langgestreckten Bauteils
DE112017001464B4 (de) Abstandsmessvorrichtung und Abstandsmessverfahren
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE69318656T2 (de) Verfahren und vorrichtung zur bestimmung der optischen eigenschaften einer linse
DE2822269C2 (de) Verfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE112010003876T5 (de) Elektromagnetische-Wellen-Messgerät
DE102007017649A1 (de) Verfahren zum Bestimmen der Fokuslage von mindestens zwei Kanten von Strukturen auf einem Substrat
DE19649542C2 (de) Verfahren zum Vermessen einer Pupille
EP3575741B1 (de) Verfahren zum berührungsfreien vermessen einer werkstückkante
DE102017203391A1 (de) Verfahren und Koordinatenmessgerät zur metrologischen Vermessung von Werkstücken mit Hilfe eines Leuchttischs
DE4407285C2 (de) Verfahren zur Messung der Lage eines Loches
AT509970B1 (de) Verfahren zur aufnahme von bildern von gegenständen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition