DE112014003278T5 - Laserliniensonde mit verbessertem großen Dynamikbereich - Google Patents

Laserliniensonde mit verbessertem großen Dynamikbereich Download PDF

Info

Publication number
DE112014003278T5
DE112014003278T5 DE112014003278.6T DE112014003278T DE112014003278T5 DE 112014003278 T5 DE112014003278 T5 DE 112014003278T5 DE 112014003278 T DE112014003278 T DE 112014003278T DE 112014003278 T5 DE112014003278 T5 DE 112014003278T5
Authority
DE
Germany
Prior art keywords
light
line
average
digital
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112014003278.6T
Other languages
English (en)
Other versions
DE112014003278B4 (de
Inventor
Paul C. Atwell
Keith G. Macfarlane
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112014003278T5 publication Critical patent/DE112014003278T5/de
Application granted granted Critical
Publication of DE112014003278B4 publication Critical patent/DE112014003278B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Ein Verfahren zum Messen von dreidimensionalen Koordinaten einer Objektoberfläche mit einem Linienscanner, wobei der Linienscanner einen Projektor und eine Kamera umfasst, wobei der Projektor eine erste Lichtlinie zu einem ersten Zeitpunkt und eine zweite Lichtlinie zu einem zweiten Zeitpunkt auf die Objektoberfläche projiziert, wobei sich die integrierte Energie der zweiten Lichtlinie von der ersten Lichtlinie unterscheidet, wobei die Kamera die Reflexionen der ersten Lichtlinie und der zweiten Lichtlinie erfasst, wobei ein Prozessor die erfassten Daten verarbeitet, nachdem Teile des Bildes verworfen wurden, die gesättigt oder von elektrischer Störung dominiert sind, und Bestimmen von dreidimensionalen Koordinaten der Objektoberfläche zumindest teilweise basierend auf den verarbeiteten Daten und einem Grundlinienabstand.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht die Priorität der vorläufigen US-Patentanmeldungen Nr. 61/846,363, eingereicht am 15. Juli 2013, und 61/860,353, eingereicht am 31. Juli 2013, wobei der gesamte Inhalt beider Anmeldungen hier bezugnehmend einbezogen ist.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Offenbarung betrifft eine Laserliniensonde und insbesondere eine Laserliniensonde mit einem verbesserten großen Dynamikbereich in Bezug auf deren Bilderfassungskapazität.
  • HINTERGRUND DER ERFINDUNG
  • Die dreidimensionalen („3D“) physikalischen Eigenschaften von Oberflächen von Objekten können unter Verwendung verschiedener berührungsloser Techniken und Vorrichtungen gemessen werden. Solche Messungen können aus verschiedenen Gründen ausgeführt werden, einschließlich der Teileinspektion, der schnellen Prototypenentwicklung, des Vergleichs des tatsächlichen Teils mit einem CAD-Modell des Teils, Reverse Engineering, 3D-Modellierung usw. In den meisten Fällen nutzen diese berührungslosen Vorrichtungen auf Dreiecksvermessung basierende Techniken zur Verarbeitung der unverarbeiteten erfassten Daten, die die Oberfläche eines Objekts darstellen, zu den resultierenden tatsächlichen Messungen der Objektoberfläche.
  • Eine Art der auf Dreiecksvermessung basierenden berührungslosen Vorrichtung ist eine Laserliniensonde („LLP“), welche einen Projektor und eine Kamera umfasst. Der Projektor umfasst eine Lichtquelle, die ein Licht typischerweise als eine Linie ausgibt. Der Projektor umfasst auch eine Linse, die das ausgegebene Licht auf ein Objekt in einem relativ klaren (nicht verschwommenen) Zustand projiziert. Das ausgegebene Licht kann ein Laserlicht, ein teilweise kohärentes Licht oder ein inkohärentes Licht sein. Die Kamera umfasst eine kameraartige Bildgebungsvorrichtung, wie eine ladungsgekoppelte Vorrichtung („charge-coupled device“, CCD) oder eine lichtempfindliche CMOS-Matrix. Die Kamera umfasst auch eine Kameralinse, die das Lichtmuster auf der Objektoberfläche erfasst und dieses in einen relativ klaren (nicht verschwommenen) Zustand auf der lichtempfindlichen Matrix umwandelt. Die Kamera wird typischerweise neben der Laserlichtquelle innerhalb der LLP-Vorrichtung positioniert. Der Projektor besitzt einen virtuellen Ausgabepunkt, von welchem die Lichtlinie oder der Lichtstreifen in einem Winkel in einer Dimension und in einer flachen Lage in der orthogonalen Dimension „aufgefächert“ zu werden scheint. Die Kamera besitzt ein Kameraperspektivitätszentrum, welches Lichtstrahlen von dem Muster auf dem Objekt auf ihrem Weg zur lichtempfindlichen Matrix zu passieren scheinen. Das Liniensegment zwischen dem virtuellen Ausgabepunkt und dem Kameraperspektivitätszentrum wird als Grundlinie bezeichnet, und die Länge der Grundlinie wird als Grundlinienlänge bezeichnet.
  • In manchen Fällen ist die LLP als eine von Hand gehaltene Vorrichtung ausgebildet. In anderen Fällen kann sie an einer motorbetriebenen Vorrichtung angebracht oder in einer Fertigungsstraße an einer Position befestigt sein. Der Lichtfächer, der auf die Oberfläche des Objekts trifft, bildet einen relativ breiten Lichtstreifen auf der Objektoberfläche. Die Kamera erfasst die 3D-Silhouette oder das Profil des auf das Objekt projizierten Laserstreifens. Bei einer von Hand gehaltenen LLP wird, um das gesamte Objekt oder einen Teil davon mit der Lichtlinie abzudecken, die LLP vom Benutzer derart bewegt, dass sich der projizierte Linienstreifen über das gesamte Objekt oder zumindest den gewünschten Teil des Objekts innerhalb des Gesichtsfelds der LLP erstreckt. Dadurch werden durch Bewegen der LLP über das Objekt hunderte von Querschnitten der Objektoberfläche als 3D-Punkt-Clouds von unverarbeiteten Daten erfasst. Einige moderne LLPs können 60 Rahmen oder Streifen von 3D-Daten pro Sekunde, oder etwa 45.000 Datenpunkte pro Sekunde erfassen. Eine Signalverarbeitungselektronik (z. B. ein Computer oder ein Prozessor) ist vorgesehen, welche Software ausführt, die die unverarbeiteten 3D-Punkt-Clouddaten zu dem resultierenden 3D-Bild des Objekts verarbeitet, welches Größenmessungen umfasst, die von der LLP und ihrem Laserstreifen und dem Dreiecksvermessungsprozess erhalten wurden.
  • Das Bild der reflektierten Linie auf der Bildgebungsvorrichtung ändert sich normalerweise mit der Änderung des Abstands zwischen der Bildgebungsvorrichtung und der Objektoberfläche. Durch Kenntnis des Grundlinienabstands, der Ausrichtung des Projektors und der Kamera in Bezug auf die Grundlinie sowie der Koordinaten auf der lichtempfindlichen Matrix des abgebildeten Lichtmusters können bekannte Dreiecksvermessungsverfahren verwendet werden, um 3D-Koordinaten von Punkten auf der Oberfläche des Objekts zu messen. Das heißt, während die LLP bewegt wird, sieht die Bildgebungsvorrichtung jeden projizierten Linienstreifen. Jegliche Abweichung auf der lichtempfindlichen Matrix von einem geradlinigen Muster kann in Höhenvariationen auf der Objektoberfläche übersetzt werden, wodurch die Objektoberfläche definiert wird. Mit anderen Worten digitalisiert das hier vorstehend beschriebene Verfahren die Form und Position des Objekts innerhalb des Gesichtsfelds der LLP. Auf diese Weise kann das gemessene Objekt anhand eines CAD-Designmodells desselben Objekts geprüft werden, um jegliche Abweichungen zwischen diesen zu bestimmen.
  • Tragbare Gelenkarm-Koordinatenmessgeräte („Gelenkarm-KMGs“) können eine Tastsonde umfassen, die dafür ausgelegt ist, mit einem Objekt in Kontakt gebracht zu werden, um 3D-Koordinaten der Objektoberfläche zu bestimmen. Gelenkarm-KMGs haben verbreitet bei der Herstellung oder Produktion von Teilen Anwendung gefunden, bei denen die Abmessungen des Teils während verschiedener Herstellungs- oder Produktionsphasen (z. B. Bearbeitung) des Teils schnell und präzise geprüft werden müssen. Tragbare Gelenkarm-KMGs stellen eine starke Verbesserung gegenüber bekannten ortsfesten oder befestigten, kostspieligen und relativ schwierig zu verwendenden Messeinrichtungen dar, insbesondere in Bezug auf den Zeitaufwand, der für die Durchführung der Größenmessungen von relativ komplexen Teilen erforderlich ist. Typischerweise führt ein Benutzer eines tragbaren Gelenkarm-KMGs einfach eine „harte“ Kontaktberührungs-Messsonde (z. B. eine Kugel) an der Oberfläche des zu messenden Teils oder Objekts entlang. Die Messdaten werden dann aufgezeichnet und dem Benutzer bereitgestellt. In einigen Fällen werden dem Benutzer die Daten in optischer Form bereitgestellt, beispielsweise in 3D-Form auf einem Computerbildschirm. In anderen Fällen werden dem Benutzer die Daten in numerischer Form bereitgestellt, beispielsweise wenn bei der Messung des Durchmessers eines Lochs der Text „Durchmesser = 1,0034“ auf einem Computerbildschirm angezeigt wird.
  • Ein Beispiel für ein tragbares Gelenkarm-KMG des Stands der Technik ist in dem US-Patent Nr. 5,402,582 („das Patent '582“) des gleichen Inhabers offenbart, welches hierin in seiner Gesamtheit einbezogen ist. Das Patent ’582 offenbart ein 3D-Messsystem, das aus einem manuell bedienten Gelenkarm-KMG mit einer Tragbasis an einem Ende und einer „harten“ Messsonde am anderen Ende besteht. Das US-Patent Nr. 5,611,147 („das Patent ’147“) des gleichen Inhabers, welches hierin in seiner Gesamtheit einbezogen ist, offenbart ein ähnliches Gelenkarm-KMG. In dem Patent ’147 umfasst das Gelenkarm-KMG eine Reihe von Merkmalen einschließlich einer zusätzlichen Drehachse am Sondenende, wodurch für einen Arm eine Achskonfiguration entweder in Form von zwei-zwei-zwei oder zwei-zwei-drei Achsen bereitgestellt wird (wobei Letztere ein Arm mit sieben Achsen ist).
  • Es ist eine allgemein bekannte und anerkannte Praxis, eine Laserliniensonde an dem Sondenende eines Gelenkarm-KMGs anzubringen. Dadurch erhält man eine vollständig integrierte tragbare Berührungsmessvorrichtung oder berührungslose Messvorrichtung. Das heißt, das Gelenkarm-KMG, an dem eine LLP angebracht ist, bietet sowohl Berührungsmessungen eines Objekts durch Verwendung der „harten“ Sonde des Gelenkarm-KMGs als auch berührungslose Messungen des Objekts durch Verwendung des Lasers der LLP und einer Bildgebungsvorrichtung. Insbesondere ermöglicht es die Kombination aus Gelenkarm-KMG und LLP Benutzern, komplexe und organische Formen über Laserabtasten schnell zu inspizieren oder im Zuge des Reverse Engineering zu analysieren sowie prismatische Elemente mit der relativ hohen Genauigkeit zu erfassen, die die Berührungsmesstechnik bietet.
  • Wenn sie auf diese Weise kombiniert werden, können das Gelenkarm-KMG und die LLP veranlassen, dass die LLP einen Teil der oder die gesamte Verarbeitung der erfassten 3D-Punkt-Clouddaten unter Verwendung der Signalverarbeitungselektronik (z. B. eines Computers oder Prozessors) innerhalb des Gelenkarm-KMGs oder in Zuordnung zu diesem (z. B. getrennt davon angeordnet) ausführt. Die LLP kann jedoch ihre eigene Signalverarbeitungselektronik aufweisen, die sich innerhalb der LLP befindet oder der LLP zugeordnet ist (z. B. ein Einzelplatzrechner), um die erforderliche Signalverarbeitung auszuführen. In diesem Fall kann es nötig sein, die LLP mit einer Anzeigevorrichtung zu verbinden, um die erfassten Daten, die das Objekt darstellen, anzusehen. In diesem Fall kann die LLP auch als eine Einzelplatzvorrichtung arbeiten, ohne dass diese an ein Gelenkarm-KMG oder eine ähnliche Vorrichtung angeschlossen werden muss.
  • Ein wichtiges Kennzeichen jeder Laserliniensonde ist der Dynamikbereich der Bildgebungsvorrichtung innerhalb der LLP. Einfach ausgedrückt ist der Dynamikbereich der Bildgebungsvorrichtung der Bereich, der an einem Ende durch die Menge der relativ hellen Objektoberflächenabschnitte begrenzt ist, die die Bildgebungsvorrichtung genau erfassen kann, und der an dem anderen Ende durch die Menge der relativ dunklen Objektoberflächenabschnitte begrenzt ist, die die Bildgebungsvorrichtung genau erfassen kann. Anders ausgedrückt ist der Dynamikbereich einer Bildgebungsvorrichtung das Verhältnis des größten, nicht-sättigenden Eingangssignals zu dem kleinsten nachweisbaren Eingangssignal. Der Dynamikbereich quantifiziert im Wesentlichen die Fähigkeit eines Bildgebungssensors, sowohl die hellsten Stellen als auch die dunklen Schatten eines Objekts oder einer größeren Szene passend abzubilden. Ein typisches Objekt oder eine typische Szene aus der realen Welt, das/die abgebildet werden soll, kann einen weiten Bereich von Helligkeitswerten (oder Kontrastvariationen) über die Objektoberfläche oder -oberflächen haben, der teilweise vom Umgebungslicht, welches das Objekt zu irgendeinem Zeitpunkt beleuchtet, abhängt. Zum Beispiel ist es für ein Objekt oder eine Szene nicht unüblich, dass sich die Helligkeit um 100 Dezibel oder mehr ändert.
  • Der für eine LLP erforderliche Dynamikbereich zur optimalen Bestimmung von 3D-Koordinaten einer Oberfläche ist gleich dem Verhältnis der reflektierten Lichtleistung von den am stärksten reflektierenden zu den am wenigsten reflektierenden Abschnitten einer Objektoberfläche. Der Dynamikbereich kann als ein lineares Verhältnis oder üblicher als ein logarithmisches Verhältnis in Einheiten von Dezibel (dB) beschrieben werden. Der erforderliche Dynamikbereich für eine besondere Messung hängt teilweise von dem Material, der Farbe und der Oberflächenbeschaffenheit der Objektoberfläche und teilweise von den Abständen von einem Oberflächenpunkt zum Projektor und zur Kamera und teilweise von den Einfallwinkeln und dem Reflexionsgrad des projizierten bzw. reflektierten Lichts ab.
  • Der Dynamikbereich eines Bildsensors ist das Verhältnis der größten optischen Energie zur kleinsten optischen Energie, die von einem Pixel empfangen wird. Um eine gültige Ablesung zur Verfügung zu stellen, sollte der von einem Pixel empfangene Dynamikbereich innerhalb des linearen Bereichs des Pixels liegen, was bedeutet, dass die Energie nicht so groß sein kann, dass sie sättigt, oder nicht so klein sein kann, dass sie störbegrenzt ist. Um mit einem optimalen Pegel zu arbeiten, sollte der Dynamikbereich der Bildgebungsvorrichtung gleich oder größer als der von einer besonderen Messung benötigte Dynamikbereich sein. Die meisten handelsüblichen Vorrichtungen, z. B. CCDs oder CMOS-Bildgeber, haben einen Dynamikbereich von weniger als 100 Dezibel.
  • Eine LLP mit einer Bildgebungsvorrichtung mit einem relativ kleinen Dynamikbereich (z. B. eine CCD-Kamera oder eine lichtempfindliche CMOS-Matrix) führt zu einem wiedergegebenen Bild, welches in manchen Bereichen zu dunkel und/oder in anderen Bereichen zu hell (d.h. gesättigt) sein kann. Somit kann es schwierig wenn nicht unmöglich sein, mit einer solchen LLP 3D-Koordinaten genau zu bestimmen.
  • Infolgedessen gibt es im Stand der Technik viele Vorrichtungen und Techniken zum Erweitern oder Erhöhen des Dynamikbereichs von Bildgebungsvorrichtungen. Diesen Techniken und Vorrichtungen fehlt es jedoch tendenziell etwas am Ausmaß der Erhöhung des Dynamikbereichs der Bildgebungsvorrichtung.
  • Während bestehende Laserliniensonden für ihren beabsichtigten Zweck geeignet sind, benötigt man eine Laserliniensonde mit einer Bildgebungsvorrichtung mit einem verbesserten (d. h. vergrößerten) großen Dynamikbereich.
  • KURZFASSUNG DER ERFINDUNG
  • Gemäß einer Ausführungsform der vorliegenden Erfindung ist ein Verfahren zum Messen von dreidimensionalen Koordinaten einer Oberfläche eines Objekts gegeben, wobei das Verfahren das Bereitstellen eines Linienscanners umfasst, der einen Prozessor, einen Projektor und eine Kamera umfasst, wobei der Linienscanner einen ersten Bezugsrahmen umfasst, wobei der Projektor eine Lichtquelle und eine Projektorlinse umfasst, wobei der Projektor dafür ausgelegt ist, eine Lichtlinie im Wesentlichen gerade auszugeben, wenn sie auf eine Ebene senkrecht zu einer Ausbreitungsrichtung des Lichts projiziert wird, wobei der Projektor ein Projektorperspektivitätszentrum umfasst, wobei die Kamera eine lichtempfindliche Matrix und eine Kameralinse umfasst, wobei die Kamera ein Kameraperspektivitätszentrum umfasst, wobei die Kameralinse dafür ausgelegt ist, ein Bild eines Abschnitts der Oberfläche auf der lichtempfindlichen Matrix zu bilden, wobei die lichtempfindliche Matrix eine Matrix von Pixeln umfasst, wobei die Matrix M Reihen und N Spalten aufweist, wobei M und N ganze Zahlen sind, wobei jedes der Pixel in der Matrix von Pixeln dafür ausgelegt ist, eine von jedem der Pixel erfasste optische Energie in einen elektrischen Wert entsprechend einem digitalen Wert umzuwandeln, wobei der Prozessor dafür ausgelegt ist, die digitalen Werte zu empfangen, wobei der Linienscanner eine Grundlinie aufweist, wobei die Grundlinie ein geradliniges Segment zwischen dem Projektorperspektivitätszentrum und dem Kameraperspektivitätszentrum ist, wobei der Projektor eine Projektorausrichtung in Bezug auf die Grundlinie hat, wobei die Kamera eine Kameraausrichtung in Bezug auf die Grundlinie hat, wobei der Prozessor dafür ausgelegt ist, die Lichtquelle zu steuern und die digitalen elektrischen Signale von der lichtempfindlichen Matrix zu empfangen; Erzeugen einer ersten Lichtlinie zu einem ersten Zeitpunkt, wobei die erste Lichtlinie eine erste Lichtleistung hat; Projizieren der ersten Lichtlinie auf die Oberfläche; Reflektieren der ersten Lichtlinie als ein erstes reflektiertes Licht von der Oberfläche; Empfangen des ersten reflektierten Lichts mit der Kameralinse; Bilden eines ersten Bildes des ersten reflektierten Lichts auf der lichtempfindlichen Matrix über eine erste Integrationszeit mit der Kameralinse und, in Reaktion darauf, Erzeugen einer ersten optischen Energie für jedes der Pixel, wobei die erste optische Energie für jedes der Pixel zumindest teilweise von einer ersten integrierten Energie abhängt, wobei die erste integrierte Energie gleich einem Integral der ersten Lichtleistung über die erste Integrationszeit ist; Senden eines ersten digitalen Wertes an den Prozessor für jedes der Pixel, um eine erste M×N-Matrix von ersten digitalen Werten zu erhalten; Erzeugen einer zweiten Lichtlinie zu einem zweiten Zeitpunkt, wobei die zweite Lichtlinie eine zweite Lichtleistung hat; Projizieren der zweiten Lichtlinie auf die Oberfläche; Reflektieren der zweiten Lichtlinie als ein zweites reflektiertes Licht von der Oberfläche; Empfangen des zweiten reflektierten Lichts mit der Kameralinse; Bilden eines zweiten Bildes des zweiten reflektierten Lichts auf der lichtempfindlichen Matrix über eine zweite Integrationszeit mit der Kameralinse und, in Reaktion darauf, Erzeugen einer zweiten optischen Energie für jedes der Pixel, wobei die zweite optische Energie für jedes der Pixel zumindest teilweise von einer zweiten integrierten Energie abhängt, wobei die zweite integrierte Energie gleich einem Integral der zweiten Lichtleistung über die zweite Integrationszeit ist; wobei sich die zweite integrierte Energie von der ersten integrierten Energie unterscheidet, Senden eines zweiten digitalen Wertes an den Prozessor für jedes der Pixel, um eine zweite M×N-Matrix von zweiten digitalen Werten zu erhalten; Bestimmen eines ersten digitalen Höchstwertes und eines ersten Mittelwertes für jede der M Reihen der ersten M×N-Matrix mit dem Prozessor, wobei der erste digitale Höchstwert für die Reihe gleich einem Maximum der N ersten digitalen Werte der Reihe ist, wobei der erste Mittelwert zumindest teilweise auf wenigstens einem der N ersten digitalen Werte der Reihe basiert; Bestimmen eines zweiten digitalen Höchstwertes und eines zweiten Mittelwertes für jede der M Reihen der zweiten M×N-Matrix mit dem Prozessor, wobei der zweite digitale Höchstwert für die Reihe gleich einem Maximum der N zweiten digitalen Werte der Reihe ist, wobei der zweite Mittelwert zumindest teilweise auf wenigstens einem der N zweiten digitalen Werte der Reihe basiert; Bestimmen eines zusammengesetzten Mittelwertes für jede Reihe, in der eine erste Bedingung oder eine zweite Bedingung erfüllt ist, mit dem Prozessor, wobei die erste Bedingung darin besteht, dass der erste digitale Höchstwert kleiner als ein Sättigungspegel ist und einen Störpegel übersteigt, wobei die zweite Bedingung darin besteht, dass der zweite digitale Höchstwert kleiner als der Sättigungspegel ist und den Störpegel übersteigt, wobei der zusammengesetzte Mittelwert zumindest teilweise auf dem ersten Mittelwert und dem zweiten Mittelwert basiert; Berechnen von dreidimensionalen Koordinaten eines Punktes auf der Oberfläche für jede der M Reihen mit einem zusammengesetzten Mittelwert mit dem Prozessor, wobei die dreidimensionalen Koordinaten in dem ersten Bezugsrahmen berechnet werden, wobei die dreidimensionalen Koordinaten zumindest teilweise auf dem zusammengesetzten Mittelwert, einer Länge der Grundlinie, der Projektorausrichtung und der Kameraausrichtung basieren; und Speichern der dreidimensionalen Koordinaten für jede der M Reihen mit einem zusammengesetzten Mittelwert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nun Bezug nehmend auf die Zeichnungen sind beispielhafte Ausführungsformen gezeigt, welche nicht als den gesamten Schutzbereich der Offenbarung einschränkend aufzufassen sind, wobei die Elemente in mehreren Figuren gleich nummeriert sind:
  • 1, einschließlich 1A und 1B, sind perspektivische Ansichten eines tragbaren Gelenkarm-Koordinatenmessgeräts (Gelenkarm-KMG), das Ausführungsformen verschiedener Aspekte der vorliegenden Erfindung enthält;
  • 2, einschließlich 2A bis 2D zusammengenommen, ist ein Blockschaltbild der Elektronik, die als Teil des Gelenkarm-KMGs von 1 gemäß einer Ausführungsform verwendet wird;
  • 3, einschließlich 3A und 3B zusammengenommen, ist ein Blockschaltbild, das detaillierte Merkmale des elektronischen Datenverarbeitungssystems von 2 gemäß einer Ausführungsform beschreibt;
  • 4 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1;
  • 5 ist eine Seitenansicht des Sondenendes aus 4, wobei der Griff an dieses gekoppelt ist;
  • 6 ist eine Seitenansicht des Sondenendes aus 4, wobei der Griff angebracht ist;
  • 7 ist eine vergrößerte teilweise Seitenansicht des Schnittstellenabschnitts des Sondenendes aus 6;
  • 8 ist eine weitere vergrößerte teilweise Seitenansicht des Schnittstellenabschnitts des Sondenendes aus 5;
  • 9 ist eine isometrische Ansicht des Griffs aus 4, teilweise im Schnitt;
  • 10 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1 mit einer Laserliniensonde, an der eine einzelne Kamera angebracht ist;
  • 11 ist eine isometrische Ansicht der Laserliniensonde aus 10, teilweise im Schnitt;
  • 12 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1 mit einer weiteren Laserliniensonde mit zwei angebrachten Kameras;
  • 13 ist eine schematische Ansicht von Elementen einer Laserliniensonde (LLP);
  • 14A ist eine schematische Darstellung eines Geräts zum Projizieren einer Lichtlinie unter Verwendung einer Lichtquelle und einer Linse, und Fig. B ist eine schematische Darstellung eines Geräts zum Projizieren einer Lichtlinie unter Verwendung einer Lichtquelle, einer Vorrichtung mit einem mikroelektromechanischen System (MEMS) und einer Linse;
  • 15A bis D veranschaulichen Muster von reflektiertem Licht, beobachtet auf einer lichtempfindlichen Matrix gemäß einer Ausführungsform;
  • 16 veranschaulicht ein Verfahren zum Bestimmen eines Mittelwertes für eine Reihe einer lichtempfindlichen Matrix gemäß einer Ausführungsform;
  • 17A und D veranschaulichen eine Datenmatrix, die für ein erstes Bild bzw. ein zweites Bild erhalten wurde, und 17C veranschaulicht eine Datenmatrix, die zusammengesetzte Mittelwerte umfasst;
  • 18 beschreibt ein Verfahren zum Erhalten von dreidimensionalen Koordinaten einer Oberfläche gemäß einer Ausführungsform gemäß einer Ausführungsform;
  • 19 ist eine Perspektivansicht eines sechs-FG-Lasertrackers, der verwendet wird, um einen Linienscanner 1930 gemäß einer Ausführungsform zu positionieren; und
  • 20 ist eine Perspektivansicht einer Kamerastange, die verwendet wird, um einen Linienscanner gemäß einer Ausführungsform zu positionieren.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die 1A und 1B veranschaulichen perspektivisch ein Gelenkarm-Koordinatenmessgerät („Gelenkarm-KMG“) 100 nach verschiedenen Ausführungsformen der vorliegenden Erfindung, wobei ein Gelenkarm eine Art von Koordinatenmessgerät ist. Wie in den 1A und 1B gezeigt ist, kann das beispielhafte Gelenkarm-KMG 100 ein Gelenkmessgerät mit sechs oder sieben Achsen mit einem Sondenende 401 umfassen, das an einem Ende ein an einen Armabschnitt 104 des Gelenkarm-KMGs 100 gekoppeltes Messsondengehäuse 102 umfasst. Der Armabschnitt 104 umfasst ein erstes Armsegment 106, das durch eine erste Gruppierung von Lagereinsätzen 110 (z.B. zwei Lagereinsätzen) an ein zweites Armsegment 108 gekoppelt ist. Eine zweite Gruppierung von Lagereinsätzen 112 (z.B. zwei Lagereinsätze) koppelt das zweite Armsegment 108 an das Messsondengehäuse 102. Eine dritte Gruppierung von Lagereinsätzen 114 (z.B. drei Lagereinsätze) koppelt das erste Armsegment 106 an eine Basis 116, die am anderen Ende des Armabschnitts 104 des Gelenkarm-KMGs 100 angeordnet ist. Jede Gruppierung von Lagereinsätzen 110, 112, 114 stellt mehrere Achsen der Gelenkbewegung bereit. Außerdem kann das Sondenende 401 ein Messsondengehäuse 102 umfassen, das die Welle des siebten Achsenabschnitts des Gelenkarm-KMGs 100 aufweist (z.B. einen Einsatz, der ein Codierersystem enthält, das eine Bewegung des Messgeräts, beispielsweise einer Sonde 118, in der siebten Achse des Gelenkarm-KMGs 100 bestimmt). Bei dieser Ausführungsform kann sich das Sondenende 401 um eine Achse drehen, die sich durch die Mitte des Messsondengehäuses 102 erstreckt. Die Basis 116 ist im Gebrauch des Gelenkarm-KMGs 100 normalerweise an einer Arbeitsfläche befestigt.
  • Jeder Lagereinsatz in jeder Lagereinsatzgruppierung 110, 112, 114 enthält normalerweise ein Codierersystem (z.B. ein optisches Winkelcodierersystem). Das Codierersystem (d.h. ein Messumformer) stellt eine Angabe der Position der jeweiligen Armsegmente 106, 108 und der entsprechenden Lagereinsatzgruppierungen 110, 112, 114 bereit, die alle zusammen eine Angabe der Position der Sonde 118 in Bezug auf die Basis 116 (und somit die Position des durch das Gelenkarm-KMG 100 gemessenen Objekts in einem bestimmten Bezugsrahmen – beispielsweise einem lokalen oder globalen Bezugsrahmen) bereitstellen. Die Armsegmente 106, 108 können aus einem in geeigneter Weise starren Material bestehen, wie beispielsweise unter anderem einem Kohlefaserverbundmaterial. Ein tragbares Gelenkarm-KMG 100 mit sechs oder sieben Achsen der Gelenkbewegung (d. h. Freiheitsgraden) bietet Vorteile dahingehend, dass dem Bediener gestattet wird, die Sonde 118 an einer gewünschten Stelle innerhalb eines 360°-Bereichs um die Basis 116 zu positionieren, wobei ein Armabschnitt 104 bereitgestellt wird, der vom Bediener leicht gehandhabt werden kann. Es versteht sich jedoch, dass die Darstellung eines Armabschnitts 104 mit zwei Armsegmenten 106, 108 als Beispiel dient und dass die beanspruchte Erfindung nicht dadurch eingeschränkt sein sollte. Ein Gelenkarm-KMG 100 kann eine beliebige Anzahl von Armsegmenten aufweisen, die durch Lagereinsätze aneinandergekoppelt sind (und somit mehr oder weniger als sechs oder sieben Achsen der Gelenkbewegung oder Freiheitsgrade aufweisen).
  • Die Sonde 118 ist am Messsondengehäuse 102 lösbar angebracht, welches mit der Lagereinsatzgruppierung 112 verbunden ist. Ein Griff 126 ist in Bezug auf das Messsondengehäuse 102 beispielsweise mittels eines Schnellverbinderanschlusses abnehmbar. Wie nachstehend genauer anhand der 10 und folgenden beschrieben wird, kann der Griff 126 durch eine andere Vorrichtung ersetzt oder ausgetauscht werden, wie durch eine Laserliniensonde („LLP), die dafür ausgelegt ist, eine Linie von Laserlicht auf ein Objekt auszugeben und das Laserlicht auf einer Oberfläche des Objekts mit einer Bildgebungsvorrichtung (z. B. einer Kamera) zu erfassen oder abzubilden, die Teil der LLP ist, um dadurch eine berührungslose Messung der Dimensionen von dreidimensionalen Objekten bereitzustellen. Dieses austauschbare Merkmal und die Verwendung einer LLP haben den Vorteil, dass sie es dem Bediener ermöglichen, mit demselben Gelenkarm-KMG 100 sowohl Berührungsmessungen als auch berührungslose Messungen auszuführen. Es sollte jedoch selbstverständlich sein, dass die LLP eine eigenständige Vorrichtung sein kann, wie unten genauer beschrieben wird. Das heißt, die LLP kann selbst, ohne irgendeine Art der Verbindung mit dem Gelenkarm-KMG 100 oder einer ähnlichen Vorrichtung, vollständig funktionell und betriebsbereit sein.
  • Das Sondengehäuse 102 beherbergt bei beispielhaften Ausführungsformen eine abnehmbare Sonde 118, die ein Berührungsmessgerät ist und verschiedene Spitzen 118 aufweisen kann, die das zu messende Objekt physisch berühren, einschließlich folgender, ohne darauf beschränkt zu sein: Sonden vom Kugeltyp, berührungsempfindliche, gebogene und verlängerte Sonden. Bei anderen Ausführungsformen wird die Messung beispielsweise durch eine berührungslose Vorrichtung wie z.B. die LLP durchgeführt. Der Griff 126 ist bei einer Ausführungsform durch die LLP ersetzt, wobei der Schnellverbinder verwendet wird. Andere Typen von Messvorrichtungen können den abnehmbaren Griff 126 ersetzen, um eine zusätzliche Funktionalität bereitzustellen. Beispiele für solche Messvorrichtungen umfassen, ohne darauf beschränkt zu sein, zum Beispiel eine oder mehrere Beleuchtungslampen, einen Temperatursensor, einen Thermoscanner, einen Strichcodescanner, einen Projektor, eine Lackierpistole, eine Kamera oder dergleichen.
  • Wie in den 1A und 1B gezeigt ist, umfasst das Gelenkarm-KMG 100 den abnehmbaren Griff 126, der die Vorteile bereitstellt, dass Ausrüstungsteile oder Funktionalitäten ausgetauscht werden können, ohne dass das Messsondengehäuse 102 von der Lagereinsatzgruppierung 112 entfernt werden muss. Wie unter Bezugnahme auf 2D nachstehend ausführlicher besprochen wird, kann der abnehmbare Griff 126 auch einen elektrischen Anschluss umfassen, der es gestattet, dass elektrische Energie und Daten mit dem Griff 126 und der im Sondenende 401 angeordneten entsprechenden Elektronik ausgetauscht werden.
  • Bei verschiedenen Ausführungsformen ermöglicht jede Gruppierung von Lagereinsätzen 110, 112, 114, dass sich der Armabschnitt 104 des Gelenkarm-KMGs 100 um mehrere Drehachsen bewegt. Wie bereits erwähnt, umfasst jede Lagereinsatzgruppierung 110, 112, 114 entsprechende Codierersysteme, wie beispielsweise optische Winkelcodierer, die jeweils koaxial mit der entsprechenden Drehachse z.B. der Armsegmente 106, 108 angeordnet sind. Das optische Codierersystem erfasst eine Drehbewegung (Schwenkbewegung) oder Querbewegung (Gelenkbewegung) beispielsweise von jedem der Armsegmente 106, 108 um die entsprechende Achse und überträgt ein Signal an ein elektronisches Datenverarbeitungssystem in dem Gelenkarm-KMG 100, wie hier im Folgenden noch ausführlicher beschrieben wird. Jede einzelne unverarbeitete Codiererzählung wird separat als Signal an das elektronische Datenverarbeitungssystem gesendet, wo sie zu Messdaten weiterverarbeitet wird. Es ist kein von dem Gelenkarm-KMG 100 selbst getrennter Positionsberechner (z.B. eine serielle Box) erforderlich, wie er in dem US-Patent Nr. 5,402,582 ('582) des gleichen Inhabers offenbart wird.
  • Die Basis 116 kann eine Befestigungs- bzw. Montagevorrichtung 120 umfassen. Die Montagevorrichtung 120 ermöglicht die abnehmbare Montage des Gelenkarm-KMGs 100 an einer gewünschten Stelle, wie beispielsweise einem Inspektionstisch, einem Bearbeitungszentrum, einer Wand oder dem Boden. Die Basis 116 umfasst bei einer Ausführungsform einen Griffabschnitt 122, der eine zweckmäßige Stelle bietet, an welcher der Bediener die Basis 116 halten kann, während das Gelenkarm-KMG 100 bewegt wird. Bei einer Ausführungsform umfasst die Basis 116 ferner einen beweglichen Abdeckungsabschnitt 124, der herunterklappbar ist, um eine Benutzerschnittstelle, wie beispielsweise einen Bildschirm, freizugeben.
  • Gemäß einer Ausführungsform enthält oder birgt die Basis 116 des tragbaren Gelenkarm-KMGs 100 eine elektronische Schaltung mit einem elektronischen Datenverarbeitungssystem, welches zwei primäre Komponenten umfasst: ein Basisverarbeitungssystem, das die Daten von den verschiedenen Codierersystemen im Gelenkarm-KMG 100 sowie Daten, die andere Armparameter zur Unterstützung der dreidimensionalen („3D“) Positionsberechnungen darstellen, verarbeitet; und ein Benutzerschnittstellen-Verarbeitungssystem, das ein integriertes Betriebssystem, einen berührungssensitiven Bildschirm und eine residente Anwendungssoftware umfasst, welche die Implementierung relativ vollständiger messtechnischer Funktionen innerhalb des Gelenkarm-KMGs 100 gestattet, ohne dass dabei eine Verbindung zu einem externen Computer vorhanden sein muss.
  • Das elektronische Datenverarbeitungssystem in der Basis 116 kann mit den Codierersystemen, Sensoren und anderer peripherer Hardware, die entfernt von der Basis 116 angeordnet ist (z.B. eine Laserliniensonde, die am abnehmbaren Griff 126 am Gelenkarm-KMG 100 montiert werden kann), kommunizieren. Die Elektronik, die diese peripheren Hardwarevorrichtungen oder -merkmale unterstützt, kann sich in jeder der in dem tragbaren Gelenkarm-KMG 100 angeordneten Lagereinsatzgruppierungen 110, 112, 114 befinden.
  • 2 ist ein Blockschaltbild der Elektronik, die gemäß einer Ausführungsform in einem Gelenkarm-KMG 100 verwendet wird. Die in 2A dargestellte Ausführungsform umfasst ein elektronisches Datenverarbeitungssystem 210, das eine Basisprozessorkarte 204 zur Implementierung des Basisverarbeitungssystems, eine Benutzerschnittstellenkarte 202, eine Basisenergiekarte 206 zur Bereitstellung von Energie, ein Bluetooth-Modul 232 und eine Basisneigungskarte 208 umfasst. Die Benutzerschnittstellenkarte 202 umfasst einen Computerprozessor zum Ausführen der Anwendungssoftware, um die Benutzerschnittstelle, den Bildschirm und andere hier beschriebene Funktionen durchzuführen.
  • Wie in den 2A und 2B zu sehen ist, steht das elektronische Datenverarbeitungssystem 210 über einen oder mehrere Armbusse 218 mit den vorgenannten mehreren Codierersystemen in Verbindung. Jedes Codierersystem erzeugt bei der in 2B und 2C dargestellten Ausführungsform Codiererdaten und umfasst: eine Codierer-Armbus-Schnittstelle 214, einen digitalen Codierer-Signalprozessor (DSP) 216, eine Codierer-Lesekopf-Schnittstelle 234 und einen Temperatursensor 212. Andere Vorrichtungen, wie beispielsweise Dehnungssensoren, können an den Armbus 218 angeschlossen werden.
  • In 2D ist auch die Sondenende-Elektronik 230 dargestellt, die mit dem Armbus 218 in Verbindung steht. Die Sondenende-Elektronik 230 umfasst einen Sondenende-DSP 228, einen Temperatursensor 212, einen Griff-/Vorrichtungs-Schnittstellenbus 240, der bei einer Ausführungsform über den Schnellverbinderanschluss mit dem Griff 126 oder der Laserliniensonde („LLP“) 242 verbunden ist, und eine Sondenschnittstelle 226. Der Schnellverbinderanschluss ermöglicht den Zugang des Griffs 126 zum Datenbus, den Steuerleitungen, dem von der LLP 242 benutzten Energiebus und zu anderen Ausrüstungsteilen. Die Sondenende-Elektronik 230 ist bei einer Ausführungsform in dem Messsondengehäuse 102 am Gelenkarm-KMG 100 angeordnet. Der Griff 126 kann bei einer Ausführungsform von dem Schnellverbinderanschluss entfernt werden, und die Messung kann mit der LLP 242, die über den Schnittstellenbus 240 mit der Sondenende-Elektronik 230 des Gelenkarm-KMGs 100 in Verbindung steht, durchgeführt werden. Bei einer Ausführungsform sind das elektronische Datenverarbeitungssystem 210 in der Basis 116 des Gelenkarm-KMGs 100, die Sondenende-Elektronik 230 im Messsondengehäuse 102 des Gelenkarm-KMGs 100 und die Codierersysteme in den Lagereinsatzgruppierungen 110, 112, 114 angeordnet. Die Sondenschnittstelle 226 kann durch ein beliebiges geeignetes Kommunikationsprotokoll, das im Handel erhältliche Produkte von Maxim Integrated Products, Inc. umfasst, die als 1-Wire®-Kommunikationsprotokoll 236 ausgebildet sind, mit dem Sondenende-DSP 228 verbunden werden.
  • 3 ist ein Blockschaltbild, das detaillierte Merkmale des elektronischen Datenverarbeitungssystems 210 des Gelenkarm-KMGs 100 gemäß einer Ausführungsform beschreibt. Das elektronische Datenverarbeitungssystem 210 ist bei einer Ausführungsform in der Basis 116 des Gelenkarm-KMGs 100 angeordnet und umfasst die Basisprozessorkarte 204, die Benutzerschnittstellenkarte 202, eine Basisenergiekarte 206, ein Bluetooth-Modul 232 und ein Basisneigungsmodul 208.
  • Bei einer in 3A gezeigten Ausführungsform umfasst die Basisprozessorkarte 204 die verschiedenen, dort dargestellten funktionellen Blöcke. Eine Basisprozessorfunktion 302 wird beispielsweise verwendet, um die Erfassung von Messdaten des Gelenkarm-KMGs 100 zu unterstützen, und empfängt über den Armbus 218 und eine Bussteuermodulfunktion 308 die unverarbeiteten Codiererdaten (z.B. Codierersystemdaten). Die Speicherfunktion 304 speichert Programme und statische Armkonfigurationsdaten. Die Basisprozessorkarte 204 umfasst ferner eine für eine externe Hardwareoption vorgesehene Portfunktion 310, um mit etwaigen externen Hardwarevorrichtungen oder Ausrüstungsteilen, wie beispielsweise der LLP 242, zu kommunizieren. Eine Echtzeituhr (RTC; real time clock) und ein Protokoll 306, eine Batteriesatzschnittstelle (IF; interface) 316 und ein Diagnoseport 318 sind bei einer Ausführungsform der in 3A abgebildeten Basisprozessorkarte 204 ebenfalls in der Funktionalität enthalten.
  • Die Basisprozessorkarte 204 verwaltet auch die gesamte drahtgebundene und drahtlose Datenkommunikation mit externen (Host-Rechner) und internen (Bildschirmprozessor 202) Vorrichtungen. Die Basisprozessorkarte 204 ist in der Lage, über eine Ethernet-Funktion 320 mit einem Ethernet-Netz (z.B. unter Verwendung einer Taktsynchronisations-Norm, wie beispielsweise IEEE (Institute of Electrical and Electronics Engineers) 1588), über eine LAN-Funktion 322 mit einem drahtlosen Local Area Network (WLAN; wireless local area network) und über eine Parallel-Seriell-Kommunikations-Funktion (PSK-Funktion) 314 mit dem Bluetooth-Modul 232 zu kommunizieren. Die Basisprozessorkarte 204 umfasst des Weiteren einen Anschluss an eine Universal-Serial-Bus-Vorrichtung (USB) 312.
  • Die Basisprozessorkarte 204 überträgt und erfasst unverarbeitete Messdaten (z.B. Zählungen des Codierersystems, Temperaturmesswerte) für die Verarbeitung zu Messdaten, ohne dass dabei irgendeine Vorverarbeitung erforderlich ist, wie sie beispielsweise bei der seriellen Box des vorgenannten Patents ’582 offenbart wird. Der Basisprozessor 204 sendet die verarbeiteten Daten über eine RS485-Schnittstelle (IF) 326 an den Bildschirmprozessor 328 auf der Benutzerschnittstellenkarte 202. Bei einer Ausführungsform sendet der Basisprozessor 204 auch die unverarbeiteten Messdaten an einen externen Computer.
  • Nun bezugnehmend auf die Benutzerschnittstellenkarte 202 in 3B, werden die vom Basisprozessor empfangenen Winkel- und Positionsdaten von auf dem Bildschirmprozessor 328 ausgeführten Anwendungen verwendet, um ein autonomes messtechnisches System in dem Gelenkarm-KMG 100 bereitzustellen. Die Anwendungen können auf dem Bildschirmprozessor 328 ausgeführt werden, um beispielsweise unter anderem folgende Funktionen zu unterstützen: Messung von Merkmalen, Anleitungs- und Schulungsgrafiken, Ferndiagnostik, Temperaturkorrekturen, Steuerung verschiedener Betriebseigenschaften, Verbindung zu verschiedenen Netzen und Anzeige gemessener Objekte. Die Benutzerschnittstellenkarte 202 umfasst zusammen mit dem Bildschirmprozessor 328 und einer Benutzerschnittstelle für einen Flüssigkristallbildschirm (LCD-Bildschirm; liquid crystal display) 338 (z.B. ein berührungssensitiver LCD-Bildschirm) mehrere Schnittstellenoptionen, zu denen eine Secure-Digital-Karten-Schnittstelle (SD-Karten-Schnittstelle) 330, ein Speicher 332, eine USB-Host-Schnittstelle 334, ein Diagnoseport 336, ein Kameraport 340, eine Audio-/Video-Schnittstelle 342, ein Wähl-/Funkmodem 344 und ein Port 346 für das Global Positioning System (GPS) gehören.
  • Das in 3A abgebildete elektronische Datenverarbeitungssystem 210 umfasst des Weiteren eine Basisenergiekarte 206 mit einem Umgebungsaufzeichnungsgerät 362 zur Aufzeichnung von Umgebungsdaten. Die Basisenergiekarte 206 stellt auch Energie für das elektronische Datenverarbeitungssystem 210 bereit, wobei ein Wechselstrom-Gleichstrom-Wandler 358 und eine Batterieladegerät-Steuerung 360 verwendet werden. Die Basisenergiekarte 206 steht über einen seriellen Single-Ended-Bus 354, der einen Inter-Integrated Circuit (I2C) aufweist, sowie über eine serielle DMA-Peripherieschnittstelle (DSPI) 357 mit der Basisprozessorkarte 204 in Verbindung. Die Basisenergiekarte 206 ist über eine Ein-/Ausgabe(E/A)-Erweiterungsfunktion 364, die in der Basisenergiekarte 206 implementiert ist, mit einem Neigungssensor und einem Radiofrequenzidentifikations-Modul (RFID-Modul) 208 verbunden.
  • Obwohl sie als getrennte Komponenten dargestellt sind, können alle oder kann eine Untergruppe der Komponenten bei anderen Ausführungsformen physisch an verschiedenen Stellen angeordnet sein und/oder die Funktionen auf andere Art als bei der in 3A und 3B dargestellten kombiniert sein. Beispielsweise sind die Basisprozessorkarte 204 und die Benutzerschnittstellenkarte 202 bei einer Ausführungsform in einer physischen Karte kombiniert.
  • Nun mit Bezug auf die 4 bis 9 ist eine beispielhafte Ausführungsform eines Sondenendes 401 mit einem Messsondengehäuse 102 mit einem mechanischen und elektrischen Schnellverbinderanschluss gezeigt, der das Koppeln einer abnehmbaren und austauschbaren Vorrichtung 400 an das Gelenkarm-KMG 100 gestattet. In der beispielhaften Ausführungsform umfasst die Vorrichtung 400 ein Gehäuse 402, das einen Griffabschnitt 404 umfasst, der so bemessen und geformt ist, dass er in der Hand eines Bedieners gehalten werden kann, wie zum Beispiel bei einem Kolbengriff. Das Gehäuse 402 ist eine dünnwandige Struktur mit einem Hohlraum 406 (9). Der Hohlraum 406 ist so bemessen und ausgeführt, dass er einen Controller 408 aufnehmen kann. Der Controller 408 kann eine digitale Schaltung, zum Beispiel mit einem Mikroprozessor, oder eine analoge Schaltung sein. In einer Ausführungsform kommuniziert der Controller 408 asynchron und bidirektional mit dem elektronischen Datenverarbeitungssystem 210 (2 und 3). Die Kommunikationsverbindung zwischen dem Controller 408 und dem elektronischen Datenverarbeitungssystem 210 kann drahtgebunden sein (z.B. über den Controller 420), oder sie kann eine direkte oder indirekte drahtlose Verbindung (z.B. Bluetooth oder IEEE 802.11), oder aber eine Kombination von einer drahtgebundenen und einer drahtlosen Verbindung sein. In der beispielhaften Ausführungsform ist das Gehäuse 402 in zwei Hälften 410, 412 ausgebildet, zum Beispiel aus einem Spritzguss-Kunststoffmaterial. Die Hälften 410, 412 können durch Befestigungsmittel, wie zum Beispiel Schrauben 414, aneinander befestigt sein. In anderen Ausführungsformen können die Gehäusehälften 410, 412 zum Beispiel durch Klebstoffe oder Ultraschallschweißen aneinander befestigt sein.
  • Der Griffabschnitt 404 umfasst auch Knöpfe oder Stellglieder 416, 418, die durch den Bediener manuell aktiviert werden können. Die Stellglieder 416, 418 sind an den Controller 408 gekoppelt, der an einen Controller 420 innerhalb des Sondengehäuses 102 ein Signal übermittelt. In den beispielhaften Ausführungsformen führen die Stellglieder 416, 418 die Funktionen der Stellglieder 422, 424 aus, die auf dem Sondengehäuse 102 gegenüber der Vorrichtung 400 angeordnet sind. Es ist ersichtlich, dass die Vorrichtung 400 zusätzliche Schalter, Knöpfe oder andere Stellglieder aufweisen kann, die auch verwendet werden können, um die Vorrichtung 400, das Gelenkarm-KMG 100, oder umgekehrt zu steuern. Die Vorrichtung 400 kann zum Beispiel auch Anzeigevorrichtungen, wie Leuchtdioden (LEDs), Schallgeber, Messgeräte, Anzeigen oder Messinstrumente aufweisen. In einer Ausführungsform kann die Vorrichtung 400 ein digitales Sprachaufzeichnungsgerät umfassen, das die Synchronisation von verbalen Kommentaren mit einem gemessenen Punkt gestattet. In noch einer weiteren Ausführungsform umfasst die Vorrichtung 400 ein Mikrophon, das es dem Bediener gestattet, sprachgesteuerte Befehle an das elektronische Datenverarbeitungssystem 210 zu übertragen.
  • In einer Ausführungsform kann der Griffabschnitt 404 so konfiguriert sein, dass er mit jeder Hand des Bedieners oder mit einer bestimmten Hand (z.B. der linken Hand oder der rechten Hand) verwendet werden kann. Der Griffabschnitt 404 kann auch so konfiguriert sein, dass er von Bedienern mit Behinderungen bedient werden kann (z.B. Bediener, denen Finger fehlen, oder Bediener mit einer Armprothese). Des Weiteren kann der Griffabschnitt 404 abgenommen und das Sondengehäuse 102 alleine verwendet werden, wenn die Raumverhältnisse beengt sind. Wie oben besprochen, kann das Sondenende 401 auch die Welle der siebten Achse des Gelenkarm-KMGs 100 aufweisen. Bei dieser Ausführungsform kann die Vorrichtung 400 so angeordnet sein, dass sie sich um die siebte Achse des Gelenkarm-KMGs dreht.
  • Das Sondenende 401 umfasst eine mechanische und elektrische Schnittstelle 426 mit einem ersten Verbindungsstück 429 (8) auf der Vorrichtung 400, das mit einem zweiten Verbindungsstück 428 auf dem Sondengehäuse 102 zusammenwirkt. Die Verbindungsstücke 428, 429 können elektrische und mechanische Merkmale umfassen, die das Koppeln der Vorrichtung 400 an das Sondengehäuse 102 gestatten. In einer Ausführungsform umfasst die Schnittstelle 426 eine erste Oberfläche 430 mit einem mechanischen Koppler 432 und einem darauf angeordneten elektrischen Verbindungsstück 434. Das Gehäuse 402 umfasst auch eine zweite Oberfläche 436, die angrenzend an die erste Oberfläche 430 und versetzt zu dieser positioniert ist. In der beispielhaften Ausführungsform ist die zweite Oberfläche 436 eine planare Oberfläche, die um einen Abstand von etwa 1,27 cm (0,5 Inch) von der ersten Oberfläche 430 versetzt ist. Dieser Versatz schafft Raum für die Finger des Bedieners, wenn er eine Befestigungseinrichtung, wie einen Kragen 438, anzieht oder löst. Die Schnittstelle 426 schafft eine relativ schnelle und sichere elektronische Verbindung zwischen der Vorrichtung 400 und dem Sondengehäuse 102, ohne dass Steckerstifte ausgerichtet werden müssen, und ohne Bedarf an separaten Kabeln oder Verbindungsstücken.
  • Das elektrische Verbindungsstück 434 erstreckt sich von der ersten Oberfläche 430 und umfasst einen oder mehrere Steckerstifte 440, die asynchron bidirektional mit dem elektronischen Datenverarbeitungssystem 210 elektrisch gekoppelt sind (2 und 3), wie zum Beispiel über einen oder mehrere Armbusse 218. Die bidirektionale Kommunikationsverbindung kann (z. B. über den Armbus 218) drahtgebunden, drahtlos (z. B. Bluetooth oder IEEE 802.11) oder eine Kombination aus einer drahtgebundenen und einer drahtlosen Verbindung sein. In einer Ausführungsform ist das elektrische Verbindungsstück 434 elektrisch an den Controller 420 gekoppelt. Der Controller 420 kann asynchron bidirektional mit dem elektronischen Datenverarbeitungssystem 210 kommunizieren, wie zum Beispiel über einen oder mehrere Armbusse 218. Das elektrische Verbindungsstück 434 ist so positioniert, dass es eine relativ schnelle und sichere elektronische Verbindung mit dem elektrischen Verbindungsstück 442 auf dem Sondengehäuse 102 bietet. Die elektrischen Verbindungsstücke 434, 442 sind miteinander verbunden, wenn die Vorrichtung 400 an dem Sondengehäuse 102 angebracht ist. Die elektrischen Verbindungsstücke 434, 442 können jeweils ein mit Metall ummanteltes Verbindungsstückgehäuse aufweisen, das eine Abschirmung gegenüber elektromagnetischer Störung bietet und die Steckerstifte schützt sowie beim Anbringen der Vorrichtung 400 an dem Sondengehäuse 102 das Ausrichten der Stifte unterstützt.
  • Der mechanische Koppler 432 schafft eine relativ starre mechanische Kopplung zwischen der Vorrichtung 400 und dem Sondengehäuse 102, um relativ präzise Anwendungen zu unterstützen, bei denen sich die Position der Vorrichtung 400 am Ende des Armabschnitts 104 des Gelenkarm-KMGs 100 vorzugsweise nicht verschiebt oder bewegt. Jede derartige Bewegung kann typischerweise eine unerwünschte Beeinträchtigung der Genauigkeit des Messergebnisses nach sich ziehen. Diese gewünschten Ergebnisse werden unter Verwendung von verschiedenen Strukturmerkmalen des mechanischen Anbringungskonfigurationsabschnitts des mechanischen und elektronischen Schnellverbinderanschlusses einer Ausführungsform der vorliegenden Erfindung erreicht.
  • In einer Ausführungsform umfasst der mechanische Koppler 432 einen ersten Vorsprung 444, der an einem Ende 448 (der Vorderkante oder der „Stirnseite“ der Vorrichtung 400) positioniert ist. Der erste Vorsprung 444 kann eine ausgerundete, gekerbte oder geneigte Schnittstelle umfassen, die einen Rand 446 bildet, der sich von dem ersten Vorsprung 444 erstreckt. Der Rand 446 ist so bemessen, dass er in einem Schlitz 450 aufgenommen werden kann, der durch einen Vorsprung 452 definiert ist, der sich von dem Sondengehäuse 102 erstreckt (8). Es ist ersichtlich, dass der erste Vorsprung 444 und der Schlitz 450 zusammen mit dem Kragen 438 eine Koppleranordnung bilden, so dass, wenn der Rand 446 innerhalb des Schlitzes 450 positioniert ist, der Schlitz 450 verwendet werden kann, um sowohl die längsgerichtete als auch die seitliche Bewegung der Vorrichtung 400 einzuschränken, wenn diese auf dem Sondengehäuse 102 angebracht ist. Wie später genauer besprochen wird, kann die Drehung des Kragens 438 dazu verwendet werden, den Rand 446 innerhalb des Schlitzes 450 zu sichern.
  • Gegenüber dem ersten Vorsprung 444 kann der mechanische Koppler 432 einen zweiten Vorsprung 454 umfassen. Der zweite Vorsprung 454 kann eine ausgerundete, gekerbte oder geneigte Schnittstellenfläche 456 aufweisen (5). Der zweite Vorsprung 454 ist so positioniert, dass er in eine dem Sondengehäuse 102 zugeordnete Befestigungsvorrichtung, wie zum Beispiel den Kragen 438, eingreift. Wie später genauer besprochen wird, umfasst der mechanische Koppler 432 eine erhabene Oberfläche, die von der Oberfläche 430 vorsteht, die an das elektrische Verbindungsstück 434 angrenzt oder um dieses herum angeordnet ist, die einen Drehpunkt für die Schnittstelle 426 bietet (7 und 8). Dies dient als der dritte von drei Punkten des mechanischen Kontakts zwischen der Vorrichtung 400 und dem Sondengehäuse 102, wenn die Vorrichtung 400 daran angebracht ist.
  • Das Sondengehäuse 102 umfasst einen Kragen 438, der koaxial an einem Ende angebracht ist. Der Kragen 438 umfasst einen Gewindeabschnitt, der zwischen einer ersten Position (5) und einer zweiten Position (7) beweglich ist. Durch Drehen des Kragens 438 kann der Kragen 438 verwendet werden, um die Vorrichtung 400 zu befestigen oder zu lösen, ohne dass externe Werkzeuge notwendig sind. Das Drehen des Kragens 438 bewegt den Kragen 438 entlang eines relativ groben Zylinders 474 mit quadratischem Gewinde. Die Verwendung von derartig großen, mit quadratischem Gewinde versehenen und konturierten Oberflächen ermöglicht eine erhebliche Klemmkraft bei einem minimalen Drehmoment. Die grobe Steigung der Gewinde des Zylinders 474 gestattet des Weiteren, dass der Kragen 438 durch minimale Drehung angezogen oder gelöst werden kann.
  • Um die Vorrichtung 400 an das Sondengehäuse 102 zu koppeln, wird der Rand 446 in den Schlitz 450 eingeführt und die Vorrichtung verschwenkt, um den zweiten Vorsprung 454 zur Oberfläche 458 hin zu drehen, wie es durch den Pfeil 464 angezeigt ist (5). Der Kragen 438 wird gedreht, wodurch sich der Kragen 438 in die durch den Pfeil 462 angezeigte Richtung bewegt oder verschiebt und mit der Oberfläche 456 in Eingriff kommt. Die Bewegung des Kragens 438 gegen die abgewinkelte Oberfläche 456 treibt den mechanischen Koppler 432 gegen die erhabene Oberfläche 460. Dadurch kann die Überwindung potentieller Probleme bezüglich der Verzerrung der Schnittstelle oder fremder Objekte auf der Oberfläche der Schnittstelle, die den starren Sitz der Vorrichtung 400 auf dem Sondengehäuse 102 beeinträchtigen können, unterstützt werden. Die Kraftaufbringung durch den Kragen 438 auf den zweiten Vorsprung 454 bewirkt, dass sich der mechanische Koppler 432 nach vorne bewegt, wobei er den Rand 446 in einen Sitz auf dem Sondengehäuse 102 presst. Während der Kragen 438 weiter angezogen wird, wird der zweite Vorsprung 454 nach oben Richtung Sondengehäuse 102 gepresst, wobei Druck auf einen Drehpunkt ausgeübt wird. Dadurch wird eine Art von Wippenanordnung geschaffen, die Druck auf den zweiten Vorsprung 454, den Rand 446 und den mittleren Drehpunkt ausübt, um ein Verschieben oder Wackeln der Vorrichtung 400 zu verringern oder zu verhindern. Der Drehpunkt presst unmittelbar gegen den Boden auf dem Sondengehäuse 102, während der Rand 446 eine nach unten gerichtete Kraft auf das Ende des Sondengehäuses 102 ausübt. 5 umfasst Pfeile 462, 464, um die Bewegungsrichtung der Vorrichtung 400 und des Kragens 438 zu zeigen. 7 umfasst Pfeile 466, 468, 470, um die Richtung des aufgebrachten Drucks innerhalb der Schnittstelle 426 zu zeigen, wenn der Kragen 438 angezogen wird. Es ist ersichtlich, dass der Abstand des Versatzes der Oberfläche 436 der Vorrichtung 400 einen Spalt 472 zwischen dem Kragen 438 und der Oberfläche 436 schafft (6). Der Spalt 472 gestattet es dem Bediener, einen festeren Griff an dem Kragen 438 zu erhalten, während die Gefahr des Einklemmens von Fingern beim Drehen des Kragens 438 verringert wird. In einer Ausführungsform weist das Sondengehäuse 102 eine ausreichende Steifigkeit auf, um die Verzerrung zu verringern oder verhindern, wenn der Kragen 438 angezogen wird.
  • Ausführungsformen der Schnittstelle 426 ermöglichen die korrekte Ausrichtung des mechanischen Kopplers 432 und des elektrischen Verbindungsstücks 434 und schützen die Elektronikschnittstelle auch vor aufgebrachten Belastungen, die ansonsten auf Grund der Klemmwirkung des Kragens 438, des Rands 446 und der Oberfläche 456 auftreten könnten. Dies schafft den Vorteil, dass eine Beschädigung der auf einer Leiterplatte 476 montierten elektrischen Verbindungsstücke 434, 442, die gelötete Anschlussklemmen aufweisen können, durch Belastung vermindert oder verhindert werden kann. Die Ausführungsformen bieten auch gegenüber bekannten Ansätzen den Vorteil, dass ein Benutzer kein Werkzeug braucht, um die Vorrichtung 400 mit dem Sondengehäuse 102 zu verbinden oder von diesem zu trennen. Dadurch kann der Bediener die Vorrichtung 400 manuell mit dem Sondengehäuse 102 relativ einfach verbinden oder von diesem trennen.
  • Auf Grund der relativ hohen Zahl an abgeschirmten elektrischen Verbindungen, die mit der Schnittstelle 426 möglich sind, können das Gelenkarm-KMG 100 und die Vorrichtung 400 eine relativ hohe Zahl an Funktionen gemeinsam nutzen. Zum Beispiel können Schalter, Knöpfe oder andere Stellglieder, die sich an dem Gelenkarm-KMG 100 befinden, verwendet werden, um die Vorrichtung 400 zu steuern, oder umgekehrt. Des Weiteren können Befehle und Daten von dem elektronischen Datenverarbeitungssystem 210 zur Vorrichtung 400 übermittelt werden. In einer Ausführungsform ist die Vorrichtung 400 eine Videokamera, die Daten eines aufgezeichneten Bildes zur Speicherung in einem Speicher in dem Basisprozessor 204 oder zur Anzeige auf der Anzeige 328 überträgt. In einer anderen Ausführungsform ist die Vorrichtung 400 ein Bildprojektor, der Daten von dem elektronischen Datenverarbeitungssystem 210 empfängt. Außerdem können entweder in dem Gelenkarm-KMG 100 oder in der Vorrichtung 400 angeordnete Temperatursensoren mit der jeweiligen anderen gemeinsam genutzt werden. Es ist ersichtlich, dass Ausführungsformen der vorliegenden Erfindung den Vorteil schaffen, dass eine flexible Schnittstelle geschaffen wird, die es ermöglicht, eine große Vielfalt von Zubehörvorrichtungen 400 schnell, einfach und zuverlässig an das Gelenkarm-KMG 100 zu koppeln. Des Weiteren kann die Möglichkeit des gemeinsamen Nutzens von Funktionen durch das Gelenkarm-KMG 100 und die Vorrichtung 400 zu einer Verringerung der Größe, des Stromverbrauchs und der Komplexität des Gelenkarm-KMGs 100 führen, indem diese nur einmal vorliegen müssen.
  • In einer Ausführungsform kann der Controller 408 den Betrieb oder die Funktionalität des Sondenendes 401 des Gelenkarm-KMGs 100 ändern. Zum Beispiel kann der Controller 408 Anzeigeleuchten auf dem Sondengehäuse 102 so ändern, dass entweder ein Licht mit einer anderen Farbe oder einer anderen Lichtintensität ausgestrahlt wird, oder dass das Licht zu anderen Zeiten ein- und ausgeschaltet wird, wenn die Vorrichtung 400 angebracht ist, im Gegensatz zu der Situation, in der das Sondengehäuse 102 alleine verwendet wird. In einer Ausführungsform umfasst die Vorrichtung 400 einen Entfernungsmesssensor (nicht gezeigt), der den Abstand zu einem Objekt misst. Bei dieser Ausführungsform kann der Controller 408 Anzeigeleuchten auf dem Sondengehäuse 102 ändern, um dem Bediener eine Anzeige zur Verfügung zu stellen, die zeigt, wie weit das Objekt von der Sondenspitze 118 entfernt ist. In einer anderen Ausführungsform kann der Controller 408 basierend auf der Qualität des von der codierten LLP 242 aufgenommenen Bildes die Farbe der Anzeigelichter ändern. Dies schafft Vorteile dahingehend, dass die Anforderungen des Controllers 420 vereinfacht werden, und gestattet eine verbesserte oder höhere Funktionalität durch Hinzufügung von Zubehörvorrichtungen.
  • Mit Bezug auf die 10 bis 11 bieten Ausführungsformen der vorliegenden Erfindung Vorteile für Kamera, Signalverarbeitung, Steuerung und Anzeigeschnittstellen für eine Laserliniensonde (LLP) 500, die Teil einer Messeinheit 490 ist. Die LLP 500 kann die gleiche sein wie die hier vorstehend mit Bezug auf die 1 bis 9 angegebene LLP 242. Die LLP 500 bietet berührungslose Messungen eines Objekts, typischerweise im gleichen Bezugsrahmen wie derjenige der harten Sonde 118 des Gelenkarm-KMGs 100, wie vorstehend besprochen. Außerdem basieren die berechneten dreidimensionalen Koordinaten von Oberflächenpunkten, die von der LLP 500 bereitgestellt werden, auf den bekannten Grundlagen der Dreiecksvermessung, wie ausführlicher nachstehend erläutert wird. Die LLP 500 kann ein Gehäuse 502 mit einem Griffabschnitt 504 umfasst. Die LLP 500 umfasst des Weiteren eine Schnittstelle 426 an einem Ende, die die LLP 500 mechanisch und elektrisch an das Sondengehäuse 102 koppelt, wie hier vorstehend beschrieben wurde. Die Schnittstelle 426 ermöglicht das schnelle und einfache Koppeln und Abnehmen der LLP 500 an das und von dem Gelenkarm-KMG 100 ohne die Notwendigkeit zusätzlicher Werkzeuge.
  • Angrenzend an die Schnittstelle 426 hat das Gehäuse 502 einen Abschnitt 506, der einen Projektor 508 und eine Kamera 510 umfasst. In der beispielhaften Ausführungsform verwendet der Projektor 508 eine Lichtquelle, die eine auf eine Objektoberfläche projizierte gerade Linie erzeugt. Die Lichtquelle kann zum Beispiel ein Laser, eine superstrahlende Diode (superluminescent diode, SLD), ein Glühlicht oder eine Leuchtdiode (LED) sein. Das projizierte Licht kann sichtbar oder unsichtbar sein, aber sichtbares Licht kann in manchen Fällen günstiger sein. Die Kamera 510 umfasst eine Linse und einen Bildgebungssensor. Der Bildgebungssensor ist eine lichtempfindliche Matrix, die zum Beispiel eine ladungsgekoppelte Vorrichtung (CCD), ein zweidimensionaler („2D“)-Bereichssensor oder ein Komplementär-Metalloxid-Halbleiter (Complementary Metal-Oxide-Semiconductor, CMOS)-2D-Bereichssensor sein kann, oder es kann eine andere Art von Vorrichtung sein. Jeder Bildgebungssensor kann eine 2D-Matrix (d. h. Reihen, Spalten) von mehreren Lichtwahrnehmungs-Bildelementen („Pixeln“) umfassen. Jedes Pixel umfasst typischerweise wenigstens einen Photodetektor, der Licht in eine elektrische Ladung umwandelt, die innerhalb der Pixelvertiefungen gespeichert und als ein Spannungswert ausgelesen werden. Spannungswerte werden durch einen Analog-Digital-Wandler (Analog-to-Digital Converter, ADC) in digitale Werte umgewandelt. Der ADC ist bei einem CMOS-Sensorchip typischerweise in dem Sensorchip enthalten. Der ADC ist bei einem CCD-Sensorchip typischerweise außerhalb des Sensorchips auf einer Leiterplatte vorgesehen.
  • In einer beispielhaften Ausführungsform sind der Projektor 508 und die Kamera 510 so ausgerichtet, dass sie ermöglichen, dass reflektiertes Licht von der lichtempfindlichen Matrix abgebildet wird. In einer Ausführungsform wird die LLP 500 von der Sondenspitze 118 versetzt, um es der LLP 500 zu ermöglichen, ohne Störung durch die Sondenspitze 118 betrieben zu werden. Mit anderen Worten kann die LLP 500 betrieben werden, wenn die Sondenspitze 118 an ihrem Platz angeordnet ist. Des Weiteren ist ersichtlich, dass die LLP 500 relativ zur Sondenspitze 118 im Wesentlichen fixiert ist, so dass Kräfte auf dem Griffabschnitt 504 die Ausrichtung der LLP 500 relativ zur Sondenspitze 118 nicht beeinflussen. In einer Ausführungsform kann die LLP 500 ein zusätzliches Stellglied (nicht gezeigt) aufweisen, das es dem Bediener gestattet, zwischen der Erfassung von Daten durch die LLP 500 und durch die Sondenspitze 118 hin- und herzuschalten.
  • Der Projektor 508 und die Kamera 510 sind elektrisch an einen Controller 512 gekoppelt, der innerhalb des Gehäuses 502 angeordnet ist. Der Controller 512 kann einen oder mehrere Mikroprozessoren, digitale Signalprozessoren, Speicher und andere Arten von Signalaufbereitungs- und/oder -speicherschaltungen umfassen. Wegen des von der LLP 500 erzeugten großen Datenvolumens kann der Controller 512 innerhalb des Griffabschnitts 504 angeordnet werden. Der Controller 512 ist über ein elektrisches Verbindungsstück 434 elektrisch mit den Armbussen 218 gekoppelt. Die LLP 500 weist des Weiteren Stellglieder 514, 516 auf, die manuell vom Bediener aktiviert werden können, um den Betrieb und die Datenerfassung durch die LLP 500 einzuleiten.
  • 12 zeigt eine Ausführungsform einer LLP 520, die einen Lichtprojektor 508 und zwei Kameras 510 umfasst, wobei die Kameras 510 dafür ausgelegt sind, die vom Projektor 508 auf eine Oberfläche projizierte Linie separat abzubilden. Die Redundanz in den von den zwei Kameras 510 bereitgestellten Bildern kann die Messgenauigkeit verbessern und auch eine Möglichkeit bieten, zwei Regionen einer Objektoberfläche zu betrachten, die für eine der Kameras 510 nicht sichtbar ist.
  • 13 zeigt Elemente einer LLP 4500, die einen Projektor 4520 und eine Kamera 4540 umfasst. Der Projektor 4520 umfasst ein Quelllichtmuster 4521 und eine Projektorlinse 4522. Das Quelllichtmuster umfasst ein beleuchtetes Muster in Form einer Linie. Die Projektorlinse umfasst ein Projektorperspektivitätszentrum und eine optische Projektorachse, die durch das Projektorperspektivitätszentrum hindurchgeht. In dem Beispiel von 13 ist ein mittlerer Strahl des Lichtstrahls 4524 mit der optischen Perspektivitätsachse ausgerichtet. Die Kamera 4540 umfasst eine Kameralinse 4542 und eine lichtempfindliche Matrix 4541. Die Linse hat eine optische Kameraachse 4543, die durch ein Perspektivitätszentrum der Kameralinse 4544 hindurchgeht. In dem beispielhaften System 4500 sind die optische Projektorachse, die mit dem Lichtstrahl 4524 ausgerichtet ist, und die optische Kameralinsenachse 4544 senkrecht zu der Lichtlinie 4523, die von dem Quelllichtmuster 4521 projiziert wird. Mit anderen Worten liegt die Linie 4523 in Richtung senkrecht zum Papier in 13. Die Linie trifft auf eine Objektoberfläche, die mit einem ersten Abstand von dem Projektor die Objektoberfläche 4510A und mit einem zweiten Abstand von dem Projektor die Objektoberfläche 4510B ist. Es versteht sich, dass sich die Objektoberfläche in verschiedenen Höhen über oder unter der Ebene des Papiers von 13 in einem anderen Abstand vom Projektor befinden kann. Die Lichtlinie schneidet die Oberfläche 4510A (in der Ebene des Papiers) an einem Punkt 4526, und sie schneidet die Oberfläche 4510B (in der Ebene des Papiers) in einem Punkt 4527. Bei dem Schnittpunkt 4526 wandert ein Lichtstrahl von dem Punkt 4526 durch das Perspektivitätszentrum der Kameralinse 4544, um die lichtempfindliche Matrix 4541 in einem Bildpunkt 4546 zu schneiden. Bei dem Schnittpunkt 4527 wandert ein Lichtstrahl von dem Punkt 4527 durch das Perspektivitätszentrum der Kameralinse, um die lichtempfindliche Matrix 4541 in einem Bildpunkt 4547 zu schneiden. Durch Vermerken der Position des Schnittpunktes relativ zur Position der optischen Kameralinsenachse 4544 kann der Abstand von dem Projektor (und der Kamera) zu der Objektoberfläche unter Anwendung der Grundlagen der Dreiecksvermessung bestimmt werden. Der Abstand von dem Projektor zu anderen Punkten auf der Lichtlinie 4526, das heißt zu Punkten auf der Lichtlinie, die nicht in der Ebene des Papiers von 13 liegen, können auf ähnliche Weise ermittelt werden.
  • In einer Ausführungsform ist die lichtempfindliche Matrix 4541 so ausgerichtet, dass sie entweder die Matrixreihen oder die Matrixspalten in Richtung des reflektierten Laserstreifens positioniert. In diesem Fall bietet die Position eines Lichtpunkts entlang einer Richtung der Matrix Informationen, die benötigt werden, um einen Abstand zum Objekt zu bestimmen, wie durch den Unterschied der Positionen der Punkte 4546 und 4547 aus 13 angezeigt ist. Die Position des Lichtpunkts in der orthogonalen Richtung auf der Matrix bietet Informationen, die benötigt werden, um zu bestimmen, wo entlang der Länge der Laserlinie die Lichtebene das Objekt schneidet.
  • In dieser Beschreibung versteht es sich, dass sich die Begriffe Spalte und Reihe einfach auf eine erste Richtung entlang der lichtempfindlichen Matrix und eine zweite Richtung senkrecht zur ersten Richtung beziehen. Als solche beziehen sich die Begriffe Reihe und Spalte, wie sie hier verwendet werden, nicht unbedingt auf Reihen und Spalten gemäß von einem Hersteller der lichtempfindlichen Matrix 4541 bereitgestellter Dokumentation. In der nachstehenden Besprechung wird der Begriff Reihen in dem Sinne verwendet, dass sie in der Ebene des Papiers auf der Oberfläche der lichtempfindlichen Matrix liegen. Der Begriff Spalten wird in dem Sinne verwendet, dass sie sich auf der Oberfläche der lichtempfindlichen Matrix und orthogonal zu den Reihen befinden. Es sind jedoch andere Anordnungen möglich.
  • Der Projektor 508 aus den 10 bis 12 kann auf vielfältige Arten gebaut werden. Es werden nun zwei Projektorausführungsformen beschrieben, die in den 14A und 14B gezeigt sind. Diese Ausführungsformen stellen den Projektor 508, der in den 10 bis 12 gezeigt ist, bereit. In einer ersten Ausführungsform eines Linienprojektors 1400, die in 41A veranschaulicht ist, projiziert eine Lichtquelle 1405, die zum Beispiel eine Laserdiode oder eine superstrahlende Diode sein kann, Licht in eine Zylinderlinse 1410. Von der Seite gesehen ist die Zylinderlinse an wenigstens einem Rand gekrümmt. Von vorne gesehen hat die Zylinderlinse ein rechteckiges Profil. Die Lichtquelle 1405 ist in Bezug auf die Linse 1410 so angeordnet, dass sie das Licht in die Richtung kollimiert, die von der Seite der Linse gesehen wird. Von der Vorderseite der Linse breitet sich das Licht von der Lichtquelle 1405 weiter mit dem Anfangswinkel der Ausgabe A aus. Das resultierende Lichtmuster, das aus dem Projektor 1400 austritt, ist relativ schmal und flach in einer Richtung und relativ breiter in der anderen Richtung, wobei das Licht in einem Winkel A auseinandergeht, wie in 14A gezeigt ist.
  • In einer zweiten Ausführungsform des in 14B gezeigten Projektors 1450 projiziert die Lichtquelle 1455 Licht auf eine Spiegelvorrichtung 1460 mit mikroelektromechanischem System (MEMS). Ein Beispiel für eine allgemein bekannte Vorrichtung dieser Art ist der digitale Lichtprojektor (DLP), der in vielen Ausführungen von Texas Instruments hergestellt wird. Eine MEMS-Spiegelvorrichtung umfasst eine Sammlung von kleinen Spiegelelementen und Stellgliedern, die in einen Halbleiterchip eingebaut sind, wobei die Spiegelelemente elektrisch aktiviert werden können. Durch Abwinkeln der Spiegelelemente in zugewiesene Richtungen können die Spiegelelemente so eingestellt werden, dass sie das Licht in eine gewünschte Richtung projizieren oder das Licht unterdrücken. Die Spiegel können auch mit einer relativ hohen Vibrationsrate bewegt werden, um es zu ermöglichen, dass ein Teil des Lichts projiziert wird, wodurch die in eine gegebene Richtung projizierte Lichtleistung geändert wird. Auf diese Weise kann ein gewünschtes Muster, wie eine Linie von Laserlicht, projiziert werden. Das Licht aus der MEMS-Spiegelvorrichtung geht durch eine Linse 1470 hindurch, wodurch die Lichtlinie 1465 auf einem zu prüfenden Objekt abgebildet wird.
  • Jeder der Projektoren 1400, 1450 hat ein Perspektivitätszentrum. Das Perspektivitätszentrum des Projektors 1400 ist der Punkt 1415, und das Perspektivitätszentrum des Projektors 1450 ist der Punkt 1475. In jedem Fall ist das Perspektivitätszentrum der Punkt, von welchem aus Lichtstrahlen nach einer Korrektur (auch als Kompensation bekannt) auf ihrem Weg zur beleuchteten Oberfläche austreten. Bei der Zylinderlinse 1410 scheint das Licht von der Mitte der Lichtquelle 1415 auszutreten. Es ist eine gewisse Korrektur notwendig, um der Lichtbrechung durch die Zylinderlinse 1410 Rechnung zu tragen, aber dies ist ein kleiner Effekt. Bei der MEMS-Vorrichtung 1460 und einer sphärischen Linse 1470 ist das Perspektivitätszentrum der Punkt, von welchem aus Lichtstrahlen nach einer Korrektur von optischen Fehlern, auf ihrem Weg zur beleuchteten Oberfläche austreten.
  • In der Praxis werden Kompensationsverfahren häufig unter Verwendung von Punktplatten eingesetzt, um Kompensationsparameter für ein Linsensystem, wie die Linse 1470, zu bestimmen. Kompensationsparameter bieten Informationen über Linsenfehler, die Linsenbrennweite und das Zentrieren auf die Matrix, die Grundlinienlänge und den Kippwinkel der Kamera und des Projektors relativ zur Grundlinie. Eines der Ziele von Kompensationsparametern besteht darin, es zu ermöglichen, ein einfaches Modell zu verwenden, in dem das Linsensystem ein Perspektivitätszentrum 1475 hat. Ein ähnliches Kompensationsverfahren kann für die Zylinderlinse 1410 aus 14A verwendet werden. Ein Unterschied zwischen den Systemen aus den 14A und 14B besteht darin, dass die Aufgabe des Systems aus 14B darin besteht, eine Lichtlinie 1465 auf der Oberfläche eines Objekts abzubilden. Im Gegensatz dazu ist die Aufgabe der Zylinderlinse 1400 die Kollimation des Lichts in einer ersten Dimension und eine fortgesetzte Projektion eines auseinandergehenden Strahls in der orthogonalen Richtung. Wichtig bei der Linse 1410 oder der Linse 1470 ist jedoch, dass Licht als von einem einzigen Perspektivitätszentrumspunkt austretend angesehen werden kann.
  • Da der Punkt 4547 in 13 von dem Perspektivitätszentrum 4544 weiter entfernt ist als der Punkt 4546, ist der Abstand vom Perspektivitätszentrum zum Punkt 4547, um eine ideale Fokussierung zu erhalten, kleiner als der Abstand vom Perspektivitätszentrum zum Punkt 4546. Um das Fokussieren des auf das Objekt 4510 projizierten Lichts über einen Bereich von Abständen von dem Linienscanner zu verbessern, kann die lichtempfindliche Matrix gekippt werden, um den soeben beschriebenen Effekt zu erreichen, der darin besteht, den Punkt 4547 näher an das Perspektivitätszentrum zu rücken als den Punkt 4546. Das Kippen der lichtempfindlichen Matrix auf diese Weise ist ein Beispiel für das Anordnen der Kamera gemäß dem Scheimpflug-Prinzip. Da dieses Prinzip auf dem Fachgebiet allgemein bekannt ist, wird es nicht weiter besprochen.
  • Die 15A bis D stellen Bilder dar, die auf einer lichtempfindlichen Matrix 1505 gesehen werden, wie die Matrix 4541 von 13. In 15A wird das von einer lichtempfindlichen Matrix gesehene Muster 1507 für eine besondere Objektoberfläche für den Fall gesehen, in dem die Bestrahlungsstärke (Lichtleistung pro Flächeneinheit) in jedes Kamerapixel im Wesentlichen konstant ist, und zwar unabhängig von der Position entlang des Streifens. In diesem Fall besitzen die Pixel in der Nähe der Mitte des reflektierten Streifenmusters 1507 Pixelvertiefungen, die mit ungefähr derselben Anzahl an Elektronen gefüllt sind. Wenn diese Elektronen von einem ADC in ein digitales Signal umgewandelt werden, ist der digitale Signalpegel für jedes dieser Pixel ungefähr gleich.
  • In einer anderen Oberfläche mit einer ähnlichen Form aber einem anderen Reflexionsmuster ist die Form des von der lichtempfindlichen Matrix empfangenen Streifens gleich, aber die Anzahl der Pixel in den Vertiefungen variiert wesentlich, wie für das Muster 1527 aus 15B veranschaulicht ist. In diesem Fall reflektieren die Regionen 1525A, 1525C, 1525E und 1525G eine relativ große Lichtmenge, wodurch die Pixel gesättigt werden. In einem Extremfall überflutet die Anzahl der Elektronen die Vertiefungen, was zu einem als Ausschwitzen bekannten Effekt führt. Im allgemeineren Fall betrifft die Sättigung einen Zustand, in dem Elektronen in Reaktion auf den auf die Vertiefung aufgebrachten Lichtpegel nicht linear erzeugt werden. Im Gegensatz dazu reflektieren die Regionen 1525B, 1525D und 1525F so wenig Licht, dass sich die Elektronen in der Vertiefung zu einem beträchtlichen Ausmaß eher durch elektrische Störung als durch das einfallende Licht ergeben. In diesem Bereich mit wenig Licht ist die elektrische Reaktion wiederum nicht linear in Bezug auf den einfallenden Lichtpegel. Aufgrund der fehlenden Linearität wird der Abstand zur Objektoberfläche für das von dem Sensor in 15B erhaltene Bild nicht korrekt bestimmt.
  • Um dieses Problem zu umgehen, wird nun ein Verfahren gemäß einer Ausführungsform beschrieben. Die Lichtlinie wird mehrere Male mit verschiedenen Lichtleistungspegeln projiziert, und die Pixel innerhalb des linearen Bereichs der lichtempfindlichen Matrix werden dann ausgewählt. Auf diese Weise werden gültige Daten für die Abschnitte des Objekts, die eine relativ große Lichtmenge reflektieren und die Abschnitte, die eine relativ kleine Lichtmenge reflektieren, erhalten. Im Beispiel aus 15 wird Licht mit einem relativ geringen Leistungspegel in einem ersten Schritt von 15C und mit einem relativ hohen Leistungspegel in einem zweiten Schritt von 15D projiziert. Im ersten Schritt von 15C liegt Licht in den Regionen 1545A, 1545C, 1545E und 1545G innerhalb der linearen Region der lichtempfindlichen Matrix vor, wodurch gültige Ergebnisse erzeugt werden. Das Licht in den Regionen 1545B, 1545D und 1545F hat eine zu geringe Lichtleistung, um eine lineare Reaktion zu erzeugen. Stattdessen wird das elektrische Signal in den Pixeln dieser Regionen durch elektrische Störung dominiert. Im zweiten Schritt von 15D liegt Licht in den Regionen 1565B, 1565D und 1565F innerhalb der linearen Region der lichtempfindlichen Matrix vor, wodurch gültige Ergebnisse erzeugt werden. Das Licht in den Regionen 1565A, 1565C, 1565E und 1565G hat eine zu große Lichtleistung und verursacht Sättigung. Somit kann man sich auf die digitalen Werte, die für die Pixel in diesen Regionen erhalten werden, nicht verlassen. Durch Kombinieren der aus den Regionen 1545A, 1545C, 1545E und 1545G erhaltenen digitalen Ablesungen mit den aus den Regionen 1565B, 1565D und 1565F erhaltenen digitalen Ablesungen können über die gesamte Matrix gültige Ablesungen erhalten werden.
  • In manchen Fällen kann es nötig sein, mehr als zwei Lichtleistungspegel zu verwenden, um den Abstand zu allen Punkten auf einer Oberfläche genau zu bestimmen. Es kann jede Anzahl von Pegeln verwendet werden. Falls zum Beispiel drei Pegel der Lichtleistung verwendet werden, kann man diese als schwache, mittlere und starke Lichtleistungen bezeichnen.
  • Der Pegel von von einem Abschnitt einer Objektoberfläche reflektiertem Licht hängt von dem Reflexionsvermögen des Materials für die gegebene Wellenlänge von Licht ab (die auf eine flache Probe aus diesem Material projiziert wird). Der Reflexionsgrad einer gegebenen Art von Material kann von dem Gefüge des Materials abhängen. Falls das Material zum Beispiel sehr glatt ist, kann es eher als ein Spiegel wirken als eine Oberfläche, die diffus streut, wie für gewöhnlich angenommen wird. Der Reflexionsgrad hängt auch vom Einfallwinkel des projizierten Lichts auf das Objekt und vom Reflexionswinkel des zur Kamera reflektierten Lichts ab. Sehr steile Oberflächen reflektieren eine relativ kleine Menge an Licht.
  • Wenn eine Messung zunächst begonnen wird, kann es sein, dass der gesamte Reflexionsgrad einer Objektoberfläche nicht bekannt ist, mit dem Ergebnis, dass die anfängliche Lichtleistung zu niedrig oder zu hoch gewählt wird. Die für eine sequentielle Projektion von Lichtleistungen ausgewählte anfängliche Lichtleistung kann gemäß der beobachteten Reaktion der lichtempfindlichen Matrix eingestellt werden.
  • Die vorstehende Besprechung geht davon aus, dass die Lichtleistung so eingestellt wird, dass sich die Anzahl von Elektronen innerhalb der Pixelvertiefungen ändert. Es ist jedoch gleichermaßen möglich, an Stelle der Lichtleistung die Belichtungsdauer (Integrationszeit) einzustellen. Eine Möglichkeit, die kombinierten Effekte der Lichtleistung und der Integrationszeit einzubeziehen, ist die Verwendung einer integrierten Energie. Wir können von der integrierten Energie einer Lichtlinie als das Integral der Lichtleistung (zum Beispiel Einheiten von Watt) der Lichtlinie über eine spezifizierte Integrationszeit (Einheit von Sekunden) sprechen, um eine integrierte Energie (zum Beispiel Einheiten von Joule) für die Linie zu erhalten. Falls sich entweder die Lichtleistung der Lichtlinie oder die Integrationszeit der Pixel ändert (für eine besondere geometrische Anordnung des Linienscanners relativ zur Objektoberfläche), füllen sich die Pixelvertiefungen als Reaktion darauf mehr oder weniger.
  • Wir können auch von einer optischen Energie für jedes der Pixel in der Matrix sprechen. Die optische Energie für ein Pixel gleicht dem Integral der Lichtleistung, die über die Integrationszeit des Pixels auf das Pixel fällt. Falls sich die integrierte Energie einer Lichtlinie ändert, ändert sich die optische Energie eines jeden Pixels in der Matrix um eine proportionale Menge für ein Pixel, das innerhalb des linearen Bereichs arbeitet. Zum Beispiel ist bei 15C die integrierte Energie der Lichtlinie geringer als bei 15D, und die Pixel der 15C bis D (die innerhalb des linearen Bereichs liegen) reagieren im Verhältnis zur integrierten Energie.
  • Wie vorstehend erläutert wurde, wird eine Dreiecksvermessungsberechnung vorgenommen, um den Abstand vom Scanner zu einem Oberflächenpunkt zu bestimmen. Dies erfolgt durch Anpassen eines Punktes auf der projizierten Linie 4523 (13) an einen entsprechenden Punkt auf der lichtempfindlichen Matrix. Um diese Entsprechung vorzunehmen, ist es notwendig, einen Mittelwert für den Laserstreifen an jeder Position entlang der Streifenlänge zu bestimmen. Wie zum Beispiel in 16 gezeigt ist, kann eine der Reihen 1610 in einer Matrix ein Muster von digitalen Werten 1620 erzeugen. Die Werte 1 bis P sind die Werte, die von einem ADC erhalten wurden. Zum Beispiel ist der Wert P für einen 10-Bit-ADC 210 = 1024. Entsprechend der Illustration von 15 wird angenommen, dass die Matrix 1610 N Spalten hat. Die Mitte des Musters von digitalen Werten kann durch eine Reihe von verschiedenen Verfahren bestimmt werden. Zum Beispiel besteht ein einfaches Verfahren darin, die Spaltenzahl des Pixels mit dem größten digitalen Wert auszuwählen. Dieser Wert, der in dem Beispiel von 16 gleich 60 ist, wird von dem Marker 1632 angezeigt. Ein weiteres Verfahren besteht darin, den Schwerpunkt der digitalen Werte zu nehmen, der in diesem Fall 59,7966 beträgt, angezeigt durch den Marker 1636. Ein drittes Verfahren besteht darin, die digitalen Werte in eine Gaußsche Kurve einzutragen, welches eine Kurve mit einer Formel exp(–(x – x0)2/w2) ist, wobei exp die Exponentialfunktion ist, x eine Spaltenposition ist, x0 der Mittelwert ist und w eine Breite der Gaußschen Kurve ist. In diesem Fall ist der Mittelwert gleich 59,8697, wie durch den Marker 1634 angezeigt ist. Viele andere Verfahren sind zur Bestimmung eines Mittelwertes möglich.
  • In einer Ausführungsform werden zwei oder mehr Bilder – zum Beispiel die Bilder aus den 15C und 15D – mit einer lichtempfindlichen Matrix erfasst und mit einem ADC in digitale Werte umgewandelt. Die digitalen Werte werden verarbeitet, um genaue 3D-Koordinaten über einen größeren Abschnitt der Objektoberfläche bereitzustellen, als es ansonsten möglich sein könnte. In einer Ausführungsform, die in 17 gezeigt ist, werden mehrere Bilder verarbeitet, um zusammengefasste Daten zu erhalten. Für das Bild 1 aus 17A und das Bild 2 aus 17B wird ein Höchstwert für jede Reihe des Bildes ermittelt. Die Reihen in den 17A, 17B reichen jeweils von 1 bis M. Jede dieser Reihen umfasst N Spalten (wie in den 15 und 16 angezeigt ist), und das Maximum der digitalen Werte innerhalb dieser Spalten wird für jede Reihe ausgewählt. Die Höchstwerte für jede der Reihen werden in eine Zelle einer Matrix 1710 aus 17A und eine Zelle 1730 aus 17B gegeben. Für die Reihen von 1710, 1730, bei denen der Höchstwert innerhalb eines bevorzugten Wertebereichs liegt, für den die Reaktion eher als ungefähr linear als gesättigt oder von elektrischer Störung beherrscht angesehen wird, wird eine Berechnung des Mittelwertes der Zelle gemäß einem Verfahren vorgenommen, das mit Bezug auf 16 beschrieben wurde, oder durch ein anderes Verfahren. Dieser berechnete Wert wird in eine Zelle der Matrix 1715, 1735 gegeben. Falls der Höchstwert einer Reihe nicht innerhalb des bevorzugten Bereichs liegt, wird keine Berechnung vorgenommen, und die entsprechende Zelle von 1715, 1735 wird auf irgendeine Weise identifiziert – zum Beispiel durch Freilassen der Zelle oder durch Eingabe eines negativen Wertes in die Zelle.
  • Die Werte in den Zellen von 1715, 1735 werden verwendet, um zusammengesetzte Werte für die Reihen einer zusammengesetzten Matrix 1765 von 17C zu bestimmen. Falls beide Zellen von 1715, 1735 für eine gegebene Reihe mit einem Wert belegt sind, können diese Werte auf vielfältige Weise kombiniert werden, um einen einzigen zusammengesetzten Wert für die entsprechende Zelle von 17C zu erhalten. Zum Beispiel kann das Maximum der beiden Werte ausgewählt werden. Als weiteres Beispiel können die beiden Werte gemäß einer Gewichtungsskale abhängig von einer spezifizierten Art auf die Höchstwerte der entsprechenden Zellen von 1710, 1730 gewichtet werden. Falls nur eine der Zellen von 1715, 1735 mit einem Wert belegt ist, ist dieser Wert der entsprechende zusammengesetzte Wert. Falls keine der Zellen von 1715, 1735 mit einem Wert belegt ist, kann die Zelle von 1770 aus 17C freigelassen, mit einer negativen Zahl gefüllt oder auf andere Weise markiert werden.
  • Das für 17 gegebene Beispiel gilt für den Fall von zwei Bildern (Bild 1 und Bild 2), aber wie durch das Auslassungszeichen nach dem Bild 2 angedeutet, können bei der Bestimmung der zusammengesetzten Matrix aus 17C mehr Bilder eingezogen werden.
  • Der Abstand vom Linienscanner zu einem Punkt auf einer Objektoberfläche kann aus den Werten in der zusammengesetzten Matrix ermittelt werden. Wie aus 13 ersichtlich ist, entspricht eine Änderung des Abstands vom Scanner zur Oberfläche einer Verschiebung der Spaltenposition, an der der beleuchtete Oberflächenpunkt auf der lichtempfindlichen Matrix 4541 abgebildet wird. Ferner entspricht jede Reihenposition auf der lichtempfindlichen Matrix 4541 einer besonderen Position auf der Lichtlinie 4523 an der Position, an der die Linie die Oberfläche beleuchtet. Da Lichtstrahlen durch das Kameraperspektivitätszentrum 4544 hindurchgehen, neigen die Reihenpositionen dazu, sich näher an die Reihenmitte der lichtempfindlichen Matrix 4541 zu bewegen, wenn sich der Abstand von dem Linienscanner zum Objekt vergrößert. Durch Beobachten sowohl der Reihen- als auch der Spaltenpositionen des Streifens auf der lichtempfindlichen Matrix 4541 werden die 3D-Koordinaten der beleuchteten Punkte innerhalb des Scanner-Bezugsrahmens bestimmt (d.h. innerhalb des Scanner-Koordinatensystems).
  • Die Bestimmung der 3D-Koordinaten basiert auf einer Dreiecksvermessungsberechnung. Um diese Berechnung vorzunehmen, ist es notwendig, den Grundlinienabstand zu kennen, welches der Abstand zwischen dem Kameraperspektivitätszentrum und dem Projektorperspektivitätszentrum ist. Es ist auch notwendig, die relative Ausrichtung der Kamera und des Projektors zu kennen. Das Verfahren zur Durchführung einer Dreiecksvermessungsberechnung ist auf dem Fachgebiet bekannt und wird hier nicht weiter besprochen.
  • In manchen Fällen können Diagnoseverfahren anzeigen, dass ein besonderer Wert innerhalb einer Zelle ungültig ist. Zum Beispiel kann die allgemeine Verteilung von Licht innerhalb einer Reihe eine Abnormalität in dem reflektierten Lichtmuster anzeigen, was eine weitere Untersuchung erfordert. Eine Analyse von reflektierten Lichtmustern basierend auf der beobachteten Form des gemessenen Objekts kann anzeigen, dass eine Mehrpfadstörung vorliegt, wobei Licht an einem Punkt auf dem geprüften Objekt nicht nur vom Projektor, sondern auch von einer sekundären Reflexion vom Objekt selbst ankommt. Für einen Fall, in dem ein Diagnoseverfahren anzeigt, dass ein Punkt nicht gültig ist (oder vielleicht nicht gültig ist), kann ein zusätzlicher Schritt darin bestehen, den zusammengesetzten Mittelwert aus der entsprechenden Zelle in der Matrix 1770 der 17C zu entfernen.
  • 18 beschreibt Schritte eines Verfahrens 1800 zum Messen von 3D-Koordinaten einer Objektoberfläche unter Verwendung eines Linienscanners gemäß einer Ausführungsform. Ein Schritt 1805 stellt einen Linienscanner bereit, der einen Prozessor, einen Projektor und eine Kamera umfasst, wobei der Linienscanner einen ersten Bezugsrahmen aufweist, wobei der Projektor eine Lichtquelle und eine Projektorlinse umfasst, wobei der Projektor dafür ausgelegt ist, eine Lichtlinie im Wesentlichen gerade auszugeben, wenn sie auf eine Ebene senkrecht zu einer Ausbreitungsrichtung des Lichts projiziert wird, wobei der Projektor ein Projektorperspektivitätszentrum umfasst, wobei die Kamera eine lichtempfindliche Matrix und eine Kameralinse umfasst, wobei die Kamera ein Kameraperspektivitätszentrum aufweist, wobei die Kameralinse dafür ausgelegt ist, ein Bild eines Abschnitts der Oberfläche auf der lichtempfindlichen Matrix zu bilden, wobei die lichtempfindliche Matrix eine Matrix von Pixeln umfasst, wobei die Matrix M Reihen und N Spalten aufweist, wobei M und N ganze Zahlen sind, wobei jedes der Pixel in der Matrix von Pixeln dafür ausgelegt ist, eine von jedem der Pixel erfasste optische Energie in einen elektrischen Wert entsprechend einem digitalen Wert umzuwandeln, wobei der Prozessor dafür ausgelegt ist, die digitalen Werte zu empfangen, wobei der Linienscanner eine Grundlinie aufweist, wobei die Grundlinie ein geradliniges Segment zwischen dem Projektorperspektivitätszentrum und dem Kameraperspektivitätszentrum ist, wobei der Projektor eine Projektorausrichtung in Bezug auf die Grundlinie hat, wobei die Kamera eine Kameraausrichtung in Bezug auf die Grundlinie hat, wobei der Prozessor dafür ausgelegt ist, die Lichtquelle zu steuern und die digitalen elektrischen Signale von der lichtempfindlichen Matrix zu empfangen. Aspekte dieses Bereitstellungsschritts wurden in Bezug auf die 10 bis 17 und in dem vorstehenden Text besprochen.
  • Ein Schritt 1810 besteht darin, eine erste Lichtlinie zu einem ersten Zeitpunkt zu erzeugen, wobei die erste Lichtlinie eine erste Lichtleistung aufweist. Ein Schritt 1815 besteht darin, die erste Lichtlinie auf die Oberfläche zu projizieren und die erste Lichtlinie als ein erstes reflektiertes Licht von der Oberfläche zu reflektieren. Der Schritt 1820 besteht darin, das erste reflektierte Licht mit der Kameralinse zu empfangen. Der Schritt 1825 besteht darin, mit der Kameralinse ein zweites Bild des zweiten reflektierten Lichts auf der lichtempfindlichen Matrix über eine zweite Integrationszeit zu bilden und, in Reaktion darauf, eine zweite optische Energie für jedes der Pixel zu erzeugen, wobei die zweite optische Energie für jedes der Pixel zumindest teilweise von einer zweiten integrierten Energie abhängt, wobei die zweite integrierte Energie gleich einem Integral der zweiten Lichtleistung über die zweite Integrationszeit ist, wobei sich die zweite integrierte Energie von der ersten integrierten Energie unterscheidet. Der Schritt 1830 besteht darin, für jedes der Pixel einen ersten digitalen Wert an den Prozessor zu senden, um eine erste M×N-Matrix von ersten digitalen Werten zu erhalten. Die Schritte 1835 bis 1855 sind die gleichen wie die Schritte 1810 bis 1830, außer dass das Wort „zweite“ das Wort „erste“ ersetzt.
  • Der Schritt 1860 besteht darin, mit dem Prozessor für jede der M Reihen der ersten M×N-Matrix einen ersten digitalen Höchstwert und einen ersten Mittelwert zu bestimmen, wobei der erste digitale Höchstwert für die Reihe gleich einem Maximum der N ersten digitalen Werte der Reihe ist, wobei der erste Mittelwert zumindest teilweise auf wenigstens einem der N ersten digitalen Werte der Reihe basiert. Der Schritt 1865 ist der gleiche wie der Schritt 1860, außer dass das Wort „zweite“ das Wort „erste“ ersetzt.
  • Der Schritt 1870 besteht darin, mit dem Prozessor einen zusammengesetzten Mittelwert für jede Reihe zu bestimmen, in der eine erste Bedingung oder eine zweite Bedingung erfüllt ist, wobei die erste Bedingung darin besteht, dass der erste digitale Höchstwert kleiner als ein Sättigungspegel ist und einen Störpegel übersteigt, wobei die zweite Bedingung darin besteht, dass der zweite digitale Höchstwert kleiner als der Sättigungspegel ist und den Störpegel übersteigt, wobei der zusammengesetzte Mittelwert zumindest teilweise auf dem ersten Mittelwert und dem zweiten Mittelwert basiert. Der Schritt 1875 besteht darin, mit dem Prozessor für jede der M Reihen mit einem zusammengesetzten Mittelwert dreidimensionale Koordinaten eines Punktes auf der Oberfläche zu berechnen, wobei die dreidimensionalen Koordinaten in dem ersten Bezugsrahmen berechnet werden, wobei die dreidimensionalen Koordinaten zumindest teilweise auf dem zusammengesetzten Mittelwert, einer Länge der Grundlinie, der Projektorausrichtung und der Kameraausrichtung basieren, und Speichern der dreidimensionalen Koordinaten für jede der M Reihen mit einem zusammengesetzten Mittelwert. Alle Schritte 1805 bis 1875 sind ferner durch hier vorstehend enthaltene Figuren und Texte erläutert.
  • Um Punkte über einen Bereich einer Objektoberfläche zu bestimmen, kann der Scanner über die Oberfläche bewegt werden. Falls der Scanner an einem Gelenkarm-KMG wie in 10 angebracht ist, kann der Arm bei jeder Durchführung einer Scannermessung Informationen über die Position und Ausrichtung des Linienscanners liefern. Durch Durchführung einer Matrixtransformation unter Verwendung von Verfahren, die in der Technik allgemein bekannt sind, können die 3D-Koordinaten der Objektoberfläche von dem Scanner-Bezugsrahmen zum Bezugsrahmen des Gelenkarm-KMGs transformiert werden. Ähnliche Transformationen können verwendet werden, um die Koordinaten der gescannten Oberfläche in jedem beliebigen Bezugsrahmen zu erhalten.
  • Der Linienscanner kann zusammen mit einem sechs-Freiheitsgrade-(6-FG)-Lasertracker wie in 19 gezeigt verwendet werden. Ein Linienscanner 1930 umfasst einen Projektor 1935 und eine Kamera 1940. Eine Linie aus dem Lasertracker 1910 wird an einen an dem Linienscanner 1930 angebrachten Retroreflektor gesendet. In der perspektivischen Zeichnung aus 19 befindet sich der Retroreflektor an der Rückseite des Linienscanners 1930 und ist nicht zu sehen. Ein gewöhnlicher Lasertracker misst drei Positions-Freiheitsgrade – zum Beispiel einen Abstand und zwei Winkel in einem Kugelkoordinatensystem. Ein 6-FG-Lasertracker misst außerdem die drei Ausrichtungswinkel des Linienscanners, wodurch die von dem Scanner gemessenen 3D-Koordinaten der Objektoberfläche in den Tracker-Bezugsrahmen transformiert werden können. Lasertracker, die sechs Freiheitsgrade messen können, sind in der Technik allgemein bekannt und werden hier nicht weiter besprochen. Das gesamte System kann gegebenenfalls eine zusätzliche Energieversorgungs-/Prozessor-Box 1950 und einen externen Computer 1960 umfassen.
  • Der Linienscanner kann zusammen mit zwei oder mehr Kameras, die um einen bekannten Abstand voneinander getrennt sind, verwendet werden, wie bei dem System 2000 aus 20 gezeigt ist. Eine Kamerastange 2010 umfasst eine starre Stange, an der die Kameras 2020 und 2024 montiert sind, um eine Stereosicht von beleuchteten Punkten 2044 auf einer Linienscannervorrichtung 2040 bereitzustellen. Eine optionale Kamera 2022 kann verwendet werden, um Farbinformationen bereitzustellen oder um zusätzliche Kameramessungen bereitzustellen, um die 3D-Messgenauigkeit zu verbessern. Ein Prozessor 2050 kann verwendet werden, um durch die Kameras bereitgestellte digitale Bilddaten zu verarbeiten, um 3D-Koordinaten der Oberfläche 2060 zu bestimmen. Der Linienscanner umfasst einen Projektor 2052, der eine Lichtlinie 2066 auf das Objekt projiziert, und eine Kamera 2054, die die Lichtlinie auf einer lichtempfindlichen Matrix innerhalb der Kamera abbildet.
  • Ein Linienscanner, der gemäß dem oben gelehrten erfinderischen Gedanken verwendet wird, kann in einer festen Position in einer Fertigungsstraße mit zu prüfenden Teilen, die auf einem Förderband unter dem Scanner bewegt werden, vorgesehen sein.
  • Ein Linienscanner kann unbefestigt sein und mit der Hand über eine zu prüfende Objektoberfläche bewegt werden. In diesem Fall kann die Erfassung mehrerer aufeinanderfolgender Bilder auf vielerlei Arten erhalten werden. Natürliche Merkmale können verwendet werden, um die mehreren Bilder zu erfassen. Erfassungspunkte entweder auf dem Objekt oder abseits des Objekts können durch leuchtende Lichter (zum Beispiel LEDs) oder durch reflektierende Spots, die mit Licht beleuchtet werden, vorgesehen werden. Es können ferner Trägheits-Messvorrichtungen, wie Beschleunigungsmesser, Gyroskope, Magnetometer, GPS-Einheiten und Höhenmesser, verwendet werden, um die Überwachung der Scanner-Position und -Ausrichtung zu unterstützen.
  • Während die Erfindung anhand beispielhafter Ausführungsformen beschrieben wurde, wird es dem Fachmann klar sein, dass verschiedene Änderungen vorgenommen und Äquivalente durch Elemente von diesen ersetzt werden können, ohne den Rahmen der Erfindung zu verlassen. Außerdem können viele Modifikationen vorgenommen werden, um eine besondere Situation oder ein besonderes Material an die Lehren der Erfindung anzupassen, ohne den wesentlichen Rahmen derselben zu verlassen. Daher ist es beabsichtigt, dass die Erfindung nicht auf die besondere Ausführungsform beschränkt ist, die als der beste zur Ausführung dieser Erfindung in Betracht gezogene Modus offenbart wird, sondern dass die Erfindung alle in den Rahmen der beigefügten Ansprüche fallenden Ausführungsformen einschließt. Außerdem sagt die Verwendung der Begriffe erste(r/s), zweite(r/s) usw. nichts über die Reihenfolge oder Bedeutung aus, die Begriffe erste(r/s), zweite(r/s) usw. werden vielmehr dazu verwendet, ein Element von einem anderen Element zu unterscheiden. Ferner bedeutet die Verwendung der Begriffe ein, eine, einer usw. keinerlei Begrenzung der Menge, sie bedeutet vielmehr das Vorliegen von mindestens einem des benannten Gegenstands.

Claims (18)

  1. Verfahren zum Messen von dreidimensionalen Koordinaten einer Oberfläche eines Objekts, wobei das Verfahren Folgendes umfasst: Bereitstellen eines Linienscanners, der einen Prozessor, einen Projektor und eine Kamera umfasst, wobei der Linienscanner einen ersten Bezugsrahmen aufweist, wobei der Projektor eine Lichtquelle und eine Projektorlinse umfasst, wobei die Lichtquelle dafür ausgelegt ist, eine Lichtlinie im Wesentlichen gerade auszugeben, wenn sie auf eine Ebene senkrecht zu einer Ausbreitungsrichtung der Lichtlinie projiziert wird, wobei der Projektor ein Projektorperspektivitätszentrum umfasst, wobei die Kamera eine lichtempfindliche Matrix und eine Kameralinse umfasst, wobei die Kamera ein Kameraperspektivitätszentrum umfasst, wobei die Kameralinse dafür ausgelegt ist, ein Bild eines Abschnitts der Oberfläche auf der lichtempfindlichen Matrix zu bilden, wobei die lichtempfindliche Matrix eine Matrix von Pixeln umfasst, wobei die Matrix von Pixeln M Reihen und N Spalten aufweist, wobei M und N ganze Zahlen sind, wobei jedes der Pixel in der Matrix von Pixeln dafür ausgelegt ist, eine von jedem der Pixel erfasste optische Energie entsprechend einem digitalen Wert in einen elektrischen Wert umzuwandeln, wobei der Prozessor dafür ausgelegt ist, die digitalen Werte zu empfangen, wobei der Linienscanner eine Grundlinie aufweist, wobei die Grundlinie ein geradliniges Segment zwischen dem Projektorperspektivitätszentrum und dem Kameraperspektivitätszentrum ist, wobei der Projektor eine Projektorausrichtung in Bezug auf die Grundlinie hat, wobei die Kamera eine Kameraausrichtung in Bezug auf die Grundlinie hat, wobei der Prozessor dafür ausgelegt ist, die Lichtquelle zu steuern und die digitalen Werte zu empfangen; Erzeugen einer ersten Lichtlinie zu einem ersten Zeitpunkt, wobei die erste Lichtlinie eine erste Lichtleistung hat; Projizieren der ersten Lichtlinie auf die Oberfläche; Reflektieren der ersten Lichtlinie als ein erstes reflektiertes Licht von der Oberfläche; Empfangen des ersten reflektierten Lichts mit der Kameralinse; Bilden eines ersten Bildes des ersten reflektierten Lichts auf der lichtempfindlichen Matrix über eine erste Integrationszeit mit der Kameralinse und, in Reaktion darauf, Erzeugen einer ersten optischen Energie für jedes der Pixel, wobei die erste optische Energie für jedes der Pixel zumindest teilweise von einer ersten integrierten Energie abhängt, wobei die erste integrierte Energie gleich einem Integral der ersten Lichtleistung über die erste Integrationszeit ist; Senden eines ersten digitalen Wertes an den Prozessor für jedes der Pixel, um eine erste M×N-Matrix von ersten digitalen Werten zu erhalten; Erzeugen einer zweiten Lichtlinie zu einem zweiten Zeitpunkt, wobei die zweite Lichtlinie eine zweite Lichtleistung hat; Projizieren der zweiten Lichtlinie auf die Oberfläche; Reflektieren der zweiten Lichtlinie als ein zweites reflektiertes Licht von der Oberfläche; Empfangen des zweiten reflektierten Lichts mit der Kameralinse; Bilden eines zweiten Bildes des zweiten reflektierten Lichts auf der lichtempfindlichen Matrix über eine zweite Integrationszeit mit der Kameralinse und, in Reaktion darauf, Erzeugen einer zweiten optischen Energie für jedes der Pixel, wobei die zweite optische Energie für jedes der Pixel zumindest teilweise von einer zweiten integrierten Energie abhängt, wobei die zweite integrierte Energie gleich einem Integral der zweiten Lichtleistung über die zweite Integrationszeit ist, wobei sich die zweite integrierte Energie von der ersten integrierten Energie unterscheidet; Senden eines zweiten digitalen Wertes an den Prozessor für jedes der Pixel, um eine zweite M×N-Matrix von zweiten digitalen Werten zu erhalten; Bestimmen eines ersten digitalen Höchstwertes und eines ersten Mittelwertes für jede der M Reihen der ersten M×N-Matrix mit dem Prozessor, wobei der erste digitale Höchstwert für die Reihe gleich einem Maximum der N ersten digitalen Werte der Reihe ist, wobei der erste Mittelwert zumindest teilweise auf wenigstens einem der N ersten digitalen Werte der Reihe basiert; Bestimmen eines zweiten digitalen Höchstwertes und eines zweiten Mittelwertes für jede der M Reihen der zweiten M×N-Matrix mit dem Prozessor, wobei der zweite digitale Höchstwert für die Reihe gleich einem Maximum der N zweiten digitalen Werte der Reihe ist, wobei der zweite Mittelwert zumindest teilweise auf wenigstens einem der N zweiten digitalen Werte der Reihe basiert; Bestimmen eines zusammengesetzten Mittelwertes für jede der M Reihen, in der eine erste Bedingung oder eine zweite Bedingung erfüllt ist, mit dem Prozessor, wobei die erste Bedingung darin besteht, dass der erste digitale Höchstwert kleiner als ein Sättigungspegel ist und einen Störpegel übersteigt, wobei die zweite Bedingung darin besteht, dass der zweite digitale Höchstwert kleiner als der Sättigungspegel ist und den Störpegel übersteigt, wobei der zusammengesetzte Mittelwert zumindest teilweise auf dem ersten Mittelwert und dem zweiten Mittelwert basiert; Berechnen von dreidimensionalen Koordinaten eines Punktes auf der Oberfläche für jede der M Reihen mit einem zusammengesetzten Mittelwert mit dem Prozessor, wobei die dreidimensionalen Koordinaten in dem ersten Bezugsrahmen berechnet werden, wobei die dreidimensionalen Koordinaten zumindest teilweise auf dem zusammengesetzten Mittelwert, einer Länge der Grundlinie, der Projektorausrichtung und der Kameraausrichtung basieren; und Speichern der dreidimensionalen Koordinaten für jede der M Reihen mit einem zusammengesetzten Mittelwert.
  2. Verfahren nach Anspruch 1, wobei bei den Schritten des Erzeugens einer ersten Lichtlinie zu einem ersten Zeitpunkt und des Erzeugens einer zweiten Lichtlinie zu einem zweiten Zeitpunkt sich die erste Lichtleistung von der zweiten Lichtleistung unterscheidet.
  3. Verfahren nach Anspruch 1, wobei bei den Schritten des Bildens eines ersten Bildes mit der Kameralinse und des Formens eines zweiten Bildes mit der Kameralinse sich die erste Integrationszeit von der zweiten Integrationszeit unterscheidet.
  4. Verfahren nach Anspruch 1, wobei bei den Schritten des Erzeugens einer ersten Lichtlinie und des Bildens eines ersten Bildes mit der Kameralinse die erste Lichtleistung über die erste Integrationszeit konstant ist.
  5. Verfahren nach Anspruch 1, wobei bei den Schritten des Erzeugens einer zweiten Lichtlinie zu einem zweiten Zeitpunkt und des Bildens eines zweiten Bildes mit der Kameralinse wenigstens eine der zweiten Lichtleistung und der zweiten Integrationszeit zumindest teilweise auf den M ersten digitalen Höchstwerten basiert.
  6. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bereitstellens eines Linienscanners die Lichtquelle eine Laserdiode oder eine superstrahlende Diode ist und die Projektorlinse eine Zylinderlinse oder eine Powell-Linse ist.
  7. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bereitstellens eines Linienscanners der Projektor ferner ein Element mikroelektromechanischer Systeme (MEMS) umfasst.
  8. Verfahren nach Anspruch 1, wobei die Lichtlinie im Wesentlichen senkrecht zur Grundlinie liegt.
  9. Verfahren nach Anspruch 1, ferner umfassend einen Schritt des Berechnens von dreidimensionalen Koordinaten in einem zweiten Bezugsrahmen für jede der dreidimensionalen Koordinaten in dem ersten Bezugsrahmen.
  10. Verfahren nach Anspruch 9, ferner umfassend einen Schritt des Anbringens des Linienscanners an einem Ende eines Gelenkarm-KMGs, wobei sich das Gelenkarm-KMG im zweiten Bezugsrahmen befindet, wobei das Gelenkarm-KMG eine Position und eine Ausrichtung des Linienscanners im zweiten Bezugsrahmen bestimmt.
  11. Verfahren nach Anspruch 9, ferner umfassend einen Schritt des Messens einer Position und einer Ausrichtung des Linienscanners mit einem Lasertracker, wobei sich der Lasertracker im zweiten Bezugsrahmen befindet.
  12. Verfahren nach Anspruch 9, ferner umfassend einen Schritt des Messens einer Position und einer Ausrichtung des Linienscanners mit zwei Kameras, wobei die zwei Kameras einen Trennabstand aufweisen, wobei sich die zwei Kameras im zweiten Bezugsrahmen befinden.
  13. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bestimmens eines ersten digitalen Höchstwertes und eines ersten Mittelwertes für jede der M Reihen der ersten M×N-Matrix mit dem Prozessor der erste Mittelwert ferner zumindest teilweise auf einem Schwerpunkt der ersten digitalen Werte der Reihe basiert.
  14. Verfahren nach Anspruch 13, wobei der Schwerpunkt auf Subpixel-Auflösung berechnet wird.
  15. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bestimmens eines ersten digitalen Höchstwertes und eines ersten Mittelwertes für jede der M Reihen der ersten M×N-Matrix mit dem Prozessor der erste Mittelwert ferner zumindest teilweise auf einem Wert basiert, der durch Anwendung der stochastischen Kurvenermittlung erhalten wurde.
  16. Verfahren nach Anspruch 15, wobei die stochastische Kurvenermittlung eine Ermittlung an einer Gaußschen Form ist.
  17. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bestimmens eines zusammengesetzten Mittelwertes mit dem Prozessor der zusammengesetzte Mittelwert als der erste Mittelwert ausgewählt wird, wenn der erste digitale Höchstwert den zweiten digitalen Höchstwert übersteigt, und als der zweite Mittelwert ausgewählt wird, wenn der zweite digitale Höchstwert den ersten digitalen Höchstwert übersteigt.
  18. Verfahren nach Anspruch 1, wobei bei dem Schritt des Bestimmens eines zusammengesetzten Mittelwertes mit dem Prozessor der zusammengesetzte Mittelwert als ein gewichteter Durchschnitt des ersten Mittelwertes und des zweiten Mittelwertes ausgewählt wird, wobei die Gewichtung auf relativen Größen des ersten digitalen Höchstwertes und des zweiten digitalen Höchstwertes basiert.
DE112014003278.6T 2013-07-15 2014-07-15 Laserliniensonde mit verbessertem großen Dynamikbereich Expired - Fee Related DE112014003278B4 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361846363P 2013-07-15 2013-07-15
US61/846,363 2013-07-15
US201361860353P 2013-07-31 2013-07-31
US61/860,353 2013-07-31
US14/328,846 US9267784B2 (en) 2013-07-15 2014-07-11 Laser line probe having improved high dynamic range
US14/328,846 2014-07-11
PCT/US2014/046586 WO2015009652A1 (en) 2013-07-15 2014-07-15 A laser line probe having improved high dynamic range

Publications (2)

Publication Number Publication Date
DE112014003278T5 true DE112014003278T5 (de) 2016-04-14
DE112014003278B4 DE112014003278B4 (de) 2017-02-02

Family

ID=52276857

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014003278.6T Expired - Fee Related DE112014003278B4 (de) 2013-07-15 2014-07-15 Laserliniensonde mit verbessertem großen Dynamikbereich

Country Status (5)

Country Link
US (2) US9267784B2 (de)
JP (1) JP2016530485A (de)
DE (1) DE112014003278B4 (de)
GB (1) GB2532642B (de)
WO (1) WO2015009652A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141139A (ja) * 2014-01-29 2015-08-03 株式会社ミツトヨ 手動測定装置
FR3032642B1 (fr) * 2015-02-17 2017-08-11 Snecma Outil de controle referentiel
DE102015103373A1 (de) * 2015-03-09 2015-12-31 Hochschule Aalen Messelement für ein Koordinatenmessgerät
US9964402B2 (en) * 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
WO2017162744A1 (de) * 2016-03-22 2017-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen
BR112019000722B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Lança extensível telescópica para transportar item e lança dobrável
EP3485112B1 (de) 2016-07-15 2021-08-25 Fastbrick IP Pty Ltd Fahrzeug mit eingebauter ziegelsteinlegemaschine
JP6840838B2 (ja) * 2016-09-09 2021-03-10 クオリティー ヴィジョン インターナショナル インコーポレイテッドQuality Vision International, Inc. 複数のセンサを備えた測定機用関節式ヘッド
USD833894S1 (en) * 2017-01-27 2018-11-20 Faro Technologies, Inc Measurement device
WO2019006511A1 (en) 2017-07-05 2019-01-10 Fastbrick Ip Pty Ltd REAL-TIME POSITION TRACKING AND ORIENTATION DEVICE
EP3669138B1 (de) 2017-08-17 2023-05-24 Fastbrick IP Pty Ltd Lasertracker mit verbesserter wankwinkelmessung
CN111213098B (zh) 2017-08-17 2024-03-15 快砖知识产权私人有限公司 用于交互系统的通信系统
AU2018348785A1 (en) 2017-10-11 2020-05-07 Fastbrick Ip Pty Ltd Machine for conveying objects and multi-bay carousel for use therewith
US10458783B2 (en) 2017-10-13 2019-10-29 Faro Technologies, Inc. Three-dimensional scanner having pixel memory
EP3575742B1 (de) * 2018-05-29 2022-01-26 Global Scanning Denmark A/S 3d-objekt-abtastung unter verwendung von strukturiertem licht
US11054546B2 (en) 2018-07-16 2021-07-06 Faro Technologies, Inc. Laser scanner with enhanced dymanic range imaging
EP3779882B1 (de) * 2019-08-16 2022-07-20 Sick IVP AB Bereitstellen einer intensitätsspitzenposition in bilddaten aus der lichttriangulation in einem system zur dreidimensionalen bildgebung
US11930155B2 (en) * 2020-12-23 2024-03-12 Faro Technologies, Inc. Handheld scanner for measuring three-dimensional coordinates
CN113572557B (zh) * 2021-06-29 2024-03-19 武汉中观自动化科技有限公司 一种基于can通信的时间戳快速同步的方法及其光学扫描仪

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US4846577A (en) * 1987-04-30 1989-07-11 Lbp Partnership Optical means for making measurements of surface contours
EP0462289B1 (de) * 1989-12-28 1994-11-02 Kabushiki Kaisha Toyota Chuo Kenkyusho Gerät zur messung dreidimensionaler koordinaten
JPH0526638A (ja) * 1991-07-23 1993-02-02 Mitsubishi Heavy Ind Ltd 三次元形状認識装置
JP3156421B2 (ja) 1992-02-18 2001-04-16 王子製紙株式会社 インクジェット記録用紙
JPH05340727A (ja) * 1992-06-05 1993-12-21 Yunisun:Kk 三次元形状計測装置
US5611147A (en) 1993-02-23 1997-03-18 Faro Technologies, Inc. Three dimensional coordinate measuring apparatus
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
JPH06265320A (ja) * 1993-03-11 1994-09-20 Mitsubishi Heavy Ind Ltd 外観検査方法
US7359782B2 (en) 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5828793A (en) 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
US5812269A (en) * 1996-07-29 1998-09-22 General Scanning, Inc. Triangulation-based 3-D imaging and processing method and system
US6876392B1 (en) 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
US6618123B2 (en) 2000-10-20 2003-09-09 Matsushita Electric Industrial Co., Ltd. Range-finder, three-dimensional measuring method and light source apparatus
US6753876B2 (en) 2001-12-21 2004-06-22 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
MY137246A (en) * 2002-04-30 2009-01-30 Jfe Steel Corp Method and instrument for measuring bead cutting shape of electric welded tube
JP2004037274A (ja) * 2002-07-03 2004-02-05 Sumitomo Osaka Cement Co Ltd 高さ計測装置及び監視装置
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
GB0324179D0 (en) 2003-10-15 2003-11-19 Isis Innovation Device for scanning three-dimensional objects
JP3930482B2 (ja) 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7084989B2 (en) 2004-04-19 2006-08-01 Sick Ivp Aktiebolag Measuring apparatus and method in a distribution system
WO2007035720A2 (en) 2005-09-20 2007-03-29 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
JP2008002995A (ja) 2006-06-23 2008-01-10 Konica Minolta Sensing Inc 三次元形状測定装置
JP5081559B2 (ja) 2007-09-28 2012-11-28 パナソニック デバイスSunx株式会社 測定装置
JP5256745B2 (ja) 2008-01-17 2013-08-07 株式会社ニコン 三次元形状計測装置
EP2283311B1 (de) * 2008-04-22 2011-08-24 Leica Geosystems AG Messverfahren für eine gliederarm-koordinatenmessmaschine
DE102008031243B4 (de) 2008-07-02 2010-09-16 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Erzeugung von High Dynamic Range(HDR)-Bildaufnahmen sowie Belichtungsvorrichtungen zur Verwendung darin
JP2010085472A (ja) * 2008-09-29 2010-04-15 Hitachi Ltd 画像投影・撮像装置
EP2362936B1 (de) 2008-10-28 2012-10-17 3Shape A/S Scanner mit rückkopplungsregelung
EP2359593B1 (de) 2008-11-25 2018-06-06 Tetravue, Inc. Systeme und verfahren für dreidimensionale bildgebung mit hoher auflösung
US8346009B2 (en) 2009-06-29 2013-01-01 Thomson Licensing Automatic exposure estimation for HDR images based on image statistics
US8768313B2 (en) * 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
JP2013509820A (ja) 2009-10-28 2013-03-14 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク 符号化ローリングシャッタの方法およびシステム
DE102009055988B3 (de) 2009-11-20 2011-03-17 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8630314B2 (en) * 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
DE102010045803A1 (de) 2010-09-20 2012-03-22 Leica Camera Ag Verfahren zur Erzeugung einer Bilddatei mit hohem Dynamikumfang - HDR Raw Workflow
JP5753409B2 (ja) 2011-03-07 2015-07-22 株式会社トプコン パノラマ画像作成方法及び3次元レーザスキャナ
DE102011103510A1 (de) 2011-06-03 2012-12-06 Daimler Ag Verfahren zum Erstellen einer dreidimensionalen Repräsentation einer Objektanordnung
WO2012168490A1 (de) 2011-06-09 2012-12-13 Zoller & Fröhlich GmbH Laserscanner und verfahren zum ansteuern eines laserscanners
JP2013064644A (ja) * 2011-09-16 2013-04-11 Nikon Corp 形状測定装置、形状測定方法、構造物製造システム及び構造物の製造方法
TW201331547A (zh) 2011-11-01 2013-08-01 尼康股份有限公司 形狀測定裝置、構造物製造系統、形狀測定方法、構造物製造方法、程式及記錄媒體
JP2013113696A (ja) * 2011-11-29 2013-06-10 Mitsubishi Electric Corp 変位測定方法および変位測定装置
WO2013101620A1 (en) * 2011-12-28 2013-07-04 Faro Technologies, Inc. Line scanner using a low coherence light source
US20130286196A1 (en) * 2011-12-28 2013-10-31 Faro Technologies, Inc. Laser line probe that produces a line of light having a substantially even intensity distribution
US20130176453A1 (en) 2012-01-06 2013-07-11 Nokia Corporation Methods, apparatuses and computer program products for facilitating image registration based in part on using sensor data
US9575304B2 (en) * 2012-06-25 2017-02-21 Huron Technologies International Inc. Pathology slide scanners for fluorescence and brightfield imaging and method of operation
US9531967B2 (en) 2013-12-31 2016-12-27 Faro Technologies, Inc. Dynamic range of a line scanner having a photosensitive array that provides variable exposure

Also Published As

Publication number Publication date
GB201602649D0 (en) 2016-03-30
US20160169661A1 (en) 2016-06-16
GB2532642B (en) 2016-10-05
US9267784B2 (en) 2016-02-23
JP2016530485A (ja) 2016-09-29
WO2015009652A1 (en) 2015-01-22
US9500469B2 (en) 2016-11-22
DE112014003278B4 (de) 2017-02-02
GB2532642A (en) 2016-05-25
US20150015898A1 (en) 2015-01-15

Similar Documents

Publication Publication Date Title
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
EP2402710B1 (de) Verfahren und Vermessungssystem zur berührungslosen Koordinatenmessung an einer Objektoberfläche
DE112016001888T5 (de) Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
DE112013000727T5 (de) Prüfverfahren mit Strichcode-Kennzeichnung
DE112013002892T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE69826753T2 (de) Optischer Profilsensor
DE112013002824T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
EP2071279B1 (de) Verfahren und Vorrichtung zur Erfassung von Körpermaßdaten und Konturdaten eines Festkörpers
DE112011100309B4 (de) Tragbares Gelenkarm-Koordinatenmessgerät mit abnehmbarem Zubehör
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102015210028A1 (de) Koordinatenmesseinrichtung
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE102008041523A1 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE112011100290T5 (de) Koordinatenmessgerät mit einem beleuchteten Sondenende und Betriebsverfahren
EP1190211A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE102013001897A1 (de) Verfahren zur Vermessung von Gliedmaßen
DE102021113391A1 (de) Koordinatenmessgerät mit sichttaster zum durchführen von messvorgängen des typs punkte-aus-fokus
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee