DE102010025953A1 - Positionsmessvorrichtung und -verfahren - Google Patents

Positionsmessvorrichtung und -verfahren Download PDF

Info

Publication number
DE102010025953A1
DE102010025953A1 DE102010025953A DE102010025953A DE102010025953A1 DE 102010025953 A1 DE102010025953 A1 DE 102010025953A1 DE 102010025953 A DE102010025953 A DE 102010025953A DE 102010025953 A DE102010025953 A DE 102010025953A DE 102010025953 A1 DE102010025953 A1 DE 102010025953A1
Authority
DE
Germany
Prior art keywords
image
pattern
imaging area
unit
measurement object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010025953A
Other languages
English (en)
Other versions
DE102010025953B4 (de
Inventor
Tomohiko Tsukubamirai-shi Aki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SMC Corp
Original Assignee
SMC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SMC Corp filed Critical SMC Corp
Publication of DE102010025953A1 publication Critical patent/DE102010025953A1/de
Application granted granted Critical
Publication of DE102010025953B4 publication Critical patent/DE102010025953B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Bei einer Positionsmessvorrichtung und einem Positionsmessverfahren wird ein Bilderfassungselement (50) mit einem Abbildungsbereich (30), der kleiner ist als ein Werkstück (26), relativ zu einer Oberfläche (32) des Werkstücks (26) bewegt, wobei ein Bild auf der Oberfläche (32) des Werkstücks (26) erfasst wird. Außerdem wird ein Muster auf der Oberfläche (32) des Werkstücks (26) aus einem Bild (I(t)) innerhalb des Abbildungsbereiches (30) extrahiert, und ein Verschiebungsweg des Musters, der in einem Bild (I(t + 1)) innerhalb des Abbildungsbereiches (30) auftritt, wird erfasst. Eine Position auf der Oberfläche (32) des Werkstücks (26) wird auf der Basis des erfassten Verschiebungsweges und der Dimension berechnet.

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Positionsmessvorrichtung und ein Positionsmessverfahren zum Messen einer Position auf der Oberfläche eines Messobjektes durch Erfassen eines Bildes der Oberfläche des Messobjektes.
  • Zum Messen der Länge eines Messobjektes (im Rahmen der vorliegenden Anmeldung wird diese ”Länge” als die Gesamtlänge des Messobjektes, die Größe eines Teils des Messobjektes oder die Verschiebung oder dergleichen des Messobjektes angesehen) werden herkömmlicherweise Bilderfassungspositionsmessvorrichtungen eingesetzt. Eine solche Positionsmessvorrichtung erfasst ein optisches Bild, das von der Oberfläche des Messobjektes ausgestrahlt wird, mit Hilfe eines Bildsensors, der aus einer CCD-, CMOS-Bildsensoranordnung oder dergleichen besteht, und analysiert das Bildsignal, das durch diese Bilderfassung erhalten wird, um dadurch die Länge des Messobjektes zu messen.
  • Beispielsweise sind in der japanischen Patentoffenlegungsschrift JP 2002-013948 A und der japanischen Patentoffenlegungsschrift JP 2003-148918 A Systeme beschrieben, bei denen ein Bildbereich bezogen auf ein Messobjekt klein eingestellt wird, so dass die Verschiebung des Messobjektes mit hoher Auflösung und hoher Genauigkeit gemessen werden kann.
  • Auch wenn eine solche Bilderfassungs-Verschiebungsmessvorrichtung eingesetzt wird, treten aber in einem Fall, dass die Länge eines Messobjektes mit einem großen Messbereich gemessen werden soll, verschiedene Schwierigkeiten auf, da ein Kompromiss zwischen der Größe des Messbereichs und der räumlichen Auflösung gefunden werden muss. Wenn das Bilderfassungsvergrößerungsverhältnis klein ist, kann andererseits keine ausreichende Messgenauigkeit erreicht werden, da die Bildauflösung verringert ist, obwohl das gesamte Messobjekt innerhalb des Bildbereiches angeordnet werden kann.
  • Wenn das Vergrößerungsverhältnis vergrößert wird, kann zwar eine gute Messgenauigkeit erreicht werden, da die Bildauflösung verbessert wird, aber das gesamte Messobjekt kann nicht innerhalb des Bildbereiches angeordnet werden. Anders ausgedrückt ist dies darauf zurückzuführen, dass der Bild-bereich und die Raumauflösung endlich sind, da durch die Kapazität des Bildsensors und die Ausgestaltung der Vorrichtung eine Grenze gesetzt wird.
  • Obwohl in Betracht gezogen werden kann, die Zahl der Pixel des Bildsensors zu erhöhen und eine Ausgestaltung mit einem großen Bildbereich vorzusehen, führt dies andererseits zu einer deutlichen Vergrößerung der Positionsmessvorrichtung und einer drastischen Erhöhung der Herstellungskosten.
  • Zusammenfassung der Erfindung
  • Es ist eine allgemeine Aufgabe der vorliegenden Erfindung, eine Positionsmessvorrichtung und ein Positionsmessverfahren vorzuschlagen, bei dem eine Vergrößerung und ein Anstieg der Herstellungskosten der Vorrichtung vermieden werden kann, wobei gleichzeitig auch in dem Fall, dass der Messbereich des Messobjektes im Vergleich zu dem Bildbereich enger oder breiter ist, eine exakte Messung der Länge des Messobjektes ermöglicht wird.
  • Diese Aufgabe mit der Erfindung im Wesentlichen durch die Merkmale des Anspruchs 1 gelöst.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Die vorliegenden Erfindung ist gekennzeichnet durch eine Positionsmessvorrichtung, in welcher ein Bilderfassungselement mit einem Bildbereich, der kleiner ist als ein Messobjekt, relativ zu einer Oberfläche des Messobjektes bewegt wird, wobei ein Bild an der Oberfläche des Messobjektes erfasst wird, um ein Bild innerhalb des Bildbereiches zu erhalten, und wobei eine Position auf der Oberfläche des Messobjektes mit Hilfe des innerhalb des Bildbereiches erhaltenen Bildes gemessen wird. Die Positionsmessvorrichtung umfasst eine Extraktionseinheit zur Extraktion eines Musters der Oberfläche des Messobjektes aus dem Bild innerhalb des Bildbereiches zu einem festgelegten Zeitpunkt, einen Detektor zur Erfassung eines Verschiebungsweges des Musters, das durch die Extraktionseinheit extrahiert wird, der in dem Bild innerhalb des Bildbereiches zu einem Zeitpunkt nach dem festgelegten Zeitpunkt auftritt, und eine Messeinheit zur Messung der Position auf der Oberfläche des Messobjektes auf der Basis der Dimension und des Verschiebungsweges, der durch den Detektor erfasst wird.
  • Da gemäß der vorliegenden Erfindung die Extraktionseinheit zur Extraktion eines Musters auf der Oberfläche des Messobjektes und ein Detektor zur Erfassung eines Verschiebungsweges des Musters, der in dem Bild innerhalb des Bildbereiches auftritt, vorgesehen sind, kann die Positionsbeziehung zwischen dem Messobjekt und dem Bildbereich auf der Basis des Verschiebungsweges des Musters sowohl innerhalb als auch außerhalb des Bildbereiches erfasst werden, während der Bildsensor relativ zu der Oberfläche des Messobjektes, die größer ist als der Bildbereich des Bildsensors, bewegt wird.
  • Auch in dem Fall, dass der Messbereich des Messobjektes enger oder breiter ist als der Bildbereich, kann somit die Position auf der Oberfläche des Messobjektes gemessen werden.
  • Die vorliegende Erfindung wird außerdem durch ein Positionsmessverfahren gekennzeichnet, bei dem ein Bilderfassungselement mit einem Bildbereich, der kleiner ist als ein Messobjekt, relativ zu der Oberfläche des Messobjektes bewegt wird, während ein Bild auf der Oberfläche des Messobjektes erfasst wird, um ein Bild innerhalb des Bildbereiches zu erhalten, und wobei eine Position auf der Oberfläche des Messobjektes mit Hilfe des erhaltenen Bildes innerhalb des Bildbereiches gemessen wird. Das Verfahren umfasst die Schritte der Extraktion eines Musters auf der Oberfläche des Messobjektes aus dem Bild innerhalb des Bildbereiches zu einem festgelegten Zeitpunkt, das Erfassen eines Verschiebungsweges des Musters, das durch eine Extraktionseinheit extrahiert wird, wobei der Verschiebungsweg in dem Bild innerhalb des Bildbereiches zu einem Punkt nach dem festgelegten Zeitpunkt auftritt, und das Messen der Position auf der Oberfläche des Messobjektes auf der Basis der Dimension und des Verschiebungsweges, der durch ein Detektor erfasst wird.
  • Da gemäß der vorliegenden Erfindung Schritte vorgesehen sind, um ein Muster auf der Oberfläche des Messobjektes zu extrahieren und den Verschiebungsweg, der in dem Bild innerhalb des Bildbereiches auftritt, zu erfassen, während der Bildsensor relativ zu der Oberfläche des Messobjektes, die größer ist als der Bildbereich des Bildsensors, bewegt wird, kann die Positionsbeziehung zwischen dem Messobjekt und dem Bildbereich auf der Basis des Verschiebungsweges des Musters sowohl innerhalb als auch außerhalb des Bildbereiches erfasst werden. Daher kann auch in den Fall, dass der Messbereich des Messobjektes enger oder breiter als der Bildbereich ist, die Position auf der Oberfläche des Messobjektes gemessen werden.
  • Weiterbildungen, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen und der Zeichnung. Dabei bilden alle beschriebenen und/oder bildlich dargestellten Merkmale für sich oder in beliebiger Kombination den Gegenstand der Erfindung, unabhängig von ihrer Zusammenfassung in den Ansprüchen oder deren Rückbezug.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine perspektivische Ansicht einer Positionsmessvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm der Positionsmessvorrichtung gemäß der Ausführungsform der vorliegenden Erfindung;
  • 3A3C sind Vorderansichten, die eine Positionsbeziehung zwischen einem Messobjekt und einem Bildbereich darstellen;
  • 4 ist ein Fließdiagramm für die Durchführung eines Positionsmessverfahrens gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 5A ist eine schematische Ansicht, die ein Bild innerhalb des Bildbereiches zu einem Zeitpunkt t = 0 darstellt;
  • 5B ist eine schematische Ansicht, die ein Bild innerhalb des Bildberreiches zu einem Zeitpunkt t = 1 darstellt;
  • 6A ist Diagramm eines Bildsignals, das ein Bild innerhalb des Bildbereiches darstellt;
  • 6B ist ein Diagramm, das korrespondierende Positionen jedes der Pixel innerhalb des Bildbereiches darstellt;
  • 7A7B sind schematische Ansichten, die Beispiele einer bereichsbasierten Übereinstimmung darstellen;
  • 8A8B sind schematische Ansichten, die andere Beispiele bereichsbasierter Übereinstimmungen darstellen;
  • 9 ist eine schematische Ansicht, die einen Verschiebungsweg einer Zielposition aus dem Inneren des Bildbereiches darstellt;
  • 10 ist ein Fließdiagramm eines Verfahrens zum Einstellen einer neuen Zielposition aus dem Bild innerhalb des Bildbereiches;
  • 11 ist ein Diagramm eines Verfahrens zur Auswahl von Kandidatenpositionen aus dem Inneren des Bildbereiches;
  • 12 ist ein Fließdiagramm eines Verfahrens zum Messen der Länge des Messobjektes; und
  • 13 ist eine Vorderansicht, die eine Positionsbeziehung einer Zielposition, die auf einer Vorderfläche des Messobjektes eingestellt ist, darstellt.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen
  • Wie in 1 gezeigt ist, umfasst die Positionsmessvorrichtung 10 einen Sensorkopf 12, der ein optisches Bild erfasst, welches von einer Oberfläche eines Messobjektes ausgestrahlt wird, einen Bildprozessor 14 zur Durchführung einer gewünschten Bildbearbeitung mit Bezug auf ein zweidimensionales Bildsignal (nachfolgend vereinfacht als ”Bildsignal” bezeichnet), das durch den Sensorkopf 12 erhalten wird, und Kabel 16, die eine elektrische Verbindung zwischen dem Sensorkopf 12 und dem Bildprozessor 14 herstellen und die in der Lage sind, dem Sensorkopf 12 von dem Bildprozessor 14 Strom zuzuführen.
  • Außerdem ist der Bildprozessor 14 elektrisch an eine übergeordnete Steuerung 18 angeschlossen, die eine externe Vorrichtung ist. Die übergeordnete Steuerung 18 besteht beispielsweise aus einer PLC (programmierbare Steuerung, programmable logic controller), die verschiedene Arten von Befehlen zu dem Bildprozessor 14 sendet, und steuert den Antrieb eines Förderers 20, der unterhalb des Sensorkopfes 12 angeordnet ist.
  • Der Förderer 20 umfasst eine zylindrische Antriebswalze 21, eine Abtriebswalze 22 und einen bandförmigen Riemen 24, der um die Antriebswalze 21 und die Abtriebswalze 22 herumgeführt ist. Die Antriebswalze 21 wird durch Betätigung der übergeordneten Steuerung 18 in der Richtung des durchgezogenen Pfeils (vgl. 1) gedreht, so dass gleichzeitig mit der Bewegung des Riemens 24 in der Richtung des Pfeils (vgl. 1) ein Werkstück (Messobjekt) 26, das auf dem Förderer 20 angebracht ist, in der Richtung des Pfeils transportiert wird.
  • Der Sensorkopf 12 der Positionsmessvorrichtung 10 ist fest oberhalb des Förderers 20 vorgesehen, wobei eine Abbildungsfläche 28 des Sensorkopfes 12 zu der Seite des Riemens 24 gerichtet ist. Zu dieser Zeit ist ein Abbildungsbereich 30 des Sensorkopfes 12 auf einer Oberfläche 32 des Werkstücks 26 eingestellt, das auf dem Förderer 20 angebracht ist.
  • Als nächstes wird mit Bezug auf 2, die ein Funktionsblockdiagramm der Positionsmessvorrichtung 10 gemäß der vorliegenden Ausführungsform darstellt, eine Erläuterung des Sensorkopfes 12 und des Bildprozessors 14 gegeben.
  • Der Sensorkopf 12 umfasst eine Beleuchtungseinheit 34, einen Bilderfassungsabschnitt 36, eine Kommunikationseinheit 38 und eine Sensorkopfsteuerung 40. Die Beleuchtungseinheit 34 wird durch eine Lampe gebildet, die Licht 46 zu dem Abbildungsbereich 30, der auf der Oberfläche 32 des Werkstücks 26 vorgesehen ist, strahlt. Die Lampe kann durch einen nicht dargestellten Beleuchtungsschalter ein- und ausgeschaltet werden.
  • Der Bilderfassungsabschnitt 36 umfasst ein Bilderfassungselement (Bildsensor) 50, zur Umwandlung von reflektiertem Licht 48 (ein reflektiertes optisches Bild des Werkstücks 26), das durch die Oberfläche 32 des Werkstücks 26 reflektiert wird und mit der Abbildungsfläche 28 übereinstimmt, in ein Bilderfassungssignal und einen Signalprozessor 52 zur Verstärkung des Bilderfassungssignals und zur Ausgabe desselben zu der Sensorkopfsteuerung 40 synchron mit Zeitsteuerungssignalen von der Sensorkopfsteuerung 40. Das Bilderfassungselement 50 kann beispielsweise durch eine Photodiodenreihe, ein CCD-, ein CMOS-Bilderfassungselement oder dergleichen gebildet werden.
  • Ein nicht dargestelltes optisches Abbildungssystem ist an einer Zwischenposition zwischen dem Werkstück 26 und dem Bilderfassungselement 50 vorgesehen und in der Lage die Dimension, das heißt das Vergrößerungsverhältnis, des Abbildungsbereiches 30, der auf die Oberfläche 32 des Werkstücks 26 gestrahlt wird, zu verändern. Mit Hilfe des optischen Abbildungssystems werden außerdem geeignete Einstellungen des optischen Weges durchgeführt, so dass in dem Bilderfassungssignal, das durch das Bilderfassungselement 50 aufgenommen wird, keine Bildverzerrungen auftreten.
  • Entsprechend eines Befehls von der Sensorkopfsteuerung 40 führt die Kommunikationseinheit 38 eine Kommunikation mit dem Bildprozessor 14 durch. In diesem Fall kann durch die Verwendung von LVDS (Niederspannungsdifferentialsignalen, low voltage differential signaling) der Energieverbrauch verringert werden, und Hochgeschwindigkeitssignalübertragungen, die robust oder widerstandsfähig gegenüber Rauschen sind, können durchgeführt werden. Der Bildprozessor 14 umfasst eine Kommunikationseinheit 54, eine Speichereinheit 56, eine Bildverarbeitungseinheit 58, eine Betätigungseinheit 60, eine Anzeige 62, eine externe Kommunikationseinheit 64, eine externe Kommunikationseinheit 66 und eine Steuerung 68.
  • Die Kommunikationseinheit 54 führt nach einem Befehl von der Steuerung 68 eine wechselseitige (bidirektionale) Kommunikation mit dem Sensorkopf 12 durch. Die Speichereinheit 56 umfasst einen Bildspeicher 70 zum Speichern von Bildsignalen, die von dem Sensorkopf 12 erhalten werden, einen RAM-Speicher 71 zum zeitweiligen Speichern verschiedener Parameter, die für die Bildverarbeitung und dergleichen verwendet werden, und einen EEPROM 72 zum Speichern intrinsischer Daten einschließlich einer Identifikationszahl des Sensorkopfes 12, Sensorsensitivitätscharakterisken und dergleichen.
  • Die Bildverarbeitungseinheit 58 umfasst eine Extraktionseinheit 74, eine Bestimmungseinheit 75, eine Erfassungseinheit 76, eine Recheneinheit 77 und eine Messeinheit 78, die durch Software und Hardware gebildet werden.
  • Die Betätigungseinheit 60 wird durch Schalter und Betätigungsknöpfe und dergleichen (nicht dargestellt) gebildet, die zum Durchführen verschiedener Einstellungen verwendet werden. Die Anzeige 62 besteht beispielsweise aus einem LCD-Bildschirm, auf dem verschiedene numerische Werte oder dergleichen, die sich auf Messbedingungen und/oder Messergebnisse beziehen, angezeigt werden.
  • Die beiden externen Kommunikationseinheiten 64, 66 sind vorgesehen, um Verbindungen zu externen Vorrichtungen herzustellen. Beispielsweise können die externen Kommunikationseinheiten 64, 66 mit der übergeordneten Steuerung 18 verbunden sein, um Befehle und verschiedene Daten zu übertragen bzw. zu empfangen, oder sie können mit einem externen Personalcomputer (PC), der nicht dargestellt ist, oder mit einem anderen nicht dargestellten Bildprozessor 14 zur Datenkommunikation verbunden sein. Diese Kommunikation ist nicht nur auf allgemeine Kommunikationsstandards, wie USB 2,0, IEEE1394, RS-232C und dergleichen beschränkt, sondern es können auch andere Kommunikationsstandards verwendet werden, die dem Bildprozessor 14 eigen sind.
  • In den 1 und 2 ist der Bildprozessor 14 über die externe Kommunikationseinheit 66 mit der übergeordneten Steuerung 18 verbunden.
  • Die Steuerung 68 führt eine allgemeine umfassende Steuerung des gesamten Bildprozessors 14 einschließlich Steuerfunktionen zur Steuerung der Kommunikationseinheit 54, der Speichereinheit 56, der Bildverarbeitungseinheit 58, der Betätigungseinheit 60, der Anzeige 62 und der externen Kommunikationseinheiten 64, 66 durch.
  • In der Positionsmessvorrichtung 10 sind der Sensorkopf 12 und der Bildprozessor 14, die in 1 gezeigt sind, als separate individuelle Einheiten vorgesehen. Alternativ können der Sensorkopf 12 und der Bildprozessor 14 auch einstückig ausgebildet sein. In diesem Fall kann eine verbundene Struktur eingesetzt werden, so dass auf die Kommunikationseinheit 38 und die Kommunikationseinheit 54 verzichtet werden kann.
  • Die Positionsmessvorrichtung 10 gemäß der vorliegenden Ausführungsform ist im Wesentlichen wie oben beschrieben aufgebaut. Nachfolgend wird die Betriebsweise der Positionsmessvorrichtung 10 mit Bezug auf das Fließdiagramm gemäß 4 erläutert.
  • Nachdem das Werkstück 26, das als ein Messobjekt dient, auf dem Förderer 20 angebracht wurde, werden zunächst Positions- und Ausrichtungseinstellungen des Sensorkopfes 12 (vgl. 1) der Positionsmessvorrichtung 10 durchgeführt. Wie in 2 gezeigt ist, führt ein Benutzer das Ein/Aus-Schalten eines nicht dargestellten Beleuchtungsschalters der Betätigungseinheit 60 durch, so dass ein Befehl zum Ein- und Ausschalten der Beleuchtungseinheit 34 durch die Betätigungseinheit 60, die Steuerung 68, die Kommunikationseinheit 54, die Kabel 16 und die Kommunikationseinheit 38 an die Sensorkopfsteuerung 40 gegeben wird. Die gewünschten Operationen der Beleuchtungseinheit 34 werden durch Ein- und Aussteuerung der Sensorkopfsteuerung 40 durchgeführt. Da das Beleuchtungslicht 46 von der Beleuchtungseinheit 34 auf die Oberfläche 32 des Werkstücks 26 gestrahlt wird, kann die Position des Abbildungsbereiches 30 überprüft werden, während der Benutzer Einstellungen der Position und die Ausrichtung des Sensorkopfes 12 durchführt.
  • Wie in den 1 und 3A bis 3C gezeigt ist, sind eine kreisförmige Nut 82, eine dreieckige Nut 84, eine quadratische Nut 86 und eine weitere kreisförmige Nut 88 in dieser Reihenfolge von rechts oder genauer von einer stromabwärtsseitigen Seite der Transportrichtung gemäß der vorliegenden Ausführungsform auf der Oberfläche 32 des Werkstücks 26 vorgesehen. In 3A ist ein Zustand (Ursprungszustand) gezeigt, bevor die Positionsmessvorrichtung die Messung durchführt. Die kreisförmige Nut 82 liegt in einem im Wesentlichen zentralen Abschnitt des Abbildungsbereiches 30, während ein Teil der dreieckigen Nut 84 an der linken Kante des Abbildungsbereiches 30 liegt.
  • Wenn Muster mit kontrastierender Dichte als Bilder auf der Oberfläche 32 des Werkstücks 26 vorliegen, so können die Merkmale der vorliegenden Erfindung weiterhin verwendet werden, auch wenn spezialisierte Nuten, wie die mit einer dreidimensionalen Form, nicht vorhanden sind.
  • Wenn die Antriebswalze 21 in der Richtung des Pfeils gedreht wird, dann wird der Riemen 24 gleitend in der Richtung des Umrisspfeiles bewegt, und das Werkstück 26, das auf dem Riemen 24 des Förderers 20 angebracht ist, wird ebenfalls in der Richtung des Umrisspfeiles transportiert (vgl. 1). Durch diesen Transportvorgang des Werkstücks 26 ändert sich die Positionsbeziehung zwischen dem Werkstück 26 und dem Abbildungsbereich 30 allmählich mit der Zeit von dem in 3A gezeigten Ursprungszustand zu den Zuständen, die in den 3B und 3C gezeigt sind.
  • Während die Oberfläche 32 des Werkstücks 26, die größer ist als der Abbildungsbereich 30, durch den Transportvorgang des Förderers 20 bewegt wird, können bei dem oben beschriebenen Vorgang Bilder von jeder der Nuten (der kreisförmigen Nut 82 usw.) auf der Oberfläche 32 des Werkstücks 26 durch den Sensorkopf 12 erfasst werden.
  • Nachfolgend wird mit Bezug auf das Fließdiagramm gemäß 4 eine detaillierte Erläuterung eines Messverfahrens zum Messen einer Länge des Werkstücks 26 mit Hilfe der Positionsmessvorrichtung 10 gemäß der vorliegenden Ausführungsform gegeben.
  • [Schritt S1]
  • Wenn ein Benutzer einen Messinitiierungsknopf (nicht dargestellt) auf der Betätigungseinheit 60, die in 2 gezeigt ist, drückt, wird eine Anforderung zur Initiierung einer Bilderfassung über die Betätigungseinheit 60, die Steuerung 68, die Kommunikationseinheit 54, die Kabel 16 und die Kommunikationseinheit 38 an die Sensorkopfsteuerung 40 gemeldet. Anschließend gibt die Sensorkopfsteuerung 40 einen Bilderfassungsbefehl an den Bilderfassungsabschnitt 36 aus.
  • Am Anfang wird ein Bildsignal zu einem Zeitpunkt t = 0 erhalten (Schritt S1). Im Einzelnen wird ein Bildsignal erhalten, das ein Bild I(0) innerhalb des Abbildungsbereiches 30 zu dem Zeitpunkt t = 0 zeigt.
  • In diesem Fall wird reflektiertes Licht 48 zur Ausbildung eines reflektierten optischen Bildes des Werkstücks 26 zu der Abbildungsfläche 28 gerichtet. Nach geeigneter Einstellung des optischen Weges in dem nicht dargestellten optischen Abbildungssystem wird eine elektrooptische Umwandlung durch das Bilderfassungselement 50 innerhalb des Bereiches des Abbildungsbereiches 30 durchgeführt, und ein Bildsignal wird ausgegeben. Das Bildsignal wird mit Zeitsteuersignalen von der Sensorkopfsteuerung 40 synchronisiert und dann der Sensorkopfsteuerung 40 zugeführt. Anschließend wird das Bildsignal über die Kabel 16, die Kommunikationseinheit 54 und die Steuerung 68 der Kommunikationseinheit 38 zugeführt und in dem Bildspeicher 70 gespeichert.
  • Wie in 5A gezeigt ist, wird auf diese Weise ein Bild I(0) innerhalb des Abbildungsbereiches 30 erhalten (vgl. auch 3A). Wie in 6A gezeigt ist, wird in dem Bildsignal, das für das Bild I(0) innerhalb des Abbildungsbereiches 30 steht, die Abstufungszahl (Gradierungszahl) jedes der Pixel (64 vertikale, 64 horizontale) durch 256 Abstufungen (8 Bit) gebildet. Der Einfachheit halber wird die Pixelzahl in der Vertikalrichtung von –31 bis 32 angegeben, und die Pixelzahl in der horizontalen Richtung wird ebenfalls von –31 bis 32 angegeben.
  • [Schritt S2]
  • Als Nächstes wird eine Zielposition P0 von dem Bild I(0) innerhalb des Abbildungsbereiches 30 eingestellt (Schritt S2).
  • Von den Bildsignalen, die in dem Bildspeicher 70 gespeichert sind, wird ein Bildsignal (vgl. 5A) ausgelesen, das für das Bild I(0) innerhalb des Abbildungsbereiches 30 steht, und die Extraktionseinheit 74 extrahiert das Muster auf der Oberfläche des Werkstücks 26 von innerhalb des Bildes I(0). Gemäß der vorliegenden Ausführungsform wird zur Spezifizierung der Position des Musters, das durch die Extraktionseinheit 74 extrahiert wird, die zentrale Position der kreisförmigen Nut 82 als eine repräsentative Position bestimmt und als die Zielposition P0 eingestellt.
  • Beispielsweise werden mit Hilfe eines zweidimensionalen (x-y) Koordinatensystems, wie es in 6B gezeigt ist, korrespondierende Positionen für jedes der Pixel innerhalb des Abbildungsbereiches 30 definiert. Die Skala des Koordinatensystems ist so definiert, dass eine Abstufung in der Richtung der x-Achse sowie der y-Achse in ihrer Größe der Pixelgröße entspricht (d. h. sie haben eine Dimension entsprechend derjenigen eines Pixels).
  • Durch diese Definition sind die beiden Dimensionskoordinaten, die den Pixeln 90, 92, 94, 96 und 98 in 6A entsprechen (0, 0), (32, 32), (–31, 32), (–31, –31) bzw. (32, –31).
  • Da, wie in 5A gezeigt ist, zu dem Zeitpunkt t = 0 die kreisförmige Nut 82 im Wesentlichen an der zentralen Position des Bildes I(0) liegt, wird die kreisförmige Nut 82 als ein Muster extrahiert. Wie oben angegeben wurde, wird zu diesem Zeitpunkt die Zielposition P0 als ein Ursprung (0, 0) eingestellt, welcher der zentralen Position der kreisförmigen Nut 82 entspricht. Gleichzeitig werden die Koordinaten der Zielposition P0 (0, 0) in der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71) gespeichert.
  • [Schritt S3]
  • Als Nächstes wird zu einem Zeitpunkt t = 1 ein Bildsignal I(1) erhalten (Schritt S3). Im Einzelnen wird ein Bildsignal erhalten, das ein Bild I(1) innerhalb des Abbildungsbereiches 30 zu dem Zeitpunkt t = 1 darstellt.
  • Zu dem Zeitpunkt t = 1 gibt die Sensorkopfsteuerung 40 einen Bilderfassungsbefehl zu dem Bilderfassungsabschnitt 36 aus, und ein Bildsignal, das das neu erfasste Bild I(1) repräsentiert, wird in dem Bildspeicher 70 gespeichert. Diese Operationen sind im Wesentlichen die gleichen, wie sie schon oben beschrieben wurden, so dass auf ihre erneute detaillierte Beschreibung verzichtet wird.
  • Auf diese Weise wird das Bild I(1) innerhalb des Abbildungsbereiches 30 erhalten, wie es in 5B gezeigt ist. Obwohl es möglich ist, die Bilderfassungsperiode Δt auf jeden beliebigen Wert einzustellen, wird zur Erleichterung der Erläuterung in der vorliegenden Beschreibung die Bilderfassungsperiode Δt als 1 angenommen. Außerdem versteht es sich, dass die vorliegende Erfindung selbstverständlich auch bei Fällen anwendbar ist, bei denen die Bilderfassungsperiode Δt keinen konstanten Wert hat, oder anders ausgedrückt, wenn das Zeitintervall zwischen aufeinanderfolgenden erfassten Bildern ungleichmäßig ist.
  • [Schritt S4]
  • Als Nächstes wird die Zielposition P0 von dem Bild I(1) innerhalb des Abbildungsbereiches 30 angestrebt (Schritt S4).
  • Von den Bildsignalen, die in dem Bildspeicher 70 gespeichert sind, wird ein Bildsignal (vgl. 5B) ausgelesen, das dem Bild I(1) entspricht, und die Erfassungseinheit 76 erfasst das Zielmuster P0 aus dem Bild I(1).
  • Als Verfahren zur Identifikation einer festgelegten gemeinsamen Position (oder einer gemeinsamen Fläche) aus den beiden Bildern I(1) und I(0) kann ein Bereich-basiertes in Übereinstimmung bringen („matching”) verwendet werden, das allgemein bekannt ist.
  • Die 7A und 7B sind schematische Ansichten, die Beispiele für ein bereichbasiertes matching zeigen. Wie in 7A gezeigt ist, wird ein Bereich einer festgelegten Größe (beispielsweise ein Bereich mit 16×16 Pixeln), in dem die Zielposition P0 in dem Zentrum des Bildes I(0) liegt, extrahiert und vorab als eine Maske oder Vorlage („template”) 100 in der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71) gespeichert. Andererseits wird ein betroffener Bereich 102, in welchem eine optionale Position (beispielsweise in 7A eine mittlere rechte Seite des Abbildungsbereiches 30) als Zentrum verwendet wird, aus dem Bild I(1) innerhalb des Abbildungsbereiches 30 herausgeschnitten. Die Pixelgröße (vertikale und horizontale Pixelzahl) des betroffenen Bereiches 102 stimmt mit der des templates 100 überein.
  • Indem ein NCC (normalisierter Kreuzkorrelations, normalized cross correlation) – Operator 104 auf das template 100 und den betroffenen Bereich 102 einwirkt, wird ein NCC-Wert berechnet, der als Index zur Anzeige des Ähnlichkeitsgrades zwischen den beiden verglichenen Bildern dient. Da dieses Verfahren im Gebiet der Bildverarbeitung gut bekannt ist, wird auf eine detaillierte Beschreibung dieses Merkmals der vorliegenden Erfindung verzichtet.
  • Da in 7A der betroffene Bereich 102 dem template 100 sehr stark ähnelt, wird ein großer NCC-Wert angezeigt. Andererseits wird in 7B ein betroffener Bereich 106, in dem eine optionale Position (beispielsweise in 7B ein mittleres linkes Ende des Abbildungsbereiches 30) des Bildes I(1) innerhalb des Abbildungsbereiches 30 als das Zentrum verwendet wird, herausgeschnitten.
  • Da der betroffene Bereich 106 dem template 100 nicht sehr ähnelt, wird ein geringer NCC-Wert angezeigt.
  • Auf diese Weise kann eine zentrale Position des betroffenen Bereiches 102, für welchen der NCC-Wert aus dem Bild I(1) innerhalb des Abbildungsbereiches 30 maximal ist, als die Zielposition P0 im Bild I(1) angenommen werden.
  • Die 8A und 8B sind schematische Ansichten, die andere Beispiele eines bereich-basierten matchings zeigen.
  • Indem in den 8A und 8B ein SAD (Summe der absoluten Abweichung, sum of absolute differences)-Operator 108 auf das template 100 und die betroffenen Bereiche 102, 106, die in der oben beschriebenen Weise ausgeschnitten wurden, einwirkt, wird ein SAD-Wert berechnet, der als ein Index zur Anzeige der Größe des Unterschiedes zwischen den beiden verglichenen Bildern dient. Da dieses Verfahren im Gebiet der Bildverarbeitung allgemein bekannt ist, wird auf eine detaillierte Beschreibung dieses Merkmals der vorliegenden Erfindung verzichtet.
  • Da in 8A der betroffene Bereich 102 dem template 100 stark ähnelt, wird ein geringer SAD-Wert angezeigt. Andererseits wird in 8B ein betroffener Bereich 106, in dem eine optionale Position (beispielsweise in 8B ein mittleres linkes Ende des Abbildungsbereiches 30) des Bildes I(1) innerhalb des Abbildungsbereiches 30 als Zentrum verwendet wird, ausgeschnitten. Da der betroffene Bereich 106 dem template 100 nicht sehr ähnelt, wird ein großer SAD-Wert angezeigt.
  • Auf diese Weise kann eine zentrale Position der betroffenen Region 102, für welche der SAD-Wert in dem Bild I(1) innerhalb des Abbildungsbereiches 30minimal ist, als die Zielposition P0 innerhalb des Bildes I(1) angenommen werden.
  • 9 ist eine schematische Ansicht, die einen Verschiebungsweg (Größe der Verschiebung) einer Zielposition P0 innerhalb des Abbildungsbereiches 30 darstellt. Wenn das Suchergebnis für die Position P0 in dem Schritt S4 berechnet wird, während die Ziffern rechts des Dezimalpunktes weggestrichen werden, so dass P0 (t = 0) = (0, 0) und P0 (t = 1) = (14, 0) ist, wird der Verschiebungsweg der Zielposition P0 der Vektorwert ΔP0 = (14, 0).
  • Da das Bildsignal, welches das Bild I(t) repräsentiert, aus diskreten Daten besteht, können die Koordinaten der Zielposition P0 lediglich durch ein integrales Mehrfaches (mit anderen Worten einen Integerwert) der Pixel ausgedrückt werden. Durch Verwendung einer Sub-Pixel-Abschätzung können die Koordinatenwerte, die die Pixelauflösung überschreiten, ausgedrückt werden.
  • In diesem Fall bezeichnet ”Sub-Pixel-Abschätzung” ein Positionsabschätzungsverfahren, bei dem virtuell rationale Zahlen eingeführt werden, wenn Koordinaten durch diskrete Daten ausgedrückt werden. Als Folge hiervon kann die räumliche Auflösung künstlich verbessert werden und Quantifizierungsfehler können verhindert werden.
  • Als Nächstes wird ein detailliertes Beispiel einer Sub-Pixel-Abschätzung beschrieben. Zunächst wird ein NCC (oder SAD)-Wert um eine zentrale Position jedes Pixels des Bildsignals bestimmt. Dann wird ein 3-Pixel mal 3-Pixel Bereich in der Umgebung des maximalen (oder minimalen) Wertes extrahiert. Eine Tendenz (drei Datenpaare) des NCC (oder SAD) relativ zu der x-Achse wird als eine zweidimensionale Kurve interpoliert. Eine Position (Wert des Pixels als rationale Zahl) entsprechend der Achse der zweidimensionalen Kurve wird berechnet und als x-Achsenkoordinate der Zielposition P0 bestimmt. In ähnlicher Weise wird eine Tendenz (drei Datenpaare) des NCC (oder SAD) relativ zu der y-Achse als die zweidimensionale Kurve interpoliert. Eine Position (Wert des Pixels als rationale Zahl) entsprechend der Achse der zweidimensionalen Kurve wird berechnet und als eine y-Achsenkoordinate der Zielposition P0 bestimmt. Auf diese Weise können die x und y Koordinaten der Zielposition P0 bestimmt werden.
  • In dem Fall, dass die Sub-Pixel-Abschätzung verwendet wird, sind die Suchergebnisse der Zielpositionen P0, die in 9 gezeigt sind, P0 (t = 0) = (0, 0) und P0 (t = 1) = (14,5, 0), und der Verschiebungsweg der Zielposition P0 wird mit höherer Genauigkeit der Vektorwert ΔP0 = (14,5, 0).
  • Außerdem ist die Sub-Pixel-Abschätzung bei der vorliegenden Ausführungsform nicht auf das oben beschriebene Verfahren beschränkt, sondern es können verschiedene andere Methoden verwendet werden.
  • [Schritt S5]
  • Als Nächstes erfolgt eine Abschätzung, um zu bestimmen, ob die Position, die der Zielposition P0 entspricht, in dem Bild I(1) innerhalb des Abbildungsbereiches 30 liegt (Schritt S5). Diese Abschätzung wird durch die Bestimmungseinheit 75 (vgl. 2) auf der Basis des Suchergebnisses der Zielposition P0 in Schritt S4 durchgeführt.
  • Beispielsweise besteht in dem Fall, dass ein Teil des Musters (kreisförmige Nut 82), das der Zielposition P0 in dem Bild I(1) innerhalb des Abbildungsbereiches 30 zugehört, die Möglichkeit, dass die Suche fehlschlägt, wenn eine Suchberechnung mit Hilfe des oben beschriebenen bereichs-basierten matching durchgeführt wird, unabhängig davon, ob die Zielposition P0 aktuell innerhalb des Abbildungsbereiches 30 liegt oder nicht.
  • In einem solchen Fall besteht die Befürchtung, dass das Muster (kreisförmige Nut 82), das durch die Extraktionseinheit 74 extrahiert wird, den Abbildungsbereich 30 verfehlt, wenn das nächste Bild aufgenommen wird. Dies kann in die Beurteilung einfließen, dass das Muster zu der vorliegenden Zeit nicht in dem Bild I(1) innerhalb des Abbildungsbereiches 30 liegt.
  • [Schritt S6]
  • In dem Fall, dass geurteilt wird, dass die der Zielposition P0 entsprechende Position in dem Bild I(1) innerhalb des Abbildungsbereiches 30 liegt, wird der Vektor ΔP0, der den Verschiebungsweg der Zielposition P0 von dem Bild I(0) zu dem Bild I(1) anzeigt, berechnet (Schritt S6) und dessen Wert wird in der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71) gespeichert. Diese Berechnung wird durch die Recheneinheit 77, die in 2 gezeigt ist, durchgeführt.
  • [Schritt S7]
  • Als Nächstes wird die festgelegte Länge auf der Oberfläche 32 des Werkstücks 26, welches das Messobjekt bildet, gemessen (Schritt S7). Details des Verfahrens, mit welchem dieser Schritt durchgeführt wird, werden später erläutert.
  • [Schritte S8 bis S9]
  • Als Nächstes wird eine Abschätzung zur Beendigung der Bilderfassung (Schritt S8) durchgeführt. In dem Fall, dass die Bilderfassung mit Hilfe des Sensorkopfes 12 fortgeführt wird, ohne dass ein Bilderfassungsbeendigungsbefehl durch einen Hardware- oder Softwareunterbrecher ausgegeben wird, wird eine festgelegte Zeitperiode abgewartet bis es möglich wird, zu dem nächsten Zeitpunkt (t = 2) ein Bildsignal, welches das Bild I(2) repräsentiert, zu erhalten (Schritt S9).
  • Ab diesem Zeitpunkt wird die Bilderfassung fortgeführt und die Schritte S3 bis S9 werden so lange wiederholt, wie die Position, die der Zielposition P0 entspricht, innerhalb des Bildes I(t) innerhalb des Abbildungsbereiches 30 liegt.
  • [Schritt S10]
  • Anschließend wird, wie in 3B gezeigt ist, zu einer festgelegten Zeit t eine neue Zielposition P1, die sich von der Zielposition P0 unterscheidet, von dem Bild I(t) innerhalb des Abbildungsbereiches 30 eingestellt, wenn zum ersten Mal festgestellt wird, dass die Position, die der Zielposition P0 entspricht, nicht in dem Bild I(t) innerhalb des Abbildungsbereiches 30 liegt (Schritt S10). Wie in 2 gezeigt ist, wird aus den Bildsignalen, die in dem Bildspeicher 70 gespeichert sind, ein Bildsignal, das dem Bild I(0) zugeordnet ist, ausgelesen, und ein Muster auf der Oberfläche 32 des Werkstücks 26 wird von innerhalb des Bildes I(0) durch die Extraktionseinheit 74 extrahiert. Ähnlich Schritt S1 wird eine Zielposition P1 bestimmt und als eine repräsentative Position des durch die Extraktionseinheit 74 extrahierten neuen Musters eingestellt. Gleichzeitig werden die Koordinaten der neuen Zielposition P1 in der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71) gespeichert.
  • Als Nächstes wird mit Bezug auf das Fließdiagramm gemäß 10 ein Verfahren zum Einstellen der neuen Zielposition P1, die sich von der Zielposition P0 unterscheidet, aus dem Bild I(t) innerhalb des Abbildungsbereiches 30 im Detail beschrieben.
  • Zunächst wird eine Extraktion von Kandidatenpositionen auf der Basis der Pixelwertverteilung durchgeführt (Schritt S101).
  • In dem Fall, dass die Fläche in der Umgebung der neu eingestellten Zielposition P1 insgesamt einen durchschnittlichen Pixelwert besitzt, wäre die Suche nach der Zielposition P1 (Schritt S4 in 4) in dem Bild I(t) innerhalb des Abbildungsbereiches 30 außerordentlich schwierig. Dementsprechend wird eine Position, an welcher die Möglichkeiten zur Suche vielversprechend sind, d. h. in welcher die Varianz der Pixelwerte benachbarter Pixel vergleichsweise groß ist, als eine Kandidatenposition {Qj} für die Zielposition P1 extrahiert.
  • Hierbei wird ein Fall berücksichtigt, in dem eine Mehrzahl von individuellen (M) Kandidatenpositionen existiert, und eine solche Gruppe von Kandidatenpositionen wird als {Qi} (j = 1, 2, ..., M) bezeichnet.
  • Wie in 11 gezeigt ist, werden bei Annahme des zentralen Pixels (0, 0) des Abbildungsbereiches als Startpunkt charakteristische Bildwerte für jedes der Pixel, die in den Richtungen von vier Pfeilen (SE, SN, SW, SS) nacheinander berechnet, und das Pixel, bei dem der charakteristische Pixelwert zum ersten Mal einen festgelegten Wert überschreitet, wird als eine Kandidatenposition ausgewählt. In diesem Fall ist der charakteristische Pixelwert als ein Auswertewert definiert, der mit einer Erhöhung der Pixelwertvarianz benachbarter Pixel größer wird. Beispielsweise kann eine Standardabweichung innerhalb des betroffenen Bereiches (definiert als der betroffene Bereich 102 und dgl., der in 7 gezeigt ist) oder eine Gesamtsumme der Differenz der Signalwerte zwischen den Pixelwerten und deren Durchschnittswert innerhalb des betroffenen Bereiches oder dgl. als der charakteristische Pixelwert verwendet werden.
  • Da die dreieckige Nut 84 in der Richtung des Pfeils SE liegt, während die quadratische Nut 86 in der Richtung des Pfeils SW liegt, wird eine barizentrische (Schwerpunkt) Position dazwischen als die Kandidatenposition ausgewählt. Da im Hinblick auf die Richtung der Pfeile SN und SS von dem zentralen Pixel (0, 0) die Pixelwerte bis zu der Umgebung der Grenze des Abbildungsbereiches 30, in dem charakteristische Pixelwerte für jedes der Pixel berechnet werden, einheitlich sind, wird andererseits die Berechnung mit dem Ergebnis abgeschlossen, dass die Kandidatenposition {Qj) nicht darin liegt.
  • Wird das oben beschriebene Verfahren verwendet, so kann im Vergleich zu dem Fall der Berechnung von charakteristischen Pixelwerten für alle Pixel innerhalb des Abbildungsbereiches der arithmetische Rechenaufwand, der für die Verarbeitung erforderlich ist, dramatisch reduziert werden. Auf diese Weise wird ein Maximum von vier (in 11 zwei) Kandidatenpositionen {Qj} extrahiert.
  • Als Nächstes wird die Positionsbeziehung zwischen der vorherigen Zielposition P0 und den Kandidatenpositionen {Qj} untersucht (Schritt S102).
  • Es ist wichtig, dass die vorherige Position P0 und die Zielposition P1, die zur aktuellen Zeit eingestellt wird, gleichzeitig in wenigstens einem Bild I(t) innerhalb des Abbildungsbereiches 30 existieren. Andernfalls könnte die Positionsbeziehung zwischen der Zielposition P0 und der Zielposition P1 nicht identifiziert werden. Daher wird mit Bezug auf alle Kandidatenpositionen {Qj}, die in Schritt S101 extrahiert wurden, zunächst untersucht, ob die Zielposition P0 und die Kandidatenposition {Qj} jeweils gleichzeitig in wenigstens einem Bild I(t) innerhalb des Abbildungsbereiches 30 existieren oder nicht.
  • Unter Ausnutzung der Tatsache, dass die Zielposition P0 definitiv innerhalb des Bildes I(t – 1) innerhalb des Abbildungsbereiches 30 existiert, kann ein Verfahren eingesetzt werden, um zu bestimmen, ob die Kandidatenposition {Qj} ebenfalls innerhalb des Bildes I(t – 1) innerhalb des Abbildungsbereiches 30 existiert oder nicht. In diesem Fall kann das Verfahren des bereichs-basierten matching, das oben beschrieben wurde, verwendet werden.
  • Zum Schluss wird eine Position aus den Kandidatenpositionen {Qj} ausgewählt, und die neue Zielposition P1 wird an der oben genannten einen Position eingestellt (Schritt S103). Beispielsweise wird in dem Fall, dass eine individuelle Kandidatenposition {Qj} in dem Bild I(t – 1) innerhalb des Abbildungsbereiches 30 liegt, die Zielposition P1 an der Kandidatenposition eingestellt. In dem Fall, dass mehrere individuelle Kandidatenpositionen {Qj} in dem Bild I(t – 1) innerhalb des Abbildungsbereiches 30 liegen, wird die Zielposition P1 als eine Kandidatenposition eingestellt, bei welcher der charakteristische Bildwert maximal ist.
  • Auf diese Weise kann eine neue Zielposition P1, die sich von der Zielposition P0 unterscheidet, aus dem Bild I(t) innerhalb des Abbildungsbereiches 30 eingestellt werden.
  • [Schritt S11]
  • Als Nächstes wird ein Vektor P0P1, der ein dynamisch zugeordneter Verschiebungsweg der Zielposition P0 ist, berechnet (Schritt S11). Diese Berechnung wird in der Recheneinheit 77, die in 2 gezeigt ist, durchgeführt.
  • Da bei der vorliegenden Ausführungsform die Zielposition P1 so eingestellt ist, dass sowohl die Zielposition P0 als auch die Zielposition P1 in dem Bild I(t – 1) innerhalb des Abbildungsbereiches 30 liegt, kann der Vektor P0P1 einfach bestimmt werden. Durch Durchführen der Schritte S10 und S11 wird auf diese Weise die neue Zielposition P1 (allgemeine Gleichung: Pi+1) relativ zu der aktuellen Zielposition P0 (allgemeine Gleichung: Pi) eingestellt.
  • Als Nächstes wird eine Beurteilung zur Beendigung der Bilderfassung durchgeführt (Schritt S8). In dem Fall, dass die Bilderfassung ohne einen Befehl zur Beendigung derselben weitergeführt werden soll, wird zu der aktuellen Zeit eine festgelegte Zeit bis zu einer nächsten Zeit (t + 1), während welcher die Akquisition des Bildes I(t + 1) aus dem Inneren des Abbildungsbereiches 30 ermöglicht wird, beibehalten (Schritt S9).
  • [Detaillierte Beschreibung des Schrittes S7]
  • Wie oben beschrieben wurde, wird während der Bilderfassung (in Echtzeit) eine festgelegte Länge auf der Oberfläche 32 des Werkstücks 26, welches als das Messobjekt dient, gemessen (Schritt S7). Nachfolgend wird mit Bezug auf das Fließdiagramm, das in 12 gezeigt ist, das Messverfahren im Einzelnen erläutert.
  • Mit Hilfe des Positionsmessverfahrens gemäß der vorliegenden Ausführungsform werden (N + 1) individuelle Zielpositionen (N ist eine positive natürliche Zahl), oder im Einzelnen Positionen P0 bis PN auf der Oberfläche 32 des Werkstücks 26 eingestellt (vgl. 13). Daten des dynamisch zugeordneten Verschiebungsweg-Vektors {PiPi+1}, die in dem RAM-Speicher 71, der in 2 gezeigt ist, gespeichert sind, werden ausgelesen. Auf der Basis dieser Daten wird durch die Messeinheit 78 die Längenmessung durchgeführt.
  • Zunächst werden ein erster Punkt X1, der einen Längenmessstartpunkt definiert, und ein zweiter Punkt, der einen Längenmessendpunkt definiert, bestimmt (Schritt S71). Als ein Beispiel der Bestimmung dieser Punkte kann der Benutzer mit Bezug auf das Bild, das auf der in 2 gezeigten Anzeige 62 angezeigt wird, durch ein Einstellmittel, beispielsweise ein GUI (grafische Benutzeroberfläche, graphical user interface) oder dgl., den ersten Punkt X1 und den zweiten Punkt X2 einstellen. Außerdem kann eine Markierung zur Ermöglichung einer Unterscheidung (Diskriminierung) des Startpunktes und des Endpunktes auf der Oberfläche 32 des Werkstücks 26 angebracht werden. Der Benutzer stellt normalerweise vor der Initiierung der Längenmessung vorab den ersten Punkt X1 als den Startpunkt der Längenmessung ein.
  • Als Nächstes wird eine Zielposition Pm (0 ≤ m ≤ N) in der Nähe des ersten Punkts X1 bestimmt (Schritt S72). Hierbei ist es in wenigstens einem Bild I(t) innerhalb des Abbildungsbereiches 30 notwendig, dass sowohl der erste Punkt X1 als auch die Zielposition Pm existieren. Angenommen, dass eine Zielposition Pm existiert, die diese Bedingung erfüllt, kann jede Position ausgewählt werden.
  • Als Nächstes wird ein Vektor X1Pm, der die Relativposition zwischen dem ersten Punkt X1 und der Zielposition Pm definiert, berechnet (Schritt S73). Da der erste Punkt X1 und die Zielposition Pm beide innerhalb des Bereiches liegen, der durch das Bild I(t1) innerhalb des Abbildungsbereiches 30 zu der festgelegten Zeit t1 liegt, kann der Vektor X1Pm einfach bestimmt werden.
  • Als Nächstes wird eine Zielposition Pn (0 ≤ m < n ≤ N) in der Nähe des zweiten Punkts X2 bestimmt (Schritt S74). Hierbei ist es notwendig, dass in wenigstens einem Bild I(t) innerhalb des Abbildungsbereiches 30 sowohl der zweite Punkt X2 als auch die Zielposition Pn existieren. Angenommen, dass eine Zielposition Pn, die diese Bedingung erfüllt, existiert, kann jede Position ausgewählt werden.
  • Als Nächstes wird ein Vektor X2Pn, welcher die Relativposition zwischen dem zweiten Punkt X2 und der Zielposition Pn definiert, berechnet (Schritt S75). Da der zweite Punkt X2 und die Zielposition Pn beide innerhalb des Bereiches liegen, der durch das Bild I(t2) innerhalb des Abbildungsbereiches 30 zu der festgelegten Zeit t2 repräsentiert wird, kann der Vektor X2Pn einfach bestimmt werden.
  • Als Letztes wird ein Verschiebungsvektor zwischen dem ersten Punkt X1 und dem zweiten Punkt X2 berechnet (Schritt S76). Der Verschiebungsvektor X1X2 wird durch folgende Gleichung (1) bestimmt:
    Figure 00270001
  • Auf diese Weise dient die Zielposition {Pi}, die eine repräsentative Position des Musters, das durch die Extraktionseinheit 74 (2) extrahiert wurde, darstellt, als ein Zuordnungspunkt. Als Folge hiervon kann eine optionale Position innerhalb des Bildes, in welcher wenigstens eine Zielposition existiert, durch die obige Gleichung (1) ausgedrückt werden.
  • Schließlich kann durch Multiplikation der Bildgröße (der Dimension eines Pixels) relativ zu der x-Achsenverschiebung und der y-Achsenverschiebung, die Einheiten der Pixelzahl definieren, die Länge in aktuellen Dimensionen bestimmt werden. Außerdem kann die Pixelgröße auf der Basis des Bilderfassungsvergrößerungsverhältnisses (das in dem nicht dargestellten optischen Abbildungssystem eingestellt ist) und der Auflösung des Bilderfassungselementes 50, die bekannt ist, berechnet werden.
  • Außerdem kann vor der Messung der Länge die Pixelgröße durch Verwenden eines Bildes eines Hochpräzisionsreferenzzielobjektes (dessen Größe bereits bekannt ist), Messen der Pixelzahl und Dividieren der bekannten Größe durch die Pixelzahl bestimmt werden.
  • Ist die Position des ersten Punktes X1, der den Messstartpunkt darstellt, vorab eingestellt worden, kann außerdem das oben beschriebene Positionsmessverfahren weiterhin auch bei einer Konfiguration durchgeführt werden, bei welcher lediglich das Bildsignal des Bildes I(t), das notwendig ist, um die Zielposition {Pi} zu spezifizieren, in dem Bildspeicher 70 der Speichereinheit 56 gespeichert sein kann und ein Bildsignal des anderen Bildes I(t) nicht gespeichert ist (d. h., dass das andere Bild I(t) zerstört wird, nachdem an ihm eine festgelegte Bildverarbeitung durchgeführt wurde). Dieser Fall wird bevorzugt, da die Speicherkapazität der Speichereinheit 56 verringert werden kann. Außerdem wird die Zahl der Zugriffe auf den Speicher reduziert.
  • Die Positionsmessvorrichtung und das Positionsmessverfahren gemäß der vorliegenden Erfindung sind nicht auf die oben beschriebenen Ausführungsformen beschränkt. Vielmehr sind verschiedene Alternativen und zusätzliche Merkmale und Ausgestaltungen möglich, ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.
  • Auch wenn bei der vorliegenden Ausführungsform eine Gestaltung verwendet wird, bei welcher Beleuchtungslicht 46 von der Oberfläche 32 des Werkstücks 26 reflektiert und ein reflektiertes optisches Bild durch das Bilderfassungselement 50 aufgenommen wird, kann beispielsweise auch natürliches Licht verwendet werden. Es kann auch ein optisches Bild, das von dem Messobjekt selbst ausgegeben wird, durch das Bilderfassungselement 50 erfasst werden.
  • Außerdem kann das Bilderfassungselement 50 durch einen Monochromsensor (d. h. ein Sensorelement mit einer einzigen Lichtaufnahmewellenlängencharakteristik) oder einen Farbsensor (d. h. ein Sensorelement mit mehreren Lichtaufnahmewellenlängencharakteristiken) gebildet werden. In diesem Fall kann der Bildprozessor 14 Kommunikationen und Bildverarbeitung entsprechend dem Datentyp der erhaltenen Bildsignale durchführen.
  • Obwohl bei der vorliegenden Ausführungsform ein Fall dargestellt wurde, bei dem die Position und Ausrichtung des Sensorkopfes 12 fixiert sind und das Werkstück 26, das auf dem Förderer 20 angebracht ist, durch Transport auf dem Förderer 20 bewegt wird, ist außerdem das Mittel zur Bewirkung einer Relativbewegung gegenüber dem Sensorkopf 12 über der Oberfläche 32 des Werkstücks 26 nicht auf diesen Fall eingeschränkt. Beispielsweise kann auch eine Bilderfassung durchgeführt werden, indem der Sensorkopf 12 parallel zu der Oberfläche 32 des Werkstücks 26 verschoben wird, während das Werkstück 26 an seiner Position fixiert ist. Außerdem kann das Messobjekt selbst einen Antriebsmechanismus aufweisen, wodurch ein Bild des sich bewegenden Messobjektes erfasst wird.
  • Wird eine Konfiguration angenommen, bei welcher herkömmliche Bilderkennungstechniken in der Bildverarbeitungseinheit 58 integriert sind, können außerdem nicht nur zweidimensionale Längenmessungen, sondern auch Form- und Farbunterscheidungsprozesse durchgeführt werden.
  • Außerdem können bei der Positionsmessvorrichtung und dem Positionsmessverfahren gemäß der vorliegenden Erfindung nicht nur zweidimensionale Koordinaten (X, Y), sondern auch dreidimensionale Koordinaten (X, Y, Z) verwendet werden. In diesem Fall können Verschiebungen in der Richtung der z-Achse durch Erfassen eines Vergrößerungs-/Verkleinerungsverhältnisses des Musters realisiert werden.
  • Wenn Positionsmessungen an zwei optionalen Punkten durchgeführt werden, können außerdem die Länge, dreidimensionale Verschiebung und der Winkel (Winkelverschiebung um eine dritte Position) eindeutig bestimmt werden. Dementsprechend dienen die Positionsmessvorrichtung und das Positionsmessverfahren gemäß der vorliegenden Erfindung nicht nur als Längenmesssensor und Verschiebungssensor, sondern können auch als Winkelsensor, Geschwindigkeitssensor oder dgl. eingesetzt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2002-013948 A [0003]
    • - JP 2003-148918 A [0003]

Claims (9)

  1. Positionsmessvorrichtung (10), in welcher ein Bilderfassungselement (50) mit einem Abbildungsbereich (30), der kleiner ist als ein Messobjekt (26), relativ zu einer Oberfläche (32) des Messobjektes (26) bewegt wird, wobei ein Bild auf der Oberfläche (32) des Messobjektes (26) erfasst wird, um ein Bild innerhalb des Abbildungsbereiches (30) zu erhalten, und wobei eine Position auf der Oberfläche (32) des Messobjektes (26) mit Hilfe des erhaltenen Bildes innerhalb des Abbildungsbereiches (30) gemessen wird, mit: einer Extraktionseinheit (74) zum Extrahieren eines Musters auf der Oberfläche (32) des Messobjektes (26) aus dem Bild innerhalb des Abbildungsbereiches (30) zu einem festgelegten Zeitpunkt; einem Detektor (76) zur Erfassung eines Verschiebungsweges des Musters, das durch die Extraktionseinheit (74) extrahiert wurde, wobei der Verschiebungsweg in dem Bild innerhalb des Abbildungsbereiches (30) an einem Zeitpunkt nach dem festgelegten Zeitpunkt auftritt, und einer Messeinheit (78) zum Messen der Position auf der Oberfläche (32) des Messobjektes (26) auf der Basis der Dimension und des Verschiebungsweges, der durch den Detektor (76) erfasst wird.
  2. Positionsmessvorrichtung nach Anspruch 1, gekennzeichnet durch eine Speichereinheit (56) zum Speichern von Positionsinformationen bezüglich des Musters, das durch die Extraktionseinheit (74) extrahiert wurde, wobei die Messeinheit (78) die Position auf der Oberfläche (32) des Messobjektes (26) auf der Basis des Verschiebungsweges, der Dimension und der Positionsinformation, die in der Speichereinheit (56) gespeichert sind, misst.
  3. Positionsmessvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Extraktionseinheit (74) aus dem Bild innerhalb des Abbildungsbereiches (30), in welchem das extrahierte Muster existiert, ein neues Muster extrahiert, das sich von dem extrahierten Muster unterscheidet.
  4. Positionsmessvorrichtung nach Anspruch 3, gekennzeichnet durch eine Bestimmungseinheit (75) zur Durchführung einer Bestimmung, ob das durch die Extraktionseinheit (74) extrahierte Muster zu der vorliegenden Zeit in dem Bild innerhalb des Abbildungsbereiches (30) existiert oder nicht, wobei dann, wenn durch die Bestimmungseinheit (75) festgelegt wird, dass das Muster zu der aktuellen Zeit nicht in dem Bild innerhalb des Abbildungsbereiches (30) existiert, die Extraktionseinheit (74) zu der aktuellen Zeit das neue Muster aus dem Bild innerhalb des Abbildungsbereiches (30) extrahiert.
  5. Positionsmessvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Speichereinheit (56) ein template (100) des Musters speichert und dass der Detektor (76) den Verschiebungsweg des Musters auf der Basis eines bereichs-basierten matchings mit Hilfe des templates (100), das durch die Speichereinheit (56) gespeichert ist, berechnet.
  6. Positionsmessverfahren, bei dem ein Bilderfassungselement (50) mit einem Abbildungsbereich (30), der kleiner ist als ein Messobjekt (26), relativ zu einer Oberfläche (32) des Messobjektes (26) bewegt wird, wobei ein Bild auf der Oberfläche (32) des Messobjektes (26) erfasst wird, um ein Bild innerhalb des Abbildungsbereiches (30) zu erhalten, und bei dem eine Position auf der Oberfläche (32) des Objektes (26) mit Hilfe des erhaltenen Bildes innerhalb des Abbildungsbereiches (30) gemessen wird, wobei das Verfahren folgende Schritte aufweist: Extrahieren eines Musters auf der Oberfläche (32) des Messobjektes (26) aus dem Bild innerhalb des Abbildungsbereiches (30) zu einem festgelegten Zeitpunkt; Erfassen eines Verschiebungsweges des Musters, das durch die Extraktionseinheit (74) erfasst wurde, wobei die Verschiebung in dem Bild innerhalb des Abbildungsbereiches (30) zu einem Zeitpunkt nach dem festgelegten Zeitpunkt auftritt, und Messen der Position auf der Oberfläche (32) des Messobjektes (26) auf der Basis der Dimension und des Verschiebungsweges, der durch einen Detektor (76) erfasst wurde.
  7. Positionsmessverfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Extraktionsschritt außerdem das Extrahieren eines neuen Musters aus dem Bild innerhalb des Abbildungsbereiches (30), in welchem das Muster existiert, umfasst, wobei sich das neue Muster von dem extrahierten Muster unterscheidet.
  8. Positionsmessverfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass nach Durchführen des Detektionsschrittes ein Bestimmungsschritt durchgeführt wird, um durch eine Bestimmungseinheit (75) zu bestimmen, ob das durch die Extraktionseinheit (74) extrahierte Muster zu der vorliegenden Zeit in dem Bild innerhalb des Abbildungsbereiches (30) existiert oder nicht.
  9. Positionsmessverfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass nach der Durchführung des Extraktionsschrittes durch eine Speichereinheit (56) ein Speicherschritt zur Speicherung von Positionsinformation betreffend das durch die Extraktionseinheit (74) extrahierte Muster durchgeführt wird.
DE102010025953.5A 2009-07-07 2010-07-02 Positionsmessvorrichtung und -verfahren Active DE102010025953B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009160860A JP5156972B2 (ja) 2009-07-07 2009-07-07 位置測定装置及び位置測定方法
JP2009-160860 2009-07-07

Publications (2)

Publication Number Publication Date
DE102010025953A1 true DE102010025953A1 (de) 2011-01-20
DE102010025953B4 DE102010025953B4 (de) 2021-04-01

Family

ID=43382950

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010025953.5A Active DE102010025953B4 (de) 2009-07-07 2010-07-02 Positionsmessvorrichtung und -verfahren

Country Status (6)

Country Link
US (1) US9115983B2 (de)
JP (1) JP5156972B2 (de)
KR (2) KR20110004289A (de)
CN (1) CN101943969B (de)
DE (1) DE102010025953B4 (de)
TW (1) TWI429876B (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5416082B2 (ja) * 2010-12-27 2014-02-12 株式会社コベルコ科研 ひずみ測定装置およびひずみ測定方法
KR101251229B1 (ko) * 2011-09-07 2013-04-08 현대하이스코 주식회사 막 전극 접합체 및 가스확산층의 위치 정렬 오차 검출 장치 및 방법
JP5507586B2 (ja) * 2012-01-10 2014-05-28 Ckd株式会社 積層電池の製造過程に用いられる検査装置
EP2626671B1 (de) * 2012-02-10 2016-09-14 SICK STEGMANN GmbH Vorrichtung und Verfahren zur Positionsbestimmung
JP2013201294A (ja) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp キャッピング装置
JP2015216482A (ja) * 2014-05-09 2015-12-03 キヤノン株式会社 撮像制御方法、および撮像装置
CN113503818B (zh) * 2021-09-13 2021-12-14 深圳市鑫信腾科技股份有限公司 物料尺寸测量设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002013948A (ja) 2000-06-01 2002-01-18 Mitsutoyo Corp スペックル画像相関位置トランスデューサ
JP2003148918A (ja) 2001-08-06 2003-05-21 Mitsutoyo Corp 変位測定システム、相関関数ピーク位置決定方法、記録媒体、および搬送波

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3014513A1 (de) * 1980-04-16 1981-10-22 Scantron GmbH & Co Elektronische Lesegeräte KG, 6000 Frankfurt Verfahren und vorrichtung zum indentifizieren von gegenstaenden
DE3570744D1 (en) * 1984-02-25 1989-07-06 Massen Robert Process for the contactless measurement of the length of a moving article, and measuring apparatus for carrying out the process
JP3156817B2 (ja) * 1994-03-14 2001-04-16 矢崎総業株式会社 車両周辺監視装置
US5808726A (en) * 1995-02-28 1998-09-15 Canon Kabushiki Kaisha Distance measurement apparatus
EP1007300A1 (de) * 1997-02-13 2000-06-14 Marel HF. Rechnergesteuerte portioniervorrichtung
US6107637A (en) * 1997-08-11 2000-08-22 Hitachi, Ltd. Electron beam exposure or system inspection or measurement apparatus and its method and height detection apparatus
JP2003098424A (ja) * 2001-09-25 2003-04-03 Fujitsu Ten Ltd 画像処理測距装置
WO2003046531A2 (en) * 2001-11-28 2003-06-05 Applied Materials, Inc. Method for detecting defects in substrates
DE10233153A1 (de) * 2002-07-22 2004-02-12 Abb Patent Gmbh Verfahren zur Positionserkennung und Datenträger hierzu
US7466336B2 (en) * 2002-09-05 2008-12-16 Eastman Kodak Company Camera and method for composing multi-perspective images
AU2003278047A1 (en) * 2002-10-31 2004-05-25 Stephen F. Corbin System and method for closed-loop control of laser cladding by powder injection
CN100510943C (zh) * 2003-01-08 2009-07-08 奥普提克斯晶硅有限公司 图像投影的系统和方法
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
US7313430B2 (en) * 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
JP2005172667A (ja) * 2003-12-12 2005-06-30 Olympus Corp 工業用内視鏡装置及びこれを用いた形状寸法測定方法
TWI267761B (en) * 2004-12-03 2006-12-01 Hon Hai Prec Ind Co Ltd A simulative measurement demo system and method
US7602997B2 (en) * 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
DE102005040772B4 (de) * 2005-07-08 2012-01-19 Fraba Ag Optischer Längen- und Geschwindigkeitssensor
CN101268434B (zh) 2005-08-22 2010-06-16 三星电子株式会社 自主手持设备及控制自主手持设备的操作的方法
US7864982B2 (en) 2005-08-22 2011-01-04 Samsung Electronics Co., Ltd. Displacement and tilt detection method for a portable autonomous device having an integrated image sensor and a device therefor
KR100651521B1 (ko) * 2005-12-14 2006-11-30 삼성전자주식회사 휴대단말기의 속력측정방법
JP2007303994A (ja) 2006-05-12 2007-11-22 Denso Corp 外観検査装置及び外観検査方法
CN101563581A (zh) * 2006-11-03 2009-10-21 电子地图有限公司 用于图像中的平面对象的识别和位置确定的方法和设备
CN101939616B (zh) 2008-01-09 2014-07-09 株式会社尼康 测量设备和测量方法
EP2327061A4 (de) * 2008-08-15 2016-11-16 Univ Brown Verfahren und vorrichtung zur schätzung von körperformen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002013948A (ja) 2000-06-01 2002-01-18 Mitsutoyo Corp スペックル画像相関位置トランスデューサ
JP2003148918A (ja) 2001-08-06 2003-05-21 Mitsutoyo Corp 変位測定システム、相関関数ピーク位置決定方法、記録媒体、および搬送波

Also Published As

Publication number Publication date
CN101943969B (zh) 2013-05-08
TW201107707A (en) 2011-03-01
US9115983B2 (en) 2015-08-25
KR20110004289A (ko) 2011-01-13
CN101943969A (zh) 2011-01-12
JP2011017559A (ja) 2011-01-27
DE102010025953B4 (de) 2021-04-01
JP5156972B2 (ja) 2013-03-06
KR20130014466A (ko) 2013-02-07
US20110007155A1 (en) 2011-01-13
KR101342523B1 (ko) 2013-12-17
TWI429876B (zh) 2014-03-11

Similar Documents

Publication Publication Date Title
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE102010025953A1 (de) Positionsmessvorrichtung und -verfahren
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE102017001667A1 (de) Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird
DE19507780A1 (de) Vorrichtung zur verteilten Bildverarbeitung
EP2619525B1 (de) Verfahren zum optischen antasten einer kante in oder an einem oberlächenbereich
DE102018102688A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem
DE102014016069A1 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE29521937U1 (de) Prüfsystem für bewegtes Material
DE102009036474A1 (de) Bilddaten-Kompressionsverfahren, Mustermodell-Positionierungsverfahren bei Bildverarbeitung, Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und computerlesbares Aufzeichnungsmedium
DE10344397B4 (de) Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung
DE102012112321A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102015210442A1 (de) Inspektionsvorrichtung, Inspektionsverfahren und Programm
DE102013112040B4 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE112010004271T5 (de) Bildaufnahmevorrichtung, anpassungseinrichtung und optisches achsen-anpasssystem für bildaufnahmevorrichtung
DE102012216908A1 (de) Verfahren unter Verwendung einer Bildkorrelation zum Bestimmen von Positionsmessungen in einem Maschinenvisionssystem
DE102021101704A1 (de) Bilderzeugungssystem
DE102014107143A1 (de) System und Verfahren zur effizienten Oberflächenmessung mithilfe eines Laserverschiebungssensors
DE102006045416A1 (de) Bildverarbeitungsvorrichtung
DE102018113589A1 (de) Vorrichtung und Programm zur Positionserfassung
DE102018102833A1 (de) Positionskontrollsystem, positionserkennungsvorrichtung und steuerprogramm
DE19926120A1 (de) Bilderkennungsvorrichtung
EP1578609B1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final