-
Hintergrund der Erfindung
-
Die
vorliegende Erfindung bezieht sich auf eine Positionsmessvorrichtung
und ein Positionsmessverfahren zum Messen einer Position auf der
Oberfläche eines Messobjektes durch Erfassen eines Bildes
der Oberfläche des Messobjektes.
-
Zum
Messen der Länge eines Messobjektes (im Rahmen der vorliegenden
Anmeldung wird diese ”Länge” als die
Gesamtlänge des Messobjektes, die Größe
eines Teils des Messobjektes oder die Verschiebung oder dergleichen
des Messobjektes angesehen) werden herkömmlicherweise Bilderfassungspositionsmessvorrichtungen
eingesetzt. Eine solche Positionsmessvorrichtung erfasst ein optisches
Bild, das von der Oberfläche des Messobjektes ausgestrahlt
wird, mit Hilfe eines Bildsensors, der aus einer CCD-, CMOS-Bildsensoranordnung
oder dergleichen besteht, und analysiert das Bildsignal, das durch
diese Bilderfassung erhalten wird, um dadurch die Länge
des Messobjektes zu messen.
-
Beispielsweise
sind in der japanischen Patentoffenlegungsschrift
JP 2002-013948 A und
der japanischen Patentoffenlegungsschrift
JP 2003-148918 A Systeme
beschrieben, bei denen ein Bildbereich bezogen auf ein Messobjekt
klein eingestellt wird, so dass die Verschiebung des Messobjektes
mit hoher Auflösung und hoher Genauigkeit gemessen werden
kann.
-
Auch
wenn eine solche Bilderfassungs-Verschiebungsmessvorrichtung eingesetzt
wird, treten aber in einem Fall, dass die Länge eines Messobjektes
mit einem großen Messbereich gemessen werden soll, verschiedene
Schwierigkeiten auf, da ein Kompromiss zwischen der Größe
des Messbereichs und der räumlichen Auflösung
gefunden werden muss. Wenn das Bilderfassungsvergrößerungsverhältnis
klein ist, kann andererseits keine ausreichende Messgenauigkeit
erreicht werden, da die Bildauflösung verringert ist, obwohl
das gesamte Messobjekt innerhalb des Bildbereiches angeordnet werden
kann.
-
Wenn
das Vergrößerungsverhältnis vergrößert
wird, kann zwar eine gute Messgenauigkeit erreicht werden, da die
Bildauflösung verbessert wird, aber das gesamte Messobjekt
kann nicht innerhalb des Bildbereiches angeordnet werden. Anders
ausgedrückt ist dies darauf zurückzuführen,
dass der Bild-bereich und die Raumauflösung endlich sind,
da durch die Kapazität des Bildsensors und die Ausgestaltung
der Vorrichtung eine Grenze gesetzt wird.
-
Obwohl
in Betracht gezogen werden kann, die Zahl der Pixel des Bildsensors
zu erhöhen und eine Ausgestaltung mit einem großen
Bildbereich vorzusehen, führt dies andererseits zu einer
deutlichen Vergrößerung der Positionsmessvorrichtung
und einer drastischen Erhöhung der Herstellungskosten.
-
Zusammenfassung der Erfindung
-
Es
ist eine allgemeine Aufgabe der vorliegenden Erfindung, eine Positionsmessvorrichtung
und ein Positionsmessverfahren vorzuschlagen, bei dem eine Vergrößerung
und ein Anstieg der Herstellungskosten der Vorrichtung vermieden
werden kann, wobei gleichzeitig auch in dem Fall, dass der Messbereich
des Messobjektes im Vergleich zu dem Bildbereich enger oder breiter
ist, eine exakte Messung der Länge des Messobjektes ermöglicht
wird.
-
Diese
Aufgabe mit der Erfindung im Wesentlichen durch die Merkmale des
Anspruchs 1 gelöst.
-
Vorteilhafte
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
-
Die
vorliegenden Erfindung ist gekennzeichnet durch eine Positionsmessvorrichtung,
in welcher ein Bilderfassungselement mit einem Bildbereich, der
kleiner ist als ein Messobjekt, relativ zu einer Oberfläche
des Messobjektes bewegt wird, wobei ein Bild an der Oberfläche
des Messobjektes erfasst wird, um ein Bild innerhalb des Bildbereiches
zu erhalten, und wobei eine Position auf der Oberfläche
des Messobjektes mit Hilfe des innerhalb des Bildbereiches erhaltenen
Bildes gemessen wird. Die Positionsmessvorrichtung umfasst eine
Extraktionseinheit zur Extraktion eines Musters der Oberfläche
des Messobjektes aus dem Bild innerhalb des Bildbereiches zu einem
festgelegten Zeitpunkt, einen Detektor zur Erfassung eines Verschiebungsweges
des Musters, das durch die Extraktionseinheit extrahiert wird, der
in dem Bild innerhalb des Bildbereiches zu einem Zeitpunkt nach
dem festgelegten Zeitpunkt auftritt, und eine Messeinheit zur Messung
der Position auf der Oberfläche des Messobjektes auf der
Basis der Dimension und des Verschiebungsweges, der durch den Detektor
erfasst wird.
-
Da
gemäß der vorliegenden Erfindung die Extraktionseinheit
zur Extraktion eines Musters auf der Oberfläche des Messobjektes
und ein Detektor zur Erfassung eines Verschiebungsweges des Musters,
der in dem Bild innerhalb des Bildbereiches auftritt, vorgesehen
sind, kann die Positionsbeziehung zwischen dem Messobjekt und dem
Bildbereich auf der Basis des Verschiebungsweges des Musters sowohl
innerhalb als auch außerhalb des Bildbereiches erfasst
werden, während der Bildsensor relativ zu der Oberfläche
des Messobjektes, die größer ist als der Bildbereich
des Bildsensors, bewegt wird.
-
Auch
in dem Fall, dass der Messbereich des Messobjektes enger oder breiter
ist als der Bildbereich, kann somit die Position auf der Oberfläche
des Messobjektes gemessen werden.
-
Die
vorliegende Erfindung wird außerdem durch ein Positionsmessverfahren
gekennzeichnet, bei dem ein Bilderfassungselement mit einem Bildbereich,
der kleiner ist als ein Messobjekt, relativ zu der Oberfläche des
Messobjektes bewegt wird, während ein Bild auf der Oberfläche
des Messobjektes erfasst wird, um ein Bild innerhalb des Bildbereiches
zu erhalten, und wobei eine Position auf der Oberfläche
des Messobjektes mit Hilfe des erhaltenen Bildes innerhalb des Bildbereiches
gemessen wird. Das Verfahren umfasst die Schritte der Extraktion
eines Musters auf der Oberfläche des Messobjektes aus dem
Bild innerhalb des Bildbereiches zu einem festgelegten Zeitpunkt,
das Erfassen eines Verschiebungsweges des Musters, das durch eine
Extraktionseinheit extrahiert wird, wobei der Verschiebungsweg in
dem Bild innerhalb des Bildbereiches zu einem Punkt nach dem festgelegten
Zeitpunkt auftritt, und das Messen der Position auf der Oberfläche
des Messobjektes auf der Basis der Dimension und des Verschiebungsweges,
der durch ein Detektor erfasst wird.
-
Da
gemäß der vorliegenden Erfindung Schritte vorgesehen
sind, um ein Muster auf der Oberfläche des Messobjektes
zu extrahieren und den Verschiebungsweg, der in dem Bild innerhalb
des Bildbereiches auftritt, zu erfassen, während der Bildsensor
relativ zu der Oberfläche des Messobjektes, die größer
ist als der Bildbereich des Bildsensors, bewegt wird, kann die Positionsbeziehung
zwischen dem Messobjekt und dem Bildbereich auf der Basis des Verschiebungsweges
des Musters sowohl innerhalb als auch außerhalb des Bildbereiches
erfasst werden. Daher kann auch in den Fall, dass der Messbereich
des Messobjektes enger oder breiter als der Bildbereich ist, die
Position auf der Oberfläche des Messobjektes gemessen werden.
-
Weiterbildungen,
Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben
sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen
und der Zeichnung. Dabei bilden alle beschriebenen und/oder bildlich
dargestellten Merkmale für sich oder in beliebiger Kombination
den Gegenstand der Erfindung, unabhängig von ihrer Zusammenfassung
in den Ansprüchen oder deren Rückbezug.
-
Kurze Beschreibung der Zeichnungen
-
1 ist
eine perspektivische Ansicht einer Positionsmessvorrichtung gemäß einer
Ausführungsform der vorliegenden Erfindung;
-
2 ist
ein Blockdiagramm der Positionsmessvorrichtung gemäß der
Ausführungsform der vorliegenden Erfindung;
-
3A–3C sind
Vorderansichten, die eine Positionsbeziehung zwischen einem Messobjekt
und einem Bildbereich darstellen;
-
4 ist
ein Fließdiagramm für die Durchführung
eines Positionsmessverfahrens gemäß einer Ausführungsform
der vorliegenden Erfindung;
-
5A ist
eine schematische Ansicht, die ein Bild innerhalb des Bildbereiches
zu einem Zeitpunkt t = 0 darstellt;
-
5B ist
eine schematische Ansicht, die ein Bild innerhalb des Bildberreiches
zu einem Zeitpunkt t = 1 darstellt;
-
6A ist
Diagramm eines Bildsignals, das ein Bild innerhalb des Bildbereiches
darstellt;
-
6B ist
ein Diagramm, das korrespondierende Positionen jedes der Pixel innerhalb
des Bildbereiches darstellt;
-
7A–7B sind
schematische Ansichten, die Beispiele einer bereichsbasierten Übereinstimmung
darstellen;
-
8A–8B sind
schematische Ansichten, die andere Beispiele bereichsbasierter Übereinstimmungen
darstellen;
-
9 ist
eine schematische Ansicht, die einen Verschiebungsweg einer Zielposition
aus dem Inneren des Bildbereiches darstellt;
-
10 ist
ein Fließdiagramm eines Verfahrens zum Einstellen einer
neuen Zielposition aus dem Bild innerhalb des Bildbereiches;
-
11 ist
ein Diagramm eines Verfahrens zur Auswahl von Kandidatenpositionen
aus dem Inneren des Bildbereiches;
-
12 ist
ein Fließdiagramm eines Verfahrens zum Messen der Länge
des Messobjektes; und
-
13 ist
eine Vorderansicht, die eine Positionsbeziehung einer Zielposition,
die auf einer Vorderfläche des Messobjektes eingestellt
ist, darstellt.
-
Detaillierte Beschreibung
der bevorzugten Ausführungsformen
-
Wie
in 1 gezeigt ist, umfasst die Positionsmessvorrichtung 10 einen
Sensorkopf 12, der ein optisches Bild erfasst, welches
von einer Oberfläche eines Messobjektes ausgestrahlt wird,
einen Bildprozessor 14 zur Durchführung einer
gewünschten Bildbearbeitung mit Bezug auf ein zweidimensionales
Bildsignal (nachfolgend vereinfacht als ”Bildsignal” bezeichnet),
das durch den Sensorkopf 12 erhalten wird, und Kabel 16,
die eine elektrische Verbindung zwischen dem Sensorkopf 12 und
dem Bildprozessor 14 herstellen und die in der Lage sind,
dem Sensorkopf 12 von dem Bildprozessor 14 Strom
zuzuführen.
-
Außerdem
ist der Bildprozessor 14 elektrisch an eine übergeordnete
Steuerung 18 angeschlossen, die eine externe Vorrichtung
ist. Die übergeordnete Steuerung 18 besteht beispielsweise
aus einer PLC (programmierbare Steuerung, programmable logic controller),
die verschiedene Arten von Befehlen zu dem Bildprozessor 14 sendet,
und steuert den Antrieb eines Förderers 20, der
unterhalb des Sensorkopfes 12 angeordnet ist.
-
Der
Förderer 20 umfasst eine zylindrische Antriebswalze 21,
eine Abtriebswalze 22 und einen bandförmigen Riemen 24,
der um die Antriebswalze 21 und die Abtriebswalze 22 herumgeführt
ist. Die Antriebswalze 21 wird durch Betätigung
der übergeordneten Steuerung 18 in der Richtung
des durchgezogenen Pfeils (vgl. 1) gedreht,
so dass gleichzeitig mit der Bewegung des Riemens 24 in
der Richtung des Pfeils (vgl. 1) ein Werkstück
(Messobjekt) 26, das auf dem Förderer 20 angebracht
ist, in der Richtung des Pfeils transportiert wird.
-
Der
Sensorkopf 12 der Positionsmessvorrichtung 10 ist
fest oberhalb des Förderers 20 vorgesehen, wobei
eine Abbildungsfläche 28 des Sensorkopfes 12 zu
der Seite des Riemens 24 gerichtet ist. Zu dieser Zeit ist
ein Abbildungsbereich 30 des Sensorkopfes 12 auf
einer Oberfläche 32 des Werkstücks 26 eingestellt,
das auf dem Förderer 20 angebracht ist.
-
Als
nächstes wird mit Bezug auf 2, die ein
Funktionsblockdiagramm der Positionsmessvorrichtung 10 gemäß der
vorliegenden Ausführungsform darstellt, eine Erläuterung
des Sensorkopfes 12 und des Bildprozessors 14 gegeben.
-
Der
Sensorkopf 12 umfasst eine Beleuchtungseinheit 34,
einen Bilderfassungsabschnitt 36, eine Kommunikationseinheit 38 und
eine Sensorkopfsteuerung 40. Die Beleuchtungseinheit 34 wird
durch eine Lampe gebildet, die Licht 46 zu dem Abbildungsbereich 30,
der auf der Oberfläche 32 des Werkstücks 26 vorgesehen ist,
strahlt. Die Lampe kann durch einen nicht dargestellten Beleuchtungsschalter
ein- und ausgeschaltet werden.
-
Der
Bilderfassungsabschnitt 36 umfasst ein Bilderfassungselement
(Bildsensor) 50, zur Umwandlung von reflektiertem Licht 48 (ein
reflektiertes optisches Bild des Werkstücks 26),
das durch die Oberfläche 32 des Werkstücks 26 reflektiert
wird und mit der Abbildungsfläche 28 übereinstimmt,
in ein Bilderfassungssignal und einen Signalprozessor 52 zur
Verstärkung des Bilderfassungssignals und zur Ausgabe desselben
zu der Sensorkopfsteuerung 40 synchron mit Zeitsteuerungssignalen
von der Sensorkopfsteuerung 40. Das Bilderfassungselement 50 kann
beispielsweise durch eine Photodiodenreihe, ein CCD-, ein CMOS-Bilderfassungselement
oder dergleichen gebildet werden.
-
Ein
nicht dargestelltes optisches Abbildungssystem ist an einer Zwischenposition
zwischen dem Werkstück 26 und dem Bilderfassungselement 50 vorgesehen
und in der Lage die Dimension, das heißt das Vergrößerungsverhältnis,
des Abbildungsbereiches 30, der auf die Oberfläche 32 des
Werkstücks 26 gestrahlt wird, zu verändern.
Mit Hilfe des optischen Abbildungssystems werden außerdem
geeignete Einstellungen des optischen Weges durchgeführt,
so dass in dem Bilderfassungssignal, das durch das Bilderfassungselement 50 aufgenommen
wird, keine Bildverzerrungen auftreten.
-
Entsprechend
eines Befehls von der Sensorkopfsteuerung 40 führt
die Kommunikationseinheit 38 eine Kommunikation mit dem
Bildprozessor 14 durch. In diesem Fall kann durch die Verwendung
von LVDS (Niederspannungsdifferentialsignalen, low voltage differential
signaling) der Energieverbrauch verringert werden, und Hochgeschwindigkeitssignalübertragungen,
die robust oder widerstandsfähig gegenüber Rauschen sind,
können durchgeführt werden. Der Bildprozessor 14 umfasst
eine Kommunikationseinheit 54, eine Speichereinheit 56,
eine Bildverarbeitungseinheit 58, eine Betätigungseinheit 60,
eine Anzeige 62, eine externe Kommunikationseinheit 64,
eine externe Kommunikationseinheit 66 und eine Steuerung 68.
-
Die
Kommunikationseinheit 54 führt nach einem Befehl
von der Steuerung 68 eine wechselseitige (bidirektionale)
Kommunikation mit dem Sensorkopf 12 durch. Die Speichereinheit 56 umfasst
einen Bildspeicher 70 zum Speichern von Bildsignalen, die
von dem Sensorkopf 12 erhalten werden, einen RAM-Speicher 71 zum zeitweiligen
Speichern verschiedener Parameter, die für die Bildverarbeitung
und dergleichen verwendet werden, und einen EEPROM 72 zum
Speichern intrinsischer Daten einschließlich einer Identifikationszahl
des Sensorkopfes 12, Sensorsensitivitätscharakterisken
und dergleichen.
-
Die
Bildverarbeitungseinheit 58 umfasst eine Extraktionseinheit 74,
eine Bestimmungseinheit 75, eine Erfassungseinheit 76,
eine Recheneinheit 77 und eine Messeinheit 78,
die durch Software und Hardware gebildet werden.
-
Die
Betätigungseinheit 60 wird durch Schalter und
Betätigungsknöpfe und dergleichen (nicht dargestellt)
gebildet, die zum Durchführen verschiedener Einstellungen
verwendet werden. Die Anzeige 62 besteht beispielsweise
aus einem LCD-Bildschirm, auf dem verschiedene numerische Werte
oder dergleichen, die sich auf Messbedingungen und/oder Messergebnisse
beziehen, angezeigt werden.
-
Die
beiden externen Kommunikationseinheiten 64, 66 sind
vorgesehen, um Verbindungen zu externen Vorrichtungen herzustellen.
Beispielsweise können die externen Kommunikationseinheiten 64, 66 mit
der übergeordneten Steuerung 18 verbunden sein,
um Befehle und verschiedene Daten zu übertragen bzw. zu empfangen,
oder sie können mit einem externen Personalcomputer (PC),
der nicht dargestellt ist, oder mit einem anderen nicht dargestellten
Bildprozessor 14 zur Datenkommunikation verbunden sein.
Diese Kommunikation ist nicht nur auf allgemeine Kommunikationsstandards,
wie USB 2,0, IEEE1394, RS-232C und dergleichen beschränkt,
sondern es können auch andere Kommunikationsstandards verwendet
werden, die dem Bildprozessor 14 eigen sind.
-
In
den 1 und 2 ist der Bildprozessor 14 über
die externe Kommunikationseinheit 66 mit der übergeordneten
Steuerung 18 verbunden.
-
Die
Steuerung 68 führt eine allgemeine umfassende
Steuerung des gesamten Bildprozessors 14 einschließlich
Steuerfunktionen zur Steuerung der Kommunikationseinheit 54,
der Speichereinheit 56, der Bildverarbeitungseinheit 58,
der Betätigungseinheit 60, der Anzeige 62 und
der externen Kommunikationseinheiten 64, 66 durch.
-
In
der Positionsmessvorrichtung 10 sind der Sensorkopf 12 und
der Bildprozessor 14, die in 1 gezeigt
sind, als separate individuelle Einheiten vorgesehen. Alternativ
können der Sensorkopf 12 und der Bildprozessor 14 auch
einstückig ausgebildet sein. In diesem Fall kann eine verbundene
Struktur eingesetzt werden, so dass auf die Kommunikationseinheit 38 und
die Kommunikationseinheit 54 verzichtet werden kann.
-
Die
Positionsmessvorrichtung 10 gemäß der
vorliegenden Ausführungsform ist im Wesentlichen wie oben
beschrieben aufgebaut. Nachfolgend wird die Betriebsweise der Positionsmessvorrichtung 10 mit
Bezug auf das Fließdiagramm gemäß 4 erläutert.
-
Nachdem
das Werkstück 26, das als ein Messobjekt dient,
auf dem Förderer 20 angebracht wurde, werden zunächst
Positions- und Ausrichtungseinstellungen des Sensorkopfes 12 (vgl. 1)
der Positionsmessvorrichtung 10 durchgeführt.
Wie in 2 gezeigt ist, führt ein Benutzer das
Ein/Aus-Schalten eines nicht dargestellten Beleuchtungsschalters
der Betätigungseinheit 60 durch, so dass ein Befehl
zum Ein- und Ausschalten der Beleuchtungseinheit 34 durch
die Betätigungseinheit 60, die Steuerung 68,
die Kommunikationseinheit 54, die Kabel 16 und
die Kommunikationseinheit 38 an die Sensorkopfsteuerung 40 gegeben
wird. Die gewünschten Operationen der Beleuchtungseinheit 34 werden
durch Ein- und Aussteuerung der Sensorkopfsteuerung 40 durchgeführt.
Da das Beleuchtungslicht 46 von der Beleuchtungseinheit 34 auf
die Oberfläche 32 des Werkstücks 26 gestrahlt
wird, kann die Position des Abbildungsbereiches 30 überprüft
werden, während der Benutzer Einstellungen der Position
und die Ausrichtung des Sensorkopfes 12 durchführt.
-
Wie
in den 1 und 3A bis 3C gezeigt
ist, sind eine kreisförmige Nut 82, eine dreieckige Nut 84,
eine quadratische Nut 86 und eine weitere kreisförmige
Nut 88 in dieser Reihenfolge von rechts oder genauer von
einer stromabwärtsseitigen Seite der Transportrichtung
gemäß der vorliegenden Ausführungsform
auf der Oberfläche 32 des Werkstücks 26 vorgesehen.
In 3A ist ein Zustand (Ursprungszustand) gezeigt,
bevor die Positionsmessvorrichtung die Messung durchführt.
Die kreisförmige Nut 82 liegt in einem im Wesentlichen
zentralen Abschnitt des Abbildungsbereiches 30, während
ein Teil der dreieckigen Nut 84 an der linken Kante des
Abbildungsbereiches 30 liegt.
-
Wenn
Muster mit kontrastierender Dichte als Bilder auf der Oberfläche 32 des
Werkstücks 26 vorliegen, so können die
Merkmale der vorliegenden Erfindung weiterhin verwendet werden,
auch wenn spezialisierte Nuten, wie die mit einer dreidimensionalen
Form, nicht vorhanden sind.
-
Wenn
die Antriebswalze 21 in der Richtung des Pfeils gedreht
wird, dann wird der Riemen 24 gleitend in der Richtung
des Umrisspfeiles bewegt, und das Werkstück 26,
das auf dem Riemen 24 des Förderers 20 angebracht
ist, wird ebenfalls in der Richtung des Umrisspfeiles transportiert
(vgl. 1). Durch diesen Transportvorgang des Werkstücks 26 ändert
sich die Positionsbeziehung zwischen dem Werkstück 26 und
dem Abbildungsbereich 30 allmählich mit der Zeit
von dem in 3A gezeigten Ursprungszustand
zu den Zuständen, die in den 3B und 3C gezeigt
sind.
-
Während
die Oberfläche 32 des Werkstücks 26,
die größer ist als der Abbildungsbereich 30,
durch den Transportvorgang des Förderers 20 bewegt
wird, können bei dem oben beschriebenen Vorgang Bilder
von jeder der Nuten (der kreisförmigen Nut 82 usw.)
auf der Oberfläche 32 des Werkstücks 26 durch
den Sensorkopf 12 erfasst werden.
-
Nachfolgend
wird mit Bezug auf das Fließdiagramm gemäß 4 eine
detaillierte Erläuterung eines Messverfahrens zum Messen
einer Länge des Werkstücks 26 mit Hilfe
der Positionsmessvorrichtung 10 gemäß der
vorliegenden Ausführungsform gegeben.
-
[Schritt S1]
-
Wenn
ein Benutzer einen Messinitiierungsknopf (nicht dargestellt) auf
der Betätigungseinheit 60, die in 2 gezeigt
ist, drückt, wird eine Anforderung zur Initiierung einer
Bilderfassung über die Betätigungseinheit 60,
die Steuerung 68, die Kommunikationseinheit 54,
die Kabel 16 und die Kommunikationseinheit 38 an die
Sensorkopfsteuerung 40 gemeldet. Anschließend
gibt die Sensorkopfsteuerung 40 einen Bilderfassungsbefehl
an den Bilderfassungsabschnitt 36 aus.
-
Am
Anfang wird ein Bildsignal zu einem Zeitpunkt t = 0 erhalten (Schritt
S1). Im Einzelnen wird ein Bildsignal erhalten, das ein Bild I(0)
innerhalb des Abbildungsbereiches 30 zu dem Zeitpunkt t
= 0 zeigt.
-
In
diesem Fall wird reflektiertes Licht 48 zur Ausbildung
eines reflektierten optischen Bildes des Werkstücks 26 zu
der Abbildungsfläche 28 gerichtet. Nach geeigneter
Einstellung des optischen Weges in dem nicht dargestellten optischen
Abbildungssystem wird eine elektrooptische Umwandlung durch das
Bilderfassungselement 50 innerhalb des Bereiches des Abbildungsbereiches 30 durchgeführt,
und ein Bildsignal wird ausgegeben. Das Bildsignal wird mit Zeitsteuersignalen
von der Sensorkopfsteuerung 40 synchronisiert und dann der
Sensorkopfsteuerung 40 zugeführt. Anschließend
wird das Bildsignal über die Kabel 16, die Kommunikationseinheit 54 und
die Steuerung 68 der Kommunikationseinheit 38 zugeführt
und in dem Bildspeicher 70 gespeichert.
-
Wie
in 5A gezeigt ist, wird auf diese Weise ein Bild
I(0) innerhalb des Abbildungsbereiches 30 erhalten (vgl.
auch 3A). Wie in 6A gezeigt
ist, wird in dem Bildsignal, das für das Bild I(0) innerhalb
des Abbildungsbereiches 30 steht, die Abstufungszahl (Gradierungszahl)
jedes der Pixel (64 vertikale, 64 horizontale) durch 256 Abstufungen
(8 Bit) gebildet. Der Einfachheit halber wird die Pixelzahl in der
Vertikalrichtung von –31 bis 32 angegeben, und die Pixelzahl
in der horizontalen Richtung wird ebenfalls von –31 bis
32 angegeben.
-
[Schritt S2]
-
Als
Nächstes wird eine Zielposition P0 von
dem Bild I(0) innerhalb des Abbildungsbereiches 30 eingestellt
(Schritt S2).
-
Von
den Bildsignalen, die in dem Bildspeicher 70 gespeichert
sind, wird ein Bildsignal (vgl. 5A) ausgelesen,
das für das Bild I(0) innerhalb des Abbildungsbereiches 30 steht,
und die Extraktionseinheit 74 extrahiert das Muster auf
der Oberfläche des Werkstücks 26 von
innerhalb des Bildes I(0). Gemäß der vorliegenden
Ausführungsform wird zur Spezifizierung der Position des
Musters, das durch die Extraktionseinheit 74 extrahiert
wird, die zentrale Position der kreisförmigen Nut 82 als
eine repräsentative Position bestimmt und als die Zielposition
P0 eingestellt.
-
Beispielsweise
werden mit Hilfe eines zweidimensionalen (x-y) Koordinatensystems,
wie es in 6B gezeigt ist, korrespondierende
Positionen für jedes der Pixel innerhalb des Abbildungsbereiches 30 definiert. Die
Skala des Koordinatensystems ist so definiert, dass eine Abstufung
in der Richtung der x-Achse sowie der y-Achse in ihrer Größe
der Pixelgröße entspricht (d. h. sie haben eine
Dimension entsprechend derjenigen eines Pixels).
-
Durch
diese Definition sind die beiden Dimensionskoordinaten, die den
Pixeln 90, 92, 94, 96 und 98 in 6A entsprechen
(0, 0), (32, 32), (–31, 32), (–31, –31)
bzw. (32, –31).
-
Da,
wie in 5A gezeigt ist, zu dem Zeitpunkt
t = 0 die kreisförmige Nut 82 im Wesentlichen
an der zentralen Position des Bildes I(0) liegt, wird die kreisförmige
Nut 82 als ein Muster extrahiert. Wie oben angegeben wurde,
wird zu diesem Zeitpunkt die Zielposition P0 als
ein Ursprung (0, 0) eingestellt, welcher der zentralen Position
der kreisförmigen Nut 82 entspricht. Gleichzeitig
werden die Koordinaten der Zielposition P0 (0, 0)
in der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71)
gespeichert.
-
[Schritt S3]
-
Als
Nächstes wird zu einem Zeitpunkt t = 1 ein Bildsignal I(1)
erhalten (Schritt S3). Im Einzelnen wird ein Bildsignal erhalten,
das ein Bild I(1) innerhalb des Abbildungsbereiches 30 zu
dem Zeitpunkt t = 1 darstellt.
-
Zu
dem Zeitpunkt t = 1 gibt die Sensorkopfsteuerung 40 einen
Bilderfassungsbefehl zu dem Bilderfassungsabschnitt 36 aus,
und ein Bildsignal, das das neu erfasste Bild I(1) repräsentiert,
wird in dem Bildspeicher 70 gespeichert. Diese Operationen
sind im Wesentlichen die gleichen, wie sie schon oben beschrieben
wurden, so dass auf ihre erneute detaillierte Beschreibung verzichtet
wird.
-
Auf
diese Weise wird das Bild I(1) innerhalb des Abbildungsbereiches 30 erhalten,
wie es in 5B gezeigt ist. Obwohl es möglich
ist, die Bilderfassungsperiode Δt auf jeden beliebigen
Wert einzustellen, wird zur Erleichterung der Erläuterung
in der vorliegenden Beschreibung die Bilderfassungsperiode Δt
als 1 angenommen. Außerdem versteht es sich, dass die vorliegende
Erfindung selbstverständlich auch bei Fällen anwendbar
ist, bei denen die Bilderfassungsperiode Δt keinen konstanten
Wert hat, oder anders ausgedrückt, wenn das Zeitintervall
zwischen aufeinanderfolgenden erfassten Bildern ungleichmäßig
ist.
-
[Schritt S4]
-
Als
Nächstes wird die Zielposition P0 von
dem Bild I(1) innerhalb des Abbildungsbereiches 30 angestrebt
(Schritt S4).
-
Von
den Bildsignalen, die in dem Bildspeicher 70 gespeichert
sind, wird ein Bildsignal (vgl. 5B) ausgelesen,
das dem Bild I(1) entspricht, und die Erfassungseinheit 76 erfasst
das Zielmuster P0 aus dem Bild I(1).
-
Als
Verfahren zur Identifikation einer festgelegten gemeinsamen Position
(oder einer gemeinsamen Fläche) aus den beiden Bildern
I(1) und I(0) kann ein Bereich-basiertes in Übereinstimmung
bringen („matching”) verwendet werden, das allgemein
bekannt ist.
-
Die 7A und 7B sind
schematische Ansichten, die Beispiele für ein bereichbasiertes
matching zeigen. Wie in 7A gezeigt
ist, wird ein Bereich einer festgelegten Größe
(beispielsweise ein Bereich mit 16×16 Pixeln), in dem die
Zielposition P0 in dem Zentrum des Bildes
I(0) liegt, extrahiert und vorab als eine Maske oder Vorlage („template”) 100 in
der Speichereinheit 56 (beispielsweise dem RAM-Speicher 71)
gespeichert. Andererseits wird ein betroffener Bereich 102,
in welchem eine optionale Position (beispielsweise in 7A eine
mittlere rechte Seite des Abbildungsbereiches 30) als Zentrum
verwendet wird, aus dem Bild I(1) innerhalb des Abbildungsbereiches 30 herausgeschnitten.
Die Pixelgröße (vertikale und horizontale Pixelzahl) des
betroffenen Bereiches 102 stimmt mit der des templates 100 überein.
-
Indem
ein NCC (normalisierter Kreuzkorrelations, normalized cross correlation) – Operator 104 auf das
template 100 und den betroffenen Bereich 102 einwirkt,
wird ein NCC-Wert berechnet, der als Index zur Anzeige des Ähnlichkeitsgrades
zwischen den beiden verglichenen Bildern dient. Da dieses Verfahren
im Gebiet der Bildverarbeitung gut bekannt ist, wird auf eine detaillierte
Beschreibung dieses Merkmals der vorliegenden Erfindung verzichtet.
-
Da
in 7A der betroffene Bereich 102 dem template 100 sehr
stark ähnelt, wird ein großer NCC-Wert angezeigt.
Andererseits wird in 7B ein betroffener Bereich 106,
in dem eine optionale Position (beispielsweise in 7B ein
mittleres linkes Ende des Abbildungsbereiches 30) des Bildes
I(1) innerhalb des Abbildungsbereiches 30 als das Zentrum
verwendet wird, herausgeschnitten.
-
Da
der betroffene Bereich 106 dem template 100 nicht
sehr ähnelt, wird ein geringer NCC-Wert angezeigt.
-
Auf
diese Weise kann eine zentrale Position des betroffenen Bereiches 102,
für welchen der NCC-Wert aus dem Bild I(1) innerhalb des
Abbildungsbereiches 30 maximal ist, als die Zielposition
P0 im Bild I(1) angenommen werden.
-
Die 8A und 8B sind
schematische Ansichten, die andere Beispiele eines bereich-basierten matchings
zeigen.
-
Indem
in den 8A und 8B ein
SAD (Summe der absoluten Abweichung, sum of absolute differences)-Operator 108 auf
das template 100 und die betroffenen Bereiche 102, 106,
die in der oben beschriebenen Weise ausgeschnitten wurden, einwirkt,
wird ein SAD-Wert berechnet, der als ein Index zur Anzeige der Größe
des Unterschiedes zwischen den beiden verglichenen Bildern dient.
Da dieses Verfahren im Gebiet der Bildverarbeitung allgemein bekannt
ist, wird auf eine detaillierte Beschreibung dieses Merkmals der
vorliegenden Erfindung verzichtet.
-
Da
in 8A der betroffene Bereich 102 dem template 100 stark ähnelt,
wird ein geringer SAD-Wert angezeigt. Andererseits wird in 8B ein
betroffener Bereich 106, in dem eine optionale Position
(beispielsweise in 8B ein mittleres linkes Ende
des Abbildungsbereiches 30) des Bildes I(1) innerhalb des
Abbildungsbereiches 30 als Zentrum verwendet wird, ausgeschnitten.
Da der betroffene Bereich 106 dem template 100 nicht
sehr ähnelt, wird ein großer SAD-Wert angezeigt.
-
Auf
diese Weise kann eine zentrale Position der betroffenen Region 102,
für welche der SAD-Wert in dem Bild I(1) innerhalb des
Abbildungsbereiches 30minimal ist, als die Zielposition
P0 innerhalb des Bildes I(1) angenommen
werden.
-
9 ist
eine schematische Ansicht, die einen Verschiebungsweg (Größe
der Verschiebung) einer Zielposition P0 innerhalb
des Abbildungsbereiches 30 darstellt. Wenn das Suchergebnis
für die Position P0 in dem Schritt
S4 berechnet wird, während die Ziffern rechts des Dezimalpunktes
weggestrichen werden, so dass P0 (t = 0)
= (0, 0) und P0 (t = 1) = (14, 0) ist, wird
der Verschiebungsweg der Zielposition P0 der
Vektorwert ΔP0 = (14, 0).
-
Da
das Bildsignal, welches das Bild I(t) repräsentiert, aus
diskreten Daten besteht, können die Koordinaten der Zielposition
P0 lediglich durch ein integrales Mehrfaches
(mit anderen Worten einen Integerwert) der Pixel ausgedrückt
werden. Durch Verwendung einer Sub-Pixel-Abschätzung können
die Koordinatenwerte, die die Pixelauflösung überschreiten,
ausgedrückt werden.
-
In
diesem Fall bezeichnet ”Sub-Pixel-Abschätzung” ein
Positionsabschätzungsverfahren, bei dem virtuell rationale
Zahlen eingeführt werden, wenn Koordinaten durch diskrete
Daten ausgedrückt werden. Als Folge hiervon kann die räumliche
Auflösung künstlich verbessert werden und Quantifizierungsfehler
können verhindert werden.
-
Als
Nächstes wird ein detailliertes Beispiel einer Sub-Pixel-Abschätzung
beschrieben. Zunächst wird ein NCC (oder SAD)-Wert um eine
zentrale Position jedes Pixels des Bildsignals bestimmt. Dann wird
ein 3-Pixel mal 3-Pixel Bereich in der Umgebung des maximalen (oder
minimalen) Wertes extrahiert. Eine Tendenz (drei Datenpaare) des
NCC (oder SAD) relativ zu der x-Achse wird als eine zweidimensionale
Kurve interpoliert. Eine Position (Wert des Pixels als rationale
Zahl) entsprechend der Achse der zweidimensionalen Kurve wird berechnet
und als x-Achsenkoordinate der Zielposition P0 bestimmt.
In ähnlicher Weise wird eine Tendenz (drei Datenpaare)
des NCC (oder SAD) relativ zu der y-Achse als die zweidimensionale
Kurve interpoliert. Eine Position (Wert des Pixels als rationale
Zahl) entsprechend der Achse der zweidimensionalen Kurve wird berechnet
und als eine y-Achsenkoordinate der Zielposition P0 bestimmt.
Auf diese Weise können die x und y Koordinaten der Zielposition
P0 bestimmt werden.
-
In
dem Fall, dass die Sub-Pixel-Abschätzung verwendet wird,
sind die Suchergebnisse der Zielpositionen P0,
die in 9 gezeigt sind, P0 (t
= 0) = (0, 0) und P0 (t = 1) = (14,5, 0),
und der Verschiebungsweg der Zielposition P0 wird
mit höherer Genauigkeit der Vektorwert ΔP0 = (14,5, 0).
-
Außerdem
ist die Sub-Pixel-Abschätzung bei der vorliegenden Ausführungsform
nicht auf das oben beschriebene Verfahren beschränkt, sondern
es können verschiedene andere Methoden verwendet werden.
-
[Schritt S5]
-
Als
Nächstes erfolgt eine Abschätzung, um zu bestimmen,
ob die Position, die der Zielposition P0 entspricht,
in dem Bild I(1) innerhalb des Abbildungsbereiches 30 liegt
(Schritt S5). Diese Abschätzung wird durch die Bestimmungseinheit 75 (vgl. 2)
auf der Basis des Suchergebnisses der Zielposition P0 in
Schritt S4 durchgeführt.
-
Beispielsweise
besteht in dem Fall, dass ein Teil des Musters (kreisförmige
Nut 82), das der Zielposition P0 in
dem Bild I(1) innerhalb des Abbildungsbereiches 30 zugehört,
die Möglichkeit, dass die Suche fehlschlägt, wenn
eine Suchberechnung mit Hilfe des oben beschriebenen bereichs-basierten
matching durchgeführt wird, unabhängig davon,
ob die Zielposition P0 aktuell innerhalb
des Abbildungsbereiches 30 liegt oder nicht.
-
In
einem solchen Fall besteht die Befürchtung, dass das Muster
(kreisförmige Nut 82), das durch die Extraktionseinheit 74 extrahiert
wird, den Abbildungsbereich 30 verfehlt, wenn das nächste
Bild aufgenommen wird. Dies kann in die Beurteilung einfließen,
dass das Muster zu der vorliegenden Zeit nicht in dem Bild I(1) innerhalb
des Abbildungsbereiches 30 liegt.
-
[Schritt S6]
-
In
dem Fall, dass geurteilt wird, dass die der Zielposition P0 entsprechende Position in dem Bild I(1) innerhalb
des Abbildungsbereiches 30 liegt, wird der Vektor ΔP0, der den Verschiebungsweg der Zielposition P0 von dem Bild I(0) zu dem Bild I(1) anzeigt,
berechnet (Schritt S6) und dessen Wert wird in der Speichereinheit 56 (beispielsweise
dem RAM-Speicher 71) gespeichert. Diese Berechnung wird
durch die Recheneinheit 77, die in 2 gezeigt
ist, durchgeführt.
-
[Schritt S7]
-
Als
Nächstes wird die festgelegte Länge auf der Oberfläche 32 des
Werkstücks 26, welches das Messobjekt bildet,
gemessen (Schritt S7). Details des Verfahrens, mit welchem dieser
Schritt durchgeführt wird, werden später erläutert.
-
[Schritte S8 bis S9]
-
Als
Nächstes wird eine Abschätzung zur Beendigung
der Bilderfassung (Schritt S8) durchgeführt. In dem Fall,
dass die Bilderfassung mit Hilfe des Sensorkopfes 12 fortgeführt
wird, ohne dass ein Bilderfassungsbeendigungsbefehl durch einen
Hardware- oder Softwareunterbrecher ausgegeben wird, wird eine festgelegte Zeitperiode
abgewartet bis es möglich wird, zu dem nächsten
Zeitpunkt (t = 2) ein Bildsignal, welches das Bild I(2) repräsentiert,
zu erhalten (Schritt S9).
-
Ab
diesem Zeitpunkt wird die Bilderfassung fortgeführt und
die Schritte S3 bis S9 werden so lange wiederholt, wie die Position,
die der Zielposition P0 entspricht, innerhalb
des Bildes I(t) innerhalb des Abbildungsbereiches 30 liegt.
-
[Schritt S10]
-
Anschließend
wird, wie in 3B gezeigt ist, zu einer festgelegten
Zeit t eine neue Zielposition P1, die sich
von der Zielposition P0 unterscheidet, von
dem Bild I(t) innerhalb des Abbildungsbereiches 30 eingestellt, wenn
zum ersten Mal festgestellt wird, dass die Position, die der Zielposition
P0 entspricht, nicht in dem Bild I(t) innerhalb
des Abbildungsbereiches 30 liegt (Schritt S10). Wie in 2 gezeigt
ist, wird aus den Bildsignalen, die in dem Bildspeicher 70 gespeichert
sind, ein Bildsignal, das dem Bild I(0) zugeordnet ist, ausgelesen, und
ein Muster auf der Oberfläche 32 des Werkstücks 26 wird
von innerhalb des Bildes I(0) durch die Extraktionseinheit 74 extrahiert. Ähnlich
Schritt S1 wird eine Zielposition P1 bestimmt
und als eine repräsentative Position des durch die Extraktionseinheit 74 extrahierten
neuen Musters eingestellt. Gleichzeitig werden die Koordinaten der
neuen Zielposition P1 in der Speichereinheit 56 (beispielsweise
dem RAM-Speicher 71) gespeichert.
-
Als
Nächstes wird mit Bezug auf das Fließdiagramm
gemäß 10 ein
Verfahren zum Einstellen der neuen Zielposition P1,
die sich von der Zielposition P0 unterscheidet,
aus dem Bild I(t) innerhalb des Abbildungsbereiches 30 im
Detail beschrieben.
-
Zunächst
wird eine Extraktion von Kandidatenpositionen auf der Basis der
Pixelwertverteilung durchgeführt (Schritt S101).
-
In
dem Fall, dass die Fläche in der Umgebung der neu eingestellten
Zielposition P1 insgesamt einen durchschnittlichen
Pixelwert besitzt, wäre die Suche nach der Zielposition
P1 (Schritt S4 in 4) in dem
Bild I(t) innerhalb des Abbildungsbereiches 30 außerordentlich
schwierig. Dementsprechend wird eine Position, an welcher die Möglichkeiten
zur Suche vielversprechend sind, d. h. in welcher die Varianz der
Pixelwerte benachbarter Pixel vergleichsweise groß ist,
als eine Kandidatenposition {Qj} für
die Zielposition P1 extrahiert.
-
Hierbei
wird ein Fall berücksichtigt, in dem eine Mehrzahl von
individuellen (M) Kandidatenpositionen existiert, und eine solche
Gruppe von Kandidatenpositionen wird als {Qi}
(j = 1, 2, ..., M) bezeichnet.
-
Wie
in 11 gezeigt ist, werden bei Annahme des zentralen
Pixels (0, 0) des Abbildungsbereiches als Startpunkt charakteristische
Bildwerte für jedes der Pixel, die in den Richtungen von
vier Pfeilen (SE, SN, SW, SS) nacheinander
berechnet, und das Pixel, bei dem der charakteristische Pixelwert
zum ersten Mal einen festgelegten Wert überschreitet, wird
als eine Kandidatenposition ausgewählt. In diesem Fall
ist der charakteristische Pixelwert als ein Auswertewert definiert,
der mit einer Erhöhung der Pixelwertvarianz benachbarter Pixel
größer wird. Beispielsweise kann eine Standardabweichung
innerhalb des betroffenen Bereiches (definiert als der betroffene
Bereich 102 und dgl., der in 7 gezeigt
ist) oder eine Gesamtsumme der Differenz der Signalwerte zwischen
den Pixelwerten und deren Durchschnittswert innerhalb des betroffenen
Bereiches oder dgl. als der charakteristische Pixelwert verwendet
werden.
-
Da
die dreieckige Nut 84 in der Richtung des Pfeils SE liegt, während die quadratische
Nut 86 in der Richtung des Pfeils SW liegt,
wird eine barizentrische (Schwerpunkt) Position dazwischen als die
Kandidatenposition ausgewählt. Da im Hinblick auf die Richtung
der Pfeile SN und SS von
dem zentralen Pixel (0, 0) die Pixelwerte bis zu der Umgebung der
Grenze des Abbildungsbereiches 30, in dem charakteristische
Pixelwerte für jedes der Pixel berechnet werden, einheitlich
sind, wird andererseits die Berechnung mit dem Ergebnis abgeschlossen,
dass die Kandidatenposition {Qj) nicht darin
liegt.
-
Wird
das oben beschriebene Verfahren verwendet, so kann im Vergleich
zu dem Fall der Berechnung von charakteristischen Pixelwerten für
alle Pixel innerhalb des Abbildungsbereiches der arithmetische Rechenaufwand,
der für die Verarbeitung erforderlich ist, dramatisch reduziert
werden. Auf diese Weise wird ein Maximum von vier (in 11 zwei)
Kandidatenpositionen {Qj} extrahiert.
-
Als
Nächstes wird die Positionsbeziehung zwischen der vorherigen
Zielposition P0 und den Kandidatenpositionen
{Qj} untersucht (Schritt S102).
-
Es
ist wichtig, dass die vorherige Position P0 und
die Zielposition P1, die zur aktuellen Zeit
eingestellt wird, gleichzeitig in wenigstens einem Bild I(t) innerhalb
des Abbildungsbereiches 30 existieren. Andernfalls könnte
die Positionsbeziehung zwischen der Zielposition P0 und
der Zielposition P1 nicht identifiziert
werden. Daher wird mit Bezug auf alle Kandidatenpositionen {Qj}, die in Schritt S101 extrahiert wurden,
zunächst untersucht, ob die Zielposition P0 und
die Kandidatenposition {Qj} jeweils gleichzeitig
in wenigstens einem Bild I(t) innerhalb des Abbildungsbereiches 30 existieren
oder nicht.
-
Unter
Ausnutzung der Tatsache, dass die Zielposition P0 definitiv
innerhalb des Bildes I(t – 1) innerhalb des Abbildungsbereiches 30 existiert,
kann ein Verfahren eingesetzt werden, um zu bestimmen, ob die Kandidatenposition
{Qj} ebenfalls innerhalb des Bildes I(t – 1)
innerhalb des Abbildungsbereiches 30 existiert oder nicht.
In diesem Fall kann das Verfahren des bereichs-basierten matching,
das oben beschrieben wurde, verwendet werden.
-
Zum
Schluss wird eine Position aus den Kandidatenpositionen {Qj} ausgewählt, und die neue Zielposition
P1 wird an der oben genannten einen Position
eingestellt (Schritt S103). Beispielsweise wird in dem Fall, dass
eine individuelle Kandidatenposition {Qj}
in dem Bild I(t – 1) innerhalb des Abbildungsbereiches 30 liegt, die
Zielposition P1 an der Kandidatenposition
eingestellt. In dem Fall, dass mehrere individuelle Kandidatenpositionen
{Qj} in dem Bild I(t – 1) innerhalb
des Abbildungsbereiches 30 liegen, wird die Zielposition
P1 als eine Kandidatenposition eingestellt,
bei welcher der charakteristische Bildwert maximal ist.
-
Auf
diese Weise kann eine neue Zielposition P1,
die sich von der Zielposition P0 unterscheidet,
aus dem Bild I(t) innerhalb des Abbildungsbereiches 30 eingestellt
werden.
-
[Schritt S11]
-
Als
Nächstes wird ein Vektor P0P1, der ein dynamisch zugeordneter Verschiebungsweg
der Zielposition P0 ist, berechnet (Schritt
S11). Diese Berechnung wird in der Recheneinheit 77, die
in 2 gezeigt ist, durchgeführt.
-
Da
bei der vorliegenden Ausführungsform die Zielposition P1 so eingestellt ist, dass sowohl die Zielposition
P0 als auch die Zielposition P1 in
dem Bild I(t – 1) innerhalb des Abbildungsbereiches 30 liegt,
kann der Vektor P0P1 einfach
bestimmt werden. Durch Durchführen der Schritte S10 und
S11 wird auf diese Weise die neue Zielposition P1 (allgemeine
Gleichung: Pi+1) relativ zu der aktuellen
Zielposition P0 (allgemeine Gleichung: Pi) eingestellt.
-
Als
Nächstes wird eine Beurteilung zur Beendigung der Bilderfassung
durchgeführt (Schritt S8). In dem Fall, dass die Bilderfassung
ohne einen Befehl zur Beendigung derselben weitergeführt
werden soll, wird zu der aktuellen Zeit eine festgelegte Zeit bis
zu einer nächsten Zeit (t + 1), während welcher
die Akquisition des Bildes I(t + 1) aus dem Inneren des Abbildungsbereiches 30 ermöglicht
wird, beibehalten (Schritt S9).
-
[Detaillierte Beschreibung des Schrittes
S7]
-
Wie
oben beschrieben wurde, wird während der Bilderfassung
(in Echtzeit) eine festgelegte Länge auf der Oberfläche 32 des
Werkstücks 26, welches als das Messobjekt dient,
gemessen (Schritt S7). Nachfolgend wird mit Bezug auf das Fließdiagramm,
das in 12 gezeigt ist, das Messverfahren
im Einzelnen erläutert.
-
Mit
Hilfe des Positionsmessverfahrens gemäß der vorliegenden
Ausführungsform werden (N + 1) individuelle Zielpositionen
(N ist eine positive natürliche Zahl), oder im Einzelnen
Positionen P0 bis PN auf
der Oberfläche 32 des Werkstücks 26 eingestellt
(vgl. 13). Daten des dynamisch zugeordneten
Verschiebungsweg-Vektors {PiPi+1},
die in dem RAM-Speicher 71, der in 2 gezeigt
ist, gespeichert sind, werden ausgelesen. Auf der Basis dieser Daten
wird durch die Messeinheit 78 die Längenmessung
durchgeführt.
-
Zunächst
werden ein erster Punkt X1, der einen Längenmessstartpunkt
definiert, und ein zweiter Punkt, der einen Längenmessendpunkt
definiert, bestimmt (Schritt S71). Als ein Beispiel der Bestimmung
dieser Punkte kann der Benutzer mit Bezug auf das Bild, das auf
der in 2 gezeigten Anzeige 62 angezeigt wird,
durch ein Einstellmittel, beispielsweise ein GUI (grafische Benutzeroberfläche,
graphical user interface) oder dgl., den ersten Punkt X1 und
den zweiten Punkt X2 einstellen. Außerdem
kann eine Markierung zur Ermöglichung einer Unterscheidung
(Diskriminierung) des Startpunktes und des Endpunktes auf der Oberfläche 32 des
Werkstücks 26 angebracht werden. Der Benutzer
stellt normalerweise vor der Initiierung der Längenmessung
vorab den ersten Punkt X1 als den Startpunkt
der Längenmessung ein.
-
Als
Nächstes wird eine Zielposition Pm (0 ≤ m ≤ N)
in der Nähe des ersten Punkts X1 bestimmt
(Schritt S72). Hierbei ist es in wenigstens einem Bild I(t) innerhalb
des Abbildungsbereiches 30 notwendig, dass sowohl der erste
Punkt X1 als auch die Zielposition Pm existieren. Angenommen, dass eine Zielposition
Pm existiert, die diese Bedingung erfüllt,
kann jede Position ausgewählt werden.
-
Als
Nächstes wird ein Vektor X1Pm, der die Relativposition zwischen dem ersten
Punkt X1 und der Zielposition Pm definiert,
berechnet (Schritt S73). Da der erste Punkt X1 und
die Zielposition Pm beide innerhalb des Bereiches
liegen, der durch das Bild I(t1) innerhalb
des Abbildungsbereiches 30 zu der festgelegten Zeit t1 liegt, kann der Vektor X1Pm einfach bestimmt werden.
-
Als
Nächstes wird eine Zielposition Pn (0 ≤ m < n ≤ N)
in der Nähe des zweiten Punkts X2 bestimmt (Schritt
S74). Hierbei ist es notwendig, dass in wenigstens einem Bild I(t)
innerhalb des Abbildungsbereiches 30 sowohl der zweite
Punkt X2 als auch die Zielposition Pn existieren. Angenommen, dass eine Zielposition
Pn, die diese Bedingung erfüllt,
existiert, kann jede Position ausgewählt werden.
-
Als
Nächstes wird ein Vektor X2Pn, welcher die Relativposition zwischen dem
zweiten Punkt X2 und der Zielposition Pn definiert, berechnet (Schritt S75). Da
der zweite Punkt X2 und die Zielposition
Pn beide innerhalb des Bereiches liegen,
der durch das Bild I(t2) innerhalb des Abbildungsbereiches 30 zu
der festgelegten Zeit t2 repräsentiert
wird, kann der Vektor X2Pn einfach
bestimmt werden.
-
Als
Letztes wird ein Verschiebungsvektor zwischen dem ersten Punkt X
1 und dem zweiten Punkt X
2 berechnet
(Schritt S76). Der Verschiebungsvektor X
1X
2 wird durch folgende Gleichung (1) bestimmt:
-
Auf
diese Weise dient die Zielposition {Pi},
die eine repräsentative Position des Musters, das durch
die Extraktionseinheit 74 (2) extrahiert
wurde, darstellt, als ein Zuordnungspunkt. Als Folge hiervon kann
eine optionale Position innerhalb des Bildes, in welcher wenigstens
eine Zielposition existiert, durch die obige Gleichung (1) ausgedrückt
werden.
-
Schließlich
kann durch Multiplikation der Bildgröße (der Dimension
eines Pixels) relativ zu der x-Achsenverschiebung und der y-Achsenverschiebung,
die Einheiten der Pixelzahl definieren, die Länge in aktuellen Dimensionen
bestimmt werden. Außerdem kann die Pixelgröße
auf der Basis des Bilderfassungsvergrößerungsverhältnisses
(das in dem nicht dargestellten optischen Abbildungssystem eingestellt
ist) und der Auflösung des Bilderfassungselementes 50,
die bekannt ist, berechnet werden.
-
Außerdem
kann vor der Messung der Länge die Pixelgröße
durch Verwenden eines Bildes eines Hochpräzisionsreferenzzielobjektes
(dessen Größe bereits bekannt ist), Messen der
Pixelzahl und Dividieren der bekannten Größe durch
die Pixelzahl bestimmt werden.
-
Ist
die Position des ersten Punktes X1, der
den Messstartpunkt darstellt, vorab eingestellt worden, kann außerdem
das oben beschriebene Positionsmessverfahren weiterhin auch bei
einer Konfiguration durchgeführt werden, bei welcher lediglich
das Bildsignal des Bildes I(t), das notwendig ist, um die Zielposition
{Pi} zu spezifizieren, in dem Bildspeicher 70 der
Speichereinheit 56 gespeichert sein kann und ein Bildsignal
des anderen Bildes I(t) nicht gespeichert ist (d. h., dass das andere
Bild I(t) zerstört wird, nachdem an ihm eine festgelegte
Bildverarbeitung durchgeführt wurde). Dieser Fall wird
bevorzugt, da die Speicherkapazität der Speichereinheit 56 verringert
werden kann. Außerdem wird die Zahl der Zugriffe auf den
Speicher reduziert.
-
Die
Positionsmessvorrichtung und das Positionsmessverfahren gemäß der
vorliegenden Erfindung sind nicht auf die oben beschriebenen Ausführungsformen
beschränkt. Vielmehr sind verschiedene Alternativen und
zusätzliche Merkmale und Ausgestaltungen möglich,
ohne den Schutzumfang der vorliegenden Erfindung zu verlassen.
-
Auch
wenn bei der vorliegenden Ausführungsform eine Gestaltung
verwendet wird, bei welcher Beleuchtungslicht 46 von der
Oberfläche 32 des Werkstücks 26 reflektiert
und ein reflektiertes optisches Bild durch das Bilderfassungselement 50 aufgenommen
wird, kann beispielsweise auch natürliches Licht verwendet
werden. Es kann auch ein optisches Bild, das von dem Messobjekt
selbst ausgegeben wird, durch das Bilderfassungselement 50 erfasst
werden.
-
Außerdem
kann das Bilderfassungselement 50 durch einen Monochromsensor
(d. h. ein Sensorelement mit einer einzigen Lichtaufnahmewellenlängencharakteristik)
oder einen Farbsensor (d. h. ein Sensorelement mit mehreren Lichtaufnahmewellenlängencharakteristiken)
gebildet werden. In diesem Fall kann der Bildprozessor 14 Kommunikationen
und Bildverarbeitung entsprechend dem Datentyp der erhaltenen Bildsignale
durchführen.
-
Obwohl
bei der vorliegenden Ausführungsform ein Fall dargestellt
wurde, bei dem die Position und Ausrichtung des Sensorkopfes 12 fixiert
sind und das Werkstück 26, das auf dem Förderer 20 angebracht
ist, durch Transport auf dem Förderer 20 bewegt
wird, ist außerdem das Mittel zur Bewirkung einer Relativbewegung
gegenüber dem Sensorkopf 12 über der
Oberfläche 32 des Werkstücks 26 nicht
auf diesen Fall eingeschränkt. Beispielsweise kann auch
eine Bilderfassung durchgeführt werden, indem der Sensorkopf 12 parallel zu
der Oberfläche 32 des Werkstücks 26 verschoben
wird, während das Werkstück 26 an seiner
Position fixiert ist. Außerdem kann das Messobjekt selbst
einen Antriebsmechanismus aufweisen, wodurch ein Bild des sich bewegenden
Messobjektes erfasst wird.
-
Wird
eine Konfiguration angenommen, bei welcher herkömmliche
Bilderkennungstechniken in der Bildverarbeitungseinheit 58 integriert
sind, können außerdem nicht nur zweidimensionale
Längenmessungen, sondern auch Form- und Farbunterscheidungsprozesse
durchgeführt werden.
-
Außerdem
können bei der Positionsmessvorrichtung und dem Positionsmessverfahren
gemäß der vorliegenden Erfindung nicht nur zweidimensionale
Koordinaten (X, Y), sondern auch dreidimensionale Koordinaten (X,
Y, Z) verwendet werden. In diesem Fall können Verschiebungen
in der Richtung der z-Achse durch Erfassen eines Vergrößerungs-/Verkleinerungsverhältnisses
des Musters realisiert werden.
-
Wenn
Positionsmessungen an zwei optionalen Punkten durchgeführt
werden, können außerdem die Länge, dreidimensionale
Verschiebung und der Winkel (Winkelverschiebung um eine dritte Position)
eindeutig bestimmt werden. Dementsprechend dienen die Positionsmessvorrichtung
und das Positionsmessverfahren gemäß der vorliegenden
Erfindung nicht nur als Längenmesssensor und Verschiebungssensor,
sondern können auch als Winkelsensor, Geschwindigkeitssensor
oder dgl. eingesetzt werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - JP 2002-013948
A [0003]
- - JP 2003-148918 A [0003]