DE10212916A1 - Optischer Versetzungssensor - Google Patents
Optischer VersetzungssensorInfo
- Publication number
- DE10212916A1 DE10212916A1 DE10212916A DE10212916A DE10212916A1 DE 10212916 A1 DE10212916 A1 DE 10212916A1 DE 10212916 A DE10212916 A DE 10212916A DE 10212916 A DE10212916 A DE 10212916A DE 10212916 A1 DE10212916 A1 DE 10212916A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- displacement sensor
- images
- optical displacement
- sensor according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Ein optischer Versetzungssensor nimmt eine Vielzahl von Bildern eines Zielobjektes durch Einstrahlung eines Spaltlichtbündels und unter Verwendung eines zweidimensionalen Bildaufnahmeelementes auf, wobei die Bildaufnahmebedingungen jedesmal verändert werden. Parameter, die diese Bedingungen definierten, die die Helligkeit des erhaltenen Bildes beeinflussen, werden verändert. Von jedem dieser Bilder, einschließend ein Bild eines Abschnittes der Schnittumrisslinie des Zielobjektes wird ein segmentiertes Bild extrahiert, das eine spezifizierte Bedingung maximaler Helligkeit erfüllt, und ein synthetisiertes Bild wird durch die Zusammenfassung derartiger segmentierter Bilder erzeugt. Das Zielobjekt wird anhand eines derartigen synthetisierten Bildes inspiziert.
Description
Diese Erfindung betrifft einen optischen Versetzungs
sensor zur Untersuchung der Schnittumrissform eines Zielob
jektes. Insbesondere betrifft diese Erfindung einen derar
tigen optischen Sensor, der dazu in der Lage ist, mit einem
hohen Grad an Genauigkeit die Schnittumrissform eines
Zielobjektes einer Art zu überprüfen, die so geformt ist,
dass mit einheitlicher Dichte ein Umrissbild eines opti
schen Schnittbildes wegen seiner Oberflächenmerkmale schwer
zu erhalten ist.
Es ist ein optischer Versetzungssensor nach dem Stand
der Technik für einen derartigen Zweck bekannt, der dadurch
gekennzeichnet ist, dass er Lichtprojektionsmittel zur
Ausbildung eines Spaltbündels aus Licht einer Lichtquelle
und Einstrahlung dieses Bündels unter einem spezifizierten
Winkel auf ein Zielobjekt, Abbildungsmittel zur Gewinnung
eines Bildes einer Schnittumrisslinie des Zielobjektes
durch eine optische Schnittebene unter Verwendung eines
zweidimensionalen Bildaufnahmeelementes unter einem anderem
Winkel, um die Einfallslage des Spaltbündels auf dem Ziel
objekt zu photographieren, und Messmittel zur Durchführung
eines spezifizierten Verfahrens auf dem durch die Abbil
dungsmittel erhaltenen Bild der Umrisslinie aufweist, womit
ein Messwert und/oder ein Beurteilungswert erzeugt wird.
Die Richtung der Schnittoberfläche durch das Spaltbündel
entspricht der Richtung des senkrechten Abtastens innerhalb
des Gesichtsfeldes des zweidimensionalen Bildaufnahmeele
mentes. Wenn der Abstand zwischen dem Messgerät und dem
Zielobjekt verändert wird, bewegt sich das Bild der Schnit
tumrisslinie, das durch das Spaltbündel gebildet wird, auf
der Lichtempfangsoberfläche des zweidimensionalen Bildauf
nahmeelementes in dieselbe Richtung wie diejenige der
horizontalen Abtastlinie.
Mit einem derartigen Sensor können Daten über eine
Reihe von Zielpunkten auf einer geraden Linie auf der
Oberfläche des Zielobjektes summarisch erhalten werden,
ohne das projizierte Licht bezüglich des Zielobjekts zu
bewegen, da ein Spaltbündel mit einer Querschnittform einer
Zeile anstatt eines Punktlichtes mit einem punktförmigen
Querschnitt verwendet wird. Somit können, wenn ein derarti
ger Sensor dazu verwendet wird, industrielle Produkte zu
untersuchen, die entlang einer Fertigungsstraße transpor
tiert werden, fehlerhafte Produkte schnell und zuverlässig
identifiziert werden, indem verschiedenen Teile ihrer
Oberflächen gemessen werden.
Industrielle Produkte werden in verschiedenen Formen
und Gestalten hergestellt, einschließlich solcher die
nichtgleichförmige Oberflächenzustände wie z. B. die Ober
flächenrauheit oder die Farbe, aufweisen, so dass das
Reflexionsvermögen nicht gleichförmig ist. Für ein derarti
ges Produkt soll Bereich A ein Abschnitt seiner Oberfläche
mit hohem Reflexionsvermögen und Bereich B ein Abschnitt
mit niedrigem Reflexionsvermögen sein. Wenn das zweidimen
sionale Bildaufnahmeelement so eingestellt wird, dass der
Bildbereich A deutlich herauskommt, ist die Helligkeit
(oder Klarheit) des Bildes von Bereich B nicht ausreichend.
Wenn das Element so eingestellt wird, dass das Bild von
Bereich B deutlich herauskommt, ist andererseits das Bild
von Bereich A zu hell, und es kann keine genaue Messung
durchgeführt werden.
Fig. 41A und 41B veranschaulichen Probleme dieser Art.
Fig. 41A zeigt auf ihrer linken Seite eine Querschnittsei
tenansicht eines Objektes mit einem linken Teil mit hohem
Reflexionsvermögen und einem rechten Teil mit niedrigem
Reflexionsvermögen. Sein Bild, das von einem zweidimensio
nalen Bildaufnahmeelement aufgenommen ist, wie oben er
klärt, wird auf der rechten Seite gezeigt. In diesem Bei
spiel ist ein Bild der linken Seite des Objektes sichtbar,
aber es ist keine ausreichende Reflexion des Lichts vom
rechten Teil vorhanden, und es ist nicht möglich, die
Schnittumrisslinie des rechten Teils zu messen. Im Bild auf
der rechten Seite stellt die horizontale Richtung die
Richtung der Schnittfläche des Spaltlichtbündels dar, und
die vertikale Richtung entspricht der Richtung der Höhe das
Zielobjektes. Das Bild des Einfallbündels auf dem Zielob
jekt sollte eine gerade horizontale Zeile sein, die sich
über den ganzen Bildschirm erstreckt, aber seine rechte
Seite ist in diesem Beispiel wegen seines niedrigen Refle
xionsvermögens nicht sichtbar. Wenn auf der Grundlage eines
derartigen Bildes Messungen durchgeführt werden, kann die
Höhe auf der linken Seite gemessen werden, aber auf der
rechten Seite kann keine Messung durchgeführt werden.
Fig. 41B zeigt ein weiteres Zielobjekt, das eine Nut
mit einem niedrigen Reflexionsvermögen aufweist, die zwi
schen einem rechten und linken Teil mit hohem Reflexions
vermögen zwischengenommen ist. Das von diesem Objekt aufge
nommene Bild zeigt, dass der Abschnitt der Nut wegen seines
niedrigen Reflexionsvermögens, wie durch eine gestrichelte
kreisförmige Linie angegeben, fehlt.
Im Fall eines Objektes mit abgeschrägten Oberflächen
abschnitten haben die abgeschrägten Abschnitte die Tendenz,
ein geringeres Reflexionsvermögen aufzuweisen, was keine
genauen Messungen ermöglicht. Fig. 42A zeigt ein Beispiel
eines derartigen Zielobjektes. Das Bild, das von einem
zweidimensionalen Bildaufnahmeelement gewonnen wird, um
fasst drei Zeilen, die das Bild des auf das Zielobjekt zum
Einfall gebrachten Spaltlichtbündel darstellen. Das Bild
zeigt, dass die Abschnitte, die den Abschrägungen entspre
chen, fehlen. Somit können die Höhe des linken und des
rechten Endabschnittes und des oberen Mittelteils des Bilds
gemessen werden, auf den abgeschrägten Abschnitten aber
kann keine normale Messung durchgeführt werden, da die
Helligkeit nicht ausreichend ist.
Im Fall eines Zielobjektes mit einer gekrümmten Ober
fläche, wie in Fig. 42B gezeigt, hat der gekrümmte Ab
schnitt die Tendenz, das Licht nicht ausreichend zu reflek
tieren. Somit kann von einem zweidimensionalen Bildaufnah
meelement gewonnene Abschnitt des Bildes, der der gekrümm
ten Oberfläche entspricht, fehlen.
Es ist daher eine Aufgabe dieser Erfindung, einen op
tischen Versetzungssensor zu schaffen, der das Spaltlicht
verfahren verwendet und dazu in der Lage ist, eine Schnit
tumrisslinie sehr genau zu messen, auch wenn das Zielobjekt
eine Oberfläche mit einem nicht gleichförmigen Reflexions
vermögen, eine Nut, eine abgeschrägte Oberfläche oder eine
gekrümmte Oberfläche aufweist.
Es ist eine weitere Aufgabe der Erfindung, einen der
artigen optischen Versetzungssensor zu schaffen, der eine
geeignete Korrektur durchführen kann, wenn ein Abschnitt
des Bildes einer Schnittumrisslinie etwa aufgrund einer
Störung fehlt.
Es ist noch eine weitere Aufgabe der Erfindung, einen
derartigen optischen Versetzungssensor zu schaffen, der,
wenn eine Messung durchgeführt wird, indem ein Zielbereich
gemäß einem spezifizierten Abschnitt eines Bildes in der
Richtung der Schnittlinie des Spaltlichtes eingestellt
wird, dazu in der Lage ist, die Verschiebung des spezifi
zierten Abschnittes des Bildes aus dem Zielbereich automa
tisch zu korrigieren.
Andere Aufgaben und Wirkungen der Erfindung werden für
einen Fachmann aus der folgenden Beschreibung deutlich.
Ein optischer Versetzungssensor gemäß dieser Erfindung
kann dadurch gekennzeichnet sein, dass er Mehrfachbildauf
nahmemittel, Bildsynthetisierungsmittel und Messmittel
umfasst. Die Mehrfachbildaufnahmemittel umfassen Lichtpro
jektionsmittel zur Lieferung des Spaltlichtbündels und
Einstrahlung des Spaltbündels unter einem spezifizierten
Winkel auf eine Zieloberfläche eines Zielobjektes, Bildauf
nahmemittel zur Gewinnung von umrissenthaltenden Bildern,
darin eingeschlossen ein Bild einer Schnittumrisslinie
durch eine optische Trennfläche, indem ein zweidimensiona
les Bildaufnahmeelement unter einem anderen Winkel, der vom
Einfallswinkel des Spaltbündels verschieden ist, verwendet
wird, um die Zieloberfläche aufzunehmen, auf die das Spalt
bündel zum Einfall gebracht wird, und Parameterabtastmittel
zur Abtastung der Helligkeit der umrissenthaltenden Bilder,
indem der Wert von mindestens einem der Parameter variiert
wird, die die Bildaufnahmebedingungen definieren, die die
Helligkeit der durch die Bildaufnahmemittel gewonnenen
umrissenthaltenden Bilder beeinflussen. Die Mehrfachbild
aufnahmemittel dienen dazu, eine Vielzahl von umrissenthal
tenden Bildern mit verschiedenen Bildaufnahmebedingungen zu
gewinnen. Die Bildsynthetisierungsmittel dienen dazu, aus
einer Vielzahl dieser umrissenthaltenden Bilder, die durch
die Mehrfachbildaufnahmemittel gewonnen wurden, ein segmen
tiertes Bild zu extrahieren, das einer spezifizierten
Bedingung maximaler Helligkeit für jedes der vorherbestimm
ten Segmente genügt, und ein synthetisiertes Bild zu erzeu
gen, welches eine Reihe von Bildern von Abschnitten der
Schnittumrisslinie enthält, indem die extrahierten segmen
tierten Bilder zusammengefasst werden. Die Messmittel
dienen dazu, ein spezifiziertes Messverfahren auf der
Grundlage der Reihe von Bildern von Abschnitten der Schnit
tumrisslinie durchzuführen und einen Wert zu erzeugen, der
ein durch das spezifizierte Messverfahren gewonnenes Ergeb
nis darstellt.
Die Messmittel können dazu dienen, die Abstandsvertei
lung zwischen den Mehrfachbildaufnahmemitteln und der
Zielfläche entlang einer Linie, die den Einfallspunkt des
Spaltbündels enthält, unter Verwendung einer Reihe von
Messwerten gewinnen.
Mit einem derart aufgebauten optischen Versetzungssen
sor werden einer oder mehrere der Parameter, die die Bild
aufnahmebedingungen definieren, die die Helligkeit des
Bildes einer Schnittumrisslinie beeinflussen, verändert, um
die Helligkeit des Bildes abzutasten, während eine Vielzahl
von Bildern von den Mehrfachbildaufnahmemitteln aufgenommen
wird, und wird ein synthetisiertes Bild durch die Zusammen
fassung von segmentierten Bildern gewonnen, von denen jedes
einer spezifizierten Bedingung maximaler Helligkeit für
jedes von vorgegebenen Segmenten genügt. Das so erhaltene
synthetisierte Bild enthält eine Reihe von Bildern von
Abschnitten der Schnittumrisslinie. Somit können die Mess
mittel ein spezifiziertes Messverfahren auf der Grundlage
eines hellen Bildes durchführen, das durch die Zusammenset
zung einer Reihe von Bildern von Abschnitten der Schnittum
risslinie gebildet ist, und dadurch einen genauen Messwert
oder einer Beurteilung erzeugen.
Verschiedene Arten von Parametern können für den Zweck
dieser Erfindung verwendet werden, aber die Menge des
Lichtes von der Quelle und die Verschlusszeit des zweidi
mensionalen Bildaufnahmeelementes sind wirkungsvoll, da sie
leicht gesteuert werden können. Zu anderen Beispielen
gehören der Verstärkungsfaktor des Verstärkers für die
Lichtprojektionsmittel. Wenn ein CCD-Bildsensor als das
zweidimensionale Bildaufnahmeelement verwendet wird, können
Parameter wie z. B. die Verschlusszeit des CCD-Bildsensors,
das Taktverhältnis der eingestrahlten Impulse, das Verstär
kungsverhältnis von Videosignalen und die Spitzenlichtmenge
des Lichtes der eingestrahlten Lichtimpulse verwendet
werden.
Die Parameter können in Einheiten verändert werden. In
diesem Fall können die Einheiten, um die die Parameterwerte
verändert werden, ebenso wie der maximale Bereich, inner
halb dessen sie verändert werden können, veränderbar sein,
so dass ein Bild mit optimaler Helligkeit für jeden Bereich
erhalten werden kann, auf den das Spaltlichtbündel zum
Einfall gebracht wird. Der maximale Bereich der Parameter
kann gemäß einem Prüfergebnis automatisch veränderbar
gemacht werden. Dies ist vorteilhaft, da keine Benutzerein
gabe erforderlich ist, um einen derartigen maximalen Be
reich einzustellen, auch nicht dort, wo Zielobjekte, die
bedeutend unterschiedliche Oberflächenbedingungen aufwei
sen, gemessen werden sollen, und somit ein optimaler Be
reich zuverlässig und schnell ausgewählt werden kann. Die
Einheiten, um die die Parameterwerte verändert werden,
und/oder der maximale Bereich ihrer Veränderungen können so
eingerichtet werden, dass sie automatisch gemäß der Hellig
keit des Abschnittes des Bildes der Schnittumrisslinie, die
innerhalb eines spezifizierten Segmentes gewonnen wird,
eingestellt werden. Dies ist vorteilhaft, da die Zeit, die
erforderlich ist, um sie einzustellen, eingespart werden
kann.
Die Segmente können vorbereitend auf verschiedene Ar
ten spezifiziert werden, in Abhängigkeit vom Gesichtsfeld
und der erwarteten Position und Größe des Bildes der
Schnittumrisslinie. Wenn sie so spezifiziert werden, dass
jedes aus einem Bereich besteht, der eine oder mehrere
aneinandergrenzende horizontale Abtastzeilen auf einem Bild
enthält, das mit einem zweidimensionalen Bildaufnahmeele
ment gewonnen wurde, ist dies zweckmäßig, da die Einheiten,
in denen Bilder aufgenommen werden, und die Einheiten, in
denen Bilder gehandhabt werden, in Übereinstimmung gebracht
werden können.
Die Bildsynthetisierungsmittel können einen Bildspei
cher, einen Kennzeichen-Speicher, Bildaufzeichnungsmittel
und Kennzeichen-Steuermittel umfassen. Der Bildspeicher
dient dazu, das Bild eines Bildschirmabschnittes des zwei
dimensionalen Bildaufnahmeelementes zu speichern und ist
geeignet in Segmente unterteilt. Der Kennzeichen-Speicher
dient dazu, Schreibsteuer-Kennzeichens zu speichern, die
angeben, ob Daten in jedes dieser Segmente des Bildspei
chers geschrieben werden können oder nicht. Die Bildauf
zeichnungsmittel dienen dazu, die durch die Mehrfachbild
aufnahmemittel erhaltenen Bilder in Einheiten seiner Seg
mente gemäß den Schreibsteuer-Kennzeichens in den Bildspei
cher zu speichern. Die Kennzeichen-Steuermittel dienen
dazu, die Schreibsteuer-Kennzeichens zu steuern, so dass
nachdem ein segmentiertes Bild, das der spezifizierten
Bedingung maximaler Helligkeit genügt, in jedes der Segmen
te des Bildspeichers gespeichert worden ist, der Kennzei
chen-Speicher, der dem Segment entspricht, so eingestellt
wird, dass er das Einschreiben sperrt. Mit so aufgebauten
Bildsynthetisierungsmitteln werden Bilder von den Mehrfach
bildaufnahmemitteln empfangen und nahezu gleichzeitig
synthetisiert, so dass die Verarbeitungszeit verringert
werden kann.
Die Verarbeitungszeit kann noch weiter verringert wer
den, wenn die Mehrfachbildaufnahmemittel in dem Zeitpunkt
damit aufhören, Bilder zu gewinnen, in dem die segmentier
ten Bilder, die der spezifizierten Bedingung maximaler
Helligkeit genügen, in alle Segmente oder in alle erwarte
ten Segmente des Bildspeichers geschrieben sind. Wenn die
Segmente so spezifiziert sind, dass jedes aus einem Bereich
besteht, der eine oder mehr aneinandergrenzende horizontale
Abtastzeilen auf einem Bild aufweist, das vom Bildaufnah
meelement der Mehrfachbildaufnahmemittel erhalten wurde,
ist dies zweckmäßig, weil die Einheiten, in denen Bilder
aufgenommen wurden, und die Einheiten, in denen Bilder im
Bildspeicher gespeichert werden. Wie oben erklärt, ist die
Richtung des Querschnittes des Spaltbündels die Richtung
der senkrechten Abtastzeile auf der Lichtempfangsoberfläche
des zweidimensionalen Bildaufnahmeelementes. Wenn der
Abstand zwischen dem Messgerät und den Zielobjekt geändert
wird, bewegt sich das Bild der Schnittumrisslinie, die vom
Spaltbündel gebildet wird, auf der Lichtempfangsoberfläche
des zweidimensionalen Bildaufnahmeelementes in dieselbe
Richtung wie diejenige der horizontalen Abtastzeile.
Gemäß einem bevorzugten Ausführungsbeispiel der Erfin
dung sind die Mehrfachbildaufnahmemittel in einem einzigen
Gehäuseaufbau enthalten, der eine Sensorkopfeinheit bildet,
und die Bildsynthetisierungsmittel und die Messmittel sind
in einem anderen Gehäuseaufbau enthalten, der eine Signal
verarbeitungseinheit bildet. Ein Bildmonitor kann so ge
staltet sein, dass er extern mit der Signalverarbeitungs
einheit verbindbar ist. Auf diese Weise kann die Sensor
kopfeinheit neben dem Zielobjekt angeordnet werden, damit
sie für die Messung zweckmäßig ist, aber die Signalverar
beitungseinheit kann überall dort angeordnet werden, wo
dies für den Bediener zweckmäßig ist. Wenn ein Bildmonitor
mit der Signalverarbeitungseinheit verbunden ist, wird eine
Überwachung auf verschiedene Arten durchführbar.
Das Mehrfachbildaufnahmemittel, die oben als eine Kom
ponente eines optischen Sensors beschrieben wurden, können
unabhängig als Mehrbildaufnahmegerät verwendet werden,
wobei es Komponente wie oben beschrieben, enthalten in
einem einzigen Gehäuseaufbau, aufweist, um so eine Sensor
kopfeinheit zu bilden.
Ähnlich können die Bildsynthetisierungsmittel und die
Messmittel, die oben als Komponente eines optischen Sensors
beschrieben wurden, als ein unabhängiges Signalverarbei
tungsgerät gebildet sein, wobei es Komponente wie oben
beschrieben, untergebracht in einem einzigen Gehäuseaufbau,
aufweist, um so eine Signalverarbeitungseinheit zu bilden.
Der optische Sensor dieser Erfindung kann auch Bildre
paraturmittel aufweisen, um Teilfehler im synthetisierten
Bild einer Schnittumrisslinie in einem synthetisierten Bild
zu reparieren, das von dem Bildsynthetisierungsmitteln
erzeugt wurde. Wenn das Bild einer Schnittumrisslinie von
einem der Segmente eines synthetisierten Bildes fehlt,
unabhängig davon, wie die Parameterwerte verändert werden,
kann das synthetisierte Bild somit repariert werden, so
dass ein Fehlschlag, auf dem synthetisierten Bild Messungen
durchzuführen, verhindert werden kann.
Verschiedene Algorithmen können für die Bildsyntheti
sierungsmittel verwendet werden. Gemäß einem von ihnen wird
die An- oder die Abwesenheit des Bildes eines Abschnittes
der Schnittumrisslinie sequentiell auf jeder der horizonta
len Abtastzeilen nachgewiesen, die das synthetisierte Bild
bilden, und wenn eine Zeile gefunden wird, auf der das Bild
eines Abschnittes der Schnittumrisslinie fehlt, wird das
Bild auf der Zeile, die unmittelbar zuvor abgetastet wurde,
an die Stelle gesetzt. Gemäß einem anderen Algorithmus
erfolgt die Ersetzung, indem die Bilder sowohl der Zeile
unmittelbar davor als auch einer nachfolgenden Zeile be
rücksichtigt werden. Ein drittes Verfahren kann darin
bestehen, auch das Bild auf jeder Abtastzeile mit einem
Standardhelligkeitswert zu vergleichen und eine Korrektur,
wie oben erklärt, durchzuführen oder nicht durchzuführen,
abhängig von der Helligkeitskontinuität der Bilder der
Schnittumrisslinie vor und nach der Abtastzeile.
Der optische Sensor dieser Erfindung kann auch Moni
torausgabemittel zur Erzeugung von Ausgabesignalen für die
Anzeige eines spezifizierten Bildes auf einem gesondert
vorgesehenen Bildmonitor aufweisen. Anzeigen vieler Arten
können auf dem Monitorbildschirm erfolgen. Zunächst kann
das synthetisierte Bild, das von den Bildsynthetisierungs
mitteln selbst erzeugt wurde, angezeigt werden. Zweitens
kann ein Cursor, der die ausgewählte der horizontalen
Abtastzeilen aus dem synthetisierten Bild und die Hellig
keitsverteilungskurve ("helle Zeilenwellenform") der vom
Cursor angegebenen Abtastzeile angibt, angezeigt werden.
Drittens kann ein Cursor und eine Ausgabe, die die Bildauf
nahmebedingung (Modus) für die vom Cursor angegebene Ab
tastzeile darstellt, angezeigt werden. Viertens kann eine
Markierung auf jeder Abtastzeile angezeigt werden, auf der
kein Bild einer Schnittumrisslinie vorhanden ist. Fünftens
kann eine Markierung auf jeder Abtastzeile angezeigt wer
den, auf der ein Bild der Schnittumrisslinie vorhanden ist.
Der optische Versetzungssensor dieser Erfindung kann
auch eine graphische Benutzerschnittstelle umfassen, um
eine Konversation zwischen einem Bediener und dem Bildmoni
tor über eine Zeigevorrichtung durchzuführen.
Der optische Versetzungssensor dieser Erfindung kann
dazu verwendet werden, industrielle Produkte zu untersu
chen, die auf einer Fertigungsstraße in einer Fabrik trans
portiert werden. Bei einer derartigen Anwendung wird ge
wöhnlich ein Zielbereich innerhalb des linear langgestreck
ten Bereiches definiert, auf den das Spaltbündel zum Ein
fall gebracht wird, und die Untersuchung oder die Überwa
chung auf einen spezifizierten Abschnitt konzentriert, der
in diesem Zielbereich enthalten ist. Die Produkte, die auf
einer Förderanlage transportiert werden, sind manchmal auf
der Förderanlage in Richtung senkrecht zur Transportrich
tung oder in Höhenrichtung versetzt. Wenn der Zielbereich
in einer derartigen Situation festgelegt ist, können spezi
fizierte Abschnitte von Zielobjekten nicht richtig inspi
ziert werden. Es wird daher vorgezogen, Spurverfolgungs
steuermittel vorzusehen, um die Zielposition der Messung
gemäß der Relativbewegung des Zielobjektes zu verändern.
Fig. 1 ist eine äußere Ansicht der Gesamtheit eines
dieser Erfindung verkörpernde Versetzungssensorsystems.
Fig. 2A ist eine Vorderansicht und Fig. 2B eine Sei
tenansicht der Sensorkopfeinheit von Fig. 1, um ihr opti
sches System und ihre Beziehung zu einem Zielobjekt zu
zeigen.
Fig. 3 ist ein Blockdiagramm der Sensorkopfeinheit.
Fig. 4 ist ein Blockdiagramm der Signalverarbeitungs
einheit, das ihren Hardwareaufbau zeigt.
Fig. 5 ist ein Zeitdiagramm von Vorgängen, die vom
Sensor durchgeführt werden.
Fig. 6 ist ein Blockdiagramm der FPGA und der CPU.
Fig. 7 und 8 zeigen ein Flussdiagramm für das Verfah
ren der Aufnahme von Bildern und der Synthetisierung eines
Bildes.
Fig. 9 zeigt ein Flussdiagramm für das Verfahren für
jede Zeile.
Fig. 10 zeigt ein Flussdiagramm für das Datenabschlie
ßungsverfahren.
Fig. 11A, 11B und 11C zeigen verschiedene Arten der
Aktualisierung von Dateninhalten im Zeilendatenregister.
Fig. 12A, 12B, 12C, 13A, 13B, 13C, 14A, 14B und 14C
sind Zeichnungen, um die Beziehung zwischen dem eingegebe
nen Bild und dem Inhalt des Bildspeichers zu zeigen.
Fig. 15 ist eine Zeichnung, um das Prinzip des Lehr
verfahrens zur Beschränkung von Bildaufnahmebedingungen zu
zeigen.
Fig. 16 ist ein Beispiel für die Anzeige auf dem Moni
tor.
Fig. 17 und 18 zeigen ein Beispiel, bei dem auf einer
Zeile kein annehmbarer Spitzenwert erhalten werden konnte.
Fig. 19 und 20 sind Flussdiagramme von Verfahren, die
angewandt werden können, wenn auf einer Zeile kein annehm
barer Spitzenwert erhalten werden konnte.
Fig. 21 ist ein Prinzipschaubild, um zu zeigen wie Mo
den geändert werden.
Fig. 22 ist ein Flussdiagramm, um Moden von Bildauf
nahmebedingungen zu ändern.
Fig. 23A und 23B zeigen, wie eine Tabelle von Bildauf
nahmemoden umgeschrieben wird.
Fig. 24A und 24B zeigen die Auswirkung einer horizon
talen Versetzung des Zielobjektes.
Fig. 25 ist ein Flussdiagramm eines Verfahrens gegen
eine horizontale Verschiebung des Zielobjektes.
Fig. 26 ist ein Flussdiagramm für ein Segmentierungs
verfahren.
Fig. 27 zeigt, wie ein Zielobjekt durch das Segmentie
rungsverfahren in obere und untere Segmente unterteilt
wird.
Fig. 28 zeigt, wie die Zieloberflächenbereiche von
Segmenten festgelegt werden.
Fig. 29 zeigt, wie ein Standardschwellenwert durch
Differenzierung berechnet wird.
Fig. 30 zeigt, wie die Tiefe einer Einsenkung gemessen
wird.
Fig. 31A und 31B zeigen, wie eine vertikale Versetzung
des Zielobjektes die Messung der Breite einer Mesa auf dem
Zielobjekt beeinflussen kann.
Fig. 32 ist ein Flussdiagramm eines Verfahrens gegen
eine vertikale Versetzung des Zielobjektes.
Fig. 33A und 33B zeigen, wie ein Standardzielbereich
im Verfahren von Fig. 32 festgelegt wird.
Fig. 34A und 34B zeigen, wie die relative Schwelle im
Verfahren von Fig. 32 verwendet werden kann.
Fig. 35 ist ein Flussdiagramm eines Verfahrens gegen
eine Versetzung des Zielobjektes sowohl in horizontaler als
auch in vertikaler Richtung.
Fig. 36A, 36B, 37A, 37B und 37C sind Diagramme zur Er
läuterung des Verfahrens von Fig. 35.
Fig. 38, 39A, 39B und 40 sind Diagramme zur Erläute
rung der Bildreparaturverfahren.
Fig. 41A, 41B, 42A und 42B sind Skizzen um zu zeigen,
wie unzufriedenstellende Bilder eines Objektes mit einem
optischen Sensor nach dem Stand der Technik entstehen
können.
Die Erfindung wird nun anhand eines Beispiels be
schrieben. Fig. 1 zeigt ein die Erfindung verkörperndes
Versetzungssensorsystem, welches eine Sensorkopfeinheit 1,
eine Signalverarbeitungseinheit 2 zur Verarbeitung von
Bildsignalen die von dieser Sensorkopfeinheit erhalten
wurden, eine Handkonsoleneinheit 3, um verschiedene Be
triebsanweisungen an die Signalverarbeitungseinheit 2 zu
geben, und einen Bildmonitor 4 zur Anzeige von Messergeb
nissen, die mit der Signalverarbeitungseinheit 2 gewonnen
wurden, sowie von verschiedenen Betriebsbefehlen aufweist.
Wie unten ausführlich beschrieben wird, umfasst die
Sensorkopfeinheit 1 in sich fast die Gesamtheit von Mehr
fachbildaufnahmemitteln, vorgesehen mit (1) Lichtprojekti
onsmitteln zur Ausbildung eines Spaltlichtbündels einer
Lichtquelle und Einstrahlen desselben unter einem spezifi
zierten Winkel auf ein Zielobjekt, (2) Abbildungsmitteln
zur Gewinnung eines Bildes einer Schnittumrisslinie des
Zielobjektes durch eine optische Schnittebene unter Verwen
dung eines zweidimensionalen Bildaufnahmeelementes aus
einem anderem Winkel, um die Position des Einfalls des
Spaltbündels auf das Zielobjekt aufzunehmen, und (3) Ab
tastmitteln zur Abtastung der Helligkeit (oder Klarheit)
des Bildes durch Veränderung des Wertes mindestens eines
der Parameter, die die Bedingungen der Bildaufnahme festle
gen und die Helligkeit der Schnittumrisslinie in dem Bild,
das durch die Abbildungsmittel gewonnen wurde, beeinflus
sen.
Die Signalverarbeitungseinheit 2 umfasst (1) Bildsyn
thetisierungsmittel, zum Extrahieren eines Bildsegments,
das einer spezifizierten Helligkeitsbedingung genügt, aus
jedem der spezifizierten Bereichssegmente, und Gewinnung
eines synthetisierten Bildes, welches eine Reihe von Bil
dern einer Schnittumrisslinie enthält, durch Zusammenfas
sung derartiger Bildsegmente und (2) Messmittel zur Durch
führung eines spezifizierten Messvorgangs auf der Reihe von
Teilbildern der Schnittumrisslinie, die durch die Bildsyn
thetisierungsmittel gewonnen wurde, womit ein Messwert
und/oder ein Beurteilungswert erzeugt wird.
Somit dient die Sensorkopfeinheit 1 dazu, ein Zielob
jekt 5 mit einem Spaltlichtbündel 6 zu bestrahlen und sein
reflektiertes Licht 7 mit einem CCD-Bildsensor (der ein
zweidimensionales Bildaufnahmeelement ist) zu empfangen,
wodurch ein Abbildungssignal erzeugt und ausgegeben wird,
das die Oberflächenversetzungen des Zielobjektes 5 angibt.
Bezugszahl 8 in Fig. 1 gibt ein zeilenförmiges Lichtbild
(als helles gerades Liniensegment) an, das auf der Oberflä
che des Zielobjektes 5 erzeugt wurde.
Fig. 2 (bestehend aus Fig. 2A und 2B) zeigt das opti
sche System der Sensorkopfeinheit 1 und seine Beziehung zur
Zieleinheit 5. Wie in Fig. 2B gezeigt, umfasst die Sensor
kopfeinheit 1 in sich eine Spaltlichtquelle 112, ein licht
projizierendes optisches System 113 zur Erzeugung des
Spaltlichts 6, indem das von der Spaltlichtquelle 112
ausgesendete Licht geeignet konvergent gemacht und umge
formt wird, sowie ein lichtempfangendes optisches System
121, um das Licht 7 des Spaltlicht 6 einem zweidimensiona
len CCD-Bildsensor 122 zuzuleiten. Wie in Fig. 2A gezeigt,
ist das Spaltlicht 6 in diesem Beispiel verhältnismäßig
breit mit einer Breite W. Das Zielobjekt 5 ist darin als
ein stufenweise erhöhtes Teil mit einem ebenen oberen Ende
(im Folgenden als "Mesa" 5a bezeichnet) auf seiner Obersei
te dargestellt. Wenn die Mesa 5a schmaler als W ist, kann
ihre Höhe h unmittelbar, ohne irgendeine Relativbewegung
zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5,
gemessen werden.
Fig. 3 zeigt den inneren Schaltungsaufbau der Sensor
kopfeinheit 1. Innerhalb der Sensorkopfeinheit 1 sind
Lichtsendeelemente (darin enthalten eine Laserdiode (LD)
112, ein LD-Treiberschaltung 111 und eine Lichtübertra
gungslinse 113) zur Bestrahlung des Zielobjektes 5 mit dem
Spaltbündel 6 und Lichtempfangselemente (darin enthalten
eine Lichtempfangslinse 121, ein CCD-Bildsensor 122, eine
Verstärkerschaltung (AMP) 123, ein Hochpassfilter (HPF),
ein Abtast-Halte-Kreis (S/H) 125 und eine AGS-
Verstärkerschaltung (AGC AMP) 126) für den Empfang des
Lichts 7 vom Zielobjekt 5 enthalten. Wenn die Sensor
kopfeinheit 1 das Spaltlicht 6 gerade nach unten auf die
Oberfläche des Zielobjektes 5 projiziert, wird ein Bild der
bestrahlten Oberfläche des Zielobjekts 5, das das Lichtbild
8 des Spaltbündels 6 enthält, unter einem anderen Winkel
vom CCD-Bildsensor 122 aufgenommen, um so ein Bildsignal VS
zu erzeugen.
Ein LD-Ansteuerimpulssignal P1 zum Aufleuchtenlassen
der Laserdiode 112 wird von einer Taktsignalschaltungerze
gungsschaltung 101 erzeugt. Ansprechend auf das empfangene
LD-Ansteuerimpulssignal P1 verursacht die LD-
Treiberschaltung 111, dass die LD 112 Lichtimpulse aussen
det. Die Taktsignalerzeugungsschaltung 101 dient auch dazu,
die Spitzenleistung des gepulsten Laserlichtes über die LD-
Treiberschaltung 111 zu steuern. Der Gepulstlaserlichtsen
der von der LD 112 wird als das Spaltbündel 6 durch die
Linse 113 hindurch auf das Zielobjekt 5 eingestrahlt und
verursacht, dass das zeilenförmige Lichtbild 8 auf der
Oberfläche des Zielobjektes erscheint.
Das Tastverhältnis für die Ansteuerung der LD 112 und
die Spitzenleistung des gepulsten Laserlichtes werden
jeweils als einer der Parameter betrachtet, die die Hellig
keit (Klarheit) des Bildes der Schnittumrisslinie beein
flussen, die in dem Bild enthalten ist, das vom CCD-
Bildsensor 122 (im Folgenden einfach als "CCD" bezeich
net) erzeugt wird.
Das reflektierte Licht 7 vom Zielobjekt wird durch die
Linse 121 auf die CCD 122 zum Einfall gebracht, die ein
zweidimensionales Bildaufnahmeelement ist. Zusammenfassend
wird die Oberfläche des Zielobjektes 5 mit der CCD 122
aufgenommen, und das aufgenommene Bild, dass das Lichtbild
8 durch das Spaltbündel enthält, wird in ein Bildsignal
umgewandelt. Die Lagebeziehung zwischen der LD 112, der CCD
122 und den Lichtübertragungs- und empfangslinsen 113 und
121 wird so festgelegt, dass sich die Lage des Lichtbildes
8 des Spaltbündels 6 auf der Lichtempfangsoberfläche der
CCD 122 z. B. gemäß dem Abstand zwischen der Sensorkopfein
heit 1 und dem Zielobjekt 5 verändert.
Das von der CCD 122 ausgegebene Bildsignal, wird durch
die Verstärkerschaltung 123 für jedes Bildelement (Pixel)
verstärkt, und Schwankungen von Nullpegel-Signalen, die
unter den Pixeln auftreten, werden durch das Hochpassfilter
124 beseitigt. Der Abtast-Halte-Kreis 125 dient dazu, die
Kontinuität zwischen den aneinandergrenzenden Paaren von
Pixeln zu korrigieren, so dass jedes Pixelsignal die Menge
des empfangenen Lichtes korrekt darstellt. Danach wird die
Größe der Signalwerte durch den AGC-Verstärker 126 geeignet
gesteuert und das Signal auf die Signalprozessoreinheit 2
als Bildsignal VS übertragen. In Fig. 3 gibt SYNC ein
Synchronisierungssignal an, das als ein Standard für das
Taktsignal dient, und PWR gibt eine Spannungsquelle an.
Durch ein weiters Impulssignal P2, das von der Taktsi
gnalerzeugungsschaltung übertragen wird, wird der Ansteuer
modus durch die CCD 112, darin eingeschlossen die Belich
tungszeit, durch einen CCD-Steuerschaltung 131 gesteuert.
Ähnlich werden die Spitzenhaltezeit des Abtast-Halte-
Kreises 125, der Verstärkungsfaktor der AGC-
Verstärkerschaltung 126 und ihre Schaltzeit durch die
Impulssignale P3 und P4 gesteuert. Die Belichtungszeit der
CCD 122 und der Verstärkungsfaktor der AGC-
Verstärkerschaltung 126 sind Parameter, die die Bildaufnah
mebedingungen festlegen, die die Helligkeit des Bildes der
Schnittumrisslinie beeinflussen, die in dem Bild enthalten
ist, das von der CCD 122 erzeugt wird.
Eine Vielzahl von Mustern von Bildaufnahmebedingungen,
die durch Parameter wie z. B. die Belichtungszeit der CCD
122, die Emissionszeit der LD 112, ihre Spitzenleistung und
den Verstärkungsfaktor der AGC-Verstärkerschaltung 126, die
die Helligkeit des Bildes beeinflussen, definiert werden,
werden in einem Bedingungsspeicher 141 gespeichert, so dass
verschiedene Bildaufnahmebedingungen (wie z. B. 32 Moden von
Modus 0 bis Modus 31) mit einem Steuersignal CONT der
Signalprozessoreinheit 2 ausgewählt werden können. Der
Inhalt jedes Modus wird durch die Kombination eines oder
mehrerer der Parameter, die oben beschrieben wurden, fest
gelegt.
Ausführlicher erklärt, können diese Moden erstellt
werden, indem nur einer der Parameter verwendet und sein
Wert auf 32 verschiedene Weisen verändert wird, oder indem
2 oder mehr Parameter verwendet und jeder von ihnen verän
dert wird. Diese Moden (der Bildaufnahmebedingungen) können
automatisch in Antwort auf das Steuersignal CONT geschaltet
werden. Somit können bis zu 32 Bilder über die CCD 122
erhalten werden, während die Helligkeit des Bildes durch
Schalten der Bildaufnahmebedingungen verändert (abgetastet)
wird. Wie unten ausführlich beschrieben wird, können die
Einheiten, um die diese Parameter verändert werden, und der
Bereich, innerhalb dessen diese Parameter verändert werden,
gemäß dem Zielobjekt 5 oder den Ergebnissen des erhaltenen
Bildes, das vom Zielobjekt aufgenommen wurde, geändert
werden. Mit anderen Worten können die Bedingungen der
Bildaufnahme fein gesteuert werden.
Die Signalprozessoreinheit 2 umfasst, wie in Fig. 4
gezeigt, ein feldprogrammierbares Gate-Array FPGA 201, eine
CPU 202, einen Bildspeicher 203, einen Anzeigespeicher 204,
einen Analog-Digital-Wandler 205, einen Digital-Analog-
Wandler 206, eine Schnittstelle (nicht gezeigt) zur An
steuerung des Sensorkopfes, und eine externe Schnittstelle
(nicht gezeigt) zur Ausgabe eines Steuersignals OUT.
Das FPGA 201 umfasst eine Bildspeichersteuerung 201a
und einen Merkmalsextraktor 201b. Die Bildspeichersteuerung
201a dient zur Steuerung der Eingabe und der Ausgabe von
Bilddaten (wie z. B. denjenigen, die von der Sensorkopfein
heit 1 über das Bildsignal VS hereingenommen werden) in und
aus dem Bildspeicher 203. Sie hat die Funktion, den Merk
malsextraktor 201b bei der Durchführung der Merkmalsextrak
tionsberechnungen zu unterstützen, wie unten erklärt wird.
Die Bildspeichersteuerung 201a wird mit einer dedizierten
Hardwareschaltung ausgebildet. Der Merkmalsextraktor 201b
wird auch mit seiner eigenen dedizierten Hardwareschaltung
ausgebildet und dient dazu, ein Spitzenpixel aus den Bild
daten auf jeder horizontalen Abtastzeile und die Spitzen
dichte festzustellen. Die Bildspeichersteuerung 201a und
der Merkmalextraktor 201b werden mit Bezug auf Fig. 6 unten
weiter ausführlicher erklärt.
Die CPU 202 umfasst einen Mikroprozessor als ihren
Hauptbestandteil und umfasst funktionell Anzeigesteuermit
tel 202a, Berechnungsmittel 202b, Steuermittel 202c und
Datenbeurteilungsmittel 202d als Software. Die Anzeigesteu
ermittel 202a dienen zur Steuerung der Eingabe und der
Ausgabe von Anzeigedaten in den und aus dem Anzeigespeicher
204. Die Anzeigedaten, die in den Anzeigespeicher 204
geschrieben sind, werden durch den Digital-Analog-Wandler
206 in ein analoges Anzeigebildsignal umgewandelt und an
einen Bildmonitor (nicht gezeigt) übertragen.
Die Berechnungsmittel 202b dienen zur Berechnung der
Versetzung, was den ursprünglichen Zweck des Sensors dar
stellt, und dient dazu, zu warten, bis ein synthetisiertes
Bild vervollständigt ist, und dann Versetzungen (wie z. B.
Höhe, Breite und Länge) durch Berechnung zu gewinnen.
Einzelheiten von Berechnungen werden hier nicht beschrie
ben, da sie bekanntlich Berechnungen (1) des Abstandes
zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5
entlang der Übertragungsgeraden des Spaltbündels, (2) der
Tiefe und der Breite eines genuteten Teils auf der Grundla
ge des Bildes der Schnittumrisslinie anhand einer Reihe von
Messwerten, (3) der durchschnittlichen, Spitzen- und Boden
werte einer Reihe von Messwerten entlang der Übertragungs
geraden des Spaltbündels und (4) eines Neigungswinkels auf
der Grundlage einer Reihe von Messwerten entlang der Über
tragungsgeraden des Spaltbündels umfassen.
Die Datenbeurteilungsmittel 202d dienen dazu, ver
schiedene Datenbeurteilungen auszuführen, so z. B., ob ein
berechneter Wert, der mit den Berechnungsmitteln 202b
gewonnen wurde, größer als der Standardwert ist oder nicht,
oder ob sie untereinander gleich sind. Ein Schaltsignal
wird erzeugt und als Ergebnis der Beurteilung ausgegeben.
Das so erhaltene Schaltsignal wird als eine Steuerausgabe
OUT über die externe Schnittstelle 208 nach außen übertra
gen.
Der Analog-Digital-Wandler 205 dient zur Umwandlung
des analogen Bildsignals VS der Sensorkopfeinheit 1 in ein
digitales Signal, das an die Signalverarbeitungseinheit 204
zu übertragen ist. Der Digital-Analog-Wandler 206 dient zur
Umwandlung der im Anzeigespeicher 204 gespeicherten Anzei
gedaten in ein analoges Signal und dazu, sie an den Bildmo
nitor zu übertragen.
Wie oben erklärt, und wie im Zeitdiagramm von Fig. 5
schematisch dargestellt, ist der optische Versetzungssensor
dieser Erfindung dadurch gekennzeichnet, dass er die Werte
von mindestens einem der Parameter abtastet, die die Bild
aufnahmebedingungen definieren, die die Helligkeit des
Bildes der Schnittumrisslinie beeinflussen, die in dem Bild
enthalten ist, das von der CCD 122 in spezifizierten Ein
heiten und innerhalb eines spezifizierten Bereiches erzeugt
wird, dadurch, dass er eine Vielzahl von Bilddaten von
einem zweidimensionalen Bildsensor 122 erhält, ein synthe
tisiertes Bild erzeugt, indem er Bilder, die deutliche
Abschnitte der Schnittumrisslinie enthalten, aus diesen
Bildern geeignet zusammenfasst, und verschiedene Verfahren
auf der Grundlage eines derartigen synthetisierten Bildes
durchführt. Fig. 5 wird unten ausführlicher beschrieben.
Fig. 6 zeigt den Hardwareaufbau, der erforderlich ist,
um eine derartige Vielzahl von Bildern und Bildsynthesen zu
erhalten, und das obenerwähnte FPGA 201, die CPU 202 und
den Bildspeicher 203 enthält.
Das FPGA 201 umfasst die Bildspeichersteuerung 201a,
den Merkmalextraktor 210b, einen Zeilenpufferspeicher 201c
und einen Adressenerzeuger 201d und einen Zeilenzähler
201e. Der Zeilenpufferspeicher 201c dient zum vorübergehen
den Speichern eines Zeilenabschnittes der Bilddaten, die
von der mittleren Sensorkopfeinheit 1 über einen Verstärker
(AMP) 205a und einen Analog-Digital-Wandler 205 erhalten
werden. Die Bilddaten für eine Ziele, die so im Zeilenpuf
ferspeicher 201c gespeichert wurden, werden sequenziell in
individuellen Zeilenbereichen des Bildspeichers 203 durch
die Operationen der Bildspeichersteuerung 201a, des Adres
senerzeugers 201d und des Zeilenzählers 201e gespeichert.
Der Zeilenzähler 201e wird jedesmal um +1 erhöht, wenn
Bilddaten für eine Zeile gespeichert werden, und die Adres
se im Bildspeicher 203 wird durch den Adresserzeuger 201d
gemäß den Zählerdaten des Zeilenzählers 201e erzeugt. Die
Bildspeichersteuerung 201a dient dazu, die Bilddaten für
eine Zeile, die im Zeilenpufferspeicher 201c gespeichert
sind, in den Zeilenbereich zu übertragen, der durch die
Adresse spezifiziert wird, die vom Adressenerzeuger 201d
erzeugt wurde.
In diesem Beispiel ist das Volumen des Bildspeichers
203 ausreichend groß, um Bilddaten für 126 Zeilen zu spei
chern. Dementsprechend wird das Gesichtsfeld des Bildsen
sors auf 126 Zeilen eingestellt. Ein derartiger Bildsensor,
der ein enges langgestrecktes Gesichtsfeld aufweist, kann
preiswert aus einer im Handel erhältlichen CCD für eine
Stehbildkamera oder eine Videokamera hergestellt werden,
indem die Bereiche als "optisch schwarz" maskiert werden
und ein Abschnitt mit 126 Zeilen belassen wird.
Der Merkmalextraktor 201b dient dazu, die Spitzenposi
tion der Bilddaten für eine Zeile (die Position der Pixel
mit Spitzenhelligkeit) und die Höhe des Zielobjektes, die
anhand der Spitzenposition berechnet wurde, zu bestimmen,
wenn diese Daten für eine Zeile von der Sensorkopfeinheit
übertragen und im Zeilenpufferspeicher 201c gespeichert
werden. Mit andern Worten entsprechen mit einem Verset
zungssensor dieser Art, der das optische Schnittverfahren
verwendet, die Richtung der Höhe eines Zielobjektes und die
Richtung der horizontalen Abtastzeile des zweidimensionalen
Bildsensors einander, und die Richtung der Schnittlinie des
Spaltbündels ist senkrecht zur Richtung der horizontalen
Abtastzeilenvorrichtung des Bildsensors. Somit kann die
Höhe des Zielobjektes durch Messen der Pixelposition auf
der Zeile für jeden Satz von Zeilendaten gewonnen werden.
Die CPU 202 enthält die Steuermittel 202c und ein Zei
lendatenregister 202e. Die Steuermittel 202c dienen dazu,
die Eingabe und Ausgabe von verschiedenen Daten in das und
aus dem Zeilendatenregister 202e zu steuern. Im Zeilen
datenregister 202e sind 126 Speicherbereiche 0-125 vor
handen, und die Speicherbereiche für jede Zeile umfassen
die folgenden vier Bereiche: einen Abschließungs-
Kennzeichen-Bereich, einen Spitzenwertbereich, einen Spit
zenpositionsbereich und einen Bildaufnahmebedingungsbereich
(oder kurz einen "Modusbereich").
Der Abschließungs-Kennzeichen-Bereich wird dazu ver
wendet, anzuzeigen, ob die Daten über die entsprechende
Zeile im Bildspeicher 203 und im Datenregister 202e bereits
"abgeschlossen" sind oder nicht (wobei die "entsprechende
Zeile" in obigem Sinne die Zeile bedeutet, die vom Zeilen
zähler 201e gerade spezifiziert wird). Der Spitzenwertbe
reich wird dazu verwendet, den Spitzenwert der Helligkeit
der entsprechenden Zeile zu speichern. Der Spitzenpositi
onsbereich wird dazu verwendet, die Spitzenposition zu
speichern, die vom Merkmalextraktor 201b bestimmt wurde.
Der Modusbereich dient dazu, um die Bildaufnahmebedingungen
(identifiziert durch eine Modusnummer, die jedem Satz von
Bedingungen zugeordnet ist), die verwendet wurden, im
Verlauf der Verfahren Bilder aufzunehmen, bis das syntheti
sierte Bild vollständig ist, zu speichern, wie unten aus
führlicher erklärt wird. Nachdem ein synthetisiertes Bild
bestimmt wurde, wird dieser Bereich dazu verwendet, die
Bildaufnahmebedingungen zu speichern, die dazu verwendet
werden, Bilder für diese festgesetzte Zeile aufzunehmen.
Die Operationen der Hardware, die oben mit Bezug auf
Fig. 6 erklärt wurden, werden nun mit Hilfe der Flussdia
gramme von Fig. 7-11 erklärt.
Im Initialisierungsschritt 701 wird die Modusnummer M
(die den Satz von Bildaufnahmebedingungen bedeutet) initia
lisiert. Wie kurz erklärt, gibt es in diesem Beispiel 32
Moden. Initialisierung des Modus bedeutet, eine (M = 0) der
32 vorbereiteten Moden auszuwählen. Als Nächstes wird das
"Erstzeit-Kennzeichen" (Schritt 702) eingestellt. Wenn die
Bilddaten für eine Vielzahl von Bildern ununterbrochen vom
CCD-Bildsensor 122 übernommen werden, dient das Erstzeit-
Kennzeichen dazu, anzuzeigen, dass es sich dabei um die
erste Menge von Daten handelt, die übernommen wird.
Nachdem diese Initialisierungsschritte 701 und 702 be
endet sind, wird ein Befehl ausgegeben, Videosignale für
einen Bildschirm zu übernehmen, die vom CCD-Bildsensor 122
über den Verstärker 205a und den Analog-Digital-Wandler 205
(Schritt 703) ausgegeben wurden. Als Nächstes wird eine
Verarbeitung für jede Zeile ausgeführt (Schritt 704), wie
in Fig. 9 ausführlicher gezeigt.
In diesem Schritt (Schritt 704 von Fig. 7) wird der
Zeilenzähler (L) zurückgesetzt, das Kennzeichen, der Spit
zenwert und die Spitzenposition werden im Zeilendatenregi
ster (R) gelöscht, und ein Überschreibe-Kennzeichen wird
als Initialisierung zurückgesetzt (Schritt 901). Bei obigem
dient der Zeilenzähler (L) dazu, eine Zeile im Bildspeicher
203 und im Zeilendatenregister 202e zu spezifizieren, und
das Zeilendatenregister 202e dient dazu, ein Abschließungs
kennzeichen, den Spitzenwert, die Spitzenposition und die
Bildaufnahmebedingung (Modus) für die 126 Zeilen 1-125 zu
speichern, wie oben erklärt. Das Abschließungskennzeichen
dient dazu, anzuzeigen, dass die Daten auf der entsprechen
den Zeile im Zeilendatenregister und die Bilddaten auf der
entsprechenden Zeile im Bildspeicher 203 abgeschlossen
wurden. Das Überschreibe-Kennzeichen dient dazu, anzuzei
gen, ob es erlaubt ist oder nicht, die entsprechende Zeile
im Bildspeicher 203 und im Zeilendatenregister 202e zu
überschreiben.
Nach der Initialisierung werden die Daten über die
Zeile, die durch den Zeilenzähler spezifiziert werden, aus
dem Analog-Digital-Wandler 205 im Zeilenpufferspeicher 201c
vom Anfang bis zum Ende der Zeile gespeichert, und die
Spitzenposition und die Spitzenhöhe in der Zeile werden
berechnet (Schritt 902). Als Nächstes wird ein Abschlie
ßungsverfahren durchgeführt (Schritt 903). Danach wird die
Zahl des Zeilenzählers L um +1 erhöht (Schritt 903), um die
Schritte 902 und 903 zu wiederholen, bis der Wert des
Zeilenzählers Lmax erreicht (JA in Schritt 905), und die
Verarbeitung für jede Zeile (Schritt 704) vollständig ist.
Fig. 10 und 11 zeigen den Datenabschließungsvorgang,
der in der Folge durchgeführt werden soll. Zunächst wird
das Abschließungs-Kennzeichen befragt. Wenn das Kennzeichen
zeigt, dass die Daten beendet sind (JA in Schritt 1001),
hat das Programm nichts mehr zu tun. Wenn die Daten nicht
abgeschlossen sind (NEIN in Schritt 1001), werden der
Spitzenwert, der vom Merkmalextraktor 201b bestimmt ist,
und ein Standardwert TH-OK, der vorbereitend gemäß einer
optimalen Messbedingung bestimmt wurde, verglichen (Schritt
1002). Wenn der Spitzenwert nicht größer als der Standard
wert ist (NEIN in Schritt 1002), wird die Datenaktualisie
rung 1 des Zeilendatenregisters wie in Fig. 11A gezeigt,
durchgeführt (Schritt 1003), d. h. das Kennzeichen wird so
eingestellt, dass es "nicht abgeschlossen" anzeigt, der
Spitzenwert und die Spitzenposition, die diesmal gewonnen
werden, werden als der Spitzenwert beziehungsweise die
Spitzenposition eingestellt, und die gegenwärtige Bildauf
nahmebedingung wird als die Bildaufnahmebedingung einge
stellt. Nachdem das Verfahren der Datenaktualisierung 1 so
beendet ist, wird das Speichersteuerkennzeichen aktuali
siert (Schritt 1004). In diesem Zeitpunkt wird die Über
schreibe-Kennzeichen nicht aktualisiert. Mit anderen Worten
werden die Daten im Zeilendatenregister 202e aktualisiert,
aber die Überschreibe-Kennzeichen bleibt zurückgesetzt, und
es bleibt weiterhin erlaubt, in dieser Zeile zu überschrei
ben.
Andererseits wird, während die Bildaufnahmebedingungen
(oder Moden M) verändert werden, wenn z. B. die Belichtungs
zeit erhöht wird und sich der Spitzenwert des empfangenen
Lichtes erhöht und größer als der Standard TH-OK wird (JA
in Schritt 1002), untersucht, ob der neu erhaltene Spitzen
wert näher liegt oder nicht am Standardwert TH-OK als der
Wert, der jetzt im Zeilendatenregister 2002 (Schritt 1005)
gespeichert ist. Bei JA in Schritt 1005 wird die Datenak
tualisierung 2, die in Fig. 11B gezeigt wird, durchgeführt
(Schritt 1006), d. h. das Kennzeichen wird eingestellt,
"abgeschlossen" anzugeben, der Spitzenwert und die Spitzen
position, die diesmal erhalten wurden, werden als der
Spitzenwert beziehungsweise die Spitzenposition einge
stellt, und die gegenwärtige Bildaufnahmebedingung (oder
der gegenwärtige Modus) wird als die Bildaufnahmebedingung
eingestellt. Nachdem der Vorgang der Datenaktualisierung 2
so vollständig ist, wird das Speichersteuerkennzeichen
aktualisiert (Schritt 1008). In diesem Zeitpunkt wird das
Überschreibe-Kennzeichen eingestellt, wodurch verhindert
wird, dass die Daten im Zeilendatenregister 202e und im
Bildspeicher 203 für diese Zeile überschrieben werden. Mit
anderen Worten wird ihr Inhalt danach bewahrt.
Wenn andererseits festgestellt wird, dass der neu ge
wonnene Spitzenwert weiter vom Standardwert TH-OK entfernt
ist als der aktuell gespeicherte Wert (NEIN in Schritt
1005), wird Datenaktualisierung 2, die in Fig. 11C gezeigt
ist, bewirkt (Schritt 1007), d. h. das Kennzeichen wird so
eingestellt, dass es "beendet" anzeigt, der aktuell gespei
cherte Spitzenwert und die Spitzenposition werden als der
Spitzenwert beziehungsweise die Spitzenposition einge
stellt, und die Bildaufnahmebedingung, die im Register
gespeichert ist, wird als die Bildaufnahmebedingung (oder
der Modus) eingestellt. Somit werden die Inhalte des Spit
zenwertes und der Position abgeschlossen, während sie in
der Bedingung verbleiben, die den Standardwert TH-OK nicht
übersteigt.
Nachdem das Verfahren für jede Zeile (Schritt 704 von
Fig. 7) somit abgeschlossen ist, werden Verfahren für jedes
Bild durchgeführt (Schritt 705). Die Verfahren, die hier
für jedes Bild durchgeführt werden sollen, umfassen Folgen
des: (1) Verfahren bezüglich der Bildsteuerung; (2) Verfah
ren zur Beurteilung des Ergebnisses der Berechnung; und (3)
andere Verfahren auf dem Ergebnis der Berechnung. Die
Verfahren bezüglich der Bildsteuerung umfassen die Einstel
lung der Bedingungen für die Übernahme des nächsten Bildes
(wie z. B. die Belichtungszeit und die Videosignalverstär
kung) und die Beurteilung, ob die Bilder mit allen Bildauf
nahmebedingungen übernommen wurden oder nicht. Beim Verfah
ren der Beurteilung des Berechnungsergebnisse wird über
prüft, ob das Berechnungsergebniss bezüglich aller Zeilen
abgeschlossen wurde oder nicht. Andere Verfahren enthalten
Berechnungen in der Richtung der Zeilen durch die Ausfüh
rung eines Filtervorgangs auf dem aktuellen Bild.
Danach wird der Modus M um +1 erhöht, um die Schritte
703-705 zu wiederholen. In jedem Wiederholungszyklus wird
das Erstzeitkennzeichen untersucht, um sicherzustellen,
dass es gesetzt ist (Schritt 707), und der aktuelle Modus M
wird im Zeilendatenregister registriert (Schritt 708).
Diese Schritte werden so durchgeführt, dass nur die Bild
aufnahmebedingungen (Moden), bei denen festgestellt wurde,
dass sie im ersten Zyklus wirksam waren, verwendet werden,
und die anderen Bedingungen werden übersprungen. Auf diese
Weise kann die Zeit für die Übernahme von Bildern und die
Zeit für die Bildsynthese verringert werden.
Ausführlicher erklärt werden während des ersten Zyklus
der Mehrfachbildaufnahmemittel und der Bildsynthese alle
vorbereiteten Bildaufnahmebedingungen (32 Moden) versucht,
aber nur diejenigen Moden, bei denen festgestellt wurde,
dass sie im ersten Zyklus gültig waren, werden ab dem
zweiten Zyklus verwendet. Dies kann bewirkt werden, da die
Bildaufnahmebedingung im Initialisierungsschritt (Schritt
901) nicht gelöscht wird, sondern unverändert bleibt, und
auch da die Schritte 703, 704 und 705 im Flussdiagramm von
Fig. 7 nur dann durchgeführt werden, wenn die Bildaufnahme
bedingung (Modus M) registriert ist (JA in Schritt 708).
Wenn die Bildaufnahmebedingung (Modus M) nicht registriert
ist (NEIN in Schritt 708), wird nur ihre Aktualisierung
durchgeführt (Schritt 706), und die Schritte 703-705 werden
übersprungen.
Wenn der Modus M einen vorherbestimmten maximalen Wert
Mmax (JA in Schritt 709) erreicht, wird ein spezifiziertes
Berechnungsverfahren auf der Grundlage des synthetisierten
Bildes durchgeführt, das im Bildspeicher 203 gespeichert
ist. In dem Zeitpunkt, in dem M seinen maximalen Wert Mmax
erreicht, ist das Bild, das dann im Bildspeicher 203 ge
speichert ist, eine Zusammenstellung einer Vielzahl von
Bildern, die bis dahin empfangen wurden, und wobei jedes
ein Bild einer Schnittumrisslinie mit einem Spitzenwert
aufweist, der fast gleich dem spezifizierten Standardwert
TH-OK ist. Somit sollte, auch wenn das Zielobjekt eine
Oberfläche mit veränderlichem Reflexionsvermögen, eine
geneigte Oberfläche, eine gekrümmte Oberfläche oder eine
Oberfläche mit Nut aufweist, das schließlich erhaltene
synthetisierte Bild ein für die Messung einfaches Bild
sein, mit einer gleichförmigen Schärfe und/oder Klarheit,
da die Bildaufnahmebedingung ständig angepasst wird.
Die Verarbeitung eines synthetisierten Bildes (Schritt
801) kann jede der bekannten Arten von Berechnungen umfas
sen, wie z. B. Berechnungen für die Höhe einer Mesa, die
Breite des Zielobjektes, eine abgeschrägte Oberfläche und
den Krümmungsradius einer gekrümmten Zieloberfläche.
Nachdem der Schritt 801 abgeschlossen ist, wird das
Erstzeitkennzeichen, oben in Schritt 707 erklärt, zurückge
setzt (Schritt S802), und das Programm wartet auf das
Eintreffen eines weiteren Befehls (Auslöser), um ein neues
Bild zu übernehmen (Schritte 803 und 804). Wenn ein derar
tiger Auslöser empfangen wird (JA in Schritt 804), kehrt
das Programm zu Schritt 703 von Fig. 7 zurück, um die
Schritte danach zu wiederholen, indem es einen weiteren
Satz von Mehrfachbildern übernimmt und eine Bildsynthese
durchführt.
Nun wird auf Fig. 5 und 12-23 Bezug genommen, um aus
führlicher die Verfahren der Mehrfachabbildung, der Bild
synthese und der Berechnungen, die oben anhand eines Bei
spiels beschrieben wurden, zu erklären.
Das Zeitdiagramm von Fig. 5 zeigt (a) ein Mehrfachab
bildungsverfahren; (b) die Bearbeitung für die einzelnen
Zeilen; (c) die Bearbeitung jedes der Mehrfachbilder; und
(d) die Bearbeitung für ein synthetisiertes Bild. Es sei
angenommen, dass jedes Bild aus acht. Zeilen 0-7 besteht.
Gemäß der vorliegenden Erfindung wird, wie oben be
schrieben, eine Vielzahl von Bilden übernommen, während die
Bildaufnahmebedingungen (angegeben durch Modusnummern) z. B.
32-mal von Modus 0 bis Modus 31 verändert (abgetastet)
werden, und nachdem sie synthetisiert sind, um ein optima
les Bild für eine Messung zu erhalten, wird ein gewünschtes
Berechnungsverfahren auf der Grundlage eines derartigen
optimalen Bildes durchgeführt. Im Allgemeinen werden diese
Moden durch die Kombination einer Vielzahl von Parametern
auf verschiedene Weisen definiert. In diesem Beispiel wird
der Einfachheit der Erklärung wegen angenommen, dass ver
schiedene Moden nur mit der Belichtungszeit für den CCD-
Bildsensor erstellt werden. In dem Beispiel, das im Zeit
diagramm von Fig. 5 gezeigt wird, werden zehn Moden er
stellt, identifiziert als Verschluss 0-Verschluss 9,
wobei jeder eine andere (erhöhte) Verschlusszeit aufweist
(dargestellt durch die Breite eines Rechteckes auf Zeile
(a) von Fig. 5). Zeile (b) von Fig. 5 zeigt, dass die
Vorgänge für die einzelnen Zeilen (Schritt 704 von Fig. 7)
zwischen aufeinanderfolgenden Bildern, die aufgenommen
werden, durchgeführt werden (Schritt 703 von Fig. 7). Zeile
(c) von Fig. 5 zeigt, dass das Verfahren für jedes der
Mehrfachbilder, die übernommen werden, unmittelbar nach den
Verfahren für jede Zeile (Schritt 704 von Fig. 7) durchge
führt wird. Die Bearbeitung für ein synthetisiertes Bild
(Schritt 801 von Fig. 8) wird durchgeführt, nachdem die
letzte der Bearbeitungen für zahlreiche Bilder (Schritt 705
von Fig. 7) beendet ist.
Fig. 12-14 zeigen die Beziehung zwischen der Bildein
gabe und dem Inhalt des Bildspeichers. Gemäß dieser Erfin
dung, wie oben erklärt, wird, nachdem Bilddaten, die einem
Bild entsprechen, von der CDD 122 her empfangen wurden, der
Spitzenwert des Bildes der Schnittumrisslinie jeder Zeile
der Bilddaten mit einem Standardwert TH-OK verglichen, der
für die Messung optimal ist, und, wenn sie nahe aneinander
liegen, wird das Bild für diese eine Zeile als ein Teil des
endgültigen (synthetisierten) Bildes fertig gemacht. Dieses
Verfahren wird für jede Zeile wiederholt, und schließlich
wird ein Blatt synthetisierter Bilder erzeugt.
Fig. 12A zeigt die Bildeingabe, wenn der Verschluss 1
die Bildaufnahmebedingung (Modus) darstellt, und Fig. 12B
zeigt, wie diese Eingabe im Bildspeicher gespeichert wird.
Fig. 12C zeigt die Schnittform des Zielobjektes. Mit ande
ren Worten wird unter dem Verschluss 1 ein Bild der Schnit
tumrisslinie nur auf den Zeilen 0, 6 und 7 erhalten, und
diese Bilder werden auf den Zeilen 0, 6 und 7 im Bildspei
cher gespeichert. Da sie nahe am Standardbild TH-OK, das
für die Messung optimal ist, liegen, werden sie fertig
gemacht (wie durch dreieckige Markierungen auf dem rechten
Ende von Fig. 12A und 12B angegeben).
Ähnlich zeigen Fig. 13A, 13B und 13C, dass, wenn die
Belichtungszeit so verändert wird, dass die Bildaufnahmebe
dingung durch Verschluss 3 angegeben wird, ein Bild der
Schnittumrisslinie auf den Zeilen 0, 3, 4, 6 und 7 erhalten
wird, dass aber die Spitzen auf den Zeilen 0, 6 und 7 einen
Standardwert bei weitem übertreffen, während die Spitzen
auf den Zeilen 3 und 4 nahe am Standardwert Th-OK liegen.
Somit werden die Bilder auf den Zeilen 3 und 4 in den
Bildspeicher übernommen, gespeichert und fertig gemacht
(wie durch dreieckige Markierungen angegeben). Die Zeilen
0, 6 und 7 sind bereits fertig gemacht und werden daher
nicht aktualisiert.
Fig. 14A, 14B und 14C zeigen, dass unter dem Ver
schluss 8 ein Bild der Schnittumrisslinie auf allen Zeilen
0-7 erhalten wird, dass aber die Spitzen auf den Zeilen 0,
3, 4, 6 und 7 den Standardwert bei weitem übertreffen,
während die Spitzen auf den Zeilen 1, 2 und 5 nahe am
Standardwert Th-OK liegen. Somit werden die Bilder auf den
Zeilen 1, 2 und 5 in den Bildspeicher übernommen und fertig
gemacht (wie durch Dreiecke angegeben). Die Zeilen 0, 3, 4,
6, und 7 sind bereits fertig gemacht, und werden daher
nicht aktualisiert.
Nun wird auf Fig. 15 Bezug genommen, um das Verfahren
des "Lehrens" zur Beschränkung der Bedingungen für den
Empfang von Licht zu erklären. Wie oben mit Bezug auf Fig.
7 erklärt wurde, werden die Bildaufnahmebedingungen (Mo
den), die beim Gewinnen des ersten synthetisierten Bildes
verwendet werden, als "Lehrdaten" aufbewahrt. In den dar
auffolgenden Verfahren zur Mehrfachabbildung und Bildsyn
these wird auf diese Lehrdaten Bezug genommen, und diejeni
gen der Moden, die nicht verwendet wurden, werden über
sprungen, um Zeitverschwendung zu beseitigen.
Fig. 15 zeigt für dieses Beispiel, dass die Zeilen 0,
6 und 7 unter Verschluss 1 fertig gemacht werden, Zeilen 3
und 4 unter Verschluss 3 fertig gemacht werden, und Zeilen
1, 2 und 5 unter Verschluss 8 fertig gemacht werden. Die
Bildaufnahmebedingung (Modus), unter der jede Zeile fertig
gemacht wurde, wir auf dem rechten Ende von Fig. 15 ge
zeigt. Dabei handelt es sich um das, was im Modusbereich
des Zeilendatenregisters 202e gespeichert ist. Mit anderen
Worten speichert das Zeilendatenregister 202e "1, 8, 8, 3,
3, 8, 1, 1" in den Modusbereichen für die einzelnen Zeilen.
Somit werden in den nachfolgenden Mehrfachabbildungsverfah
ren und den Verfahren zur Synthetisierung eines Bildes die
Bildaufnahmebedingungen (Moden), die von "1, 8, 8, 3, 3, 8,
8, 6, 1, 1" verschieden sind, übersprungen. Kurz gesagt
werden, obwohl zehn Moden mechanisch verwendet wurden, nur
drei Moden (Verschlüsse 1, 3 und 8) danach verwendet, und
es kann immer noch ein synthetisiertes Bild, welches ein
Bild einer Schnittumrisslinie mit geeigneter Helligkeit
enthält, erhalten werden.
Fig. 16 zeigt ein Beispiel einer Anzeige, die auf dem
Bildmonitor 4 für das oben beschriebene Beispiel erfolgen
kann. Die horizontale Zeile eines Hauptschaubildes gibt die
gemessenen Werte an, und die vertikale Achse gibt die Zeile
(Nummer) an, um einen Bildschirmabschnitt des synthetisier
ten Bildes anzuzeigen. Eine unterbrochene Cursorzeile wird
ebenfalls gezeigt. Der Benutzer kann eine Taste auf einer
Konsoleneinheit 3 bedienen, um die Cursorzeile vertikal zu
bewegen. Daten bezüglich der Zeile, die vom Cursor angege
ben wird, werden außerhalb des Schaubildbereiches ange
zeigt. Im Beispiel, das in Fig. 16 gezeigt wird, werden die
Verschlusszeit (LV), der Spitzenwert (PEAK) und die Messer
gebnisse (Z) auf der rechten Seite angezeigt, und die
Verteilung der Lichtmenge entlang der horizontalen Zeile,
die vom Cursor angegeben wird, wird unten angezeigt. Weiter
unten wird das Messergebnis des gesamten Bildes angezeigt
(als xxx.xxxx). Somit kann der Benutzer den Cursor nach
oben und nach unten bewegen, um ihn in eine Zeile zu brin
gen, und die Verteilung der Lichtmenge auf der spezifizier
ten Zeile, die Belichtungszeit, den Spitzenwert und die
Messergebnisse leicht verstehen. Die vertikale Anordnung
von Zahlen auf der rechten Seite des Schaubildes zeigen
jeweils die Verschlusszeit, als die Bilddaten für diese
Zeile fertig gemacht wurden.
Fig. 17 zeigt eine Situation, in der ein annehmbarer
Spitzenwert auf einer Zeile nicht gewonnen werden konnte,
nachdem alle der vorbereiteten Moden verwendet worden sind,
und kein Bild für die Zeile registriert wurde. Wenn der
Benutzer vor dem Auftreten einer derartigen Situation nicht
gewarnt wird, kann dies zu einem synthetisierten Bild
führen, das nicht für die Messung geeignet ist, und der
Benutzer ist möglicherweise nicht dazu in der Lage, den
Grund für einen derartigen Fehlschlag festzustellen. Gemäß
dem bevorzugten Ausführungsbeispiel, das in Fig. 17 gezeigt
wird, in der die Zeile 4 kein Bild einer Schnittumrisslinie
aufweist, wird das Balkensymbol "-" auf der rechten Seite
angezeigt, um anzugeben, dass kein annehmbarer Spitzenwert
erhalten werden konnte.
Fig. 19 zeigt ein Programm, um eine derartige Anzeige
durchzuführen. Nachdem der Zeilenzähler (L) auf Null zu
rückgesetzt ist (Schritt 1901), werden die Zeilendaten, die
der Zeile entsprechen, die durch den Zeilenzähler angegeben
wird, abgerufen (Schritt 1902) und es wird untersucht, ob
der Modus im Modusbereich M der abgerufenen Zeilendaten
registriert ist (Schritt 1903). Wenn dieser Modus im Modul
bereich M vorhanden ist (JA in Schritt 1903), werden die
Bilddaten für die Zeile direkt an einen Anzeigepuffer
(nicht gezeigt) ausgegeben (Schritt 1904). Wenn der Modus
nicht im Modusbereich M (NEIN in Schritt 1903) vorhanden
ist, werden die Bilddaten für die Zeile übersprungen und
nicht an den Anzeigepuffer übertragen (Schritt 1905). Diese
Schritte werden nachfolgend wiederholt, indem der Zeilen
zähler L jedesmal um +1 erhöht wird (Schritt 1906), und das
Verfahren endet, wenn die letzte Zeilenummer Lmax erreicht
wurde (JA in Schritt 1907). Als Ergebnis werden nur die
abgeschlossenen Bilddaten von den Zeilendaten an den Anzei
gepuffer übertragen, und der Bildmonitor 4 zeigt ein syn
thetisiertes Bild an, das nur die Bilder von Schnittumriss
linien von abgeschlossenen Zeilen umfasst und diejenigen
von nicht abgeschlossenen Zeilen ausschließt. Somit kann
der Benutzer einen Fehler im synthetisierten Bild leicht
erkennen.
Fig. 18 zeigt ein weiteres Beispiel für die Anzeige
einer Zeile, auf der ein annehmbarer Spitzenwert nach der
Verwendung aller vorbereiteten Moden nicht erhalten werden
konnte. In diesem Beispiel wird eine spezifizierte unter
scheidende Markierung (symbolisch durch ein X in der Figur
gezeigt) auf einer derartigen Zeile angezeigt, um den
Benutzer zu warnen. Fig. 20 zeigt ein Programm für die
Durchführung einer derartigen Warnanzeige. Die Schritte
2001-2007 in Fig. 20 sind dieselben wie die Schritte 1901-1907
in Fig. 19, außer dass die spezifizierte unterschei
dende Markierung in Schritt 2005 ausgegeben wird.
Es wird angenommen, dass nur die Moden Mk-Mk+n der
Bildaufnahmebedingungen verwendet wurden, wie in Fig. 21
gezeigt, um das erste synthetisierte Bild vom ersten Mehr
fachbildaufnahmeverfahren zu erhalten, obwohl das erste
synthetisierte Bild, das wie oben erklärt erhalten wurde,
möglicherweise kein optimales synthetisiertes Bild bezüg
lich der Klarheit bzw. der Helligkeit darstellte. Gemäß
einer Routine dieser Erfindung für die Veränderung von
Moden, wie in Fig. 22 gezeigt, werden die Moden Mk und Mkn
als die untere und die obere Grenze (Schritt 2201 und 2202)
mit Hilfe eines Cursors oder einer Taste registriert. Als
Ergebnis wird die Tabelle der Moden umgeschrieben (Schritt
2203), um eine benutzerspezifische Tabelle zu erhalten, die
in Fig. 23B gezeigt wird, um die Standardtabelle von MO
bis M31 zu ersetzen, wie in Fig. 23A gezeigt.
Ausführlicher erklärt mit Hilfe eines Beispiels defi
niert die Standardtabelle die 32 Belichtungszeiten (0-31)
der 32 verfügbaren Moden so, dass sie sich sequentiell in
Einheiten von 0,1 erhöhen. Es wird weiter angenommen, dass
der vom Benutzer registrierte untere und der obere Grenz
wert 0,3 beziehungsweise 0,8 betrugen, wie in Fig. 23A
durch Pfeile angegeben. Die obenerwähnte benutzerspezifi
sche Tabelle wird gebildet, indem das Intervall zwischen
diesen unteren und oberen Grenzen, die vom Benutzer regi
striert wurden, in 32 Schritte unterteilt wird, um einen
neuen Satz von Belichtungszeiten (neue Moden M') zu defi
nieren, wie in Fig. 23B gezeigt. Somit wird der Bereich von
Moden Mk bis Mk+n nun feiner in 32 neue Stufen α0-α31 unter
teilt, wie in Fig. 21 gezeigt. In den nachfolgenden Mehr
fachabbildungs- und Bildsynthetisierungsverfahren werden
die Bildaufnahmebedingungen in diesen neu definierten, sich
feiner erhöhenden Stufen verändert. Somit kann, wenn ein
synthetisiertes Bild nicht genau genug ist, unabhängig
davon, ob es sich um das erste oder um ein später erhalte
nes Bild handelt, das in Fig. 22 gezeigte Verfahren durch
geführt werden, um die Bildaufnahmebedingungen feiner zu
verändern.
Einer der Gründe für das Auftreten eines synthetisier
ten Bildes mit einer Zeile oder mit Zeilen, bei denen kein
Spitzenwert erhalten werden kann, liegt darin, dass sich
das Zielobjekt 5 während der Messung horizontal verschiebt.
Fig. 24A und 24B stellen eine Situation dieser Art im Fall
eines Zielobjektes mit einer Mesa dar, bei der versucht
wird, die Höhe zu messen. Angenommen Bereich 1 einer spezi
fizierten Breite wurde, wie in Fig. 24A gezeigt, dort
eingestellt, wo eine Referenzoberfläche Lref erwartet wird,
und Bereich 2 einer anderen spezifizierten Breite wurde
dort eingestellt, wie eine Zieloberfläche L9 erwartet wird,
beide innerhalb des Sichtfeldes eines zweidimensionalen
Bildaufnahmeelementes. Die Höhe der Mesa wird durch die
Messung der durchschnittlichen Höhen der Bereiche 1 und 2
und die Bildung ihrer Differenz erhalten.
Wenn das Zielobjekt eine horizontale Verschiebung
durchgemacht hat, nachdem die Bereiche 1 und 2 definiert
wurden, wie oben erklärt, so dass Bereich 1 die Bezugsober
fläche Lref verfehlt und/oder Bereich 2 die Zieloberfläche
L6 verfehlt, wie in Fig. 24B gezeigt, kann nicht mehr
länger erwartet werden, dass die Differenz zwischen ihnen
die Höhe der Mesa darstellt. Eine derartige horizontale
Verschiebung kann erwartet werden, während ein Zielobjekt
auf einer Förderanlage transportiert wird, wenn es in eine
Richtung geschoben wird, die zur Transportrichtung senk
recht ist, oder wenn die Projektionsrichtung des Spaltbün
dels fälschlicherweise in Richtung des Spaltes verschoben
wird, obwohl das Zielobjekt auf der Förderanlage angemessen
positioniert ist.
Fig. 25 zeigt eine Maßnahme, die gemäß dieser Erfin
dung für eine derartige Situation ergriffen werden kann.
Diese Routine beginnt mit der Einstellung eines Standard
schwellenwertes (Schritt 2501) durch ein Differenzierungs
verfahren einer bekannten Art. Es sei angenommen, dass eine
trapezförmige Schnittumrisslinie, wie in Fig. 29A gezeigt,
im Gesichtfeld des CCD-Bildsensors erscheint. Es ist dann
möglich, die Randpositionen E11 und E12 zu bestimmen, die
die rechte und die linke Endposition der Trapezform dar
stellen, indem sie differenziert wird, wie in Fig. 29B
gezeigt. Nachdem die Randpositionen E11 und E12 so bestimmt
sind, kann eine der folgenden Formeln verwendet werden, um
den Schwellenwert zu definieren:
Schwelle = (Boden) + α {(Spitze)-(Boden)}, oder
Schwelle = (Durchschnitt) + β.
Schwelle = (Durchschnitt) + β.
Wobei 0<α<1 und β eine geeignet gewählte Konstante
ist.
Nachdem so ein Standardschwellenwert Lth eingestellt
wurde (Schritt 2501), wird dieser Wert dazu verwendet, um
das Zielobjekt 5 durch ein Segmentierungsverfahren (Schritt
2502), gezeigt in Fig. 26, zu segmentieren, beginnend mit
der Rückstellung des Zeilenzählers (L = 0), um eine hori
zontale Zeile im Bild zu spezifizieren (Schritt 2601). Nun
wird die Spitzenhöhe in der horizontalen Zeile, die durch
den Zeilenzähler L spezifiziert ist, berechnet (Schritt
2602), und es wird überprüft, ob sie den Schwellenwert Lth
(Schritt 2602) übersteigt. Wenn die Spitzenhöhe den Schwel
lenwert Lth übersteigt (JA in Schritt 2603), wird die
Spitzenposition als "H" angegeben (Schritt 2604). Wenn die
Spitzenhöhe geringer als der Schwellenwert Lth ist (NEIN in
Schritt 2603) wird die Spitzenposition als "L" angegeben
(Schritt 2605). Oben zeigt die Spitzenposition die Höhe des
Zielobjektes auf der horizontalen Abtastzeile an.
Die obigen Schritte werden hiernach durch Inkrementie
rung des Zeilenzählers L um +1 (Schritt 2606) wiederholt,
bis der Wert des Zeilenzählers L seinen maximalen Wert Lmax
erreicht (JA in Schritt 2607). Nach dieser Segmentierungs
routine werden die horizontalen Abschnitte, die niedriger
als der Schwellenwert Lth sind, als LOW-Segmente erkannt,
und der Abschnitt, der höher als der Schwellenwert Lth ist,
wird als HI-Segment erkannt, wie in Fig. 27 gezeigt.
Danach werden Randpositionen jedes der HI- und LOW-
Segmente, ebenso wie ihre Mittelpunkte (in Fig. 27 durch
Kreuze angegeben) definiert (Schritt 2503). Noch später
wird ein Zielbereich definiert, indem sie sich von jedem
dieser Mittelpunkte um einen spezifizierten Abstand er
strecken, wie durch Pfeile mit doppelter Spitze in Fig. 28
angegeben, um einen Zielbereich für die Messung auf jedem
der LOW- und HI-Segmente zu definieren (Schritt 2504).
Schließlich wird, wie oben erklärt, die durchschnittliche
Höhe Hst der LOW-Segmente und die durchschnittliche Höhe
Hmeg der HI-Segmente und ihr Unterschied berechnet, um die
Höhe der Mesa zu erhalten.
Mit einer Routine, wie oben erklärt, bewegen sich die
schließlich festgelegten Zielbereiche auf den einzelnen
Segmenten mit der horizontalen Relativbewegung des Zielob
jektes bezüglich der Sensorkopfeinheit, so dass die Höhe
einer Mesa auf dem Zielobjekt zuverlässig gemessen werden
kann, trotz einer horizontalen Verschiebung des Zielobjek
tes. Diese Routine gegen die horizontale Verschiebung des
Zielobjektes ist auch auf die Messung der Tiefe einer
Einsenkung anwendbar. In dem in Fig. 30 gezeigten Beispiel
wird die mittlere Position jedes der HI- und LOW-Segmente
gewonnen, und der Bereich zwischen den Randpositionen der
Segmente wird als ein Nutbereich identifiziert. Danach wird
ein Zielbereich in diesem Nutbereich eingestellt, so dass
die Verschiebung des Zielbereiches vom Nutbereich verhin
dert werden kann.
Die Erfindung stellt auch eine Routine für eine Situa
tion bereit, in der das Zielobjekt eine Vertikalverschie
bung durchmachen kann, während die Breite der Mesa darauf
gemessen wird. Die Breite einer Mesa wird im Allgemeinen
gemessen, indem ein Schwellenwert Lth zwischen der Bezugs
oberfläche Lref der Mesa oder der Oberfläche, von der sich
die Mesa nach oben erstreckt, und der oberen Fläche L6 der
Mesa ausgewählt wird. Die Randpositionen E1 und E2 werden
dadurch nachgewiesen, und die Trennung zwischen den zwei
Randpositionen E1 und E2 wird als die Breite der Mesa
akzeptiert. Wenn jedoch das Zielobjekt vertikal verschoben
wird, wie in Fig. 31B gezeigt, bewegt sich die Höhe des
Schwellenwertes Lth von der vertikalen Ausdehnung der Mesa
weg, und die Randpositionen E1 und E2 können nicht mehr
nachgewiesen werden, und somit kann die Breite der Mesa
nicht bestimmt werden.
Fig. 32 zeigt ein Verfahren, das gemäß dieser Erfin
dung als eine Maßnahme gegen derartige Wirkungen einer
vertikalen Verschiebung des Zielobjektes angewandt wird.
Zunächst wird ein Standardzielbereich so festgelegt, dass
er nicht von einer vertikalen Verschiebung des Zielobjektes
(Schritt 3201) beeinflusst wird, wie in Fig. 33A gezeigt.
Dann wird die durchschnittliche Höhe Hst dieses Standard
zielbereiches berechnet (Schritt 3202), und ein vorberei
tend bestimmter Offset-Wert Δth wird der durchschnittlichen
Höhe Hst hinzugefügt, um einen relativen Schwellenwert Lth
zu gewinnen (Schritt 3204), wie in Fig. 33B gezeigt. Nun
wird, wie in Fig. 34A gezeigt, das Zielobjekt unter Verwen
dung des neu definierten relativen Schwellenwertes Lth, wie
oben mit Bezug auf Fig. 27 beschrieben, segmentiert
(Schritt 3204). Schließlich wird die Breite der Mesa aus
den zwei Endpositionen des HI-Segmentes berechnet (Schritt
3205), wie in Fig. 34B gezeigt. Durch dieses Verfahren
ändert sich der Standardbezugswert Lth weiterhin, wenn das
Zielobjekt vertikal verschoben wird, und die Breite der
Mesa kann immer gemessen werden.
Für eine Situation, in der es wahrscheinlich ist, dass
das Zielobjekt sowohl vertikal als auch horizontal verscho
ben wird, kann ein Verfahren wie in Fig. 35 gezeigt verwen
det werden. Zunächst wird ein Standardzielbereich ausge
wählt, wie in Fig. 36A gezeigt, der gemessen werden kann,
solange die Verschiebung des Zielobjektes innerhalb einer
spezifizierten Grenze bleibt (Schritt 3501). Zweitens wird
die durchschnittliche Höhe Hst aller Zeilen, die in diesem
Standardzielbereich enthalten sind, berechnet (Schritt
3502). Drittens wird, wie in Fig. 36B gezeigt, ein im
voraus bestimmter Offset-Wert Δth der durchschnittlichen
Höhe Hst hinzugefügt, um einen relativen Schwellenwert Lth'
zu erhalten (Schritt 3503). Viertens wird, wie in Fig. 37A
gezeigt, das Zielobjekt unter Verwendung des relativen
Schwellenwertes Lth' segmentiert, wie oben erklärt (Schritt
3504). Fünftens werden, wie in Fig. 37B gezeigt, die Rand
positionen und die Mittelpositionen der HI- und LOW-
Segmente berechnet (Schritt 3505). Sechstens werden, wie in
Fig. 37C gezeigt, ein Zielbereich auf dem LOW-Segment, der
als Bezugsoberfläche dienen soll, und ein weiterer Zielbe
reich auf dem HI-Segment, der die Mesa auf dem Zielobjekt
darstellt, berechnet (Schritt 3506). Nachdem die Höhe Hst
des LOW-Segmentes (Schritt 3507) und die Höhe Hmeg des HI-
Segmentes berechnet ist (Schritt 3508), wird ihre Differenz
als die Höhe der Mesa (Schritt 3509) gewonnen.
Mit einem Verfahren, wie oben beschrieben, bewegen
sich die Zielbereiche weiterhin gemäß der Verschiebung des
Zielobjektes entweder horizontal oder vertikal, so dass die
Messungszielbereiche messbar bleiben.
Bereiche, die nicht gemessen werden können, können in
einem synthetisierten Bild erscheinen, wie in Fig. 38
gezeigt, nicht nur wegen einer Relativverschiebung zwischen
der Sensorkopfeinheit und dem Zielobjekt, sondern auch
wegen Störungssignalen, die das Abschließen der Bilddaten
auf einer oder mehr Zeilen im synthetisierten Bild verhin
dern können. Die vorliegende Erfindung liefert Reparatur
verfahren zur Verhinderung derartiger Bereiche. Fig. 39A
zeigt ein Reparaturverfahren, durch das jeder der nicht
messbaren Bereiche im Höhenverteilungsdiagramm mit einer
Höhe des benachbarten Bereiches auf einer vorbereitend
ausgewählten Seite (linke Seite im Beispiel von Fig. 39A)
"gefüllt" (oder dadurch ersetzt) wird. Fig. 39B zeigt ein
weiteres Reparaturverfahren, durch das nicht messbare
Bereiche gefüllt werden, so dass sich die Höhenverteilung
um diese Bereiche leicht ändert und sich leicht mit den
benachbarten Bereichen verbindet.
Wenn aufgrund von Störsignalen fehlerhafte Daten ent
halten sind, wie umschlossen von einer unterbrochenen Linie
in Fig. 40 gezeigt, können sie mit einem spezifizierten
Schwellenwert verglichen werden, um die Kontinuität der
Helligkeit zu überprüfen, und nur durch ein Segment mit
derselben Höhe wie der benachbarte Bereich ersetzt werden,
wenn die Kontinuität hergestellt wird.
Zusammenfassend können optische Sensoren dieser Erfin
dung eine Schnittumrisslinie genau messen, auch bei einem
Zielobjekt, das ein sich änderndes Reflexionsvermögen, eine
Nut, einen abgeschrägten Abschnitt oder eine gekrümmte
Oberfläche aufweist.
Claims (32)
1. Ein optischer Versetzungssensor, welcher auf
weist:
Mehrfachbildaufnahmemittel, umfassend Lichtpro jektionsmittel, Bildaufnahmemittel und Parameterab tastmittel, wobei die Lichtprojektionsmittel dazu die nen, ein Spaltlichtbündel bereitzustellen und Spalt lichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel dazu dienen, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittum risslinie durch eine optischen Schnittoberfläche, un ter Verwendung eines zweidimensionalen Bildaufnahmee lementes unter einem anderen Winkel zu gewinnen, der vom spezifizierten Winkel verschieden ist, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel dazu dienen, die Helligkeit der umrissaufweisenden Bilder anzuta sten, indem der Wert von mindestens einem der Parame ter verändert wird, die die Bildaufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel dazu dienen, eine Vielzahl der umrissaufweisenden Bil der unter verschiedenen Bildaufnahmebedingungen zu ge winnen;
Bildsynthetisierungsmittel zum Extrahieren, eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er füllt aus einer Vielzahl der umrissaufweisenden Bil dern, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum risslinie enthält, durch die Zusammenfassung der ex trahierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab schnitten der Bilder der Schnittumrisslinie und Erzeu gung eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird.
Mehrfachbildaufnahmemittel, umfassend Lichtpro jektionsmittel, Bildaufnahmemittel und Parameterab tastmittel, wobei die Lichtprojektionsmittel dazu die nen, ein Spaltlichtbündel bereitzustellen und Spalt lichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel dazu dienen, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittum risslinie durch eine optischen Schnittoberfläche, un ter Verwendung eines zweidimensionalen Bildaufnahmee lementes unter einem anderen Winkel zu gewinnen, der vom spezifizierten Winkel verschieden ist, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel dazu dienen, die Helligkeit der umrissaufweisenden Bilder anzuta sten, indem der Wert von mindestens einem der Parame ter verändert wird, die die Bildaufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel dazu dienen, eine Vielzahl der umrissaufweisenden Bil der unter verschiedenen Bildaufnahmebedingungen zu ge winnen;
Bildsynthetisierungsmittel zum Extrahieren, eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er füllt aus einer Vielzahl der umrissaufweisenden Bil dern, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum risslinie enthält, durch die Zusammenfassung der ex trahierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab schnitten der Bilder der Schnittumrisslinie und Erzeu gung eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird.
2. Der optische Versetzungssensor nach Anspruch 1,
wobei die Messmittel die Verteilung des Abstandes zwi
schen den Mehrfachbildaufnahmemitteln und der Ziel
oberfläche entlang einer Linie messen, darin einge
schlossen dort, wo das Spaltbündel zum Einfall ge
bracht wird.
3. Der optische Versetzungssensor nach Anspruch 1,
wobei die Parameter eine Belichtungszeit des zweidi
mensionalen Bildaufnahmeelementes umfassen.
4. Der optische Versetzungssensor nach Anspruch 1,
wobei die Parameter in veränderbaren Einheiten ge
ändert werden.
5. Der optische Versetzungssensor nach Anspruch 1,
wobei die Parameter innerhalb eines veränderbaren ma
ximalen Bereiches geändert werden.
6. Der optische Versetzungssensor nach Anspruch 1,
wobei die Parameter innerhalb eines maximalen Be
reiches geändert werden, wobei der maximale Bereich
automatisch gemäß den Ergebnissen einer Testmessung
eingestellt wird.
7. Der optische Versetzungssensor nach Anspruch 1,
wobei die Parameter innerhalb eines maximalen Be
reiches in spezifizierten Einheiten geändert werden,
wobei der Sensor Mittel zur automatischen Anpassung
des maximalen Bereiches und der spezifizierten Ein
heiten gemäß der Helligkeit des Bildes der vom Sensor
genommenen Schnittumrisslinie aufweist.
8. Der optische Versetzungssensor nach Anspruch 1,
wobei die vorgegebenen Segmente jeweils einen Bereich
umfassen, der eine oder mehr aneinandergrenzende hori
zontale Abtastzeilen auf einem Bild aufweist, das mit
dem zweidimensionalen Bildaufnahmeelement gewonnen
wird.
9. Der optische Versetzungssensor nach Anspruch 1,
wobei die Bildsynthetisierungsmittel aufweisen:
einen Bildspeicher zur Speicherung des Bildes ei nes Bildschirmabschnittes des zweidimensionalen Bild aufnahmeelementes, wobei der Bildspeicher in Segmente unterteilt ist;
einen Kennzeichen-Speicher zur Speicherung von Schreibsteuer-Kennzeichen, die angeben, ob für jedes dieser Segmente des Bildspeichers ein Einschreiben zu lässig ist oder nicht;
Bildaufzeichnungsmittel zur Aufzeichnung von Bil dern, die durch die Mehrfachbildaufnahmemittel gewon nen wurden, in dem Bildspeicher in Einheiten der Seg mente gemäß den Schreibsteuer-Kennzeichen; und
Kennzeichen-Steuermittel, zum Steuern der Schreibsteuer-Kennzeichen so, dass, nachdem ein seg mentiertes Bild, das die spezifizierte Bedingung der maximalen Helligkeit erfüllt, in jedem der Segmente des Bildspeichers aufgezeichnet wurde, das Schreiben in das entsprechende Segment verhindert wird.
einen Bildspeicher zur Speicherung des Bildes ei nes Bildschirmabschnittes des zweidimensionalen Bild aufnahmeelementes, wobei der Bildspeicher in Segmente unterteilt ist;
einen Kennzeichen-Speicher zur Speicherung von Schreibsteuer-Kennzeichen, die angeben, ob für jedes dieser Segmente des Bildspeichers ein Einschreiben zu lässig ist oder nicht;
Bildaufzeichnungsmittel zur Aufzeichnung von Bil dern, die durch die Mehrfachbildaufnahmemittel gewon nen wurden, in dem Bildspeicher in Einheiten der Seg mente gemäß den Schreibsteuer-Kennzeichen; und
Kennzeichen-Steuermittel, zum Steuern der Schreibsteuer-Kennzeichen so, dass, nachdem ein seg mentiertes Bild, das die spezifizierte Bedingung der maximalen Helligkeit erfüllt, in jedem der Segmente des Bildspeichers aufgezeichnet wurde, das Schreiben in das entsprechende Segment verhindert wird.
10. Der optische Versetzungssensor nach Anspruch 9,
wobei die Mehrfachbildaufnahmemittel damit aufhören,
die umrissaufweisenden Bilder zu gewinnen, wenn die
segmentierten Bilder, die die spezifizierte Bedingung
der maximalen Helligkeit erfüllen, in alle der spezi
fizierten Einheiten der Segmente des Bildspeichers
aufgezeichnet wurden.
11. Der optische Versetzungssensor nach Anspruch 9,
wobei die vorgegebenen Segmente jeweils aus einem Be
reich bestehen, der eine oder mehr aneinandergrenzende
horizontale Abtastzeilen aufweist.
12. Der optische Versetzungssensor nach Anspruch 1,
wobei die Mehrfachbildaufnahmemittel in einem Gehäuse
aufbau enthalten sind, um eine Sensorkopfeinheit zu
bilden, und die Bildsynthetisierungsmittel und die
Messmittel in einem anderen Gehäuseaufbau enthalten
sind, um eine Signalverarbeitungseinheit zu bilden.
13. Der optische Versetzungssensor nach Anspruch 1,
welcher ferner einen Bildmonitor, der extern mit der
Signalverarbeitungseinheit verbunden ist, aufweist.
14. Mehrfachbildaufnahmevorrichtung, welche aufweist:
Lichtprojektionsmittel zur Lieferung eines Spalt lichtbündels und Einstrahlung des Spaltlichbündels un ter einem spezifizierten Winkel auf eine Zielfläche eines Zielobjektes;
Bildaufnahmemittel zur Gewinnung von umrissauf weisenden Bildern, umfassend ein Bild einer Schnittum risslinie durch eine optische Schnittfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelemen tes unter einem anderen Winkel, der von dem spezifi zierten Winkel verschieden ist, um die Zieloberfläche zu photographieren, wo das Spaltlichtbündel zum Ein fall gebracht wird; und
Parameterabtastmittel zur Abtastung der Hellig keit der umrissaufweisenden Bilder durch Verändern des Wertes von mindestens einem der Parameter, die Bild aufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten wurden;
wobei die Mehrfachbildaufnahmevorrichtung dazu dient, eine Vielzahl der umrissaufweisenden Bilder un ter verschiedenen Bildaufnahmebedingungen zu erhalten.
Lichtprojektionsmittel zur Lieferung eines Spalt lichtbündels und Einstrahlung des Spaltlichbündels un ter einem spezifizierten Winkel auf eine Zielfläche eines Zielobjektes;
Bildaufnahmemittel zur Gewinnung von umrissauf weisenden Bildern, umfassend ein Bild einer Schnittum risslinie durch eine optische Schnittfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelemen tes unter einem anderen Winkel, der von dem spezifi zierten Winkel verschieden ist, um die Zieloberfläche zu photographieren, wo das Spaltlichtbündel zum Ein fall gebracht wird; und
Parameterabtastmittel zur Abtastung der Hellig keit der umrissaufweisenden Bilder durch Verändern des Wertes von mindestens einem der Parameter, die Bild aufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten wurden;
wobei die Mehrfachbildaufnahmevorrichtung dazu dient, eine Vielzahl der umrissaufweisenden Bilder un ter verschiedenen Bildaufnahmebedingungen zu erhalten.
15. Mehrfachbildaufnahmevorrichtung nach Anspruch 14,
die in einem Gehäuseaufbau enthalten ist, um eine Sen
sorkopfeinheit zu bilden.
16. Signalverarbeitungsvorrichtung zur Verbindung mit
Mehrfachbildaufnahmemitteln, wobei die Mehrfachbild
aufnahme Lichtprojektionsmittel, Bildaufnahmemittel
und Parameterabtastmittel aufweist, wobei die Licht
projektionsmittel dazu dienen, ein Spaltlichtbündel zu
liefern und das Spaltlichtbündel unter einem spezifi
zierten Winkel auf eine Zieloberfläche eines Zielob
jektes einzustrahlen, wobei die Bildaufnahmemittel da
zu dienen, umrissaufweisende Bilder, darin einge
schlossen ein Bild einer Schnittumrisslinie durch eine
optischen Schnittoberfläche, unter Verwendung eines
zweidimensionalen Bildaufnahmeelementes unter einem
anderen Winkel, der vom spezifizierten Winkel ver
schieden ist zu gewinnen, um die Zielfläche zu photo
graphieren, auf die das Spaltlichtbündel einfällt, wo
bei die Parameterabtastmittel dazu dienen, die Hellig
keit der umrissaufweisenden Bilder abzutasten, indem
der Wert von mindestens einem der Parameter verändert
wird, die Bildaufnahmebedingungen definieren, die die
Helligkeit der umrissaufweisenden Bilder beeinflussen,
die durch die Bildaufnahmemittel erhalten wurden, wo
bei die Mehrfachabbildungsmittel dazu dienen, eine
Vielzahl der umrissumfassenden Bilder unter verschie
denen Bildaufnahmebedingungen zu gewinnen; wobei die
Signalverarbeitungseinheit aufweist:
Bildsynthetisierungsmittel zum Extrahieren eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er füllt, aus einer Vielzahl der umrissaufweisenden Bil der, die von den Mehrfachbildaufnahmemitteln erhalten wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum risslinie aufweist, durch Zusammenfassen der extra hierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab schnitten der Bilder der Schnittumrisslinie und Erzeu gung eines Wertes, der ein durch das spezifizierte Messverfahren erhaltenes Ergebnis darstellt;
wobei das Signalverarbeitungsgerät einen Quer schnitt des Zielobjektes misst.
Bildsynthetisierungsmittel zum Extrahieren eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er füllt, aus einer Vielzahl der umrissaufweisenden Bil der, die von den Mehrfachbildaufnahmemitteln erhalten wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum risslinie aufweist, durch Zusammenfassen der extra hierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab schnitten der Bilder der Schnittumrisslinie und Erzeu gung eines Wertes, der ein durch das spezifizierte Messverfahren erhaltenes Ergebnis darstellt;
wobei das Signalverarbeitungsgerät einen Quer schnitt des Zielobjektes misst.
17. Die Signalverarbeitungseinheit nach Anspruch 16,
die zur Ausbildung als Verarbeitungseinheit in einem
Gehäuseaufbau enthalten ist.
18. Der optische Versetzungssensor nach Anspruch 1,
welcher ferner Bildreparaturmittel zur Reparatur eines
fehlenden Abschnittes des Bildes der Schnittumrissli
nie im von den Bildsynthetisierungsmitteln erzeugten
synthetisierten Bild aufweist.
19. Der optische Versetzungssensor nach Anspruch 18,
wobei die Bildreparaturmittel sequentiell die Anwesen
heit oder die Abwesenheit des Bildes eines Abschnittes
der Schnittumrisslinie auf jeder der das synthetisier
te Bild bildenden Abtastzeilen nachweisen und das Bild
eine Abtastzeile mit dem fehlenden Bild der Schnittum
risslinie durch das Bild der Abtastzeile unmittelbar
davor ersetzen.
20. Der optische Versetzungssensor nach Anspruch 18,
wobei die Bildreparaturmittel sequentiell die Anwesen
heit oder die Abwesenheit des Bildes eines Abschnittes
der Schnittumrisslinie auf jeder der das synthetisier
te Bild bildenden Abtastzeilen nachweisen und das Bild
eine Abtastzeile mit dem fehlenden Bild der Schnittum
risslinie durch Verwendung der Bilder der Abtastzeilen
davor und danach ersetzen.
21. Der optische Versetzungssensor nach Anspruch 18,
wobei das Bildreparaturmittel sequentiell die Anwesen
heit oder die Abwesenheit des Bildes eines Abschnittes
der Schnittumrisslinie auf jeder der das synthetisier
te Bild bildenden Abtastzeilen nachweisen und das Bild
eine Abtastzeile in Abhängigkeit von der Kontinuität
der Helligkeit mit den Bildern der Schnittumrisslinie
auf den Zeilen davor und danach ersetzen der nicht er
setzen.
22. Der optische Versetzungssensor nach Anspruch 1,
welcher Monitorausgabemittel zur Erzeugung von Ausga
besignalen zur Anzeige eines spezifizierten Bildes auf
einem Bildmonitor aufweist.
23. Der optische Versetzungssensor nach Anspruch 22,
wobei das spezifizierte Bild das synthetisierte Bild
enthält.
24. Der optische Versetzungssensor nach Anspruch 23,
wobei das spezifizierte Bild einen Cursor, der eine
der das synthetisierte Bild bildenden horizontalen Ab
tastzeilen anzeigt, und eine Helligkeitsverteilungs
kurve einer der Abtastzeilen, die vom Cursor ausge
wählt wurden, enthält.
25. Der optische Versetzungssensor nach Anspruch 23,
wobei das spezifizierte Bild einen Cursor, der eine
der horizontalen Abtastzeilen anzeigt, die aus dem
synthetisierten Bild ausgewählt wurden, und Bildauf
nahmebedingungen für eine der Abtastzeilen, die vom
Cursor ausgewählt wurden, enthält.
26. Der optische Versetzungssensor nach Anspruch 23,
wobei das spezifizierte Bild auf jeder der das synthe
tisierte Bild bildenden horizontalen Abtastzeilen eine
Markierung aufweist, die die Abwesenheit eines Bildes
der Schnittumrisslinie angibt.
27. Der optische Versetzungssensor nach Anspruch 23,
wobei das spezifizierte Bild auf jeder der das synthe
tisierte Bild bildenden horizontalen Abtastzeilen eine
Markierung aufweist, die die Anwesenheit der Schnitt
umrisslinie angibt.
28. Der optische Versetzungssensor nach Anspruch 22,
welcher ferner eine graphische Benutzerschnittstelle
zur Durchführung einer Konversation zwischen einem Be
diener und dem Bildmonitor über eine Zeigevorrichtung
aufweist.
29. Der optische Versetzungssensor nach Anspruch 1,
welcher ferner Spurverfolgungssteuermittel zur Ände
rung der Zielposition für die Messung gemäß einer Re
lativbewegung des Zielobjektes aufweist.
30. Der optische Versetzungssensor nach Anspruch 29,
wobei die Zielposition zur Messung des Abstandes zwi
schen den Mehrfachbildaufnahmemitteln und der Zielflä
che dient, und wobei die Relativbewegung senkrecht zur
Richtung erfolgt, in der sich der Abstand ändert.
31. Der optische Versetzungssensor nach Anspruch 29,
wobei die Zielposition zur Messung des Abstandes zwi
schen den Mehrfachbildaufnahmemitteln und der Zielflä
che dient, und wobei die Relativbewegung in der Rich
tung erfolgt, in der sich der Abstand ändert.
32. Der optische Versetzungssensor nach Anspruch 29,
wobei die Zielposition zur Messung des Abstandes zwi
schen den Mehrfachbildaufnahmemitteln und der Zielflä
che dient, und wobei die Relativbewegung sowohl in der
als auch senkrecht zu der Richtung erfolgt, in der
sich der Abstand ändert.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001133388 | 2001-03-25 | ||
JP01-133388 | 2001-03-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10212916A1 true DE10212916A1 (de) | 2002-11-07 |
DE10212916B4 DE10212916B4 (de) | 2016-12-22 |
Family
ID=18981256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10212916.9A Expired - Fee Related DE10212916B4 (de) | 2001-03-25 | 2002-03-22 | Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors |
Country Status (3)
Country | Link |
---|---|
US (1) | US6839144B2 (de) |
CN (1) | CN1218159C (de) |
DE (1) | DE10212916B4 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005011149B4 (de) * | 2004-03-12 | 2009-10-29 | Omron Corp. | Messinstrument |
DE102011116791A1 (de) * | 2011-10-24 | 2013-04-25 | SmartRay GmbH | Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004117161A (ja) * | 2002-09-26 | 2004-04-15 | Sharp Corp | 光学式変位センサ |
JP4375523B2 (ja) * | 2002-12-20 | 2009-12-02 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、印刷物検査装置、印刷物検査方法、印刷物検査プログラム |
EP1517115B1 (de) * | 2003-09-19 | 2016-05-11 | Omron Corporation | Mehrfachsensorsystem |
US7460250B2 (en) * | 2003-10-24 | 2008-12-02 | 3Dm Devices Inc. | Laser triangulation system |
TW200902964A (en) * | 2007-03-21 | 2009-01-16 | Camtek Ltd | System and method for height measurement |
WO2008126647A1 (ja) * | 2007-04-05 | 2008-10-23 | Nikon Corporation | 形状測定装置及び形状測定方法 |
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
KR20130072213A (ko) * | 2010-05-19 | 2013-07-01 | 가부시키가이샤 니콘 | 형상 측정 장치 및 형상 측정 방법 |
CN101907450B (zh) * | 2010-07-22 | 2012-05-23 | 西北师范大学 | 不同反射率材质组合表面的三维宏观形貌构建方法 |
JP5494597B2 (ja) * | 2011-09-16 | 2014-05-14 | 株式会社安川電機 | ロボットシステム |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US20140104413A1 (en) | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
JP2014159988A (ja) * | 2013-02-19 | 2014-09-04 | Yaskawa Electric Corp | 物体検出装置、ロボットシステム、及び物体検出方法 |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
US9605950B2 (en) * | 2013-05-22 | 2017-03-28 | Cognex Corporation | System and method for efficient surface measurement using a laser displacement sensor |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
US9464885B2 (en) | 2013-08-30 | 2016-10-11 | Hand Held Products, Inc. | System and method for package dimensioning |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
US9762793B2 (en) * | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US20160377414A1 (en) | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
EP3118576B1 (de) | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensionierungsvorrichtung mit dynamischer nist-standardkonformer genauigkeit |
US10094650B2 (en) | 2015-07-16 | 2018-10-09 | Hand Held Products, Inc. | Dimensioning and imaging items |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
WO2017110415A1 (ja) * | 2015-12-21 | 2017-06-29 | 株式会社小糸製作所 | 車両用センサおよびそれを備えた車両 |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
CN113544464B (zh) | 2019-03-11 | 2022-08-26 | 三菱电机株式会社 | 位移计的设定值调整装置 |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
CN114690391A (zh) * | 2020-12-29 | 2022-07-01 | 光原科技(深圳)有限公司 | 光片荧光显微镜、图像处理系统和图像处理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4666303A (en) * | 1983-07-11 | 1987-05-19 | Diffracto Ltd. | Electro-optical gap and flushness sensors |
DE3940518C2 (de) * | 1989-12-07 | 1994-04-21 | Fisw Gmbh | Vorrichtung zur Belichtungsregelung für einen Lichtschnittsensor |
JP3040607B2 (ja) | 1992-08-04 | 2000-05-15 | 三菱重工業株式会社 | 光切断方法における異常光除去方法 |
JPH09287926A (ja) * | 1996-04-24 | 1997-11-04 | Hitachi Constr Mach Co Ltd | 断面形状計測装置 |
PT822389E (pt) * | 1996-07-29 | 2003-08-29 | Elpatronic Ag | Processo e dispositivo para determinacao e verificacao do contorno de um rebordo |
DE19636354A1 (de) * | 1996-09-02 | 1998-03-05 | Ruedger Dipl Ing Rubbert | Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen |
JP2000230814A (ja) * | 1999-02-09 | 2000-08-22 | Mitsubishi Heavy Ind Ltd | レーザ光を利用した形状測定方法 |
US6503195B1 (en) * | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
-
2002
- 2002-03-22 US US10/106,883 patent/US6839144B2/en not_active Expired - Lifetime
- 2002-03-22 DE DE10212916.9A patent/DE10212916B4/de not_active Expired - Fee Related
- 2002-03-25 CN CN021079617A patent/CN1218159C/zh not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005011149B4 (de) * | 2004-03-12 | 2009-10-29 | Omron Corp. | Messinstrument |
DE102011116791A1 (de) * | 2011-10-24 | 2013-04-25 | SmartRay GmbH | Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren |
DE102011116791B4 (de) * | 2011-10-24 | 2014-05-15 | SmartRay GmbH | Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren |
Also Published As
Publication number | Publication date |
---|---|
US6839144B2 (en) | 2005-01-04 |
DE10212916B4 (de) | 2016-12-22 |
CN1376895A (zh) | 2002-10-30 |
CN1218159C (zh) | 2005-09-07 |
US20020167677A1 (en) | 2002-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10212916A1 (de) | Optischer Versetzungssensor | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE60125683T2 (de) | Anordnung und Verfahren zur Entfernungsmessung | |
DE69027272T2 (de) | Digitalisierung einer Oberfläche eines unregelmässig geformten Körpers, zum Beispiel einer Schuhsohle | |
EP0249799B1 (de) | Vorrichtung zum Prüfen von Bauteilen aud transparentem Material auf Oberflächenfehler und Einschlüsse | |
DE102009015920A1 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE2417946B2 (de) | Verfahren zum Speichern und Auswerten von bei der Abtastung eines zu untersuchenden Objektes mit Ultraschall nach dem Impuls-Echoverfahren erhaltenen Echoimpulsen | |
CH666350A5 (de) | Stereophotogrammetrisches aufnahme- und auswerteverfahren sowie auswertevorrichtung. | |
DE102009055626A1 (de) | Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts | |
DE102007004349A1 (de) | Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes | |
DE19603267A1 (de) | Vorrichtung zur Abstands- und/oder Positionsbestimmung | |
EP2645121A1 (de) | Prüfvorrichtung und Prüfverfahren für ein Verkehrsüberwachungsgerät mit einem Laserscanner | |
DE10063293A1 (de) | Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf | |
WO1998017993A2 (de) | Verfahren für die ermittlung von optischen fehlern in grossflächigen scheiben | |
EP0708325B1 (de) | Verfahren und Vorrichtung zur Inspektion von Gegenständen, insbesondere von Flaschen | |
DE19806261B4 (de) | Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen | |
DE69315575T2 (de) | Detektor kalibrierung | |
DE102006036586B4 (de) | Lötnahtprüfung | |
EP2669622A1 (de) | Prüfverfahren und hierzu geeigneter Prüfkopf | |
DE102009040649A1 (de) | Verfahren und Vorrichtung zur Erzeugung von digitalen Einzelbildern von scheibenförmigen Elementen in einem Herstellungsprozess | |
DE19535969A1 (de) | Mehrfach abbildendes Linsensystem | |
DE10223478C5 (de) | Verfahren zur Aufnahme eines Objektraumes | |
AT406528B (de) | Verfahren und einrichtung zur feststellung, insbesondere zur visualisierung, von fehlern auf der oberfläche von gegenständen | |
DE102009047324A1 (de) | Einrichtung und Verfahren für die Kalibrierung eines optischen Sensors | |
DE102017009153B4 (de) | Anordnung und Verfahren zur Inspektion von bewegten plattenförmigen Objekten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R082 | Change of representative |
Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE Representative=s name: KILIAN KILIAN & PARTNER, DE |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |