DE10212916A1 - Optischer Versetzungssensor - Google Patents

Optischer Versetzungssensor

Info

Publication number
DE10212916A1
DE10212916A1 DE10212916A DE10212916A DE10212916A1 DE 10212916 A1 DE10212916 A1 DE 10212916A1 DE 10212916 A DE10212916 A DE 10212916A DE 10212916 A DE10212916 A DE 10212916A DE 10212916 A1 DE10212916 A1 DE 10212916A1
Authority
DE
Germany
Prior art keywords
image
displacement sensor
images
optical displacement
sensor according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10212916A
Other languages
English (en)
Other versions
DE10212916B4 (de
Inventor
Michitoshi Okada
Masahiro Kawachi
Tatsuya Matsunaga
Mitsuharu Mano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE10212916A1 publication Critical patent/DE10212916A1/de
Application granted granted Critical
Publication of DE10212916B4 publication Critical patent/DE10212916B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein optischer Versetzungssensor nimmt eine Vielzahl von Bildern eines Zielobjektes durch Einstrahlung eines Spaltlichtbündels und unter Verwendung eines zweidimensionalen Bildaufnahmeelementes auf, wobei die Bildaufnahmebedingungen jedesmal verändert werden. Parameter, die diese Bedingungen definierten, die die Helligkeit des erhaltenen Bildes beeinflussen, werden verändert. Von jedem dieser Bilder, einschließend ein Bild eines Abschnittes der Schnittumrisslinie des Zielobjektes wird ein segmentiertes Bild extrahiert, das eine spezifizierte Bedingung maximaler Helligkeit erfüllt, und ein synthetisiertes Bild wird durch die Zusammenfassung derartiger segmentierter Bilder erzeugt. Das Zielobjekt wird anhand eines derartigen synthetisierten Bildes inspiziert.

Description

HINTERGRUND DER ERFINDUNG
Diese Erfindung betrifft einen optischen Versetzungs­ sensor zur Untersuchung der Schnittumrissform eines Zielob­ jektes. Insbesondere betrifft diese Erfindung einen derar­ tigen optischen Sensor, der dazu in der Lage ist, mit einem hohen Grad an Genauigkeit die Schnittumrissform eines Zielobjektes einer Art zu überprüfen, die so geformt ist, dass mit einheitlicher Dichte ein Umrissbild eines opti­ schen Schnittbildes wegen seiner Oberflächenmerkmale schwer zu erhalten ist.
Es ist ein optischer Versetzungssensor nach dem Stand der Technik für einen derartigen Zweck bekannt, der dadurch gekennzeichnet ist, dass er Lichtprojektionsmittel zur Ausbildung eines Spaltbündels aus Licht einer Lichtquelle und Einstrahlung dieses Bündels unter einem spezifizierten Winkel auf ein Zielobjekt, Abbildungsmittel zur Gewinnung eines Bildes einer Schnittumrisslinie des Zielobjektes durch eine optische Schnittebene unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderem Winkel, um die Einfallslage des Spaltbündels auf dem Ziel­ objekt zu photographieren, und Messmittel zur Durchführung eines spezifizierten Verfahrens auf dem durch die Abbil­ dungsmittel erhaltenen Bild der Umrisslinie aufweist, womit ein Messwert und/oder ein Beurteilungswert erzeugt wird. Die Richtung der Schnittoberfläche durch das Spaltbündel entspricht der Richtung des senkrechten Abtastens innerhalb des Gesichtsfeldes des zweidimensionalen Bildaufnahmeele­ mentes. Wenn der Abstand zwischen dem Messgerät und dem Zielobjekt verändert wird, bewegt sich das Bild der Schnit­ tumrisslinie, das durch das Spaltbündel gebildet wird, auf der Lichtempfangsoberfläche des zweidimensionalen Bildauf­ nahmeelementes in dieselbe Richtung wie diejenige der horizontalen Abtastlinie.
Mit einem derartigen Sensor können Daten über eine Reihe von Zielpunkten auf einer geraden Linie auf der Oberfläche des Zielobjektes summarisch erhalten werden, ohne das projizierte Licht bezüglich des Zielobjekts zu bewegen, da ein Spaltbündel mit einer Querschnittform einer Zeile anstatt eines Punktlichtes mit einem punktförmigen Querschnitt verwendet wird. Somit können, wenn ein derarti­ ger Sensor dazu verwendet wird, industrielle Produkte zu untersuchen, die entlang einer Fertigungsstraße transpor­ tiert werden, fehlerhafte Produkte schnell und zuverlässig identifiziert werden, indem verschiedenen Teile ihrer Oberflächen gemessen werden.
Industrielle Produkte werden in verschiedenen Formen und Gestalten hergestellt, einschließlich solcher die nichtgleichförmige Oberflächenzustände wie z. B. die Ober­ flächenrauheit oder die Farbe, aufweisen, so dass das Reflexionsvermögen nicht gleichförmig ist. Für ein derarti­ ges Produkt soll Bereich A ein Abschnitt seiner Oberfläche mit hohem Reflexionsvermögen und Bereich B ein Abschnitt mit niedrigem Reflexionsvermögen sein. Wenn das zweidimen­ sionale Bildaufnahmeelement so eingestellt wird, dass der Bildbereich A deutlich herauskommt, ist die Helligkeit (oder Klarheit) des Bildes von Bereich B nicht ausreichend. Wenn das Element so eingestellt wird, dass das Bild von Bereich B deutlich herauskommt, ist andererseits das Bild von Bereich A zu hell, und es kann keine genaue Messung durchgeführt werden.
Fig. 41A und 41B veranschaulichen Probleme dieser Art. Fig. 41A zeigt auf ihrer linken Seite eine Querschnittsei­ tenansicht eines Objektes mit einem linken Teil mit hohem Reflexionsvermögen und einem rechten Teil mit niedrigem Reflexionsvermögen. Sein Bild, das von einem zweidimensio­ nalen Bildaufnahmeelement aufgenommen ist, wie oben er­ klärt, wird auf der rechten Seite gezeigt. In diesem Bei­ spiel ist ein Bild der linken Seite des Objektes sichtbar, aber es ist keine ausreichende Reflexion des Lichts vom rechten Teil vorhanden, und es ist nicht möglich, die Schnittumrisslinie des rechten Teils zu messen. Im Bild auf der rechten Seite stellt die horizontale Richtung die Richtung der Schnittfläche des Spaltlichtbündels dar, und die vertikale Richtung entspricht der Richtung der Höhe das Zielobjektes. Das Bild des Einfallbündels auf dem Zielob­ jekt sollte eine gerade horizontale Zeile sein, die sich über den ganzen Bildschirm erstreckt, aber seine rechte Seite ist in diesem Beispiel wegen seines niedrigen Refle­ xionsvermögens nicht sichtbar. Wenn auf der Grundlage eines derartigen Bildes Messungen durchgeführt werden, kann die Höhe auf der linken Seite gemessen werden, aber auf der rechten Seite kann keine Messung durchgeführt werden.
Fig. 41B zeigt ein weiteres Zielobjekt, das eine Nut mit einem niedrigen Reflexionsvermögen aufweist, die zwi­ schen einem rechten und linken Teil mit hohem Reflexions­ vermögen zwischengenommen ist. Das von diesem Objekt aufge­ nommene Bild zeigt, dass der Abschnitt der Nut wegen seines niedrigen Reflexionsvermögens, wie durch eine gestrichelte kreisförmige Linie angegeben, fehlt.
Im Fall eines Objektes mit abgeschrägten Oberflächen­ abschnitten haben die abgeschrägten Abschnitte die Tendenz, ein geringeres Reflexionsvermögen aufzuweisen, was keine genauen Messungen ermöglicht. Fig. 42A zeigt ein Beispiel eines derartigen Zielobjektes. Das Bild, das von einem zweidimensionalen Bildaufnahmeelement gewonnen wird, um­ fasst drei Zeilen, die das Bild des auf das Zielobjekt zum Einfall gebrachten Spaltlichtbündel darstellen. Das Bild zeigt, dass die Abschnitte, die den Abschrägungen entspre­ chen, fehlen. Somit können die Höhe des linken und des rechten Endabschnittes und des oberen Mittelteils des Bilds gemessen werden, auf den abgeschrägten Abschnitten aber kann keine normale Messung durchgeführt werden, da die Helligkeit nicht ausreichend ist.
Im Fall eines Zielobjektes mit einer gekrümmten Ober­ fläche, wie in Fig. 42B gezeigt, hat der gekrümmte Ab­ schnitt die Tendenz, das Licht nicht ausreichend zu reflek­ tieren. Somit kann von einem zweidimensionalen Bildaufnah­ meelement gewonnene Abschnitt des Bildes, der der gekrümm­ ten Oberfläche entspricht, fehlen.
ZUSAMMENFASSUNG DER ERFINDUNG
Es ist daher eine Aufgabe dieser Erfindung, einen op­ tischen Versetzungssensor zu schaffen, der das Spaltlicht­ verfahren verwendet und dazu in der Lage ist, eine Schnit­ tumrisslinie sehr genau zu messen, auch wenn das Zielobjekt eine Oberfläche mit einem nicht gleichförmigen Reflexions­ vermögen, eine Nut, eine abgeschrägte Oberfläche oder eine gekrümmte Oberfläche aufweist.
Es ist eine weitere Aufgabe der Erfindung, einen der­ artigen optischen Versetzungssensor zu schaffen, der eine geeignete Korrektur durchführen kann, wenn ein Abschnitt des Bildes einer Schnittumrisslinie etwa aufgrund einer Störung fehlt.
Es ist noch eine weitere Aufgabe der Erfindung, einen derartigen optischen Versetzungssensor zu schaffen, der, wenn eine Messung durchgeführt wird, indem ein Zielbereich gemäß einem spezifizierten Abschnitt eines Bildes in der Richtung der Schnittlinie des Spaltlichtes eingestellt wird, dazu in der Lage ist, die Verschiebung des spezifi­ zierten Abschnittes des Bildes aus dem Zielbereich automa­ tisch zu korrigieren.
Andere Aufgaben und Wirkungen der Erfindung werden für einen Fachmann aus der folgenden Beschreibung deutlich.
Ein optischer Versetzungssensor gemäß dieser Erfindung kann dadurch gekennzeichnet sein, dass er Mehrfachbildauf­ nahmemittel, Bildsynthetisierungsmittel und Messmittel umfasst. Die Mehrfachbildaufnahmemittel umfassen Lichtpro­ jektionsmittel zur Lieferung des Spaltlichtbündels und Einstrahlung des Spaltbündels unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes, Bildauf­ nahmemittel zur Gewinnung von umrissenthaltenden Bildern, darin eingeschlossen ein Bild einer Schnittumrisslinie durch eine optische Trennfläche, indem ein zweidimensiona­ les Bildaufnahmeelement unter einem anderen Winkel, der vom Einfallswinkel des Spaltbündels verschieden ist, verwendet wird, um die Zieloberfläche aufzunehmen, auf die das Spalt­ bündel zum Einfall gebracht wird, und Parameterabtastmittel zur Abtastung der Helligkeit der umrissenthaltenden Bilder, indem der Wert von mindestens einem der Parameter variiert wird, die die Bildaufnahmebedingungen definieren, die die Helligkeit der durch die Bildaufnahmemittel gewonnenen umrissenthaltenden Bilder beeinflussen. Die Mehrfachbild­ aufnahmemittel dienen dazu, eine Vielzahl von umrissenthal­ tenden Bildern mit verschiedenen Bildaufnahmebedingungen zu gewinnen. Die Bildsynthetisierungsmittel dienen dazu, aus einer Vielzahl dieser umrissenthaltenden Bilder, die durch die Mehrfachbildaufnahmemittel gewonnen wurden, ein segmen­ tiertes Bild zu extrahieren, das einer spezifizierten Bedingung maximaler Helligkeit für jedes der vorherbestimm­ ten Segmente genügt, und ein synthetisiertes Bild zu erzeu­ gen, welches eine Reihe von Bildern von Abschnitten der Schnittumrisslinie enthält, indem die extrahierten segmen­ tierten Bilder zusammengefasst werden. Die Messmittel dienen dazu, ein spezifiziertes Messverfahren auf der Grundlage der Reihe von Bildern von Abschnitten der Schnit­ tumrisslinie durchzuführen und einen Wert zu erzeugen, der ein durch das spezifizierte Messverfahren gewonnenes Ergeb­ nis darstellt.
Die Messmittel können dazu dienen, die Abstandsvertei­ lung zwischen den Mehrfachbildaufnahmemitteln und der Zielfläche entlang einer Linie, die den Einfallspunkt des Spaltbündels enthält, unter Verwendung einer Reihe von Messwerten gewinnen.
Mit einem derart aufgebauten optischen Versetzungssen­ sor werden einer oder mehrere der Parameter, die die Bild­ aufnahmebedingungen definieren, die die Helligkeit des Bildes einer Schnittumrisslinie beeinflussen, verändert, um die Helligkeit des Bildes abzutasten, während eine Vielzahl von Bildern von den Mehrfachbildaufnahmemitteln aufgenommen wird, und wird ein synthetisiertes Bild durch die Zusammen­ fassung von segmentierten Bildern gewonnen, von denen jedes einer spezifizierten Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten genügt. Das so erhaltene synthetisierte Bild enthält eine Reihe von Bildern von Abschnitten der Schnittumrisslinie. Somit können die Mess­ mittel ein spezifiziertes Messverfahren auf der Grundlage eines hellen Bildes durchführen, das durch die Zusammenset­ zung einer Reihe von Bildern von Abschnitten der Schnittum­ risslinie gebildet ist, und dadurch einen genauen Messwert oder einer Beurteilung erzeugen.
Verschiedene Arten von Parametern können für den Zweck dieser Erfindung verwendet werden, aber die Menge des Lichtes von der Quelle und die Verschlusszeit des zweidi­ mensionalen Bildaufnahmeelementes sind wirkungsvoll, da sie leicht gesteuert werden können. Zu anderen Beispielen gehören der Verstärkungsfaktor des Verstärkers für die Lichtprojektionsmittel. Wenn ein CCD-Bildsensor als das zweidimensionale Bildaufnahmeelement verwendet wird, können Parameter wie z. B. die Verschlusszeit des CCD-Bildsensors, das Taktverhältnis der eingestrahlten Impulse, das Verstär­ kungsverhältnis von Videosignalen und die Spitzenlichtmenge des Lichtes der eingestrahlten Lichtimpulse verwendet werden.
Die Parameter können in Einheiten verändert werden. In diesem Fall können die Einheiten, um die die Parameterwerte verändert werden, ebenso wie der maximale Bereich, inner­ halb dessen sie verändert werden können, veränderbar sein, so dass ein Bild mit optimaler Helligkeit für jeden Bereich erhalten werden kann, auf den das Spaltlichtbündel zum Einfall gebracht wird. Der maximale Bereich der Parameter kann gemäß einem Prüfergebnis automatisch veränderbar gemacht werden. Dies ist vorteilhaft, da keine Benutzerein­ gabe erforderlich ist, um einen derartigen maximalen Be­ reich einzustellen, auch nicht dort, wo Zielobjekte, die bedeutend unterschiedliche Oberflächenbedingungen aufwei­ sen, gemessen werden sollen, und somit ein optimaler Be­ reich zuverlässig und schnell ausgewählt werden kann. Die Einheiten, um die die Parameterwerte verändert werden, und/oder der maximale Bereich ihrer Veränderungen können so eingerichtet werden, dass sie automatisch gemäß der Hellig­ keit des Abschnittes des Bildes der Schnittumrisslinie, die innerhalb eines spezifizierten Segmentes gewonnen wird, eingestellt werden. Dies ist vorteilhaft, da die Zeit, die erforderlich ist, um sie einzustellen, eingespart werden kann.
Die Segmente können vorbereitend auf verschiedene Ar­ ten spezifiziert werden, in Abhängigkeit vom Gesichtsfeld und der erwarteten Position und Größe des Bildes der Schnittumrisslinie. Wenn sie so spezifiziert werden, dass jedes aus einem Bereich besteht, der eine oder mehrere aneinandergrenzende horizontale Abtastzeilen auf einem Bild enthält, das mit einem zweidimensionalen Bildaufnahmeele­ ment gewonnen wurde, ist dies zweckmäßig, da die Einheiten, in denen Bilder aufgenommen werden, und die Einheiten, in denen Bilder gehandhabt werden, in Übereinstimmung gebracht werden können.
Die Bildsynthetisierungsmittel können einen Bildspei­ cher, einen Kennzeichen-Speicher, Bildaufzeichnungsmittel und Kennzeichen-Steuermittel umfassen. Der Bildspeicher dient dazu, das Bild eines Bildschirmabschnittes des zwei­ dimensionalen Bildaufnahmeelementes zu speichern und ist geeignet in Segmente unterteilt. Der Kennzeichen-Speicher dient dazu, Schreibsteuer-Kennzeichens zu speichern, die angeben, ob Daten in jedes dieser Segmente des Bildspei­ chers geschrieben werden können oder nicht. Die Bildauf­ zeichnungsmittel dienen dazu, die durch die Mehrfachbild­ aufnahmemittel erhaltenen Bilder in Einheiten seiner Seg­ mente gemäß den Schreibsteuer-Kennzeichens in den Bildspei­ cher zu speichern. Die Kennzeichen-Steuermittel dienen dazu, die Schreibsteuer-Kennzeichens zu steuern, so dass nachdem ein segmentiertes Bild, das der spezifizierten Bedingung maximaler Helligkeit genügt, in jedes der Segmen­ te des Bildspeichers gespeichert worden ist, der Kennzei­ chen-Speicher, der dem Segment entspricht, so eingestellt wird, dass er das Einschreiben sperrt. Mit so aufgebauten Bildsynthetisierungsmitteln werden Bilder von den Mehrfach­ bildaufnahmemitteln empfangen und nahezu gleichzeitig synthetisiert, so dass die Verarbeitungszeit verringert werden kann.
Die Verarbeitungszeit kann noch weiter verringert wer­ den, wenn die Mehrfachbildaufnahmemittel in dem Zeitpunkt damit aufhören, Bilder zu gewinnen, in dem die segmentier­ ten Bilder, die der spezifizierten Bedingung maximaler Helligkeit genügen, in alle Segmente oder in alle erwarte­ ten Segmente des Bildspeichers geschrieben sind. Wenn die Segmente so spezifiziert sind, dass jedes aus einem Bereich besteht, der eine oder mehr aneinandergrenzende horizontale Abtastzeilen auf einem Bild aufweist, das vom Bildaufnah­ meelement der Mehrfachbildaufnahmemittel erhalten wurde, ist dies zweckmäßig, weil die Einheiten, in denen Bilder aufgenommen wurden, und die Einheiten, in denen Bilder im Bildspeicher gespeichert werden. Wie oben erklärt, ist die Richtung des Querschnittes des Spaltbündels die Richtung der senkrechten Abtastzeile auf der Lichtempfangsoberfläche des zweidimensionalen Bildaufnahmeelementes. Wenn der Abstand zwischen dem Messgerät und den Zielobjekt geändert wird, bewegt sich das Bild der Schnittumrisslinie, die vom Spaltbündel gebildet wird, auf der Lichtempfangsoberfläche des zweidimensionalen Bildaufnahmeelementes in dieselbe Richtung wie diejenige der horizontalen Abtastzeile.
Gemäß einem bevorzugten Ausführungsbeispiel der Erfin­ dung sind die Mehrfachbildaufnahmemittel in einem einzigen Gehäuseaufbau enthalten, der eine Sensorkopfeinheit bildet, und die Bildsynthetisierungsmittel und die Messmittel sind in einem anderen Gehäuseaufbau enthalten, der eine Signal­ verarbeitungseinheit bildet. Ein Bildmonitor kann so ge­ staltet sein, dass er extern mit der Signalverarbeitungs­ einheit verbindbar ist. Auf diese Weise kann die Sensor­ kopfeinheit neben dem Zielobjekt angeordnet werden, damit sie für die Messung zweckmäßig ist, aber die Signalverar­ beitungseinheit kann überall dort angeordnet werden, wo dies für den Bediener zweckmäßig ist. Wenn ein Bildmonitor mit der Signalverarbeitungseinheit verbunden ist, wird eine Überwachung auf verschiedene Arten durchführbar.
Das Mehrfachbildaufnahmemittel, die oben als eine Kom­ ponente eines optischen Sensors beschrieben wurden, können unabhängig als Mehrbildaufnahmegerät verwendet werden, wobei es Komponente wie oben beschrieben, enthalten in einem einzigen Gehäuseaufbau, aufweist, um so eine Sensor­ kopfeinheit zu bilden.
Ähnlich können die Bildsynthetisierungsmittel und die Messmittel, die oben als Komponente eines optischen Sensors beschrieben wurden, als ein unabhängiges Signalverarbei­ tungsgerät gebildet sein, wobei es Komponente wie oben beschrieben, untergebracht in einem einzigen Gehäuseaufbau, aufweist, um so eine Signalverarbeitungseinheit zu bilden.
Der optische Sensor dieser Erfindung kann auch Bildre­ paraturmittel aufweisen, um Teilfehler im synthetisierten Bild einer Schnittumrisslinie in einem synthetisierten Bild zu reparieren, das von dem Bildsynthetisierungsmitteln erzeugt wurde. Wenn das Bild einer Schnittumrisslinie von einem der Segmente eines synthetisierten Bildes fehlt, unabhängig davon, wie die Parameterwerte verändert werden, kann das synthetisierte Bild somit repariert werden, so dass ein Fehlschlag, auf dem synthetisierten Bild Messungen durchzuführen, verhindert werden kann.
Verschiedene Algorithmen können für die Bildsyntheti­ sierungsmittel verwendet werden. Gemäß einem von ihnen wird die An- oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie sequentiell auf jeder der horizonta­ len Abtastzeilen nachgewiesen, die das synthetisierte Bild bilden, und wenn eine Zeile gefunden wird, auf der das Bild eines Abschnittes der Schnittumrisslinie fehlt, wird das Bild auf der Zeile, die unmittelbar zuvor abgetastet wurde, an die Stelle gesetzt. Gemäß einem anderen Algorithmus erfolgt die Ersetzung, indem die Bilder sowohl der Zeile unmittelbar davor als auch einer nachfolgenden Zeile be­ rücksichtigt werden. Ein drittes Verfahren kann darin bestehen, auch das Bild auf jeder Abtastzeile mit einem Standardhelligkeitswert zu vergleichen und eine Korrektur, wie oben erklärt, durchzuführen oder nicht durchzuführen, abhängig von der Helligkeitskontinuität der Bilder der Schnittumrisslinie vor und nach der Abtastzeile.
Der optische Sensor dieser Erfindung kann auch Moni­ torausgabemittel zur Erzeugung von Ausgabesignalen für die Anzeige eines spezifizierten Bildes auf einem gesondert vorgesehenen Bildmonitor aufweisen. Anzeigen vieler Arten können auf dem Monitorbildschirm erfolgen. Zunächst kann das synthetisierte Bild, das von den Bildsynthetisierungs­ mitteln selbst erzeugt wurde, angezeigt werden. Zweitens kann ein Cursor, der die ausgewählte der horizontalen Abtastzeilen aus dem synthetisierten Bild und die Hellig­ keitsverteilungskurve ("helle Zeilenwellenform") der vom Cursor angegebenen Abtastzeile angibt, angezeigt werden. Drittens kann ein Cursor und eine Ausgabe, die die Bildauf­ nahmebedingung (Modus) für die vom Cursor angegebene Ab­ tastzeile darstellt, angezeigt werden. Viertens kann eine Markierung auf jeder Abtastzeile angezeigt werden, auf der kein Bild einer Schnittumrisslinie vorhanden ist. Fünftens kann eine Markierung auf jeder Abtastzeile angezeigt wer­ den, auf der ein Bild der Schnittumrisslinie vorhanden ist.
Der optische Versetzungssensor dieser Erfindung kann auch eine graphische Benutzerschnittstelle umfassen, um eine Konversation zwischen einem Bediener und dem Bildmoni­ tor über eine Zeigevorrichtung durchzuführen.
Der optische Versetzungssensor dieser Erfindung kann dazu verwendet werden, industrielle Produkte zu untersu­ chen, die auf einer Fertigungsstraße in einer Fabrik trans­ portiert werden. Bei einer derartigen Anwendung wird ge­ wöhnlich ein Zielbereich innerhalb des linear langgestreck­ ten Bereiches definiert, auf den das Spaltbündel zum Ein­ fall gebracht wird, und die Untersuchung oder die Überwa­ chung auf einen spezifizierten Abschnitt konzentriert, der in diesem Zielbereich enthalten ist. Die Produkte, die auf einer Förderanlage transportiert werden, sind manchmal auf der Förderanlage in Richtung senkrecht zur Transportrich­ tung oder in Höhenrichtung versetzt. Wenn der Zielbereich in einer derartigen Situation festgelegt ist, können spezi­ fizierte Abschnitte von Zielobjekten nicht richtig inspi­ ziert werden. Es wird daher vorgezogen, Spurverfolgungs­ steuermittel vorzusehen, um die Zielposition der Messung gemäß der Relativbewegung des Zielobjektes zu verändern.
KURZE BESCHREIBUNG DER ZEICHNUNGEN
Fig. 1 ist eine äußere Ansicht der Gesamtheit eines dieser Erfindung verkörpernde Versetzungssensorsystems.
Fig. 2A ist eine Vorderansicht und Fig. 2B eine Sei­ tenansicht der Sensorkopfeinheit von Fig. 1, um ihr opti­ sches System und ihre Beziehung zu einem Zielobjekt zu zeigen.
Fig. 3 ist ein Blockdiagramm der Sensorkopfeinheit.
Fig. 4 ist ein Blockdiagramm der Signalverarbeitungs­ einheit, das ihren Hardwareaufbau zeigt.
Fig. 5 ist ein Zeitdiagramm von Vorgängen, die vom Sensor durchgeführt werden.
Fig. 6 ist ein Blockdiagramm der FPGA und der CPU.
Fig. 7 und 8 zeigen ein Flussdiagramm für das Verfah­ ren der Aufnahme von Bildern und der Synthetisierung eines Bildes.
Fig. 9 zeigt ein Flussdiagramm für das Verfahren für jede Zeile.
Fig. 10 zeigt ein Flussdiagramm für das Datenabschlie­ ßungsverfahren.
Fig. 11A, 11B und 11C zeigen verschiedene Arten der Aktualisierung von Dateninhalten im Zeilendatenregister.
Fig. 12A, 12B, 12C, 13A, 13B, 13C, 14A, 14B und 14C sind Zeichnungen, um die Beziehung zwischen dem eingegebe­ nen Bild und dem Inhalt des Bildspeichers zu zeigen.
Fig. 15 ist eine Zeichnung, um das Prinzip des Lehr­ verfahrens zur Beschränkung von Bildaufnahmebedingungen zu zeigen.
Fig. 16 ist ein Beispiel für die Anzeige auf dem Moni­ tor.
Fig. 17 und 18 zeigen ein Beispiel, bei dem auf einer Zeile kein annehmbarer Spitzenwert erhalten werden konnte.
Fig. 19 und 20 sind Flussdiagramme von Verfahren, die angewandt werden können, wenn auf einer Zeile kein annehm­ barer Spitzenwert erhalten werden konnte.
Fig. 21 ist ein Prinzipschaubild, um zu zeigen wie Mo­ den geändert werden.
Fig. 22 ist ein Flussdiagramm, um Moden von Bildauf­ nahmebedingungen zu ändern.
Fig. 23A und 23B zeigen, wie eine Tabelle von Bildauf­ nahmemoden umgeschrieben wird.
Fig. 24A und 24B zeigen die Auswirkung einer horizon­ talen Versetzung des Zielobjektes.
Fig. 25 ist ein Flussdiagramm eines Verfahrens gegen eine horizontale Verschiebung des Zielobjektes.
Fig. 26 ist ein Flussdiagramm für ein Segmentierungs­ verfahren.
Fig. 27 zeigt, wie ein Zielobjekt durch das Segmentie­ rungsverfahren in obere und untere Segmente unterteilt wird.
Fig. 28 zeigt, wie die Zieloberflächenbereiche von Segmenten festgelegt werden.
Fig. 29 zeigt, wie ein Standardschwellenwert durch Differenzierung berechnet wird.
Fig. 30 zeigt, wie die Tiefe einer Einsenkung gemessen wird.
Fig. 31A und 31B zeigen, wie eine vertikale Versetzung des Zielobjektes die Messung der Breite einer Mesa auf dem Zielobjekt beeinflussen kann.
Fig. 32 ist ein Flussdiagramm eines Verfahrens gegen eine vertikale Versetzung des Zielobjektes.
Fig. 33A und 33B zeigen, wie ein Standardzielbereich im Verfahren von Fig. 32 festgelegt wird.
Fig. 34A und 34B zeigen, wie die relative Schwelle im Verfahren von Fig. 32 verwendet werden kann.
Fig. 35 ist ein Flussdiagramm eines Verfahrens gegen eine Versetzung des Zielobjektes sowohl in horizontaler als auch in vertikaler Richtung.
Fig. 36A, 36B, 37A, 37B und 37C sind Diagramme zur Er­ läuterung des Verfahrens von Fig. 35.
Fig. 38, 39A, 39B und 40 sind Diagramme zur Erläute­ rung der Bildreparaturverfahren.
Fig. 41A, 41B, 42A und 42B sind Skizzen um zu zeigen, wie unzufriedenstellende Bilder eines Objektes mit einem optischen Sensor nach dem Stand der Technik entstehen können.
AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
Die Erfindung wird nun anhand eines Beispiels be­ schrieben. Fig. 1 zeigt ein die Erfindung verkörperndes Versetzungssensorsystem, welches eine Sensorkopfeinheit 1, eine Signalverarbeitungseinheit 2 zur Verarbeitung von Bildsignalen die von dieser Sensorkopfeinheit erhalten wurden, eine Handkonsoleneinheit 3, um verschiedene Be­ triebsanweisungen an die Signalverarbeitungseinheit 2 zu geben, und einen Bildmonitor 4 zur Anzeige von Messergeb­ nissen, die mit der Signalverarbeitungseinheit 2 gewonnen wurden, sowie von verschiedenen Betriebsbefehlen aufweist.
Wie unten ausführlich beschrieben wird, umfasst die Sensorkopfeinheit 1 in sich fast die Gesamtheit von Mehr­ fachbildaufnahmemitteln, vorgesehen mit (1) Lichtprojekti­ onsmitteln zur Ausbildung eines Spaltlichtbündels einer Lichtquelle und Einstrahlen desselben unter einem spezifi­ zierten Winkel auf ein Zielobjekt, (2) Abbildungsmitteln zur Gewinnung eines Bildes einer Schnittumrisslinie des Zielobjektes durch eine optische Schnittebene unter Verwen­ dung eines zweidimensionalen Bildaufnahmeelementes aus einem anderem Winkel, um die Position des Einfalls des Spaltbündels auf das Zielobjekt aufzunehmen, und (3) Ab­ tastmitteln zur Abtastung der Helligkeit (oder Klarheit) des Bildes durch Veränderung des Wertes mindestens eines der Parameter, die die Bedingungen der Bildaufnahme festle­ gen und die Helligkeit der Schnittumrisslinie in dem Bild, das durch die Abbildungsmittel gewonnen wurde, beeinflus­ sen.
Die Signalverarbeitungseinheit 2 umfasst (1) Bildsyn­ thetisierungsmittel, zum Extrahieren eines Bildsegments, das einer spezifizierten Helligkeitsbedingung genügt, aus jedem der spezifizierten Bereichssegmente, und Gewinnung eines synthetisierten Bildes, welches eine Reihe von Bil­ dern einer Schnittumrisslinie enthält, durch Zusammenfas­ sung derartiger Bildsegmente und (2) Messmittel zur Durch­ führung eines spezifizierten Messvorgangs auf der Reihe von Teilbildern der Schnittumrisslinie, die durch die Bildsyn­ thetisierungsmittel gewonnen wurde, womit ein Messwert und/oder ein Beurteilungswert erzeugt wird.
Somit dient die Sensorkopfeinheit 1 dazu, ein Zielob­ jekt 5 mit einem Spaltlichtbündel 6 zu bestrahlen und sein reflektiertes Licht 7 mit einem CCD-Bildsensor (der ein zweidimensionales Bildaufnahmeelement ist) zu empfangen, wodurch ein Abbildungssignal erzeugt und ausgegeben wird, das die Oberflächenversetzungen des Zielobjektes 5 angibt. Bezugszahl 8 in Fig. 1 gibt ein zeilenförmiges Lichtbild (als helles gerades Liniensegment) an, das auf der Oberflä­ che des Zielobjektes 5 erzeugt wurde.
Fig. 2 (bestehend aus Fig. 2A und 2B) zeigt das opti­ sche System der Sensorkopfeinheit 1 und seine Beziehung zur Zieleinheit 5. Wie in Fig. 2B gezeigt, umfasst die Sensor­ kopfeinheit 1 in sich eine Spaltlichtquelle 112, ein licht­ projizierendes optisches System 113 zur Erzeugung des Spaltlichts 6, indem das von der Spaltlichtquelle 112 ausgesendete Licht geeignet konvergent gemacht und umge­ formt wird, sowie ein lichtempfangendes optisches System 121, um das Licht 7 des Spaltlicht 6 einem zweidimensiona­ len CCD-Bildsensor 122 zuzuleiten. Wie in Fig. 2A gezeigt, ist das Spaltlicht 6 in diesem Beispiel verhältnismäßig breit mit einer Breite W. Das Zielobjekt 5 ist darin als ein stufenweise erhöhtes Teil mit einem ebenen oberen Ende (im Folgenden als "Mesa" 5a bezeichnet) auf seiner Obersei­ te dargestellt. Wenn die Mesa 5a schmaler als W ist, kann ihre Höhe h unmittelbar, ohne irgendeine Relativbewegung zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5, gemessen werden.
Fig. 3 zeigt den inneren Schaltungsaufbau der Sensor­ kopfeinheit 1. Innerhalb der Sensorkopfeinheit 1 sind Lichtsendeelemente (darin enthalten eine Laserdiode (LD) 112, ein LD-Treiberschaltung 111 und eine Lichtübertra­ gungslinse 113) zur Bestrahlung des Zielobjektes 5 mit dem Spaltbündel 6 und Lichtempfangselemente (darin enthalten eine Lichtempfangslinse 121, ein CCD-Bildsensor 122, eine Verstärkerschaltung (AMP) 123, ein Hochpassfilter (HPF), ein Abtast-Halte-Kreis (S/H) 125 und eine AGS- Verstärkerschaltung (AGC AMP) 126) für den Empfang des Lichts 7 vom Zielobjekt 5 enthalten. Wenn die Sensor­ kopfeinheit 1 das Spaltlicht 6 gerade nach unten auf die Oberfläche des Zielobjektes 5 projiziert, wird ein Bild der bestrahlten Oberfläche des Zielobjekts 5, das das Lichtbild 8 des Spaltbündels 6 enthält, unter einem anderen Winkel vom CCD-Bildsensor 122 aufgenommen, um so ein Bildsignal VS zu erzeugen.
Ein LD-Ansteuerimpulssignal P1 zum Aufleuchtenlassen der Laserdiode 112 wird von einer Taktsignalschaltungerze­ gungsschaltung 101 erzeugt. Ansprechend auf das empfangene LD-Ansteuerimpulssignal P1 verursacht die LD- Treiberschaltung 111, dass die LD 112 Lichtimpulse aussen­ det. Die Taktsignalerzeugungsschaltung 101 dient auch dazu, die Spitzenleistung des gepulsten Laserlichtes über die LD- Treiberschaltung 111 zu steuern. Der Gepulstlaserlichtsen­ der von der LD 112 wird als das Spaltbündel 6 durch die Linse 113 hindurch auf das Zielobjekt 5 eingestrahlt und verursacht, dass das zeilenförmige Lichtbild 8 auf der Oberfläche des Zielobjektes erscheint.
Das Tastverhältnis für die Ansteuerung der LD 112 und die Spitzenleistung des gepulsten Laserlichtes werden jeweils als einer der Parameter betrachtet, die die Hellig­ keit (Klarheit) des Bildes der Schnittumrisslinie beein­ flussen, die in dem Bild enthalten ist, das vom CCD- Bildsensor 122 (im Folgenden einfach als "CCD" bezeich­ net) erzeugt wird.
Das reflektierte Licht 7 vom Zielobjekt wird durch die Linse 121 auf die CCD 122 zum Einfall gebracht, die ein zweidimensionales Bildaufnahmeelement ist. Zusammenfassend wird die Oberfläche des Zielobjektes 5 mit der CCD 122 aufgenommen, und das aufgenommene Bild, dass das Lichtbild 8 durch das Spaltbündel enthält, wird in ein Bildsignal umgewandelt. Die Lagebeziehung zwischen der LD 112, der CCD 122 und den Lichtübertragungs- und empfangslinsen 113 und 121 wird so festgelegt, dass sich die Lage des Lichtbildes 8 des Spaltbündels 6 auf der Lichtempfangsoberfläche der CCD 122 z. B. gemäß dem Abstand zwischen der Sensorkopfein­ heit 1 und dem Zielobjekt 5 verändert.
Das von der CCD 122 ausgegebene Bildsignal, wird durch die Verstärkerschaltung 123 für jedes Bildelement (Pixel) verstärkt, und Schwankungen von Nullpegel-Signalen, die unter den Pixeln auftreten, werden durch das Hochpassfilter 124 beseitigt. Der Abtast-Halte-Kreis 125 dient dazu, die Kontinuität zwischen den aneinandergrenzenden Paaren von Pixeln zu korrigieren, so dass jedes Pixelsignal die Menge des empfangenen Lichtes korrekt darstellt. Danach wird die Größe der Signalwerte durch den AGC-Verstärker 126 geeignet gesteuert und das Signal auf die Signalprozessoreinheit 2 als Bildsignal VS übertragen. In Fig. 3 gibt SYNC ein Synchronisierungssignal an, das als ein Standard für das Taktsignal dient, und PWR gibt eine Spannungsquelle an.
Durch ein weiters Impulssignal P2, das von der Taktsi­ gnalerzeugungsschaltung übertragen wird, wird der Ansteuer­ modus durch die CCD 112, darin eingeschlossen die Belich­ tungszeit, durch einen CCD-Steuerschaltung 131 gesteuert. Ähnlich werden die Spitzenhaltezeit des Abtast-Halte- Kreises 125, der Verstärkungsfaktor der AGC- Verstärkerschaltung 126 und ihre Schaltzeit durch die Impulssignale P3 und P4 gesteuert. Die Belichtungszeit der CCD 122 und der Verstärkungsfaktor der AGC- Verstärkerschaltung 126 sind Parameter, die die Bildaufnah­ mebedingungen festlegen, die die Helligkeit des Bildes der Schnittumrisslinie beeinflussen, die in dem Bild enthalten ist, das von der CCD 122 erzeugt wird.
Eine Vielzahl von Mustern von Bildaufnahmebedingungen, die durch Parameter wie z. B. die Belichtungszeit der CCD 122, die Emissionszeit der LD 112, ihre Spitzenleistung und den Verstärkungsfaktor der AGC-Verstärkerschaltung 126, die die Helligkeit des Bildes beeinflussen, definiert werden, werden in einem Bedingungsspeicher 141 gespeichert, so dass verschiedene Bildaufnahmebedingungen (wie z. B. 32 Moden von Modus 0 bis Modus 31) mit einem Steuersignal CONT der Signalprozessoreinheit 2 ausgewählt werden können. Der Inhalt jedes Modus wird durch die Kombination eines oder mehrerer der Parameter, die oben beschrieben wurden, fest­ gelegt.
Ausführlicher erklärt, können diese Moden erstellt werden, indem nur einer der Parameter verwendet und sein Wert auf 32 verschiedene Weisen verändert wird, oder indem 2 oder mehr Parameter verwendet und jeder von ihnen verän­ dert wird. Diese Moden (der Bildaufnahmebedingungen) können automatisch in Antwort auf das Steuersignal CONT geschaltet werden. Somit können bis zu 32 Bilder über die CCD 122 erhalten werden, während die Helligkeit des Bildes durch Schalten der Bildaufnahmebedingungen verändert (abgetastet) wird. Wie unten ausführlich beschrieben wird, können die Einheiten, um die diese Parameter verändert werden, und der Bereich, innerhalb dessen diese Parameter verändert werden, gemäß dem Zielobjekt 5 oder den Ergebnissen des erhaltenen Bildes, das vom Zielobjekt aufgenommen wurde, geändert werden. Mit anderen Worten können die Bedingungen der Bildaufnahme fein gesteuert werden.
Die Signalprozessoreinheit 2 umfasst, wie in Fig. 4 gezeigt, ein feldprogrammierbares Gate-Array FPGA 201, eine CPU 202, einen Bildspeicher 203, einen Anzeigespeicher 204, einen Analog-Digital-Wandler 205, einen Digital-Analog- Wandler 206, eine Schnittstelle (nicht gezeigt) zur An­ steuerung des Sensorkopfes, und eine externe Schnittstelle (nicht gezeigt) zur Ausgabe eines Steuersignals OUT.
Das FPGA 201 umfasst eine Bildspeichersteuerung 201a und einen Merkmalsextraktor 201b. Die Bildspeichersteuerung 201a dient zur Steuerung der Eingabe und der Ausgabe von Bilddaten (wie z. B. denjenigen, die von der Sensorkopfein­ heit 1 über das Bildsignal VS hereingenommen werden) in und aus dem Bildspeicher 203. Sie hat die Funktion, den Merk­ malsextraktor 201b bei der Durchführung der Merkmalsextrak­ tionsberechnungen zu unterstützen, wie unten erklärt wird. Die Bildspeichersteuerung 201a wird mit einer dedizierten Hardwareschaltung ausgebildet. Der Merkmalsextraktor 201b wird auch mit seiner eigenen dedizierten Hardwareschaltung ausgebildet und dient dazu, ein Spitzenpixel aus den Bild­ daten auf jeder horizontalen Abtastzeile und die Spitzen­ dichte festzustellen. Die Bildspeichersteuerung 201a und der Merkmalextraktor 201b werden mit Bezug auf Fig. 6 unten weiter ausführlicher erklärt.
Die CPU 202 umfasst einen Mikroprozessor als ihren Hauptbestandteil und umfasst funktionell Anzeigesteuermit­ tel 202a, Berechnungsmittel 202b, Steuermittel 202c und Datenbeurteilungsmittel 202d als Software. Die Anzeigesteu­ ermittel 202a dienen zur Steuerung der Eingabe und der Ausgabe von Anzeigedaten in den und aus dem Anzeigespeicher 204. Die Anzeigedaten, die in den Anzeigespeicher 204 geschrieben sind, werden durch den Digital-Analog-Wandler 206 in ein analoges Anzeigebildsignal umgewandelt und an einen Bildmonitor (nicht gezeigt) übertragen.
Die Berechnungsmittel 202b dienen zur Berechnung der Versetzung, was den ursprünglichen Zweck des Sensors dar­ stellt, und dient dazu, zu warten, bis ein synthetisiertes Bild vervollständigt ist, und dann Versetzungen (wie z. B. Höhe, Breite und Länge) durch Berechnung zu gewinnen. Einzelheiten von Berechnungen werden hier nicht beschrie­ ben, da sie bekanntlich Berechnungen (1) des Abstandes zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5 entlang der Übertragungsgeraden des Spaltbündels, (2) der Tiefe und der Breite eines genuteten Teils auf der Grundla­ ge des Bildes der Schnittumrisslinie anhand einer Reihe von Messwerten, (3) der durchschnittlichen, Spitzen- und Boden­ werte einer Reihe von Messwerten entlang der Übertragungs­ geraden des Spaltbündels und (4) eines Neigungswinkels auf der Grundlage einer Reihe von Messwerten entlang der Über­ tragungsgeraden des Spaltbündels umfassen.
Die Datenbeurteilungsmittel 202d dienen dazu, ver­ schiedene Datenbeurteilungen auszuführen, so z. B., ob ein berechneter Wert, der mit den Berechnungsmitteln 202b gewonnen wurde, größer als der Standardwert ist oder nicht, oder ob sie untereinander gleich sind. Ein Schaltsignal wird erzeugt und als Ergebnis der Beurteilung ausgegeben. Das so erhaltene Schaltsignal wird als eine Steuerausgabe OUT über die externe Schnittstelle 208 nach außen übertra­ gen.
Der Analog-Digital-Wandler 205 dient zur Umwandlung des analogen Bildsignals VS der Sensorkopfeinheit 1 in ein digitales Signal, das an die Signalverarbeitungseinheit 204 zu übertragen ist. Der Digital-Analog-Wandler 206 dient zur Umwandlung der im Anzeigespeicher 204 gespeicherten Anzei­ gedaten in ein analoges Signal und dazu, sie an den Bildmo­ nitor zu übertragen.
Wie oben erklärt, und wie im Zeitdiagramm von Fig. 5 schematisch dargestellt, ist der optische Versetzungssensor dieser Erfindung dadurch gekennzeichnet, dass er die Werte von mindestens einem der Parameter abtastet, die die Bild­ aufnahmebedingungen definieren, die die Helligkeit des Bildes der Schnittumrisslinie beeinflussen, die in dem Bild enthalten ist, das von der CCD 122 in spezifizierten Ein­ heiten und innerhalb eines spezifizierten Bereiches erzeugt wird, dadurch, dass er eine Vielzahl von Bilddaten von einem zweidimensionalen Bildsensor 122 erhält, ein synthe­ tisiertes Bild erzeugt, indem er Bilder, die deutliche Abschnitte der Schnittumrisslinie enthalten, aus diesen Bildern geeignet zusammenfasst, und verschiedene Verfahren auf der Grundlage eines derartigen synthetisierten Bildes durchführt. Fig. 5 wird unten ausführlicher beschrieben.
Fig. 6 zeigt den Hardwareaufbau, der erforderlich ist, um eine derartige Vielzahl von Bildern und Bildsynthesen zu erhalten, und das obenerwähnte FPGA 201, die CPU 202 und den Bildspeicher 203 enthält.
Das FPGA 201 umfasst die Bildspeichersteuerung 201a, den Merkmalextraktor 210b, einen Zeilenpufferspeicher 201c und einen Adressenerzeuger 201d und einen Zeilenzähler 201e. Der Zeilenpufferspeicher 201c dient zum vorübergehen­ den Speichern eines Zeilenabschnittes der Bilddaten, die von der mittleren Sensorkopfeinheit 1 über einen Verstärker (AMP) 205a und einen Analog-Digital-Wandler 205 erhalten werden. Die Bilddaten für eine Ziele, die so im Zeilenpuf­ ferspeicher 201c gespeichert wurden, werden sequenziell in individuellen Zeilenbereichen des Bildspeichers 203 durch die Operationen der Bildspeichersteuerung 201a, des Adres­ senerzeugers 201d und des Zeilenzählers 201e gespeichert. Der Zeilenzähler 201e wird jedesmal um +1 erhöht, wenn Bilddaten für eine Zeile gespeichert werden, und die Adres­ se im Bildspeicher 203 wird durch den Adresserzeuger 201d gemäß den Zählerdaten des Zeilenzählers 201e erzeugt. Die Bildspeichersteuerung 201a dient dazu, die Bilddaten für eine Zeile, die im Zeilenpufferspeicher 201c gespeichert sind, in den Zeilenbereich zu übertragen, der durch die Adresse spezifiziert wird, die vom Adressenerzeuger 201d erzeugt wurde.
In diesem Beispiel ist das Volumen des Bildspeichers 203 ausreichend groß, um Bilddaten für 126 Zeilen zu spei­ chern. Dementsprechend wird das Gesichtsfeld des Bildsen­ sors auf 126 Zeilen eingestellt. Ein derartiger Bildsensor, der ein enges langgestrecktes Gesichtsfeld aufweist, kann preiswert aus einer im Handel erhältlichen CCD für eine Stehbildkamera oder eine Videokamera hergestellt werden, indem die Bereiche als "optisch schwarz" maskiert werden und ein Abschnitt mit 126 Zeilen belassen wird.
Der Merkmalextraktor 201b dient dazu, die Spitzenposi­ tion der Bilddaten für eine Zeile (die Position der Pixel mit Spitzenhelligkeit) und die Höhe des Zielobjektes, die anhand der Spitzenposition berechnet wurde, zu bestimmen, wenn diese Daten für eine Zeile von der Sensorkopfeinheit übertragen und im Zeilenpufferspeicher 201c gespeichert werden. Mit andern Worten entsprechen mit einem Verset­ zungssensor dieser Art, der das optische Schnittverfahren verwendet, die Richtung der Höhe eines Zielobjektes und die Richtung der horizontalen Abtastzeile des zweidimensionalen Bildsensors einander, und die Richtung der Schnittlinie des Spaltbündels ist senkrecht zur Richtung der horizontalen Abtastzeilenvorrichtung des Bildsensors. Somit kann die Höhe des Zielobjektes durch Messen der Pixelposition auf der Zeile für jeden Satz von Zeilendaten gewonnen werden. Die CPU 202 enthält die Steuermittel 202c und ein Zei­ lendatenregister 202e. Die Steuermittel 202c dienen dazu, die Eingabe und Ausgabe von verschiedenen Daten in das und aus dem Zeilendatenregister 202e zu steuern. Im Zeilen­ datenregister 202e sind 126 Speicherbereiche 0-125 vor­ handen, und die Speicherbereiche für jede Zeile umfassen die folgenden vier Bereiche: einen Abschließungs- Kennzeichen-Bereich, einen Spitzenwertbereich, einen Spit­ zenpositionsbereich und einen Bildaufnahmebedingungsbereich (oder kurz einen "Modusbereich").
Der Abschließungs-Kennzeichen-Bereich wird dazu ver­ wendet, anzuzeigen, ob die Daten über die entsprechende Zeile im Bildspeicher 203 und im Datenregister 202e bereits "abgeschlossen" sind oder nicht (wobei die "entsprechende Zeile" in obigem Sinne die Zeile bedeutet, die vom Zeilen­ zähler 201e gerade spezifiziert wird). Der Spitzenwertbe­ reich wird dazu verwendet, den Spitzenwert der Helligkeit der entsprechenden Zeile zu speichern. Der Spitzenpositi­ onsbereich wird dazu verwendet, die Spitzenposition zu speichern, die vom Merkmalextraktor 201b bestimmt wurde. Der Modusbereich dient dazu, um die Bildaufnahmebedingungen (identifiziert durch eine Modusnummer, die jedem Satz von Bedingungen zugeordnet ist), die verwendet wurden, im Verlauf der Verfahren Bilder aufzunehmen, bis das syntheti­ sierte Bild vollständig ist, zu speichern, wie unten aus­ führlicher erklärt wird. Nachdem ein synthetisiertes Bild bestimmt wurde, wird dieser Bereich dazu verwendet, die Bildaufnahmebedingungen zu speichern, die dazu verwendet werden, Bilder für diese festgesetzte Zeile aufzunehmen.
Die Operationen der Hardware, die oben mit Bezug auf Fig. 6 erklärt wurden, werden nun mit Hilfe der Flussdia­ gramme von Fig. 7-11 erklärt.
Im Initialisierungsschritt 701 wird die Modusnummer M (die den Satz von Bildaufnahmebedingungen bedeutet) initia­ lisiert. Wie kurz erklärt, gibt es in diesem Beispiel 32 Moden. Initialisierung des Modus bedeutet, eine (M = 0) der 32 vorbereiteten Moden auszuwählen. Als Nächstes wird das "Erstzeit-Kennzeichen" (Schritt 702) eingestellt. Wenn die Bilddaten für eine Vielzahl von Bildern ununterbrochen vom CCD-Bildsensor 122 übernommen werden, dient das Erstzeit- Kennzeichen dazu, anzuzeigen, dass es sich dabei um die erste Menge von Daten handelt, die übernommen wird.
Nachdem diese Initialisierungsschritte 701 und 702 be­ endet sind, wird ein Befehl ausgegeben, Videosignale für einen Bildschirm zu übernehmen, die vom CCD-Bildsensor 122 über den Verstärker 205a und den Analog-Digital-Wandler 205 (Schritt 703) ausgegeben wurden. Als Nächstes wird eine Verarbeitung für jede Zeile ausgeführt (Schritt 704), wie in Fig. 9 ausführlicher gezeigt.
In diesem Schritt (Schritt 704 von Fig. 7) wird der Zeilenzähler (L) zurückgesetzt, das Kennzeichen, der Spit­ zenwert und die Spitzenposition werden im Zeilendatenregi­ ster (R) gelöscht, und ein Überschreibe-Kennzeichen wird als Initialisierung zurückgesetzt (Schritt 901). Bei obigem dient der Zeilenzähler (L) dazu, eine Zeile im Bildspeicher 203 und im Zeilendatenregister 202e zu spezifizieren, und das Zeilendatenregister 202e dient dazu, ein Abschließungs­ kennzeichen, den Spitzenwert, die Spitzenposition und die Bildaufnahmebedingung (Modus) für die 126 Zeilen 1-125 zu speichern, wie oben erklärt. Das Abschließungskennzeichen dient dazu, anzuzeigen, dass die Daten auf der entsprechen­ den Zeile im Zeilendatenregister und die Bilddaten auf der entsprechenden Zeile im Bildspeicher 203 abgeschlossen wurden. Das Überschreibe-Kennzeichen dient dazu, anzuzei­ gen, ob es erlaubt ist oder nicht, die entsprechende Zeile im Bildspeicher 203 und im Zeilendatenregister 202e zu überschreiben.
Nach der Initialisierung werden die Daten über die Zeile, die durch den Zeilenzähler spezifiziert werden, aus dem Analog-Digital-Wandler 205 im Zeilenpufferspeicher 201c vom Anfang bis zum Ende der Zeile gespeichert, und die Spitzenposition und die Spitzenhöhe in der Zeile werden berechnet (Schritt 902). Als Nächstes wird ein Abschlie­ ßungsverfahren durchgeführt (Schritt 903). Danach wird die Zahl des Zeilenzählers L um +1 erhöht (Schritt 903), um die Schritte 902 und 903 zu wiederholen, bis der Wert des Zeilenzählers Lmax erreicht (JA in Schritt 905), und die Verarbeitung für jede Zeile (Schritt 704) vollständig ist.
Fig. 10 und 11 zeigen den Datenabschließungsvorgang, der in der Folge durchgeführt werden soll. Zunächst wird das Abschließungs-Kennzeichen befragt. Wenn das Kennzeichen zeigt, dass die Daten beendet sind (JA in Schritt 1001), hat das Programm nichts mehr zu tun. Wenn die Daten nicht abgeschlossen sind (NEIN in Schritt 1001), werden der Spitzenwert, der vom Merkmalextraktor 201b bestimmt ist, und ein Standardwert TH-OK, der vorbereitend gemäß einer optimalen Messbedingung bestimmt wurde, verglichen (Schritt 1002). Wenn der Spitzenwert nicht größer als der Standard­ wert ist (NEIN in Schritt 1002), wird die Datenaktualisie­ rung 1 des Zeilendatenregisters wie in Fig. 11A gezeigt, durchgeführt (Schritt 1003), d. h. das Kennzeichen wird so eingestellt, dass es "nicht abgeschlossen" anzeigt, der Spitzenwert und die Spitzenposition, die diesmal gewonnen werden, werden als der Spitzenwert beziehungsweise die Spitzenposition eingestellt, und die gegenwärtige Bildauf­ nahmebedingung wird als die Bildaufnahmebedingung einge­ stellt. Nachdem das Verfahren der Datenaktualisierung 1 so beendet ist, wird das Speichersteuerkennzeichen aktuali­ siert (Schritt 1004). In diesem Zeitpunkt wird die Über­ schreibe-Kennzeichen nicht aktualisiert. Mit anderen Worten werden die Daten im Zeilendatenregister 202e aktualisiert, aber die Überschreibe-Kennzeichen bleibt zurückgesetzt, und es bleibt weiterhin erlaubt, in dieser Zeile zu überschrei­ ben.
Andererseits wird, während die Bildaufnahmebedingungen (oder Moden M) verändert werden, wenn z. B. die Belichtungs­ zeit erhöht wird und sich der Spitzenwert des empfangenen Lichtes erhöht und größer als der Standard TH-OK wird (JA in Schritt 1002), untersucht, ob der neu erhaltene Spitzen­ wert näher liegt oder nicht am Standardwert TH-OK als der Wert, der jetzt im Zeilendatenregister 2002 (Schritt 1005) gespeichert ist. Bei JA in Schritt 1005 wird die Datenak­ tualisierung 2, die in Fig. 11B gezeigt wird, durchgeführt (Schritt 1006), d. h. das Kennzeichen wird eingestellt, "abgeschlossen" anzugeben, der Spitzenwert und die Spitzen­ position, die diesmal erhalten wurden, werden als der Spitzenwert beziehungsweise die Spitzenposition einge­ stellt, und die gegenwärtige Bildaufnahmebedingung (oder der gegenwärtige Modus) wird als die Bildaufnahmebedingung eingestellt. Nachdem der Vorgang der Datenaktualisierung 2 so vollständig ist, wird das Speichersteuerkennzeichen aktualisiert (Schritt 1008). In diesem Zeitpunkt wird das Überschreibe-Kennzeichen eingestellt, wodurch verhindert wird, dass die Daten im Zeilendatenregister 202e und im Bildspeicher 203 für diese Zeile überschrieben werden. Mit anderen Worten wird ihr Inhalt danach bewahrt.
Wenn andererseits festgestellt wird, dass der neu ge­ wonnene Spitzenwert weiter vom Standardwert TH-OK entfernt ist als der aktuell gespeicherte Wert (NEIN in Schritt 1005), wird Datenaktualisierung 2, die in Fig. 11C gezeigt ist, bewirkt (Schritt 1007), d. h. das Kennzeichen wird so eingestellt, dass es "beendet" anzeigt, der aktuell gespei­ cherte Spitzenwert und die Spitzenposition werden als der Spitzenwert beziehungsweise die Spitzenposition einge­ stellt, und die Bildaufnahmebedingung, die im Register gespeichert ist, wird als die Bildaufnahmebedingung (oder der Modus) eingestellt. Somit werden die Inhalte des Spit­ zenwertes und der Position abgeschlossen, während sie in der Bedingung verbleiben, die den Standardwert TH-OK nicht übersteigt.
Nachdem das Verfahren für jede Zeile (Schritt 704 von Fig. 7) somit abgeschlossen ist, werden Verfahren für jedes Bild durchgeführt (Schritt 705). Die Verfahren, die hier für jedes Bild durchgeführt werden sollen, umfassen Folgen­ des: (1) Verfahren bezüglich der Bildsteuerung; (2) Verfah­ ren zur Beurteilung des Ergebnisses der Berechnung; und (3) andere Verfahren auf dem Ergebnis der Berechnung. Die Verfahren bezüglich der Bildsteuerung umfassen die Einstel­ lung der Bedingungen für die Übernahme des nächsten Bildes (wie z. B. die Belichtungszeit und die Videosignalverstär­ kung) und die Beurteilung, ob die Bilder mit allen Bildauf­ nahmebedingungen übernommen wurden oder nicht. Beim Verfah­ ren der Beurteilung des Berechnungsergebnisse wird über­ prüft, ob das Berechnungsergebniss bezüglich aller Zeilen abgeschlossen wurde oder nicht. Andere Verfahren enthalten Berechnungen in der Richtung der Zeilen durch die Ausfüh­ rung eines Filtervorgangs auf dem aktuellen Bild.
Danach wird der Modus M um +1 erhöht, um die Schritte 703-705 zu wiederholen. In jedem Wiederholungszyklus wird das Erstzeitkennzeichen untersucht, um sicherzustellen, dass es gesetzt ist (Schritt 707), und der aktuelle Modus M wird im Zeilendatenregister registriert (Schritt 708). Diese Schritte werden so durchgeführt, dass nur die Bild­ aufnahmebedingungen (Moden), bei denen festgestellt wurde, dass sie im ersten Zyklus wirksam waren, verwendet werden, und die anderen Bedingungen werden übersprungen. Auf diese Weise kann die Zeit für die Übernahme von Bildern und die Zeit für die Bildsynthese verringert werden.
Ausführlicher erklärt werden während des ersten Zyklus der Mehrfachbildaufnahmemittel und der Bildsynthese alle vorbereiteten Bildaufnahmebedingungen (32 Moden) versucht, aber nur diejenigen Moden, bei denen festgestellt wurde, dass sie im ersten Zyklus gültig waren, werden ab dem zweiten Zyklus verwendet. Dies kann bewirkt werden, da die Bildaufnahmebedingung im Initialisierungsschritt (Schritt 901) nicht gelöscht wird, sondern unverändert bleibt, und auch da die Schritte 703, 704 und 705 im Flussdiagramm von Fig. 7 nur dann durchgeführt werden, wenn die Bildaufnahme­ bedingung (Modus M) registriert ist (JA in Schritt 708). Wenn die Bildaufnahmebedingung (Modus M) nicht registriert ist (NEIN in Schritt 708), wird nur ihre Aktualisierung durchgeführt (Schritt 706), und die Schritte 703-705 werden übersprungen.
Wenn der Modus M einen vorherbestimmten maximalen Wert Mmax (JA in Schritt 709) erreicht, wird ein spezifiziertes Berechnungsverfahren auf der Grundlage des synthetisierten Bildes durchgeführt, das im Bildspeicher 203 gespeichert ist. In dem Zeitpunkt, in dem M seinen maximalen Wert Mmax erreicht, ist das Bild, das dann im Bildspeicher 203 ge­ speichert ist, eine Zusammenstellung einer Vielzahl von Bildern, die bis dahin empfangen wurden, und wobei jedes ein Bild einer Schnittumrisslinie mit einem Spitzenwert aufweist, der fast gleich dem spezifizierten Standardwert TH-OK ist. Somit sollte, auch wenn das Zielobjekt eine Oberfläche mit veränderlichem Reflexionsvermögen, eine geneigte Oberfläche, eine gekrümmte Oberfläche oder eine Oberfläche mit Nut aufweist, das schließlich erhaltene synthetisierte Bild ein für die Messung einfaches Bild sein, mit einer gleichförmigen Schärfe und/oder Klarheit, da die Bildaufnahmebedingung ständig angepasst wird.
Die Verarbeitung eines synthetisierten Bildes (Schritt 801) kann jede der bekannten Arten von Berechnungen umfas­ sen, wie z. B. Berechnungen für die Höhe einer Mesa, die Breite des Zielobjektes, eine abgeschrägte Oberfläche und den Krümmungsradius einer gekrümmten Zieloberfläche.
Nachdem der Schritt 801 abgeschlossen ist, wird das Erstzeitkennzeichen, oben in Schritt 707 erklärt, zurückge­ setzt (Schritt S802), und das Programm wartet auf das Eintreffen eines weiteren Befehls (Auslöser), um ein neues Bild zu übernehmen (Schritte 803 und 804). Wenn ein derar­ tiger Auslöser empfangen wird (JA in Schritt 804), kehrt das Programm zu Schritt 703 von Fig. 7 zurück, um die Schritte danach zu wiederholen, indem es einen weiteren Satz von Mehrfachbildern übernimmt und eine Bildsynthese durchführt.
Nun wird auf Fig. 5 und 12-23 Bezug genommen, um aus­ führlicher die Verfahren der Mehrfachabbildung, der Bild­ synthese und der Berechnungen, die oben anhand eines Bei­ spiels beschrieben wurden, zu erklären.
Das Zeitdiagramm von Fig. 5 zeigt (a) ein Mehrfachab­ bildungsverfahren; (b) die Bearbeitung für die einzelnen Zeilen; (c) die Bearbeitung jedes der Mehrfachbilder; und (d) die Bearbeitung für ein synthetisiertes Bild. Es sei angenommen, dass jedes Bild aus acht. Zeilen 0-7 besteht.
Gemäß der vorliegenden Erfindung wird, wie oben be­ schrieben, eine Vielzahl von Bilden übernommen, während die Bildaufnahmebedingungen (angegeben durch Modusnummern) z. B. 32-mal von Modus 0 bis Modus 31 verändert (abgetastet) werden, und nachdem sie synthetisiert sind, um ein optima­ les Bild für eine Messung zu erhalten, wird ein gewünschtes Berechnungsverfahren auf der Grundlage eines derartigen optimalen Bildes durchgeführt. Im Allgemeinen werden diese Moden durch die Kombination einer Vielzahl von Parametern auf verschiedene Weisen definiert. In diesem Beispiel wird der Einfachheit der Erklärung wegen angenommen, dass ver­ schiedene Moden nur mit der Belichtungszeit für den CCD- Bildsensor erstellt werden. In dem Beispiel, das im Zeit­ diagramm von Fig. 5 gezeigt wird, werden zehn Moden er­ stellt, identifiziert als Verschluss 0-Verschluss 9, wobei jeder eine andere (erhöhte) Verschlusszeit aufweist (dargestellt durch die Breite eines Rechteckes auf Zeile (a) von Fig. 5). Zeile (b) von Fig. 5 zeigt, dass die Vorgänge für die einzelnen Zeilen (Schritt 704 von Fig. 7) zwischen aufeinanderfolgenden Bildern, die aufgenommen werden, durchgeführt werden (Schritt 703 von Fig. 7). Zeile (c) von Fig. 5 zeigt, dass das Verfahren für jedes der Mehrfachbilder, die übernommen werden, unmittelbar nach den Verfahren für jede Zeile (Schritt 704 von Fig. 7) durchge­ führt wird. Die Bearbeitung für ein synthetisiertes Bild (Schritt 801 von Fig. 8) wird durchgeführt, nachdem die letzte der Bearbeitungen für zahlreiche Bilder (Schritt 705 von Fig. 7) beendet ist.
Fig. 12-14 zeigen die Beziehung zwischen der Bildein­ gabe und dem Inhalt des Bildspeichers. Gemäß dieser Erfin­ dung, wie oben erklärt, wird, nachdem Bilddaten, die einem Bild entsprechen, von der CDD 122 her empfangen wurden, der Spitzenwert des Bildes der Schnittumrisslinie jeder Zeile der Bilddaten mit einem Standardwert TH-OK verglichen, der für die Messung optimal ist, und, wenn sie nahe aneinander liegen, wird das Bild für diese eine Zeile als ein Teil des endgültigen (synthetisierten) Bildes fertig gemacht. Dieses Verfahren wird für jede Zeile wiederholt, und schließlich wird ein Blatt synthetisierter Bilder erzeugt.
Fig. 12A zeigt die Bildeingabe, wenn der Verschluss 1 die Bildaufnahmebedingung (Modus) darstellt, und Fig. 12B zeigt, wie diese Eingabe im Bildspeicher gespeichert wird. Fig. 12C zeigt die Schnittform des Zielobjektes. Mit ande­ ren Worten wird unter dem Verschluss 1 ein Bild der Schnit­ tumrisslinie nur auf den Zeilen 0, 6 und 7 erhalten, und diese Bilder werden auf den Zeilen 0, 6 und 7 im Bildspei­ cher gespeichert. Da sie nahe am Standardbild TH-OK, das für die Messung optimal ist, liegen, werden sie fertig gemacht (wie durch dreieckige Markierungen auf dem rechten Ende von Fig. 12A und 12B angegeben).
Ähnlich zeigen Fig. 13A, 13B und 13C, dass, wenn die Belichtungszeit so verändert wird, dass die Bildaufnahmebe­ dingung durch Verschluss 3 angegeben wird, ein Bild der Schnittumrisslinie auf den Zeilen 0, 3, 4, 6 und 7 erhalten wird, dass aber die Spitzen auf den Zeilen 0, 6 und 7 einen Standardwert bei weitem übertreffen, während die Spitzen auf den Zeilen 3 und 4 nahe am Standardwert Th-OK liegen.
Somit werden die Bilder auf den Zeilen 3 und 4 in den Bildspeicher übernommen, gespeichert und fertig gemacht (wie durch dreieckige Markierungen angegeben). Die Zeilen 0, 6 und 7 sind bereits fertig gemacht und werden daher nicht aktualisiert.
Fig. 14A, 14B und 14C zeigen, dass unter dem Ver­ schluss 8 ein Bild der Schnittumrisslinie auf allen Zeilen 0-7 erhalten wird, dass aber die Spitzen auf den Zeilen 0, 3, 4, 6 und 7 den Standardwert bei weitem übertreffen, während die Spitzen auf den Zeilen 1, 2 und 5 nahe am Standardwert Th-OK liegen. Somit werden die Bilder auf den Zeilen 1, 2 und 5 in den Bildspeicher übernommen und fertig gemacht (wie durch Dreiecke angegeben). Die Zeilen 0, 3, 4, 6, und 7 sind bereits fertig gemacht, und werden daher nicht aktualisiert.
Nun wird auf Fig. 15 Bezug genommen, um das Verfahren des "Lehrens" zur Beschränkung der Bedingungen für den Empfang von Licht zu erklären. Wie oben mit Bezug auf Fig. 7 erklärt wurde, werden die Bildaufnahmebedingungen (Mo­ den), die beim Gewinnen des ersten synthetisierten Bildes verwendet werden, als "Lehrdaten" aufbewahrt. In den dar­ auffolgenden Verfahren zur Mehrfachabbildung und Bildsyn­ these wird auf diese Lehrdaten Bezug genommen, und diejeni­ gen der Moden, die nicht verwendet wurden, werden über­ sprungen, um Zeitverschwendung zu beseitigen.
Fig. 15 zeigt für dieses Beispiel, dass die Zeilen 0, 6 und 7 unter Verschluss 1 fertig gemacht werden, Zeilen 3 und 4 unter Verschluss 3 fertig gemacht werden, und Zeilen 1, 2 und 5 unter Verschluss 8 fertig gemacht werden. Die Bildaufnahmebedingung (Modus), unter der jede Zeile fertig gemacht wurde, wir auf dem rechten Ende von Fig. 15 ge­ zeigt. Dabei handelt es sich um das, was im Modusbereich des Zeilendatenregisters 202e gespeichert ist. Mit anderen Worten speichert das Zeilendatenregister 202e "1, 8, 8, 3, 3, 8, 1, 1" in den Modusbereichen für die einzelnen Zeilen. Somit werden in den nachfolgenden Mehrfachabbildungsverfah­ ren und den Verfahren zur Synthetisierung eines Bildes die Bildaufnahmebedingungen (Moden), die von "1, 8, 8, 3, 3, 8, 8, 6, 1, 1" verschieden sind, übersprungen. Kurz gesagt werden, obwohl zehn Moden mechanisch verwendet wurden, nur drei Moden (Verschlüsse 1, 3 und 8) danach verwendet, und es kann immer noch ein synthetisiertes Bild, welches ein Bild einer Schnittumrisslinie mit geeigneter Helligkeit enthält, erhalten werden.
Fig. 16 zeigt ein Beispiel einer Anzeige, die auf dem Bildmonitor 4 für das oben beschriebene Beispiel erfolgen kann. Die horizontale Zeile eines Hauptschaubildes gibt die gemessenen Werte an, und die vertikale Achse gibt die Zeile (Nummer) an, um einen Bildschirmabschnitt des synthetisier­ ten Bildes anzuzeigen. Eine unterbrochene Cursorzeile wird ebenfalls gezeigt. Der Benutzer kann eine Taste auf einer Konsoleneinheit 3 bedienen, um die Cursorzeile vertikal zu bewegen. Daten bezüglich der Zeile, die vom Cursor angege­ ben wird, werden außerhalb des Schaubildbereiches ange­ zeigt. Im Beispiel, das in Fig. 16 gezeigt wird, werden die Verschlusszeit (LV), der Spitzenwert (PEAK) und die Messer­ gebnisse (Z) auf der rechten Seite angezeigt, und die Verteilung der Lichtmenge entlang der horizontalen Zeile, die vom Cursor angegeben wird, wird unten angezeigt. Weiter unten wird das Messergebnis des gesamten Bildes angezeigt (als xxx.xxxx). Somit kann der Benutzer den Cursor nach oben und nach unten bewegen, um ihn in eine Zeile zu brin­ gen, und die Verteilung der Lichtmenge auf der spezifizier­ ten Zeile, die Belichtungszeit, den Spitzenwert und die Messergebnisse leicht verstehen. Die vertikale Anordnung von Zahlen auf der rechten Seite des Schaubildes zeigen jeweils die Verschlusszeit, als die Bilddaten für diese Zeile fertig gemacht wurden.
Fig. 17 zeigt eine Situation, in der ein annehmbarer Spitzenwert auf einer Zeile nicht gewonnen werden konnte, nachdem alle der vorbereiteten Moden verwendet worden sind, und kein Bild für die Zeile registriert wurde. Wenn der Benutzer vor dem Auftreten einer derartigen Situation nicht gewarnt wird, kann dies zu einem synthetisierten Bild führen, das nicht für die Messung geeignet ist, und der Benutzer ist möglicherweise nicht dazu in der Lage, den Grund für einen derartigen Fehlschlag festzustellen. Gemäß dem bevorzugten Ausführungsbeispiel, das in Fig. 17 gezeigt wird, in der die Zeile 4 kein Bild einer Schnittumrisslinie aufweist, wird das Balkensymbol "-" auf der rechten Seite angezeigt, um anzugeben, dass kein annehmbarer Spitzenwert erhalten werden konnte.
Fig. 19 zeigt ein Programm, um eine derartige Anzeige durchzuführen. Nachdem der Zeilenzähler (L) auf Null zu­ rückgesetzt ist (Schritt 1901), werden die Zeilendaten, die der Zeile entsprechen, die durch den Zeilenzähler angegeben wird, abgerufen (Schritt 1902) und es wird untersucht, ob der Modus im Modusbereich M der abgerufenen Zeilendaten registriert ist (Schritt 1903). Wenn dieser Modus im Modul­ bereich M vorhanden ist (JA in Schritt 1903), werden die Bilddaten für die Zeile direkt an einen Anzeigepuffer (nicht gezeigt) ausgegeben (Schritt 1904). Wenn der Modus nicht im Modusbereich M (NEIN in Schritt 1903) vorhanden ist, werden die Bilddaten für die Zeile übersprungen und nicht an den Anzeigepuffer übertragen (Schritt 1905). Diese Schritte werden nachfolgend wiederholt, indem der Zeilen­ zähler L jedesmal um +1 erhöht wird (Schritt 1906), und das Verfahren endet, wenn die letzte Zeilenummer Lmax erreicht wurde (JA in Schritt 1907). Als Ergebnis werden nur die abgeschlossenen Bilddaten von den Zeilendaten an den Anzei­ gepuffer übertragen, und der Bildmonitor 4 zeigt ein syn­ thetisiertes Bild an, das nur die Bilder von Schnittumriss­ linien von abgeschlossenen Zeilen umfasst und diejenigen von nicht abgeschlossenen Zeilen ausschließt. Somit kann der Benutzer einen Fehler im synthetisierten Bild leicht erkennen.
Fig. 18 zeigt ein weiteres Beispiel für die Anzeige einer Zeile, auf der ein annehmbarer Spitzenwert nach der Verwendung aller vorbereiteten Moden nicht erhalten werden konnte. In diesem Beispiel wird eine spezifizierte unter­ scheidende Markierung (symbolisch durch ein X in der Figur gezeigt) auf einer derartigen Zeile angezeigt, um den Benutzer zu warnen. Fig. 20 zeigt ein Programm für die Durchführung einer derartigen Warnanzeige. Die Schritte 2001-2007 in Fig. 20 sind dieselben wie die Schritte 1901-1907 in Fig. 19, außer dass die spezifizierte unterschei­ dende Markierung in Schritt 2005 ausgegeben wird.
Es wird angenommen, dass nur die Moden Mk-Mk+n der Bildaufnahmebedingungen verwendet wurden, wie in Fig. 21 gezeigt, um das erste synthetisierte Bild vom ersten Mehr­ fachbildaufnahmeverfahren zu erhalten, obwohl das erste synthetisierte Bild, das wie oben erklärt erhalten wurde, möglicherweise kein optimales synthetisiertes Bild bezüg­ lich der Klarheit bzw. der Helligkeit darstellte. Gemäß einer Routine dieser Erfindung für die Veränderung von Moden, wie in Fig. 22 gezeigt, werden die Moden Mk und Mkn als die untere und die obere Grenze (Schritt 2201 und 2202) mit Hilfe eines Cursors oder einer Taste registriert. Als Ergebnis wird die Tabelle der Moden umgeschrieben (Schritt 2203), um eine benutzerspezifische Tabelle zu erhalten, die in Fig. 23B gezeigt wird, um die Standardtabelle von MO bis M31 zu ersetzen, wie in Fig. 23A gezeigt.
Ausführlicher erklärt mit Hilfe eines Beispiels defi­ niert die Standardtabelle die 32 Belichtungszeiten (0-31) der 32 verfügbaren Moden so, dass sie sich sequentiell in Einheiten von 0,1 erhöhen. Es wird weiter angenommen, dass der vom Benutzer registrierte untere und der obere Grenz­ wert 0,3 beziehungsweise 0,8 betrugen, wie in Fig. 23A durch Pfeile angegeben. Die obenerwähnte benutzerspezifi­ sche Tabelle wird gebildet, indem das Intervall zwischen diesen unteren und oberen Grenzen, die vom Benutzer regi­ striert wurden, in 32 Schritte unterteilt wird, um einen neuen Satz von Belichtungszeiten (neue Moden M') zu defi­ nieren, wie in Fig. 23B gezeigt. Somit wird der Bereich von Moden Mk bis Mk+n nun feiner in 32 neue Stufen α0-α31 unter­ teilt, wie in Fig. 21 gezeigt. In den nachfolgenden Mehr­ fachabbildungs- und Bildsynthetisierungsverfahren werden die Bildaufnahmebedingungen in diesen neu definierten, sich feiner erhöhenden Stufen verändert. Somit kann, wenn ein synthetisiertes Bild nicht genau genug ist, unabhängig davon, ob es sich um das erste oder um ein später erhalte­ nes Bild handelt, das in Fig. 22 gezeigte Verfahren durch­ geführt werden, um die Bildaufnahmebedingungen feiner zu verändern.
Einer der Gründe für das Auftreten eines synthetisier­ ten Bildes mit einer Zeile oder mit Zeilen, bei denen kein Spitzenwert erhalten werden kann, liegt darin, dass sich das Zielobjekt 5 während der Messung horizontal verschiebt. Fig. 24A und 24B stellen eine Situation dieser Art im Fall eines Zielobjektes mit einer Mesa dar, bei der versucht wird, die Höhe zu messen. Angenommen Bereich 1 einer spezi­ fizierten Breite wurde, wie in Fig. 24A gezeigt, dort eingestellt, wo eine Referenzoberfläche Lref erwartet wird, und Bereich 2 einer anderen spezifizierten Breite wurde dort eingestellt, wie eine Zieloberfläche L9 erwartet wird, beide innerhalb des Sichtfeldes eines zweidimensionalen Bildaufnahmeelementes. Die Höhe der Mesa wird durch die Messung der durchschnittlichen Höhen der Bereiche 1 und 2 und die Bildung ihrer Differenz erhalten.
Wenn das Zielobjekt eine horizontale Verschiebung durchgemacht hat, nachdem die Bereiche 1 und 2 definiert wurden, wie oben erklärt, so dass Bereich 1 die Bezugsober­ fläche Lref verfehlt und/oder Bereich 2 die Zieloberfläche L6 verfehlt, wie in Fig. 24B gezeigt, kann nicht mehr länger erwartet werden, dass die Differenz zwischen ihnen die Höhe der Mesa darstellt. Eine derartige horizontale Verschiebung kann erwartet werden, während ein Zielobjekt auf einer Förderanlage transportiert wird, wenn es in eine Richtung geschoben wird, die zur Transportrichtung senk­ recht ist, oder wenn die Projektionsrichtung des Spaltbün­ dels fälschlicherweise in Richtung des Spaltes verschoben wird, obwohl das Zielobjekt auf der Förderanlage angemessen positioniert ist.
Fig. 25 zeigt eine Maßnahme, die gemäß dieser Erfin­ dung für eine derartige Situation ergriffen werden kann.
Diese Routine beginnt mit der Einstellung eines Standard­ schwellenwertes (Schritt 2501) durch ein Differenzierungs­ verfahren einer bekannten Art. Es sei angenommen, dass eine trapezförmige Schnittumrisslinie, wie in Fig. 29A gezeigt, im Gesichtfeld des CCD-Bildsensors erscheint. Es ist dann möglich, die Randpositionen E11 und E12 zu bestimmen, die die rechte und die linke Endposition der Trapezform dar­ stellen, indem sie differenziert wird, wie in Fig. 29B gezeigt. Nachdem die Randpositionen E11 und E12 so bestimmt sind, kann eine der folgenden Formeln verwendet werden, um den Schwellenwert zu definieren:
Schwelle = (Boden) + α {(Spitze)-(Boden)}, oder
Schwelle = (Durchschnitt) + β.
Wobei 0<α<1 und β eine geeignet gewählte Konstante ist.
Nachdem so ein Standardschwellenwert Lth eingestellt wurde (Schritt 2501), wird dieser Wert dazu verwendet, um das Zielobjekt 5 durch ein Segmentierungsverfahren (Schritt 2502), gezeigt in Fig. 26, zu segmentieren, beginnend mit der Rückstellung des Zeilenzählers (L = 0), um eine hori­ zontale Zeile im Bild zu spezifizieren (Schritt 2601). Nun wird die Spitzenhöhe in der horizontalen Zeile, die durch den Zeilenzähler L spezifiziert ist, berechnet (Schritt 2602), und es wird überprüft, ob sie den Schwellenwert Lth (Schritt 2602) übersteigt. Wenn die Spitzenhöhe den Schwel­ lenwert Lth übersteigt (JA in Schritt 2603), wird die Spitzenposition als "H" angegeben (Schritt 2604). Wenn die Spitzenhöhe geringer als der Schwellenwert Lth ist (NEIN in Schritt 2603) wird die Spitzenposition als "L" angegeben (Schritt 2605). Oben zeigt die Spitzenposition die Höhe des Zielobjektes auf der horizontalen Abtastzeile an.
Die obigen Schritte werden hiernach durch Inkrementie­ rung des Zeilenzählers L um +1 (Schritt 2606) wiederholt, bis der Wert des Zeilenzählers L seinen maximalen Wert Lmax erreicht (JA in Schritt 2607). Nach dieser Segmentierungs­ routine werden die horizontalen Abschnitte, die niedriger als der Schwellenwert Lth sind, als LOW-Segmente erkannt, und der Abschnitt, der höher als der Schwellenwert Lth ist, wird als HI-Segment erkannt, wie in Fig. 27 gezeigt.
Danach werden Randpositionen jedes der HI- und LOW- Segmente, ebenso wie ihre Mittelpunkte (in Fig. 27 durch Kreuze angegeben) definiert (Schritt 2503). Noch später wird ein Zielbereich definiert, indem sie sich von jedem dieser Mittelpunkte um einen spezifizierten Abstand er­ strecken, wie durch Pfeile mit doppelter Spitze in Fig. 28 angegeben, um einen Zielbereich für die Messung auf jedem der LOW- und HI-Segmente zu definieren (Schritt 2504). Schließlich wird, wie oben erklärt, die durchschnittliche Höhe Hst der LOW-Segmente und die durchschnittliche Höhe Hmeg der HI-Segmente und ihr Unterschied berechnet, um die Höhe der Mesa zu erhalten.
Mit einer Routine, wie oben erklärt, bewegen sich die schließlich festgelegten Zielbereiche auf den einzelnen Segmenten mit der horizontalen Relativbewegung des Zielob­ jektes bezüglich der Sensorkopfeinheit, so dass die Höhe einer Mesa auf dem Zielobjekt zuverlässig gemessen werden kann, trotz einer horizontalen Verschiebung des Zielobjek­ tes. Diese Routine gegen die horizontale Verschiebung des Zielobjektes ist auch auf die Messung der Tiefe einer Einsenkung anwendbar. In dem in Fig. 30 gezeigten Beispiel wird die mittlere Position jedes der HI- und LOW-Segmente gewonnen, und der Bereich zwischen den Randpositionen der Segmente wird als ein Nutbereich identifiziert. Danach wird ein Zielbereich in diesem Nutbereich eingestellt, so dass die Verschiebung des Zielbereiches vom Nutbereich verhin­ dert werden kann.
Die Erfindung stellt auch eine Routine für eine Situa­ tion bereit, in der das Zielobjekt eine Vertikalverschie­ bung durchmachen kann, während die Breite der Mesa darauf gemessen wird. Die Breite einer Mesa wird im Allgemeinen gemessen, indem ein Schwellenwert Lth zwischen der Bezugs­ oberfläche Lref der Mesa oder der Oberfläche, von der sich die Mesa nach oben erstreckt, und der oberen Fläche L6 der Mesa ausgewählt wird. Die Randpositionen E1 und E2 werden dadurch nachgewiesen, und die Trennung zwischen den zwei Randpositionen E1 und E2 wird als die Breite der Mesa akzeptiert. Wenn jedoch das Zielobjekt vertikal verschoben wird, wie in Fig. 31B gezeigt, bewegt sich die Höhe des Schwellenwertes Lth von der vertikalen Ausdehnung der Mesa weg, und die Randpositionen E1 und E2 können nicht mehr nachgewiesen werden, und somit kann die Breite der Mesa nicht bestimmt werden.
Fig. 32 zeigt ein Verfahren, das gemäß dieser Erfin­ dung als eine Maßnahme gegen derartige Wirkungen einer vertikalen Verschiebung des Zielobjektes angewandt wird. Zunächst wird ein Standardzielbereich so festgelegt, dass er nicht von einer vertikalen Verschiebung des Zielobjektes (Schritt 3201) beeinflusst wird, wie in Fig. 33A gezeigt. Dann wird die durchschnittliche Höhe Hst dieses Standard­ zielbereiches berechnet (Schritt 3202), und ein vorberei­ tend bestimmter Offset-Wert Δth wird der durchschnittlichen Höhe Hst hinzugefügt, um einen relativen Schwellenwert Lth zu gewinnen (Schritt 3204), wie in Fig. 33B gezeigt. Nun wird, wie in Fig. 34A gezeigt, das Zielobjekt unter Verwen­ dung des neu definierten relativen Schwellenwertes Lth, wie oben mit Bezug auf Fig. 27 beschrieben, segmentiert (Schritt 3204). Schließlich wird die Breite der Mesa aus den zwei Endpositionen des HI-Segmentes berechnet (Schritt 3205), wie in Fig. 34B gezeigt. Durch dieses Verfahren ändert sich der Standardbezugswert Lth weiterhin, wenn das Zielobjekt vertikal verschoben wird, und die Breite der Mesa kann immer gemessen werden.
Für eine Situation, in der es wahrscheinlich ist, dass das Zielobjekt sowohl vertikal als auch horizontal verscho­ ben wird, kann ein Verfahren wie in Fig. 35 gezeigt verwen­ det werden. Zunächst wird ein Standardzielbereich ausge­ wählt, wie in Fig. 36A gezeigt, der gemessen werden kann, solange die Verschiebung des Zielobjektes innerhalb einer spezifizierten Grenze bleibt (Schritt 3501). Zweitens wird die durchschnittliche Höhe Hst aller Zeilen, die in diesem Standardzielbereich enthalten sind, berechnet (Schritt 3502). Drittens wird, wie in Fig. 36B gezeigt, ein im voraus bestimmter Offset-Wert Δth der durchschnittlichen Höhe Hst hinzugefügt, um einen relativen Schwellenwert Lth' zu erhalten (Schritt 3503). Viertens wird, wie in Fig. 37A gezeigt, das Zielobjekt unter Verwendung des relativen Schwellenwertes Lth' segmentiert, wie oben erklärt (Schritt 3504). Fünftens werden, wie in Fig. 37B gezeigt, die Rand­ positionen und die Mittelpositionen der HI- und LOW- Segmente berechnet (Schritt 3505). Sechstens werden, wie in Fig. 37C gezeigt, ein Zielbereich auf dem LOW-Segment, der als Bezugsoberfläche dienen soll, und ein weiterer Zielbe­ reich auf dem HI-Segment, der die Mesa auf dem Zielobjekt darstellt, berechnet (Schritt 3506). Nachdem die Höhe Hst des LOW-Segmentes (Schritt 3507) und die Höhe Hmeg des HI- Segmentes berechnet ist (Schritt 3508), wird ihre Differenz als die Höhe der Mesa (Schritt 3509) gewonnen.
Mit einem Verfahren, wie oben beschrieben, bewegen sich die Zielbereiche weiterhin gemäß der Verschiebung des Zielobjektes entweder horizontal oder vertikal, so dass die Messungszielbereiche messbar bleiben.
Bereiche, die nicht gemessen werden können, können in einem synthetisierten Bild erscheinen, wie in Fig. 38 gezeigt, nicht nur wegen einer Relativverschiebung zwischen der Sensorkopfeinheit und dem Zielobjekt, sondern auch wegen Störungssignalen, die das Abschließen der Bilddaten auf einer oder mehr Zeilen im synthetisierten Bild verhin­ dern können. Die vorliegende Erfindung liefert Reparatur­ verfahren zur Verhinderung derartiger Bereiche. Fig. 39A zeigt ein Reparaturverfahren, durch das jeder der nicht messbaren Bereiche im Höhenverteilungsdiagramm mit einer Höhe des benachbarten Bereiches auf einer vorbereitend ausgewählten Seite (linke Seite im Beispiel von Fig. 39A) "gefüllt" (oder dadurch ersetzt) wird. Fig. 39B zeigt ein weiteres Reparaturverfahren, durch das nicht messbare Bereiche gefüllt werden, so dass sich die Höhenverteilung um diese Bereiche leicht ändert und sich leicht mit den benachbarten Bereichen verbindet.
Wenn aufgrund von Störsignalen fehlerhafte Daten ent­ halten sind, wie umschlossen von einer unterbrochenen Linie in Fig. 40 gezeigt, können sie mit einem spezifizierten Schwellenwert verglichen werden, um die Kontinuität der Helligkeit zu überprüfen, und nur durch ein Segment mit derselben Höhe wie der benachbarte Bereich ersetzt werden, wenn die Kontinuität hergestellt wird.
Zusammenfassend können optische Sensoren dieser Erfin­ dung eine Schnittumrisslinie genau messen, auch bei einem Zielobjekt, das ein sich änderndes Reflexionsvermögen, eine Nut, einen abgeschrägten Abschnitt oder eine gekrümmte Oberfläche aufweist.

Claims (32)

1. Ein optischer Versetzungssensor, welcher auf­ weist:
Mehrfachbildaufnahmemittel, umfassend Lichtpro­ jektionsmittel, Bildaufnahmemittel und Parameterab­ tastmittel, wobei die Lichtprojektionsmittel dazu die­ nen, ein Spaltlichtbündel bereitzustellen und Spalt­ lichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel dazu dienen, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittum­ risslinie durch eine optischen Schnittoberfläche, un­ ter Verwendung eines zweidimensionalen Bildaufnahmee­ lementes unter einem anderen Winkel zu gewinnen, der vom spezifizierten Winkel verschieden ist, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel dazu dienen, die Helligkeit der umrissaufweisenden Bilder anzuta­ sten, indem der Wert von mindestens einem der Parame­ ter verändert wird, die die Bildaufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel dazu dienen, eine Vielzahl der umrissaufweisenden Bil­ der unter verschiedenen Bildaufnahmebedingungen zu ge­ winnen;
Bildsynthetisierungsmittel zum Extrahieren, eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er­ füllt aus einer Vielzahl der umrissaufweisenden Bil­ dern, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum­ risslinie enthält, durch die Zusammenfassung der ex­ trahierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab­ schnitten der Bilder der Schnittumrisslinie und Erzeu­ gung eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird.
2. Der optische Versetzungssensor nach Anspruch 1, wobei die Messmittel die Verteilung des Abstandes zwi­ schen den Mehrfachbildaufnahmemitteln und der Ziel­ oberfläche entlang einer Linie messen, darin einge­ schlossen dort, wo das Spaltbündel zum Einfall ge­ bracht wird.
3. Der optische Versetzungssensor nach Anspruch 1, wobei die Parameter eine Belichtungszeit des zweidi­ mensionalen Bildaufnahmeelementes umfassen.
4. Der optische Versetzungssensor nach Anspruch 1, wobei die Parameter in veränderbaren Einheiten ge­ ändert werden.
5. Der optische Versetzungssensor nach Anspruch 1, wobei die Parameter innerhalb eines veränderbaren ma­ ximalen Bereiches geändert werden.
6. Der optische Versetzungssensor nach Anspruch 1, wobei die Parameter innerhalb eines maximalen Be­ reiches geändert werden, wobei der maximale Bereich automatisch gemäß den Ergebnissen einer Testmessung eingestellt wird.
7. Der optische Versetzungssensor nach Anspruch 1, wobei die Parameter innerhalb eines maximalen Be­ reiches in spezifizierten Einheiten geändert werden, wobei der Sensor Mittel zur automatischen Anpassung des maximalen Bereiches und der spezifizierten Ein­ heiten gemäß der Helligkeit des Bildes der vom Sensor genommenen Schnittumrisslinie aufweist.
8. Der optische Versetzungssensor nach Anspruch 1, wobei die vorgegebenen Segmente jeweils einen Bereich umfassen, der eine oder mehr aneinandergrenzende hori­ zontale Abtastzeilen auf einem Bild aufweist, das mit dem zweidimensionalen Bildaufnahmeelement gewonnen wird.
9. Der optische Versetzungssensor nach Anspruch 1, wobei die Bildsynthetisierungsmittel aufweisen:
einen Bildspeicher zur Speicherung des Bildes ei­ nes Bildschirmabschnittes des zweidimensionalen Bild­ aufnahmeelementes, wobei der Bildspeicher in Segmente unterteilt ist;
einen Kennzeichen-Speicher zur Speicherung von Schreibsteuer-Kennzeichen, die angeben, ob für jedes dieser Segmente des Bildspeichers ein Einschreiben zu­ lässig ist oder nicht;
Bildaufzeichnungsmittel zur Aufzeichnung von Bil­ dern, die durch die Mehrfachbildaufnahmemittel gewon­ nen wurden, in dem Bildspeicher in Einheiten der Seg­ mente gemäß den Schreibsteuer-Kennzeichen; und
Kennzeichen-Steuermittel, zum Steuern der Schreibsteuer-Kennzeichen so, dass, nachdem ein seg­ mentiertes Bild, das die spezifizierte Bedingung der maximalen Helligkeit erfüllt, in jedem der Segmente des Bildspeichers aufgezeichnet wurde, das Schreiben in das entsprechende Segment verhindert wird.
10. Der optische Versetzungssensor nach Anspruch 9, wobei die Mehrfachbildaufnahmemittel damit aufhören, die umrissaufweisenden Bilder zu gewinnen, wenn die segmentierten Bilder, die die spezifizierte Bedingung der maximalen Helligkeit erfüllen, in alle der spezi­ fizierten Einheiten der Segmente des Bildspeichers aufgezeichnet wurden.
11. Der optische Versetzungssensor nach Anspruch 9, wobei die vorgegebenen Segmente jeweils aus einem Be­ reich bestehen, der eine oder mehr aneinandergrenzende horizontale Abtastzeilen aufweist.
12. Der optische Versetzungssensor nach Anspruch 1, wobei die Mehrfachbildaufnahmemittel in einem Gehäuse­ aufbau enthalten sind, um eine Sensorkopfeinheit zu bilden, und die Bildsynthetisierungsmittel und die Messmittel in einem anderen Gehäuseaufbau enthalten sind, um eine Signalverarbeitungseinheit zu bilden.
13. Der optische Versetzungssensor nach Anspruch 1, welcher ferner einen Bildmonitor, der extern mit der Signalverarbeitungseinheit verbunden ist, aufweist.
14. Mehrfachbildaufnahmevorrichtung, welche aufweist:
Lichtprojektionsmittel zur Lieferung eines Spalt­ lichtbündels und Einstrahlung des Spaltlichbündels un­ ter einem spezifizierten Winkel auf eine Zielfläche eines Zielobjektes;
Bildaufnahmemittel zur Gewinnung von umrissauf­ weisenden Bildern, umfassend ein Bild einer Schnittum­ risslinie durch eine optische Schnittfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelemen­ tes unter einem anderen Winkel, der von dem spezifi­ zierten Winkel verschieden ist, um die Zieloberfläche zu photographieren, wo das Spaltlichtbündel zum Ein­ fall gebracht wird; und
Parameterabtastmittel zur Abtastung der Hellig­ keit der umrissaufweisenden Bilder durch Verändern des Wertes von mindestens einem der Parameter, die Bild­ aufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten wurden;
wobei die Mehrfachbildaufnahmevorrichtung dazu dient, eine Vielzahl der umrissaufweisenden Bilder un­ ter verschiedenen Bildaufnahmebedingungen zu erhalten.
15. Mehrfachbildaufnahmevorrichtung nach Anspruch 14, die in einem Gehäuseaufbau enthalten ist, um eine Sen­ sorkopfeinheit zu bilden.
16. Signalverarbeitungsvorrichtung zur Verbindung mit Mehrfachbildaufnahmemitteln, wobei die Mehrfachbild­ aufnahme Lichtprojektionsmittel, Bildaufnahmemittel und Parameterabtastmittel aufweist, wobei die Licht­ projektionsmittel dazu dienen, ein Spaltlichtbündel zu liefern und das Spaltlichtbündel unter einem spezifi­ zierten Winkel auf eine Zieloberfläche eines Zielob­ jektes einzustrahlen, wobei die Bildaufnahmemittel da­ zu dienen, umrissaufweisende Bilder, darin einge­ schlossen ein Bild einer Schnittumrisslinie durch eine optischen Schnittoberfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderen Winkel, der vom spezifizierten Winkel ver­ schieden ist zu gewinnen, um die Zielfläche zu photo­ graphieren, auf die das Spaltlichtbündel einfällt, wo­ bei die Parameterabtastmittel dazu dienen, die Hellig­ keit der umrissaufweisenden Bilder abzutasten, indem der Wert von mindestens einem der Parameter verändert wird, die Bildaufnahmebedingungen definieren, die die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten wurden, wo­ bei die Mehrfachabbildungsmittel dazu dienen, eine Vielzahl der umrissumfassenden Bilder unter verschie­ denen Bildaufnahmebedingungen zu gewinnen; wobei die Signalverarbeitungseinheit aufweist:
Bildsynthetisierungsmittel zum Extrahieren eines segmentierten Bildes, das eine Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten er­ füllt, aus einer Vielzahl der umrissaufweisenden Bil­ der, die von den Mehrfachbildaufnahmemitteln erhalten wurden, und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittum­ risslinie aufweist, durch Zusammenfassen der extra­ hierten segmentierten Bilder; und
Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Ab­ schnitten der Bilder der Schnittumrisslinie und Erzeu­ gung eines Wertes, der ein durch das spezifizierte Messverfahren erhaltenes Ergebnis darstellt;
wobei das Signalverarbeitungsgerät einen Quer­ schnitt des Zielobjektes misst.
17. Die Signalverarbeitungseinheit nach Anspruch 16, die zur Ausbildung als Verarbeitungseinheit in einem Gehäuseaufbau enthalten ist.
18. Der optische Versetzungssensor nach Anspruch 1, welcher ferner Bildreparaturmittel zur Reparatur eines fehlenden Abschnittes des Bildes der Schnittumrissli­ nie im von den Bildsynthetisierungsmitteln erzeugten synthetisierten Bild aufweist.
19. Der optische Versetzungssensor nach Anspruch 18, wobei die Bildreparaturmittel sequentiell die Anwesen­ heit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisier­ te Bild bildenden Abtastzeilen nachweisen und das Bild eine Abtastzeile mit dem fehlenden Bild der Schnittum­ risslinie durch das Bild der Abtastzeile unmittelbar davor ersetzen.
20. Der optische Versetzungssensor nach Anspruch 18, wobei die Bildreparaturmittel sequentiell die Anwesen­ heit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisier­ te Bild bildenden Abtastzeilen nachweisen und das Bild eine Abtastzeile mit dem fehlenden Bild der Schnittum­ risslinie durch Verwendung der Bilder der Abtastzeilen davor und danach ersetzen.
21. Der optische Versetzungssensor nach Anspruch 18, wobei das Bildreparaturmittel sequentiell die Anwesen­ heit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisier­ te Bild bildenden Abtastzeilen nachweisen und das Bild eine Abtastzeile in Abhängigkeit von der Kontinuität der Helligkeit mit den Bildern der Schnittumrisslinie auf den Zeilen davor und danach ersetzen der nicht er­ setzen.
22. Der optische Versetzungssensor nach Anspruch 1, welcher Monitorausgabemittel zur Erzeugung von Ausga­ besignalen zur Anzeige eines spezifizierten Bildes auf einem Bildmonitor aufweist.
23. Der optische Versetzungssensor nach Anspruch 22, wobei das spezifizierte Bild das synthetisierte Bild enthält.
24. Der optische Versetzungssensor nach Anspruch 23, wobei das spezifizierte Bild einen Cursor, der eine der das synthetisierte Bild bildenden horizontalen Ab­ tastzeilen anzeigt, und eine Helligkeitsverteilungs­ kurve einer der Abtastzeilen, die vom Cursor ausge­ wählt wurden, enthält.
25. Der optische Versetzungssensor nach Anspruch 23, wobei das spezifizierte Bild einen Cursor, der eine der horizontalen Abtastzeilen anzeigt, die aus dem synthetisierten Bild ausgewählt wurden, und Bildauf­ nahmebedingungen für eine der Abtastzeilen, die vom Cursor ausgewählt wurden, enthält.
26. Der optische Versetzungssensor nach Anspruch 23, wobei das spezifizierte Bild auf jeder der das synthe­ tisierte Bild bildenden horizontalen Abtastzeilen eine Markierung aufweist, die die Abwesenheit eines Bildes der Schnittumrisslinie angibt.
27. Der optische Versetzungssensor nach Anspruch 23, wobei das spezifizierte Bild auf jeder der das synthe­ tisierte Bild bildenden horizontalen Abtastzeilen eine Markierung aufweist, die die Anwesenheit der Schnitt­ umrisslinie angibt.
28. Der optische Versetzungssensor nach Anspruch 22, welcher ferner eine graphische Benutzerschnittstelle zur Durchführung einer Konversation zwischen einem Be­ diener und dem Bildmonitor über eine Zeigevorrichtung aufweist.
29. Der optische Versetzungssensor nach Anspruch 1, welcher ferner Spurverfolgungssteuermittel zur Ände­ rung der Zielposition für die Messung gemäß einer Re­ lativbewegung des Zielobjektes aufweist.
30. Der optische Versetzungssensor nach Anspruch 29, wobei die Zielposition zur Messung des Abstandes zwi­ schen den Mehrfachbildaufnahmemitteln und der Zielflä­ che dient, und wobei die Relativbewegung senkrecht zur Richtung erfolgt, in der sich der Abstand ändert.
31. Der optische Versetzungssensor nach Anspruch 29, wobei die Zielposition zur Messung des Abstandes zwi­ schen den Mehrfachbildaufnahmemitteln und der Zielflä­ che dient, und wobei die Relativbewegung in der Rich­ tung erfolgt, in der sich der Abstand ändert.
32. Der optische Versetzungssensor nach Anspruch 29, wobei die Zielposition zur Messung des Abstandes zwi­ schen den Mehrfachbildaufnahmemitteln und der Zielflä­ che dient, und wobei die Relativbewegung sowohl in der als auch senkrecht zu der Richtung erfolgt, in der sich der Abstand ändert.
DE10212916.9A 2001-03-25 2002-03-22 Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors Expired - Fee Related DE10212916B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001133388 2001-03-25
JP01-133388 2001-03-25

Publications (2)

Publication Number Publication Date
DE10212916A1 true DE10212916A1 (de) 2002-11-07
DE10212916B4 DE10212916B4 (de) 2016-12-22

Family

ID=18981256

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10212916.9A Expired - Fee Related DE10212916B4 (de) 2001-03-25 2002-03-22 Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors

Country Status (3)

Country Link
US (1) US6839144B2 (de)
CN (1) CN1218159C (de)
DE (1) DE10212916B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005011149B4 (de) * 2004-03-12 2009-10-29 Omron Corp. Messinstrument
DE102011116791A1 (de) * 2011-10-24 2013-04-25 SmartRay GmbH Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117161A (ja) * 2002-09-26 2004-04-15 Sharp Corp 光学式変位センサ
JP4375523B2 (ja) * 2002-12-20 2009-12-02 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理プログラム、印刷物検査装置、印刷物検査方法、印刷物検査プログラム
EP1517115B1 (de) * 2003-09-19 2016-05-11 Omron Corporation Mehrfachsensorsystem
US7460250B2 (en) * 2003-10-24 2008-12-02 3Dm Devices Inc. Laser triangulation system
TW200902964A (en) * 2007-03-21 2009-01-16 Camtek Ltd System and method for height measurement
WO2008126647A1 (ja) * 2007-04-05 2008-10-23 Nikon Corporation 形状測定装置及び形状測定方法
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
KR20130072213A (ko) * 2010-05-19 2013-07-01 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
CN101907450B (zh) * 2010-07-22 2012-05-23 西北师范大学 不同反射率材质组合表面的三维宏观形貌构建方法
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
JP2014159988A (ja) * 2013-02-19 2014-09-04 Yaskawa Electric Corp 物体検出装置、ロボットシステム、及び物体検出方法
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9605950B2 (en) * 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9762793B2 (en) * 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (de) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensionierungsvorrichtung mit dynamischer nist-standardkonformer genauigkeit
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
WO2017110415A1 (ja) * 2015-12-21 2017-06-29 株式会社小糸製作所 車両用センサおよびそれを備えた車両
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
CN113544464B (zh) 2019-03-11 2022-08-26 三菱电机株式会社 位移计的设定值调整装置
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
CN114690391A (zh) * 2020-12-29 2022-07-01 光原科技(深圳)有限公司 光片荧光显微镜、图像处理系统和图像处理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4666303A (en) * 1983-07-11 1987-05-19 Diffracto Ltd. Electro-optical gap and flushness sensors
DE3940518C2 (de) * 1989-12-07 1994-04-21 Fisw Gmbh Vorrichtung zur Belichtungsregelung für einen Lichtschnittsensor
JP3040607B2 (ja) 1992-08-04 2000-05-15 三菱重工業株式会社 光切断方法における異常光除去方法
JPH09287926A (ja) * 1996-04-24 1997-11-04 Hitachi Constr Mach Co Ltd 断面形状計測装置
PT822389E (pt) * 1996-07-29 2003-08-29 Elpatronic Ag Processo e dispositivo para determinacao e verificacao do contorno de um rebordo
DE19636354A1 (de) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
JP2000230814A (ja) * 1999-02-09 2000-08-22 Mitsubishi Heavy Ind Ltd レーザ光を利用した形状測定方法
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005011149B4 (de) * 2004-03-12 2009-10-29 Omron Corp. Messinstrument
DE102011116791A1 (de) * 2011-10-24 2013-04-25 SmartRay GmbH Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren
DE102011116791B4 (de) * 2011-10-24 2014-05-15 SmartRay GmbH Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren

Also Published As

Publication number Publication date
US6839144B2 (en) 2005-01-04
DE10212916B4 (de) 2016-12-22
CN1376895A (zh) 2002-10-30
CN1218159C (zh) 2005-09-07
US20020167677A1 (en) 2002-11-14

Similar Documents

Publication Publication Date Title
DE10212916A1 (de) Optischer Versetzungssensor
DE69826753T2 (de) Optischer Profilsensor
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE69027272T2 (de) Digitalisierung einer Oberfläche eines unregelmässig geformten Körpers, zum Beispiel einer Schuhsohle
EP0249799B1 (de) Vorrichtung zum Prüfen von Bauteilen aud transparentem Material auf Oberflächenfehler und Einschlüsse
DE102009015920A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE2417946B2 (de) Verfahren zum Speichern und Auswerten von bei der Abtastung eines zu untersuchenden Objektes mit Ultraschall nach dem Impuls-Echoverfahren erhaltenen Echoimpulsen
CH666350A5 (de) Stereophotogrammetrisches aufnahme- und auswerteverfahren sowie auswertevorrichtung.
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE102007004349A1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE19603267A1 (de) Vorrichtung zur Abstands- und/oder Positionsbestimmung
EP2645121A1 (de) Prüfvorrichtung und Prüfverfahren für ein Verkehrsüberwachungsgerät mit einem Laserscanner
DE10063293A1 (de) Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf
WO1998017993A2 (de) Verfahren für die ermittlung von optischen fehlern in grossflächigen scheiben
EP0708325B1 (de) Verfahren und Vorrichtung zur Inspektion von Gegenständen, insbesondere von Flaschen
DE19806261B4 (de) Verfahren zur gesteuerten Darstellung von Hohlraum-Oberflächen
DE69315575T2 (de) Detektor kalibrierung
DE102006036586B4 (de) Lötnahtprüfung
EP2669622A1 (de) Prüfverfahren und hierzu geeigneter Prüfkopf
DE102009040649A1 (de) Verfahren und Vorrichtung zur Erzeugung von digitalen Einzelbildern von scheibenförmigen Elementen in einem Herstellungsprozess
DE19535969A1 (de) Mehrfach abbildendes Linsensystem
DE10223478C5 (de) Verfahren zur Aufnahme eines Objektraumes
AT406528B (de) Verfahren und einrichtung zur feststellung, insbesondere zur visualisierung, von fehlern auf der oberfläche von gegenständen
DE102009047324A1 (de) Einrichtung und Verfahren für die Kalibrierung eines optischen Sensors
DE102017009153B4 (de) Anordnung und Verfahren zur Inspektion von bewegten plattenförmigen Objekten

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

Representative=s name: KILIAN KILIAN & PARTNER, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee