DE10212916B4 - Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors - Google Patents

Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors Download PDF

Info

Publication number
DE10212916B4
DE10212916B4 DE10212916.9A DE10212916A DE10212916B4 DE 10212916 B4 DE10212916 B4 DE 10212916B4 DE 10212916 A DE10212916 A DE 10212916A DE 10212916 B4 DE10212916 B4 DE 10212916B4
Authority
DE
Germany
Prior art keywords
image
displacement sensor
optical displacement
images
outline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10212916.9A
Other languages
English (en)
Other versions
DE10212916A1 (de
Inventor
Michitoshi Okada
Masahiro Kawachi
Tatsuya Matsunaga
Mitsuharu Mano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE10212916A1 publication Critical patent/DE10212916A1/de
Application granted granted Critical
Publication of DE10212916B4 publication Critical patent/DE10212916B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Abstract

Optischer Versetzungssensor, welcher aufweist: Mehrfachbildaufnahmemittel, umfassend Lichtprojektionsmittel, Bildaufnahmemittel und Parameterabtastmittel, wobei die Lichtprojektionsmittel eingerichtet sind, ein Spaltlichtbündel bereitzustellen und das Spaltlichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel eingerichtet sind, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittumrisslinie durch eine optische Schnittoberfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderen, von dem spezifizierten Winkel verschiedenen Winkel zu gewinnen, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel eingerichtet sind, die Helligkeit der umrissaufweisenden Bilder abzutasten, indem der Wert von mindestens einem der Parameter verändert wird, die die Bildaufnahmebedingungen definieren und die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel eingerichtet sind, eine Vielzahl der umrissaufweisenden Bilder unter verschiedenen Bildaufnahmebedingungen zu gewinnen; und eine Signalverarbeitungseinheit, welche aufweist: Bildsynthetisierungsmittel zum Extrahieren eines eine Bedingung maximaler Helligkeit erfüllenden segmentierten Bildes aus einer Vielzahl der umrissaufweisenden Bilder, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, für jedes Segment aus einer Vielzahl von vorgegebenen Segmenten der Vielzahl der umrissaufweisenden Bilder und zum Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittumrisslinie durch Zusammenfassen der extrahierten segmentierten Bilder enthält; und Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Abschnitten der Bilder der Schnittumrisslinie und zur Erzeugung eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird, wobei die Signalverarbeitungseinheit eingerichtet ist, das jeweilige segmentierte Bild zwischen jeweiligen Zeitpunkten der Durchführung jeweiliger Aufnahmen aufeinanderfolgender Bilder der Vielzahl von umrissaufweisenden Bildern, die unter verschiedenen Bildaufnahmebedingungen gewonnen werden, zu extrahieren, wobei die Bildsynthetisierungsmittel aufweisen: ...

Description

  • HINTERGRUND DER ERFINDUNG
  • Diese Erfindung betrifft einen optischen Versetzungssensor zur Untersuchung der Schnittumrissform eines Zielobjektes und ein entsprechendes Verfahren. Insbesondere betrifft diese Erfindung einen derartigen optischen Sensor, der dazu in der Lage ist, mit einem hohen Grad an Genauigkeit die Schnittumrissform eines Zielobjektes einer Art zu überprüfen, die so geformt ist, dass mit einheitlicher Dichte ein Umrissbild eines optischen Schnittbildes wegen seiner Oberflächenmerkmale schwer zu erhalten ist.
  • Es ist ein optischer Versetzungssensor nach dem Stand der Technik für einen derartigen Zweck bekannt, der dadurch gekennzeichnet ist, dass er Lichtprojektionsmittel zur Ausbildung eines Spaltbündels aus Licht einer Lichtquelle und Einstrahlung dieses Bündels unter einem spezifizierten Winkel auf ein Zielobjekt, Abbildungsmittel zur Gewinnung eines Bildes einer Schnittumrisslinie des Zielobjektes durch eine optische Schnittebene unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderem Winkel, um die Einfallslage des Spaltbündels auf dem Zielobjekt zu photographieren, und Messmittel zur Durchführung eines spezifizierten Verfahrens auf dem durch die Abbildungsmittel erhaltenen Bild der Umrisslinie aufweist, womit ein Messwert und/oder ein Beurteilungswert erzeugt wird. Die Richtung der Schnittoberfläche durch das Spaltbündel entspricht der Richtung des senkrechten Abtastens innerhalb des Gesichtsfeldes des zweidimensionalen Bildaufnahmeelementes. Wenn der Abstand zwischen dem Messgerät und dem Zielobjekt verändert wird, bewegt sich das Bild der Schnittumrisslinie, das durch das Spaltbündel gebildet wird, auf der Lichtempfangsoberfläche des zweidimensionalen Bildaufnahmeelementes in dieselbe Richtung wie diejenige der horizontalen Abtastlinie.
  • Mit einem derartigen Sensor können Daten über eine Reihe von Zielpunkten auf einer geraden Linie auf der Oberfläche des Zielobjektes summarisch erhalten werden, ohne das projizierte Licht bezüglich des Zielobjekts zu bewegen, da ein Spaltbündel mit einer Querschnittform einer Zeile anstatt eines Punktlichtes mit einem punktförmigen Querschnitt verwendet wird. Somit können, wenn ein derartiger Sensor dazu verwendet wird, industrielle Produkte zu untersuchen, die entlang einer Fertigungsstraße transportiert werden, fehlerhafte Produkte schnell und zuverlässig identifiziert werden, indem verschiedenen Teile ihrer Oberflächen gemessen werden.
  • Industrielle Produkte werden in verschiedenen Formen und Gestalten hergestellt, einschließlich solcher die nichtgleichförmige Oberflächenzustände wie z. B. die Oberflächenrauheit oder die Farbe, aufweisen, so dass das Reflexionsvermögen nicht gleichförmig ist. Für ein derartiges Produkt soll Bereich A ein Abschnitt seiner Oberfläche mit hohem Reflexionsvermögen und Bereich B ein Abschnitt mit niedrigem Reflexionsvermögen sein. Wenn das zweidimensionale Bildaufnahmeelement so eingestellt wird, dass der Bildbereich A deutlich herauskommt, ist die Helligkeit (oder Klarheit) des Bildes von Bereich B nicht ausreichend. Wenn das Element so eingestellt wird, dass das Bild von Bereich B deutlich herauskommt, ist andererseits das Bild von Bereich A zu hell, und es kann keine genaue Messung durchgeführt werden.
  • 41A und 41B veranschaulichen Probleme dieser Art. 41A zeigt auf ihrer linken Seite eine Querschnittseitenansicht eines Objektes mit einem linken Teil mit hohem Reflexionsvermögen und einem rechten Teil mit niedrigem Reflexionsvermögen. Sein Bild, das von einem zweidimensionalen Bildaufnahmeelement aufgenommen ist, wie oben erklärt, wird auf der rechten Seite gezeigt. In diesem Beispiel ist ein Bild der linken Seite des Objektes sichtbar, aber es ist keine ausreichende Reflexion des Lichts vom rechten Teil vorhanden, und es ist nicht möglich, die Schnittumrisslinie des rechten Teils zu messen. Im Bild auf der rechten Seite stellt die horizontale Richtung die Richtung der Schnittfläche des Spaltlichtbündels dar, und die vertikale Richtung entspricht der Richtung der Höhe das Zielobjektes. Das Bild des Einfallbündels auf dem Zielobjekt sollte eine gerade horizontale Zeile sein, die sich über den ganzen Bildschirm erstreckt, aber seine rechte Seite ist in diesem Beispiel wegen seines niedrigen Reflexionsvermögens nicht sichtbar. Wenn auf der Grundlage eines derartigen Bildes Messungen durchgeführt werden, kann die Höhe auf der linken Seite gemessen werden, aber auf der rechten Seite kann keine Messung durchgeführt werden.
  • 41B zeigt ein weiteres Zielobjekt, das eine Nut mit einem niedrigen Reflexionsvermögen aufweist, die zwischen einem rechten und linken Teil mit hohem Reflexionsvermögen zwischengenommen ist. Das von diesem Objekt aufgenommene Bild zeigt, dass der Abschnitt der Nut wegen seines niedrigen Reflexionsvermögens, wie durch eine gestrichelte kreisförmige Linie angegeben, fehlt.
  • Im Fall eines Objektes mit abgeschrägten Oberflächenabschnitten haben die abgeschrägten Abschnitte die Tendenz, ein geringeres Reflexionsvermögen aufzuweisen, was keine genauen Messungen ermöglicht. 42A zeigt ein Beispiel eines derartigen Zielobjektes. Das Bild, das von einem zweidimensionalen Bildaufnahmeelement gewonnen wird, umfasst drei Zeilen, die das Bild des auf das Zielobjekt zum Einfall gebrachten Spaltlichtbündel darstellen. Das Bild zeigt, dass die Abschnitte, die den Abschrägungen entsprechen, fehlen. Somit können die Höhe des linken und des rechten Endabschnittes und des oberen Mittelteils des Bilds gemessen werden, auf den abgeschrägten Abschnitten aber kann keine normale Messung durchgeführt werden, da die Helligkeit nicht ausreichend ist.
  • Im Fall eines Zielobjektes mit einer gekrümmten Oberfläche, wie in 42B gezeigt, hat der gekrümmte Abschnitt die Tendenz, das Licht nicht ausreichend zu reflektieren. Somit kann von einem zweidimensionalen Bildaufnahmeelement gewonnene Abschnitt des Bildes, der der gekrümmten Oberfläche entspricht, fehlen.
  • Weiterer Stand der Technik wird durch die JP 09 287 926 A , JP 2000 230 814 A , und DE 39 40 518 A1 gebildet.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist daher eine Aufgabe dieser Erfindung, einen optischen Versetzungssensor und ein entsprechendes Verfahren zu schaffen, die das Spaltlichtverfahren verwenden und dazu in der Lage sind, eine Schnittumrisslinie sehr genau zu messen, auch wenn das Zielobjekt eine Oberfläche mit einem nicht gleichförmigen Reflexionsvermögen, eine Nut, eine abgeschrägte Oberfläche oder eine gekrümmte Oberfläche aufweist. Diese Aufgabe wird durch einen optischen Versetzungssensor nach Anspruch 1 und ein Verfahren nach Anspruch 28 gelöst. Weitere vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Es ist eine weitere Zielsetzung der Erfindung, einen derartigen optischen Versetzungssensor zu schaffen, der eine geeignete Korrektur durchführen kann, wenn ein Abschnitt des Bildes einer Schnittumrisslinie etwa aufgrund einer Störung fehlt.
  • Es ist noch eine weitere Zielsetzung der Erfindung, einen derartigen optischen Versetzungssensor zu schaffen, der, wenn eine Messung durchgeführt wird, indem ein Zielbereich gemäß einem spezifizierten Abschnitt eines Bildes in der Richtung der Schnittlinie des Spaltlichtes eingestellt wird, dazu in der Lage ist, die Verschiebung des spezifizierten Abschnittes des Bildes aus dem Zielbereich automatisch zu korrigieren.
  • Andere Zielsetzungen und Wirkungen der Erfindung werden für einen Fachmann aus der folgenden Beschreibung deutlich.
  • Nachstehend sind Aspekte der Erfindung aufgeführt. Ein optischer Versetzungssensor gemäß einem Aspekt dieser Erfindung umfasst erfindungsgemäß Mehrfachbildaufnahmemittel, Bildsynthetisierungsmittel und Messmittel. Die Mehrfachbildaufnahmemittel umfassen Lichtprojektionsmittel zur Lieferung des Spaltlichtbündels und Einstrahlung des Spaltbündels unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes, Bildaufnahmemittel zur Gewinnung von umrissenthaltenden Bildern, darin eingeschlossen ein Bild einer Schnittumrisslinie durch eine optische Trennfläche, indem ein zweidimensionales Bildaufnahmeelement unter einem anderen Winkel, der vom Einfallswinkel des Spaltbündels verschieden ist, verwendet wird, um die Zieloberfläche aufzunehmen, auf die das Spaltbündel zum Einfall gebracht wird, und Parameterabtastmittel zur Abtastung der Helligkeit der umrissenthaltenden Bilder, indem der Wert von mindestens einem der Parameter variiert wird, die die Bildaufnahmebedingungen definieren, die die Helligkeit der durch die Bildaufnahmemittel gewonnenen umrissenthaltenden Bilder beeinflussen. Die Mehrfachbildaufnahmemittel dienen dazu, eine Vielzahl von umrissenthaltenden Bildern mit verschiedenen Bildaufnahmebedingungen zu gewinnen. Die Bildsynthetisierungsmittel dienen dazu, aus einer Vielzahl dieser umrissenthaltenden Bilder, die durch die Mehrfachbildaufnahmemittel gewonnen wurden, ein segmentiertes Bild zu extrahieren, das einer spezifizierten Bedingung maximaler Helligkeit für jedes der vorherbestimmten Segmente genügt, und ein synthetisiertes Bild zu erzeugen, welches eine Reihe von Bildern von Abschnitten der Schnittumrisslinie enthält, indem die extrahierten segmentierten Bilder zusammengefasst werden. Die Messmittel dienen dazu, ein spezifiziertes Messverfahren auf der Grundlage der Reihe von Bildern von Abschnitten der Schnittumrisslinie durchzuführen und einen Wert zu erzeugen, der ein durch das spezifizierte Messverfahren gewonnenes Ergebnis darstellt.
  • Die Messmittel können dazu dienen, die Abstandsverteilung zwischen den Mehrfachbildaufnahmemitteln und der Zielfläche entlang einer Linie, die den Einfallspunkt des Spaltbündels enthält, unter Verwendung einer Reihe von Messwerten gewinnen.
  • Mit einem derart aufgebauten optischen Versetzungssensor werden einer oder mehrere der Parameter, die die Bildaufnahmebedingungen definieren, die die Helligkeit des Bildes einer Schnittumrisslinie beeinflussen, verändert, um die Helligkeit des Bildes abzutasten, während eine Vielzahl von Bildern von den Mehrfachbildaufnahmemitteln aufgenommen wird, und wird ein synthetisiertes Bild durch die Zusammenfassung von segmentierten Bildern gewonnen, von denen jedes einer spezifizierten Bedingung maximaler Helligkeit für jedes von vorgegebenen Segmenten genügt. Das so erhaltene synthetisierte Bild enthält eine Reihe von Bildern von Abschnitten der Schnittumrisslinie. Somit können die Messmittel ein spezifiziertes Messverfahren auf der Grundlage eines hellen Bildes durchführen, das durch die Zusammensetzung einer Reihe von Bildern von Abschnitten der Schnittumrisslinie gebildet ist, und dadurch einen genauen Messwert oder einer Beurteilung erzeugen.
  • Verschiedene Arten von Parametern können verwendet werden, aber die Menge des Lichtes von der Quelle und die Verschlusszeit des zweidimensionalen Bildaufnahmeelementes sind wirkungsvoll, da sie leicht gesteuert werden können. Zu anderen Beispielen gehören der Verstärkungsfaktor des Verstärkers für die Lichtprojektionsmittel. Wenn ein CCD-Bildsensor als das zweidimensionale Bildaufnahmeelement verwendet wird, können Parameter wie z. B. die Verschlusszeit des CCD-Bildsensors, das Taktverhältnis der eingestrahlten Impulse, das Verstärkungsverhältnis von Videosignalen und die Spitzenlichtmenge des Lichtes der eingestrahlten Lichtimpulse verwendet werden.
  • Die Parameter können in Einheiten verändert werden. In diesem Fall können die Einheiten, um die die Parameterwerte verändert werden, ebenso wie der maximale Bereich, innerhalb dessen sie verändert werden können, veränderbar sein, so dass ein Bild mit optimaler Helligkeit für jeden Bereich erhalten werden kann, auf den das Spaltlichtbündel zum Einfall gebracht wird. Der maximale Bereich der Parameter kann gemäß einem Prüfergebnis automatisch veränderbar gemacht werden. Dies ist vorteilhaft, da keine Benutzereingabe erforderlich ist, um einen derartigen maximalen Bereich einzustellen, auch nicht dort, wo Zielobjekte, die bedeutend unterschiedliche Oberflächenbedingungen aufweisen, gemessen werden sollen, und somit ein optimaler Bereich zuverlässig und schnell ausgewählt werden kann. Die Einheiten, um die die Parameterwerte verändert werden, und/oder der maximale Bereich ihrer Veränderungen können so eingerichtet werden, dass sie automatisch gemäß der Helligkeit des Abschnittes des Bildes der Schnittumrisslinie, die innerhalb eines spezifizierten Segmentes gewonnen wird, eingestellt werden. Dies ist vorteilhaft, da die Zeit, die erforderlich ist, um sie einzustellen, eingespart werden kann.
  • Die Segmente können vorbereitend auf verschiedene Arten spezifiziert werden, in Abhängigkeit vom Gesichtsfeld und der erwarteten Position und Größe des Bildes der Schnittumrisslinie. Wenn sie so spezifiziert werden, dass jedes aus einem Bereich besteht, der eine oder mehrere aneinandergrenzende horizontale Abtastzeilen auf einem Bild enthält, das mit einem zweidimensionalen Bildaufnahmeelement gewonnen wurde, ist dies zweckmäßig, da die Einheiten, in denen Bilder aufgenommen werden, und die Einheiten, in denen Bilder gehandhabt werden, in Übereinstimmung gebracht werden können.
  • Die Bildsynthetisierungsmittel umfassen erfindungsgemäß einen Bildspeicher, einen Kennzeichen-Speicher, Bildaufzeichnungsmittel und Kennzeichen-Steuermittel. Der Bildspeicher dient dazu, das Bild eines Bildschirmabschnittes des zweidimensionalen Bildaufnahmeelementes zu speichern und ist geeignet in Segmente unterteilt. Der Kennzeichen-Speicher dient dazu, Schreibsteuer-Kennzeichens zu speichern, die angeben, ob Daten in jedes dieser Segmente des Bildspeichers geschrieben werden können oder nicht. Die Bildaufzeichnungsmittel dienen dazu, die durch die Mehrfachbildaufnahmemittel erhaltenen Bilder in Einheiten seiner Segmente gemäß den Schreibsteuer-Kennzeichens in den Bildspeicher zu speichern. Die Kennzeichen-Steuermittel dienen dazu, die Schreibsteuer-Kennzeichens zu steuern, so dass nachdem ein segmentiertes Bild, das der spezifizierten Bedingung maximaler Helligkeit genügt, in jedes der Segmente des Bildspeichers gespeichert worden ist, der Kennzeichen-Speicher, der dem Segment entspricht, so eingestellt wird, dass er das Einschreiben sperrt. Mit so aufgebauten Bildsynthetisierungsmitteln werden Bilder von den Mehrfachbildaufnahmemitteln empfangen und nahezu gleichzeitig synthetisiert, so dass die Verarbeitungszeit verringert werden kann.
  • Die Verarbeitungszeit kann noch weiter verringert werden, wenn die Mehrfachbildaufnahmemittel in dem Zeitpunkt damit aufhören, Bilder zu gewinnen, in dem die segmentierten Bilder, die der spezifizierten Bedingung maximaler Helligkeit genügen, in alle Segmente oder in alle erwarteten Segmente des Bildspeichers geschrieben sind. Wenn die Segmente so spezifiziert sind, dass jedes aus einem Bereich besteht, der eine oder mehr aneinandergrenzende horizontale Abtastzeilen auf einem Bild aufweist, das vom Bildaufnahmeelement der Mehrfachbildaufnahmemittel erhalten wurde, ist dies zweckmäßig, weil die Einheiten, in denen Bilder aufgenommen wurden, und die Einheiten, in denen Bilder im Bildspeicher gespeichert werden. Wie oben erklärt, ist die Richtung des Querschnittes des Spaltbündels die Richtung der senkrechten Abtastzeile auf der Lichtempfangsoberfläche des zweidimensionalen Bildaufnahmeelementes. Wenn der Abstand zwischen dem Messgerät und dem Zielobjekt geändert wird, bewegt sich das Bild der Schnittumrisslinie, die vom Spaltbündel gebildet wird, auf der Lichtempfangsoberfläche des zweidimensionalen Bildaufnahmeelementes in dieselbe Richtung wie diejenige der horizontalen Abtastzeile.
  • Gemäß einem bevorzugten Aspekt der Erfindung sind die Mehrfachbildaufnahmemittel in einem einzigen Gehäuseaufbau enthalten, der eine Sensorkopfeinheit bildet, und die Bildsynthetisierungsmittel und die Messmittel sind in einem anderen Gehäuseaufbau enthalten, der eine Signalverarbeitungseinheit bildet. Ein Bildmonitor kann so gestaltet sein, dass er extern mit der Signalverarbeitungseinheit verbindbar ist. Auf diese Weise kann die Sensorkopfeinheit neben dem Zielobjekt angeordnet werden, damit sie für die Messung zweckmäßig ist, aber die Signalverarbeitungseinheit kann überall dort angeordnet werden, wo dies für den Bediener zweckmäßig ist. Wenn ein Bildmonitor mit der Signalverarbeitungseinheit verbunden ist, wird eine Überwachung auf verschiedene Arten durchführbar.
  • Das Mehrfachbildaufnahmemittel, die oben als eine Komponente eines optischen Sensors beschrieben wurden, können unabhängig als Mehrbildaufnahmegerät verwendet werden, wobei es Komponente wie oben beschrieben, enthalten in einem einzigen Gehäuseaufbau, aufweist, um so eine Sensorkopfeinheit zu bilden.
  • Ähnlich können die Bildsynthetisierungsmittel und die Messmittel, die oben als Komponente eines optischen Sensors beschrieben wurden, als ein unabhängiges Signalverarbeitungsgerät gebildet sein, wobei es Komponente wie oben beschrieben, untergebracht in einem einzigen Gehäuseaufbau, aufweist, um so eine Signalverarbeitungseinheit zu bilden.
  • Der optische Sensor gemäß einem Aspekt dieser Erfindung kann auch Bildreparaturmittel aufweisen, um Teilfehler im synthetisierten Bild einer Schnittumrisslinie in einem synthetisierten Bild zu reparieren, das von dem Bildsynthetisierungsmitteln erzeugt wurde. Wenn das Bild einer Schnittumrisslinie von einem der Segmente eines synthetisierten Bildes fehlt, unabhängig davon, wie die Parameterwerte verändert werden, kann das synthetisierte Bild somit repariert werden, so dass ein Fehlschlag, auf dem synthetisierten Bild Messungen durchzuführen, verhindert werden kann.
  • Verschiedene Algorithmen können für die Bildsynthetisierungsmittel verwendet werden. Gemäß einem von ihnen wird die An- oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie sequentiell auf jeder der horizontalen Abtastzeilen nachgewiesen, die das synthetisierte Bild bilden, und wenn eine Zeile gefunden wird, auf der das Bild eines Abschnittes der Schnittumrisslinie fehlt, wird das Bild auf der Zeile, die unmittelbar zuvor abgetastet wurde, an die Stelle gesetzt. Gemäß einem anderen Algorithmus erfolgt die Ersetzung, indem die Bilder sowohl der Zeile unmittelbar davor als auch einer nachfolgenden Zeile berücksichtigt werden. Ein drittes Verfahren kann darin bestehen, auch das Bild auf jeder Abtastzeile mit einem Standardhelligkeitswert zu vergleichen und eine Korrektur, wie oben erklärt, durchzuführen oder nicht durchzuführen, abhängig von der Helligkeitskontinuität der Bilder der Schnittumrisslinie vor und nach der Abtastzeile.
  • Der optische Sensor gemäß einem Aspekt dieser Erfindung kann auch Monitorausgabemittel zur Erzeugung von Ausgabesignalen für die Anzeige eines spezifizierten Bildes auf einem gesondert vorgesehenen Bildmonitor aufweisen. Anzeigen vieler Arten können auf dem Monitorbildschirm erfolgen. Zunächst kann das synthetisierte Bild, das von den Bildsynthetisierungsmitteln selbst erzeugt wurde, angezeigt werden. Zweitens kann ein Cursor, der die ausgewählte der horizontalen Abtastzeilen aus dem synthetisierten Bild und die Helligkeitsverteilungskurve (”helle Zeilenwellenform”) der vom Cursor angegebenen Abtastzeile angibt, angezeigt werden. Drittens kann ein Cursor und eine Ausgabe, die die Bildaufnahmebedingung (Modus) für die vom Cursor angegebene Abtastzeile darstellt, angezeigt werden. Viertens kann eine Markierung auf jeder Abtastzeile angezeigt werden, auf der kein Bild einer Schnittumrisslinie vorhanden ist. Fünftens kann eine Markierung auf jeder Abtastzeile angezeigt werden, auf der ein Bild der Schnittumrisslinie vorhanden ist.
  • Der optische Versetzungssensor gemäß einem Aspekt dieser Erfindung kann auch eine graphische Benutzerschnittstelle umfassen, um eine Konversation zwischen einem Bediener und dem Bildmonitor über eine Zeigevorrichtung durchzuführen.
  • Der optische Versetzungssensor gemäß einem Aspekt dieser Erfindung kann dazu verwendet werden, industrielle Produkte zu untersuchen, die auf einer Fertigungsstraße in einer Fabrik transportiert werden. Bei einer derartigen Anwendung wird gewöhnlich ein Zielbereich innerhalb des linear langgestreckten Bereiches definiert, auf den das Spaltbündel zum Einfall gebracht wird, und die Untersuchung oder die Überwachung auf einen spezifizierten Abschnitt konzentriert, der in diesem Zielbereich enthalten ist. Die Produkte, die auf einer Förderanlage transportiert werden, sind manchmal auf der Förderanlage in Richtung senkrecht zur Transportrichtung oder in Höhenrichtung versetzt. Wenn der Zielbereich in einer derartigen Situation festgelegt ist, können spezifizierte Abschnitte von Zielobjekten nicht richtig inspiziert werden. Es wird daher vorgezogen, Spurverfolgungssteuermittel vorzusehen, um die Zielposition der Messung gemäß der Relativbewegung des Zielobjektes zu verändern.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine äußere Ansicht der Gesamtheit eines dieser Erfindung verkörpernde Versetzungssensorsystems.
  • 2A ist eine Vorderansicht und 2B eine Seitenansicht der Sensorkopfeinheit von 1, um ihr optisches System und ihre Beziehung zu einem Zielobjekt zu zeigen.
  • 3 ist ein Blockdiagramm der Sensorkopfeinheit.
  • 4 ist ein Blockdiagramm der Signalverarbeitungseinheit, das ihren Hardwareaufbau zeigt.
  • 5 ist ein Zeitdiagramm von Vorgängen, die vom Sensor durchgeführt werden.
  • 6 ist ein Blockdiagramm der FPGA und der CPU.
  • 7 und 8 zeigen ein Flussdiagramm für das Verfahren der Aufnahme von Bildern und der Synthetisierung eines Bildes.
  • 9 zeigt ein Flussdiagramm für das Verfahren für jede Zeile.
  • 10 zeigt ein Flussdiagramm für das Datenabschließungsverfahren.
  • 11A, 11B und 11C zeigen verschiedene Arten der Aktualisierung von Dateninhalten im Zeilendatenregister.
  • 12A, 12B, 12C, 13A, 13B, 13C, 14A, 14B und 14C sind Zeichnungen, um die Beziehung zwischen dem eingegebenen Bild und dem Inhalt des Bildspeichers zu zeigen.
  • 15 ist eine Zeichnung, um das Prinzip des Lehrverfahrens zur Beschränkung von Bildaufnahmebedingungen zu zeigen.
  • 16 ist ein Beispiel für die Anzeige auf dem Monitor.
  • 17 und 18 zeigen ein Beispiel, bei dem auf einer Zeile kein annehmbarer Spitzenwert erhalten werden konnte.
  • 19 und 20 sind Flussdiagramme von Verfahren, die angewandt werden können, wenn auf einer Zeile kein annehmbarer Spitzenwert erhalten werden konnte.
  • 21 ist ein Prinzipschaubild, um zu zeigen wie Moden geändert werden.
  • 22 ist ein Flussdiagramm, um Moden von Bildaufnahmebedingungen zu ändern.
  • 23A und 23B zeigen, wie eine Tabelle von Bildaufnahmemoden umgeschrieben wird.
  • 24A und 24B zeigen die Auswirkung einer horizontalen Versetzung des Zielobjektes.
  • 25 ist ein Flussdiagramm eines Verfahrens gegen eine horizontale Verschiebung des Zielobjektes.
  • 26 ist ein Flussdiagramm für ein Segmentierungsverfahren.
  • 27 zeigt, wie ein Zielobjekt durch das Segmentierungsverfahren in obere und untere Segmente unterteilt wird.
  • 28 zeigt, wie die Zieloberflächenbereiche von Segmenten festgelegt werden.
  • 29 zeigt, wie ein Standardschwellenwert durch Differenzierung berechnet wird.
  • 30 zeigt, wie die Tiefe einer Einsenkung gemessen wird.
  • 31A und 31B zeigen, wie eine vertikale Versetzung des Zielobjektes die Messung der Breite einer Mesa auf dem Zielobjekt beeinflussen kann.
  • 32 ist ein Flussdiagramm eines Verfahrens gegen eine vertikale Versetzung des Zielobjektes.
  • 33A und 33B zeigen, wie ein Standardzielbereich im Verfahren von 32 festgelegt wird.
  • 34A und 34B zeigen, wie die relative Schwelle im Verfahren von 32 verwendet werden kann.
  • 35 ist ein Flussdiagramm eines Verfahrens gegen eine Versetzung des Zielobjektes sowohl in horizontaler als auch in vertikaler Richtung.
  • 36A, 36B, 37A, 37B und 37C sind Diagramme zur Erläuterung des Verfahrens von 35.
  • 38, 39A, 39B und 40 sind Diagramme zur Erläuterung der Bildreparaturverfahren.
  • 41A, 41B, 42A und 42B sind Skizzen um zu zeigen, wie unzufriedenstellende Bilder eines Objektes mit einem optischen Sensor nach dem Stand der Technik entstehen können.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die Erfindung wird nun anhand eines Beispiels beschrieben. 1 zeigt ein die Erfindung verkörperndes Versetzungssensorsystem, welches eine Sensorkopfeinheit 1, eine Signalverarbeitungseinheit 2 zur Verarbeitung von Bildsignalen die von dieser Sensorkopfeinheit erhalten wurden, eine Handkonsoleneinheit 3, um verschiedene Betriebsanweisungen an die Signalverarbeitungseinheit 2 zu geben, und einen Bildmonitor 4 zur Anzeige von Messergebnissen, die mit der Signalverarbeitungseinheit 2 gewonnen wurden, sowie von verschiedenen Betriebsbefehlen aufweist.
  • Wie unten ausführlich beschrieben wird, umfasst die Sensorkopfeinheit 1 in sich fast die Gesamtheit von Mehrfachbildaufnahmemitteln, vorgesehen mit (1) Lichtprojektionsmitteln zur Ausbildung eines Spaltlichbündels einer Lichtquelle und Einstrahlen desselben unter einem spezifizierten Winkel auf ein Zielobjekt, (2) Abbildungsmitteln zur Gewinnung eines Bildes einer Schnittumrisslinie des Zielobjektes durch eine optische Schnittebene unter Verwendung eines zweidimensionalen Bildaufnahmeelementes aus einem anderem Winkel, um die Position des Einfalls des Spaltbündels auf das Zielobjekt aufzunehmen, und (3) Abtastmitteln zur Abtastung der Helligkeit (oder Klarheit) des Bildes durch Veränderung des Wertes mindestens eines der Parameter, die die Bedingungen der Bildaufnahme festlegen und die Helligkeit der Schnittumrisslinie in dem Bild, das durch die Abbildungsmittel gewonnen wurde, beeinflussen.
  • Die Signalverarbeitungseinheit 2 umfasst (1) Bildsynthetisierungsmittel, zum Extrahieren eines Bildsegments, das einer spezifizierten Helligkeitsbedingung genügt, aus jedem der spezifizierten Bereichssegmente, und Gewinnung eines synthetisierten Bildes, welches eine Reihe von Bildern einer Schnittumrisslinie enthält, durch Zusammenfassung derartiger Bildsegmente und (2) Messmittel zur Durchführung eines spezifizierten Messvorgangs auf der Reihe von Teilbildern der Schnittumrisslinie, die durch die Bildsynthetisierungsmittel gewonnen wurde, womit ein Messwert und/oder ein Beurteilungswert erzeugt wird.
  • Somit dient die Sensorkopfeinheit 1 dazu, ein Zielobjekt 5 mit einem Spaltlichtbündel 6 zu bestrahlen und sein reflektiertes Licht 7 mit einem CCD-Bildsensor (der ein zweidimensionales Bildaufnahmeelement ist) zu empfangen, wodurch ein Abbildungssignal erzeugt und ausgegeben wird, das die Oberflächenversetzungen des Zielobjektes 5 angibt. Bezugszahl 8 in 1 gibt ein zeilenförmiges Lichtbild (als helles gerades Liniensegment) an, das auf der Oberfläche des Zielobjektes 5 erzeugt wurde.
  • 2 (bestehend aus 2A und 2B) zeigt das optische System der Sensorkopfeinheit 1 und seine Beziehung zur Zieleinheit 5. Wie in 2B gezeigt, umfasst die Sensorkopfeinheit 1 in sich eine Spaltlichtquelle 112, ein lichtprojizierendes optisches System 113 zur Erzeugung des Spaltlichts 6, indem das von der Spaltlichtquelle 112 ausgesendete Licht geeignet konvergent gemacht und umgeformt wird, sowie ein lichtempfangendes optisches System 121, um das Licht 7 des Spaltlicht 6 einem zweidimensionalen CCD-Bildsensor 122 zuzuleiten. Wie in 2A gezeigt, ist das Spaltlicht 6 in diesem Beispiel verhältnismäßig breit mit einer Breite W. Das Zielobjekt 5 ist darin als ein stufenweise erhöhtes Teil mit einem ebenen oberen, Ende (im Folgenden als ”Mesa” 5a bezeichnet) auf seiner Oberseite dargestellt. Wenn die Mesa 5a schmaler als W ist, kann ihre Höhe h unmittelbar, ohne irgendeine Relativbewegung zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5, gemessen werden.
  • 3 zeigt den inneren Schaltungsaufbau der Sensorkopfeinheit 1. Innerhalb der Sensorkopfeinheit 1 sind Lichtsendeelemente (darin enthalten eine Laserdiode (LD) 112, ein LD-Treiberschaltung 111 und eine Lichtübertragungslinse 113) zur Bestrahlung des Zielobjektes 5 mit dem Spaltbündel 6 und Lichtempfangselemente (darin enthalten eine Lichtempfangslinse 121, ein CCD-Bildsensor 122, eine Verstärkerschaltung (AMP) 123, ein Hochpassfilter (HPF), ein Abtast-Halte-Kreis (S/H) 125 und eine AGS-Verstärkerschaltung (AGC AMP) 126) für den Empfang des Lichts 7 vom Zielobjekt 5 enthalten. Wenn die Sensorkopfeinheit 1 das Spaltlicht 6 gerade nach unten auf die Oberfläche des Zielobjektes 5 projiziert, wird ein Bild der bestrahlten Oberfläche des Zielobjekts 5, das das Lichtbild 8 des Spaltbündels 6 enthält, unter einem anderen Winkel vom CCD-Bildsensor 122 aufgenommen, um so ein Bildsignal VS zu erzeugen.
  • Ein LD-Ansteuerimpulsssignal P1 zum Aufleuchtenlassen der Laserdiode 112 wird von einer Taktsignalschaltungerzegungsschaltung 101 erzeugt. Ansprechend auf das empfangene LD-Ansteuerimpulsssignal P1 verursacht die LD-Treiberschaltung 111, dass die LD 112 Lichtimpulse aussendet. Die Taktsignalerzeugungsschaltung 101 dient auch dazu, die Spitzenleistung des gepulsten Laserlichtes über die LD-Treiberschaltung 111 zu steuern. Der Gepulstlaserlichtsender von der LD 112 wird als das Spaltbündel 6 durch die Linse 113 hindurch auf das Zielobjekt 5 eingestrahlt und verursacht, dass das zeilenförmige Lichtbild 8 auf der Oberfläche des Zielobjektes erscheint.
  • Das Tastverhältnis für die Ansteuerung der LD 112 und die Spitzenleistung des gepulsten Laserlichtes werden jeweils als einer der Parameter betrachtet, die die Helligkeit (Klarheit) des Bildes der Schnittumrisslinie beeinflussen, die in dem Bild enthalten ist, das vom CCD-Bildsensor 122 (im Folgenden einfach als «CCD» bezeichnet) erzeugt wird.
  • Das reflektierte Licht 7 vom Zielobjekt wird durch die Linse 121 auf die CCD 122 zum Einfall gebracht, die ein zweidimensionales Bildaufnahmeelement ist. Zusammenfassend wird die Oberfläche des Zielobjektes 5 mit der CCD 122 aufgenommen, und das aufgenommene Bild, dass das Lichtbild 8 durch das Spaltbündel enthält, wird in ein Bildsignal umgewandelt. Die Lagebeziehung zwischen der LD 112, der CCD 122 und den Lichtübertragungs- und empfangslinsen 113 und 121 wird so festgelegt, dass sich die Lage des Lichtbildes 8 des Spaltbündels 6 auf der Lichtempfangsoberfläche der CCD 122 z. B. gemäß dem Abstand zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5 verändert.
  • Das von der CCD 122 ausgegebene Bildsignal, wird durch die Verstärkerschaltung 123 für jedes Bildelement (Pixel) verstärkt, und Schwankungen von Nullpegel-Signalen, die unter den Pixeln auftreten, werden durch das Hochpassfilter 124 beseitigt. Der Abtast-Halte-Kreis 125 dient dazu, die Kontinuität zwischen den aneinandergrenzenden Paaren von Pixeln zu korrigieren, so dass jedes Pixelsignal die Menge des empfangenen Lichtes korrekt darstellt. Danach wird die Größe der Signalwerte durch den AGC-Verstärker 126 geeignet gesteuert und das Signal auf die Signalprozessoreinheit 2 als Bildsignal VS übertragen. In 3 gibt SYNC ein Synchronisierungssignal an, das als ein Standard für das Taktsignal dient, und PWR gibt eine Spannungsquelle an.
  • Durch ein weiters Impulssignal P2, das von der Taktsignalerzeugungsschaltung übertragen wird, wird der Ansteuermodus durch die CCD 112, darin eingeschlossen die Belichtungszeit, durch einen CCD-Steuerschaltung 131 gesteuert. Ähnlich werden die Spitzenhaltezeit des Abtast-Halte-Kreises 125, der Verstärkungsfaktor der AGC-Verstärkerschaltung 126 und ihre Schaltzeit durch die Impulssignale P3 und P4 gesteuert. Die Belichtungszeit der CCD 122 und der Verstärkungsfaktor der AGC-Verstärkerschaltung 126 sind Parameter, die die Bildaufnahmebedingungen festlegen, die die Helligkeit des Bildes der Schnittumrisslinie beeinflussen, die in dem Bild enthalten ist, das von der CCD 122 erzeugt wird.
  • Eine Vielzahl von Mustern von Bildaufnahmebedingungen, die durch Parameter wie z. B. die Belichtungszeit der CCD 122, die Emissionszeit der LD 112, ihre Spitzenleistung und den Verstärkungsfaktor der AGC-Verstärkerschaltung 126, die die Helligkeit des Bildes beeinflussen, definiert werden, werden in einem Bedingungsspeicher 141 gespeichert, so dass verschiedene Bildaufnahmebedingungen (wie z. B. 32 Moden von Modus 0 bis Modus 31) mit einem Steuersignal CONT der Signalprozessoreinheit 2 ausgewählt werden können. Der Inhalt jedes Modus wird durch die Kombination eines oder mehrerer der Parameter, die oben beschrieben wurden, festgelegt.
  • Ausführlicher erklärt, können diese Moden erstellt werden, indem nur einer der Parameter verwendet und sein Wert auf 32 verschiedene Weisen verändert wird, oder indem 2 oder mehr Parameter verwendet und jeder von ihnen verändert wird. Diese Moden (der Bildaufnahmebedingungen) können automatisch in Antwort auf das Steuersignal CONT geschaltet werden. Somit können bis zu 32 Bilder über die CCD 122 erhalten werden, während die Helligkeit des Bildes durch Schalten der Bildaufnahmebedingungen verändert (abgetastet) wird. Wie unten ausführlich beschrieben wird, können die Einheiten, um die diese Parameter verändert werden, und der Bereich, innerhalb dessen diese Parameter verändert werden, gemäß dem Zielobjekt 5 oder den Ergebnissen des erhaltenen Bildes, das vom Zielobjekt aufgenommen wurde, geändert werden. Mit anderen Worten können die Bedingungen der Bildaufnahme fein gesteuert werden.
  • Die Signalprozessoreinheit 2 umfasst, wie in 4 gezeigt, ein feldprogrammierbares Gate-Array FPGA 201, eine CPU 202, einen Bildspeicher 203, einen Anzeigespeicher 204, einen Analog-Digital-Wandler 205, einen Digital-Analog-Wandler 206, eine Schnittstelle (nicht gezeigt) zur Ansteuerung des Sensorkopfes, und eine externe Schnittstelle (nicht gezeigt) zur Ausgabe eines Steuersignals OUT.
  • Das FPGA 201 umfasst eine Bildspeichersteuerung 201a und einen Merkmalsextraktor 201b. Die Bildspeichersteuerung 201a dient zur Steuerung der Eingabe und der Ausgabe von Bilddaten (wie z. B. denjenigen, die von der Sensorkopfeinheit 1 über das Bildsignal VS hereingenommen werden) in und aus dem Bildspeicher 203. Sie hat die Funktion, den Merkmalsextraktor 201b bei der Durchführung der Merkmalsextraktionsberechnungen zu unterstützen, wie unten erklärt wird. Die Bildspeichersteuerung 201a wird mit einer dedizierten Hardwareschaltung ausgebildet. Der Merkmalsextraktor 201b wird auch mit seiner eigenen dedizierten Hardwareschaltung ausgebildet und dient dazu, ein Spitzenpixel aus den Bilddaten auf jeder horizontalen Abtastzeile und die Spitzendichte festzustellen. Die Bildspeichersteuerung 241a und der Merkmalextraktor 201b werden mit Bezug auf 6 unten weiter ausführlicher erklärt.
  • Die CPU 202 umfasst einen Mikroprozessor als ihren Hauptbestandteil und umfasst funktionell Anzeigesteuermittel 202a, Berechnungsmittel 202b, Steuermittel 202c und Datenbeurteilungsmittel 202d als Software. Die Anzeigesteuermittel 202a dienen zur Steuerung der Eingabe und der Ausgabe von Anzeigedaten in den und aus dem Anzeigespeicher 204. Die Anzeigedaten, die in den Anzeigespeicher 204 geschrieben sind, werden durch den Digital-Analog-Wandler 206 in ein analoges Anzeigebildsignal umgewandelt und an einen Bildmonitor (nicht gezeigt) übertragen.
  • Die Berechnungsmittel 202b dienen zur Berechnung der Versetzung, was den ursprünglichen Zweck des Sensors darstellt, und dient dazu, zu warten, bis ein synthetisiertes Bild vervollständigt ist, und dann Versetzungen (wie z. B. Höhe, Breite und Länge) durch Berechnung zu gewinnen. Einzelheiten von Berechnungen werden hier nicht beschrieben, da sie bekanntlich Berechnungen (1) des Abstandes zwischen der Sensorkopfeinheit 1 und dem Zielobjekt 5 entlang der Übertragungsgeraden des Spaltbündels, (2) der Tiefe und der Breite eines genuteten Teils auf der Grundlage des Bildes der Schnittumrisslinie anhand einer Reihe von Messwerten, (3) der durchschnittlichen, Spitzen- und Bodenwerte einer Reihe von Messwerten entlang der Übertragungsgeraden des Spaltbündels und (4) eines Neigungswinkels auf der Grundlage einer Reihe von Messwerten entlang der Übertragungsgeraden des Spaltbündels umfassen.
  • Die Datenbeurteilungsmittel 202d dienen dazu, verschiedene Datenbeurteilungen auszuführen, so z. B., ob ein berechneter Wert, der mit den Berechnungsmitteln 202b gewonnen wurde, größer als der Standardwert ist oder nicht, oder ob sie untereinander gleich sind. Ein Schaltsignal wird erzeugt und als Ergebnis der Beurteilung ausgegeben. Das so erhaltene Schaltsignal wird als eine Steuerausgabe OUT über die externe Schnittstelle 208 nach außen übertragen.
  • Der Analog-Digital-Wandler 205 dient zur Umwandlung des analogen Bildsignals VS der Sensorkopfeinheit 1 in ein digitales Signal, das an die Signalverarbeitungseinheit 204 zu übertragen ist. Der Digital-Analog-Wandler 206 dient zur Umwandlung der im Anzeigespeicher 204 gespeicherten Anzeigedaten in ein analoges Signal und dazu, sie an den Bildmonitor zu übertragen.
  • Wie oben erklärt, und wie im Zeitdiagramm von 5 schematisch dargestellt, ist der optische Versetzungssensor dieser Erfindung dadurch gekennzeichnet, dass er die Werte von mindestens einem der Parameter abtastet, die die Bildaufnahmebedingungen definieren, die die Helligkeit des Bildes der Schnittumrisslinie beeinflussen, die in dem Bild enthalten ist, das von der CCD 122 in spezifizierten Einheiten und innerhalb eines spezifizierten Bereiches erzeugt wird, dadurch, dass er eine Vielzahl von Bilddaten von einem zweidimensionalen Bildsensor 122 erhält, ein synthetisiertes Bild erzeugt, indem er Bilder, die deutliche Abschnitte der Schnittumrisslinie enthalten, aus diesen Bildern geeignet zusammenfasst, und verschiedene Verfahren auf der Grundlage eines derartigen synthetisierten Bildes durchführt. 5 wird unten ausführlicher beschrieben.
  • 6 zeigt den Hardwareaufbau, der erforderlich ist, um eine derartige Vielzahl von Bildern und Bildsynthesen zu erhalten, und das obenerwähnte FPGA 201, die CPU 202 und den Bildspeicher 203 enthält.
  • Das FPGA 201 umfasst die Bildspeichersteuerung 201a, den Merkmalextraktor 210b, einen Zeilenpufferspeicher 201c und einen Adressenerzeuger 201d und einen Zeilenzähler 201e. Der Zeilenpufferspeicher 201c dient zum vorübergehenden Speichern eines Zeilenabschnittes der Bilddaten, die von der mittleren Sensorkopfeinheit 1 über einen Verstärker (AMP) 205a und einen Analog-Digital-Wandler 205 erhalten werden. Die Bilddaten für eine Ziele, die so im Zeilenpufferspeicher 201c gespeichert wurden, werden sequenziell in individuellen Zeilenbereichen des Bildspeichers 203 durch die Operationen der Bildspeichersteuerung 201a, des Adressenerzeugers 201d und des Zeilenzählers 201e gespeichert. Der Zeilenzähler 201e wird jedesmal um +1 erhöht, wenn Bilddaten für eine Zeile gespeichert werden, und die Adresse im Bildspeicher 203 wird durch den Adresserzeuger 201d gemäß den Zählerdaten des Zeilenzählers 201e erzeugt. Die Bildspeichersteuerung 201a dient dazu, die Bilddaten für eine Zeile, die im Zeilenpufferspeicher 201c gespeichert sind, in den Zeilenbereich zu übertragen, der durch die Adresse spezifiziert wird, die vom Adressenerzeuger 201d erzeugt wurde.
  • In diesem Beispiel ist das Volumen des Bildspeichers 203 ausreichend groß, um Bilddaten für 126 Zeilen zu speichern. Dementsprechend wird das Gesichtsfeld des Bildsensors auf 126 Zeilen eingestellt. Ein derartiger Bildsensor, der ein enges langgestrecktes Gesichtsfeld aufweist, kann preiswert aus einer im Handel erhältlichen CCD für eine Stehbildkamera oder eine Videokamera hergestellt werden, indem die Bereiche als ”optisch schwarz” maskiert werden und ein Abschnitt mit 126 Zeilen belassen wird.
  • Der Merkmalextraktor 201b dient dazu, die Spitzenposition der Bilddaten für eine Zeile (die Position der Pixel mit Spitzenhelligkeit) und die Höhe des Zielobjektes, die anhand der Spitzenposition berechnet wurde, zu bestimmen, wenn diese Daten für eine Zeile von der Sensorkopfeinheit übertragen und im Zeilenpufferspeicher 201c gespeichert werden. Mit andern Worten entsprechen mit einem Versetzungssensor dieser Art, der das optische Schnittverfahren verwendet, die Richtung der Höhe eines Zielobjektes und die Richtung der horizontalen Abtastzeile des zweidimensionalen Bildsensors einander, und die Richtung der Schnittlinie des Spaltbündels ist senkrecht zur Richtung der horizontalen Abtastzeilenvorrichtung des Bildsensors. Somit kann die Höhe des Zielobjektes durch Messen der Pixelposition auf der Zeile für jeden Satz von Zeilendaten gewonnen werden.
  • Die CPU 202 enthält die Steuermittel 202c und ein Zeilendatenregister 202e. Die Steuermittel 202c dienen dazu, die Eingabe und Ausgabe von verschiedenen Daten in das und aus dem Zeilendatenregister 202e zu steuern. Im Zeilendatenregister 202e sind 125 Speicherbereiche 0–125 vorhanden, und die Speicherbereiche für jede Zeile umfassen die folgenden vier Bereiche: einen Abschließungs-Kennzeichen-Bereich, einen Spitzenwertbereich, einen Spitzenpositionsbereich und einen Bildaufnahmebedingungsbereich (oder kurz einen «Modusbereich»).
  • Der Abschließungs-Kennzeichen-Bereich wird dazu verwendet, anzuzeigen, ob die Daten über die entsprechende Zeile im Bildspeicher 203 und im Datenregister 202e bereits ”abgeschlossen” sind oder nicht (wobei die ”entsprechende Zeile” in obigem Sinne die Zeile bedeutet, die vom Zeilenzähler 201e gerade spezifiziert wird). Der Spitzenwertbereich wird dazu verwendet, den Spitzenwert der Helligkeit der entsprechenden Zeile zu speichern. Der Spitzenpositionsbereich wird dazu verwendet, die Spitzenposition zu speichern, die vom Merkmalextraktor 201b bestimmt wurde. Der Modusbereich dient dazu, um die Bildaufnahmebedingungen (identifiziert durch eine Modusnummer, die jedem Satz von Bedingungen zugeordnet ist), die verwendet wurden, im Verlauf der Verfahren Bilder aufzunehmen, bis das synthetisierte Bild vollständig ist, zu speichern, wie unten ausführlicher erklärt wird. Nachdem ein synthetisiertes Bild bestimmt wurde, wird dieser Bereich dazu verwendet, die Bildaufnahmebedingungen zu speichern, die dazu verwendet werden, Bilder für diese festgesetzte Zeile aufzunehmen.
  • Die Operationen der Hardware, die oben mit Bezug auf 6 erklärt wurden, werden nun mit Hilfe der Flussdiagramme von 711 erklärt.
  • Im Initialisierungsschritt 701 wird die Modusnummer M (die den Satz von Bildaufnahmebedingungen bedeutet) initialisiert. Wie kurz erklärt, gibt es in diesem Beispiel 32 Moden. Initialisierung des Modus bedeutet, eine (M = 0) der 32 vorbereiteten Moden auszuwählen. Als Nächstes wird das „Erstzeit-Kennzeichen” (Schritt 702) eingestellt. Wenn die Bilddaten für eine Vielzahl von Bildern ununterbrochen vom CCD-Bildsensor 122 übernommen werden, dient das Erstzeit-Kennzeichen dazu, anzuzeigen, dass es sich dabei um die erste Menge von Daten handelt, die übernommen wird.
  • Nachdem diese Initialisierungsschritte 701 und 702 beendet sind, wird ein Befehl ausgegeben, Videosignale für einen Bildschirm zu übernehmen, die vom CCD-Bildsensor 122 über den Verstärker 205a und den Analog-Digital-Wandler 205 (Schritt 703) ausgegeben wurden. Als Nächstes wird eine Verarbeitung für jede Zeile ausgeführt (Schritt 704), wie in 9 ausführlicher gezeigt.
  • In diesem Schritt (Schritt 704 von 7) wird der Zeilenzähler (L) zurückgesetzt, das Kennzeichen, der Spitzenwert und die Spitzenposition werden im Zeilendatenregister (R) gelöscht, und ein Überschreibe-Kennzeichen wird als Initialisierung zurückgesetzt (Schritt 901). Bei obigem dient der Zeilenzähler (L) dazu, eine Zeile im Bildspeicher 203 und im Zeilendatenregister 202e zu spezifizieren, und das Zeilendatenregister 202e dient dazu, ein Abschließungskennzeichen, den Spitzenwert, die Spitzenposition und die Bildaufnahmebedingung (Modus) für die 126 Zeilen 1–125 zu speichern, wie oben erklärt. Das Abschließungskennzeichen dient dazu, anzuzeigen, dass die Daten auf der entsprechenden Zeile im Zeilendatenregister und die Bilddaten auf der entsprechenden Zeile im Bildspeicher 203 abgeschlossen wurden. Das Überschreibe-Kennzeichen dient dazu, anzuzeigen, ob es erlaubt ist oder nicht, die entsprechende Zeile im Bildspeicher 203 und im Zeilendatenregister 202e zu überschreiben.
  • Nach der Initialisierung werden die Daten über die Zeile, die durch den Zeilenzähler spezifiziert werden, aus dem Analog-Digital-Wandler 205 im Zeilenpufferspeicher 201c vom Anfang bis zum Ende der Zeile gespeichert, und die Spitzenposition und die Spitzenhöhe in der Zeile werden berechnet (Schritt 902). Als Nächstes wird ein Abschließungsverfahren durchgeführt (Schritt 903). Danach wird die Zahl des Zeilenzählers L um +1 erhöht (Schritt 903), um die Schritte 902 und 903 zu wiederholen, bis der Wert des Zeilenzählers Lmax erreicht (JA in Schritt 905), und die Verarbeitung für jede Zeile (Schritt 704) vollständig ist.
  • 10 und 11 zeigen den Datenabschließungsvorgang, der in der Folge durchgeführt werden soll. Zunächst wird das Abschließungs-Kennzeichen befragt. Wenn das Kennzeichen zeigt, dass die Daten beendet sind (JA in Schritt 1001), hat das Programm nichts mehr zu tun. Wenn die Daten nicht abgeschlossen sind (NEIN in Schritt 1001), werden der Spitzenwert, der vom Merkmalextraktor 201b bestimmt ist, und ein Standardwert TH-OK, der vorbereitend gemäß einer optimalen Messbedingung bestimmt wurde, verglichen (Schritt 1002). Wenn der Spitzenwert nicht größer als der Standardwert ist (NEIN in Schritt 1002), wird die Datenaktualisierung 1 des Zeilendatenregisters wie in 11A gezeigt, durchgeführt (Schritt 1003), d. h. das Kennzeichen wird so eingestellt, dass es ”nicht abgeschlossen” anzeigt, der Spitzenwert und die Spitzenposition, die diesmal gewonnen werden, werden als der Spitzenwert beziehungsweise die Spitzenposition eingestellt, und die gegenwärtige Bildaufnahmebedingung wird als die Bildaufnahmebedingung eingestellt. Nachdem das Verfahren der Datenaktualisierung 1 so beendet ist, wird das Speichersteuerkennzeichen aktualisiert (Schritt 1004). In diesem Zeitpunkt wird die Überschreibe-Kennzeichen nicht aktualisiert. Mit anderen Worten werden die Daten im Zeilendatenregister 202e aktualisiert, aber die Überschreibe-Kennzeichen bleibt zurückgesetzt, und es bleibt weiterhin erlaubt, in dieser Zeile zu überschreiben.
  • Andererseits wird, während die Bildaufnahmebedingungen (oder Moden M) verändert werden, wenn z. B. die Belichtungszeit erhöht wird und sich der Spitzenwert des empfangenen Lichtes erhöht und größer als der Standard TH-OK wird (JA in Schritt 1002), untersucht, ob der neu erhaltene Spitzenwert näher liegt oder nicht am Standardwert TH-OK als der Wert, der jetzt im Zeilendatenregister 2002 (Schritt 1005) gespeichert ist. Bei JA in Schritt 1005 wird die Datenaktualisierung 2, die in 11B gezeigt wird, durchgeführt (Schritt 1006), d. h. das Kennzeichen wird eingestellt, ”abgeschlossen” anzugeben, der Spitzenwert und die Spitzenposition, die diesmal erhalten wurden, werden als der Spitzenwert beziehungsweise die Spitzenposition eingestellt, und die gegenwärtige Bildaufnahmebedingung (oder der gegenwärtige Modus) wird als die Bildaufnahmebedingung eingestellt. Nachdem der Vorgang der Datenaktualisierung 2 so vollständig ist, wird das Speichersteuerkennzeichen aktualisiert (Schritt 1008). In diesem Zeitpunkt wird das Überschreibe-Kennzeichen eingestellt, wodurch verhindert wird, dass die Daten im Zeilendatenregister 202e und im Bildspeicher 203 für diese Zeile überschrieben werden. Mit anderen Worten wird ihr Inhalt danach bewahrt.
  • Wenn andererseits festgestellt wird, dass der neu gewonnene Spitzenwert weiter vom Standardwert TH-OK entfernt ist als der aktuell gespeicherte Wert (NEIN in Schritt 1005), wird Datenaktualisierung 2, die in 11C gezeigt ist, bewirkt (Schritt 1007), d. h. das Kennzeichen wird so eingestellt, dass es ”beendet” anzeigt, der aktuell gespeicherte Spitzenwert und die Spitzenposition werden als der Spitzenwert beziehungsweise die Spitzenposition eingestellt, und die Bildaufnahmebedingung, die im Register gespeichert ist, wird als die Bildaufnahmebedingung (oder der Modus) eingestellt. Somit werden die Inhalte des Spitzenwertes und der Position abgeschlossen, während sie in der Bedingung verbleiben, die den Standardwert IH-OK nicht übersteigt.
  • Nachdem das Verfahren für jede Zeile (Schritt 704 von 7) somit abgeschlossen ist, werden Verfahren für jedes Bild durchgeführt (Schritt 705). Die Verfahren, die hier für jedes Bild durchgeführt werden sollen, umfassen Folgendes: (1) Verfahren bezüglich der Bildsteuerung; (2) Verfahren zur Beurteilung des Ergebnisses der Berechnung; und (3) andere Verfahren auf dem Ergebnis der Berechnung. Die Verfahren bezüglich der Bildsteuerung umfassen die Einstellung der Bedingungen für die Übernahme des nächsten Bildes (wie z. B. die Belichtungszeit und die Videosignalverstärkung) und die Beurteilung, ob die Bilder mit allen Bildaufnahmebedingungen übernommen wurden oder nicht. Beim Verfahren der Beurteilung des Berechnungsergebnisse wird überprüft, ob das Berechnungsergebniss bezüglich aller Zeilen abgeschlossen wurde oder nicht. Andere Verfahren enthalten Berechnungen in der Richtung der Zeilen durch die Ausführung eines Filtervorgangs auf dem aktuellen Bild.
  • Danach wird der Modus M um +1 erhöht, um die Schritte 703705 zu wiederholen. In jedem Wiederholungszyklus wird das Erstzeitkennzeichen untersucht, um sicherzustellen, dass es gesetzt ist (Schritt 707), und der aktuelle Modus M wird im Zeilendatenregister registriert (Schritt 708). Diese Schritte werden so durchgeführt, dass nur die Bildaufnahmebedingungen (Moden), bei denen festgestellt wurde, dass sie im ersten Zyklus wirksam waren, verwendet werden, und die anderen Bedingungen werden übersprungen. Auf diese Weise kann die Zeit für die Übernahme von Bildern und die Zeit für die Bildsynthese verringert werden.
  • Ausführlicher erklärt werden während des ersten Zyklus der Mehrfachbildaufnahmemittel und der Bildsynthese alle vorbereiteten Bildaufnahmebedingungen (32 Moden) versucht, aber nur diejenigen Moden, bei denen festgestellt wurde, dass sie im ersten Zyklus gültig waren, werden ab dem zweiten Zyklus verwendet. Dies kann bewirkt werden, da die Bildaufnahmebedingung im Initialisierungsschritt (Schritt 901) nicht gelöscht wird, sondern unverändert bleibt, und auch da die Schritte 703, 704 und 705 im Flussdiagramm von 7 nur dann durchgeführt werden, wenn die Bildaufnahmebedingung (Modus M) registriert ist (JA in Schritt 708). Wenn die Bildaufnahmebedingung (Modus M) nicht registriert ist (NEIN in Schritt 708), wird nur ihre Aktualisierung durchgeführt (Schritt 706), und die Schritte 703705 werden übersprungen.
  • Wenn der Modus M einen vorherbestimmten maximalen Wert Mmax (JA in Schritt 709) erreicht, wird ein spezifiziertes Berechnungsverfahren auf der Grundlage des synthetisierten Bildes durchgeführt, das im Bildspeicher 203 gespeichert ist. In dem Zeitpunkt, in dem M seinen maximalen Wert Mmax erreicht, ist das Bild, das dann im Bildspeicher 203 gespeichert ist, eine Zusammenstellung einer Vielzahl von Bildern, die bis dahin empfangen wurden, und wobei jedes ein Bild einer Schnittumrisslinie mit einem Spitzenwert aufweist, der fast gleich dem spezifizierten Standardwert TH-OK ist. Somit sollte, auch wenn das Zielobjekt eine Oberfläche mit veränderlichem Reflexionsvermögen, eine geneigte Oberfläche, eine gekrümmte Oberfläche oder eine Oberfläche mit Nut aufweist, das schließlich erhaltene synthetisierte Bild ein für die Messung einfaches Bild sein, mit einer gleichförmigen Schärfe und/oder Klarheit, da die Bildaufnahmebedingung ständig angepasst wird.
  • Die Verarbeitung eines synthetisierten Bildes (Schritt 801) kann jede der bekannten Arten von Berechnungen umfassen, wie z. B. Berechnungen für die Höhe einer Mesa, die Breite des Zielobjektes, eine abgeschrägte Oberfläche und den Krümmungsradius einer gekrümmten Zieloberfläche.
  • Nachdem der Schritt 801 abgeschlossen ist, wird das Erstzeitkennzeichen, oben in Schritt 707 erklärt, zurückgesetzt (Schritt S802), und das Programm wartet auf das Eintreffen eines weiteren Befehls (Auslöser), um ein neues Bild zu übernehmen (Schritte 803 und 804). Wenn ein derartiger Auslöser empfangen wird (JA in Schritt 804), kehrt das Programm zu Schritt 703 von 7 zurück, um die Schritte danach zu wiederholen, indem es einen weiteren Satz von Mehrfachbildern übernimmt und eine Bildsynthese durchführt.
  • Nun wird auf 5 und 1223 Bezug genommen, um ausführlicher die Verfahren der Mehrfachabbildung, der Bildsynthese und der Berechnungen, die oben anhand eines Beispiels beschrieben wurden, zu erklären.
  • Das Zeitdiagramm von 5 zeigt (a) ein Mehrfachabbildungsverfahren; (b) die Bearbeitung für die einzelnen Zeilen; (c) die Bearbeitung jedes der Mehrfachbilder; und (d) die Bearbeitung für ein synthetisiertes Bild. Es sei angenommen, dass jedes Bild aus acht Zeilen 0–7 besteht.
  • Gemäß der vorliegenden Erfindung wird, wie oben beschrieben, eine Vielzahl von Bilden übernommen, während die Bildaufnahmebedingungen (angegeben durch Modusnummern) z. B. 32-mal von Modus 0 bis Modus 31 verändert (abgetastet) werden, und nachdem sie synthetisiert sind, um ein optimales Bild für eine Messung zu erhalten, wird ein gewünschtes Berechnungsverfahren auf der Grundlage eines derartigen optimalen Bildes durchgeführt. Im Allgemeinen werden diese Moden durch die Kombination einer Vielzahl von Parametern auf verschiedene Weisen definiert. In diesem Beispiel wird der Einfachheit der Erklärung wegen angenommen, dass verschiedene Moden nur mit der Belichtungszeit für den CCD-Bildsensor erstellt werden. In dem Beispiel, das im Zeitdiagramm von 5 gezeigt wird, werden zehn Moden erstellt, identifiziert als Verschluss 0–Verschluss 9, wobei jeder eine andere (erhöhte) Verschlusszeit aufweist (dargestellt durch die Breite eines Rechteckes auf Zeile (a) von 5). Zeile (b) von 5 zeigt, dass die Vorgänge für die einzelnen Zeilen (Schritt 704 von 7) zwischen aufeinanderfolgenden Bildern, die aufgenommen werden, durchgeführt werden (Schritt 703 von 7). Zeile (c) von 5 zeigt, dass das Verfahren für jedes der Mehrfachbilder, die übernommen werden, unmittelbar nach den Verfahren für jede Zeile (Schritt 704 von 7) durchgeführt wird. Die Bearbeitung für ein synthetisiertes Bild (Schritt 801 von 8) wird durchgeführt, nachdem die letzte der Bearbeitungen für zahlreiche Bilder (Schritt 705 von 7) beendet ist.
  • 1214 zeigen die Beziehung zwischen der Bildeingabe und dem Inhalt des Bildspeichers. Gemäß dieser Erfindung, wie oben erklärt, wird, nachdem Bilddaten, die einem Bild entsprechen, von der CDD 122 her empfangen wurden, der Spitzenwert des Bildes der Schnittumrisslinie jeder Zeile der Bilddaten mit einem Standardwert TH-OK verglichen, der für die Messung optimal ist, und, wenn sie nahe aneinander liegen, wird das Bild für diese eine Zeile als ein Teil des endgültigen (synthetisierten) Bildes fertig gemacht. Dieses Verfahren wird für jede Zeile wiederholt, und schließlich wird ein Blatt synthetisierter Bilder erzeugt.
  • 12A zeigt die Bildeingabe, wenn der Verschluss 1 die Bildaufnahmebedingung (Modus) darstellt, und 12B zeigt, wie diese Eingabe im Bildspeicher gespeichert wird. 12C zeigt die Schnittform des Zielobjektes. Mit anderen Worten wird unter dem Verschluss 1 ein Bild der Schnittumrisslinie nur auf den Zeilen 0, 6 und 7 erhalten, und diese Bilder werden auf den Zeilen 0, 6 und 7 im Bildspeicher gespeichert. Da sie nahe am Standardbild TH-OK, das für die Messung optimal ist, liegen, werden sie fertig gemacht (wie durch dreieckige Markierungen auf dem rechten Ende von 12A und 12B angegeben).
  • Ähnlich zeigen 13A, 13B und 13C, dass, wenn die Belichtungszeit so verändert wird, dass die Bildaufnahmebedingung durch Verschluss 3 angegeben wird, ein Bild der Schnittumrisslinie auf den Zeilen 0, 3, 4, 6 und 7 erhalten wird, dass aber die Spitzen auf den Zeilen 0, 6 und 7 einen Standardwert bei weitem übertreffen, während die Spitzen auf den Zeilen 3 und 4 nahe am Standardwert Th-OK liegen.
  • Somit werden die Bilder auf den Zeilen 3 und 4 in den Bildspeicher übernommen, gespeichert und fertig gemacht (wie durch dreieckige Markierungen angegeben). Die Zeilen 0, 6 und 7 sind bereits fertig gemacht und werden daher nicht aktualisiert.
  • 14A, 14B und 14C zeigen, dass unter dem Verschluss 8 ein Bild der Schnittumrisslinie auf allen Zeilen 0–7 erhalten wird, dass aber die Spitzen auf den Zeilen 0, 3, 4, 6 und 7 den Standardwert bei weitem übertreffen, während die Spitzen auf den Zeilen 1, 2 und 5 nahe am Standardwert Th-OK liegen. Somit werden die Bilder auf den Zeilen 1, 2 und 5 in den Bildspeicher übernommen und fertig gemacht (wie durch Dreiecke angegeben). Die Zeilen 0, 3, 4, 6, und 7 sind bereits fertig gemacht, und werden daher nicht aktualisiert.
  • Nun wird auf 15 Bezug genommen, um das Verfahren des ”Lehrens” zur Beschränkung der Bedingungen für den Empfang von Licht zu erklären. Wie oben mit Bezug auf 7 erklärt wurde, werden die Bildaufnahmebedingungen (Moden), die beim Gewinnen des ersten synthetisierten Bildes verwendet werden, als ”Lehrdaten” aufbewahrt. In den darauffolgenden Verfahren zur Mehrfachabbildung und Bildsynthese wird auf diese Lehrdaten Bezug genommen, und diejenigen der Moden, die nicht verwendet wurden, werden übersprungen, um Zeitverschwendung zu beseitigen.
  • 15 zeigt für dieses Beispiel, dass die Zeilen 0, 6 und 7 unter Verschluss 1 fertig gemacht werden, Zeilen 3 und 4 unter Verschluss 3 fertig gemacht werden, und Zeilen 1, 2 und 5 unter Verschluss 8 fertig gemacht werden. Die Bildaufnahmebedingung (Modus), unter der jede Zeile fertig gemacht wurde, wir auf dem rechten Ende von 15 gezeigt. Dabei handelt es sich um das, was im Modusbereich des Zeilendatenregisters 202e gespeichert ist. Mit anderen Worten speichert das Zeilendatenregister 202e ”1, 8, 8, 3, 3, 8, 1, 1” in den Modusbereichen für die einzelnen Zeilen. Somit werden in den nachfolgenden Mehrfachabbildungsverfahren und den Verfahren zur Synthetisierung eines Bildes die Bildaufnahmebedingungen (Moden), die von ”1, 8, 8, 3, 3, 8, 8, 6, 1, 1” verschieden sind, übersprungen. Kurz gesagt werden, obwohl zehn Moden mechanisch verwendet wurden, nur drei Moden (Verschlüsse 1, 3 und 8) danach verwendet, und es kann immer noch ein synthetisiertes Bild, welches ein Bild einer Schnittumrisslinie mit geeigneter Helligkeit enthält, erhalten werden.
  • 16 zeigt ein Beispiel einer Anzeige, die auf dem Bildmonitor 4 für das oben beschriebene Beispiel erfolgen kann. Die horizontale Zeile eines Hauptschaubildes gibt die gemessenen Werte an, und die vertikale Achse gibt die Zeile (Nummer) an, um einen Bildschirmabschnitt des synthetisierten Bildes anzuzeigen. Eine unterbrochene Cursorzeile wird ebenfalls gezeigt. Der Benutzer kann eine Taste auf einer Konsoleneinheit 3 bedienen, um die Cursorzeile vertikal zu bewegen. Daten bezüglich der Zeile, die vom Cursor angegeben wird, werden außerhalb des Schaubildbereiches angezeigt. Im Beispiel, das in 16 gezeigt wird, werden die Verschlusszeit (LV), der Spitzenwert (PEAK) und die Messergebnisse (Z) auf der rechten Seite angezeigt, und die Verteilung der Lichtmenge entlang der horizontalen Zeile, die vom Cursor angegeben wird, wird unten angezeigt. Weiter unten wird das Messergebnis des gesamten Bildes angezeigt (als xxx.xxxx). Somit kann der Benutzer den Cursor nach oben und nach unten bewegen, um ihn in eine Zeile zu bringen, und die Verteilung der Lichtmenge auf der spezifizierten Zeile, die Belichtungszeit, den Spitzenwert und die Messergebnisse leicht verstehen. Die vertikale Anordnung von Zahlen auf der rechten Seite des Schaubildes zeigen jeweils die Verschlusszeit, als die Bilddaten für diese Zeile fertig gemacht wurden.
  • 17 zeigt eine Situation, in der ein annehmbarer Spitzenwert auf einer Zeile nicht gewonnen werden konnte, nachdem alle der vorbereiteten Moden verwendet worden sind, und kein Bild für die Zeile registriert wurde. Wenn der Benutzer vor dem Auftreten einer derartigen Situation nicht gewarnt wird, kann dies zu einem synthetisierten Bild führen, das nicht für die Messung geeignet ist, und der Benutzer ist möglicherweise nicht dazu in der Lage, den Grund für einen derartigen Fehlschlag festzustellen. Gemäß dem bevorzugten Ausführungsbeispiel, das in 17 gezeigt wird, in der die Zeile 4 kein Bild einer Schnittumrisslinie aufweist, wird das Balkensymbol ”-” auf der rechten Seite angezeigt, um anzugeben, dass kein annehmbarer Spitzenwert erhalten werden konnte.
  • 19 zeigt ein Programm, um eine derartige Anzeige durchzuführen. Nachdem der Zeilenzähler (L) auf Null zurückgesetzt ist (Schritt 1901), werden die Zeilendaten, die der Zeile entsprechen, die durch den Zeilenzähler angegeben wird, abgerufen (Schritt 1902) und es wird untersucht, ob der Modus im Modusbereich M der abgerufenen Zeilendaten registriert ist (Schritt 1903). Wenn dieser Modus im Modusbereich M vorhanden ist (JA in Schritt 1903), werden die Bilddaten für die Zeile direkt an einen Anzeigepuffer (nicht gezeigt) ausgegeben (Schritt 1904). Wenn der Modus nicht im Modusbereich M (NEIN in Schritt 1903) vorhanden ist, werden die Bilddaten für die Zeile übersprungen und nicht an den Anzeigepuffer übertragen (Schritt 1905). Diese Schritte werden nachfolgend wiederholt, indem der Zeilenzähler L jedesmal um +1 erhöht wird (Schritt 1906), und das Verfahren endet, wenn die letzte Zeilenummer Lmax erreicht wurde (JA in Schritt 1907). Als Ergebnis werden nur die abgeschlossenen Bilddaten von den Zeilendaten an den Anzeigepuffer übertragen, und der Bildmonitor 4 zeigt ein synthetisiertes Bild an, das nur die Bilder von Schnittumrisslinien von abgeschlossenen Zeilen umfasst und diejenigen von nicht abgeschlossenen Zeilen ausschließt. Somit kann der Benutzer einen Fehler im synthetisierten Bild leicht erkennen.
  • 18 zeigt ein weiteres Beispiel für die Anzeige einer Zeile, auf der ein annehmbarer Spitzenwert nach der Verwendung aller vorbereiteten Moden nicht erhalten werden konnte. In diesem Beispiel wird eine spezifizierte unterscheidende Markierung (symbolisch durch ein X in der Figur gezeigt) auf einer derartigen Zeile angezeigt, um den Benutzer zu warnen. 20 zeigt ein Programm für die Durchführung einer derartigen Warnanzeige. Die Schritte 20012007 in 20 sind dieselben wie die Schritte 19011907 in 19, außer dass die spezifizierte unterscheidende Markierung in Schritt 2005 ausgegeben wird.
  • Es wird angenommen, dass nur die Moden Mk–Mk+n der Bildaufnahmebedingungen verwendet wurden, wie in 21 gezeigt, um das erste synthetisierte Bild vom ersten Mehrfachbildaufnahmeverfahren zu erhalten, obwohl das erste synthetisierte Bild, das wie oben erklärt erhalten wurde, möglicherweise kein optimales synthetisiertes Bild bezüglich der Klarheit bzw. der Helligkeit darstellte. Gemäß einer Routine dieser Erfindung für die Veränderung von Moden, wie in 22 gezeigt, werden die Moden Mk und Mkn als die untere und die obere Grenze (Schritt 2201 und 2202) mit Hilfe eines Cursors oder einer Taste registriert. Als Ergebnis wird die Tabelle der Moden umgeschrieben (Schritt 2203), um eine benutzerspezifische Tabelle zu erhalten, die in 23B gezeigt wird, um die Standardtabelle von M0 bis M31 zu ersetzen, wie in 23A gezeigt.
  • Ausführlicher erklärt mit Hilfe eines Beispiels definiert die Standardtabelle die 32 Belichtungszeiten (0–31) der 32 verfügbaren Moden so, dass sie sich sequentiell in Einheiten von 0,1 erhöhen. Es wird weiter angenommen, dass der vom Benutzer registrierte untere und der obere Grenzwert 0,3 beziehungsweise 0,8 betrugen, wie in 23A durch Pfeile angegeben. Die obenerwähnte benutzerspezifische Tabelle wird gebildet, indem das Intervall zwischen diesen unteren und oberen Grenzen, die vom Benutzer registriert wurden, in 32 Schritte unterteilt wird, um einen neuen Satz von Belichtungszeiten (neue Moden M') zu definieren, wie in 23B gezeigt. Somit wird der Bereich von Moden Mk bis Mk+n nun feiner in 32 neue Stufen α0–α31 unterteilt, wie in 21 gezeigt. In den nachfolgenden Mehrfachabbildungs- und Bildsynthetisierungsverfahren werden die Bildaufnahmebedingungen in diesen neu definierten, sich feiner erhöhenden Stufen verändert. Somit kann, wenn ein synthetisiertes Bild nicht genau genug ist, unabhängig davon, ob es sich um das erste oder um ein später erhaltenes Bild handelt, das in 22 gezeigte Verfahren durchgeführt werden, um die Bildaufnahmebedingungen feiner zu verändern.
  • Einer der Gründe für das Auftreten eines synthetisierten Bildes mit einer Zeile oder mit Zeilen, bei denen kein Spitzenwert erhalten werden kann, liegt darin, dass sich das Zielobjekt 5 während der Messung horizontal verschiebt. 24A und 24B stellen eine Situation dieser Art im Fall eines Zielobjektes mit einer Mesa dar, bei der versucht wird, die Höhe zu messen. Angenommen Bereich 1 einer spezifizierten Breite wurde, wie in 24A gezeigt, dort eingestellt, wo eine Referenzoberfläche Lref erwartet wird, und Bereich 2 einer anderen spezifizierten Breite wurde dort eingestellt, wie eine Zieloberfläche L9 erwartet wird, beide innerhalb des Sichtfeldes eines zweidimensionalen Bildaufnahmeelementes. Die Höhe der Mesa wird durch die Messung der durchschnittlichen Höhen der Bereiche 1 und 2 und die Bildung ihrer Differenz erhalten.
  • Wenn das Zielobjekt eine horizontale Verschiebung durchgemacht hat, nachdem die Bereiche 1 und 2 definiert wurden, wie oben erklärt, so dass Bereich 1 die Bezugsoberfläche Lref verfehlt und/oder Bereich 2 die Zieloberfläche L6 verfehlt, wie in 24B gezeigt, kann nicht mehr länger erwartet werden, dass die Differenz zwischen ihnen die Höhe der Mesa darstellt. Eine derartige horizontale Verschiebung kann erwartet werden, während ein Zielobjekt auf einer Förderanlage transportiert wird, wenn es in eine Richtung geschoben wird, die zur Transportrichtung senkrecht ist, oder wenn die Projektionsrichtung des Spaltbündels fälschlicherweise in Richtung des Spaltes verschoben wird, obwohl das Zielobjekt auf der Förderanlage angemessen positioniert ist.
  • 25 zeigt eine Maßnahme, die gemäß dieser Erfindung für eine derartige Situation ergriffen werden kann. Diese Routine beginnt mit der Einstellung eines Standardschwellenwertes (Schritt 2501) durch ein Differenzierungsverfahren einer bekannten Art. Es sei angenommen, dass eine trapezförmige Schnittumrisslinie, wie in 29A gezeigt, im Gesichtfeld des CCD-Bildsensors erscheint. Es ist dann möglich, die Randpositionen E11 und E12 zu bestimmen, die die rechte und die linke Endposition der Trapezform darstellen, indem sie differenziert wird, wie in 29B gezeigt. Nachdem die Randpositionen E11 und E12 so bestimmt sind, kann eine der folgenden Formeln verwendet werden, um den Schwellenwert zu definieren:
    Schwelle = (Boden) + α{(Spitze) – (Boden)}, oder
    Schwelle = (Durchschnitt) + β
    Wobei 0 < α < 1 und β eine geeignet gewählte Konstante ist.
  • Nachdem so ein Standardschwellenwert Lth eingestellt wurde (Schritt 2501), wird dieser Wert dazu verwendet, um das Zielobjekt 5 durch ein Segmentierungsverfahren (Schritt 2502), gezeigt in 26, zu segmentieren, beginnend mit der Rückstellung des Zeilenzählers (L = 0), um eine horizontale Zeile im Bild zu spezifizieren (Schritt 2601). Nun wird die Spitzenhöhe in der horizontalen Zeile, die durch den Zeilenzähler L spezifiziert ist, berechnet (Schritt 2602), und es wird überprüft, ob sie den Schwellenwert Lth (Schritt 2602) übersteigt. Wenn die Spitzenhöhe den Schwellenwert Lth übersteigt (JA in Schritt 2603), wird die Spitzenposition als ”H” angegeben (Schritt 2604). Wenn die Spitzenhöhe geringer als der Schwellenwert Lth ist (NEIN in Schritt 2603) wird die Spitzenposition als ”L” angegeben (Schritt 2605). Oben zeigt die Spitzenposition die Höhe des Zielobjektes auf der horizontalen Abtastzeile an.
  • Die obigen Schritte werden hiernach durch Inkrementierung des Zeilenzählers L um +1 (Schritt 2606) wiederholt, bis der Wert des Zeilenzählers L seinen maximalen Wert Lmax erreicht (JA in Schritt 2607). Nach dieser Segmentierungsroutine werden die horizontalen Abschnitte, die niedriger als der Schwellenwert Lth sind, als LOW-Segmente erkannt, und der Abschnitt, der höher als der Schwellenwert Lth ist, wird als HI-Segment erkannt, wie in 27 gezeigt.
  • Danach werden Randpositionen jedes der HI- und LOW-Segmente, ebenso wie ihre Mittelpunkte (in 27 durch Kreuze angegeben) definiert (Schritt 2503). Noch später wird ein Zielbereich definiert, indem sie sich von jedem dieser Mittelpunkte um einen spezifizierten Abstand erstrecken, wie durch Pfeile mit doppelter Spitze in 28 angegeben, um einen Zielbereich für die Messung auf jedem der LOW- und HI-Segmente zu definieren (Schritt 2504). Schließlich wird, wie oben erklärt, die durchschnittliche Höhe Hst der LOW-Segmente und die durchschnittliche Höhe Hmeg der HI-Segmente und ihr Unterschied berechnet, um die Höhe der Mesa zu erhalten.
  • Mit einer Routine, wie oben erklärt, bewegen sich die schließlich festgelegten Zielbereiche auf den einzelnen Segmenten mit der horizontalen Relativbewegung des Zielobjektes bezüglich der Sensorkopfeinheit, so dass die Höhe einer Mesa auf dem Zielobjekt zuverlässig gemessen werden kann, trotz einer horizontalen Verschiebung des Zielobjektes. Diese Routine gegen die horizontale Verschiebung des Zielobjektes ist auch auf die Messung der Tiefe einer Einsenkung anwendbar. In dem in 30 gezeigten Beispiel wird die mittlere Position jedes der HI- und LOW-Segmente gewonnen, und der Bereich zwischen den Randpositionen der Segmente wird als ein Nutbereich identifiziert. Danach wird ein Zielbereich in diesem Nutbereich eingestellt, so dass die Verschiebung des Zielbereiches vom Nutbereich verhindert werden kann.
  • Die Erfindung stellt auch eine Routine für eine Situation bereit, in der das Zielobjekt eine Vertikalverschiebung durchmachen kann, während die Breite der Mesa darauf gemessen wird. Die Breite einer Mesa wird im Allgemeinen gemessen, indem ein Schwellenwert Lth zwischen der Bezugsoberfläche Lref der Mesa oder der Oberfläche, von der sich die Mesa nach oben erstreckt, und der oberen Fläche L6 der Mesa ausgewählt wird. Die Randpositionen E1 und E2 werden dadurch nachgewiesen, und die Trennung zwischen den zwei Randpositionen E1 und E2 wird als die Breite der Mesa akzeptiert. Wenn jedoch das Zielobjekt vertikal verschoben wird, wie in 31B gezeigt, bewegt sich die Höhe des Schwellenwertes Lth von der vertikalen Ausdehnung der Mesa weg, und die Randpositionen E1 und E2 können nicht mehr nachgewiesen werden, und somit kann die Breite der Mesa nicht bestimmt werden.
  • 32 zeigt ein Verfahren, das gemäß dieser Erfindung als eine Maßnahme gegen derartige Wirkungen einer vertikalen Verschiebung des Zielobjektes angewandt wird. Zunächst wird ein Standardzielbereich so festgelegt, dass er nicht von einer vertikalen Verschiebung des Zielobjektes (Schritt 3201) beeinflusst wird, wie in 33A gezeigt. Dann wird die durchschnittliche Höhe Hst dieses Standardzielbereiches berechnet (Schritt 3202), und ein vorbereitend bestimmter Offset-Wert Δth wird der durchschnittlichen Hohe Hst hinzugefügt, um einen relativen Schwellenwert Lth zu gewinnen (Schritt 3204), wie in 33B gezeigt. Nun wird, wie in 34A gezeigt, das Zielobjekt unter Verwendung des neu definierten relativen Schwellenwertes Lth, wie oben mit Bezug auf 27 beschrieben, segmentiert (Schritt 3204). Schließlich wird die Breite der Mesa aus den zwei Endpositionen des HI-Segmentes berechnet (Schritt 3205), wie in 34B gezeigt. Durch dieses Verfahren ändert sich der Standardbezugswert Lth weiterhin, wenn das Zielobjekt vertikal verschoben wird, und die Breite der Mesa kann immer gemessen werden.
  • Für eine Situation, in der es wahrscheinlich ist, dass das Zielobjekt sowohl vertikal als auch horizontal verschoben wird, kann ein Verfahren wie in 35 gezeigt verwendet werden. Zunächst wird ein Standardzielbereich ausgewählt, wie in 36A gezeigt, der gemessen werden kann, solange die Verschiebung des Zielobjektes innerhalb einer spezifizierten Grenze bleibt (Schritt 3501). Zweitens wird die durchschnittliche Höhe Hst aller Zeilen, die in diesem Standardzielbereich enthalten sind, berechnet (Schritt 3502). Drittens wird, wie in 36B gezeigt, ein im voraus bestimmter Offset-Wert Δth der durchschnittlichen Höhe Hst hinzugefügt, um einen relativen Schwellenwert Lth, zu erhalten (Schritt 3503). Viertens wird, wie in 37A gezeigt, das Zielobjekt unter Verwendung des relativen Schwellenwertes Lth, segmentiert, wie oben erklärt (Schritt 3504). Fünftens werden, wie in 37B gezeigt, die Randpositionen und die Mittlenpositionen der HI- und LOW-Segmente berechnet (Schritt 3505). Sechstens werden, wie in 37C gezeigt, ein Zielbereich auf dem LOW-Segment, der als Bezugsoberfläche dienen soll, und ein weiterer Zielbereich auf dem HI-Segment, der die Mesa auf dem Zielobjekt darstellt, berechnet (Schritt 3506). Nachdem die Höhe Hst des LOW-Segmentes (Schritt 3507) und die Höhe Hmeg des HI-Segmentes berechnet ist (Schritt 3508), wird ihre Differenz als die Höhe der Mesa (Schritt 3509) gewonnen.
  • Mit einem Verfahren, wie oben beschrieben, bewegen sich die Zielbereiche weiterhin gemäß der Verschiebung des Zielobjektes entweder horizontal oder vertikal, so dass die Messungszielbereiche messbar bleiben.
  • Bereiche, die nicht gemessen werden können, können in einem synthetisierten Bild erscheinen, wie in 38 gezeigt, nicht nur wegen einer Relativverschiebung zwischen der Sensorkopfeinheit und dem Zielobjekt, sondern auch wegen Störungssignalen, die das Abschließen der Bilddaten auf einer oder mehr Zeilen im synthetisierten Bild verhindern können. Die vorliegende Erfindung liefert Reparaturverfahren zur Verhinderung derartiger Bereiche. 39A zeigt ein Reparaturverfahren, durch das jeder der nicht messbaren Bereiche im Höhenverteilungsdiagramm mit einer Höhe des benachbarten Bereiches auf einer vorbereitend ausgewählten Seite (linke Seite im Beispiel von 39A) ”gefüllt” (oder dadurch ersetzt) wird. 39B zeigt ein weiteres Reparaturverfahren, durch das nicht messbare Bereiche gefüllt werden, so dass sich die Höhenverteilung um diese Bereiche leicht ändert und sich leicht mit den benachbarten Bereichen verbindet.
  • Wenn aufgrund von Störsignalen fehlerhafte Daten enthalten sind, wie umschlossen von einer unterbrochenen Linie in 40 gezeigt, können sie mit einem spezifizierten Schwellenwert verglichen werden, um die Kontinuität der Helligkeit zu überprüfen, und nur durch ein Segment mit derselben Höhe wie der benachbarte Bereich ersetzt werden, wenn die Kontinuität hergestellt wird.
  • Zusammenfassend können optische Sensoren dieser Erfindung eine Schnittumrisslinie genau messen, auch bei einem Zielobjekt, das ein sich änderndes Reflexionsvermögen, eine Nut, einen abgeschrägten Abschnitt oder eine gekrümmte Oberfläche aufweist.

Claims (28)

  1. Optischer Versetzungssensor, welcher aufweist: Mehrfachbildaufnahmemittel, umfassend Lichtprojektionsmittel, Bildaufnahmemittel und Parameterabtastmittel, wobei die Lichtprojektionsmittel eingerichtet sind, ein Spaltlichtbündel bereitzustellen und das Spaltlichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel eingerichtet sind, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittumrisslinie durch eine optische Schnittoberfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderen, von dem spezifizierten Winkel verschiedenen Winkel zu gewinnen, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel eingerichtet sind, die Helligkeit der umrissaufweisenden Bilder abzutasten, indem der Wert von mindestens einem der Parameter verändert wird, die die Bildaufnahmebedingungen definieren und die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel eingerichtet sind, eine Vielzahl der umrissaufweisenden Bilder unter verschiedenen Bildaufnahmebedingungen zu gewinnen; und eine Signalverarbeitungseinheit, welche aufweist: Bildsynthetisierungsmittel zum Extrahieren eines eine Bedingung maximaler Helligkeit erfüllenden segmentierten Bildes aus einer Vielzahl der umrissaufweisenden Bilder, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, für jedes Segment aus einer Vielzahl von vorgegebenen Segmenten der Vielzahl der umrissaufweisenden Bilder und zum Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittumrisslinie durch Zusammenfassen der extrahierten segmentierten Bilder enthält; und Messmittel zur Durchführung eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Abschnitten der Bilder der Schnittumrisslinie und zur Erzeugung eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird, wobei die Signalverarbeitungseinheit eingerichtet ist, das jeweilige segmentierte Bild zwischen jeweiligen Zeitpunkten der Durchführung jeweiliger Aufnahmen aufeinanderfolgender Bilder der Vielzahl von umrissaufweisenden Bildern, die unter verschiedenen Bildaufnahmebedingungen gewonnen werden, zu extrahieren, wobei die Bildsynthetisierungsmittel aufweisen: einen Bildspeicher zur Speicherung des Bildes eines Bildschirmabschnittes des zweidimensionalen Bildaufnahmeelementes, wobei der Bildspeicher in Segmente unterteilt ist; einen Kennzeichen-Speicher zur Speicherung von Schreibsteuer-Kennzeichen, die angeben, ob für jedes dieser Segmente des Bildspeichers ein Einschreiben zulässig ist oder nicht; Bildaufzeichnungsmittel zur Aufzeichnung von Bildern, die durch die Mehrfachbildaufnahmemittel gewonnen wurden, in dem Bildspeicher in Einheiten der Segmente gemäß den Schreibsteuer-Kennzeichen; und Kennzeichen-Steuermittel, zum Steuern der Schreibsteuer-Kennzeichen derart, dass, nachdem ein segmentiertes Bild, das die spezifizierte Bedingung der maximalen Helligkeit erfüllt, in jedem der Segmente des Bildspeichers aufgezeichnet wurde, das Schreiben in das entsprechende Segment verhindert wird.
  2. Optischer Versetzungssensor nach Anspruch 1, wobei die Messmittel eingerichtet sind, die Verteilung des Abstandes zwischen den Mehrfachbildaufnahmemitteln und der Zieloberfläche entlang einer Linie zu messen, darin eingeschlossen dort, wo das Spaltbündel zum Einfall gebracht wird.
  3. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, Parameter zu verwenden, die eine Belichtungszeit des zweidimensionalen Bildaufnahmeelementes umfassen.
  4. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die Parameter in veränderbaren Einheiten zu ändern.
  5. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die Parameter innerhalb eines veränderbaren maximalen Bereiches zu ändern.
  6. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die Parameter innerhalb eines maximalen Bereiches zu ändern, wobei der optische Versetzungssensor eingerichtet ist, den maximalen Bereich automatisch gemäß den Ergebnissen einer Testmessung einzustellen.
  7. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die Parameter innerhalb eines maximalen Bereiches in spezifizierten Einheiten zu ändern, wobei der optische Versetzungssensor Mittel zur automatischen Anpassung des maximalen Bereiches und der spezifizierten Einheiten gemäß der Helligkeit des Bildes der vom optischen Versetzungssensor genommenen Schnittumrisslinie aufweist.
  8. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die vorgegebenen Segmente so zu spezifizieren, dass sie jeweils einen Bereich umfassen, der eine oder mehrere aneinandergrenzende horizontale Abtastzeilen auf einem Bild aufweist, das mit dem zweidimensionalen Bildaufnahmeelement gewonnen wird.
  9. Optischer Versetzungssensor nach Anspruch 1, wobei die Mehrfachbildaufnahmemittel eingerichtet sind, damit aufzuhören, die umrissaufweisenden Bilder zu gewinnen, wenn die segmentierten Bilder, die die spezifizierte Bedingung der maximalen Helligkeit erfüllen, in alle spezifizierten Einheiten der Segmente des Bildspeichers aufgezeichnet wurden.
  10. Optischer Versetzungssensor nach Anspruch 1, wobei der optische Versetzungssensor eingerichtet ist, die vorgegebenen Segmente so zu spezifizieren, dass sie jeweils aus einem Bereich bestehen, der eine oder mehrere aneinandergrenzende horizontale Abtastzeilen aufweist.
  11. Optischer Versetzungssensor nach Anspruch 1, wobei die Mehrfachbildaufnahmemittel in einem Gehäuseaufbau enthalten sind, um eine Sensorkopfeinheit zu bilden, und die Verarbeitungseinheit in einem anderen Gehäuseaufbau enthalten ist.
  12. Optischer Versetzungssensor nach Anspruch 1, welcher ferner einen Bildmonitor, der extern mit der Signalverarbeitungseinheit verbunden ist, aufweist.
  13. Optischer Versetzungssensor nach Anspruch 1, welcher ferner Bildreparaturmittel zur Reparatur eines fehlenden Abschnittes des Bildes der Schnittumrisslinie im von den Bildsynthetisierungsmitteln erzeugten synthetisierten Bild aufweist.
  14. Optischer Versetzungssensor nach Anspruch 13, wobei die Bildreparaturmittel eingerichtet sind, sequentiell die Anwesenheit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisierte Bild bildenden Abtastzeilen nachzuweisen und das Bild einer Abtastzeile mit dem fehlenden Bild der Schnittumrisslinie durch das Bild der Abtastzeile unmittelbar davor zu ersetzen.
  15. Optischer Versetzungssensor nach Anspruch 13, wobei die Bildreparaturmittel eingerichtet sind, sequentiell die Anwesenheit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisierte Bild bildenden Abtastzeilen nachzuweisen und das Bild einer Abtastzeile mit dem fehlenden Bild der Schnittumrisslinie durch Verwendung der Bilder der Abtastzeilen davor und danach zu ersetzen.
  16. Optischer Versetzungssensor nach Anspruch 13, wobei das Bildreparaturmittel eingerichtet ist, sequentiell die Anwesenheit oder die Abwesenheit des Bildes eines Abschnittes der Schnittumrisslinie auf jeder der das synthetisierte Bild bildenden Abtastzeilen nachzuweisen und das Bild einer Abtastzeile in Abhängigkeit von der Kontinuität der Helligkeit mit den Bildern der Schnittumrisslinie auf den Zeilen davor und danach zu ersetzen oder nicht zu ersetzen.
  17. Optischer Versetzungssensor nach Anspruch 1, welcher Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige eines spezifizierten Bildes auf einem Bildmonitor aufweist.
  18. Optischer Versetzungssensor nach Anspruch 17, wobei die Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige des spezifizierten Bildes auf einem Bildmonitor, wobei das spezifizierte Bild das synthetisierte Bild enthält, eingerichtet sind.
  19. Optischer Versetzungssensor nach Anspruch 18, wobei die Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige des spezifizierten Bildes auf einem Bildmonitor eingerichtet sind, wobei das spezifizierte Bild einen Cursor, der eine der das synthetisierte Bild bildenden horizontalen Abtastzeilen anzeigt, und eine Helligkeitsverteilungskurve einer der Abtastzeilen, die vom Cursor ausgewählt wurden, enthält.
  20. Optischer Versetzungssensor nach Anspruch 18, wobei die Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige des spezifizierten Bildes auf einem Bildmonitor eingerichtet sind, wobei das spezifizierte Bild einen Cursor, der eine der horizontalen Abtastzeilen anzeigt, die aus dem synthetisierten Bild ausgewählt wurden, und Bildaufnahmebedingungen für eine der Abtastzeilen, die vom Cursor ausgewählt wurden, enthält.
  21. Optischer Versetzungssensor nach Anspruch 18, wobei die Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige des spezifizierten Bildes auf einem Bildmonitor eingerichtet sind, wobei das spezifizierte Bild auf jeder der das synthetisierte Bild bildenden horizontalen Abtastzeilen eine Markierung aufweist, die die Abwesenheit eines Bildes der Schnittumrisslinie angibt.
  22. Optischer Versetzungssensor nach Anspruch 18, wobei die Monitorausgabemittel zur Erzeugung von Ausgabesignalen zur Anzeige des spezifizierten Bildes auf einem Bildmonitor eingerichtet sind, wobei das spezifizierte Bild auf jeder der das synthetisierte Bild bildenden horizontalen Abtastzeilen eine Markierung aufweist, die die Anwesenheit der Schnittumrisslinie angibt.
  23. Optischer Versetzungssensor nach Anspruch 17, welcher ferner eine graphische Benutzerschnittstelle zur Durchführung einer Konversation zwischen einem Bediener und dem Bildmonitor über eine Zeigevorrichtung aufweist.
  24. Optischer Versetzungssensor nach Anspruch 1, welcher ferner Spurverfolgungssteuermittel zur Änderung einer Zielposition für die Messung gemäß einer Relativbewegung des Zielobjektes aufweist.
  25. Optischer Versetzungssensor nach Anspruch 24, wobei die Spurverfolgungssteuermittel zur Änderung der Zielposition für die Messung gemäß einer Relativbewegung des Zielobjektes eingerichtet sind, wobei die Zielposition zur Messung des Abstandes zwischen den Mehrfachbildaufnahmemitteln und der Zielfläche dient, und wobei die Relativbewegung senkrecht zur Richtung erfolgt, in der sich der Abstand ändert.
  26. Optischer Versetzungssensor nach Anspruch 24, wobei die Spurverfolgungssteuermittel zur Änderung der Zielposition für die Messung gemäß einer Relativbewegung des Zielobjektes eingerichtet sind, wobei die Zielposition zur Messung des Abstandes zwischen den Mehrfachbildaufnahmemitteln und der Zielfläche dient, und wobei die Relativbewegung in der Richtung erfolgt, in der sich der Abstand ändert.
  27. Optischer Versetzungssensor nach Anspruch 24, wobei die Spurverfolgungssteuermittel zur Änderung der Zielposition für die Messung gemäß einer Relativbewegung des Zielobjektes eingerichtet sind, wobei die Zielposition zur Messung des Abstandes zwischen den Mehrfachbildaufnahmemitteln und der Zielfläche dient, und wobei die Relativbewegung sowohl in der als auch senkrecht zu der Richtung erfolgt, in der sich der Abstand ändert.
  28. Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors, wobei der optische Versetzungssensor aufweist: Mehrfachbildaufnahmemittel, umfassend Lichtprojektionsmittel, Bildaufnahmemittel und Parameterabtastmittel, wobei die Lichtprojektionsmittel eingerichtet sind, ein Spaltlichtbündel bereitzustellen und das Spaltlichtbündel unter einem spezifizierten Winkel auf eine Zieloberfläche eines Zielobjektes einzustrahlen, wobei die Bildaufnahmemittel eingerichtet sind, umrissaufweisende Bilder, darin eingeschlossen ein Bild einer Schnittumrisslinie durch eine optische Schnittoberfläche, unter Verwendung eines zweidimensionalen Bildaufnahmeelementes unter einem anderen, von dem spezifizierten Winkel verschiedenen Winkel zu gewinnen, um die Zielfläche zu photographieren, auf die das Spaltbündel einfällt, wobei die Parameterabtastmittel eingerichtet sind, die Helligkeit der umrissaufweisenden Bilder abzutasten, indem der Wert von mindestens einem der Parameter verändert wird, die die Bildaufnahmebedingungen definieren und die Helligkeit der umrissaufweisenden Bilder beeinflussen, die durch die Bildaufnahmemittel erhalten werden, wobei die Mehrfachbildaufnahmemittel eingerichtet sind, eine Vielzahl der umrissaufweisenden Bilder unter verschiedenen Bildaufnahmebedingungen zu gewinnen; wobei das Verfahren die folgenden Schritte aufweist: Extrahieren eines eine Bedingung maximaler Helligkeit erfüllenden segmentierten Bildes aus einer Vielzahl der umrissaufweisenden Bilder, die mit den Mehrfachbildaufnahmemitteln gewonnen wurden, für jedes Segment von einer Vielzahl von vorgegebenen Segmenten der Vielzahl der umrissaufweisenden Bilder und Erzeugen eines synthetisierten Bildes, das eine Reihe von Abschnitten des Bildes der Schnittumrisslinie durch Zusammenfassen der extrahierten segmentierten Bilder enthält; Durchführen eines spezifizierten Messverfahrens auf der Grundlage der Reihe von Abschnitten der Bilder der Schnittumrisslinie und Erzeugen eines Werts, der ein Ergebnis darstellt, das durch das spezifizierte Messverfahren gewonnen wird, wobei das jeweilige segmentierte Bild zwischen jeweiligen Zeitpunkten der Durchführung jeweiliger Aufnahmen aufeinanderfolgender Bilder der Vielzahl von umrissaufweisenden Bilder, die unter verschiedenen Bildaufnahmebedingungen gewonnen werden, extrahiert wird, wobei der Schritt des Extrahierens folgende Schritte aufweist: Speichern des Bildes eines Bildschirmabschnittes des zweidimensionalen Bildaufnahmeelementes in einem Bildspeicher, wobei der Bildspeicher in Segmente unterteilt ist; Speichern von Schreibsteuer-Kennzeichen in einem Kennzeichen-Speicher, wobei die Schreibsteuer-Kennzeichen angeben, ob für jedes dieser Segmente des Bildspeichers ein Einschreiben zulässig ist oder nicht; Aufzeichnen von Bildern, die durch die Mehrfachbildaufnahmemittel gewonnen wurden, in dem Bildspeicher in Einheiten der Segmente gemäß den Schreibsteuer-Kennzeichen; und Steuern der Schreibsteuer-Kennzeichen derart, dass, nachdem ein segmentiertes Bild, das die spezifizierte Bedingung der maximalen Helligkeit erfüllt, in jedem der Segmente des Bildspeichers aufgezeichnet wurde, das Schreiben in das entsprechende Segment verhindert wird.
DE10212916.9A 2001-03-25 2002-03-22 Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors Expired - Fee Related DE10212916B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001133388 2001-03-25
JP01-133388 2001-03-25

Publications (2)

Publication Number Publication Date
DE10212916A1 DE10212916A1 (de) 2002-11-07
DE10212916B4 true DE10212916B4 (de) 2016-12-22

Family

ID=18981256

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10212916.9A Expired - Fee Related DE10212916B4 (de) 2001-03-25 2002-03-22 Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors

Country Status (3)

Country Link
US (1) US6839144B2 (de)
CN (1) CN1218159C (de)
DE (1) DE10212916B4 (de)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004117161A (ja) * 2002-09-26 2004-04-15 Sharp Corp 光学式変位センサ
JP4375523B2 (ja) * 2002-12-20 2009-12-02 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理プログラム、印刷物検査装置、印刷物検査方法、印刷物検査プログラム
EP2418458B1 (de) * 2003-09-19 2017-03-15 Omron Corporation Mehrfachsensorsystem
US7460250B2 (en) * 2003-10-24 2008-12-02 3Dm Devices Inc. Laser triangulation system
DE102005011149B4 (de) * 2004-03-12 2009-10-29 Omron Corp. Messinstrument
WO2008114263A1 (en) * 2007-03-21 2008-09-25 Camtek Ltd. System and method for height measurement
EP2136178A1 (de) * 2007-04-05 2009-12-23 Nikon Corporation Geometriemessinstrument und verfahren zur geometriemessung
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
KR20130072213A (ko) 2010-05-19 2013-07-01 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
CN101907450B (zh) * 2010-07-22 2012-05-23 西北师范大学 不同反射率材质组合表面的三维宏观形貌构建方法
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
DE102011116791B4 (de) * 2011-10-24 2014-05-15 SmartRay GmbH Optisches Prüfverfahren mit Mehrfach-Auslesung/Einfrieren
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
JP2014159988A (ja) * 2013-02-19 2014-09-04 Yaskawa Electric Corp 物体検出装置、ロボットシステム、及び物体検出方法
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9605950B2 (en) * 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3118576B1 (de) 2015-07-15 2018-09-12 Hand Held Products, Inc. Mobile dimensionierungsvorrichtung mit dynamischer nist-standardkonformer genauigkeit
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
EP3396412A4 (de) * 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. Fahrzeugsensor und fahrzeug damit
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
CN113544464B (zh) 2019-03-11 2022-08-26 三菱电机株式会社 位移计的设定值调整装置
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
CN114690391A (zh) * 2020-12-29 2022-07-01 光原科技(深圳)有限公司 光片荧光显微镜、图像处理系统和图像处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3940518A1 (de) * 1989-12-07 1991-06-20 Fisw Gmbh Verfahren und vorrichtung zur belichtungsregelung eines optischen entfernungsmessers nach dem lichtschnittprinzip
JPH09287926A (ja) * 1996-04-24 1997-11-04 Hitachi Constr Mach Co Ltd 断面形状計測装置
EP0822389A2 (de) * 1996-07-29 1998-02-04 Elpatronic Ag Verfahren und Vorrichtung zur Kantenverfolgung und Kantenprüfung
DE19636354A1 (de) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
JP2000230814A (ja) * 1999-02-09 2000-08-22 Mitsubishi Heavy Ind Ltd レーザ光を利用した形状測定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4666303A (en) * 1983-07-11 1987-05-19 Diffracto Ltd. Electro-optical gap and flushness sensors
JP3040607B2 (ja) 1992-08-04 2000-05-15 三菱重工業株式会社 光切断方法における異常光除去方法
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3940518A1 (de) * 1989-12-07 1991-06-20 Fisw Gmbh Verfahren und vorrichtung zur belichtungsregelung eines optischen entfernungsmessers nach dem lichtschnittprinzip
JPH09287926A (ja) * 1996-04-24 1997-11-04 Hitachi Constr Mach Co Ltd 断面形状計測装置
EP0822389A2 (de) * 1996-07-29 1998-02-04 Elpatronic Ag Verfahren und Vorrichtung zur Kantenverfolgung und Kantenprüfung
DE19636354A1 (de) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
JP2000230814A (ja) * 1999-02-09 2000-08-22 Mitsubishi Heavy Ind Ltd レーザ光を利用した形状測定方法

Also Published As

Publication number Publication date
CN1376895A (zh) 2002-10-30
DE10212916A1 (de) 2002-11-07
US6839144B2 (en) 2005-01-04
CN1218159C (zh) 2005-09-07
US20020167677A1 (en) 2002-11-14

Similar Documents

Publication Publication Date Title
DE10212916B4 (de) Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE102004014048B4 (de) Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
EP2947417B1 (de) Vorrichtung und Verfahren zum Erfassen einer 3D-Struktur eines Objekts
DE3636671A1 (de) Verfahren zur dreidimensionalen bestimmung der relativbewegung zwischen zwei koerpern sowie messanordnung zur durchfuehrung dieses verfahrens
CH680187A5 (de)
DE3642051A1 (de) Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
DE10063293A1 (de) Verfahren und Vorrichtung zur mehrkanaligen Inspektion von Oberflächen im Durchlauf
DE102012104745B4 (de) Prüfverfahren und hierzu geeigneter Prüfkopf
DE102009040649A1 (de) Verfahren und Vorrichtung zur Erzeugung von digitalen Einzelbildern von scheibenförmigen Elementen in einem Herstellungsprozess
DE2556366C2 (de) Vorrichtung zur Stellungsanzeige eines Lichtstrahles
DE102013200135B4 (de) Telezentrisches Abbildungssystem
DE102018211913A1 (de) Vorrichtung und Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung
DE10223478C5 (de) Verfahren zur Aufnahme eines Objektraumes
AT406528B (de) Verfahren und einrichtung zur feststellung, insbesondere zur visualisierung, von fehlern auf der oberfläche von gegenständen
DE102017203391A1 (de) Verfahren und Koordinatenmessgerät zur metrologischen Vermessung von Werkstücken mit Hilfe eines Leuchttischs
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE102018005506B4 (de) Optisches Sensorsystem für ein Koordinatenmessgerät, Verfahren zum Erfassen eines Messpunkts auf einer Oberfläche eines Messobjekts sowie Koordinatenmessgerät
DE102020205208A1 (de) Optisches Verschiebungsmessgerät
DE2705936B2 (de) Verfahren und Anordnung zur elektronischen Bildanalyse
EP1108197A1 (de) Anordnung und verfahren zur ermittlung einer tiefen- und farbinformation eines aufzunehmenden objekts
DE102017103660B4 (de) Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
DE10339651B3 (de) Verfahren und Vorrichtung zur Ermittlung von Rastertonwerten durch direkte Aufnahme von verschiedenen drucktechnischen Substraten
DE102018103942A1 (de) Verfahren und Vorrichtung zur Vermessung der Oberflächenform eines Brillenglases
DE2217281A1 (de) Dichtenmessung durch Bildanalyse. &gt;

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

Representative=s name: KILIAN KILIAN & PARTNER, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee