DE112018005337T5 - Formmesssensor - Google Patents

Formmesssensor Download PDF

Info

Publication number
DE112018005337T5
DE112018005337T5 DE112018005337.7T DE112018005337T DE112018005337T5 DE 112018005337 T5 DE112018005337 T5 DE 112018005337T5 DE 112018005337 T DE112018005337 T DE 112018005337T DE 112018005337 T5 DE112018005337 T5 DE 112018005337T5
Authority
DE
Germany
Prior art keywords
pixel
light
pixels
electrical signal
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005337.7T
Other languages
English (en)
Inventor
Munenori Takumi
Haruyoshi Toyoda
Yoshinori Matsui
Kazutaka Suzuki
Kazuhiro Nakamura
Keisuke Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Publication of DE112018005337T5 publication Critical patent/DE112018005337T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1446Devices controlled by radiation in a repetitive configuration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/02016Circuit arrangements of general character for the devices
    • H01L31/02019Circuit arrangements of general character for the devices for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02024Position sensitive and lateral effect photodetectors; Quadrant photodiodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02162Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H01L31/02164Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors for shielding light, e.g. light blocking layers, cold shields for infrared detectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02162Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H01L31/02165Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors using interference filters, e.g. multilayer dielectric filters

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Light Receiving Elements (AREA)
  • Photo Coupler, Interrupter, Optical-To-Optical Conversion Devices (AREA)

Abstract

Es wird ein Formmesssensor bereitgestellt, der Folgendes umfasst: eine Lichtempfangseinheit, auf die an einer Messlinie reflektiertes Licht einfällt; und eine Berechnungseinheit, die die Positionsinformationen der jeweiligen Positionen auf der Messlinie auf der Grundlage einer Lichteinfallsposition berechnet. Die Lichtempfangseinheit umfasst eine Vielzahl von Pixelpaaren. Jedes der Pixelpaare enthält ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das neben mit dem ersten Pixel entlang einer ersten Richtung angeordnet ist, die die Bestrahlungsrichtung schneidet, und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, wobei die Pixelpaare entlang der ersten Richtung angeordnet sind. Im ersten Pixel nimmt die Intensität der ersten elektrischen Signale ab, wenn die Einfallsposition näher an einem Ende der Lichtempfangseinheit in einer zweiten, die erste Richtung schneidenden Richtung liegt. Im zweiten Pixel nimmt die Intensität des zweiten elektrischen Signals zu, wenn die Einfallsposition näher an dem einen Ende in der zweiten Richtung liegt. Die Berechnungseinheit erfasst das erste elektrische Signal und das zweite elektrische Signal für jedes der Pixelpaare und berechnet die Einfallsposition in der zweiten Richtung für jedes der Pixelpaare auf der Grundlage der Intensität des erfassten ersten elektrischen Signals und der Intensität des erfassten zweiten elektrischen Signals.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft einen Formmesssensor.
  • Stand der Technik
  • In der Patentliteratur 1 wird ein optischer Sensor offenbart, der eine Lichteinfallsposition erfasst. Der optische Sensor hat einen Lichtempfangsbereich, der eine konische Form aufweist, deren Breite sich entlang einer Richtung in einer Ebene allmählich vergrößert. Wenn sich Licht entlang der einen Richtung auf dem diese Form aufweisenden Lichtempfangsbereich bewegt, ändert sich die Ausgabe des optischen Sensors linear. Es wird eine eindimensionale Position in der einen Richtung in Bezug auf die Einfallsposition des Lichts erfasst, indem eine Abweichung in der Ausgabe erfasst wird. Wenn zwei optische Sensor in entgegengesetzten Richtungen in einem Zustand angeordnet sind, in dem ihre Hypotenusen miteinander in Kontakt stehen, wird eine Änderungsrate eines differentiellen Ausgangssignals von den optischen Sensoren im Vergleich zu einer Änderungsrate eines Ausgangssignals der einzelnen optischen Sensoren doppelt verstärkt.
  • In der Patentliteratur 2 ist ein zweidimensionales Element zur Erfassung der Lichteinfallsposition offenbart, das eine zweidimensionale Position erfasst, auf die Licht auftrifft.
  • Zitationsliste
  • Patentliteratur
    • Patentliteratur 1: Ungeprüfte japanische Patentveröffentlichung Nr. H3-34369
    • Patentliteratur 2: Ungeprüfte japanische Patentveröffentlichung Nr. H4-313278
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Seit kurzem wird ein Verfahren verwendet, bei dem eine Oberfläche eines Objekts mit linienförmigem Licht bestrahlt wird (oder die Oberfläche wird mit punktförmigem Licht abgetastet), und eine Position des reflektierten Lichts von einer Richtung, die mit Bezug auf eine Bestrahlungsrichtung geneigt ist, erfasst, um eine Oberflächenform des Objekts zu messen. Bei dem Messverfahren ist es erforderlich, die Position des reflektierten Lichts mit einer hohen Geschwindigkeit zu erfassen, um die Messzeit zu verkürzen und die Definition eines Messergebnisses zu erhöhen. Um beispielsweise die Position des reflektierten Lichts zu erfassen, kann ein zweidimensionales Bilderfassungselement, wie ein CMOS-Bildsensor, verwendet werden. Bei den Bilderfassungselementen, in denen Pixel zweidimensional angeordnet sind, werden jedoch elektrische Signale von mehreren Pixeln, die über eine Vielzahl von Reihen und einer Vielzahl von Spalten angeordnet sind, ausgegeben, sodass beim Auslesen der elektrischen Signale Zeit benötigt wird. Dementsprechend gibt es eine Beschränkung hinsichtlich der Erfassung der Position des reflektierten Lichts mit hoher Geschwindigkeit.
  • Es ist eine Aufgabe der vorliegenden Erfindung, einen Formmesssensor bereitzustellen, der in der Lage ist, eine Position des reflektierten Lichts mit hoher Geschwindigkeit zu erfassen.
  • Lösung des Problems
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird ein Formmesssensor bereitgestellt, der Licht erfasst, das zur Bestrahlung einer Messlinie auf eine Oberfläche eines Objekts emittiert und an der Oberfläche des Objekts reflektiert wird, um eine Oberflächenform des Objekts zu messen. Der Formmesssensor umfasst: eine Lichtempfangseinheit, auf die das an der Messlinie reflektierte Licht aus einer Richtung einfällt, die in Bezug auf eine Bestrahlungsrichtung des Lichts geneigt ist; und eine Berechnungseinheit, die eine Einfallsposition des Lichts in der Lichtempfangseinheit erfasst und die Positionsinformationen jeder Position auf der Messlinie auf der Grundlage der Einfallsposition berechnet. Die Lichtempfangseinheit umfasst mehrere Pixelpaare, wobei jedes Pixelpaar ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das neben dem ersten Pixel entlang einer ersten Richtung, die die Bestrahlungsrichtung schneidet, angeordnet ist und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, enthält, und wobei die Pixelpaare entlang der ersten Richtung angeordnet sind. Im ersten Pixel nimmt die Intensität der ersten elektrischen Signale ab, je näher die Einfallsposition in einer zweiten Richtung, die die erste Richtung schneidet, an einem Ende der Lichtempfangseinheit liegt. Im zweiten Pixel nimmt die Intensität des zweiten elektrischen Signals zu, je näher die Einfallsposition in der zweiten Richtung am einen Ende liegt. Die Berechnungseinheit erfasst das erste elektrische Signal und das zweite elektrische Signal für jedes Pixelpaar und berechnet die Einfallsposition in einer zweiten Richtung für jedes Pixelpaar auf der Grundlage der Intensität des erfassten ersten elektrischen Signals und der Intensität des erfassten zweiten elektrischen Signals.
  • In dem Formmesssensor wird Licht an der Messlinie der Objektoberfläche reflektiert und das reflektierte Licht fällt auf die Lichtempfangseinheit ein. Wenn Licht auf das erste Pixel einfällt, wird das erste elektrische Signal, das einer Lichteinfallsmenge entspricht, von dem ersten Pixel erzeugt. In ähnlicher Weise wird, wenn Licht auf das zweite Pixel einfällt, das zweite elektrische Signal, das einer Lichteinfallsmenge entspricht, von dem zweiten Pixel erzeugt. Die Berechnungseinheit erfasst die Einfallsposition des Lichts in der ersten Richtung für jedes Pixelpaar, indem sie das erzeugte erste elektrische Signal und das erzeugte zweite elektrische Signal für jedes Pixelpaar erfasst. Darüber hinaus berechnet die Berechnungseinheit die Einfallsposition in der zweiten Richtung für jedes Pixelpaar, indem eine Beziehung zwischen der Einfallsposition des Lichts in der zweiten Richtung, der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals verwendet wird. Auf diese Weise wird eine zweidimensionale Positionsinformation der Einfallsposition des Lichts in der Lichtempfangseinheit für jedes Pixelpaar erfasst. Darüber hinaus wird eine zweidimensionale Positionsinformation der entsprechenden Positionen auf der Messlinie der Objektoberfläche auf der Grundlage der zweidimensionalen Positionsinformationen der Einfallsposition berechnet und es wird eine Abtastung der Messlinie in einer Richtung, die die Messlinie schneidet, durchgeführt, wodurch eine dreidimensionale Form der Oberfläche des Objekts gemessen wird. Mit dem Formmesssensor ist es möglich, zweidimensionale Informationen der Einfallsposition in der zweiten Richtung für jedes Pixelpaar, zusätzlich zu der Einfallsposition in der ersten Richtung, mit lediglich elektrischen Signalen, die von den entsprechenden Pixelpaaren erzeugt werden, zu erfassen. Das heißt, es ist möglich, die zweidimensionalen Informationen der Einfallsposition des Lichts zu erfassen, ohne dass ein elektrisches Signal zur Erfassung der Einfallsposition in der zweiten Richtung separat erzeugt wird. Demzufolge ist es möglich, eine Erhöhung der Anzahl der elektrischen Signale zu unterdrücken, und damit auch eine Erhöhung der zum Auslesen der elektrischen Signale erforderlichen Zeit. Dementsprechend ist es gemäß dem Formmesssensor möglich, die Einfallsposition des Lichts in der Lichtempfangseinheit mit hoher Geschwindigkeit zu erfassen. Dadurch ist es möglich, die dreidimensionale Form der Oberfläche des Objekts mit hoher Geschwindigkeit zu messen und eine Verkürzung der Messzeit und eine hohe Genauigkeit der Messergebnisse zu realisieren.
  • In dem Formmesssensor kann die Berechnungseinheit die Einfallsposition in der zweiten Richtung für jedes der Pixelpaare berechnen, indem sie ein Verhältnis zwischen der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals verwendet. In diesem Fall ist es möglich, die Einfallsposition des Lichts in der zweiten Richtung anhand eines einfachen Berechnungsprozesses zu berechnen, wodurch es möglich ist, die Einfallsposition des Lichts mit hoher Geschwindigkeit zu erfassen.
  • In dem Formmesssensor kann die Berechnungseinheit die Einfallsposition in der zweiten Richtung für jedes Pixelpaar berechnen, indem sie ein Verhältnis zwischen der Intensität des ersten elektrischen Signals oder der Intensität des zweiten elektrischen Signals und einem Gesamtwert der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals verwendet. Wenn die Intensität des ersten elektrischen Signals oder die Intensität des zweiten elektrischen Signals durch einen Gesamtwert der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals normiert wird, ist es auf diese Weise möglich, eine Schwankung der Intensität der elektrischen Signale zu kompensieren. Demnach ist es möglich, die Einfallsposition des Lichts genau zu erfassen.
  • In dem Formmesssensor kann die Lichtempfangseinheit ferner einen ersten Übertragungsfilter, der das erste Pixel abdeckt und durch den das Licht übertragen wird, und einen zweiten Übertragungsfilter, der das zweite Pixel abdeckt und durch den das Licht übertragen wird, aufweisen, wobei eine Lichtdurchlässigkeit im ersten Übertragungsfilter abnimmt, je näher er an dem einen Ende in der zweiten Richtung liegt, und eine Lichtdurchlässigkeit im zweiten Übertragungsfilter zunimmt, je näher er an dem einen Ende in der zweiten Richtung liegt. Wenn die Lichtempfangseinheit den ersten Übertragungsfilter und den zweiten Übertragungsfilter umfasst, nimmt in dem ersten Pixel, je näher die Einfallsposition des Lichts am einen Ende in der zweiten Richtung liegt, eine Lichteinfallsmenge des Lichts, das auf das erste Pixel einfällt, ab und dementsprechend nimmt die Intensität des ersten elektrischen Signals, das in dem ersten Pixel erzeugt wird, ebenfalls ab. Im Gegensatz dazu nimmt in dem zweiten Pixel, je näher die Einfallsposition an dem einen Ende der zweiten Richtung liegt, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel einfällt, zu und dementsprechend nimmt die Intensität des zweiten elektrischen Signals, das in dem zweiten Pixel erzeugt wird, ebenfalls zu. Dementsprechend ist es gemäß dieser Konfiguration möglich, die Lichtempfangseinheit des Formmesssensors in geeigneter Weise zu realisieren.
  • In dem Formmesssensor umfasst die Lichtempfangseinheit ferner einen ersten Lichtabschirmabschnitt, der einen anderen Abschnitt des ersten Pixels mit Ausnahme eines Abschnitts des ersten Pixels abdeckt und das Licht abschirmt, und einen zweiten Lichtabschirmabschnitt, der einen anderen Abschnitt des zweiten Pixels mit Ausnahme eines Abschnitts des zweiten Pixels abdeckt und das Licht abschirmt, wobei eine Breite des einen Abschnitts des ersten Pixels in der ersten Richtung abnimmt, je näher er dem einen Ende in der zweiten Richtung kommt, und wobei eine Breite des einen Abschnitts des zweiten Pixels in der ersten Richtung zunimmt, je näher er dem einen Ende in der zweiten Richtung kommt. Wenn die Lichtempfangseinheit den ersten Lichtabschirmabschnitt und den zweiten Lichtabschirmabschnitt umfasst, nimmt im ersten Pixel, je näher die Einfallsposition des Lichts an dem einen Ende in der zweiten Richtung liegt, die Lichteinfallsmenge des Lichts, das auf das erste Pixel einfällt, ab und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals, das in dem ersten Pixel erzeugt wird, ab. Im Gegensatz dazu nimmt in dem zweiten Pixel, je näher die Einfallsposition des Lichts an dem einen Ende in der zweiten Richtung liegt, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel einfällt, zu und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das im zweiten Pixel erzeugt wird, zu. Dementsprechend ist es gemäß dieser Konfiguration möglich, die Lichtempfangseinheit des Formmesssensors in geeigneter Weise zu realisieren.
  • In dem Formmesssensor nimmt eine Breite des ersten Pixels in der ersten Richtung ab, je näher es dem einen Ende in der zweiten Richtung kommt, und nimmt eine Breite des zweiten Pixels in der ersten Richtung zu, je näher es dem einen Ende in der zweiten Richtung kommt. Wenn die Lichtempfangseinheit das erste Pixel und das zweite Pixel umfasst, nimmt im ersten Pixel, je näher die Einfallsposition des Lichts an dem einen Ende in der zweiten Richtung liegt, die Lichteinfallsmenge des Lichts, das auf das erste Pixel einfällt, ab und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals, das im ersten Pixel erzeugt wird, ab. Im Gegensatz dazu nimmt im zweiten Pixel, wenn die Einfallsposition des Lichts näher am einen Ende in der zweiten Richtung liegt, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel einfällt zu, und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das in dem zweiten Pixel erzeugt wird, zu. Dementsprechend ist es gemäß dieser Konfiguration möglich, die Lichtempfangseinheit des Formmesssensors in geeigneter Weise zu realisieren.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, die Position von reflektiertem Licht mit hoher Geschwindigkeit zu erfassen.
  • Figurenliste
    • 1 zeigt ein schematisches Konfigurationsdiagramm, das einen Formmesssensor gemäß einer Ausführungsform darstellt.
    • 2 zeigt ein schematisches Konfigurationsdiagramm, das eine Bildaufnahmevorrichtung des Formmesssensors der 1 darstellt.
    • 3 zeigt eine Draufsicht, die einen Übertragungsfilter einer Lichtempfangseinheit der Lichtaufnahmevorrichtung der 2 darstellt.
    • 4 zeigt eine Querschnittsansicht entlang einer Linie IV-IV in 1.
    • 5 zeigt ein schematisches Konfigurationsdiagramm, das eine Bildaufnahmevorrichtung gemäß einem ersten Modifikationsbeispiel darstellt.
    • 6 zeigt ein schematisches Konfigurationsdiagramm, das einen Formmesssensor gemäß einer Bildaufnahmevorrichtung gemäß einem Modifikationsbeispiel darstellt.
    • 7 zeigt ein schematisches Konfigurationsdiagramm, das die Bildaufnahmevorrichtung der 6 darstellt.
    • 8 zeigt ein schematisches Konfigurationsdiagramm, an das eine Bildaufnahmevorrichtung gemäß einem dritten Modifikationsbeispiel darstellt.
    • 9 zeigt ein schematisches Konfigurationsdiagramm, das ein weiteres Beispiel einer Lichtempfangsvorrichtung der Bildaufnahmevorrichtung der 8 darstellt.
    • 10 zeigt ein schematisches Konfigurationsdiagramm, das ein noch weiteres Beispiel der Lichtempfangseinheit der Lichtaufnahmevorrichtung der 8 darstellt.
    • 11 zeigt ein schematisches Konfigurationsdiagramm, das ein noch weiteres Beispiel der Lichtempfangseinheit der Bildaufnahmevorrichtung der 8 darstellt.
    • 12 zeigt eine vergrößerte Ansicht, in der ein Teil der Lichtempfangseinheit der 11 vergrößert dargestellt ist.
    • 13 zeigt ein schematisches Konfigurationsdiagramm, das ein noch weiteres Beispiel der Lichtempfangseinheit der Bildaufnahmevorrichtung der 8 darstellt.
    • 14 zeigt ein schematisches Konfigurationsdiagramm, das eine Bildaufnahmevorrichtung gemäß einem vierten Modifikationsbeispiel darstellt.
    • 15 zeigt ein schematisches Konfigurationsdiagramm, das eine Bildaufnahmevorrichtung gemäß einem fünften Modifikationsbeispiel darstellt.
    • 16 zeigt ein schematisches Konfigurationsdiagramm, das eine Bildaufnahmevorrichtung gemäß einem sechsten Modifikationsbeispiel darstellt.
  • Beschreibung der Ausführungsformen
  • Im Nachfolgenden wird eine Ausführungsform eines Formmesssensors der vorliegenden Erfindung ausführlich mit Bezug auf die begleitenden Zeichnungen beschrieben. In der Beschreibung der Zeichnungen werden die gleichen Elemente mit den gleichen Bezugszeichen versehen und es wird auf eine wiederholte Beschreibung weitgehend verzichtet.
  • 1 zeigt ein schematisches Konfigurationsdiagramm eines Formmesssensors 1 (Formmesssystem) gemäß dieser Ausführungsform. Der Formmesssensor 1 ist ein Sensor, der eine Oberflächenform eines Objekts 2 unter Verwendung eines Lichtschnittverfahrens misst. Insbesondere bestrahlt der Formmesssensor 1 eine Oberfläche 2a des Objekts 2 mit linienförmigem Laserlicht L1 (oder tastet die Oberfläche 2a mit einem punktförmigen Laserlicht ab) und erfasst eine Position eines reflektierten Lichts L2, das an der Oberfläche 2a des Objekts 2 reflektiert wird, um eine dreidimensionale Form der Oberfläche 2a des Objekts zu messen. Es sollte beachtet werden, dass die Linienform eine Form des Laserlichts L1 in einer Ebene, die eine Bestrahlungsrichtung Da schneidet, darstellt, die eine Linienform ist. Das Objekt 2 befindet sich auf einer Anordnungsfläche S eines sich in einer Richtung D1 bewegenden Verfahrtisches. Eine Bewegungsgeschwindigkeit des Verfahrtisches in der Richtung D1 beträgt beispielsweise 1 m/s oder weniger. Die Anordnungsfläche S erstreckt sich entlang der Richtung D1 und einer Richtung D2, die die Richtung D1 schneidet (d. h. in einem Beispiel orthogonal zur Richtung D1). Das in 1 gezeigte Objekt 2 weist eine rechteckige parallelepipedförmige Außenform auf, bei der die Richtung D1 als Längsform festgelegt ist. Die Form des Objekts 2 ist nicht auf das Beispiel beschränkt, und es können alle Formen verwendet werden.
  • Wie in 1 gezeigt, umfasst der Formmesssensor 1 eine Lichtquelle 3 (Bestrahlungseinheit), die die Oberfläche 2a des Objekts 2 mit dem linienförmigen Laserlicht L1 bestrahlt, und eine Bildaufnahmevorrichtung 4, die ein Bild des reflektierten Lichts L2, das an der Oberfläche 2a des Objekts 2 reflektiert wird, aufnimmt. Beispielsweise emittiert die Lichtquelle 3 das Laserlicht L1 mit einer Wellenlänge im sichtbaren Lichtband. Die Lichtquelle ist an einer Position angeordnet, die der Oberfläche 2a des Objekts 2 in einer Richtung D3 zugewandt ist, die die Richtung D1 und die Richtung D2 schneidet (d. h., die in einem Beispiel orthogonal zu den Richtungen ist), und bestrahlt einen linienförmigen Bereich, der sich auf der Oberfläche 2a des Objekts 2 in der Richtung D2 erstreckt, mit dem Laserlicht L1. Im Nachfolgenden wird der linienförmige Bereich als „Messlinie ML“ bezeichnet. Es sollte beachtet werden, dass der Formmesssensor 1 die Lichtquelle 3 nicht aufweisen muss.
  • Die Lichtquelle 3 umfasst eine Linse, um das Laserlicht L1 in der Messlinie ML linienförmig zu formen. Die Linse ist z. B. eine Zylinderlinse und bündelt das Laserlicht L1 in Richtung D1, während sie das Laserlicht L1 in Richtung D2 streut. Nachdem das Laserlicht L1 sich entlang der Richtung D3 fortbewegt und die Linse durchquert hat, wird das Laserlicht L1 gleichzeitig an entsprechende Positionen auf der Messlinie ML der Oberfläche 2a in einem Zustand emittiert, indem es in Richtung D2 gestreut wird. Hier bewegt sich das Objekt 2 relativ zur Lichtquelle 3 und zur Bildaufnahmevorrichtung 4 entlang der Richtung D1 entsprechend der Bewegung des Verfahrtisches in der Richtung D1. Dementsprechend wird die Bestrahlung mit dem Laserlicht L1 auf der Messlinie ML sequenziell mit Bezug auf die entsprechenden Positionen der Oberfläche 2a entlang der Richtung D1 durchgeführt.
  • Beispielsweise ist die Bildaufnahmevorrichtung 4 eine Sichtkamera (vision camera) mit einem Sichtchip (vision chip), der von der Aufnahme eines Bildes des von der Messlinie ML reflektierten Lichts L2 bis zur Bildverarbeitung arbeitet. Die Bildaufnahmevorrichtung 4 nimmt sequenziell Bilder des reflektierten Lichts L2, das von der Messlinie ML reflektiert wird, mit einer vorbestimmten Bildfrequenz in Bezug auf die jeweiligen Positionen der Oberfläche 2a entlang der Richtung D1 auf und führt die Verarbeitung der aus der Bildaufnahme gewonnenen Signale durch. Die Bildaufnahmevorrichtung 4 umfasst eine Lichtempfangseinheit 10, auf die das reflektierte Licht L2, das von der Messlinie ML reflektiert wird, einfällt, und eine Signalverarbeitungseinheit 30, die die Signale, die aus der Lichtempfangseinheit 10 ausgegeben werden, in Übereinstimmung mit dem Einfall des reflektierten Lichts L2 verarbeitet. Die Lichtempfangseinheit 10 ist in einer Neigungsrichtung Db vorgesehen, die von der Messlinie ML mit Bezug auf eine Bestrahlungsrichtung Da des Laserlichts L1 in Richtung der Messlinie ML geneigt ist. Die Neigungsrichtung Db ist mit Bezug auf die Bestrahlungsrichtung Da in einer Richtung, mit Ausnahme der Richtung D2, entlang der Messlinie ML geneigt. In dieser Ausführungsform ist die Neigungsrichtung Db mit Bezug auf die Bestrahlungsrichtung Da in der Richtung D1, die die Messlinie ML schneidet, geneigt. Das reflektierte Licht L2, das an der Messlinie ML reflektiert wird, trifft aus der Neigungsrichtung Db auf die Lichtempfangseinheit 10.
  • Im Nachfolgenden wird die Konfiguration der Bildaufnahmevorrichtung 4 ausführlich mit Bezug auf 2 bis 4 beschrieben. 2 zeigt ein schematisches Konfigurationsdiagramm, das die Bildaufnahmevorrichtung 4 darstellt. In 2 ist ein Einfallsbereich des reflektierten Lichts L2 in der Lichtempfangseinheit 10 schraffiert dargestellt. Die Lichtempfangseinheit 10 umfasst eine Vielzahl von Pixelpaaren 11, die entlang einer X-Richtung (erste Richtung) angeordnet sind. Die X-Richtung ist eine Richtung, die die Bestrahlungsrichtung Da schneidet und stimmt mit der Richtung D2 überein, in die sich die Messlinie ML gemäß einem Beispiel erstreckt (siehe 1). Jedes der Vielzahl von Pixelpaaren 11 umfasst ein erstes Pixel 12 und ein zweites Pixel 13, die abwechselnd nebeneinander entlang der X-Richtung angeordnet sind. Beispielsweise weist sowohl das erste Pixel 12 als auch das zweite Pixel 13 eine rechteckige Form auf, bei der eine die X-Richtung schneidende Y-Richtung (zweite Richtung) als Längsrichtung festgelegt ist. Die Y-Richtung ist eine Richtung entlang der Bestrahlungsrichtung Da und entspricht der Richtung D1, die in einem Beispiel die Messlinie ML schneidet. Im Nachfolgenden werden mehrere der ersten Pixel 12 und mehrere der zweiten Pixel 13 gemeinsam als eine Vielzahl von Pixel P1 bis PN bezeichnet (N ist eine ganze Zahl von zwei oder mehr und stellt die Anzahl der Pixel dar). Die Pixel P1 , P3 , ... und PN-1 , denen ungerade Zahlen zugeordnet sind, entsprechen den ersten Pixeln 12, und die Pixel P2 , P4 , ..., und PN , denen gerade Zahlen zugeordnet sind, entsprechen jeweils den zweiten Pixeln 13.
  • Die Pixel P1 bis PN erzeugen jeweils Ladungssignale Dx1 bis DxN , die den Lichteinfallsmengen des reflektierten Lichts L1, das auftrifft, entsprechen. Insbesondere, wenn das reflektierte Licht L2 auf die ersten Pixel 12 trifft, erzeugen die ersten Pixel P1 , P3 , ... und PN-1 Ladungssignale Dx1 , Dx3 , ... und DxN-1 (erste elektrische Signale) entsprechend den Lichteinfallsmengen des reflektierten Lichts L2. In ähnlicher Weise, wenn das reflektierte Licht L2 auf die zweiten Pixel P2 , P4 , ... und PN trifft, erzeugen die zweiten Pixel P2 , P4 , ... und PN Ladungssignale Dx2 , Dx4 , ... und DxN (zweite elektrische Signale) entsprechend den Lichteinfallsmengen des reflektierten Lichts L2. Die Pixel P1 bis PN geben die Ladungssignale Dx1 bis DxN zur Seite des anderen Endes 10b in der Y-Richtung aus.
  • Die Lichtempfangseinheit 10 umfasst ferner mehrere erste Übertragungsfilter 14, die jeweils auf der Vielzahl der ersten Pixel 12 angeordnet sind, und mehrere zweite Übertragungsfilter 15, die jeweils auf der Vielzahl der zweiten Pixel 13 angeordnet sind. 3 zeigt eine Draufsicht der Übertragungsfilter. 4 zeigt eine Querschnittsansicht entlang einer Linie IV-IV in 2. Jeder der ersten Übertragungsfilter 14 ist ein Filter, durch den das reflektierte Licht L2, das auf den ersten Übertragungsfilter 14 einfällt, übertragen wird und der das erste Pixel 12 bedeckt. In ähnlicher Weise ist jeder der zweiten Übertragungsfilter 15 ein Filter, durch den das reflektierte Licht L2, das auf den zweiten Übertragungsfilter 15 einfällt, übertragen wird und der das zweite Pixel 13 bedeckt. Der erste Übertragungsfilter 14 und der zweite Übertragungsfilter 15 weisen eine rechteckige Form auf, bei der die Y-Richtung als eine Längsrichtung festgelegt ist, wie im ersten Pixel 12 und im zweiten Pixel 13, und die abwechselnd nebeneinander entlang der X-Richtung angeordnet sind.
  • In 2 und 3 ist die Durchlässigkeit des ersten Übertragungsfilters 14 und des zweiten Übertragungsfilters 15 in Farbschattierungen ausgedrückt. Je höher die Durchlässigkeit der Übertragungsfilter ist, desto dünner sind die Schattierungen, und je geringer die Durchlässigkeit der Übertragungsfilter ist, desto dunkler sind die Schattierungen. Wie in 2 gezeigt, nimmt die Durchlässigkeit des ersten Übertragungsfilters 14 allmählich ab (d. h., sie nimmt monoton ab), je näher er sich am einen Ende 10a der Lichtempfangseinheit 10 in der Y-Richtung befindet, und nimmt allmählich zu (d. h., sie nimmt monoton zu), je näher er sich am anderen Ende 10b der Lichtempfangseinheit 10 auf dem ersten Pixel 12 befindet. Die Durchlässigkeit des ersten Übertragungsfilters 14 kann schrittweise abnehmen, je näher er sich an dem einen Ende 10a befindet, und kann stufenweise zunehmen, je näher es sich am anderen Ende 10b auf dem ersten Pixel 12 befindet.
  • Wie zuvor beschrieben, nimmt eine Lichteinfallsmenge des reflektierten Lichts L2, das durch den ersten Übertragungsfilter 14 mit der zuvor beschriebenen Durchlässigkeit läuft und auf das erste Pixel 12 einfällt, allmählich ab (oder nimmt schrittweise ab), je näher die Einfallsposition des reflektierten Lichts L2 an dem einen Ende 10a liegt, und nimmt allmählich zu (oder nimmt schrittweise zu), je näher die Einfallsposition an dem anderen Ende 10b liegt. Dementsprechend nehmen auch die Intensitäten der in den ersten Pixeln 12 erzeugten Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, allmählich ab (oder nehmen schrittweise ab), je näher die Einfallsposition an einem Ende 10a liegt, und nehmen allmählich zu (oder nehmen schrittweise zu), je näher die Einfallsposition an dem anderen Ende 10b liegt.
  • Im Gegensatz dazu nimmt die Durchlässigkeit des zweiten Übertragungsfilters 15 allmählich zu (oder nimmt schrittweise zu), je näher er dem einen Ende 10a kommt, und nimmt allmählich ab (oder nimmt stufenweise ab), je näher er dem anderen Ende 10b auf dem zweiten Pixel 13 kommt. Eine Lichteinfallsmenge des reflektierten Lichts, das durch den zweiten Übertragungsfilter 15 mit der zuvor beschriebenen Durchlässigkeit übertragen wird und auf das zweite Pixel 13 einfällt, nimmt allmählich zu (oder nimmt stufenweise zu), je näher die Einfallsposition des reflektierten Lichts L2 an dem einen Ende 10a liegt, und nimmt allmählich ab (oder nimmt stufenweise ab), je näher die Einfallsposition am anderen Ende 10b liegt. Dementsprechend nehmen die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13 erzeugt werden, ebenfalls allmählich zu (oder nehmen schrittweise zu), je näher die Einfallsposition dem einen Ende 10a kommt, und nehmen auch allmählich ab (oder nehmen schrittweise ab), je näher die Einfallsposition dem anderen Ende 10b kommt. Eine Zunahmerichtung oder eine Abnahmerichtung der Durchlässigkeit in der Y-Achsenrichtung wird zwischen dem ersten Übertragungsfilter 14 und dem zweiten Übertragungsfilter 15 umgekehrt.
  • Die Signalverarbeitungseinheit 30 ist auf der Seite des anderen Endes 10b (Ausgabeseite) in der Y-Richtung mit Bezug auf die Pixel P1 bis PN vorgesehen. Die Signalverarbeitungseinheit 10 liest die Ladungssignal Dx1 bis DxN für jedes Pixel P1 bis PN aus und erfasst die Einfassposition des reflektierten Lichts L2 für jedes Pixelpaar 11 in der Lichtempfangseinheit 10 auf der Grundlage der Ladungssignale Dx1 bis DxN die ausgelesen werden. Ein Auslesetyp der Ladungssignale Dx1 bis DxN durch die Signalverarbeitungseinheit 30 ist beispielsweise ein Rolling-Shutter-Typ. Das heißt, die Signalverarbeitungseinheit 30 führt sequenziell das Auslesen der Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN und das Verwerfen (Zurücksetzen) der in den Pixeln P1 bis PN angesammelten Ladungen in einer Pixeleinheit aus. Der Auslesetyp der Ladungssignale Dx1 bis DxN durch die Signalverarbeitungseinheit 30 kann ein Global-Shutter-Typ sein. In diesem Fall liest die Signalverarbeitungseinheit 30 die Ladungssignale Dx1 bis DxN für jede Bildfrequenz aus und führt ein Zurücksetzen der Ladungen aller Pixel P1 bis PN durch.
  • Die Signalverarbeitungseinheit 30 umfasst eine Vielzahl von Schaltelementen 31, ein Schieberegister 32, einen Verstärker 33, einen A/D-Wandler 34 und eine Berechnungseinheit 35. Eingangsanschlüsse der Schaltelemente 31 sind elektrisch mit den jeweiligen Pixeln P1 bis PN verbunden. Das Schieberegister 32 ist vorgesehen, um sequenziell die Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN auszulesen. Das Schieberegister 32 gibt ein Steuersignal zur Steuerung einer Operation der Schaltelemente 31 aus. Die Schaltelemente 31 werden durch das Steuersignal, das aus dem Schieberegister 32 ausgegeben wird, sequenziell geschlossen. Wenn die Schaltelemente 31 sequenziell geschlossen werden, werden die Ladungssignale Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, sequenziell aus den Ausgangsanschlüssen der Schaltelemente 31 ausgegeben. Der Verstärker 33 ist elektrisch mit den Ausgangsanschlüssen der Schaltelemente 31 verbunden und gibt einen Spannungswert, der den Ladungssignalen Dx1 bis DxN entspricht, die aus den Ausgangsanschlüssen der Schaltelemente 31 ausgegeben werden, aus. Der A/D-Wandler 34 ist elektrisch mit dem Verstärker 33 verbunden, wandelt die Spannungssignale, die aus dem Verstärker 33 ausgegeben werden, in digitale Werte um und gibt die digitalen Werte aus. Die digitalen Werte sind Werte, die den Intensitäten der Ladungssignale Dx1 bis DxN entsprechen. Dementsprechend erfolgt im nachfolgenden eine Beschreibung in einem Zustand, in dem die digitalen Werte mit den Intensitäten der Ladungssignale Dx1 bis DxN ausgetauscht sind.
  • Die Berechnungseinheit 35 ist elektrisch mit dem A/D-Wandler 34 verbunden und erfasst die digitalen Werte, die aus dem A/D-Wandler 34 ausgegeben werden, d. h., die digitalen Werte, die den Ladungssignalen Dx1 bis DxN eines jeden Pixelpaars 11 entsprechen. Dementsprechend kann die Berechnungseinheit 35 die Positionskoordinaten der Pixelpaare 11 erfassen, die die Ladungssignale Dx1 bis DxN in der X-Richtung für jedes Pixelpaar 11 als Positionsinformationen Lx ausgeben, die die Einfallsposition des reflektierten Lichts L2 in der X-Achsenrichtung angibt. Wenn hierbei das erste Pixel 12 und das zweite Pixel 13 eines r-ten Pixelpaars 11 jeweils als P2r-1 und P2r festgelegt werden (r = 1, 2, ... R, wobei R die Anzahl der Pixelpaare 11 darstellt), und die Positionsinformationen Lx in dem r-ten Pixelpaar 11 als Lxr festgelegt werden, wird eine Positionskoordinate des r-ten Pixelpaars 11 in der X-Richtung, d. h. die Positionsinformationen Lxr beispielsweise durch einen Mittelwert (x2r-1+x2r)/2 der Summe einer Positionskoordinate X2r-1 des ersten Pixels P2r-1 in der X-Richtung und einer Positionskoordinate x2r des zweiten Pixels P2r in der X-Richtung ausgedrückt (siehe den nachfolgenden Ausdruck (1)).
  • Die Berechnungseinheit 35 berechnet die Positionsinformationen Ly, die eine Einfallsposition des reflektierten Lichts L2 in der Y-Richtung ist, für jedes Pixelpaar 11 auf der Grundlage der Intensitäten der Ladungssignale Dx1 bis DxN , die für jedes Pixelpaar 11 erfasst werden. Wie zuvor beschrieben, nehmen die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 ab, je näher sich die Einfallsposition des reflektierten Lichts L2 an dem einen Ende 10a der Lichtempfangseinheit 10 befindet, und die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN nehmen zu, je näher sich die Einfallsposition des reflektierten Lichts L2 an dem einen Ende 10a befindet. Die Berechnungseinheit 35 berechnet die Positionsinformationen Ly für jedes Pixelpaar 11 unter Verwendung einer Abweichung in den Intensitäten der Ladungssignale Dx1 bis DxN mit Bezug auf die Einfallsposition des reflektierten Lichts L2, und unter Verwendung eines Verhältnisses zwischen den Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 und den Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN .
  • Wenn hierin die Positionsinformationen Ly in dem r-ten Pixelpaar 11 als Lyr festgelegt werden und die Ladungssignale, die aus dem ersten Pixel P2r-1 und dem zweiten Pixel P2r ausgegeben werden, als Dx2r-1, und Dx2r festgelegt werden, werden die Positionsinformationen Lyr durch Bestimmen eines Verhältnisses zwischen der Intensität des Ladungssignals Dx2r-1, und der Intensität des Ladungssignals Dx2r berechnet. Dementsprechend werden die Positionsinformationen Lxr und die Positionsinformationen Lyr durch den nachfolgenden Ausdruck (1) ausgedrückt.
    [Mathematische Formel 1] ( L x r , L y r ) = ( x 1 + x 2 2 , D x 2 D x 1 ) , ( x 3 + x 4 2 , D x 4 D x 3 ) , ( x 2 R 1 + x 2 R 2 , D x 2 R D x 2 R 1 )
    Figure DE112018005337T5_0001
  • Die Positionsinformationen Lyr können durch Bestimmen eines Verhältnisses zwischen der Intensität des Ladungssignals Dx2r (oder der Intensität des Ladungssignals Dx2r-1 ) und einem Gesamtwert der Intensität des Ladungssignals Dx2r-1 , und des Ladungssignals Dx2r berechnet werden. In diesem Fall werden die Positionsinformationen Lxr und die Positionsinformationen Lyr durch den nachfolgenden Ausdruck (2) ausgedrückt.
    [Mathematische Formel 2] ( L x r , L y r ) = ( x 1 + x 2 2 , D x 2 D x 1 + D x 2 ) , ( x 3 + x 4 2 , D x 4 D x 3 + D x 4 ) , ( x 2 R 1 + x 2 R 2 , D x 2 R D x 2 R 1 + D x 2 R )
    Figure DE112018005337T5_0002
  • In Ausdruck (1) oder Ausdruck (2) können die Positionsinformationen Lxr durch die Positionskoordinate x2r-1 des ersten Pixels P2r-1 in der X-Richtung ausgedrückt werden. In diesem Fall werden die Positionsinformationen Lxr und die Positionsinformationen Lyr durch den nachfolgenden Ausdruck (3) oder den nachfolgenden Ausdruck (4) ausgedrückt. Darüber hinaus können die Positionsinformationen Lxr durch die Positionskoordinate x2r des zweiten Pixels P2r in der X-Richtung ausgedrückt werden.
    [Mathematische Formel 3] ( L x r , L y r ) = ( x 1 , D x 2 D x 1 ) , ( x 3 , D x 4 D x 3 ) , ( x 2 R 1 , D x 2 R D x 2 R 1 )
    Figure DE112018005337T5_0003

    [Mathematische Formel 4] ( L x r , L y r ) = ( x 1 , D x 2 D x 1 D x 2 ) , ( x 3 , D x 4 D x 3 + D x 4 ) , ( x 2 R 1 , D x 2 R D x 2 R 1 + D x 2 R )
    Figure DE112018005337T5_0004
  • Die Berechnungseinheit 35 berechnet die zweidimensionalen Positionsinformationen der entsprechenden Positionen auf der Messlinie ML der Oberfläche 2a des Objekts 2 auf der Grundlage der Positionsinformationen Lxr und der Positionsinformationen Lyr, die wie zuvor beschrieben, erhalten werden. Insbesondere berechnet die Berechnungseinheit 35 die zweidimensionalen Positionsinformationen einer jeden Position auf der Messlinie ML, indem sie die Positionsinformationen Lxr jedes der Pixelpaare 11 jeder Position auf der Messlinie ML in Richtung D2 zuordnet und die Positionsinformationen Lyr des Pixelpaares 11 einer Höhe der Position auf der Messlinie ML von der Anordnungsfläche S aus zuordnet. Zusätzlich berechnet die Berechnungseinheit 35 die zweidimensionalen Informationen der Messlinie ML an jede Position der Oberfläche 2a entlang der Richtung D1 gemäß der Bewegung des Objekts 2 in Richtung D1. Dementsprechend ist es möglich, eine dreidimensionale Form der Oberfläche 2a des Objekts 2 zu messen.
  • Im Nachfolgenden folgt eine Beschreibung eines Effekts, der durch den Formmesssensor 1 gemäß dieser Ausführungsform erzielt wird. Bei dem Formmesssensor 1 wird das Laserlicht L1 von der Lichtquelle 3 auf die Messlinie ML der Oberfläche 2a des Objekts 2 reflektiert, und das reflektierte Licht L2, das reflektiert wird, trifft auf die Lichtempfangseinheit 10. Wenn das reflektierte Licht L2 auf das erste Pixel P2r-1 trifft, wird das Ladungssignal Dx2r-1 , entsprechend einer Lichteinfallsmenge des reflektierten Lichts L2 aus dem ersten Pixel P2r-1 erzeugt. In ähnlicher Weise, wenn das reflektierte Licht L2 auf das zweite Pixel P2r trifft, wird das Ladungssignal Dx2r entsprechend der Lichteinfallsmenge des reflektierten Lichts L2 aus dem zweiten Pixel P2r erzeugt. Die Berechnungseinheit 35 erfasst das erzeugte Ladungssignal Dx2r-1 und das Ladungssignal Dx2r für jedes Pixelpaar 11, um die Positionsinformationen Lxr, die die Einfallsposition des reflektierten Lichts L2 in der X-Richtung für jedes Pixelpaar 11 angeben, zu erfassen. Darüber hinaus berechnet die Berechnungseinheit 35 die Positionsinformationen Lyr, die die Einfallsposition in der Y-Richtung für jedes Pixelpaar 11 angeben, indem eine Beziehung zwischen der Einfallsposition des reflektierten Lichts L2 in der Y-Richtung und der Intensitäten des Ladungssignals Dx2r-1 und des Ladungssignal Dx2r verwendet wird. Auf diese Weise werden die Positionsinformationen Lxr und die Positionsinformationen Lyr, die die Einfallspositionen des reflektierten Lichts L2 in der Lichtempfangseinheit 10 angeben, für jedes Pixelpaar 11 erfasst. Darüber hinaus werden die zweidimensionalen Positionsinformationen einer jeden Position auf der Messlinie ML auf der Grundlage der Positionsinformationen Lxr und der Positionsinformationen Lyr berechnet, das Objekt 2 in die Richtung D1 bewegt und die dreidimensionale Form der Oberfläche 2a des Objekts 2 gemessen. Bei dem Formmesssensor 1 gemäß dieser Ausführungsform ist es möglich, die Positionsinformationen Lyr, die die Einfallsposition in der Y-Richtung anzeigen, zusätzlich zu den Positionsinformationen Lxr, die die Einfallsposition in der X-Richtung anzeigen, für jedes Pixelpaar 11 mit nur dem Ladungssignal Dx2r-1 , und dem Ladungssignal Dx2r , die von jedem Pixelpaar 11 erzeugt werden, zu erfassen. Das heißt, es ist möglich, die zweidimensionalen Informationen der Einfallsposition des reflektierten Lichts L2 zu erfassen, ohne separat ein Ladungssignal für die Erfassungspositionsinformationen zu erzeugen, die die Einfallsposition in der Y-Richtung angeben. Dementsprechend ist es möglich, eine Zunahme der Anzahl der Ladungssignale zu unterdrücken, und es ist möglich, den Zeitaufwand, der zum Auslesen der Ladungssignale benötigt wird, zu verkürzen. Dementsprechend ist es gemäß dem Formmesssensor 1 möglich, die Einfallsposition des reflektierten Lichts L2 in der Lichtempfangseinheit 10 mit hoher Geschwindigkeit zu erfassen. Folglich ist es möglich, die dreidimensionale Form der Oberfläche 2a des Objekts 2 mit hoher Geschwindigkeit zu messen, und es ist möglich, eine Verringerung der Messzeit sowie eine hohe Genauigkeit der Messergebnisse zu realisieren.
  • In dem Formmesssensor 1 berechnet die Berechnungseinheit 35 die Positionsinformationen Lyr, die die Einfallsposition in der Y-Richtung angeben, für jedes Pixelpaar 11 unter Verwendung eines Verhältnisses zwischen der Intensität des Ladungssignals Dx2r-1 , und der Intensität des Ladungssignals Dx2r . In diesem Fall ist es möglich, die Positionsinformationen Lyr anhand eines einfachen Berechnungsverfahrens zu berechnen, und somit ist es möglich, die Positionsinformationen Lxr und die Positionsinformationen Lyr, die die Einfallsposition des reflektierten Lichts L2 angeben, mit hoher Geschwindigkeit zu erfassen.
  • In dem Formmesssensor 1 kann die Berechnungseinheit 35 die Positionsinformationen Lyr für jedes Pixelpaar 11 unter Verwendung eines Verhältnisses zwischen der Intensität des Ladungssignals Dx2r-1 , oder Dx2r und einem Gesamtwert des Ladungssignals Dx2r-1 , oder Dx2r berechnen. Auf diese Weise ist es möglich, wenn die Intensität des Ladungssignals Dx2r-1 oder Dx2r durch einen Gesamtwert der Intensität des Ladungssignals Dx2r-1 , oder Dx2r normiert wird, eine Schwankung der Intensitäten der Ladungssignale Dx2r-1 , und Dx2r u kompensieren. Dementsprechend ist es möglich, die Positionsinformationen Lxr und die Positionsinformationen Lyr genau zu erfassen.
  • In dem Formmesssensor 1 bestrahlt die Lichtquelle 3 die entsprechenden Positionen auf der Messlinie ML mit dem linienförmigen Laserlicht L1. In diesem Fall kann, wie zuvor beschrieben, die Berechnungseinheit 35 in geeigneter Weise die zweidimensionalen Positionsinformationen der entsprechenden Positionen auf der Messlinie ML berechnen, in die entsprechenden Positionen auf der Messlinie ML den Positionskoordinaten der Pixelpaare 11 in der X-Richtung zugeordnet werden.
  • [Erstes Modifikationsbeispiel]
  • 5 zeigt ein schematisches Konfigurationsdiagramm einer Bildaufnahmevorrichtung 4A gemäß einem ersten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt in der Konfiguration der Signalverarbeitungseinheit der Bildaufnahmevorrichtung. In der Signalverarbeitungseinheit 30A gemäß diesem Modifikationsbeispiel ist kein Schieberegister 32 zum sequenziellen Auslesen der Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN vorgesehen, und der Verstärker 33 ist für jedes Pixelpaar 11 vorgesehen. Der Verstärker 33 umfasst zwei Eingangsanschlüsse, die elektrisch mit dem ersten Pixel 12 und dem zweiten Pixel 13 jedes Pixelpaars 11 verbunden sind. Das Ladungssignal Dx1 , Dx3 , ... oder DxN-1 (d. h., das Ladungssignal Dx2r-1 , das im ersten Pixel 12 erzeugt wird, und das Ladungssignal Dx2 , Dx4 , ... oder DxN (d. h., das Ladungssignal Dx2r ), das im zweiten Pixel 13 erzeugt wird, werden jeweils in die Eingangsanschlüsse des Verstärkers 33 eingegeben. Der Verstärker 33 gibt einen Wert, der ein Verhältnis zwischen dem Ladungssignal Dx2r-1 , und dem Ladungssignal Dx2r in jedem Pixelpaar 11 angibt, an die Berechnungseinheit 35 aus. Die Berechnungseinheit 35 erfasst die Werte für jedes Pixelpaar 11, und somit können die Positionskoordinaten, die den Werten entsprechen, der Pixelpaare 11 in der X-Richtung für jedes Pixelpaar 11 als die Positionsinformationen Lxr erfasst werden, und die Werte für jedes der Pixelpaare 11 als Positionsinformationen Lyr erhalten werden. Auf diese Weise erfasst die Berechnungseinheit 35 die Positionsinformationen Lxr und die Positionsinformationen Lyr, die durch den Ausdruck (1) oder den Ausdruck (3) ausgedrückt werden.
  • In diesem Modifikationsbeispiel kann die Berechnungseinheit 35 auch die Positionsinformationen Lxr und die Positionsinformationen Lyr, die durch den Ausdruck (2) oder den Ausdruck (4) ausgedrückt werden, erfassen. In diesem Fall ist ein Addierer an einer Verbindungsleitung zwischen einem Eingangsanschluss eines jeden Verstärkers 33 und jedem Pixelpaar 11 vorgesehen. Der Addierer umfasst zwei Eingangsanschlüsse, die elektrisch jeweils mit dem ersten Pixel 12 und dem zweiten Pixel 13 verbunden sind, und einen Ausgangsanschluss, der elektrisch mit dem einen Eingangsanschluss des Verstärkers 33 verbunden ist. Der Addierer berechnet einen Gesamtwert des Ladungssignals Dx2r-1 , und des Ladungssignals Dx2r , die aus dem ersten Pixel 12 und dem zweiten Pixel 13 erzeugt werden, und gibt den berechneten Gesamtwert an den einen Eingangsanschluss des Verstärkers 33 aus. Der Verstärker 33 gibt ein Verhältnis zwischen dem Ladungssignal Dx2r-1 (oder dem Ladungssignal Dx2r ), das von dem anderen Eingangsanschluss des Verstärkers 33 eingegeben wird, und dem Gesamtwert, der aus dem Addierer ausgegeben wird, in die Berechnungseinheit 35 ein. Gemäß dieser Konfiguration kann die Berechnungseinheit 35 die Positionsinformationen Lxr und die Positionsinformationen Lyr anhand des Ausdrucks (2) oder des Ausdrucks (4) erfassen. Gemäß der Bildaufnahmevorrichtung 4A gemäß diesem Modifikationsbeispiel können die Positionsinformationen Lxr und die Positionsinformationen Lyr wie in der Ausführungsform erfasst werden, und somit ist es möglich, die gleichen Effekte wie in der Ausführungsform zu erzielen. Darüber hinaus ist es gemäß der Bildaufnahmevorrichtung 4A gemäß diesem Modifikationsbeispiel nicht erforderlich, das sequentielle Auslesen der Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN anders als bei der Ausführungsform durchzuführen, und somit ist es möglich, gleichzeitig die Positionsinformationen der entsprechenden Positionen auf der Messlinie ML der Oberfläche 2a des Objekts 2 zu erfassen. Dementsprechend ist es möglich, die Oberflächenform des Objekts 2 in Echtzeit zu messen.
  • [Zweites Modifikationsbeispiel]
  • 6 zeigt ein schematisches Konfigurationsdiagramm, das einen Formmesssensor 1A mit einer Bildaufnahmevorrichtung 4B gemäß einem zweiten Modifikationsbeispiel darstellt. Bei dem Formmesssensor 1A bestrahlt die Lichtquelle 3 jeweilige Positionen auf der Messlinie ML der Oberfläche 2a des Objekts 2 mit einem punktförmigen Laserlicht L1, und der Verfahrtisch, auf dem sich das Objekt 2 befindet, bewegt sich entlang der Richtung D2 entlang der Messlinie ML der Oberfläche 2a. Dementsprechend bewegt sich das Objekt relativ zur Lichtquelle 3 und zur Bildaufnahmevorrichtung 4B entlang der Richtung D2. Die Lichtquelle 3 bestrahlt nacheinander die entsprechenden Positionen auf der Messlinie ML mit dem Laserlicht L1 entsprechend der Bewegung des Objekts 2 in Richtung D2. Nach der Durchführung der Bestrahlung aller Positionen auf der Messlinie ML mit dem Laserlicht L1 bewegt sich der Verfahrtisch entlang der Richtung D1, wird die Bestrahlung der Messlinie ML mit dem Laserlicht L1 an aufeinanderfolgenden Positionen der Oberfläche 2a entlang der Richtung D1 durchgeführt und der zuvor beschriebene Prozess wiederholt. Die Bildaufnahmevorrichtung 4B nimmt der Reihe nach Bilder des reflektierten Lichts L2 auf, das von entsprechenden Positionen auf der Messlinie ML der Oberfläche 2a reflektiert wird. In dem Formmesssensor 1A wird vorzugsweise ein Durchmesser des Laserlichts L1, das von der Lichtquelle 3 emittiert wird, so eingestellt, dass ein Durchmesser des reflektierten Lichts L2, das auf der Lichtempfangseinheit 10 auftrifft, kleiner wird als eine Breite eines jeden Pixelpaares 11 in der X-Richtung, wobei es jedoch keine Begrenzung dafür gibt.
  • 7 zeigt ein schematisches Konfigurationsdiagramm der Bildaufnahmevorrichtung 4B gemäß diesem Modifikationsbeispiel. In der Signalverarbeitungseinheit 30B dieses Modifikationsbeispiels ist kein Schieberegister 32 zum sequenziellen Auslesen der Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN vorgesehen, und es sind ein Verstärker 33A, der elektrisch mit jedem der ersten Pixel 12 verbunden ist, und ein Verstärker 33B, der elektrisch mit jedem der zweiten Pixel 13 verbunden ist, vorgesehen. In der Lichtaufnahmeeinheit 10 trifft das reflektierte Licht L2, das in den entsprechenden Positionen auf der Messlinie ML reflektiert wird, der Reihe nach auf jedes Pixelpaar 11. Dementsprechend werden die Ladungssignale Dx1 , Dx3 , ... und Dx2r-1 , die in den ersten Pixeln 12 der Pixelpaare 11 erzeugt werden, der Reihe nach in den Verstärker 33A eingegeben, und die Ladungssignale Dx2 , Dx4 , ... und Dx2r , die in den zweiten Pixeln 13 erzeugt werden, werden der Reihe nach in den Verstärker 33B eingegeben. Der Verstärker 33A gibt nacheinander Spannungswerte entsprechend den Intensitäten der Ladungssignale Dx1 , Dx3 , ... und Dx2r-1 über den AD-Wandler 34 in die Berechnungseinheit 35 ein. Der Verstärker 33B gibt nacheinander Spannungswerte entsprechend der Intensitäten der Ladungssignale Dx2 , Dx4 , ... und Dx2r über den A/D-Wandler 34 in die Berechnungseinheit 35 ein.
  • Die Berechnungseinheit 35 erfasst das Ladungssignal Dx2r-1 und das Ladungssignal Dx2r für jedes Pixelpaar 11, indem sie das Ladungssignal Dx2r-1 und das Ladungssignal Dx2r , die von den Verstärkern 33A und 33B ausgegeben werden, mit der Zeit verknüpft, zu der das reflektierte Licht L2 auf jedes Pixelpaar 11 einfällt. Insbesondere, wenn die Einfallszeit auf einen r-tes Pixelpaar 11 als tr festgelegt wird, erfasst die Berechnungseinheit 35 die Zeitinformationen tr für jedes der Pixelpaare 11 als Positionsinformationen Lxr, indem sie eine Positionskoordinate des Pixelpaares 11, von der das Ladungssignal Dx2r-1 , und das Ladungssignal Dx2r ausgegeben wird, in X-Richtung mit der Zeitinformationen tr verknüpft. Zusätzlich berechnet die Berechnungseinheit 35, wie in der Ausführungsform, die Positionsinformation Lyr für jedes Pixelpaar 11 auf der Grundlage der Intensitäten der Ladungssignale Dx2r-1 , und Dx2r , die für jedes Pixelpaar 11 erfasst werden. Dementsprechend werden in diesem Modifikationsbeispiel die Positionsinformation Lxr und die Positionsinformation Lyr durch den nachfolgenden Ausdruck (5) oder den Ausdruck (6) ausgedrückt.
    [Mathematische Formel 5] ( L x r , L y r ) = ( t 1 , D x 2 D x 1 ) , ( t 2 , D x 4 D x 3 ) , ( t R , D x 2 R D x 2 R 1 )
    Figure DE112018005337T5_0005

    [Mathematische Formel 6] ( L x r , L y r ) = ( t 1 , D x 2 D x 1 + D x 2 ) , ( t 2 , D x 4 D x 3 + D x 4 ) , ( t R , D x 2 R D x 2 R 1 + D x 2 R )
    Figure DE112018005337T5_0006
  • [Drittes Modifikationsbeispiel]
  • 8 zeigt ein schematisches Konfigurationsdiagramm einer Bildaufnahmevorrichtung 4C gemäß einem dritten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass die Formen der Pixel P1 bis PN verschieden sind und kein erster Übertragungsfilter 14 und kein zweiter Übertragungsfilter 15 vorgesehen sind. In einer Lichtaufnahmeeinheit 10A dieses Modifikationsbeispiels nimmt eine Breite eines ersten Pixels 12A in der X-Richtung allmählich ab, je näher es am Ende 10a liegt, und nimmt allmählich zu, je näher es zum anderen Ende 10b liegt. In einem Beispiel weist das erste Pixel 12A eine gleichschenklige Dreiecksform auf, die sich in Richtung des einen Endes 10a in der Y-Richtung verjüngt. Im Gegensatz dazu nimmt eine Breite eines zweiten Pixels 13A in der X-Richtung allmählich zu, je näher es am einen Ende 10a liegt, und nimmt allmählich ab, je näher es am anderen Ende 10b liegt. In einem Beispiel weist das zweite Pixel 13A einen gleichschenklige Dreiecksform auf, die sich in Richtung des anderen Endes 10b in der Y-Richtung verjüngt.
  • Wenn die Lichtaufnahmeeinheit 10A die Pixel P1 bis PN mit der zuvor beschriebenen Form umfasst, nimmt mit zunehmender Nähe des Einfallswinkels des reflektierten Lichts L2 im ersten Pixel 12A zum einen Ende 10a eine Lichteinfallsmenge des reflektierten Lichts L2, das auf die ersten Pixel 12A einfällt, ab und dementsprechend nehmen die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12A erzeugt werden, ebenfalls ab. Wenn im Gegensatz dazu die Einfallsposition des reflektierten Lichts L2 im zweiten Pixel 13A dem einen Ende 10a näher kommt, nimmt eine Lichteinfallsmenge des reflektierten Lichts L2, das auf die zweiten Pixel 13A trifft, zu und dementsprechend nehmen die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13A erzeugt werden, ebenfalls zu. Selbst in einem Fall, in dem die Pixel P1 bis PN die zuvor beschriebene Form aufweisen, ist es möglich, die Positionsinformationen Lxr und die Positionsinformationen Lyr, so wie in der Ausführungsform, zu erfassen, und somit ist es möglich, die gleiche Wirkung wie in der Ausführungsform zu erzielen.
  • Die Form und die Anordnung der Pixel P1 bis PN sind nicht auf die zuvor beschriebene Form beschränkt. 9 bis 13 zeigen weitere Beispiele der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. 9 zeigt ein schematisches Konfigurationsdiagramm eines weiteren Beispiels der Form der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. In dem in 9 gezeigten Beispiel weist ein erstes Pixel 12B eine rechtwinklige Dreiecksform auf, die sich zum einen Ende 10a der Lichtempfangseinheit 10B in Y-Richtung verjüngt. Andererseits weist ein zweites Pixel 13B eine rechtwinklige Dreiecksform auf, die sich in Richtung des anderen Endes der Lichtempfangseinheit 10B in Y-Richtung verjüngt. Äußere Kanten der ersten Pixel 12B und der zweiten Pixel 13B, die an einer Grenze der Pixelpaare 11B angeordnet sind, sind in Bezug auf die Y-Richtung nicht geneigt und erstrecken sich entlang der Y-Richtung.
  • Es ist nicht erforderlich, dass die Anordnung der Pixel P1 bis PN in X-Richtung eine Anordnung ist, bei der das erste Pixel 12B und das zweite Pixel 13B abwechselnd parallel angeordnet sind und die Anordnung kann eine andere Anordnung sein. 10 zeigt ein schematisches Konfigurationsdiagramm eines noch weiteren Beispiels der Anordnung der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. In dem in 10 gezeigten Beispiel sind gerade Linien, die den rechten Winkel eines jeden ersten Pixels 12B bilden, so angeordnet, dass sie sich in X-Richtung gegenüberliegen. In ähnlicher Weise sind die geraden Linien, die den rechten Winkel eines jeden der zweiten Pixel 13B bilden, so angeordnet, dass sie sich in X-Richtung gegenüberliegen.
  • 11 zeigt ein schematisches Konfigurationsdiagramm eines noch weiteren Beispiels der Form der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. In dem in 11 gezeigten Beispiel nimmt eine Breite eines ersten Pixels 12C in der X-Richtung stufenweise ab (in einer Stufenform), je näher es am einen Ende 10a einer Lichtempfangseinheit 10C in Y-Achsenrichtung liegt, und nimmt stufenweise zu (in einer Stufenform), je näher es am anderen Ende 10b der Lichtempfangseinheit 10C in Y-Richtung liegt. Andererseits nimmt eine Breite eines zweiten Pixels 13C in der X-Richtung stufenweise zu (in einer Stufenform), je näher es am einen Ende 10a liegt, und nimmt stufenweise ab (in einer Stufenform), je näher es am anderen Ende 10b liegt. In dem in 11 gezeigten Beispiel beträgt eine Fläche der Lichtempfangseinheit 10C beispielsweise 2000 µm2, und ein Anordnungsabstand der Pixel P1 bis PN in X-Richtung beträgt beispielsweise 7,5 µm.
  • 12 zeigt eine vergrößerte Ansicht, bei der das erste Pixel 12C unter den Pixeln P1 bis PN , die in 11 gezeigt sind, vergrößert ist. Wie in 12 gezeigt, ist in dem ersten Pixel 12C ein Stufenunterschied an beiden Seiten des ersten Pixels 12C in X-Richtung derart ausgebildet, dass sich die Breite des ersten Pixels 12C in X-Richtung immer dann vergrößert, wenn es von dem einen Ende 10a in Richtung des anderen Endes 10b um einen Abstand d1 (z. B. 16,25 µm) entfernt ist. Der Stufenunterschied ist an 123 Stellen entlang der Y-Richtung mit dem gleichen Abstand (d. h. dem Abstand d1) vorgesehen. Beispielsweise beträgt eine Breite eines jeden Stufenunterschieds in der X-Richtung 0,05 µm. Eine Gesamtlänge des ersten Pixels 12C in Y-Richtung beträgt beispielsweise 1998,75 µm, und eine Breite des Scheitels des ersten Pixels 12C auf der einen Seite 10a in der X-Richtung beträgt beispielsweise 0,8 µm, und eine Breite einer unteren Seite des ersten Pixels 12C am anderen Ende 10b in X-Richtung beträgt beispielsweise 13 µm (siehe 11). Das zweite Pixel 13C weist die gleiche Form wie das erste Pixel 12C auf und ist in einer Richtung entgegengesetzt zum ersten Pixel 12c in Y-Richtung angeordnet. Eine Breite d2 des reflektierten Lichts L2, das auf die Pixel P1 bis PN mit der Form in Y-Richtung einfällt, beträgt beispielsweise 20 µm und ist größer als der Abstand d1 zwischen den Stufenunterschieden eines jeden Pixels P1 bis PN in der Y-Richtung.
  • 13 zeigt ein schematisches Konfigurationsdiagramm eines noch weiteren Beispiels der Form der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. In dem in 13 gezeigten Beispiel umfasst ein erstes Pixel 12D eines jeden Pixelpaars 11D eine Vielzahl von (beispielsweise sechs) Lichtempfangsbereichen 12d mit einer quadratischen Form. Eine Breite der Lichtempfangsbereiche 12d in X-Richtung wird kleiner, je näher sie am einen Ende 10a der Lichtempfangseinheit 10D liegen, und wird größer, je näher sie am anderen Ende 10b der Lichtempfangseinheit 10D liegen. Ein zweites Pixel 13D des Pixelpaares 11D umfasst eine Vielzahl von (beispielsweise sechs) Lichtempfangsbereichen 13d mit einer quadratischen Form. Eine Breite der Lichtempfangsbereiche 13d in der X-Richtung werden größer, je näher sie am einen Ende 10a der Lichtempfangseinheit 10D liegen, und wird kleiner, je näher sie dem anderen Ende 10b der Lichtempfangseinheit 10D liegen. Selbst in einem Fall, in dem die Pixel P1 bis PN , die in 9 bis 13 gezeigt sind, verwendet werden, ist es möglich, den gleichen Effekt wie in der Ausführungsform zu erzielen.
  • [Viertes Modifikationsbeispiel]
  • 14 zeigt ein schematisches Konfigurationsdiagramm einer Bildaufnahmevorrichtung 4H gemäß einem vierten Modifikationsbeispiel. In diesem Modifikationsbeispiel umfasst eine Lichtempfangseinheit 10E eine Vielzahl erster Lichtabschirmabschnitte 16 und eine Vielzahl von Lichtabschirmabschnitten 17, anstelle der mehreren ersten Übertragungsfilter 14 und der mehreren zweiten Übertragungsfilter 15. Jeder der ersten Lichtabschirmabschnitte 16 ist auf dem ersten Pixel 12 angeordnet und schirmt das einfallende reflektierte Licht L2 ab. Der erste Lichtabschirmabschnitt 16 bedeckt einen anderen Abschnitt als den einen Abschnitt 12a des ersten Pixels 12. Eine Breite des einen Abschnitts 12a in der X-Richtung nimmt allmählich ab (oder nimmt stufenweise ab), je näher er am einen Ende 10a der Lichtempfangseinheit 10E in Y-Richtung liegt, und nimmt allmählich zu (oder nimmt stufenweise zu), je näher er am anderen Ende 10b der Lichtempfangseinheit 10E liegt. In einem Beispiel weist der eine Abschnitt 12a eine gleichschenklige Dreiecksform auf, die sich in Richtung des einen Endes 10a in Y-Richtung verjüngt. In diesem Fall weist der erste Lichtabschirmabschnitt 16 eine Form auf, die in der gleichschenkligen Dreiecksform ausgehöhlt ist.
  • Andererseits ist jedes der zweiten Lichtabschirmabschnitte 17 auf dem zweiten Pixel 13 angeordnet und schirmt das einfallende reflektierte Licht L2 ab. Der zweite Lichtabschirmabschnitt 17 bedeckt einen anderen Abschnitt als den einen Abschnitt 13a eines jeden der mehreren zweiten Pixel 13. Eine Breite des einen Abschnitts 13a in X-Richtung nimmt allmählich zu (oder nimmt stufenweise zu), je näher er am einen Ende 10a liegt, und nimmt allmählich ab (oder nimmt stufenweise ab), je näher er am anderen Ende 10b liegt. In einem Beispiel weist der eine Abschnitt 13a eine gleichschenklige Dreiecksform auf, die sich in Richtung des anderen Endes 13b in Y-Richtung verjüngt. In diesem Fall weist der zweite Lichtabschirmabschnitt 17 eine Form auf, die in der gleichschenkligen Dreiecksform ausgehöhlt ist.
  • Wenn die Lichtempfangseinheit 10E die ersten Lichtabschirmabschnitte 16 und die zweiten Lichtabschirmabschnitte 17 in einer Vielzahl der ersten Pixel 12 umfasst, nimmt mit zunehmender Nähe der Einfallsposition des reflektierten Lichts L2 in Y-Richtung zum einen Ende 10a in Y-Richtung die Lichteinfallsmenge des reflektierten Lichts L2, das auf die ersten Pixel 12 trifft, ab und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, ab. Im Gegensatz dazu nehmen in den zweiten Pixeln 13 mit zunehmender Nähe der Einfallsposition des reflektierten Lichts L2 in Y-Richtung zum einen Ende 10a in Y-Richtung die Lichteinfallsmenge des reflektierten Lichts L2, das auf die zweiten Pixel 13 auftrifft, zu und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13 erzeugt werden, zu. Selbst gemäß diesem Aspekt ist es möglich, den gleichen Effekt wie in der Ausführungsform zu erzielen.
  • [Fünftes Modifikationsbeispiel]
  • 15 zeigt ein schematisches Konfigurationsdiagramm einer Bildaufnahmevorrichtung 4J gemäß einem fünften Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass die Pixel P1 bis PN dieses Modifikationsbeispiels in Y-Richtung in zwei Teile unterteilt sind und zwei Signalverarbeitungseinheiten verwendet werden. Wie in 15 gezeigt, umfasst die Bildaufnahmevorrichtung 4J eine Lichtempfangseinheit 10F und Signalverarbeitungseinheiten 30C und 30D. Jedes Pixel P1 bis PN der Lichtempfangseinheit 10F ist an einer Grenze in der Nähe der Mitte der Y-Achse in zwei Teile geteilt. Jedes erste Pixel 12 umfasst in den zwei unterteilten Bereichen einen Bereich 12E, der sich auf der Seite des anderen Endes 10b der Lichtempfangseinheit 10F in Y-Richtung befindet, und einen Bereich 12F, der sich auf der Seite des einen Endes 10a der Lichtempfangseinheit 10F in Y-Richtung befindet. Jedes zweite Pixel 13 umfasst in den zwei unterteilten Bereichen einen Bereich 13E, der sich am anderen Ende 10b der Lichtempfangseinheit 10F befindet, und einen Bereich 13F, der sich auf der Seite des einen Endes 10a der Lichtempfangseinheit 10F befindet.
  • Die Signalverarbeitungseinheiten 30C und 30D sind an beiden Seiten der Pixel P1 bis PN in Y-Richtung vorgesehen. Jede der Signalverarbeitungseinheiten 30C und 30D umfasst die Vielzahl der Schaltelemente 31, der Schieberregister 32, dem Verstärker 33 und den A/D-Wandler 34. Eingangsanschlüsse der Schaltelemente 31 der Signalverarbeitungseinheit 30C sind elektrisch mit einer Vielzahl von Bereichen 12E und 13E verbunden, und die Eingangsanschlüsse der Schaltelemente 31 der Signalverarbeitungseinheit 30D sind elektrisch mit den Bereichen 12F und 13F verbunden. Die Berechnungseinheit 35 ist elektrisch mit dem A/D-Wandler 34 der Signalverarbeitungseinheit 30C und dem A/D-Wandler 34 der Signalverarbeitungseinheit 30D verbunden. Wie in der Ausführungsform berechnet die Berechnungseinheit 35 die Positionsinformationen Lxr und die Positionsinformationen Lyr mit Bezug auf eine Einfallsposition des reflektierten Lichts L2, das auf die Lichtempfangseinheit 10F trifft, auf der Grundlage des Ladungssignals DxE1 oder DxEN , die in den Bereichen 12E und 13E erzeugt werden, und des Ladungssignals DxF1 oder DxFN , die in den Bereichen 12F und 13F erzeugt werden.
  • In der Bildaufnahmevorrichtung 4J dieses Modifikationsbeispiels wird jedes der Pixel P1 bis PN in zwei Teile geteilt, und als Ergebnis wird das in den Bereichen 12E und 13E erzeugte Ladungssignal DxE1 oder DxEN von der Signalverarbeitungseinheit 30C und das in den Bereichen 12F und 13F erzeugte Ladungssignal DxF1 oder DxFN von der Signalverarbeitungseinheit 30D ausgelesen. Demnach kann in jedem der Pixel P1 bis PN ein Abstand von einem Abschnitt, auf den das reflektierte Licht L2 auf jedes der Schaltelemente 31 fällt, verkürzt werden. Dadurch wird die Ausnutzungseffizienz des reflektierten Lichts L2, das auf die Pixel P1 bis PN fällt, erhöht und die Genauigkeit der Positionsinformationen Lxr und der Positionsinformationen Lyr verbessert.
  • [Sechstes Modifikationsbeispiel]
  • 16 zeigt ein schematisches Konfigurationsdiagramm einer Bildaufnahmevorrichtung 4K gemäß einem sechsten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass eine Lichtempfangseinheit 10G dieses Modifikationsbeispiels eine Vielzahl von Metalldrähten 20 umfasst. Beispielsweise sind die Metalldrähte 20 Aluminium (AI)-Drähte. Die Metalldrähte 20 sind jeweils in Übereinstimmung mit den Pixeln P1 bis PN vorgesehen. Die Metalldrähte 20 erstrecken sich auf den Pixeln P1 bis PN entlang der Y-Richtung und sind kontinuierlich oder intermittierend mit den Pixeln P1 bis PN verbunden. Die Metalldrähte 20 sind jeweils mit den Eingangsanschlüssen der Schaltelemente 31 elektrisch verbunden. In den Pixeln P1 bis PN wird zum Auslesen der in den Pixeln P1 bis PN erzeugten Ladungssignale Dx1 bis DxN mehr Zeit benötigt, da die Einflussposition des reflektierten Lichts L2 in Y-Richtung von jedem der Schaltelemente 31 beabstandet ist. Der Grund dafür liegt darin, dass, weil eine Bewegungsgeschwindigkeit der Ladungssignale Dx1 bis DxN in einer Diffusionsschicht, die die Pixel P1 bis PN bildet, langsam ist, somit Zeit für die Übertragung der Ladungssignale Dx1 bis DxN benötigt wird.
  • Hierin sind die sich entlang der Y-Richtung erstreckenden Metalldrähte 20 jeweils auf den Pixeln P1 bis PN vorgesehen, und die Metalldrähte 20 sind jeweils mit den Schaltelementen 31 derart verbunden, dass die Ladungssignale Dx1 bis DxN durch die Metalldrähte 20 übertragen werden. Dadurch ist es möglich, die Bewegungsgeschwindigkeit der Ladungssignale Dx1 bis DxN zu verbessern, und es ist möglich, die Auslesegeschwindigkeit der Ladungssignale Dx1 bis DxN zu erhöhen.
  • Der Formmesssensor der vorliegenden Erfindung ist nicht auf die Ausführungsform und die Modifikationsbeispiele beschränkt, und es können zusätzlich verschiedene Modifikationen vorgenommen werden. Beispielsweise können die Ausführungsform und die Modifikationsbeispiele gemäß einer gewünschten Aufgabe und einem gewünschten Effekt kombiniert werden.
  • Bezugszeichenliste
  • 1, 1A: Formmesssensor, 2: Objekt, 2a: Oberfläche, 3: Lichtquelle, 4, 4A, 4B bis 4H, 4J, 4K: Bildaufnahmegerät, 10, 10A bis 10G: Lichtempfangseinheit, 10a: ein Ende, 10b: anderes Ende, 11, 11A bis 11 D: Pixelpaar, 12, 12A bis 12D: erstes Pixel, 12a, 13a: ein Abschnitt, 13, 13A bis 13D: zweites Pixel, 14: erster Übertragungsfilter, 15: zweiter Übertragungsfilter, 16: erster Lichtabschirmabschnitt, 17: zweiter Lichtabschirmabschnitt, 20: Metalldraht, 30, 30A bis 30D: Signalverarbeitungseinheit, Da: Bestrahlungsrichtung, Db: Neigungsrichtung, Dx1 bis DxN: Ladungssignal, L1: Laserlicht, L2: reflektiertes Licht, Lx, Ly: Positionsinformation, ML: Messlinie.

Claims (6)

  1. Formmesssensor, der Licht erfasst, das zur Bestrahlung einer Messlinie auf eine Oberfläche eines Objekts emittiert und an der Oberfläche des Objekts reflektiert wird, um eine Oberflächenform des Objekts zu messen, wobei der Formmesssensor umfasst: eine Lichtempfangseinheit, auf die das an der Messlinie reflektierte Licht aus einer Richtung einfällt, die in Bezug auf eine Bestrahlungsrichtung des Lichts geneigt ist; und eine Berechnungseinheit, die eine Einfallposition des Lichts in der Lichtempfangseinheit erfasst und die Positionsinformationen jeder Position auf der Messlinie auf der Grundlage der Einfallposition berechnet, wobei die Lichtempfangseinheit mehtrere Pixelpaare enthält, wobei jedes Pixelpaar ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das neben dem ersten Pixel entlang einer ersten Richtung, die die Bestrahlungsrichtung schneidet, angeordnet ist und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, enthält, und wobei die Pixelpaare entlang der ersten Richtung angeordnet sind, im ersten Pixel, wenn die Einfallsposition in einer zweiten Richtung, die die erste Richtung schneidet, näher an einem Ende der Lichtempfangseinheit liegt, die Intensität der ersten elektrischen Signale abnimmt, im zweiten Pixel, wenn die Einfallsposition in der zweiten Richtung näher am einen Ende liegt, die Intensität des zweiten elektrischen Signals zunimmt, und die Berechnungseinheit das erste elektrische Signal und das zweite elektrische Signal für jedes der Pixelpaare erfasst und die Einfallsposition in der zweiten Richtung für jedes der Pixelpaare auf der Grundlage der Intensität des erfassten ersten elektrischen Signals und der Intensität des erfassten zweiten elektrischen Signals berechnet.
  2. Formmesssensor nach Anspruch 1, wobei die Berechnungseinheit die Einfallsposition in der zweiten Richtung für jedes der Pixelpaare berechnet, indem sie ein Verhältnis zwischen der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals verwendet.
  3. Formmesssensor nach Anspruch 1, wobei die Berechnungseinheit die Einfallsposition in der zweiten Richtung für jedes der Pixelpaare berechnet, indem sie ein Verhältnis zwischen der Intensität des ersten elektrischen Signals oder der Intensität des zweiten elektrischen Signals und einen Gesamtwert der Intensität des ersten elektrischen Signals und der Intensität des zweiten elektrischen Signals verwendet.
  4. Formmesssensor nach einem der Ansprüche 1 bis 3, wobei die Lichtempfangseinheit ferner einen ersten Übertragungsfilter, der das erste Pixel abdeckt und durch den das Licht übertragen wird, und einen zweiten Übertragungsfilter, der das zweite Pixel abdeckt und durch den das Licht übertragen wird, aufweist, eine Lichtdurchlässigkeit im ersten Übertragungsfilter abnimmt, je näher er an dem einen Ende in der zweiten Richtung liegt, und eine Lichtdurchlässigkeit im zweiten Übertragungsfilter zunimmt, je näher er an dem einen Ende in der zweiten Richtung liegt.
  5. Formmesssensor nach einem der Ansprüche 1 bis 3, wobei die Lichtempfangseinheit ferner einen ersten Lichtabschirmabschnitt, der einen anderen Abschnitt des ersten Pixels als den einen Abschnitt des ersten Pixels abdeckt und das Licht abschirmt, und einen zweiten Lichtabschirmabschnitt, der einen anderen Abschnitt des zweiten Pixels als den einen Abschnitt des zweiten Pixels abdeckt und das Licht abschirmt, umfasst, eine Breite des einen Abschnitts des ersten Pixels in der ersten Richtung abnimmt, je näher er am einen Ende in der zweiten Richtung liegt, und eine Breite des einen Abschnitts des zweiten Pixels in der ersten Richtung zunimmt, je näher er am einen Ende in der zweiten Richtung liegt.
  6. Formmesssensor nach einem der Ansprüche 1 bis 3, wobei eine Breite des ersten Pixels in der ersten Richtung abnimmt, je näher es am einen Ende in der zweiten Richtung liegt, und eine Breite des zweiten Pixels in der ersten Richtung zunimmt, je näher es am einen Ende in der zweiten Richtung liegt.
DE112018005337.7T 2017-09-20 2018-09-19 Formmesssensor Pending DE112018005337T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-180099 2017-09-20
JP2017180099 2017-09-20
PCT/JP2018/034669 WO2019059236A1 (ja) 2017-09-20 2018-09-19 形状計測センサ

Publications (1)

Publication Number Publication Date
DE112018005337T5 true DE112018005337T5 (de) 2020-06-18

Family

ID=65811348

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112018005325.3T Pending DE112018005325T5 (de) 2017-09-20 2018-08-28 Positionserfassungssensor und positionsmessvorrichtung
DE112018005337.7T Pending DE112018005337T5 (de) 2017-09-20 2018-09-19 Formmesssensor

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112018005325.3T Pending DE112018005325T5 (de) 2017-09-20 2018-08-28 Positionserfassungssensor und positionsmessvorrichtung

Country Status (5)

Country Link
US (2) US20200217644A1 (de)
JP (2) JPWO2019058897A1 (de)
CN (2) CN111133283A (de)
DE (2) DE112018005325T5 (de)
WO (2) WO2019058897A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019058897A1 (ja) * 2017-09-20 2020-11-05 浜松ホトニクス株式会社 位置検出センサ及び位置計測装置
JP2023091916A (ja) * 2021-12-21 2023-07-03 浜松ホトニクス株式会社 固体撮像装置、形状測定装置および形状測定方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140827A (ja) * 1984-12-14 1986-06-27 Hamamatsu Photonics Kk 半導体光検出装置
JPH0640023B2 (ja) * 1986-09-25 1994-05-25 株式会社神戸製鋼所 光入力の位置・分散検出方法および装置
JPS63229306A (ja) * 1987-03-19 1988-09-26 N T T Gijutsu Iten Kk 線形受光デバイス
JPH0334369A (ja) 1988-04-11 1991-02-14 Canon Inc 光センサー
JP3107585B2 (ja) * 1991-04-11 2000-11-13 浜松ホトニクス株式会社 二次元光入射位置検出素子
US5567976A (en) * 1995-05-03 1996-10-22 Texas Instruments Incorporated Position sensing photosensor device
US6046812A (en) * 1997-05-29 2000-04-04 Korea Atomic Energy Research Institute Shape-measuring laser apparatus using anisotropic magnification optics
US6369879B1 (en) * 2000-10-24 2002-04-09 The Regents Of The University Of California Method and apparatus for determining the coordinates of an object
JP4099413B2 (ja) * 2003-03-20 2008-06-11 浜松ホトニクス株式会社 光検出装置
JP2007114071A (ja) * 2005-10-20 2007-05-10 Omron Corp 三次元形状計測装置、プログラム、コンピュータ読み取り可能な記録媒体、及び三次元形状計測方法
JP2011039006A (ja) * 2009-08-18 2011-02-24 Topcon Corp 測定装置
JP5818341B2 (ja) * 2010-12-13 2015-11-18 国立大学法人 和歌山大学 形状計測装置および形状計測方法
WO2012133926A2 (en) * 2011-04-01 2012-10-04 Nikon Corporation Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
CN103843320B (zh) * 2011-09-28 2015-11-25 富士胶片株式会社 图像传感器和成像装置
JP6034629B2 (ja) * 2012-09-12 2016-11-30 キヤノン株式会社 撮像素子及びそれを用いた撮像装置
US9488469B1 (en) * 2013-04-22 2016-11-08 Cognex Corporation System and method for high-accuracy measurement of object surface displacement using a laser displacement sensor
JP6052057B2 (ja) * 2013-05-22 2016-12-27 ソニー株式会社 信号処理装置および信号処理方法、固体撮像装置、並びに、電子機器
US10325953B2 (en) * 2015-03-31 2019-06-18 National University Corporation Shizuoka University Range sensor and solid-state imaging device
KR102375989B1 (ko) * 2017-08-10 2022-03-18 삼성전자주식회사 화소 사이의 신호 차이를 보상하는 이미지 센서
JPWO2019058897A1 (ja) * 2017-09-20 2020-11-05 浜松ホトニクス株式会社 位置検出センサ及び位置計測装置
JP6836486B2 (ja) * 2017-09-20 2021-03-03 浜松ホトニクス株式会社 位置検出センサ
JP6875239B2 (ja) * 2017-09-20 2021-05-19 浜松ホトニクス株式会社 位置検出センサ

Also Published As

Publication number Publication date
WO2019059236A1 (ja) 2019-03-28
DE112018005325T5 (de) 2020-06-18
CN111094914A (zh) 2020-05-01
US20200217647A1 (en) 2020-07-09
JPWO2019059236A1 (ja) 2020-11-19
CN111133283A (zh) 2020-05-08
WO2019058897A1 (ja) 2019-03-28
US11085760B2 (en) 2021-08-10
US20200217644A1 (en) 2020-07-09
JPWO2019058897A1 (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
DE69737862T2 (de) Automatische justierung eines energiefiltrierenden transmissionselektronenmikroskops
DE2209667C3 (de) Einrichtung zur beruhrungslosen Messung
DE112007000009B4 (de) Musterdimensionsmessgerät und Musterflächenmessverfahren
DE60026833T2 (de) Positionsempfindlicher detektor zur erfassung eines lichtpunkts
EP0449859B1 (de) Verfahren und vorrichtung zur beobachtung von moiremustern von zu untersuchenden oberflächen unter anwendung des moireverfahrens mit phasenshiften
WO2016041695A1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE112004001034T5 (de) 3D- und 2D-Meßsystem und -verfahren mit erhöhter Sensitivität und erhöhtem Dynamikbereich
DE112018005337T5 (de) Formmesssensor
DE3340924C2 (de)
DE102017112404A1 (de) Vorrichtung und verfahren zur dreidimensionalen untersuchung
DE3203788C2 (de)
EP0466846A1 (de) Verfahren zur messung von faserparametern mittels bilddatenverarbeitung.
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
EP0399138A2 (de) Verfahren zur dreidimensionalen Prüfung von Leiterplatten
DE3312203C2 (de)
DE112018005333T5 (de) Positionserfassungssensor
DE112018005319T5 (de) Positionserfassungssensor
DE4035039C2 (de) Verfahren und Einrichtung zur Erfassung der Bewegung strukturierter Objekte
DE60202435T2 (de) Optische Methode und Vorrichtung zur Messung geometrischer Grössen
DE60110341T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE3843470C2 (de)
EP1273878B1 (de) Verfahren zur Detektion eines Objektes mit unterschiedlichen Auflösungen
DE4438014C2 (de) Vorrichtung zur Messung der Länge von bewegten Teilen
DE112021004600T5 (de) Dreidimensionale messvorrichtung und dreidimensionales messverfahren
DE102017007590A1 (de) Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Objekten auf Basis des Lichtschnittverfahrens