DE112018005325T5 - Positionserfassungssensor und positionsmessvorrichtung - Google Patents

Positionserfassungssensor und positionsmessvorrichtung Download PDF

Info

Publication number
DE112018005325T5
DE112018005325T5 DE112018005325.3T DE112018005325T DE112018005325T5 DE 112018005325 T5 DE112018005325 T5 DE 112018005325T5 DE 112018005325 T DE112018005325 T DE 112018005325T DE 112018005325 T5 DE112018005325 T5 DE 112018005325T5
Authority
DE
Germany
Prior art keywords
light
pixel
pixels
axis direction
closer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005325.3T
Other languages
English (en)
Inventor
Munenori Takumi
Haruyoshi Toyoda
Yoshinori Matsui
Kazutaka Suzuki
Kazuhiro Nakamura
Keisuke Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Publication of DE112018005325T5 publication Critical patent/DE112018005325T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/1446Devices controlled by radiation in a repetitive configuration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/02016Circuit arrangements of general character for the devices
    • H01L31/02019Circuit arrangements of general character for the devices for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02024Position sensitive and lateral effect photodetectors; Quadrant photodiodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02162Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H01L31/02164Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors for shielding light, e.g. light blocking layers, cold shields for infrared detectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02162Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors
    • H01L31/02165Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors using interference filters, e.g. multilayer dielectric filters

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Light Receiving Elements (AREA)
  • Photo Coupler, Interrupter, Optical-To-Optical Conversion Devices (AREA)

Abstract

Eine Lichtempfangseinheit, die eine Vielzahl von Pixelpaaren enthält, wobei jedes der Pixelpaare ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das entlang einer ersten Richtung neben dem ersten Pixel angeordnet ist und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, umfasst, und wobei die Pixelpaare entlang der ersten Richtung angeordnet sind; und eine Berechnungseinheit, die eine Schwerpunkt-Berechnungsoperation durchführt, indem sie eine Intensität des ersten elektrischen Signals und eine Intensität des zweiten elektrischen Signals verwendet, um eine erste Position zu berechnen, die die Einfallsposition in der ersten Richtung ist. Im ersten Pixel nimmt die Intensität des ersten elektrischen Signals ab, wenn die Einfallsposition näher an einem Ende der Lichtempfangseinheit in einer zweiten Richtung, die die erste Richtung schneidet, liegt. Im zweiten Pixel nimmt die Intensität des ersten elektrischen Signals zu, wenn die Einfallsposition in der zweiten Richtung näher am einen Ende liegt. Die Berechnungseinheit berechnet ferner eine zweite Position, die die Einfallsposition in der zweiten Richtung ist, auf der Grundlage eines ersten integrierten Wertes, der durch Integrieren der Intensität des ersten elektrischen Signals erhalten wird, und eines zweiten integrierten Wertes, der durch Integrieren der Intensität des zweiten elektrischen Signals erhalten wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft einen Positionserfassungssensor und eine Positionsmessvorrichtung.
  • Stand der Technik
  • Patentliteratur 1 offenbart einen optischen Sensor, der eine Einfallsposition eines Lichtpunkts erfasst. Der optische Sensor weist einen Lichtempfangsbereich mit einer konischen Form auf, deren Breite allmählich entlang einer Richtung in einer Ebene breiter wird. Wenn sich der Lichtpunkt entlang der einen Richtung auf dem Lichtempfangsbereich mit der Form bewegt, ändert sich eine Ausgabe aus dem optischen Sensor linear. Eine eindimensionale Position in der einen Richtung wird mit Bezug auf die Einfallsposition des Lichtpunkts unter Verwendung einer Änderung der Ausgabe erfasst. Wenn zwei optische Sensoren in entgegengesetzten Richtungen in einem Zustand angeordnet sind, in dem die Hypotenusen miteinander stehen, wird eine Änderungsrate einer Differentialausgabe aus den optischen Sensoren im Vergleich zu einer Änderungsrate einer Ausgabe aus den einzelnen optischen Sensoren doppelt verstärkt.
  • Patentliteratur 2 offenbart ein Erfassungselement eines zweidimensionalen Lichteinfallspositionserfassungselements, das eine zweidimensionale Position erfasst, auf der ein Lichtpunkt einfällt.
  • Zitationsliste
  • Patentliteratur
    • Patentliteratur 1: Ungeprüfte japanische Patentveröffentlichung Nr. H3-34369
    • Patentliteratur 2: Ungeprüfte japanische Patentveröffentlichung Nr. H4-313278
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • In jüngster Zeit sind beispielsweise bei einem Positionserfassungssensor, der zur Erfassung einer Lichteinfallsposition in einem optischen Kontrollfeld verwendet werden kann, die Anforderungen, wie eine hohe Bildfrequenz und eine Verbesserung der Positionserfassungsfunktion, gestiegen. Beispiele für den Positionserfassungssensor sind ein Profilsensor und ein Zeilensensor. Bei dem Profilsensor wird ein Projektionsbild in Spaltenrichtung durch elektrische Signale erhalten, die von einer Pixelgruppe von Pixeln ausgegeben werden, die für jede Zeile aus einer Vielzahl von zweidimensional angeordneten Pixeln verdrahtet sind, und wird ein Projektionsbild in Zeilenrichtung durch elektrische Signale erhalten, die von einer Pixelgruppe von Pixeln ausgegeben werden, die für jede Spalte verdrahtet sind. Eine zweidimensionale Position, auf die Licht unter Verwendung der Projektionsbilder einfällt, wird durch Verwendung der Projektionsbilder erfasst. Da jedoch in dem Profilsensor, in dem die Pixel, wie zuvor beschrieben, zweidimensional angeordnet sind, die elektrischen Signale zur Erfassung des Projektionsbildes in Zeilenrichtung (oder in Spaltenrichtung) von den jeweiligen Pixeln zusätzlich zu den elektrischen Signalen zur Erfassung des Projektionsbilds in Spaltenrichtung (oder in Zeilenrichtung) ausgegeben werden, ist die Anzahl der ausgegebenen elektrischen Signale höher, im Vergleich zu dem Zeilensensor, bei dem die Pixel eindimensional angeordnet sind. Dementsprechend wird im Profilsensor mehr Zeit zum Auslesen der elektrischen Signale benötigt, und somit gibt es eine Grenze bei der Erfassung der zweidimensionalen Position, auf die Licht einfällt, mit hoher Geschwindigkeit.
  • Andererseits erfasst der Zeilensensor eine eindimensionale Position, auf die Licht einfällt, indem Signale aus einer Vielzahl von Pixel ausgelesen werden, die eindimensional angeordnet ist. Bei dem Zeilensensor werden nur die elektrischen Signale zur Erfassung der Einfallsposition des Lichts in einer Richtung ausgegeben, und somit ist die Anzahl der ausgegebenen elektrischen Signale kleiner als bei dem Profilsensor. Dementsprechend ist es beim Zeilensensor möglich, die Zeit, die zum Auslesen der elektrischen Signale benötigt wird, zu verkürzen, und somit ist es möglich, die eindimensionale Position, auf die Licht einfällt, mit hoher Geschwindigkeit zu erfassen. Jedoch ist es beim Zeilensensor schwierig, eine zweidimensionale Position, auf die Licht einfällt, zu erfassen. Das heißt, der Zeilensensor weist keine Positionserfassungsfunktion auf, die sich auf zwei Richtungen bezieht.
  • Es ist eine Aufgabe der vorliegenden Erfindung, einen Positionserfassungssensor und eine Positionsmessvorrichtung bereitzustellen, die in der Lage sind, eine zweidimensionale Position, auf die Licht einfällt, mit hoher Geschwindigkeit zu erfassen.
  • Lösung des Problems
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird ein Positionserfassungssensor bereitgestellt, der eine Lichteinfallsposition erfasst. Der Positionserfassungssensor umfasst: eine Lichtempfangseinheit, die eine Vielzahl von Pixelpaaren enthält, wobei jedes der Pixelpaare ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das entlang einer ersten Richtung neben dem ersten Pixel angeordnet ist und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, umfasst, und wobei die Pixelpaare entlang der ersten Richtung angeordnet sind; und eine Berechnungseinheit, die eine Schwerpunkt-Berechnungsoperation durchführt, indem sie eine Intensität des ersten elektrischen Signals und eine Intensität des zweiten elektrischen Signals verwendet, um eine erste Position zu berechnen, die die Einfallsposition in der ersten Richtung ist. Im ersten Pixel nimmt die Intensität des ersten elektrischen Signals ab, je näher die Einfallsposition an einem Ende der Lichtempfangseinheit in einer zweiten Richtung, die die erste Richtung schneidet, liegt. Im zweiten Pixel nimmt die Intensität des ersten elektrischen Signals zu, je näher die Einfallsposition in der zweiten Richtung an einem Ende liegt. Die Berechnungseinheit berechnet ferner eine zweite Position, die die Einfallsposition in der zweiten Richtung ist, auf der Grundlage eines ersten integrierten Wertes, der durch Integrieren der Intensität des ersten elektrischen Signals erhalten wird, und eines zweiten integrierten Wertes, der durch Integrieren der Intensität des zweiten elektrischen Signals erhalten wird.
  • Wenn bei dem Positionserfassungssensor Licht auf das erste Pixel der Vielzahl von Pixelpaaren trifft, erzeugt das erste Pixel das erste elektrische Signal (beispielsweise ein Ladungssignal) entsprechend der Lichteinfallsmenge des Lichts. In ähnlicher Weise erzeugt das zweite Pixel, wenn Licht auf das zweite Pixel trifft, das zweite elektrische Signal (beispielsweise ein Ladungssignal) entsprechend einer Lichteinfallsmenge des Lichts. Da hier die Vielzahl der Pixelpaare entlang der ersten Richtung angeordnet ist, führt die Berechnungseinheit eine Gewichtungsoperation (Schwerpunktberechnungsoperation) an Positionen der entsprechenden Pixel (dem ersten Pixel und dem zweiten Pixel) mit den Intensitäten der elektrischen Signale der Pixel durch, um die erste Position zu berechnen, die die Einfallsposition des Lichts in der ersten Richtung ist. Darüber hinaus nimmt die Intensität des ersten elektrischen Signals ab, wenn sich im ersten Pixel die Lichteinfallsposition näher am einen Ende der Lichtempfangseinheit befindet. Im zweiten Pixel nimmt die Intensität des zweiten Signals zu, wenn sich die Lichteinfallsposition näher am einen Ende befindet. Die Berechnungseinheit berechnet die zweite Position, die die Lichteinfallsposition in der zweiten Richtung ist, auf der Grundlage eines integrierten Wertes, der durch Integrieren der Intensität des ersten elektrischen Signals erhalten wird, und eines zweiten integrierten Wertes, der durch Integrieren der Intensität des zweiten elektrischen Signals erhalten wird, indem eine Änderung der Intensitäten des ersten elektrischen Signals und des zweiten elektrischen Signals verwendet wird. Auf diese Weise kann der Positionserfassungssensor zusätzlich zur ersten Position die zweite Position mit Bezug auf die Lichteinfallsposition berechnen. Das heißt, der Positionserfassungssensor hat eine Positionserfassungsfunktion, die sich auf zwei Richtungen bezieht. Darüber hinaus ist es bei dem Positionserfassungssensor möglich, zwei Informationsteile der ersten Position und der zweiten Position mit Bezug auf die Lichteinfallsposition zu erhalten, indem nur die Informationen der elektrischen Signale verwendet werden (des ersten elektrischen Signals und des zweiten elektrischen Signals). Das heißt, es ist beispielsweise nicht erforderlich, zur Berechnung der zweiten Position ein elektrisches Signal aus jedem Pixel getrennt zu erzeugen. Dementsprechend ist es möglich, eine Zunahme der Anzahl der elektrischen Signale zu unterdrücken, und folglich ist es möglich, eine Zeit, die zum Auslesen der elektrischen Signale benötigt wird, zu verkürzen. Das heißt, gemäß dem Positionserfassungssensor ist es möglich, eine zweidimensionale Position, auf die Licht einfällt, mit hoher Geschwindigkeit zu erfassen.
  • Bei dem Positionserfassungssensor kann die Lichtempfangseinheit ferner einen ersten Übertragungsfilter, der das erste Pixel abdeckt und durch den das Licht übertragen wird, und einen zweiten Übertragungsfilter, der das zweite Pixel abdeckt und durch den das Licht übertragen wird, umfassen, wobei eine Lichtdurchlässigkeit im ersten Übertragungsfilter abnimmt, je näher er am einen Ende in der zweiten Richtung liegt, und eine Lichtdurchlässigkeit im zweiten Übertragungsfilter zunimmt, je näher er am einen Ende der zweiten Richtung liegt. Wenn die Lichtempfangseinheit den ersten Übertragungsfilter und den zweiten Übertragungsfilter umfasst, nimmt im ersten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende der zweiten Richtung befindet, eine Lichteinfallsmenge des Lichts, das auf das erste Pixel trifft, ab und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals, das im ersten Pixel erzeugt wird, ab. Im Gegensatz dazu nimmt im zweiten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende der zweiten Richtung befindet, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel trifft, zu und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das im zweiten Pixel erzeugt wird, zu. Dementsprechend ist es gemäß dieser Konfiguration möglich, die Lichtempfangseinheit des Lichterfassungssensors in geeigneter Weise zu realisieren. Bei dem Positionserfassungssensor kann die Lichtempfangseinheit ferner einen ersten Lichtabschirmabschnitt, der einen anderen Abschnitt des ersten Pixels mit Ausnahme eines Abschnitts des ersten Pixels abdeckt und das Licht abschirmt, und einen zweiten Lichtabschirmabschnitt, der einen anderen Abschnitt des zweiten Pixels mit Ausnahme eines Abschnitts des zweiten Pixels abdeckt und das Licht abschirmt, umfassen, wobei eine Breite des einen Abschnitts des ersten Pixels in der ersten Richtung abnimmt, je näher er in der zweiten Richtung am einen Ende liegt, und eine Breite des einen Abschnitts des zweiten Pixels in der ersten Richtung zunimmt, je näher er am einen Ende in der zweiten Richtung liegt. Wenn die Lichtempfangseinheit den ersten Lichtabschirmabschnitt und den zweiten Lichtabschirmabschnitt umfasst, nimmt dem ersten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende in der zweiten Richtung befindet, die Lichteinfallsmenge des Lichts, das auf das erste Pixel trifft, ab, und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals, das im ersten Pixel erzeugt wird, ab. Im Gegensatz dazu nimmt im zweiten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende in der zweiten Richtung befindet, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel trifft, zu und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das im zweiten Pixel erzeugt wird, zu. Dementsprechend ist es möglich, die Lichtempfangseinheit des Positionserfassungssensors in geeigneter Weise zu realisieren.
  • In dem Positionserfassungssensor kann eine Breite des ersten Pixels in der ersten Richtung abnehmen, je näher es am einen Ende in der zweiten Richtung liegt, und kann eine Breite des zweiten Pixels in der ersten Richtung zunehmen, je näher es am einen Ende in der zweiten Richtung liegt. Wenn die Lichtempfangseinheit das erste Pixel und das zweite Pixel umfasst, nimmt im ersten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende in der zweiten Richtung befindet, die Lichteinfallsmenge des Lichts, das auf das erste Pixel trifft, ab und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals, das im ersten Pixel erzeugt wird, ab. Im Gegensatz dazu nimmt im zweiten Pixel, je näher sich die Einfallsposition des Lichts am einen Ende in der zweiten Richtung befindet, die Lichteinfallsmenge des Lichts, das auf das zweite Pixel trifft, zu und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das im zweiten Pixel erzeugt wird, zu. Dementsprechend ist es möglich, durch die Empfangseinheit des Positionserfassungssensors in geeigneter Weise zu realisieren. Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung ist eine Positionsmessvorrichtung bereitgestellt, die eine Lichteinfallsposition misst. Die Positionsmessvorrichtung umfasst: den Positionserfassungssensor; und eine Lichtquelle, die die Lichtempfangseinheit mit Licht bestrahlt. Ein Durchmesser des Lichts, das an die Lichtempfangseinheit abgegeben wird, ist das Zweifache oder mehr des Maximalwerts einer Breite des ersten Pixels in der ersten Richtung und des Maximalwerts einer Breite des zweiten Pixels in der ersten Richtung. Die Positionsmessvorrichtung enthält den Positionserfassungssensor, und somit ist es möglich, den zuvor beschriebenen Effekt zu erhalten. Da darüber hinaus der Durchmesser des Lichts, das an die Lichtempfangseinheit abgegeben wird, das Zweifache oder mehr des Maximalwerts der Breite des ersten Pixels in der ersten Richtung und des Maximalwerts der Breite des zweiten Pixels in der ersten Richtung ist, ist es möglich, die erste Position und die zweite Position genau zu berechnen.
  • Im Positionserkennungssensor kann die Breite des ersten Pixels in der ersten Richtung abnehmen, je näher es am einen Ende in der zweiten Richtung liegt, und die Breite des zweiten Pixels in der ersten Richtung kann zunehmen, je näher es am einen Ende in der zweiten Richtung liegt. Wenn die Lichtempfangseinheit das erste Pixel und das zweite Pixel enthält, nimmt im ersten Pixel die Lichteinfallsmenge des auf das erste Pixel einfallenden Lichts ab, da die Einfallsposition des Lichts näher an dem einen Ende in der zweiten Richtung liegt, und dementsprechend nimmt auch die Intensität des ersten elektrischen Signals ab, das im ersten Pixel erzeugt wird. Im Gegensatz dazu nimmt im zweiten Pixel die Menge des auf das zweite Pixel einfallenden Lichtes zu, da die Einfallsposition des Lichtes näher an dem einen Ende in der zweiten Richtung liegt, und dementsprechend nimmt auch die Intensität des zweiten elektrischen Signals, das im zweiten Pixel erzeugt wird, zu. Dementsprechend ist es gemäß der Konfiguration möglich, die Lichtempfangseinheit des Positionserkennungssensors entsprechend zu realisieren.
  • Gemäß einer weiteren Ausführungsform der vorliegenden Erfindung ist eine Positionsmessevorrichtung vorgesehen, die eine Lichteinfallsposition misst. Die Positionsmessvorrichtung umfasst: den Positionserfassungssensor und eine Lichtquelle, die die Lichtempfangseinheit mit dem Licht bestrahlt. Der Durchmesser des Lichts, das an die Lichtempfangseinheit abgegeben wird, ist das Zweifache oder mehr des Maximalwerts der Breite des ersten Pixels in der ersten Richtung und des Maximalwerts der Breite des zweiten Pixels in der ersten Richtung. Die Positionsmessvorrichtung enthält den Positionserfassungssensor, und somit ist es möglich, den oben beschriebenen Effekt zu erzielen. Da außerdem der Durchmesser des Lichts, das zur Lichtempfangseinheit emittiert wird, das Zweifache oder mehr des Maximalwerts der Breite des ersten Pixels in der ersten Richtung und des Maximalwerts der Breite des zweiten Pixels in der ersten Richtung ist, ist es möglich, die erste Position und die zweite Position mit Genauigkeit zu berechnen.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, eine zweidimensionale Position, auf die Licht einfällt, mit hoher Geschwindigkeit zu erfassen.
  • Figurenliste
    • 1 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors gemäß einer Ausführungsform.
    • 2 zeigt eine Draufsicht einer Vielzahl von ersten Übertragungsfiltern und eine Vielzahl von zweiten Übertragungsfiltern.
    • 3 zeigt eine Querschnittsansicht entlang einer Linie III-III in 1.
    • 4 zeigt eine schematische Konfigurationsansicht eines Beispiels eines Positionserfassungssensors eines ersten Modifikationsbeispiels.
    • 5 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit einer zweiten Erfassungsposition in einem Fall, in dem ein Durchmesser eines Lichtpunkts dreimal eine Breite eines Pixels ist, bestätigt wird.
    • 6 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit der zweiten Erfassungsposition in einem Fall bestätigt wird, indem der Durchmesser des Lichtpunkts dreimal die Breite des Pixels ist.
    • 7 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit einer ersten Erfassungsposition in einem Fall bestätigt wird, indem der Durchmesser des Lichtpunkts dreimal eine Breite des Pixels ist.
    • 8 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit der ersten Erfassungsposition in einem Fall bestätigt wird, indem der Durchmesser des Lichtpunkts dreimal eine Breite des Pixels ist.
    • 9 zeigt eine Ansicht einer Beziehung zwischen dem Durchmesser des Lichtpunkts und einem Fehler der zweiten Erfassungsposition in einem Fall, in dem der Durchmesser des Lichtpunkts allmählich verändert wird.
    • 10 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit der ersten Erfassungsposition in einem Fall bestätigt wird, indem der Durchmesser des Lichtpunkts einmal so groß wie ein Maximalwert der Breite des Pixels ist.
    • 11 zeigt ein Ergebnis, das erhalten wird, indem die Genauigkeit der zweiten Erfassungsposition in einem Fall bestätigt wird, indem der Durchmesser des Lichtpunkts einmal so groß wie der Maximalwert der Breite des Pixels ist.
    • 12 zeigt eine Ansicht eines Beispiels einer Beziehung der ersten Erfassungsposition, der zweiten Erfassungsposition, eines ersten Erfassungsfehlers und eines zweiten Erfassungsfehlers.
    • 13 zeigt eine Ansicht eines Verfahrens zur Erstellung einer Nachschlagetabelle.
    • 14 zeigt eine Ansicht eines weiteren Beispiels einer Form eines jeden Pixels des ersten Modifikationsbeispiels.
    • 15 zeigt eine Ansicht eines noch weiteren Beispiels der Form des Pixels des ersten Modifikationsbeispiels.
    • 16 zeigt eine Ansicht eines noch weiteren Beispiels der Form des Pixels des ersten Modifikationsbeispiels.
    • 17 zeigt eine Ansicht eines weiteren Beispiels der Anordnung der entsprechenden Pixel des ersten Modifikationsbeispiels.
    • 18 zeigt eine Ansicht eines Zustands, in dem eine Vielzahl von Lichtpunkte gleichzeitig auf den Positionserfassungssensor des ersten Modifikationsbeispiels einfällt.
    • 19 zeigt ein schematisches Konfigurationsdiagramm einer Positionsmessvorrichtung mit dem Positionserfassungssensor gemäß dem ersten Modifikationsbeispiel.
    • 20 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors gemäß einem zweiten Modifikationsbeispiel.
    • 21 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors gemäß einem dritten Modifikationsbeispiel.
    • 22 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors gemäß einem vierten Modifikationsbeispiel.
    • 23 zeigt ein schematisches Konfigurationsdiagramm eines Profilsensors als Vergleichsbeispiel.
    • 24 zeigt ein schematisches Konfigurationsdiagramm eines Zeilensensors als Vergleichsbeispiel.
  • Beschreibung der Ausführungsformen
  • Im Nachfolgenden wird eine Ausführungsform eines Positionserfassungssensors gemäß der vorliegenden Erfindung ausführlich mit Bezug auf die begleitenden Zeichnungen beschrieben. In der Beschreibung und den Zeichnungen werden die gleichen Elemente mit den gleichen Bezugszeichen versehen, und es wird auf eine wiederholte Beschreibung weitgehend verzichtet.
  • (Ausführungsform)
  • 1 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors 1 gemäß dieser Ausführungsform. Der Positionserfassungssensor 1 ist ein Sensor, der eine zweidimensionale Position eines einfallenden Lichtpunkts L mit Bezug auf eine Einfallsposition davon erfasst. Insbesondere erfasst der Positionserfassungssensor 1 eine erste Erfassungsposition (erste Position), die die Einfallsposition des Lichts in einer X-Achsenrichtung (erste Richtung) ist, und eine zweite Erfassungsposition (zweite Position), die eine Einfallsposition des Lichts in einer Y-Achsenrichtung (zweite Richtung), die die X-Achsenrichtung schneidet, ist. Wie 1 gezeigt, umfasst der Positionserfassungssensor 1 eine Lichtempfangseinheit 10 und eine Signalverarbeitungseinheit 30. Die Lichtempfangseinheit 10 umfasst eine Vielzahl von Pixelpaaren 11, die entlang der X-Achsenrichtung in einer XY-Ebene angeordnet ist. Jedes der Vielzahl von Pixelpaaren 11 umfasst ein erstes Pixel 12 und ein zweites Pixel 13, die nebeneinander entlang der X-Achsenrichtung angeordnet sind. Beispielsweise weisen das erste Pixel 12 und das zweite Pixel 13 eine rechteckige Form auf, bei der die Y-Achsenrichtung als eine Längsrichtung festgelegt ist, und die abwechselnd entlang der X-Achsenrichtung angeordnet sind. Im Nachfolgenden werden eine Vielzahl der ersten Pixel 12 und eine Vielzahl der zweiten Pixel 13 gemeinsam als eine Vielzahl von Pixeln P1 bis PN (N ist eine ganze Zahl von 2 oder mehr und stellt die Anzahl der Pixel dar) bezeichnet. Die Pixel P1 , P3 , ... und PN-1 , denen ungerade Zahlen zugeordnet sind, entsprechen den ersten Pixeln 12, und die Pixel P2 , P4 , ... und PN , denen gerade Zahlen zugeordnet sind, entsprechen jeweils den zweiten Pixeln 13.
  • Die Pixel P1 bis PN erzeugen jeweils Ladungssignale Dx1 bis DxN , die den Lichteinfallsmengen des einfallenden Lichtpunkts L entsprechen. Insbesondere, wenn der Lichtpunkt L auf die ersten Pixel 12 trifft, erzeugen die ersten Pixel 12 Ladungssignale Dx1 , Dx3 , ... und DxN-1 (erste elektrische Signale), die den Lichteinfallsmengen des Lichtpunkts L entsprechen. Ebenso erzeugen die zweiten Pixel 13, wenn der Lichtpunkt L auf die zweiten Pixel 13 einfällt, Ladungssignale Dx2 , Dx4 , ... und DxN (zweite elektrische Signale), die den Lichteinfallsmengen des Lichtpunkts L entsprechen. Ein Durchmesser W des Lichtpunkts L wird auf einen größeren Wert eingestellt als eine Breite S eines jeden der Vielzahl von Pixel P1 bis PN in der X-Achsenrichtung. Eine Leuchtdichteverteilung des Lichtpunkts L weist eine Gauß‘sche Verteilung auf (d. h., eine Intensitätsverteilung, die in der Mitte am stärksten ist und zum Rand hin allmählich abnimmt), die durch den nachfolgenden Ausdruck (1) ausgedrückt wird. Im Ausdruck (1) kennzeichnet I die Intensität des Lichtpunkts L und r einen Abstand von der Mitte des Lichtpunkts L. ω ist der Abstand r, wenn die Intensität I 1/e2 wird und stellt einen Radius des Lichtpunkts L mit der Gauß‘schen Verteilung dar. Dementsprechend wird der Durchmesser W des Lichtpunkts L durch 2ω ausgedrückt.
    [Mathematische Formel 1] I ( r ) = exp ( 2 r 2 ω 2 )
    Figure DE112018005325T5_0001
  • Die Lichtempfangseinheit 10 umfasst fermer eine Vielzahl erste Übertragungsfilter 14, die jeweils auf der Vielzahl der ersten Pixel 12 angeordnet sind, und eine Vielzahl von zweiten Übertragungsfiltern 15, die jeweils auf der Vielzahl der zweiten Pixel angeordnet sind. 2 zeigt eine Draufsicht, die die Vielzahl von ersten Übertragungsfiltern 14 und die Vielzahl von zweiten Übertragungsfiltern 15 darstellt. Wie in 2 gezeigt, weisen die ersten Übertragungsfilter 14 und die zweiten Übertragungsfilter 15 eine rechteckige Form auf, bei der die Y-Achsenrichtung als in Längsrichtung festgelegt ist, und die abwechselnd entlang der X-Achsenrichtung angeordnet sind. 3 zeigt eine Querschnittsansicht entlang der Linie III-III in 1. Wie in 3 gezeigt, bedecken die ersten Übertragungsfilter 14 jeweils die ersten Pixel 12, und die zweiten Übertragungsfilter 15 bedecken jeweils die zweiten Pixel 13. Die ersten Übertragungsfilter 14 und die zweiten Übertragungsfilter 15 ermöglichen die Übertragung des einfallenden Lichts. Die Durchlässigkeit der ersten Übertragungsfilter 14 nimmt allmählich ab (d. h., nimmt monoton ab), je näher sie sich am einen Ende 10a der Lichtempfangseinheit 10 in der Y-Achsenrichtung befindet, und nimmt allmählich zu (d. h. nimmt monoton zu), je näher sie sich am anderen Ende 10b der Lichtempfangseinheit 10 in der Y-Achsenrichtung auf den ersten Pixeln 12 befindet. Die Durchlässigkeit der ersten Übertragungsfilter 14 kann allmählich abnehmen, je näher sie am einen Ende 10a in der Y-Achsenrichtung angeordnet sind, und kann allmählich zunehmen, je näher sie am anderen Ende 10b in der Y-Achsenrichtung auf den ersten Pixeln 12 angeordnet sind. In 1 und 2 wird die Durchlässigkeit der ersten Übertragungsfilter 14 und der zweiten Übertragungsfilter 15 durch Farbschattierungen dargestellt. Je höher die Durchlässigkeit ist, desto dünner sind die Schattierungen, und je geringer die Durchlässigkeit ist, desto dunkler sind die Schattierungen. Wenn Licht durch jeden der ersten Übertragungsfilter 14 übertragen wird, nimmt eine Lichteinfallsmenge des Lichtpunkts L, der auf jedes erste Pixel 12 auftrifft, allmählich ab (oder nimmt stufenweise ab), je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet, und nimmt allmählich zu (oder nimmt stufenweise zu), je näher sich die Einfallsposition des Lichtpunkts L am anderen Ende 10b in der Y-Achsenrichtung befindet. Dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, allmählich ab (oder nehmen stufenweise ab), je näher sich die Einfallsposition am anderen Ende in der Y-Achsenrichtung befindet, und nehmen zu (oder nehmen stufenweise zu), je näher sich die Einfallsposition am anderen Ende 10b in der Y-Achsenrichtung befindet.
  • Andererseits nimmt die Durchlässigkeit der zweiten Übertragungsfilter 15 allmählich zu, je näher sie sich am einen Ende in Y-Achsenrichtung befinden, und nimmt allmählich ab, je näher sie sich am anderen Ende 10b der Lichtempfangseinheit 10 in der Y-Achsenrichtung auf den zweiten Pixeln 13 befinden. Die Durchlässigkeit der zweiten Übertragungsfilter 15 kann allmählich zunehmen, je näher sie sich am einen Ende 10a in der Y-Achsenrichtung befinden, und kann allmählich abnehmen, je näher sie sich am anderen Ende 10b in der Y-Achsenrichtung auf den zweiten Pixeln 13 befinden. Wenn Licht durch jeden der zweiten Übertragungsfilter 15 übertragen wird, nimmt eine Lichteinfallsmenge des Lichtpunkts L, der auf jeden der zweiten Pixel 13 auftrifft, allmählich zu (oder nimmt stufenweise zu)), je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet, und nimmt allmählich ab (oder nimmt stufenweise ab), je näher sich die Einfallsposition des Lichtpunkts L am anderen Ende 10b in der Y-Achsenrichtung befindet. Dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13 erzeugt werden, allmählich zu (oder nehmen stufenweise zu), je näher sich die Einfallsposition am einen Ende 10a in der Y-Achsenrichtung befindet, und nehmen allmählich ab (oder nehmen stufenweise ab), je näher sich der Einfallsposition am anderen Ende 10b in der Y-Achsenrichtung befindet. Wie zuvor beschrieben wird eine Zunahmerichtung oder eine Abnahmerichtung der Durchlässigkeit in der Y-Achsenrichtung zwischen den ersten Filtern 14 und den zweiten Filtern 15 umgekehrt.
  • Im Nachfolgenden wird erneut auf 1 Bezug genommen. Die Signalverarbeitungseinheit 30 ist auf einer Seite der Pixel P1 bis PN in der Y-Achsenrichtung vorgesehen. Die Signalverarbeitungseinheit 30 umfasst mehrere Schaltelemente 31, ein Schieberregister 32, einen Verstärker 33, einen A/D-Wandler 34 und eine Berechnungseinheit 35. Die Schaltelemente 31 sind jeweils entsprechend den Pixeln P1 bis PN vorgesehen. Eingangsanschlüsse der Schaltelemente 31 sind jeweils mit den Pixeln P1 bis PN elektrisch verbunden. Das Schieberegister ist vorgesehen, um nacheinander die Ladungssignale Dx1 bis DxN aus den Pixeln P1 bis PN auszulesen. Das Schieberegister 32 gibt ein Steuersignal zur Steuerung einer Operation der Schaltelemente 31 aus. Die Schaltelemente 31 werden durch das Steuersignal, das aus dem Schieberregister 32 ausgegeben wird, sequenziell geschlossen. Wenn die Schaltelemente 31 sequenziell geschlossen werden, werden die Ladungssignale Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, nacheinander aus Ausgangsanschlüssen der Schaltelemente 31 ausgegeben. Der Verstärker 33 ist mit den Ausgangsanschlüssen der Schaltelemente 31 elektrisch verbunden. Der Verstärker 33 gibt einen Spannungswert entsprechend den Ladungssignalen Dx1 bis DxN aus, die aus den Ausgangsanschlüssen der Schaltelemente 31 ausgegeben werden. Der A/D-Wandler 34 ist mit dem Verstärker 33 elektrisch verbunden. Der A/D-Wandler 34 wandelt Spannungswerte, die aus dem Verstärker 33 ausgegeben werden in digitale Werte um. Der A/D-Wandler 34 gibt die digitalen Werte aus. Die digitalen Werte sind Werte, die den Intensitäten der Ladungssignale Dx1 bis DxN entsprechen. Dementsprechend erfolgt im Nachfolgenden eine Beschreibung eines Zustands, bei dem die digitalen Werte durch die Intensitäten der Ladungssignale Dx1 bis DxN ersetzt werden.
  • Die Berechnungseinheit 35 ist mit dem A/D-Wandler 34 elektrisch verbunden. Die Berechnungseinheit 35 berechnet die erste Erfassungsposition, die die Einfallsposition des Lichtpunkts L in der X-Achsenrichtung ist, und die zweite Erfassungsposition, die die Einfallsposition des Lichtpunkts L in der Y-Achsenrichtung ist, auf der Grundlage der digitalen Werte, die aus dem A/D-Wandler 34 ausgegeben werden. Im Nachfolgenden wird ein Verfahren zur Berechnung der ersten Erfassungsposition und ein Verfahren zur Berechnung der zweiten Erfassungsposition ausführlich beschrieben. Die erste Erfassungsposition wird berechnet, indem eine Gewichtungsoperation (Schwerpunktberechnungsoperation) an Positionen der Pixel P1 bis PN in der X-Achsenrichtung mit den Intensitäten der Ladungssignale Dx1 bis DxN durchgeführt wird. Insbesondere wird die erste Erfassungsposition durch Verwenden des nachfolgenden Ausdrucks (2) berechnet. In dem Ausdruck (2) kennzeichnet Px1 die erste Erfassungsposition und I kennzeichnet 1, 2, ... oder N (N ist die Anzahl der Pixel).
    [Mathematische Formel 2] P x 1 = i = 1 N i S 2 D x i i = 1 N D x i
    Figure DE112018005325T5_0002
  • Wie zuvor beschrieben, nehmen die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, ab, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a der Lichtempfangseinheit 10 in der Y-Achsenrichtung befindet, und auch die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13 erzeugt werden, nehmen zu, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet. Auf diese Weise ändert sich die Intensitäten der Ladungssignale Dx1 bis DxN mit Bezug auf die Einfallsposition des Lichtpunkts L in der Y-Achsenrichtung, und somit ist es möglich, die zweite Erfassungsposition, die die Einfallsposition des Lichtpunkts L in der Y-Achsenrichtung ist, zu berechnen, indem eine Änderung der Intensitäten der Ladungssignale Dx1 bis DxN verwendet wird. Die zweite Erfassungsposition wird auf der Grundlage eines ersten integrierten Werts, der durch Integrieren der Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, erhalten wird, und eines zweiten integrierten Werts, der durch Integrieren der Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln erzeugt werden, erhalten wird, berechnet. In einem Beispiel wird die zweite Erfassungsposition durch den nachfolgenden Ausdruck (3) berechnet. In Ausdruck (3) kennzeichnet Py1 die zweite Erfassungsposition und h stellt eine Länge eines jeden Pixels P1 bis PN in der Y-Achsenrichtung dar.
    [Mathematische Formel 3] P y 1 = i = 2,4,6 N h D x i i = 1 N D x i
    Figure DE112018005325T5_0003
  • In Ausdruck (3) wird die zweite Erfassungsposition Py1 berechnet, in dem ein Verhältnis zwischen einem Gesamtwert des ersten integrierten Werts und des zweiten integrierten Werts (d. h., ein integrierter Wert, der durch Integrieren der Intensitäten der Ladungssignale Dx1 bis DxN , die in allen Pixeln P1 bis PN erzeugt werden, erhalten wird) und dem zweiten integrierten Wert bestimmt wird. Die zweite Erfassungsposition Py1 kann auf der Grundlage eines Verhältnisses zwischen dem ersten integrierten Wert und dem Gesamtwert des ersten integrierten Werts und des zweiten integrierten Werts berechnet werden, oder sie kann auf der Grundlage eines Verhältnisses zwischen dem ersten integrierten Wert und dem zweiten integrierten Wert berechnet werden.
  • Wie zuvor beschrieben, werden die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1, die durch die Berechnungseinheit 35 berechnet werden, dann genauer berechnet, wenn eine Korrektur durchgeführt wird. Im Nachfolgenden wird ein Korrekturverfahren ausführlich beschrieben. Zunächst wird im Voraus eine Nachschlagetabelle bezüglich einer Schwerpunktposition (im Folgenden als „erste Schwerpunktposition“ bezeichnet) eines tatsächlich einfallenden Lichtpunkts L in X-Achsenrichtung, einer Schwerpunktposition (im Folgenden als „zweite Scherpunktposition“ bezeichnet) eines tatsächlich einfallenden Lichtpunkts L in Y-Achsenrichtung, der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 erstellt, und anschließend wird die Nachschlagetabelle z. B. in der Berechnungseinheit 35 aufgezeichnet. Zusätzlich liest die Berechnungseinheit 35 bei der Korrektur der zweiten Erfassungsposition Py1 einen Fehler LUTy, der der ersten Schwerpunktposition entspricht, zwischen der zweiten Schwerpunktposition und der zweiten Erfassungsposition Py1 aus der Nachschlagetabelle aus und berechnet einen Korrekturwert Py2 der zweiten Erfassungsposition Py1 anhand des nachfolgenden Ausdrucks (4).
    [Mathematische Formel 4] P y 2 = P y 1 + L U T y ( P x 1, P y 1, W )
    Figure DE112018005325T5_0004
  • Beispielsweise wird die Nachschlagetabelle, die sich auf den Fehler LUTy bezieht, wie folgt erzeugt. Zunächst wird im Voraus der Durchmesser W des einfallenden Lichtpunkts L bestimmt, und der Lichtpunkt L mit dem Durchmesser W dazu gebracht, auf eine Vielzahl von Positionen, die vorab bestimmt werden, in den Pixeln P1 bis PN einzufallen. Der Grund, warum der Durchmesser W des einfallenden Lichtpunkts L vorab bestimmt wird, liegt darin, dass die Genauigkeit der zweiten Erfassungsposition Py1 und der ersten Erfassungsposition Px1 durch eine relative Größe des Durchmessers W des Lichtpunkts L mit Bezug auf die Breite S eines jeden Pixels P1 bis PN beeinflusst wird. Jedoch muss der Durchmesser W des Lichtpunkts L nicht im Voraus bestimmt werden, und in diesem Fall können bei der Erstellung einer Nachschlagetabelle, die sich auf den Fehler LUTy bezieht, mehrere Nachschlagetabellen mit Bezug auf den Durchmesser W einer Vielzahl von Lichtpunkten 11 im Voraus erzeugt werden. Darüber hinaus kann bei der Erfassung der Einfallsposition des Lichtpunkts L der Durchmesser W des einfallenden Lichtpunkts L gemessen und eine Nachschlagetabelle, die dem Durchmesser W des einfallenden Lichtpunkts L entspricht, verwendet werden.
  • Als Nächstes wird für jede erste Schwerpunktposition die zweite Erfassungsposition Py1 aufgezeichnet, die von der Berechnungseinheit 35 berechnet wird, wenn der Lichtpunkt L auf die Positionen einfällt. Eine Beziehung zwischen der aufgezeichneten zweiten Erfassungsposition Py1, der zweiten Schwerpunktposition und dem Fehler LUTy wird durch eine Näherungskurve mittels Polynomnäherung ausgedrückt. Zusätzlich wird die Nachschlagetabelle, die durch Ergänzen numerischer Werte, die weiteren zweiten Erfassungspositionen Py1 und dem Fehler LUTy entsprechen, auf der Grundlage der Näherungskurve für jede erste Schwerpunktposition erzeugt. Als weiteres Verfahren zur Erstellung der Nachschlagetabelle, die sich auf den Fehler LUTy bezieht, gibt es beispielsweise ein Verfahren, bei dem die Nachschlagetabelle auf der Grundlage einer Beziehung zwischen den Ladungssignalen Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, und einer Position, auf der der Lichtpunkt L tatsächlich in der Y-Achsenrichtung auftrifft, erzeugt wird. Die auf diese Weise erstellte Nachschlagetabelle kann als eine Nachschlagetabelle zur Bestimmung einer ersten Position (d. h., eine Position, auf die der Lichtpunkt L tatsächlich in der Y-Achsenrichtung einfällt) aus den Ladungssignalen Dx1 bis DxN und nicht durch die zweite Erfassungsposition Py1 und dergleichen verwendet werden.
  • Wenn andererseits eine Korrektur der ersten Erfassungsposition Px1 durchgeführt wird, liest die Berechnungseinheit 35 eine Fehler LUTy, der der zweiten Schwerpunktposition entspricht, zwischen der ersten Schwerpunktposition und der ersten Erfassungsposition Px1 aus einer Nachschlagetabelle aus, die sich auf die erste Schwerpunktposition, die zweite Schwerpunktposition, die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1 bezieht, und berechnet einen Korrekturwert Px2 der ersten Position Px1 durch den nachfolgenden Ausdruck (5).
    [Mathematische Formel 5] P x 2 = P x 1 + L U T x ( P x 1, P y 1, W )
    Figure DE112018005325T5_0005
    Die Nachschlagetabelle für den Fehler LUTx wird auf die gleiche Weise erstellt, wie die Nachschlagetabelle für den Fehler LUTy. Insbesondere trifft der Lichtpunkt L auf eine Vielzahl von Positionen, die im Voraus bestimmt werden, in den Pixeln P1 bis PN , und die erste Erfassungsposition Px1, die durch die Berechnungseinheit 35 berechnet wird, wird für jede zweite Schwerpunktposition zu diesem Zeitpunkt aufgezeichnet. Eine Beziehung der aufgezeichneten ersten Erfassungsposition Px1, der ersten Schwerpunktposition und des Fehlers LUTx wird durch eine Näherungskurve mittels Polygonnäherung ausgedrückt. Darüber hinaus wird die Nachschlagetabelle, die durch Ergänzen numerischer Werte entsprechend weiterer erster Erfassungspositionen Px1 und dem Fehler LUTx erhalten wird, auf der Grundlage der Näherungskurve für jede zweite Schwerpunktposition erstellt. Die Nachschlagetabelle, die sich auf den Fehler LUTx bezieht, kann eine Nachschlagetabelle sein, die sich auf die erste Schwerpunktposition und die erste Erfassungsposition Px1 bezieht. Als weiteres Verfahren zur Erstellung der Nachschlagetabelle bezüglich des Fehlers LUTx gibt es beispielsweise ein Verfahren zur Erstellung der Nachschlagetabelle auf der Grundlage einer Beziehung zwischen den Ladungssignalen Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, und einer Position, auf die der Lichtpunkt L tatsächlich in der X-Achsenrichtung einfällt. Die auf diese Weise erzeugte Nachschlagetabelle kann als eine Nachschlagetabelle zur Bestimmung einer direkten Position (d. h., eine Position, auf die der Lichtpunkt L tatsächlich in der X-Achsenrichtung einfällt) aus den Ladungssignalen Dx1 bis DxN verwendet werden. Die Korrektur wird durch das zuvor beschriebene Verfahren in dem Fall durchgeführt, in dem gewünscht wird, die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1 mit größerer Genauigkeit zu erfassen, und wird nicht unbedingt benötigt.
  • Im Nachfolgenden wird ein Effekt, der durch den Positionserfassungssensor 1 gemäß der zuvor beschriebenen Ausführungsform erhalten wird, zusammen mit einem Problem eines Vergleichsbeispiels beschrieben. Beispielsweise wird in einem Bereich der Robotersteuerung oder optischen Steuerung ein Profilsensor vorgeschlagen, der auf die Erfassung der Position eines einfallenden Lichtpunkts spezialisiert ist. Der Profilsensor wird z. B. bei einer MEMS-Steuerungsanwendung oder dergleichen eingesetzt. 23 zeigt eine Ansicht eines Profilsensors 100 gemäß einem Vergleichsbeispiel. Wie in 23 gezeigt, umfasst der Profilsensor 100 eine Lichtempfangseinheit 101, eine erste Signalverarbeitungseinheit 110 und eine zweite Signalverarbeitungseinheit 120. Die Lichtempfangseinheit 101 umfasst eine Vielzahl von Pixel 102, die zweidimensional angeordnet sind. Jedes der Pixel 102 ist in zwei Bereiche unterteilt. Ein Pixel 103 in Y-Achsenrichtung und ein Pixel 104 in X-Achsenrichtung sind jeweils in zwei Bereichen der Pixel 102 vorgesehen.
  • Eine Vielzahl von Pixeln 103 in Y-Achsenrichtung ist für jede Spalte (d. h. in Y-Achsenrichtung) miteinander verdrahtet und elektrisch mit der ersten Signalverarbeitungseinheit 110 verbunden. Eine Vielzahl der Pixel 104 in X-Achsenrichtung ist für jede Reihe (d. h. in der X-Achsenrichtung) miteinander verdrahtet und elektrisch mit der zweiten Signalverarbeitungseinheit 120 verbunden. Die erste Signalverarbeitungseinheit 110 gibt nacheinander Spannungssignale entsprechender Ladesignale, die in den Pixeln 103 in Y-Achsenrichtung erzeugt werden, als Zeitreihendaten für jede Spalte aus. Die Zeitreihendaten stellen ein Projektionsbild (Profil) in der X-Achsenrichtung dar. Die erste Signalverarbeitungseinheit 110 erfasst eine Position in der X-Achsenrichtung mit Bezug auf eine Einfallsposition eines Lichtpunkts durch das Projektionsbild in der X-Achsenrichtung. In ähnlicher Weise gibt die zweite Signalverarbeitungseinheit 120 nacheinander Spannungssignale entsprechend den Ladungen, die in den Pixeln 104 in X-Achsenrichtung erzeugt werden, als Zeitreihendaten für jede Zeile aus. Die Zeitreihendaten stellen ein Projektionsbild in der Y-Achsenrichtung dar. Die zweite Signalverarbeitungseinheit 120 erfasst eine Position in der Y-Achsenrichtung mit Bezug auf die Einfallsposition des Lichtpunkts durch das Projektionsbild in der Y-Achsenrichtung.
  • Wie zuvor beschrieben, wird im Profilsensor 100 eine zweidimensionale Position, auf die der Lichtpunkt auftrifft, mit nur zwei Ausgangsdaten des Projektionsbilds in der X-Achsenrichtung und des Projektionsbilds in der Y-Achsenrichtung erfasst, und somit ist es möglich, die zweidimensionale Position, auf die der Lichtpunkt eintrifft, mit hoher Geschwindigkeit zu erfassen. Das heißt, mit dem Profilsensor 100 ist es möglich, eine hohe Bildfrequenz zu realisieren. Zusätzlich werden z. B. im Profilsensor 100 Daten des Projektionsbildes mit einer geringeren Datenmenge im Vergleich zu einem Sensor verarbeitet, der eine zweidimensionale Position, auf die ein Lichtpunkt auftrifft, durch Bildverarbeitung von Bilddaten (einschließlich Informationen wie Einfallsposition, Form und Lichtmenge des Lichtpunkts), die durch die Bildaufnahme gewonnen werden, erfasst, und somit ist es möglich, eine für die Berechnung der Einfallsposition des Lichtpunkts erforderliche Schaltungsabmessung (circuit scale) zu unterdrücken. Jedoch kann es z. B. bei der Herstellung des Profilsensors 100 in einem CMOS-Prozess Schaltungsteile, wie ein Verstärker, ein A/D-Wandler und eine Betriebseinheit hochintegriert werden. Eine Anwendung des Profilsensors 100 befindet sich in Bereichen, wie Motorsteuerung und optische Steuerung, in denen eine hohe Bildfrequenz erforderlich ist. Dabei sind die Anforderungen, wie z. B. die hohe Bildfrequenz und eine Verbesserung einer Funktionserfassungsfunktion gestiegen.
  • Beim Profilsensor 100, in dem die Pixel 102 zweidimensional angeordnet sind, ist jedoch die Anzahl der Ladungssignale im Vergleich zu einem Zeilensensor, in dem die Pixel eindimensional angeordnet sind, größer, da die Ladungssignale zur Erfassung des Projektionsbildes in X-Achsenrichtung zusätzlich zu den elektrischen Signalen zur Erfassung des Projektionsbildes in X-Achsenrichtung von den Pixeln 102 ausgegeben werden. Dementsprechend wird beim Profilsensor 100 das Auslesen der Ladungssignale zeitaufwendig, und somit gibt es eine Grenze bei der Erfassung der zweidimensionalen Position, auf die das Licht einfällt, mit hoher Geschwindigkeit.
  • Andererseits erfasst der Zeilensensor die eindimensionale Position, auf die der Lichtpunkt einfällt, in dem Signale aus den mehreren Pixeln, die eindimensional angeordnet sind, ausgelesen werden. 24 zeigt ein schematisches Konfigurationsdiagramm eines Zeilensensors 200 gemäß einem Vergleichsbeispiel. Wie in 24 gezeigt, umfasst der Zeilensensor 200 eine Lichtempfangseinheit 201 und eine Signalverarbeitungseinheit 210. Die Lichtempfangseinheit 201 umfasst Pixel P1 bis PN . Die Signalverarbeitungseinheit 210 umfasst die mehreren Schaltelemente 31, die Schieberegister 32, den Verstärker 33, den A/D-Wandler 34 und eine Berechnungseinheit 220. Ein Unterschied zwischen dem Zeilensensor 200 und dem Positionserfassungssensor 1 gemäß dieser Ausführungsform liegt darin, dass die Lichtempfangseinheit 201 keine mehreren ersten Übertragungsfilter 14 und keine mehreren zweite Übertragungsfilter 15 umfasst, und die Signalverarbeitungseinheit 210 umfasst anstelle der Berechnungseinheit 35 die Berechnungseinheit 220. Die Berechnungseinheit 220 liest die Ladungssignale, die aus den Pixeln P1 bis PN ausgegeben werden, aus und erfasst eine Einfallsposition eines Lichtpunkts in der X-Achsenrichtung auf der Grundlage von Spannungssignalen, die den Ladungssignalen entsprechen. Beispielsweise führt die Berechnungseinheit 220 eine Gewichtungsoperation an Positionen der Pixel P1 bis PN in der X-Achsenrichtung mit Intensitäten der Ladungssignale durch, um lediglich eine Einfallsposition des Lichtpunkts in der X-Achsenrichtung zu berechnen.
  • Da bei dem Zeilensensor 200 nur die Ladungssignale zur Erfassung der Einsatzposition des Lichtpunkts in der X-Achsenrichtung aus den Pixeln P1 bis PN ausgegeben werden, ist es möglich, die Anzahl der Ladungssignale, die ausgegeben werden, im Vergleich zum Profilsensor 100 zu unterdrücken. Dementsprechend ist es beim Zahlensensor 200 möglich, die Zeit, die zum Auslesen der Ladungssignale erforderlich ist, zu verkürzen, und somit ist es möglich, eine eindimensionale Position, auf die der Lichtpunkt einfällt, mit hoher Geschwindigkeit zu erfassen. Jedoch ist es beim Zeilensensor 200 schwierig, eine Einfallsposition des Lichtpunkts in der Y-Achsenrichtung zu erfassen. Das heißt, der Zeilensensor 200 hat keine Positionserfassungsposition, die sich auf zwei Richtungen bezieht.
  • Beim Positionserfassungssensor 1 gemäß dieser Ausführungsform führt die Berechnungseinheit 35, so wie beim Zeilensensor 200 im Vergleichsbeispiel, da die Pixel P1 bis PN entlang der X-Achsenrichtung angeordnet sind, eine Gewichtungsoperation an Positionen der Pixel P1 bis PN mit den Intensitäten der Ladungssignale Dx1 bis DxN durch, um die erste Erfassungsposition Px1, die die Einfallsposition des Lichtpunkts L in der X-Achsenrichtung ist, zu berechnen. Darüber hinaus nehmen in den ersten Pixeln 12, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet, die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 ab. In den zweiten Pixeln 13 nehmen die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN zu, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet. Die Berechnungseinheit 35 berechnet die zweite Erfassungsposition Py1, die die Einfallsposition des Lichts in der Y-Achsenrichtung ist, beispielsweise unter Verwendung des Ausdrucks (3), in dem eine Änderung der Intensitäten der Ladungssignale Dx1 bis DxN verwendet wird. Auf diese Weise kann der Positionserfassungssensor 1 gemäß dieser Ausführungsform die zweite Erfassungsposition Py1 zusätzlich zur ersten Erfassungsposition Px1 mit Bezug auf die Einfallsposition des Lichtpunkts L berechnen. Das heißt, der Positionserfassungssensor gemäß dieser Ausführungsform weist eine Positionserfassungsfunktion auf, die sich zwei Richtungen bezieht.
  • Darüber hinaus kann der Positionserfassungssensor 1 gemäß dieser Ausführungsform zwei Informationsteile der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 mit Bezug auf die Einfallsposition des Lichtpunkts L erhalten, in dem lediglich die Information des Ladungssignale Dx1 bis DxN verwendet wird. Das heißt, es ist nicht erforderlich, Ladungssignale zur Berechnung der zweiten Erfassungsposition Py1 aus den Pixeln P1 bis PN getrennt zu erzeugen. Dementsprechend ist es möglich, einen Anstieg der Anzahl der Ladungssignale zu unterdrücken, und es ist möglich, die Zeit, die zum Auslesen der Ladungssignale erforderlich ist, zu verkürzen. Das heißt, gemäß dem Positionserfassungssensor 1 dieser Ausführungsform ist es möglich, die zweidimensionale Position, auf die der Lichtpunkt L auftrifft, mit hoher Geschwindigkeit zu erfassen, und es ist möglich, eine höhere Bildfrequenz zu erreichen. Da zudem, wie zuvor beschrieben, die Ladungssignale zur Berechnung der zweiten Erfassungsposition Py1 aus den Pixeln P1 bis PN nicht getrennt erzeugt werden müssen, ist z. B. eine Verschaltung und eine Schaltung zum Auslesen der Ladungssignale nicht erforderlich. Demnach ist es möglich, die Fläche der Pixel P1 bis PN zu vergrößern und das Öffnungsverhältnis der Pixel P1 bis PN zu verbessern. Dadurch ist es möglich, die Empfindlichkeit bezüglich des auf die Pixel P1 bis PN einfallenden Lichtpunkts L zu erhöhen und eine Vergrößerung des Dynamikbereichs zu erzielen.
  • (Erstes Modifikationsbeispiel)
  • 4 zeigt ein schematisches Konfigurationsdiagramm eines Beispiels eines Positionserfassungssensors 1A gemäß einem ersten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass die Formen der Pixel verschieden sind, und dass eine Lichtempfangseinheit 10A des Positionserfassungssensors 1A gemäß diesem Modifikationsbeispiel keine mehreren Übertragungsfilter 14 und keine mehreren zweiten Übertragungsfilter 15 umfasst. In jedem Pixelpaar 11A der Lichtempfangseinheit 10A nimmt eine Breite in der X-Achsenrichtung eines ersten Pixels 12A, das dem ersten Pixel 12 der Ausführungsform entspricht, allmählich ab, je näher es am einen Ende 10a der Lichtempfangseinheit 10A in der Y-Achsenrichtung liegt, und nimmt allmählich zu, je näher es am anderen Ende 10b der Lichtempfangseinheit 10A in der Y-Achsenrichtung liegt. In einem Beispiel weist eine Vielzahl der ersten Pixel 12A eine gleichschenklige Dreiecksform auf, die sich in Richtung des einen Endes 10a in der Y-Achsenrichtung verjüngt. Andererseits nimmt jedes zweite Pixel 13A, das dem zweiten Pixel 13 der Ausführungsform entspricht, allmählich zu, je näher es dem einen Ende 10a in der Y-Achsenrichtung kommt, und nimmt allmählich ab, je näher es dem anderen Ende 10b in der Y-Achsenrichtung kommt. In einem Beispiel weist eine Vielzahl der zweiten Pixel 13 eine gleichschenklige Dreiecksform auf, die sich in Richtung des anderen Endes 10b in der Y-Achsenrichtung verjüngt. Im Nachfolgenden werden die Vielzahl der ersten Pixel 12A und die Vielzahl der zweiten Pixel 13A gemeinsam als eine Vielzahl von Pixeln P1 bis PN , wie in der Ausführungsform, bezeichnet. Die Pixel P1 , P3 , ... und PN-1 , denen ungerade Zahlen zugeordnet sind, entsprechen den ersten Pixeln 12A, und die Pixel P2 , P4 , ... und PN , denen gerade Zahlen zugeordnet sind, entsprechen jeweils den zweiten Pixeln 13A. Darüber hinaus werden Ladungssignale, die von den Pixeln P1 bis PN erzeugt werden, als Dx1 bis DxN bezeichnet.
  • Wenn die Lichtempfangseinheit 10A die Pixel P1 bis PN umfasst, nimmt in den ersten Pixeln 12A, je näher die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung liegt, eine Lichteinfallsmenge des Lichtpunkts L, der auf die ersten Pixel 12A eintrifft, ab und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12A erzeugt werden, ab. Andererseits nehmen in den zweiten Pixeln 13A, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10A in der Y-Achsenrichtung befindet, eine Lichteinfallsmenge des Lichtpunkts L, der auf die zweiten Pixel 13A auftrifft, zu, und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13a erzeugt werden, zu.
  • Im Nachfolgenden erfolgt eine Beschreibung über die Genauigkeit der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1, die durch den Positionserfassungssensor 1A gemäß diesem Modifikationsbeispiel erfasst werden. Die Genauigkeit der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 wird durch eine Beziehung zwischen dem Durchmesser W des einfallenden Lichtpunkts L und einem Maximalwert S einer Breite eines jeden Pixels P1 bis PN beeinflusst. Insbesondere wird die Genauigkeit der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 weiter verbessert, wenn der Durchmesser W des Lichtpunkts L größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN ist. Dementsprechend wird der Durchmesser W des Lichtpunkts L so eingestellt, dass er hinreichend größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN ist, um die Genauigkeit der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 zu verbessern. In einem Beispiel ist der Durchmesser W des Lichtpunkts L doppelt so groß, oder noch größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN (insbesondere ein größerer Wert zwischen einem Maximalwert der Breite des ersten Pixels 12A und einem Maximalwert der Breite des zweiten Pixels 13A), und vorzugsweise das Dreifache oder mehr des Maximalwerts S. Der Durchmesser W des Lichtpunkts L wird so eingestellt, dass er hinreichend größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN ist. Wenn beispielsweise Durchmesser W des Lichtpunkts L das Dreifache oder mehr des Maximalwerts S der Breite der Pixel P1 bis PN ist, wird ein Fehler (im Folgenden als zweiter Erfassungsfehler bezeichnet) zwischen der zweiten Schwerpunktposition und der zweiten Erfassungsposition Py1 das 1:1000-fache oder weniger einer Länge h eines jeden Pixels P1 bis PN in der Y-Achsenrichtung. In einem Fall, in dem die Größe des Lichtpunkts L größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN ist, wird die zweite Erfassungsposition Py1 auf Subpixelgenauigkeit berechnet. Die Größe des Lichtpunkts L stellt den Abstand r von der Mitte des Lichtpunkts L dar, wenn die Intensität I des Lichtpunkts L in Ausdruck (1) der Ausführungsform null wird.
  • 5 und 6 veranschaulichen die Ergebnisse, die durch die Überprüfung der Genauigkeit der zweiten Erfassungsposition Py1 durch Simulation in einem Fall erzielt werden, in dem der Durchmesser W des Lichtpunkts L das Dreifache des Maximalwerts S der Breite der Pixel P1 bis PN ist. In 5 und 6 wird der Maximalwert S der Breite jedes der Pixel P1 bis PN auf 20 festgelegt, und die Länge h eines jeden Pixels P1 bis PN auf 1000 festgelegt. 5 zeigt eine Beziehung zwischen der zweiten Erfassungsposition Py1 und der zweiten Schwerpunktposition. In 5 ist auf der Horizontalachse die zweite Erfassungsposition Py1 aufgetragen, und auf der vertikalen Achse ist die zweite Schwerpunktposition aufgetragen. Werte auf der horizontalen Achse und der vertikalen Achse in 5 sind relative Werte in dem Fall, in dem die Länge h jedes der Pixel P1 bis PN auf einen Referenzwert gesetzt wird (d. h. h ist 1). In 5 sind Diagramme in überlappender Weise dargestellt, die die Beziehung zwischen der zweiten Erfassungsposition Py1 und der zweiten Schwerpunktposition darstellen, wenn eine Position in X-Achsenrichtung, auf die der Lichtpunkt L tatsächlich einfällt, zwischen 10 und 10,45 in einem Intervall von 0,05 verändert wird. Die Werte von 10 bis 10,45 der Position in X-Achsenrichtung sind relative Werte in einem Fall, in dem der Maximalwert S der Breite eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird (d. h., S ist gleich 1). Wie in 5 gezeigt, kann bestätigt werden, dass die zweite Erfassungsposition Py1 und die zweite Schwerpunktposition übereinstimmen.
  • 6 veranschaulicht eine Beziehung zwischen der zweiten Schwerpunktposition und dem zweiten Erfassungsfehler. In 6 ist auf der horizontalen Achse die zweite Schwerpunktposition und auf der vertikalen Achse der zweite Erfassungsfehler aufgetragen. Werte auf der vertikalen Achse und der horizontalen Achse in 6 sind relative Werte in einem Fall, in dem die Länge h eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird (d. h. h ist gleich 1). In 6 zeigen die Diagramme G10 bis G19 Beziehungen zwischen der zweiten Schwerpunktposition und dem zweiten Erfassungsfehler, wenn die Position in X-Achsenrichtung, auf die der Lichtpunkt L tatsächlich einfällt, zwischen 10 und 10,45 in einem Intervall von 0,05 verändert wird. Die Werte von 10 bis 10,45 der ersten Schwerpunktposition sind relative Werte in einem Fall, in dem der Maximalwert S der Breite eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird (d. h., S ist 1). Wie in 6 gezeigt, ist der zweite Erfassungsfehler in Bezug auf die Länge H jedes Pixels P1 bis PN nur 0,03 Prozent oder weniger.
  • Als Nächstes erfolgt eine Beschreibung über ein Ergebnis, das durch Überprüfen der Genauigkeit der ersten Erfassungsposition Px1 unter der gleichen Bedingung wie die Überprüfung der Genauigkeit der zweiten Erfassungsposition Py1, wie in 5 und 6 gezeigt, erhalten wird. 7 und 8 zeigen die Ergebnisse, die durch Überprüfen der Genauigkeit der ersten Erfassungsposition Px1 durch Simulation in einem Fall erhalten werden, in dem der Durchmesser W des Lichtpunkts L dreimal so groß wie der Maximalwert S der Breite der Pixel P1 bis PN ist. 7 zeigt eine Beziehung zwischen der ersten Erfassungsposition Px1 und der ersten Schwerpunktposition. In 7 sind auf der horizontalen Achse die erste Erfassungsposition Px1 und auf der vertikalen Achse die erste Schwerpunktposition aufgetragen. Werte auf der horizontalen Achse und vertikalen Achse in 7 sind relative Werte in einem Fall, in dem der Maximalwert S der Breite der Pixel P1 bis PN auf einen Referenzwert festgelegt wird. In 7 sind in überlappender Weise Diagramme dargestellt, die Beziehungen zwischen der ersten Erfassungsposition Px1 und der ersten Schwerpunktposition darstellen, wenn eine Position in Y-Achsenrichtung, auf die der Lichtpunkt L tatsächlich einfällt, von 0,1 bis 0,9 in einem Intervall von 0,1 verändert wird. Die Werte von 0,1 bis 0,9 der Position in Y-Achsenrichtung sind relative Werte in einem Fall, in dem die Länge h eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird. Wie in 7 gezeigt, kann bestätigt werden, dass die erste Erfassungsposition Px1 und die erste Schwerpunktposition miteinander übereinstimmen.
  • 8 zeigt eine Beziehung zwischen der ersten Schwerpunktposition und einem Fehler (im Nachfolgenden als ein „erster Erfassungsfehler“ bezeichnet) zwischen der ersten Schwerpunktposition und der ersten Erfassungsposition Px1. In 8 sind auf der horizontalen Achse die erste Schwerpunktposition und auf der vertikalen Achse der erste Erfassungsfehler aufgetragen. Werte auf der vertikalen Achse und der horizontalen Achse in 8 sind relative Werte in einem Fall, in dem der Höchstwert S der Breite eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird. In 8 zeigen die Diagramme G20 bis G28 Beziehungen zwischen der ersten Schwerpunktposition und dem ersten Erfassungsfehler, wenn die Position in Y-Achsenrichtung, auf die der Lichtpunkt L tatsächlich einfällt, zwischen 0,1 und 0,9 in einem Intervall von 0,1 verändert wird. Die Werte von 0,1 bis 0,9 der Position in Y-Achsenrichtung sind relative Werte in einem Fall, in dem die Länge h eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird. Wie in 8 gezeigt, ist der erste Erfassungsfehler mit Bezug auf den Maximalwert S der Breite eines jeden Pixels P1 bis PN in X-Achsenrichtung mit 0,015 % oder weniger sehr klein. Wie zuvor beschrieben, zeigt sich aus den Überprüfungsergebnissen in 5 bis 8, dass in dem Fall, in dem der Durchmesser W des Lichtpunkts L auf das Dreifache oder mehr des Maximalwerts S der Breite der Pixel P1 bis PN festgelegt wird, der erste Erfassungsfehler und der zweite Erfassungsfehler in Kombination sehr klein werden.
  • Im Nachfolgenden erfolgt eine Beschreibung über eine Abweichung eines zweiten Erfassungsfehlers mit Bezug auf die Abweichung des Durchmessers W des Lichtpunkts L. 9 zeigt eine Ansicht einer Beziehung zwischen dem Durchmesser W des Lichtpunkts L und dem zweiten Erfassungsfehler in einem Fall, in dem der Durchmesser W des Lichtpunkts L sich allmählich verändert. In 9 ist auf der horizontalen Achse der Durchmesser W des Lichtpunkts L aufgetragen, und auf der vertikalen Achse ist der zweite Erfassungsfehler aufgetragen. Werte auf der vertikalen Achse in 9 sind relative Werte in einem Fall, in dem die Länge h eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird. Werte auf der horizontalen Achse in 9 sind relative Werte in einem Fall, in dem der Maximalwert S der Breite eines jeden Pixels P1 bis PN auf einen Referenzwert festgelegt wird. Wie in 9 gezeigt, wird der zweite Erfassungsfehler kleiner, wenn der Durchmesser W des Lichtpunkts L größer als der Maximalwert S der Breite eines jeden Pixels P1 bis PN ist. Insbesondere, wenn beispielsweise der Durchmesser W des Lichtpunkts L das Zweifache oder mehr des Maximalwerts S der Breite eines jeden Pixels P1 bis PN ist, wird die Genauigkeit der zweiten Erfassungsposition Py1 hinreichend hoch. Andererseits nimmt, wenn der Durchmesser W des Lichtpunkts L kleiner als das Zweifache des Maximalwerts S der Breite eines jeden Pixels P1 bis PN wird, der zweite Erfassungsfehler nicht linear zu.
  • 10 und 11 zeigen Ergebnisse, die durch die Überprüfung der Genauigkeit der ersten Erfassungsposition Px1 und der Genauigkeit der zweiten Erfassungsposition Py1 durch Simulation in einem Fall erzielt werden, in dem der Durchmesser W des Lichtpunkts L das Einfache des Maximalwerts S der Breite jedes der Pixel P1 bis PN ist. 10 entspricht 7, und 11 entspricht 8. Wie in 10 gezeigt, kann bestätigt werden, dass der zweite Erfassungsfehler 20 % oder weniger der Länge h eines jeden Pixels P1 bis PN wird. Andererseits, wie in 11 gezeigt, kann bestätigt werden, dass der erste Erfassungsfehler 10 % oder weniger des Maximalwerts S der Breite eines jeden Pixels P1 bis PN wird. Auf diese Weise nehmen in einem Fall, in dem der Durchmesser W des Lichtpunkts L das Einfache des Maximalwerts S der Breite jedes der Pixel P1 bis PN ist, der erste Erfassungsfehler und der zweite Erfassungsfehler in Kombination miteinander weiter zu, im Vergleich zu dem Fall, bei dem der Durchmesser W des Lichtpunkts L das Dreifache des Maximalwerts S der Breite jedes Pixels P1 bis PN ist.
  • Wie zuvor beschrieben, werden der erste Erfassungsfehler und der zweite Erfassungsfehler stark von der Anzahl der Pixel beeinflusst, auf die der Lichtpunkt L einfällt. Es ist möglich, den ersten Erfassungsfehler und den zweiten Erfassungsfehler zu unterdrücken, indem die gleiche Korrektur wie in der Ausführungsform durchgeführt wird. Das heißt, die Berechnungseinheit 35 liest den Fehler LUTx und den Fehler LUTy aus der Nachschlagetabelle aus und berechnet den Korrekturwert Px2 der ersten Erfassungsposition Px1 und den Korrekturwert Py2 der zweiten Erfassungsposition Py1 unter Verwendung des Ausdrucks (4) und des Ausdrucks (5). 12 zeigt eine Ansicht, die ein Beispiel der Nachschlagetabelle, die eine Beziehung zwischen der ersten Erfassungsposition Px1, der zweiten Erfassungsposition Py1, dem Fehler LUTx und dem Fehler LUTy darstellt. In 12 ist der Durchmesser W des Lichtpunkts L auf 1,0S festgelegt, und die erste Schwerpunktposition ist auf 10,0S festgelegt. Der Fehler LUTx und der Fehler LUTy, die in 12 gezeigt sind, werden durch Polynomnäherung unter Einbeziehung der ersten Erfassungsposition Px1, der zweiten Erfassungsposition Py1 und des Durchmessers W des Lichtpunkts L berechnet. Genauer gesagt wird der Fehler LUTx durch lineare Funktionsnäherung und der Fehler LUTy durch kubische Funktionsnäherung berechnet.
  • Als weiteres Verfahren zur Erstellung einer Nachschlagetabelle gibt es beispielsweise ein theoretisches Berechnungsverfahren, das auf einer Beziehung zwischen der Magnitude der Ladungssignale Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, und der Einfallsposition des Lichtpunkts L beruht. 13 zeigt eine Ansicht eines Verfahrens zur Erstellung der Nachschlagetabelle. In 13 entspricht ein dreieckiger Abschnitt den Pixeln P1 bis PN und ein kreisförmiger Abschnitt dem Lichtpunkt L. In diesem Fall wird ein schraffierter Abschnitt, der von dem dreieckigen Abschnitt und dem kreisförmigen Abschnitt umgeben ist, zu einer Lichtempfangsfläche jedes der Pixel P1 bis PN . Die Fläche des schraffierten Abschnitts wird unter Verwendung einer Kreisgleichung, die einen Lichtpunkt L repräsentiert und einer Geradengleichung, die die Hypotenusen des Dreiecks darstellt, berechnet. In 13 werden zwei Schnittpunkte zwischen der Kreisgleichung und der Geradengleichung durch (X0, Y0) und (X1, Y1) ausgedrückt. Die Kreisgleichung wird durch den nachfolgenden Ausdruck (6) ausgedrückt. In Ausdruck (6) kennzeichnet r einen Durchmesser eines Kreises, Xc eine Mittelpunktkoordinate des Kreises in der X-Achsenrichtung, Yc eine Mittelpunktkoordinate des Kreises in der Y-Achsenrichtung.
    [Mathematische Formel 6] ( X X c ) 2 + ( Y Y c ) 2 = r 2
    Figure DE112018005325T5_0006
    Andererseits wird die Geradengleichung durch den nachfolgenden Ausdruck (7) ausgedrückt. In Ausdruck (7) kennzeichnet b einen Schnittpunkt und a eine Steigung.
    [Mathematische Formel 7] Y = a X + b
    Figure DE112018005325T5_0007
  • Eine Lichtempfangsfläche S1 wird auf der Grundlage des nachfolgenden Ausdrucks (8) unter Verwendung des Ausdrucks (6) und des Ausdrucks (7) berechnet. Vorausgesetzt, dass in Ausdruck (8) eine Beziehung von Xc und Yc > r > b hergestellt wird.
    [Mathematische Formel 8] S 1 = X 0 X 1 { a X + b ( Y c r 2 ( X X c ) 2 ) }
    Figure DE112018005325T5_0008
    Die berechnete Lichtempfangsfläche, wie zuvor beschrieben, entspricht der Magnitude der Intensitäten der Ladungssignale Dx1 bis DxN von den Pixeln P1 bis PN , wenn der Lichtpunkt L, der die gleiche Intensitätsverteilung aufweist, auf jedes Pixel P1 bis PN trifft. Darüber hinaus ist es möglich, theoretisch die Intensitäten der Ladungssignale Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, zu erhalten, wenn Licht mit einer Gauß‘schen Verteilung (Gauß-Strahl) einfällt, indem eine durch den Ausdruck (1) ausgedrückte Gauß‘sche Verteilung auf die Lichtempfangsfläche angewendet wird. Auch in dieser Weise ist es möglich, die Nachschlagetabelle bezüglich des Fehlers LUTx und des Fehlers LUTy auf der Grundlage der theoretischen Berechnung zu erstellen. Außerdem ist es auch möglich, eine Nachschlagetabelle zur Bestimmung einer direkten Position (d. h. einer Position in X-Achsenrichtung und Y-Achsenrichtung, auf die der Lichtpunkt L einfällt) aus den Ladungssignalen Dx1 bis DxN zu erstellen.
  • 14 zeigt ein schematisches Konfigurationsdiagramm, das eine Positionsmessvorrichtung 2, die den Positionserfassungssensor 1A gemäß diesem Modifikationsbeispiel umfasst, darstellt. Die Positionsmessvorrichtung 2 misst sowohl die erste Erfassungsposition Px1 als auch die zweite Erfassungsposition Py1. Wie in 14 gezeigt, umfasst die Positionsmessvorrichtung 2 einen Positionsmesssensor 1A gemäß diesem Modifikationsbeispiel und eine Lichtquelle 3. Die Lichtquelle 3 bestrahlt die Lichtempfangseinheit 10A mit Licht. Wenn der Lichtpunkt L auf die Pixel P1 bis PN der Lichtempfangseinheit 10A trifft, werden Ladungssignale Dx1 bis DxN von den Pixeln P1 bis PN erzeugt. Der Positionserfassungssensor 1A berechnet die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1 auf der Grundlage der Ladungssignale Dx1 bis DxN . Da die Positionsmessvorrichtung 2 die den Positionserfassungssensor 1A umfasst, weist die Positionsmessvorrichtung 2 den gleichen Effekt wie die Ausführungsform aus. Darüber hinaus wird der Durchmesser W des Lichtpunkts L, der aus der Lichtquelle 3 ausgegeben wird, so eingestellt, dass er größer als der Maximalwert S der Breite eines jeden der Vielzahl von Pixel P1 bis PN ist. In einem Beispiel ist der Durchmesser W des Lichtpunkts L, der an die Lichtempfangseinheit 10A ausgegeben wird, das Zweifache oder mehr des Maximalwerts S (insbesondere der größere Wert zwischen dem Maximalwert S der Breite des ersten Pixels 12A und dem Maximalwert S der Breite des zweiten Pixels 13A) der Breite jedes der Pixel P1 bis PN , und noch bevorzugter das Dreifache oder mehr des Maximalwerts S. Demnach ist es möglich, die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1 genauer zu berechnen.
  • 15 zeigt eine Ansicht, die einen Zustand veranschaulicht, in dem eine Vielzahl von (beispielsweise zwei) Lichtpunkte LA und LB gleichzeitig auf dem Positionserfassungssensor 1A gemäß diesem Modifikationsbeispiel einfallen. In dem Positionserfassungssensor dieses Modifikationsbeispiels ist es selbst in einem Fall, in dem die Lichtpunkte LA und LB gleichzeitig auf die Lichtempfangseinheit 10A treffen, möglich, zweidimensionale Positionen der Lichtpunkte LA und LB zu erfassen, wenn die Vielzahl der Lichtpunkte LA und LB um 1S oder mehr voneinander beabstandet sind. Wie in 15 gezeigt, trifft der Lichtpunkt LA auf die Pixel P3 bis P6 (drittes bis sechstes Pixel von links in 15). Der Lichtpunkt LB trifft auf Pixel P8 bis P12 (achtes bis zwölftes Pixel von links in 15). In diesem Fall berechnet die Berechnungseinheit 35 die zweidimensionale Position des Lichtpunkts LA wie folgt. Das heißt, die Berechnungseinheit 35 berechnet die zweidimensionale Position des Lichtpunkts LA durch Anwendung des Ausdrucks (2) und des Ausdrucks (3) gemäß der Ausführungsform mit Bezug auf lediglich die Pixel P3 bis P6, auf die der Lichtpunkt L einfällt. Insbesondere kann die Berechnungseinheit 35 eine erste Erfassungsposition PxA und eine zweite Erfassungsposition PyA des Lichtpunkts LA unter Verwendung von beispielsweise dem nachfolgenden Ausdruck (9) und dem Ausdruck (10) berechnen.
    [Mathematische Formel 9] P x A = i = 3 6 i S 2 D x i i = 3 6 D x i
    Figure DE112018005325T5_0009
    [Mathematische Formel 10] P y A = i = 4,6 h D x i i = 3 6 D x i
    Figure DE112018005325T5_0010
  • In ähnlicher Weise berechnet die Berechnungseinheit 35 die zweidimensionale Position des Lichtpunkts LB durch Anwenden des Ausdrucks (2) und des Ausdrucks (3) gemäß der Ausführungsform mit Bezug auf lediglich die Pixel P8 bis P12, auf die der Lichtpunkt LB einfällt. Insbesondere kann die Berechnungseinheit 35 eine erste Erfassungsposition PxB und eine zweite Erfassungsposition PyB des Lichtpunkts LB unter Verwendung von beispielsweise dem nachfolgenden Ausdruck (11) und dem Ausdruck (12) berechnen.
    [Mathematische Formel 11] P x B = i = 8 12 i S 2 D x i i = 8 12 D x i
    Figure DE112018005325T5_0011
    [Mathematische Formel 12] P y B = i = 8,10,12 h D x i i = 8 12 D x i
    Figure DE112018005325T5_0012
    Wie zuvor beschrieben, ist es selbst in einem Fall, in dem die Vielzahl von Lichtpunkte LA und LB gleichzeitig auf die Lichtempfangseinheit 10A einfallen, möglich, die erste Erfassungsposition PxA und die zweite Erfassungsposition PyA des Lichtpunkts LA und die erste Erfassungsposition PxB und die zweite Erfassungsposition PyB des Lichtpunkts LB mit Hilfe der Nachschlagetabelle zu korrigieren, die den Fehler LUTx und den Fehler LUTy einbezieht.
  • Die Form der Pixel P1 bis PN ist nicht auf die zuvor beschriebene Form beschränkt und kann eine andere Form aufweisen. 16, 17 und 18 zeigen Ansichten weiterer Beispiele der Form der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel. Ein erstes Pixel 12B eines jeden Pixelpaares 11B in 16 umfasst eine Vielzahl von (z. B. sechs) Lichtempfangsbereichen 12b mit einer quadratischen Form. Eine Breite der Lichtempfangsbereiche 12b in der X-Achsenrichtung wird kleiner, je näher es sich an einem Ende 10ader Lichtempfangseinheit 10B in der Y-Achsenrichtung befindet, und wird größer, je näher es sich am anderen Ende 10b der Lichtempfangseinheit 10B in der Y-Achsenrichtung befindet. Ein zweites Pixel 13B des Pixelpaars 11B umfasst eine Vielzahl von (beispielsweise sechs) Lichtempfangsbereichen 13b mit einer quadratischen Form. Eine Breite der Lichtempfangsbereiche 13b in der X-Achsenrichtung wird größer, je näher das zweite Pixel 13B am einen Ende 10a der Lichtempfangseinheit 10B in der Y-Achsenrichtung liegt, und wird kleiner, je näher das zweite Pixel 13B am anderen Ende 10b der Lichtempfangseinheit 10B in der Y-Achsenrichtung liegt.
  • Eine Breite eines ersten Pixels 12C eines jeden Pixelpaars 11C in 17 in der X-Achsenrichtung nimmt stufenweise ab (in einer Stufenform), je näher es am einen Ende 10a der Lichtempfangseinheit 10C in der Y-Achsenrichtung liegt, und nimmt stufenweise zu (in einer Stufenform), je näher es am anderen Ende 10b der Lichtempfangseinheit 10C in der Y-Achsenrichtung liegt. Andererseits nimmt eine Breite des zweiten Pixels 13C in der X-Achsenrichtung stufenweise zu (in einer Stufenform), je näher es am einen Ende 10a in der Y-Achsenrichtung liegt, und nimmt stufenweise ab (in einer Stufenform), je näher es am anderen Ende 10b liegt. Ein erstes Pixels 12D eines jeden Pixelpaars 11D in 18 weist eine rechtwinklige Dreiecksform auf, die sich in Richtung des einen Endes 10a der Lichtempfangseinheit 10D in der Y-Achsenrichtung verjüngt. Andererseits weist das zweite Pixel 13D des Pixelpaars 11D eine rechtwinklige Dreiecksform auf, die sich in Richtung des anderen Endes der Lichtempfangseinheit 10D in der Y-Achsenrichtung verjüngt. Äußere Kanten des ersten Pixels 12D und des zweiten Pixels 13D an einer Grenze einer Vielzahl von Pixelpaaren 11D sind nicht mit Bezug auf die Y-Achsenrichtung geneigt und erstrecken sich entlang der Y-Achsenrichtung.
  • Hinsichtlich der Anordnung der Pixel P1 bis PN in der X-Achsenrichtung ist es nicht erforderlich, dass sie eine Anordnung aufweisen, bei der das erste Pixel und das zweite Pixel nebeneinander abwechselnd angeordnet sind, sodass die Anordnung eine andere Anordnung sein kann. 19 zeigt eine Ansicht, die ein weiteres Beispiel der Anordnung der Pixel P1 bis PN gemäß diesem Modifikationsbeispiel darstellt. Wie in 19 gezeigt, weist das erste Pixel 12E eines jeden Pixelpaares 11 E eine rechteckige Dreiecksform auf, die sich zum einen Ende 10a der Lichtempfangseinheit 10E in der Y-Achsenrichtung verjüngt, und das zweite Pixel 13E des Pixelpaars 11E weist eine rechtwinklige Dreiecksform auf, die sich in Richtung des anderen Endes 10b der Lichtempfangseinheit 10E verjüngt. Darüber hinaus sind gerade Linien, die den rechten Winkel der Vielzahl der ersten Pixel 12E bilden, so angeordnet, dass sie sich in der X-Achsenrichtung gegenüberliegen. Ebenso sind gerade Linien, die den rechten Winkel der Vielzahl der zweiten Pixel 13E bilden, so angeordnet, dass sie in der X-Achsenrichtung einander zugewandt sind. Selbst gemäß diesem Aspekt ist es möglich, den gleichen Effekt wie in der Ausführungsform zu erzielen.
  • (Zweites Modifikationsbeispiel)
  • 20 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors 1B gemäß einem zweiten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass eine Lichtempfangseinheit 10F des Positionserfassungssensors 1B gemäß diesem Modifikationsbeispiel, eine Vielzahl erster Lichtabschirmabschnitte 16 oder der Vielzahl zweiter Lichtabschirmabschnitte 17, anstelle der Vielzahl von ersten Übertragungsfiltern 14 und der Vielzahl von zweiten Übertragungsfiltern 15, umfasst. Jeder der ersten Lichtabschirmabschnitte 16 ist auf jedem ersten Pixel 12 angeordnet und schirmt einfallendes Licht ab. Der erste Lichtabschirmabschnitt 16 bedeckt einen anderen Abschnitt des ersten Pixels 12 mit Ausnahme eines Abschnitts 12c (ein schraffierter Abschnitt in 20) des ersten Pixels 12. Eine Breite des einen Abschnitts 12c in der X-Achsenrichtung nimmt allmählich ab (oder nimmt stufenweise ab), je näher er am einen Ende 10a einer Lichtempfangseinheit 10F in der Y-Achsenrichtung liegt, und nimmt allmählich zu (oder nimmt stufenweise zu), je näher er am anderen Ende 10b der Lichtempfangseinheit 10F liegt. In einem Beispiel weist jeder Abschnitt 12c eine gleichschenklige Dreiecksform auf, die sich in Richtung des einen Endes 10a der Lichtempfangseinheit 10F verjüngt. In diesem Fall weist der erste Lichtabschirmabschnitt 16 eine Form auf, die in der gleichschenkligen Dreiecksform ausgehöhlt ist.
  • Jeder der zweiten Lichtabschirmabschnitte 17 ist auf jedem zweiten Pixel 13 angeordnet und schirmt einfallendes Licht ab. Der zweite Lichtabschirmabschnitt 17 bedeckt einen anderen Abschnitt des zweiten Pixels 13 mit Ausnahme eines Abschnitts 13c (ein schraffierter Bereich in 20) eines jeden der Vielzahl von zweiten Pixel 13. Eine Breite des einen Abschnitts 13c in der X-Achsenrichtung nimmt allmählich zu (oder nimmt stufenweise zu), je näher er am einen Ende 10a in der Y-Achsenrichtung liegt, und nimmt allmählich ab (oder nimmt stufenweise ab), je näher er am anderen Ende 10b in der Y-Achsenrichtung liegt. In einem Beispiel weist der eine Abschnitt 13c eine gleichschenklige Dreiecksform auf, die sich in Richtung des anderen Endes 10b in der Y-Achsenrichtung verjüngt. In diesem Fall weist der zweite Lichtabschirmabschnitt 17 eine Form auf, die in der gleichschenkligen Dreiecksform ausgehöhlt ist.
  • Da die Lichtempfangseinheit 10F die ersten Lichtabschirmabschnitte 16 und die zweiten Lichtabschirmabschnitte 17 umfasst, nimmt eine Lichteinfallsmenge eines Lichtpunkts L, der auf eine Vielzahl der ersten Pixel 12 auftrifft, ab, je näher sich die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung befindet, und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx1 , Dx3 , ... und DxN-1 , die in den ersten Pixeln 12 erzeugt werden, ab. Im Gegensatz dazu nimmt eine Lichteinfallsmenge des Lichtpunkts L, der auf eine Vielzahl der zweiten Pixel 13 trifft, zu, je näher die Einfallsposition des Lichtpunkts L am einen Ende 10a in der Y-Achsenrichtung liegt, und dementsprechend nehmen auch die Intensitäten der Ladungssignale Dx2 , Dx4 , ... und DxN , die in den zweiten Pixeln 13 erzeugt werden, zu.
  • (Drittes Modifikationsbeispiel)
  • 21 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors 1C gemäß einem dritten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass jedes Pixel P1 bis PN gemäß diesem Modifikationsbeispiel in der Y-Achsenrichtung in zwei Teile unterteilt wird, und zwei Signalverarbeitungseinheiten vorgesehen sind. Wie in 21 gezeigt, umfasst ein Positionserfassungssensor 1C gemäß diesem Modifikationsbeispiel eine Lichtempfangseinheit 10G, eine erste Signalverarbeitungseinheit 30A und eine zweite Signalverarbeitungseinheit 30B. Jedes der Pixel P1 bis PN der Lichtempfangseinheit 10G ist an einer Grenze in der Nähe der Mitte in Y-Achsenrichtung in zwei Teile geteilt. In Bezug auf die beiden Bereiche enthält jedes erste Pixel 12 einen Bereich 12F, der sich auf der einen Seite 10a der Lichtempfangseinheit 10G in Y-Achsenrichtung befindet, und einen Bereich 12G, der sich auf der anderen Seite 10b der Lichtempfangseinheit 10G in Y-Achsenrichtung befindet. In Bezug auf die beiden Bereiche umfasst jedes zweite Pixel 13 einen Bereich 13F, der sich auf der einen Seite 10a in der Y-Achsenrichtung befindet, und einen Bereich 13G, der sich auf der anderen Seite 10b in der Y-Achsenrichtung befindet.
  • Die erste Signalverarbeitungseinheit 30A und die zweite Signalverarbeitungseinheit 30B sind jeweils an beiden Enden der Pixel P1 bis PN in der Y-Achsenrichtung vorgesehen. Sowohl die erste Signalverarbeitungseinheit 30A als auch die zweite Signalverarbeitungseinheit 30B umfassen die mehreren Schaltelemente 31, das Schieberegister 32, den Verstärker 33 und den A/D-Wandler 34. Eingangsanschlüsse der Schaltelemente 31 der ersten Signalverarbeitungseinheit 30A sind elektrisch mit den Bereichen 12F und den Bereichen 13F verbunden. Eingangsanschlüsse der Schaltelemente 31 der zweiten Signalverarbeitungseinheit 30B sind elektrisch mit den Bereichen 12G und den Bereichen 13G verbunden. Die Berechnungseinheit 35 ist elektrisch mit dem A/D-Wandler 34 der ersten Signalverarbeitungseinheit 30A und dem A/D-Wandler 34 der zweiten Signalverarbeitungseinheit 30B verbunden. Die Berechnungseinheit 35 berechnet die erste Erfassungsposition Px1 und die zweite Erfassungsposition Py1 hinsichtlich der Einfallsposition des Lichtpunkts L, der auf die Lichtempfangseinheit 10G trifft, auf der Grundlage der Ladungssignale DxF1 bis DxFN , die in den Bereichen 12F und den Bereichen 13F erzeugt werden, und auf der Grundlage der Ladungssignale DxG1 bis DxGN , die in den Bereichen 12G und den Bereichen 13G erzeugt werden, so wie in der Ausführungsform.
  • Im Positionserfassungssensor 1C gemäß diesem Modifikationsbeispiel wird jedes Pixel P1 bis PN in zwei Teile unterteilt, und folglich werden die Ladungssignale DxF1 bis DxFN , die in den Bereichen 12F und den Bereichen 13F erzeugt werden, durch die erste Signalverarbeitungseinheit 30A ausgelesen, und die Ladungssignale DxG1 bis DxGN , die in den Bereichen 12G und den Bereichen 13G erzeugt werden, werden durch die zweite Signalverarbeitungseinheit 30B ausgelesen. Dementsprechend ist es in jedem Pixel P1 bis PN möglich, einen Abstand von einem Abschnitt, auf den Lichtpunkt L eintrifft, zu jedem der Schaltelemente 31 zu verkürzen. Folglich wird die Nutzungseffizienz des auf die Pixel P1 bis PN einfallenden Lichts erhöht, und die Genauigkeit der ersten Erfassungsposition Px1 und der zweiten Erfassungsposition Py1 verbessert.
  • (Viertes Modifikationsbeispiel)
  • 22 zeigt ein schematisches Konfigurationsdiagramm eines Positionserfassungssensors 1D gemäß einem vierten Modifikationsbeispiel. Ein Unterschied zwischen diesem Modifikationsbeispiel und der Ausführungsform liegt darin, dass eine Lichtempfangseinheit 10H des Positionserfassungssensors 1D gemäß diesem Modifikationsbeispiel eine Vielzahl von Metalldrähten 20 umfasst. Beispielsweise sind die Metalldrähte 20 Aluminium (AI)-Drähte. Die Metalldrähte 20 werden jeweils entsprechend der Pixel P1 bis PN vorgesehen, erstrecken sich auf den Pixeln P1 bis PN entlang der Y-Achsenrichtung und werden kontinuierlich oder intermittierend mit den Pixeln P1 bis PN verbunden. Die Metalldrähte 20 sind elektrisch jeweils mit den Eingangsanschlüssen der Schaltelemente 31 verbunden. In den Pixeln P1 bis PN wird, da die Einfallsposition des Lichtpunkts L in der Y-Achsenrichtung von jedem Schaltelement 31 beabstandet ist, zusätzlich Zeit zum Auslesen der Ladungselemente Dx1 bis DxN , die in den Pixeln P1 bis PN erzeugt werden, benötigt. Der Grund dafür liegt darin, dass, weil eine Bewegungsgeschwindigkeit der Ladungssignale Dx1 bis DxN in einer Diffusionsschicht, die die Pixel P1 bis PN bildet, langsam ist, somit Zeit für die Übertragung der Ladungssignale Dx1 bis DxN benötigt wird.
  • Hier sind die Metalldrähte 20, die sich entlang der Y-Achsenrichtung erstrecken, jeweils auf den Pixeln P1 bis PN vorgesehen, und die Metalldrähte 20 sind jeweils mit den Schaltelementen 31 derart verbunden, dass die Ladungssignale Dx1 bis DxN durch die Metalldrähte 20 übertragen werden. Dementsprechend ist es möglich, die Bewegungsgeschwindigkeit der Ladungssignale Dx1 bis DxN zu verbessern, und es ist möglich, die Auslesegeschwindigkeit der Ladungssignale Dx1 bis DxN zu verbessern.
  • Der Positionserfassungssensor und die Positionsmessvorrichtung gemäß der vorliegenden Erfindung sind nicht auf die Ausführungsform und die Modifikationsbeispiele beschränkt, und es können verschiedene Modifikationen zusätzlich durchgeführt werden. Beispielsweise können die Ausführungsform und die Modifikationsbeispiele entsprechend einer gewünschten Aufgabe und einem gewünschten Effekt kombiniert werden. Der Positionserfassungssensor kann in einer Messvorrichtung verwendet werden, die eine dreidimensionale Form eines Subjekts mit Hilfe eines sogenannten Lichtschnittverfahrens misst. In diesem Fall wird eine zweidimensionale Position des Lichts, das von der Oberfläche des Objekts reflektiert wird, von einem Positionserfassungssensor erfasst und die dreidimensionale Form des Objekts auf der Grundlage der erfassten zweidimensionalen Position gemessen.
  • Bezugszeichenliste
  • 1, 1A bis 1D: Positionserfassungssensor, 2: Positionsmessvorrichtung, 3: Lichtquelle, 10, 10A bis 10H: Lichtempfangseinheit, 10a: ein Ende, 10b: anderes Ende, 11, 11A bis 11E: Pixelpaar, 12, 12A bis 12E: erstes Pixel, 12F, 12G, 13F, 13G: Bereich, 12b, 13b: Lichtempfangsbereich, 12c, 13c: ein Teil, 13, 13A bis 13E: zweites Pixel, 14: erster Übertragungsfilter, 15: zweiter Übertragungsfilter, 16: erster Lichtabschirmabschnitt, 17: zweiter Lichtabschirmabschnitt, 20: Metalldraht, 30: Signalverarbeitungseinheit, 30A: erste Signalverarbeitungseinheit, 30B: zweite Signalverarbeitungseinheit, 31: Schaltelement, 32: Schieberegister, 33: Verstärker, 34: A/D-Wandler, 35: Berechnungseinheit, Dx1 bis DxN: Ladungssignal, L, LA, LB: Lichtpunkt, P1 bis PN: Pixel.

Claims (5)

  1. Positionserfassungssensor, der eine Lichteinfallsposition erfasst, umfassend: eine Lichtempfangseinheit, die eine Vielzahl von Pixelpaaren enthält, wobei jedes der Pixelpaare ein erstes Pixel, das ein erstes elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, und ein zweites Pixel, das entlang einer ersten Richtung neben dem ersten Pixel angeordnet ist und ein zweites elektrisches Signal erzeugt, das einer Lichteinfallsmenge des Lichts entspricht, umfasst, und wobei die Pixelpaare entlang der ersten Richtung angeordnet sind; und eine Berechnungseinheit, die eine Schwerpunkt-Berechnungsoperation durchführt, indem sie eine Intensität des ersten elektrischen Signals und eine Intensität des zweiten elektrischen Signals verwendet, um eine erste Position zu berechnen, die die Einfallsposition in der ersten Richtung ist, wobei im ersten Pixel die Intensität des ersten elektrischen Signals abnimmt, je näher die Einfallsposition an einem Ende der Lichtempfangseinheit in einer zweiten Richtung, die die erste Richtung schneidet, liegt, im zweiten Pixel die Intensität des ersten elektrischen Signals zunimmt, je näher die Einfallsposition in der zweiten Richtung am einen Ende liegt, und die Berechnungseinheit ferner eine zweite Position, die die Einfallsposition in der zweiten Richtung ist, auf der Grundlage eines ersten integrierten Wertes, der durch Integrieren der Intensität des ersten elektrischen Signals erhalten wird, und eines zweiten integrierten Wertes, der durch Integrieren der Intensität des zweiten elektrischen Signals erhalten wird, berechnet.
  2. Positionserfassungssensor nach Anspruch 1, wobei die Lichtempfangseinheit ferner einen ersten Übertragungsfilter, der das erste Pixel abdeckt und durch den das Licht übertragen wird, und einen zweiten Übertragungsfilter, der das zweite Pixel abdeckt und durch den das Licht übertragen wird, aufweist, eine Lichtdurchlässigkeit im ersten Übertragungsfilter abnimmt, je näher er am einen Ende in der zweiten Richtung liegt, und eine Lichtdurchlässigkeit im zweiten Übertragungsfilter zunimmt, je näher er am einen Ende in der zweiten Richtung liegt.
  3. Positionserfassungssensor nach Anspruch 1, wobei die Lichtempfangseinheit ferner einen ersten Lichtabschirmabschnitt, der einen anderen Abschnitt des ersten Pixels mit Ausnahme eines Abschnitts des ersten Pixels abdeckt und das Licht abschirmt, und einen zweiten Lichtabschirmabschnitt, der einen anderen Abschnitt des zweiten Pixels mit Ausnahme eines Abschnitts des zweiten Pixels abdeckt und das Licht abschirmt, umfasst, eine Breite des einen Abschnitts des ersten Pixels in der ersten Richtung abnimmt, je näher er in der zweiten Richtung am einen Ende liegt, und eine Breite des einen Abschnitts des zweiten Pixels in der ersten Richtung zunimmt, je näher er am einen Ende in der zweiten Richtung liegt.
  4. Positionserfassungssensor nach Anspruch 1, wobei eine Breite des ersten Pixels in der ersten Richtung abnimmt, je näher es am einen Ende in der zweiten Richtung liegt, und eine Breite des zweiten Pixels in der ersten Richtung zunimmt, je näher es am einen Ende in der zweiten Richtung liegt.
  5. Positionsmessvorrichtung, die eine Lichteinfallsposition misst, umfassend: den Positionserfassungssensor nach einem der Ansprüche 1 bis 4; und eine Lichtquelle, die die Lichtempfangseinheit mit dem Licht bestrahlt, wobei ein Durchmesser des Lichts, das zur Lichtempfangseinheit emittiert wird, das Zweifache oder mehr eines Werts zwischen einem Maximalwert einer Breite des ersten Pixels in der ersten Richtung und einem Maximalwert einer Breite des zweiten Pixels in der ersten Richtung ist.
DE112018005325.3T 2017-09-20 2018-08-28 Positionserfassungssensor und positionsmessvorrichtung Pending DE112018005325T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-180099 2017-09-20
JP2017180099 2017-09-20
PCT/JP2018/031806 WO2019058897A1 (ja) 2017-09-20 2018-08-28 位置検出センサ及び位置計測装置

Publications (1)

Publication Number Publication Date
DE112018005325T5 true DE112018005325T5 (de) 2020-06-18

Family

ID=65811348

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112018005325.3T Pending DE112018005325T5 (de) 2017-09-20 2018-08-28 Positionserfassungssensor und positionsmessvorrichtung
DE112018005337.7T Pending DE112018005337T5 (de) 2017-09-20 2018-09-19 Formmesssensor

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112018005337.7T Pending DE112018005337T5 (de) 2017-09-20 2018-09-19 Formmesssensor

Country Status (5)

Country Link
US (2) US20200217644A1 (de)
JP (2) JPWO2019058897A1 (de)
CN (2) CN111133283A (de)
DE (2) DE112018005325T5 (de)
WO (2) WO2019058897A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019058897A1 (ja) * 2017-09-20 2020-11-05 浜松ホトニクス株式会社 位置検出センサ及び位置計測装置
JP2023091916A (ja) * 2021-12-21 2023-07-03 浜松ホトニクス株式会社 固体撮像装置、形状測定装置および形状測定方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140827A (ja) * 1984-12-14 1986-06-27 Hamamatsu Photonics Kk 半導体光検出装置
JPH0640023B2 (ja) * 1986-09-25 1994-05-25 株式会社神戸製鋼所 光入力の位置・分散検出方法および装置
JPS63229306A (ja) * 1987-03-19 1988-09-26 N T T Gijutsu Iten Kk 線形受光デバイス
JPH0334369A (ja) 1988-04-11 1991-02-14 Canon Inc 光センサー
JP3107585B2 (ja) * 1991-04-11 2000-11-13 浜松ホトニクス株式会社 二次元光入射位置検出素子
US5567976A (en) * 1995-05-03 1996-10-22 Texas Instruments Incorporated Position sensing photosensor device
US6046812A (en) * 1997-05-29 2000-04-04 Korea Atomic Energy Research Institute Shape-measuring laser apparatus using anisotropic magnification optics
US6369879B1 (en) * 2000-10-24 2002-04-09 The Regents Of The University Of California Method and apparatus for determining the coordinates of an object
JP4099413B2 (ja) * 2003-03-20 2008-06-11 浜松ホトニクス株式会社 光検出装置
JP2007114071A (ja) * 2005-10-20 2007-05-10 Omron Corp 三次元形状計測装置、プログラム、コンピュータ読み取り可能な記録媒体、及び三次元形状計測方法
JP2011039006A (ja) * 2009-08-18 2011-02-24 Topcon Corp 測定装置
JP5818341B2 (ja) * 2010-12-13 2015-11-18 国立大学法人 和歌山大学 形状計測装置および形状計測方法
JP2014509730A (ja) * 2011-04-01 2014-04-21 株式会社ニコン 形状測定装置、形状測定方法、及び構造物の製造方法
CN103843320B (zh) * 2011-09-28 2015-11-25 富士胶片株式会社 图像传感器和成像装置
JP6034629B2 (ja) * 2012-09-12 2016-11-30 キヤノン株式会社 撮像素子及びそれを用いた撮像装置
US9488469B1 (en) * 2013-04-22 2016-11-08 Cognex Corporation System and method for high-accuracy measurement of object surface displacement using a laser displacement sensor
JP6052057B2 (ja) * 2013-05-22 2016-12-27 ソニー株式会社 信号処理装置および信号処理方法、固体撮像装置、並びに、電子機器
KR102042328B1 (ko) * 2015-03-31 2019-11-07 고쿠리츠 다이가꾸 호우진 시즈오까 다이가꾸 측장 소자 및 고체 촬상 장치
KR102375989B1 (ko) * 2017-08-10 2022-03-18 삼성전자주식회사 화소 사이의 신호 차이를 보상하는 이미지 센서
JPWO2019058897A1 (ja) * 2017-09-20 2020-11-05 浜松ホトニクス株式会社 位置検出センサ及び位置計測装置
JP6875239B2 (ja) * 2017-09-20 2021-05-19 浜松ホトニクス株式会社 位置検出センサ
JP6836486B2 (ja) * 2017-09-20 2021-03-03 浜松ホトニクス株式会社 位置検出センサ

Also Published As

Publication number Publication date
US20200217647A1 (en) 2020-07-09
DE112018005337T5 (de) 2020-06-18
WO2019058897A1 (ja) 2019-03-28
JPWO2019059236A1 (ja) 2020-11-19
JPWO2019058897A1 (ja) 2020-11-05
CN111133283A (zh) 2020-05-08
WO2019059236A1 (ja) 2019-03-28
US20200217644A1 (en) 2020-07-09
CN111094914A (zh) 2020-05-01
US11085760B2 (en) 2021-08-10

Similar Documents

Publication Publication Date Title
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE102011103233B4 (de) Kalibriermuster für eine Abbildungsvorrichtung
DE19825829C2 (de) Verfahren zur Bestimmung des Abstandes P einer Kante eines Strukturelementes auf einem Substrat
WO2005075936A1 (de) Verfahren zur bestimmung der lage eines objekts im raum
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
DE112016006735B4 (de) Infrarot-Temperaturmessverfahren und -vorrichtung
EP1037166A1 (de) Verfahren zur Detektion von Konturen in einem Röntgenbild
DE2210681C3 (de) Einrichtung zur berührungslosen Messung
WO2007079934A2 (de) Verfahren und system zur optischen inspektion einer periodischen struktur
DE10156040B4 (de) Verfahren, Vorrichtung und Computerprogramm-Produkt zum Entzerren einer eingescannten Abbildung
DE112018005325T5 (de) Positionserfassungssensor und positionsmessvorrichtung
DE3340924C2 (de)
DE2260086A1 (de) Optischer korrelator
DE10312535B4 (de) Verfahren und Vorrichtung zum geometrischen Vermessen eines Materialbandes
DE10135427A1 (de) Flächenhafter Bilddetektor für elektromagnetische Strahlen, insbesondere Röntgenstrahlen
DE112018005333T5 (de) Positionserfassungssensor
EP1312938A2 (de) Anordnung von Strahlungs-Sensorelementen
DE102020117484A1 (de) Dual-energie-detektor und aufbereitungsverfahren für detektordaten
DE112018005319T5 (de) Positionserfassungssensor
DE3312203C2 (de)
DE1936937A1 (de) Verfahren zum Pruefen optischer Prueflinge und optische Bank zum Durchfuehren des Verfahrens
EP3420533A1 (de) Verfahren zum kalibrieren eines optischen messaufbaus
DE3542896A1 (de) Verfahren zum generieren eines die querschnittsflaeche eines etwa elliptischen objektes repraesentierenden signals
DE2838121B2 (de) Verfahren zur Scharfeinstellung einer Optik
DE10129818B4 (de) Verfahren zum Auslesen eines Detektionschips einer elektronischen Kamera