WO2022044323A1 - アブソリュートエンコーダ - Google Patents

アブソリュートエンコーダ Download PDF

Info

Publication number
WO2022044323A1
WO2022044323A1 PCT/JP2020/032886 JP2020032886W WO2022044323A1 WO 2022044323 A1 WO2022044323 A1 WO 2022044323A1 JP 2020032886 W JP2020032886 W JP 2020032886W WO 2022044323 A1 WO2022044323 A1 WO 2022044323A1
Authority
WO
WIPO (PCT)
Prior art keywords
absolute
image sensor
scale
absolute position
digital signal
Prior art date
Application number
PCT/JP2020/032886
Other languages
English (en)
French (fr)
Inventor
泰広 北山
昭彦 樋口
敏男 目片
雅史 大熊
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/032886 priority Critical patent/WO2022044323A1/ja
Priority to KR1020227030014A priority patent/KR102507084B1/ko
Priority to JP2021504473A priority patent/JP6865915B1/ja
Priority to CN202080098024.9A priority patent/CN115210538B/zh
Priority to TW110126372A priority patent/TWI800870B/zh
Priority to TW112100393A priority patent/TWI830571B/zh
Publication of WO2022044323A1 publication Critical patent/WO2022044323A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/34776Absolute encoders with analogue or digital scales
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/34707Scales; Discs, e.g. fixation, fabrication, compensation
    • G01D5/34715Scale reading or illumination devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/36Forming the light into pulses

Definitions

  • the present disclosure relates to an absolute encoder that measures the angular position of an object to be measured.
  • An absolute encoder that measures the mechanical angular position of an object to be measured, such as a shaft, is a disk scale in which multiple marks are arranged, and by irradiating the disk scale with light, the object to be measured is measured from the disk scale. It is equipped with an optical sensor module that acquires signals corresponding to angular positions.
  • the present disclosure has been made in view of the above, and an object of the present disclosure is to obtain an absolute encoder capable of calculating position data with high reliability and high resolution.
  • the absolute encoder of the present disclosure includes a disk-shaped scale on which an absolute value code pattern is arranged and a light emitting element that irradiates the scale with light. Further, the absolute encoder of the present disclosure receives a first light from a first position separated by a first distance from the center of the scale and outputs a first analog signal corresponding to the first light. A second image that receives the image sensor of 1 and the second light from the second position separated by the second distance from the center of the scale and outputs the second analog signal corresponding to the second light. It is equipped with a sensor.
  • the absolute encoder of the present disclosure includes a first signal conversion unit that converts a first analog signal into a first digital signal, and a second signal conversion that converts a second analog signal into a second digital signal. It includes a unit and an absolute position calculation unit that calculates a first absolute position on a scale based on a first digital signal and a second digital signal.
  • the absolute encoder according to the present disclosure has the effect of being able to calculate position data with high reliability and high resolution.
  • the figure which shows the signal of the edge region shown in FIG. The figure for demonstrating the rising edge and the falling edge detected by the edge detection part of the absolute encoder which concerns on Embodiment 1.
  • the figure for demonstrating the process which the decoding part of the absolute encoder which concerns on Embodiment 1 specifies a coarse absolute position.
  • FIG. 1 is a diagram showing a configuration of an absolute encoder according to the first embodiment.
  • the absolute encoder 1X includes a light emitting element 2, image sensors 3X and 4X, a scale 20, AD (Analog to Digital) converters 5A and 5B, and an absolute position calculation unit 6X.
  • AD Analog to Digital
  • the light emitting element 2 is an illumination unit that irradiates the scale 20 with light.
  • a point light source LED Light Emitting Diode
  • the image sensors 3X and 4X are photodetectors that receive light from the scale 20.
  • Image sensors such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors are used for the image sensors 3X and 4X.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • Scale 20 is a disk-shaped scale.
  • the scale 20 is connected to a rotary shaft 7 included in a motor (not shown) or the like, and the scale 20 rotates when the rotary shaft 7 rotates.
  • the scale 20 is provided with only one track having an absolute value code pattern 30 which is an absolute position pattern in the direction along the circumference.
  • an absolute value code pattern 30 which is an absolute position pattern in the direction along the circumference.
  • a plurality of reflective portions 31 extending in the radial direction of the scale 20 and a plurality of non-reflective portions 32 are arranged.
  • the reflective portion 31 is a portion that reflects the light from the light emitting element 2
  • the non-reflective portion 32 is a portion that absorbs or transmits the light from the light emitting element 2.
  • the non-reflective portion 32 may be a portion that reflects with a reflectance lower than that of the reflective portion 31.
  • the reflective unit 31 and the non-reflective unit 32 function to modulate the light intensity distribution projected on the image sensors 3X, 4X.
  • the absolute value code pattern 30 is composed of a reflective portion 31 and a non-reflective portion 32 so as to characterize the angular position of the scale 20.
  • a code string in which a pseudo-random code such as an M sequence is encoded in Manchester is used.
  • a reflection type encoder in which the light emitting element 2 and the image sensors 3X and 4X are both arranged on the upper surface which is one surface of the scale 20 is exemplified.
  • the absolute encoder 1X of the first embodiment can also be applied to a transmissive encoder in which the light emitting element 2 and the image sensors 3X and 4X are arranged on the upper surface and the lower surface which are positions facing each other with the scale 20 interposed therebetween.
  • the absolute value code pattern 30 may be composed of a transmissive portion that transmits light and a non-transmissive portion that does not transmit light. Regardless of whether it is a reflective encoder or a transmissive encoder, the configuration of the absolute value code pattern 30 is particularly limited as long as it is configured to modulate the light intensity distribution projected on the image sensors 3X and 4X. Not done.
  • the light emitting element 2 and the image sensors 3X and 4X are arranged in the order of the light emitting element 2, the image sensor 3X, and the image sensor 4X along the radial direction from the center of the scale 20.
  • the order of arrangement is not limited to this order. That is, the order of arrangement of the light emitting element 2 and the image sensors 3X and 4X is not limited as long as the reflected positions of the received light on the scale 20 are different.
  • the image sensors 3X and 4X and the light emitting element 2 are arranged so as to overlap each other on a half-line extending from the center of the scale 20 in the first radial direction of the scale 20 when viewed from the rotation axis direction on the upper surface side of the scale 20.
  • the image sensor 3X is such that the center of the image sensor 3X, the center of the image sensor 4X, and the center of the light emitting element 2 overlap each other on this half-line when viewed from the upper surface side of the scale 20.
  • 4X and the light emitting element 2 are arranged.
  • the image sensor 3X is the first image sensor
  • the image sensor 4X is the second image sensor.
  • the image sensor 3X receives the first light from the first position separated by the first distance from the center of the scale 20 and outputs the analog signal corresponding to the first light.
  • the image sensor 4X receives the second light from the second position separated by the second distance from the center of the scale 20 and outputs the analog signal corresponding to the second light.
  • the first distance and the second distance are different distances.
  • the analog signal output by the image sensor 3X is the first analog signal
  • the analog signal output by the image sensor 4X is the second analog signal.
  • the AD converter 5A is a first signal conversion unit that converts an analog signal detected by the image sensor 3X into a digital signal.
  • the AD converter 5B is a second signal conversion unit that converts an analog signal detected by the image sensor 4X into a digital signal.
  • the digital signal converted by the AD converter 5A is the first digital signal, and the digital signal converted by the AD converter 5B is the second digital signal.
  • the absolute position calculation unit 6X is a calculation unit that calculates the absolute position of the scale 20 based on the outputs from the AD converters 5A and 5B.
  • the absolute position calculation unit 6X calculates the absolute position on the scale 20 based on the first digital signal and the second digital signal, and outputs the position data 40X.
  • the position data 40X is the first absolute position.
  • the absolute position calculation unit 6X has a light amount correction unit 10A, 10B, an edge detection unit 11A, 11B, a decoding unit 12A, a coarse detection unit 13A, a phase detection unit 14B, and a high-precision detection unit 15X. There is.
  • the light amount correction unit 10A equalizes the signal intensity of the digital signal transmitted from the AD converter 5A and sends it to the edge detection unit 11A.
  • the light amount correction unit 10B equalizes the signal intensity of the digital signal transmitted from the AD converter 5B and sends it to the edge detection unit 11B.
  • the edge detection unit 11A is an edge position on the image sensor 3X (hereinafter referred to as an edge pixel position) that matches a preset threshold level for a signal whose signal intensity is equalized by the light amount correction unit 10A. ). Further, the edge detection unit 11A determines whether the edge pixel position is a rising edge indicating the rising edge of the edge or a falling edge indicating the falling edge of the edge.
  • the edge detection unit 11B obtains the edge pixel position on the image sensor 4X that matches the preset threshold level for the signal whose signal intensity is made uniform by the light amount correction unit 10B. Further, the edge detection unit 11B determines whether the edge pixel position is a rising edge indicating the rising edge of the edge or a falling edge indicating the falling edge of the edge.
  • the decoding unit 12A converts the signal into a bit string consisting of a bit value "1" and a bit value "0" based on the rising edge and the falling edge determined by the edge detecting unit 11A.
  • the coarse detection unit 13A detects a coarse absolute position from the bit string converted by the decoding unit 12A.
  • the coarse detection unit 13A detects a coarse absolute position by, for example, comparing a look-up table showing a bit string of the absolute value code pattern 30 with a bit string converted by the decoding unit 12A.
  • the coarse absolute position detected by the coarse detection unit 13A is the second absolute position.
  • the phase detection unit 14B calculates the amount of phase shift with respect to the reference pixel position (reference pixel position 150 described later) based on the rising edge and the falling edge determined by the edge detection unit 11B.
  • the high-precision detection unit 15X calculates the absolute position of the scale 20 by adding the coarse absolute position detected by the coarse detection unit 13A and the phase shift amount calculated by the phase detection unit 14B.
  • the high-precision detection unit 15X outputs the calculated absolute position as position data 40X.
  • the image sensors 3X and 4X and the light emitting element 2 do not have to be arranged so as to overlap each other on a half-line.
  • the image sensors 3X and 4X do not overlap on a half-line extending from the center of the scale 20 in the first radial direction of the scale 20 when viewed from the rotation axis direction on the upper surface side of the scale 20. good. That is, the straight line connecting the image sensor 3X and the center of the scale 20 and the straight line connecting the image sensor 4X and the center of the scale 20 may be straight lines in different directions.
  • the absolute position calculation unit 6X uses the phase difference of the image sensors 3X and 4X calculated in advance to obtain an absolute position from the image sensors 3X and 4X. At least one of the positions may be corrected.
  • the coarse detection unit 13A corrects the absolute position obtained from the image sensor 3X to the absolute position obtained from the image sensor 3X when the image sensors 3X, 4X and the light emitting element 2 are arranged on a half-line.
  • the phase detection unit 14B corrects the phase shift amount obtained from the image sensor 4X to the phase shift amount obtained from the image sensor 4X when the image sensors 3X, 4X and the light emitting element 2 are arranged on a half-line. You may.
  • the image sensor 3X receives light from one of the two light emitting elements 2 and the image sensor 4X receives light from the other light emitting element 2 of the two light emitting elements 2.
  • the AD converter 5A converts the analog signal detected by the image sensor 3X into a digital signal and sends it to the light amount correction unit 10A
  • the light amount correction unit 10A equalizes the signal intensity of the digital signal and the edge detection unit 11A. Send to.
  • the AD converter 5B converts the analog signal detected by the image sensor 4X into a digital signal and sends it to the light amount correction unit 10B
  • the light amount correction unit 10B equalizes the signal intensity of the digital signal and makes the edge detection unit 11B. Send to.
  • FIG. 2 is a diagram showing a signal input to the light amount correction unit of the absolute encoder according to the first embodiment.
  • the horizontal axis of FIG. 2 is the pixel position, and the vertical axis is the signal strength.
  • the signals input to the light intensity correction units 10A and 10B have a distribution such as the light intensity distribution 70.
  • the signal input to the light amount correction unit 10A and the signal input to the light amount correction unit 10B are different signals by the difference in the arrangement positions of the image sensors 3X and 4X.
  • the image sensors 3X and 4X execute the same processing
  • the light amount correction units 10A and 10B execute the same processing
  • the edge detection units 11A and 11B execute the same processing.
  • the processing by the sensor 3X, the light amount correction unit 10A, and the edge detection unit 11A will be described.
  • the High bit 8 shown in FIG. 2 represents the pattern at the reflective portion 31 of the scale 20, and the Low bit 9 represents the pattern at the non-reflective portion 32 of the scale 20.
  • the signal corresponding to the absolute value code pattern 30 of the scale 20 projected on the image sensor 3X has a light intensity distribution 70 in which the High bit 8 and the Low bit 9 are non-uniform. That is, the signal according to the absolute value code pattern 30 has a non-uniform light intensity distribution 70 due to the influence of variations in the light intensity distribution of the light emitting element 2 itself, variations in the gain of each pixel of the image sensor 3X, and the like. Therefore, the light intensity correction unit 10A corrects the light intensity for each pixel based on the light intensity correction value measured in advance so that the non-uniform light intensity distribution 70 has a uniform light intensity distribution.
  • FIG. 3 is a diagram showing a signal output by the light amount correction unit of the absolute encoder according to the first embodiment.
  • the horizontal axis of FIG. 3 is the pixel position, and the vertical axis is the signal strength.
  • the light intensity correction unit 10A shows the light intensity distribution 71 of the signal after the light intensity of the signal shown in FIG. 2 is corrected.
  • the signal corresponding to the absolute value code pattern 30 has a uniform light intensity distribution 71 for the High bit 8 and the Low bit 9.
  • the light intensity correction unit 10A sends the light intensity distribution 71 to the edge detection unit 11A.
  • the light intensity correction unit 10B sends the light intensity distribution corrected for the light intensity to the edge detection unit 11B.
  • the edge detection unit 11A obtains an edge pixel position (edge pixel position 110, which will be described later) on the image sensor 3X, which matches the preset threshold level 105 with respect to the signal of the light intensity distribution 71.
  • edge region 75 is shown as an example of the edge region which is the region including the edge pixel position.
  • FIG. 4 is a diagram showing a signal in the edge region shown in FIG.
  • the horizontal axis of FIG. 4 is the pixel position, and the vertical axis is the signal strength.
  • FIG. 4 shows an enlarged view of the edge region 75 shown in FIG.
  • the pixel position corresponding to the threshold level 105 is the edge pixel position 110.
  • the signal strength of one of the signal strength of the adjacent i (i is a natural number) pixel and the signal strength of the i + 1th pixel is lower than the threshold level 105, and the signal strength of the other. Detects two pixels above the threshold level 105. Specifically, the edge detection unit 11A has an edge pixel position 110 between two pixels in which the signal strength of the i-th pixel is lower than the threshold level 105 and the signal strength of the i + 1st pixel is higher than the threshold level 105. Judge that there is.
  • the edge detection unit 11A states that the edge pixel position 110 is located between two pixels in which the signal strength of the i-th pixel is higher than the threshold level 105 and the signal strength of the i + 1st pixel is lower than the threshold level 105. to decide.
  • the edge detection unit 11A linearly interpolates the i-th pixel and the i + 1-th pixel so as to straddle the threshold level 105 with respect to the i-th pixel and the i + 1-th pixel determined to have the edge pixel position 110.
  • the edge detection unit 11A detects the coincidence point between the linearly interpolated signal and the threshold level 105 as the edge pixel position 110.
  • the edge pixel position 110 is a position where a digital signal rises or falls. In other words, the edge pixel position 110 is a boundary with or without a digital signal.
  • the edge detection unit 11A detects the rising edge and the falling edge by determining whether the detected edge pixel position 110 is a rising edge or a falling edge.
  • FIG. 5 is a diagram for explaining the rising edge and the falling edge detected by the edge detection unit of the absolute encoder according to the first embodiment.
  • the horizontal direction in FIG. 5 corresponds to the pixel position.
  • the edge detection unit 11A detects the edge pixel position 110 in which the signal strength of the i-th pixel is lower than the signal strength of the i + 1th pixel among the detected edge pixel positions 110 as the rising edge 51.
  • the edge detection unit 11A detects the edge pixel position 110 in which the signal intensity of the i-th pixel is higher than the signal intensity of the i + 1th pixel among the detected edge pixel positions 110 as the falling edge 52.
  • the edge detection unit 11A sets the edge direction information 50 indicating whether the edge pixel position 110 is the rising edge 51 or the falling edge 52 for each edge pixel position 110.
  • the edge detection unit 11A sends the edge direction information 50 and the edge pixel position 110 to the decoding unit 12A.
  • the edge detection unit 11B also detects the edge direction information 50 and the edge pixel position 110 by the same processing as the edge detection unit 11A.
  • the edge detection unit 11B sends the edge direction information 50 and the edge pixel position 110 to the phase detection unit 14B.
  • the decoding unit 12A converts the signal into a bit string by converting the High bit 8 and the Low bit 9 into bit values of "1" or "0" based on the edge direction information 50 and the edge pixel position 110.
  • FIG. 6 is a diagram showing a bit string corresponding to the edge information shown in FIG.
  • FIG. 6 shows a bit string 120 in which the decoding unit 12A converts the High bit 8 and the Low bit 9 into “1” or “0” based on the edge direction information 50 and the edge pixel position 110.
  • the decoding unit 12A sets the bit value “1” between the rising edge 51 and the falling edge 52, and sets the bit value “0” between the falling edge 52 and the rising edge 51, thereby making the bit string 120. Generate. As a result, the High bit 8 is represented as the bit value “1” and the Low bit 9 is represented as the bit value “0”.
  • the decoding unit 12A generates the bit string 120 so that the width of the pixel per bit becomes equal to the basic period width.
  • the basic periodic width is the minimum line width of the absolute value code pattern 30 composed of the reflective portion 31 and the non-reflective portion 32.
  • the absolute value code pattern 30 is formed radially from the center of the scale 20, the value of the basic period width changes depending on the radial direction of the scale 20.
  • the decoding unit 12A may convert the signal into the bit string 120 by converting the High bit 8 and the Low bit 9 into bit values of "1" or "0" by binarization processing.
  • the decoding unit 12A may convert the signal into the bit string 120 by any method as long as the signal can be converted into the bit string 120 composed of "1" and "0".
  • the decoding unit 12A sends the bit string 120 to the coarse detection unit 13A.
  • the coarse detection unit 13A detects a coarse absolute position from the bit string 120 converted by the decoding unit 12A.
  • a bit string constituting the absolute value code pattern 30 is stored in a look-up table in advance.
  • the coarse detection unit 13A identifies the coarse absolute position by comparing the bit string 120 detected by the decoding unit 12A with the bit string in the look-up table.
  • the coarse detection unit 13A identifies a coarse absolute position based on which bit string in the look-up table the bit string 120 corresponds to.
  • FIG. 7 is a diagram for explaining a process for specifying a coarse absolute position by the decoding unit of the absolute encoder according to the first embodiment.
  • the coarse detection unit 13A refers to the look-up table 130 and searches for a bit string 140 that matches the bit string 120.
  • the coarse detection unit 13A identifies the coarse absolute position corresponding to the bit string 120 by obtaining the absolute position corresponding to the bit string 140.
  • the coarse detection unit 13A detects a position corresponding to the position of the bit string 140 corresponding to the bit string 120 as a coarse absolute position.
  • the coarse detection unit 13A sends the specified absolute position to the high-precision detection unit 15X.
  • the coarse detection unit 13A specifies a coarse absolute position based on the pixel position corresponding to the center bit of the bit string 140, the specified absolute position corresponds to the absolute position in the center pixel position acquired by the image sensor 3X. ..
  • the phase detection unit 14B When the phase detection unit 14B receives the edge direction information 50 and the edge pixel position 110 from the edge detection unit 11B, the phase detection unit 14B calculates the amount of phase shift between the reference pixel position, which is the reference pixel position, and the signal.
  • FIG. 8 is a diagram for explaining the amount of phase shift of the signal calculated by the phase detection unit of the absolute encoder according to the first embodiment.
  • the phase detection unit 14B calculates the phase shift amount ⁇ with respect to the reference pixel position 150 of the image sensor 4X. Assuming that the center position of the reference pixel position 150 is P and the edge pixel position 110 closest to P is ZC (i), ZC (i) uses the following equation using the phase shift amount ⁇ from the reference pixel position 150. It can be represented by (1).
  • is a negative sign if it is to the left of the reference pixel position 150, and a positive sign if it is to the right. In other words, ⁇ has a negative sign if it is before the reference pixel position 150 in the rotation direction, and has a positive sign if it is behind the reference pixel position 150 in the rotation direction.
  • the phase detection unit 14B searches for the ZC (i) closest to P among the edge pixel positions 110 detected by the edge detection unit 11B, and takes the difference between the ZC (i) and P to obtain the phase shift amount ⁇ . calculate.
  • the phase detection unit 14B calculates the phase shift amount ⁇ using only ZC (i) and P, but the phase detection unit 14B uses all the edge pixel positions 110 to calculate the phase shift amount ⁇ .
  • the phase shift amount ⁇ may be calculated by the method of least squares.
  • the reference pixel position 150 may be the center pixel of the image sensor 4X, or may be the leftmost or rightmost pixel, and the position of the reference pixel position 150 is not particularly limited.
  • the phase detection unit 14B sends the phase shift amount ⁇ to the high-precision detection unit 15X.
  • the high-precision detection unit 15X calculates the absolute position of the scale 20 by adding the coarse absolute position calculated by the coarse detection unit 13A and the phase shift amount ⁇ calculated by the phase detection unit 14B.
  • the high-precision detection unit 15X matches the pixel position corresponding to the bit used for specifying the coarse absolute position with the reference pixel position 150 used for calculating the phase shift amount ⁇ , and then determines the absolute position of the scale 20. calculate.
  • the high-precision detection unit 15X outputs the calculated absolute position as position data 40X.
  • the absolute encoder 1X can detect a highly accurate absolute position only from the absolute value code pattern 30 as a signal detection pattern. Therefore, the absolute encoder 1X can detect an absolute position with high reliability and high resolution without complicating a pattern for signal detection.
  • the absolute encoder 1X uses two image sensors 3X and 4X arranged along the radial direction of the scale 20, the absolute position detection accuracy can be improved.
  • the reason why the absolute encoder 1X can improve the absolute position detection accuracy by using two image sensors 3X and 4X will be described.
  • the absolute encoder 1X when viewed from the rotation axis direction of the scale 20, the center of the light emitting element 2, the center of the image sensor 3X, and the image sensor 4X with respect to the radial direction of the scale 20.
  • the light emitting element 2 and the image sensors 3X and 4X are arranged so that the centers are on a straight line. Further, the image sensor 3X is arranged at a position closer to the center of the scale 20 than the image sensor 4X.
  • the image sensors 3X and 4X here have the same specifications.
  • FIG. 9 is a diagram for explaining the characteristics of the signal obtained by the absolute encoder according to the first embodiment.
  • a part of the scale 20 shown on the left side of FIG. 9 includes a reflection point 160 on the scale 20 of the light received by the image sensor 3X and a reflection point 170 on the scale 20 of the light received by the image sensor 4X. Shows. Further, on the right side of FIG. 9, the light intensity distributions 72 and 73 after the light intensity correction of the light projected on the image sensors 3X and 4X are shown.
  • the light intensity distribution 72 is the light intensity distribution at the reflection point 160
  • the light intensity distribution 73 is the light intensity distribution at the reflection point 170.
  • the light reflection point 160 received by the image sensor 3X includes more absolute value code patterns 30 than the light reflection point 170 received by the image sensor 4X. Therefore, when the edge detection unit 11B executes the edge detection process on the light intensity distribution 72 of the light projected on the image sensor 3X, the edge detection is performed on the light intensity distribution 73 of the light projected on the image sensor 4X. Many edge pixel positions 110 are detected.
  • the line width at the reflection point 160 is larger than the line width at the reflection point 170. Is also narrow. Therefore, the basic periodic width in the light intensity distribution 72 is narrower than the basic periodic width in the light intensity distribution 73. This is because the bit string 18 generated by the decoding unit 12A for the light intensity distribution 72 has a smaller number of pixels per bit than the bit string 19 generated for the light intensity distribution 73, and the number of bits (bit length). It means that there are many.
  • the resolution is higher than the light received by the image sensor 3X.
  • the light received by the image sensor 3X has a larger number of bits than the light received by the image sensor 4X, and therefore has higher reliability than the light received by the image sensor 4X.
  • the absolute encoder 1X of the first embodiment separately processes the signals obtained by the image sensors 3X and 4X in the absolute position calculation unit 6X, and the high-precision detection unit 15X adds the separately obtained position information. There is.
  • the AD converter 5A converts the analog signal from the image sensor 3X into a digital signal and inputs it to the absolute position calculation unit 6X.
  • the absolute position calculation unit 6X executes light quantity correction processing, edge detection processing, and decoding processing on the digital signal from the AD converter 5A, and the coarse detection unit 13A calculates the coarse absolute position.
  • the coarse detection unit 13A identifies the coarse absolute position by comparing the bit string 18 generated from the signal acquired by the image sensor 3X with the bit string stored in the look-up table 130. Since the bit string 18 has a larger number of bits than the bit string 19, the coarse detection unit 13A can compare more bits than when the bit string 19 is used, and can improve the reliability of the calculated absolute position. can. For example, even if the light to the scale 20 is shielded by the adhesion of foreign matter to the scale 20 and an error occurs in some bits of the bit string 18, if the number of bits to be compared is large, the coarse detection unit The 13A can specify the absolute position without being affected by the adhesion of foreign matter.
  • the AD converter 5B converts the analog signal from the image sensor 4X into a digital signal and inputs it to the absolute position calculation unit 6X.
  • the absolute position calculation unit 6X executes light amount correction processing and edge detection processing on the digital signal from the AD converter 5B, and the edge detection unit 11B calculates the phase shift amount ⁇ .
  • the unit of the phase shift amount ⁇ calculated by the phase detection unit 14B is the number of pixels.
  • the number of pixels per bit of the bit string 19 acquired by the image sensor 4X is larger than the number of pixels per bit of the bit string 18. Therefore, the number of pixels corresponding to the phase shift amount ⁇ is larger in the number of pixels in the bit string 19 than in the number of pixels in the bit string 18. Since the phase detection unit 14B calculates the phase shift amount ⁇ using the bit string 19, it is possible to calculate the phase shift amount ⁇ with a higher resolution than when calculating the phase shift amount ⁇ using the bit string 18. ..
  • the high-precision detection unit 15X adds the highly reliable coarse absolute position calculated by the coarse detection unit 13A and the high-resolution phase shift amount ⁇ calculated by the phase detection unit 14B.
  • the absolute encoder 1X can obtain an absolute position with high reliability and high resolution by separately processing and adding the signals obtained from the image sensors 3X and 4X.
  • the absolute encoder 1X calculates the position data 40X based on the two signals measured at two points in the absolute value code pattern 30, it obtains an absolute position with high reliability and high resolution. be able to.
  • the absolute encoder 1X can obtain an absolute position with high reliability and high resolution, it is not necessary to improve the resolution of the AD converters 5A and 5B, nor is it necessary to increase the number of detections.
  • the scale 20 of the absolute encoder 1X is provided with only one track having an absolute value code pattern 30 in the direction along the circumference, a highly reliable and high resolution absolute position can be obtained with a simple configuration. be able to.
  • the image sensors 3X and 4X having the same specifications have been described, but if the condition that the number of bits of the bit string 18 is larger than the number of bits of the bit string 19 is satisfied, the image sensor 4X A smaller image sensor 3X may be used. As a result, the mounting volume of the absolute encoder 1X can be reduced. Further, the absolute encoder 1X may detect the absolute position by using three or more image sensors.
  • the image sensors 3X and 4X are arranged so as to overlap each other on a half-line extending in the radial direction from the center of the scale 20. Further, the absolute position calculation unit 6X calculates a rough absolute position on the scale 20 based on the signal from the image sensor 3X, and the phase shift amount ⁇ from the reference pixel position 150 based on the signal from the image sensor 4X. Is calculated. Then, the absolute position calculation unit 6X calculates the position data 40X by adding the coarse absolute position and the phase shift amount ⁇ .
  • the absolute position calculation unit 6X can add the absolute position calculated based on the coarse information with high reliability and the phase shift amount ⁇ calculated based on the information with high resolution, so that the reliability can be increased. It is possible to calculate the position data 40X having high characteristics and high resolution.
  • the absolute position calculation unit generates a bit string obtained by connecting a bit string calculated by using a signal acquired from one image sensor and a bit string calculated by using a signal acquired from the other image sensor. And calculate the coarse absolute position.
  • FIG. 10 is a diagram showing the configuration of the absolute encoder according to the second embodiment.
  • FIG. 11 is a diagram for explaining the arrangement position of the image sensor in the absolute encoder according to the second embodiment.
  • components that achieve the same functions as the absolute encoder 1X of the first embodiment shown in FIG. 1 are designated by the same reference numerals, and duplicate description will be omitted.
  • the absolute encoder 1Y includes a light emitting element 2, image sensors 3Y and 4Y, a scale 20, AD converters 5A and 5B, and an absolute position calculation unit 6Y.
  • the image sensors 3Y and 4Y are image sensors similar to the image sensors 3X and 4X, and are different from the image sensors 3X and 4X in the arrangement position in the direction along the circumference of the scale 20.
  • the absolute position calculation unit 6Y includes a light amount correction unit 10A, 10B, an edge detection unit 11A, 11B, a decoding unit 12A, 12B, a coarse detection unit 13Y, a phase detection unit 14A, 14B, and a high-precision detection unit 15A. It has 15B and a calculation unit 45.
  • the center Ca of the image sensor 3Y and the center Cb of the image sensor 4Y are at different positions with respect to the direction along the circumference of the scale 20.
  • the absolute encoder 1Y when the scale 20 is viewed from the upper surface side, at least one of the position other than the center Ca of the image sensor 3Y and the position other than the center Cb of the image sensor 4Y is from the center C1 of the scale 20.
  • the image sensors 3Y and 4Y are arranged so as to overlap the half-line 22 extending in the first radial direction of the scale 20.
  • a part of the image sensor 3Y and a part of the image sensor 4Y overlap on the half-line 22, and at least one of the center Ca of the image sensor 3Y and the center Cb of the image sensor 4Y does not overlap on the half-line 22.
  • Image sensors 3Y and 4Y are arranged as such.
  • the light emitting element 2 is arranged so that the center C2 of the light emitting element 2 overlaps with the half line 22.
  • the shortest distance from the center Ca to the half-line 22 is the same as the shortest distance from the center Cb to the half-line 22.
  • the image sensor 3Y so that the half straight line 22 connecting the center C2 of the light emitting element 2 and the center C1 of the scale 20 passes through the light receiving surface 21A of the image sensor 3Y and the light receiving surface 21B of the image sensor 4Y.
  • 4Y are arranged.
  • the image sensors 3Y and 4Y are arranged so that the center line 41 extending in the longitudinal direction of the image sensor 3Y and the center line 42 extending in the longitudinal direction of the image sensor 4Y do not overlap.
  • the longitudinal direction of the image sensors 3Y and 4Y is a direction perpendicular to the half-line 22.
  • the image sensor 3Y is the first image sensor
  • the image sensor 4Y is the second image sensor.
  • the position in the direction along the circumference and the position in the radial direction of the image sensors 3Y and 4Y are different, and the half-line 22 passes through the light receiving surfaces 21A and 21B. 4Y is arranged.
  • the absolute encoder 1Y can obtain a bit string 23 by connecting the bit strings obtained by decoding the signals of the image sensors 3Y and 4Y.
  • the light amount correction unit 10A, the edge detection unit 11A, the decoding unit 12A, the phase detection unit 14A, and the high-precision detection unit 15A have the light amount correction unit 10B, the edge detection unit 11B, the decoding unit 12B, and the phase, respectively.
  • the same processing as that of the detection unit 14B and the high-precision detection unit 15B is executed. Therefore, here, the processing executed by the light amount correction unit 10A, the edge detection unit 11A, the decoding unit 12A, the phase detection unit 14A, and the high-precision detection unit 15A will be described. Further, the processing executed by the coarse detection unit 13Y and the calculation unit 45 will be described.
  • the light amount correction unit 10A, edge detection unit 11A, decoding unit 12A, coarse detection unit 13Y, phase detection unit 14A, and high-precision detection unit 15A of the absolute position calculation unit 6Y are the light amount correction units 10A of the absolute position calculation unit 6X, respectively.
  • Edge detection unit 11A, decoding unit 12A, coarse detection unit 13A, phase detection unit 14B, and high-precision detection unit 15X are the light amount correction units 10A of the absolute position calculation unit 6X, respectively.
  • the light amount correction unit 10A equalizes the signal intensity of the digital signal transmitted from the AD converter 5A and sends it to the edge detection unit 11A.
  • the edge detection unit 11A obtains an edge pixel position 110 that matches the threshold level 105 for a signal having a uniform signal strength. Further, the edge detection unit 11A sets the edge direction information 50 indicating the rise or fall of the edge at each edge pixel position 110.
  • the edge detection unit 11A of the absolute position calculation unit 6Y sends the edge direction information 50 and the edge pixel position 110 to the decoding unit 12A and the phase detection unit 14A.
  • the decoding unit 12A converts the signal into a bit string consisting of a bit value "1" and a bit value "0" based on the edge direction information 50 and the edge pixel position 110.
  • the decoding unit 12A sends the bit string to the coarse detection unit 13Y.
  • the decoding unit 12B executes the same processing as the decoding unit 12A. That is, the decoding unit 12B converts the signal into a bit string consisting of a bit value “1” and a bit value “0” based on the edge direction information 50 and the edge pixel position 110 received from the edge detection unit 11B. The decoding unit 12B sends the bit string to the coarse detection unit 13Y.
  • the coarse detection unit 13Y generates the bit string 23 by connecting the bit string converted by the decoding unit 12A and the bit string converted by the decoding unit 12B.
  • the coarse detection unit 13Y detects a coarse absolute position by comparing the bit string 23 with the look-up table 130. At this time, the coarse detection unit 13Y detects the coarse absolute position after adjusting the coarse absolute position so that the specified coarse absolute position becomes the scale angle position on the half-line 22.
  • the coarse absolute position detected by the coarse detection unit 13Y is the second absolute position.
  • the coarse detection unit 13Y sends the adjusted rough absolute position to the high-precision detection units 15A and 15B.
  • the phase detection unit 14A calculates the phase shift amount ⁇ with respect to the reference pixel position 24 based on the rising edge 51 and the falling edge 52 determined by the edge detecting unit 11A. At this time, the phase detection unit 14A calculates the phase shift amount ⁇ after adjusting the phase shift amount ⁇ so that the reference pixel position of the image sensor 3Y becomes the reference pixel position 24 on the half-line 22. The phase detection unit 14A sends the phase shift amount ⁇ to the high-precision detection unit 15A.
  • the phase detection unit 14B calculates the phase shift amount ⁇ with respect to the reference pixel position 25 based on the rising edge 51 and the falling edge 52 determined by the edge detecting unit 11B. At this time, the phase detection unit 14B calculates the phase shift amount ⁇ after adjusting the phase shift amount ⁇ so that the reference pixel position of the image sensor 4Y becomes the reference pixel position 25 on the half-line 22. The phase detection unit 14B sends the phase shift amount ⁇ to the high-precision detection unit 15B.
  • the reference pixel position 24 is the first reference pixel position
  • the phase shift amount ⁇ calculated by the phase detection unit 14A is the first phase shift amount
  • the reference pixel position 25 is the second reference pixel position
  • the phase shift amount ⁇ calculated by the phase detection unit 14B is the second phase shift amount.
  • the high-precision detection unit 15A calculates the absolute position of the scale 20 by adding the coarse absolute position detected by the coarse detection unit 13Y and the phase shift amount ⁇ calculated by the phase detection unit 14A.
  • the high-precision detection unit 15A sends the calculated absolute position to the calculation unit 45.
  • the high-precision detection unit 15B like the high-precision detection unit 15A, adds the coarse absolute position detected by the coarse detection unit 13Y and the phase shift amount ⁇ calculated by the phase detection unit 14B to scale 20. Calculate the absolute position of.
  • the high-precision detection unit 15B sends the calculated absolute position to the calculation unit 45.
  • the absolute position calculated by the high-precision detection unit 15A is the third absolute position
  • the absolute position calculated by the high-precision detection unit 15B is the fourth absolute position
  • the signal acquired by the image sensor 3Y is calculated at the absolute position of the scale 20 by the processing from the light amount correction unit 10A to the high-precision detection unit 15A, and the signal acquired by the image sensor 4Y is calculated from the light amount correction unit 10B. It is calculated to the absolute position of the scale 20 by the processing up to the high-precision detection unit 15B.
  • the calculation unit 45 calculates the average position between the absolute position calculated by the high-precision detection unit 15A and the absolute position calculated by the high-precision detection unit 15B, and outputs the calculated average position as position data 40Y.
  • the position data 40Y is the first absolute position.
  • the coarse detection unit 13Y generates a bit string 23 in which the bit string converted by the decoding unit 12A and the bit string converted by the decoding unit 12B are connected to generate an absolute position. Is calculated, a highly reliable absolute position can be obtained.
  • Embodiment 3 Next, the third embodiment will be described with reference to FIGS. 12 to 16.
  • the absolute encoder of the third embodiment two image sensors are arranged at positions facing each other with the center of the scale 20 interposed therebetween.
  • the absolute encoder of the third embodiment outputs the absolute position obtained from the normal image sensor, and both angle detection functions are normal. In some cases, the average position of the absolute position is output.
  • FIG. 12 is a diagram showing the configuration of the absolute encoder according to the third embodiment.
  • the components that achieve the same functions as the absolute encoder 1X of the first embodiment shown in FIG. 1 or the absolute encoder 1Y of the second embodiment shown in FIG. 10 are designated by the same reference numerals. , Duplicate explanations are omitted.
  • the absolute encoder 1Z includes light emitting elements 2A and 2B, image sensors 3Z and 4Z, a scale 20, AD converters 5A and 5B, and an absolute position calculation unit 6Z.
  • the image sensors 3Z and 4Z are image sensors similar to the image sensors 3X and 4X, and their arrangement positions are different from those of the image sensors 3X and 4X.
  • the image sensors 3Z and 4Z are arranged at positions symmetrically offset by 180 ° from the rotation axis of the rotation shaft 7. In other words, the image sensors 3Z and 4Z are arranged so as to face each other with the center position of the scale 20 interposed therebetween.
  • the light emitting elements 2A and 2B are lighting units that irradiate the scale 20 with light as in the light emitting element 2 of the first embodiment.
  • the image sensor 3Z receives the light irradiated by the light emitting element 2A and reflected by the scale 20, and outputs an analog signal corresponding to the received light to the AD converter 5A.
  • the image sensor 4Z receives the light irradiated by the light emitting element 2B and reflected by the scale 20, and outputs an analog signal corresponding to the received light to the AD converter 5B.
  • the light emitting element 2A is the first light emitting element that irradiates the first position of the scale 20 with light
  • the light emitting element 2B irradiates the second position of the scale 20 with light. It is a light emitting element of.
  • the image sensor 3Z is the first image sensor and the image sensor 4Z is the second image sensor.
  • the image sensor 3Z receives the first light from the first position separated by the first distance from the center of the scale 20 and outputs the analog signal corresponding to the first light.
  • the image sensor 4Z receives the second light from the second position separated by the second distance from the center of the scale 20 and outputs the analog signal corresponding to the second light.
  • the first distance and the second distance may be different distances or may be the same distance.
  • the analog signal output by the image sensor 3Z is the first analog signal
  • the analog signal output by the image sensor 4Z is the second analog signal.
  • the absolute position calculation unit 6Z includes a light amount correction unit 10A, 10B, an edge detection unit 11A, 11B, a decoding unit 12A, 12B, a coarse detection unit 13A, 13B, a phase detection unit 14A, 14B, and a high-precision detection unit. It has 15A and 15B, and a position data generation unit 16.
  • the coarse detection unit 13A detects a coarse absolute position by comparing the bit string converted by the decoding unit 12A with the look-up table 130.
  • the coarse detection unit 13A sends the adjusted rough absolute position to the high-precision detection unit 15A.
  • the coarse detection unit 13B detects a coarse absolute position by comparing the bit string converted by the decoding unit 12B with the look-up table 130.
  • the coarse detection unit 13B sends the adjusted rough absolute position to the high-precision detection unit 15B.
  • the high-precision detection unit 15A calculates the absolute position of the scale 20 by adding the coarse absolute position detected by the coarse detection unit 13A and the phase shift amount ⁇ calculated by the phase detection unit 14A.
  • the high-precision detection unit 15A sends the calculated absolute position to the position data generation unit 16.
  • the high-precision detection unit 15B calculates the absolute position of the scale 20 by adding the coarse absolute position detected by the coarse detection unit 13B and the phase shift amount ⁇ calculated by the phase detection unit 14B.
  • the high-precision detection unit 15B sends the calculated absolute position to the position data generation unit 16.
  • the absolute position calculation unit 6Z separately processes the signal acquired by the image sensor 3Z and the signal acquired by the image sensor 4Z, and calculates the absolute position from each signal. That is, the absolute position calculation unit 6Z calculates the absolute position from the signal acquired by the image sensor 3Z by the processing from the light amount correction unit 10A to the high accuracy detection unit 15A. Further, the absolute position calculation unit 6Z calculates the absolute position from the signal acquired by the image sensor 4Z by the processing from the light amount correction unit 10B to the high accuracy detection unit 15B.
  • the position data generation unit 16 calculates and outputs the average position of the absolute position of the image sensor 3Z and the absolute position of the image sensor 4Z as the position data 40Z and outputs it.
  • the absolute position of the image sensor 3Z is the second absolute position
  • the absolute position of the image sensor 4Z is the third absolute position
  • the position data 40Z is the first absolute position.
  • FIG. 13 is a flowchart showing a procedure for generating position data by the position data generation unit of the absolute encoder according to the third embodiment.
  • the position data generation unit 16 corrects the phase difference between the absolute position calculated by the high-precision detection unit 15A and the absolute position calculated by the high-precision detection unit 15B (step S10).
  • the absolute position calculated by the high-precision detection unit 15A is the absolute position obtained from the image sensor 3Z
  • the absolute position calculated by the high-precision detection unit 15B is the absolute position obtained from the image sensor 4Z.
  • the position data generation unit 16 corrects at least one of the absolute positions obtained from the image sensors 3Z and 4Z by using the phase difference of the image sensors 3Z and 4Z calculated in advance.
  • the position data generation unit 16 determines whether or not there is an abnormality in the absolute encoder 1Z (step S20).
  • the abnormality of the absolute encoder 1Z is an abnormality of at least one of the angle detection function of the image sensor 3Z and the angle detection function of the image sensor 4Z.
  • the position data generation unit 16 detects an abnormality, the operation of the absolute encoder 1Z is urgently stopped, or the absolute position is corrected so as to be a normal absolute position and the operation is continued.
  • FIG. 14 is a flowchart showing a processing procedure of a first example of abnormality determination processing by the position data generation unit of the absolute encoder according to the third embodiment.
  • the position data generation unit 16 determines whether or not the difference in absolute positions obtained from the image sensors 3Z and 4Z after correcting the phase difference is equal to or greater than the reference value of the difference (step S110).
  • the position data generation unit 16 determines that the absolute encoder 1Z is abnormal. That is, the position data generation unit 16 determines that at least one of the angle detection function of the image sensor 3Z and the angle detection function of the image sensor 4Z is abnormal. In this case, the position data generation unit 16 urgently stops the rotation of the scale 20 by urgently stopping the motor that rotates the rotary shaft 7 (step S120). Specifically, when the difference in absolute position is equal to or greater than the reference value of the difference, the position data generation unit 16 transmits a command for urgently stopping the motor to the motor control device that controls the motor. As a result, the motor control device stops the motor.
  • the position data generation unit 16 determines that the absolute encoder 1Z is normal. In this case, the position data generation unit 16 outputs the average position of the absolute positions after the phase difference correction obtained from the image sensors 3Z and 4Z as the position data 40Z (step S130). As a result, the absolute encoder 1Z can obtain a highly reliable absolute position by a simple calculation.
  • FIG. 15 is a flowchart showing a processing procedure of a second example of abnormality determination processing by the position data generation unit of the absolute encoder according to the third embodiment.
  • the position data generation unit 16 determines whether or not the angle detection function of the image sensor 3Z is abnormal (step S210).
  • the position data generation unit 16 determines, for example, that the number of edge pixel positions 110 detected by the edge detection unit 11A is abnormal when the number is equal to or less than the reference value of the number of edges. Further, the position data generation unit 16 may determine that it is abnormal when the number of difference bits between the bit string 120 obtained by the coarse detection unit 13A and the bit string 140 in the lookup table 130 is equal to or greater than the threshold value.
  • the position data generation unit 16 determines whether or not the angle detection function of the image sensor 4Z is abnormal (step S220).
  • the position data generation unit 16 determines, for example, that the number of edge pixel positions 110 detected by the edge detection unit 11B is abnormal when the number is equal to or less than the reference value of the number of edges.
  • the edge pixel position 110 in the image sensor 3Z is the first edge position
  • the edge pixel position 110 in the image sensor 4Z is the second edge position.
  • the position data generation unit 16 may determine that it is abnormal when the number of difference bits between the bit string 120 obtained by the coarse detection unit 13B and the bit string 140 in the lookup table 130 is equal to or greater than the threshold value.
  • the bit string 120 obtained by the coarse detection unit 13A is the first bit string
  • the bit string 120 obtained by the coarse detection unit 13B is the second bit string.
  • the bit string 140 in the lookup table 130 is the third bit string.
  • the angle detection function of the image sensor 3Z is the first angle detection function
  • the angle detection function of the image sensor 4Z is the second angle detection function.
  • step S220 When the angle detection function of the image sensor 4Z is abnormal (step S220, Yes), the position data generation unit 16 makes an emergency stop of the motor (step S230).
  • the position data generation unit 16 uses the absolute position obtained from the image sensor 4Z as position data. It is output as 40Z (step S240). That is, the position data generation unit 16 outputs the absolute position sent from the high-precision detection unit 15B as the position data 40Z.
  • the position data generation unit 16 determines whether or not the angle detection function of the image sensor 4Z is abnormal (step S250).
  • the position data generation unit 16 here may determine that the number of edge pixel positions 110 detected by the edge detection unit 11B is equal to or less than the reference value of the number of edges, and may determine that the bit string 120 and the bit string are abnormal. When the number of difference bits from 140 is equal to or greater than the threshold value, it may be determined to be abnormal.
  • the position data generation unit 16 positions the absolute position obtained from the image sensor 3Z. It is output as data 40Z (step S260). That is, the position data generation unit 16 outputs the absolute position sent from the high-precision detection unit 15A as the position data 40Z.
  • the position data generation unit 16 When the angle detection function of the image sensors 3Z and 4Z is not abnormal (step S250, No), the position data generation unit 16 outputs the average position of the absolute positions obtained from the image sensors 3Z and 4Z as the position data 40Z (step S250, No). Step S270). That is, the position data generation unit 16 outputs the average position of the absolute positions sent from the high-precision detection units 15A and 15B as the position data 40Z.
  • the position data generation unit 16 determines whether or not the angle detection functions of the image sensors 3Z and 4Z are abnormal, and if there is a normal angle detection function, the operation is continued. Therefore, the absolute encoder 1Z is used. You can get an absolute position on the robust.
  • the image sensors 3Z and 4Z are arranged with a phase difference of 180 °. Then, the absolute encoder 1Z generates the average position of the absolute positions obtained by the image sensors 3Z and 4Z as the position data 40Z. As a result, the absolute encoder 1Z can remove the error component of the absolute position due to the surface runout of the rotating scale 20.
  • FIG. 16 is a diagram for explaining the surface runout generated in the scale of the absolute encoder according to the third embodiment.
  • the absolute encoder 1Z the upper surface of the scale 20 and the upper surface of the control board 27 are arranged so as to face each other.
  • FIG. 16 illustrates a case where the scale 20 is tilted with respect to the control board 27 due to surface runout.
  • the control board 27 may be tilted with respect to the scale 20.
  • the absolute position calculation unit 6Z can remove the error component of the absolute position due to the surface runout by using the average position of the absolute positions obtained from the image sensors 3Z and 4Z as the position data 40Z. ..
  • the distance between the image sensor 3Z and the scale 20 and the distance between the image sensor 4Z and the scale 20 may be different. Even in this case, the absolute position calculation unit 6Z reduces the error component of the absolute position due to the surface runout by using the average position of the absolute positions obtained from the image sensors 3Z and 4Z as the position data 40Z. It becomes possible.
  • Embodiment 4 Next, the fourth embodiment will be described with reference to FIGS. 17 to 21.
  • the light emitting element 2 and the image sensors 3X and 4X are mounted in one module.
  • FIG. 17 is a diagram showing a schematic configuration of the absolute encoder according to the fourth embodiment.
  • components that achieve the same functions as the absolute encoder 1X of the first embodiment shown in FIG. 1 are designated by the same reference numerals, and duplicate description will be omitted.
  • the absolute encoder 1X of the fourth embodiment has the same components as the absolute encoder 1X of the first embodiment.
  • the light emitting element 2 and the image sensors 3X and 4X are integrated into one module 80a and mounted on the control board 27 constituting the hardware of the absolute encoder 1X.
  • the light emitting element 2 and the image sensors 3X and 4X are mounted on the small substrate 26, and the small substrate 26 is mounted on the upper surface of the control substrate 27.
  • the configuration of the module 80a and the configuration of the modules 80b and 80c in which the light emitting element 2 or the image sensors 3X and 4X are arranged at positions different from the module 80a will be described.
  • FIG. 18 is a diagram showing a first configuration example of a module in which the image sensor of the absolute encoder according to the fourth embodiment is mounted.
  • FIG. 18 shows a top view of the module 80a when the module 80a is viewed from the mounting direction of the image sensors 3X and 4X.
  • FIG. 19 is a diagram showing a second configuration example of a module in which the image sensor of the absolute encoder according to the fourth embodiment is mounted.
  • FIG. 19 shows a top view of the module 80b when the module 80b is viewed from the mounting direction of the image sensors 3P and 4P.
  • the module 80b can be applied to the absolute encoder 1X or the like described in the first embodiment.
  • FIG. 20 is a diagram showing a third configuration example of a module on which the image sensor of the absolute encoder according to the fourth embodiment is mounted.
  • FIG. 20 shows a top view of the module 80c when the module 80c is viewed from the mounting direction of the image sensor 3Z.
  • the module 80c can be applied to the absolute encoder 1Z or the like described in the third embodiment.
  • the light emitting element 2 and the image sensors 3X and 4X are arranged on the upper surface of the small substrate 26.
  • the image sensor 4X is arranged at a position facing the light emitting element 2, and the image sensor 3X is arranged between the light emitting element 2 and the image sensor 4X.
  • the light emitting element 2 and the image sensors 3P and 4P are arranged on the upper surface of the small substrate 26.
  • the image sensors 3P and 4P are image sensors similar to the image sensors 3X and 4X, and their arrangement positions are different from those of the image sensors 3X and 4X.
  • the image sensors 3P and 4P are arranged so that the image sensor 3P and the image sensor 4P face each other, and the light emitting element 2 is arranged between the image sensor 3P and the image sensor 4P.
  • the light emitting element 2A and the image sensor 3Z are arranged on the upper surface of the small substrate 26.
  • the image sensor 3Z is arranged at a position facing the light emitting element 2A. Further, the light emitting element 2B and the image sensor 4Z are arranged on the upper surface of the small substrate 26 different from the small substrate 26 shown in FIG.
  • FIG. 21 is a diagram showing a configuration of an absolute encoder when the module shown in FIG. 20 is applied to the absolute encoder of the third embodiment.
  • a cross-sectional view of the control board 27 included in the absolute encoder 1Z is shown in the upper row, and a top view of the control board 27 included in the absolute encoder 1Z is shown in the lower row.
  • Modules 80c and 80c are arranged on the upper surface of the control board 27 so as to face each other with the center of the scale 20 in between.
  • One module 80c is the module described with reference to FIG. 20, and is equipped with a light emitting element 2A and an image sensor 3Z.
  • the image sensor 4Z is mounted at a position facing the light emitting element 2B.
  • the light emitting element 2 of the absolute encoder 1Y and the image sensors 3Y and 4Y described in the second embodiment may be mounted in one module.
  • at least one light emitting element and at least one image sensor are mounted on one module.
  • the fourth embodiment by using any of the modules 80a, 80b, and 80c, it is possible to realize the consolidation of mounted components and suppress the pressure on the mounted area of the control board 27. .. Further, since the component can be mounted as a module, the mounting speed at the time of production is improved, and it is possible to reduce the mounting position error at the time of mounting.
  • the hardware configuration of the absolute position calculation units 6X to 6Z will be described. Since the absolute position calculation units 6X to 6Z have the same hardware configuration, the hardware configuration of the absolute position calculation unit 6X will be described here.
  • FIG. 22 is a diagram showing an example of a hardware configuration that realizes an absolute position calculation unit included in the absolute encoder according to the first embodiment.
  • the absolute position calculation unit 6X can be realized by the input device 300, the processor 100, the memory 200, and the output device 400.
  • An example of the processor 100 is a CPU (Central Processing Unit, central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, DSP (Digital Signal Processor)) or system LSI (Large Scale Integration).
  • Examples of the memory 200 are RAM (Random Access Memory) and ROM (Read Only Memory).
  • the absolute position calculation unit 6X is realized by the processor 100 reading and executing an absolute position calculation program that can be executed by a computer for executing the operation of the absolute position calculation unit 6X stored in the memory 200.
  • the absolute position calculation program which is a program for executing the operation of the absolute position calculation unit 6X, causes a computer to execute the procedure or method of the absolute position calculation unit 6X.
  • the absolute position calculation program executed by the absolute position calculation unit 6X includes light amount correction units 10A and 10B, edge detection units 11A and 11B, a decoding unit 12A, a coarse detection unit 13A, a phase detection unit 14B, and high accuracy. It has a modular configuration including a detection unit 15X, these are loaded on the main storage device, and these are generated on the main storage device.
  • the input device 300 receives digital signals from the AD converters 5A and 5B and sends them to the processor 100.
  • the memory 200 is used as a temporary memory when the processor 100 executes various processes. Further, the memory 200 stores the threshold level 105, the look-up table 130, and the like.
  • the output device 400 outputs the position data 40X calculated by the processor 100.
  • the absolute position calculation program is a file in an installable format or an executable format, and may be stored in a computer-readable storage medium and provided as a computer program product. Further, the absolute position calculation program may be provided to the absolute position calculation unit 6X via a network such as the Internet. It should be noted that some of the functions of the absolute position calculation unit 6X may be realized by dedicated hardware such as a dedicated circuit, and some may be realized by software or firmware.
  • the configuration shown in the above embodiments is an example, and can be combined with another known technique, can be combined with each other, and does not deviate from the gist. It is also possible to omit or change a part of the configuration.

Abstract

アブソリュートエンコーダ(1X)が、絶対値符号パターンが配置された円板状のスケール(20)と、スケール(20)の第1の位置からの光を受光して第1のアナログ信号を出力するイメージセンサ(3X)と、スケール(20)の第2の位置からの光を受光して第2のアナログ信号を出力するイメージセンサ(4X)と、第1のアナログ信号を第1のデジタル信号に変換するAD変換器(5A)と、第2のアナログ信号を第2のデジタル信号に変換するAD変換器(5B)と、第1および第2のデジタル信号に基づいて、スケール(20)上での第1の絶対位置を算出する絶対位置演算部(6X)と、を備えている。

Description

アブソリュートエンコーダ
 本開示は、測定対象物の角度位置を測定するアブソリュートエンコーダに関する。
 シャフトなどの測定対象物の機械的な角度位置を測定するアブソリュートエンコーダは、複数のマークが配列された円板スケールと、円板スケールに光を照射することで、円板スケールから測定対象物の角度位置に対応する信号を取得する光センサモジュールとを備えている。
 特許文献1に記載のアブソリュートエンコーダでは、円板スケールにABS(ABSolute、アブソリュート)パターンと、INC(INCremental、インクリメンタル)パターンとを組み合わせたマークが配列されている。このアブソリュートエンコーダは、円板スケールから取得される位置情報を、2つの検出器で取得し、ABSパターンの位置情報とINCパターンの位置情報とに分解し、これらの位置情報を平均値化することで、位置情報の分解能を向上させている。
特許第5787513号公報
 しかしながら、上記特許文献1の技術では、円板スケールから受光される光は円板スケールの1つの領域から受光されており、1つの領域から受光された光に基づいてABSパターンの位置情報およびINCパターンの位置情報を算出し平均値化している。このため、上記特許文献1の技術では、2つの検出器の何れかに異物付着等があると位置情報の信頼性が損なわれるという問題があった。
 本開示は、上記に鑑みてなされたものであって、信頼性が高く分解能が高い位置データを算出することができるアブソリュートエンコーダを得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本開示のアブソリュートエンコーダは、絶対値符号パターンが配置された円板状のスケールと、スケールに光を照射する発光素子とを備えている。また、本開示のアブソリュートエンコーダは、スケールの中心から第1の距離だけ離れた第1の位置からの第1の光を受光して第1の光に対応する第1のアナログ信号を出力する第1のイメージセンサと、スケールの中心から第2の距離だけ離れた第2の位置からの第2の光を受光して第2の光に対応する第2のアナログ信号を出力する第2のイメージセンサとを備えている。また、本開示のアブソリュートエンコーダは、第1のアナログ信号を第1のデジタル信号に変換する第1の信号変換部と、第2のアナログ信号を第2のデジタル信号に変換する第2の信号変換部と、第1のデジタル信号および第2のデジタル信号に基づいて、スケール上での第1の絶対位置を算出する絶対位置演算部とを備えている。
 本開示にかかるアブソリュートエンコーダは、信頼性が高く分解能が高い位置データを算出することができるという効果を奏する。
実施の形態1にかかるアブソリュートエンコーダの構成を示す図 実施の形態1にかかるアブソリュートエンコーダの光量補正部に入力される信号を示す図 実施の形態1にかかるアブソリュートエンコーダの光量補正部が出力する信号を示す図 図3に示したエッジ領域の信号を示す図 実施の形態1にかかるアブソリュートエンコーダのエッジ検出部が検出する立ち上がりエッジおよび立ち下がりエッジを説明するための図 図5に示したエッジ情報に対応するビット列を示す図 実施の形態1にかかるアブソリュートエンコーダのデコード部が粗い絶対位置を特定する処理を説明するための図 実施の形態1にかかるアブソリュートエンコーダの位相検出部が算出する、信号の位相ずれ量を説明するための図 実施の形態1にかかるアブソリュートエンコーダで得られる信号の特徴を説明するための図 実施の形態2にかかるアブソリュートエンコーダの構成を示す図 実施の形態2にかかるアブソリュートエンコーダにおけるイメージセンサの配置位置を説明するための図 実施の形態3にかかるアブソリュートエンコーダの構成を示す図 実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による位置データの生成処理手順を示すフローチャート 実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による異常判定処理の第1例の処理手順を示すフローチャート 実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による異常判定処理の第2例の処理手順を示すフローチャート 実施の形態3にかかるアブソリュートエンコーダのスケールに発生する面振れを説明するための図 実施の形態4にかかるアブソリュートエンコーダの概略構成を示す図 実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第1の構成例を示す図 実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第2の構成例を示す図 実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第3の構成例を示す図 図20に示したモジュールを実施の形態3のアブソリュートエンコーダに適用した場合の、アブソリュートエンコーダの構成を示す図 実施の形態1にかかるアブソリュートエンコーダが備える絶対位置演算部を実現するハードウェア構成例を示す図
 以下に、本開示の実施の形態にかかるアブソリュートエンコーダを図面に基づいて詳細に説明する。
実施の形態1.
 図1は、実施の形態1にかかるアブソリュートエンコーダの構成を示す図である。アブソリュートエンコーダ1Xは、発光素子2と、イメージセンサ3X,4Xと、スケール20と、AD(Analog to Digital)変換器5A,5Bと、絶対位置演算部6Xとを備えている。
 発光素子2は、スケール20に光を照射する照明部である。発光素子2には、例えば点光源LED(Light Emitting Diode、発光ダイオード)が用いられる。イメージセンサ3X,4Xは、スケール20からの光を受光する光検出部である。イメージセンサ3X,4Xには、CCD(Charge Coupled Device、電荷結合素子)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor、相補性金属酸化膜半導体)イメージセンサ等の撮像デバイスが用いられる。実施の形態1では、イメージセンサ3X,4Xが1次元イメージセンサである場合について説明するが、イメージセンサ3X,4Xは、2次元イメージセンサであっても構わない。
 スケール20は、円板状のスケールである。スケール20は、モータ(図示せず)等が備える回転シャフト7に連結されており、回転シャフト7が回転することでスケール20が回転する。スケール20は、円周に沿った方向に絶対位置パターンである絶対値符号パターン30を有するトラックが1本だけ設けられている。絶対値符号パターン30には、スケール20の径方向に延びる複数の反射部31と、複数の非反射部32とが配置されている。
 反射部31は、発光素子2からの光を反射する部分であり、また、非反射部32は、発光素子2からの光を吸収、或いは透過する部分である。非反射部32は、反射部31の反射率よりも低い反射率で反射する部分であればよい。反射部31および非反射部32は、イメージセンサ3X,4X上に投影される光強度分布を変調するように機能する。
 絶対値符号パターン30は、スケール20の角度位置を特徴づけるように反射部31および非反射部32で構成されている。絶対値符号パターン30の配列には、例えば、M系列等の疑似ランダム符号をマンチェスター符号化した符号列が使用される。
 実施の形態1では、発光素子2およびイメージセンサ3X,4Xが共にスケール20の片側の面である上面に配置された反射型エンコーダを例示する。なお、実施の形態1のアブソリュートエンコーダ1Xは、スケール20を挟んで互いに対向する位置である上面および下面に発光素子2およびイメージセンサ3X,4Xが配置された透過型エンコーダにも適用可能である。
 透過型エンコーダの場合、絶対値符号パターン30は、光を透過する透過部と、光を透過しない非透過部とで構成されればよい。反射型エンコーダおよび透過型エンコーダの何れの場合であっても、イメージセンサ3X,4X上に投影される光強度分布を変調するように構成されていれば、絶対値符号パターン30の構成は特に限定されない。
 また、実施の形態1では、スケール20の中心から径方向に沿って、発光素子2およびイメージセンサ3X,4Xが、発光素子2、イメージセンサ3X、およびイメージセンサ4Xの順番で配置されている例を示しているが、配置の順番はこの順番に限らない。すなわち、発光素子2およびイメージセンサ3X,4Xは、受光する光のスケール20上での反射位置が異なっていれば、配置の順番は限定されない。
 イメージセンサ3X,4Xおよび発光素子2は、スケール20の上面側である回転軸方向から見た場合に、スケール20の中心からスケール20の第1の径方向に延びる半直線上に重なるように配置されている。実施の形態1では、この半直線に、スケール20の上面側から見た場合に、イメージセンサ3Xの中心と、イメージセンサ4Xの中心と、発光素子2の中心とが重なるように、イメージセンサ3X,4Xおよび発光素子2が配置されている。
 実施の形態1では、イメージセンサ3Xが、第1のイメージセンサであり、イメージセンサ4Xが、第2のイメージセンサである。イメージセンサ3Xは、スケール20の中心から第1の距離だけ離れた第1の位置からの第1の光を受光して第1の光に対応するアナログ信号を出力する。イメージセンサ4Xは、スケール20の中心から第2の距離だけ離れた第2の位置からの第2の光を受光して第2の光に対応するアナログ信号を出力する。実施の形態1では、第1の距離と第2の距離とは異なる距離である。イメージセンサ3Xが、出力するアナログ信号が第1のアナログ信号であり、イメージセンサ4Xが、出力するアナログ信号が第2のアナログ信号である。
 AD変換器5Aは、イメージセンサ3Xが検出したアナログ信号をデジタル信号に変換する第1の信号変換部である。AD変換器5Bは、イメージセンサ4Xが検出したアナログ信号をデジタル信号に変換する第2の信号変換部である。AD変換器5Aが変換するデジタル信号が第1のデジタル信号であり、AD変換器5Bが変換するデジタル信号が第2のデジタル信号である。
 絶対位置演算部6Xは、AD変換器5A,5Bからの出力に基づいて、スケール20の絶対位置を演算する演算部である。絶対位置演算部6Xは、第1のデジタル信号および第2のデジタル信号に基づいて、スケール20上での絶対位置を算出し、位置データ40Xとして出力する。実施の形態1では、位置データ40Xが第1の絶対位置である。
 絶対位置演算部6Xは、光量補正部10A,10Bと、エッジ検出部11A,11Bと、デコード部12Aと、粗検出部13Aと、位相検出部14Bと、高精度検出部15Xとを有している。
 光量補正部10Aは、AD変換器5Aから送られてくるデジタル信号の信号強度を均一化して、エッジ検出部11Aに送る。光量補正部10Bは、AD変換器5Bから送られてくるデジタル信号の信号強度を均一化して、エッジ検出部11Bに送る。
 エッジ検出部11Aは、光量補正部10Aによって信号強度が均一化された信号に対して、予め設定しておいた閾値レベルに一致する、イメージセンサ3X上でのエッジ位置(以下、エッジ画素位置という)を求める。また、エッジ検出部11Aは、エッジ画素位置がエッジの立ち上がりを示す立ち上がりエッジであるか、エッジの立ち下がりを示す立ち下がりエッジであるかを判別する。
 エッジ検出部11Bは、光量補正部10Bによって信号強度が均一化された信号に対して、予め設定しておいた閾値レベルに一致する、イメージセンサ4X上でのエッジ画素位置を求める。また、エッジ検出部11Bは、エッジ画素位置がエッジの立ち上がりを示す立ち上がりエッジであるか、エッジの立ち下がりを示す立ち下がりエッジであるかを判別する。
 デコード部12Aは、エッジ検出部11Aが判別した立ち上がりエッジおよび立ち下がりエッジに基づいて、信号を、ビット値「1」およびビット値「0」からなるビット列に変換する。
 粗検出部13Aは、デコード部12Aが変換したビット列から粗い絶対位置を検出する。粗検出部13Aでは、例えば、絶対値符号パターン30のビット列を示すルックアップテーブルと、デコード部12Aが変換したビット列とを比較することで粗い絶対位置を検出する。実施の形態1では、粗検出部13Aが検出する粗い絶対位置が、第2の絶対位置である。
 位相検出部14Bは、エッジ検出部11Bが判別した立ち上がりエッジおよび立ち下がりエッジに基づいて、基準となる画素位置(後述する基準画素位置150)に対する位相ずれ量を算出する。
 高精度検出部15Xは、粗検出部13Aが検出した粗い絶対位置と、位相検出部14Bが算出した位相ずれ量とを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Xは、算出した絶対位置を位置データ40Xとして出力する。
 なお、イメージセンサ3X,4Xおよび発光素子2は半直線上に重なるように配置されなくても構わない。換言すると、イメージセンサ3X,4Xは、スケール20の上面側である回転軸方向から見た場合に、スケール20の中心からスケール20の第1の径方向に延びる半直線上に重なっていなくてもよい。すなわち、イメージセンサ3Xとスケール20の中心とを結ぶ直線と、イメージセンサ4Xとスケール20の中心とを結ぶ直線とは、異なる方向の直線であってもよい。
 イメージセンサ3X,4Xおよび発光素子2が半直線上に重ならない場合、絶対位置演算部6Xは、予め算出されたイメージセンサ3X,4Xの位相差を用いて、イメージセンサ3X,4Xから得られる絶対位置の少なくとも一方を補正すればよい。例えば、粗検出部13Aは、イメージセンサ3Xから得られる絶対位置を、イメージセンサ3X,4Xおよび発光素子2が半直線上に配置された場合にイメージセンサ3Xから得られる絶対位置に補正する。また、位相検出部14Bが、イメージセンサ4Xから得られる位相ずれ量を、イメージセンサ3X,4Xおよび発光素子2が半直線上に配置された場合にイメージセンサ4Xから得られる位相ずれ量に補正してもよい。
 イメージセンサ3X,4Xおよび発光素子2が半直線上に重ならない場合、アブソリュートエンコーダ1Xには、2つの発光素子2が配置される。イメージセンサ3Xは、2つの発光素子2のうちの一方の発光素子2からの光を受光し、イメージセンサ4Xは、2つの発光素子2のうちの他方の発光素子2からの光を受光する。
 次に、絶対位置演算部6Xの各構成部の動作について説明する。AD変換器5Aが、イメージセンサ3Xで検出されたアナログ信号をデジタル信号に変換して光量補正部10Aに送ると、光量補正部10Aは、デジタル信号の信号強度を均一化して、エッジ検出部11Aに送る。
 AD変換器5Bが、イメージセンサ4Xで検出されたアナログ信号をデジタル信号に変換して光量補正部10Bに送ると、光量補正部10Bは、デジタル信号の信号強度を均一化して、エッジ検出部11Bに送る。
 図2は、実施の形態1にかかるアブソリュートエンコーダの光量補正部に入力される信号を示す図である。図2の横軸は画素位置であり、縦軸は信号強度である。光量補正部10A,10Bに入力される信号は、光強度分布70のような分布を有している。
 光量補正部10Aに入力される信号と、光量補正部10Bに入力される信号とは、イメージセンサ3X,4Xの配置位置の差の分だけ異なる信号となっている。イメージセンサ3X,4Xは同様の処理を実行し、光量補正部10A,10Bは同様の処理を実行し、エッジ検出部11A,11Bは同様の処理を実行するので、図2から図5では、イメージセンサ3X、光量補正部10A、エッジ検出部11Aによる処理について説明する。
 図2に示すHighビット8は、スケール20の反射部31でのパターンを表し、Lowビット9は、スケール20の非反射部32でのパターンを表している。イメージセンサ3X上に投影されるスケール20の絶対値符号パターン30に対応する信号は、図2に示すように、Highビット8およびLowビット9が不均一な光強度分布70となる。すなわち、絶対値符号パターン30による信号は、発光素子2自体の光強度分布のばらつき、イメージセンサ3Xの各画素のゲインばらつき等の影響によって、不均一な光強度分布70となる。そこで、光量補正部10Aは、不均一な光強度分布70を均一な光強度分布となるように予め計測しておいた光量補正値に基づいて画素毎に光量の補正を行う。
 図3は、実施の形態1にかかるアブソリュートエンコーダの光量補正部が出力する信号を示す図である。図3の横軸は画素位置であり、縦軸は信号強度である。図3では、光量補正部10Aが、図2に示した信号の光量を補正した後の信号の光強度分布71を示している。図3に示すように、光量補正後には、絶対値符号パターン30に対応する信号は、Highビット8およびLowビット9が均一な光強度分布71となる。光量補正部10Aは、光強度分布71をエッジ検出部11Aに送る。また、光量補正部10Bは、光量の補正を行った光強度分布をエッジ検出部11Bに送る。
 エッジ検出部11Aは、光強度分布71の信号に対して、予め設定しておいた閾値レベル105に一致する、イメージセンサ3X上でのエッジ画素位置(後述するエッジ画素位置110)を求める。図3では、エッジ画素位置を含む領域であるエッジ領域の一例として、エッジ領域75を示している。
 図4は、図3に示したエッジ領域の信号を示す図である。図4の横軸は画素位置であり、縦軸は信号強度である。図4では、図3に示したエッジ領域75の拡大図を示している。光強度分布71の信号のうち閾値レベル105に一致する画素位置がエッジ画素位置110である。
 エッジ検出部11Aは、隣り合う、i(iは自然数)番目の画素の信号強度と、i+1番目の画素の信号強度とのうち、一方の信号強度が閾値レベル105よりも低く、他方の信号強度が閾値レベル105よりも高い2つの画素を検出する。具体的には、エッジ検出部11Aは、i番目の画素の信号強度が閾値レベル105よりも低く、且つi+1番目の画素の信号強度が閾値レベル105よりも高い2つの画素間にエッジ画素位置110があると判断する。また、エッジ検出部11Aは、i番目の画素の信号強度が閾値レベル105よりも高く、且つi+1番目の画素の信号強度が閾値レベル105よりも低い2つの画素間にエッジ画素位置110があると判断する。
 さらに、エッジ検出部11Aは、エッジ画素位置110があると判定したi番目の画素とi+1番目の画素に対して、閾値レベル105を跨ぐようi番目の画素とi+1番目の画素を線形補間する。エッジ検出部11Aは、線形補間された信号と、閾値レベル105との一致点をエッジ画素位置110として検出する。このようにエッジ画素位置110は、デジタル信号の立ち上がりまたは立ち下がりの位置である。換言すると、エッジ画素位置110は、デジタル信号の有無の境界である。
 また、エッジ検出部11Aは、検出したエッジ画素位置110が、立ち上がりエッジであるか、立ち下がりエッジであるかを判定することで、立ち上がりエッジおよび立ち下がりエッジを検出する。
 図5は、実施の形態1にかかるアブソリュートエンコーダのエッジ検出部が検出する立ち上がりエッジおよび立ち下がりエッジを説明するための図である。図5の横方向は、画素位置に対応している。
 エッジ検出部11Aは、検出したエッジ画素位置110のうち、i番目の画素の信号強度がi+1番目の画素の信号強度よりも低いエッジ画素位置110を立ち上がりエッジ51として検出する。
 また、エッジ検出部11Aは、検出したエッジ画素位置110のうち、i番目の画素の信号強度がi+1番目の画素の信号強度よりも高いエッジ画素位置110を立ち下がりエッジ52として検出する。
 これにより、エッジ検出部11Aは、エッジ画素位置110が、立ち上がりエッジ51であるか、または立ち下がりエッジ52であるかを示すエッジ方向情報50を、各エッジ画素位置110に対して設定する。エッジ検出部11Aは、エッジ方向情報50およびエッジ画素位置110をデコード部12Aに送る。
 エッジ検出部11Bもエッジ検出部11Aと同様の処理によってエッジ方向情報50およびエッジ画素位置110を検出する。エッジ検出部11Bは、エッジ方向情報50およびエッジ画素位置110を位相検出部14Bに送る。
 デコード部12Aは、エッジ方向情報50およびエッジ画素位置110に基づいて、Highビット8およびLowビット9を、「1」または「0」のビット値に変換することで、信号をビット列に変換する。
 図6は、図5に示したエッジ情報に対応するビット列を示す図である。図6では、デコード部12Aが、エッジ方向情報50およびエッジ画素位置110に基づいて、Highビット8およびLowビット9を、「1」または「0」に変換したビット列120を示している。
 デコード部12Aは、例えば、立ち上がりエッジ51から立ち下がりエッジ52までの間はビット値「1」とし、立ち下がりエッジ52から立ち上がりエッジ51までの間はビット値「0」とすることでビット列120を生成する。これにより、Highビット8がビット値「1」として表現され、Lowビット9がビット値「0」として表現される。
 また、デコード部12Aは、1ビット当たりの画素の幅が基本周期幅と等しくなるように、ビット列120を生成する。基本周期幅は、反射部31および非反射部32で構成される絶対値符号パターン30の最小線幅である。但し、絶対値符号パターン30はスケール20の中心から放射線状に形成されているので、基本周期幅は、スケール20の径方向に依存して値が変わる。
 デコード部12Aは、Highビット8およびLowビット9を2値化処理によって「1」または「0」のビット値に変換することで、信号をビット列120に変換してもよい。デコード部12Aは、信号を「1」および「0」からなるビット列120に変換できる方法であれば、何れの方法で信号をビット列120に変換してもよい。デコード部12Aは、ビット列120を粗検出部13Aに送る。
 粗検出部13Aは、デコード部12Aが変換したビット列120から粗い絶対位置を検出する。粗検出部13Aには、例えば、絶対値符号パターン30を構成するビット列が、予めルックアップテーブル内に格納されている。粗検出部13Aは、デコード部12Aが検出したビット列120と、ルックアップテーブル内のビット列とを比較することで、粗い絶対位置を特定する。粗検出部13Aは、ビット列120が、ルックアップテーブル内の何れのビット列に対応しているかに基づいて、粗い絶対位置を特定する。
 図7は、実施の形態1にかかるアブソリュートエンコーダのデコード部が粗い絶対位置を特定する処理を説明するための図である。粗検出部13Aは、ルックアップテーブル130を参照し、ビット列120と一致するビット列140を探索する。粗検出部13Aは、ビット列140に相当する絶対位置を求めることで、ビット列120に対応する粗い絶対位置を特定する。粗検出部13Aは、ビット列120と一致するビット列140の位置に対応する位置を粗い絶対位置として検出する。粗検出部13Aは、特定した絶対位置を高精度検出部15Xに送る。
 なお、粗検出部13Aが、ビット列140の中央ビットに相当する画素位置を基準に粗い絶対位置を特定した場合、特定した絶対位置は、イメージセンサ3Xで取得する中心画素位置における絶対位置に相当する。
 位相検出部14Bは、エッジ検出部11Bからエッジ方向情報50およびエッジ画素位置110を受け付けると、基準の画素位置である基準画素位置と、信号との間の位相ずれ量を算出する。
 図8は、実施の形態1にかかるアブソリュートエンコーダの位相検出部が算出する、信号の位相ずれ量を説明するための図である。位相検出部14Bは、イメージセンサ4Xの基準画素位置150に対する位相ずれ量θを算出する。基準画素位置150の中心位置をPとし、Pに一番近いエッジ画素位置110をZC(i)とすると、ZC(i)は、基準画素位置150からの位相ずれ量θを用いて以下の式(1)で表すことができる。
 ZC(i)=P+θ・・・(1)
 θは、基準画素位置150よりも左にあればマイナスの符号となり、右にあればプラスの符号となる。換言すると、θは、基準画素位置150よりも回転方向の手前にあればマイナスの符号となり、基準画素位置150よりも回転方向の奥にあればプラスの符号となる。位相検出部14Bは、エッジ検出部11Bで検出したエッジ画素位置110のうち、Pに最も近いZC(i)を探索し、ZC(i)とPとの差分をとることで位相ずれ量θを算出する。
 なお、実施の形態1では、位相検出部14BがZC(i)およびPのみを用いて位相ずれ量θを算出しているが、位相検出部14Bは、全てのエッジ画素位置110を用いて、最小二乗法により位相ずれ量θを算出してもよい。また、基準画素位置150は、イメージセンサ4Xの中心画素であってもよいし、左端または右端の画素でもよく、基準画素位置150の位置は特に限定されない。位相検出部14Bは、位相ずれ量θを高精度検出部15Xに送る。
 高精度検出部15Xは、粗検出部13Aが算出した粗い絶対位置と、位相検出部14Bが算出した位相ずれ量θとを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Xは、粗い絶対位置の特定に使用したビットに対応する画素位置と、位相ずれ量θの算出に使用した基準画素位置150とを一致させたうえで、スケール20の絶対位置を算出する。高精度検出部15Xは、算出した絶対位置を位置データ40Xとして出力する。
 このように、アブソリュートエンコーダ1Xは、信号検出用のパターンとしては絶対値符号パターン30のみから高精度な絶対位置を検出することができる。したがって、アブソリュートエンコーダ1Xは、信号検出用のパターンを複雑化することなく、高い信頼性で高い分解能の絶対位置を検出することが可能となる。
 また、アブソリュートエンコーダ1Xは、スケール20の径方向に沿って配置された2つのイメージセンサ3X,4Xを用いているので、絶対位置の検出精度を向上させることができる。ここで、アブソリュートエンコーダ1Xが2つのイメージセンサ3X,4Xを用いて絶対位置の検出精度を向上させることができる理由について説明する。
 アブソリュートエンコーダ1Xでは、図1に示すように、スケール20の回転軸方向から見た場合に、スケール20の径方向に対して、発光素子2の中心、イメージセンサ3Xの中心、およびイメージセンサ4Xの中心が一直線上になるように、発光素子2、イメージセンサ3X,4Xが配置されている。また、イメージセンサ3Xは、イメージセンサ4Xよりもスケール20の中心に近い位置に配置されている。ここでのイメージセンサ3X,4Xは、同一の仕様である。
 ここで、イメージセンサ3X,4Xで受光する光を、AD変換器5A,5Bおよび絶対位置演算部6Xで処理して得られる信号の特徴について説明する。
 図9は、実施の形態1にかかるアブソリュートエンコーダで得られる信号の特徴を説明するための図である。図9の左側に示すスケール20の一部には、イメージセンサ3Xが受光した光のスケール20上での反射地点160と、イメージセンサ4Xが受光した光のスケール20上での反射地点170とを示している。また、図9の右側には、イメージセンサ3X,4Xに投影された光の光量補正後の光強度分布72,73を示している。光強度分布72が、反射地点160における光の強度分布であり、光強度分布73が、反射地点170における光の強度分布である。
 イメージセンサ3Xが受光する光の反射地点160には、イメージセンサ4Xが受光する光の反射地点170よりも多くの絶対値符号パターン30が含まれている。このため、エッジ検出部11Bが、イメージセンサ3Xに投影された光の光強度分布72に対してエッジ検出処理を実行すると、イメージセンサ4Xに投影された光の光強度分布73に対するエッジ検出よりも多くのエッジ画素位置110が検出される。
 また、反射地点160,170に含まれる、同一の反射部31の線幅または同一の非反射部32の線幅に着目すると、反射地点160における線幅の方が、反射地点170における線幅よりも狭い。このため、光強度分布72における基本周期幅は、光強度分布73における基本周期幅よりも狭くなる。これは、デコード部12Aが光強度分布72に対して生成するビット列18が、光強度分布73に対して生成されるビット列19よりも、1ビット当たりの画素数が少なく、ビット数(ビット長)が多いことを意味している。すなわち、イメージセンサ4Xで受光する光の方が、イメージセンサ3Xで受光する光よりも1ビット当たりの画素数が多いので、イメージセンサ3Xで受光する光よりも分解能が高い。一方、イメージセンサ3Xで受光する光の方が、イメージセンサ4Xで受光する光よりもビット数が多いので、イメージセンサ4Xで受光する光よりも信頼度が高い。
 実施の形態1のアブソリュートエンコーダ1Xは、イメージセンサ3X,4Xによって得られる信号を絶対位置演算部6X内で別々に処理し、高精度検出部15Xが、別々に求められた位置情報を足し合わせている。
 アブソリュートエンコーダ1Xでは、AD変換器5Aが、イメージセンサ3Xからのアナログ信号をデジタル信号に変換し、絶対位置演算部6Xに入力する。絶対位置演算部6Xは、このAD変換器5Aからのデジタル信号に対し、光量補正処理、エッジ検出処理、およびデコード処理を実行し、粗検出部13Aが、粗い絶対位置を算出する。
 粗検出部13Aは、イメージセンサ3Xが取得した信号から生成したビット列18と、ルックアップテーブル130に格納されたビット列とを比較することで粗い絶対位置を特定する。ビット列18は、ビット列19よりもビット数が多いので、粗検出部13Aは、ビット列19を用いる場合よりも多くのビットを比較対象とすることができ、算出する絶対位置の信頼性を高めることができる。例えば、スケール20への異物の付着によってスケール20への光が遮光され、ビット列18の一部のビットに誤りが発生した場合であっても、比較対象とするビット数が多ければ、粗検出部13Aは、異物の付着による影響を受けずに絶対位置を特定することができる。
 また、アブソリュートエンコーダ1Xでは、AD変換器5Bが、イメージセンサ4Xからのアナログ信号をデジタル信号に変換し、絶対位置演算部6Xに入力する。絶対位置演算部6Xは、このAD変換器5Bからのデジタル信号に対し、光量補正処理、およびエッジ検出処理を実行し、エッジ検出部11Bが、位相ずれ量θを算出する。
 位相検出部14Bが算出する位相ずれ量θの単位は画素数である。イメージセンサ4Xが取得したビット列19の1ビット当たりの画素数は、ビット列18の1ビット当たりの画素数よりも多い。したがって、位相ずれ量θに相当する画素数は、ビット列19の画素数の方が、ビット列18の画素数よりも多くなる。位相検出部14Bは、ビット列19を用いて位相ずれ量θを算出しているので、ビット列18を用いて位相ずれ量θを算出する場合よりも高い分解能の位相ずれ量θを算出することができる。
 高精度検出部15Xは、粗検出部13Aが算出した信頼性の高い粗い絶対位置と、位相検出部14Bが算出した高い分解能の位相ずれ量θとを足し合わせる。このように、アブソリュートエンコーダ1Xは、イメージセンサ3X,4Xから得られる信号を別々に処理して足し合わせることで、信頼性が高く分解能が高い絶対位置を得ることができる。
 このように、アブソリュートエンコーダ1Xは、絶対値符号パターン30のうちの2箇所で計測された2つの信号に基づいて位置データ40Xを算出しているので、信頼性が高く分解能が高い絶対位置を得ることができる。
 また、アブソリュートエンコーダ1Xは、信頼性が高く分解能が高い絶対位置を得ることができるので、AD変換器5A,5Bの分解能を向上させる必要も、また検出回数を増やす必要もない。
 また、アブソリュートエンコーダ1Xのスケール20は、円周に沿った方向に絶対値符号パターン30を有するトラックが1本だけ設けられているので、簡易な構成で信頼性が高く分解能が高い絶対位置を得ることができる。
 なお、実施の形態1では、同一仕様のイメージセンサ3X,4Xを用いる場合について説明したが、ビット列18のビット数が、ビット列19のビット数よりも多いという条件を満たしていれば、イメージセンサ4Xよりも小型化のイメージセンサ3Xが用いられてもよい。これにより、アブソリュートエンコーダ1Xの実装体積を軽減することができる。また、アブソリュートエンコーダ1Xは、3つ以上のイメージセンサを用いて絶対位置を検出してもよい。
 このように実施の形態1のアブソリュートエンコーダ1Xでは、イメージセンサ3X,4Xが、スケール20の中心から径方向に延びる半直線上に重なるように配置されている。また、絶対位置演算部6Xが、イメージセンサ3Xからの信号に基づいてスケール20上での粗い絶対位置を算出するとともに、イメージセンサ4Xからの信号に基づいて基準画素位置150からの位相ずれ量θを算出している。そして、絶対位置演算部6Xが、粗い絶対位置と位相ずれ量θとを足し合わせることで位置データ40Xを算出している。これにより、絶対位置演算部6Xは、信頼度の高い粗い情報に基づいて算出された絶対位置と、分解能が高い情報に基づいて算出された位相ずれ量θとを足し合わせることができるので、信頼性が高く分解能が高い位置データ40Xを算出することができる。
実施の形態2.
 つぎに、図10および図11を用いて実施の形態2について説明する。実施の形態2では、絶対位置演算部が、一方のイメージセンサから取得した信号を用いて算出したビット列と、他方のイメージセンサから取得した信号を用いて算出したビット列とを繋ぎ合わせたビット列を生成して粗い絶対位置を算出する。
 図10は、実施の形態2にかかるアブソリュートエンコーダの構成を示す図である。図11は、実施の形態2にかかるアブソリュートエンコーダにおけるイメージセンサの配置位置を説明するための図である。図10の各構成要素のうち図1に示す実施の形態1のアブソリュートエンコーダ1Xと同一機能を達成する構成要素については同一符号を付しており、重複する説明は省略する。
 アブソリュートエンコーダ1Yは、発光素子2と、イメージセンサ3Y,4Yと、スケール20と、AD変換器5A,5Bと、絶対位置演算部6Yとを備えている。イメージセンサ3Y,4Yは、イメージセンサ3X,4Xと同様のイメージセンサであり、イメージセンサ3X,4Xとは、スケール20の円周に沿った方向の配置位置が異なる。
 絶対位置演算部6Yは、光量補正部10A,10Bと、エッジ検出部11A,11Bと、デコード部12A,12Bと、粗検出部13Yと、位相検出部14A,14Bと、高精度検出部15A,15Bと、演算部45とを有している。
 アブソリュートエンコーダ1Yでは、イメージセンサ3Yの中心Caとイメージセンサ4Yの中心Cbとが、スケール20の円周に沿った方向に対して異なる位置となっている。換言すると、アブソリュートエンコーダ1Yでは、スケール20を上面側から見た場合に、イメージセンサ3Yの中心Ca以外の位置とイメージセンサ4Yの中心Cb以外の位置との少なくとも一方が、スケール20の中心C1からスケール20の第1の径方向に延びる半直線22上に重なるようにイメージセンサ3Y,4Yが配置されている。すなわち、イメージセンサ3Yの一部およびイメージセンサ4Yの一部が半直線22上に重なり、且つイメージセンサ3Yの中心Caとイメージセンサ4Yの中心Cbとの少なくとも一方が、半直線22上に重ならないようにイメージセンサ3Y,4Yが配置されている。発光素子2は、発光素子2の中心C2が、この半直線22上に重なるように配置されている。中心Caから半直線22までの最短距離と、中心Cbから半直線22までの最短距離とは同じである。
 また、アブソリュートエンコーダ1Yでは、発光素子2の中心C2とスケール20の中心C1とを結ぶ半直線22が、イメージセンサ3Yの受光面21Aおよびイメージセンサ4Yの受光面21Bを通るように、イメージセンサ3Y,4Yが配置されている。また、アブソリュートエンコーダ1Yでは、イメージセンサ3Yの長手方向に延びる中央線41と、イメージセンサ4Yの長手方向に延びる中央線42とが重ならないように、イメージセンサ3Y,4Yが配置されている。イメージセンサ3Y,4Yの長手方向は、半直線22に垂直な方向である。実施の形態2では、イメージセンサ3Yが、第1のイメージセンサであり、イメージセンサ4Yが、第2のイメージセンサである。
 このように、アブソリュートエンコーダ1Yでは、イメージセンサ3Y,4Yの円周に沿った方向の位置および径方向の位置が異なり、かつ半直線22が受光面21A,21Bを通るように、イメージセンサ3Y,4Yが配置されている。
 このようなイメージセンサ3Y,4Yの配置により、受光面21A,21Bで受光される光には共通の絶対値符号パターンが一部含まれることになる。これにより、アブソリュートエンコーダ1Yは、イメージセンサ3Y,4Yの信号をデコードすることで得られるビット列を繋ぎ合わせたビット列23を得ることができる。
 絶対位置演算部6Yでは、光量補正部10A、エッジ検出部11A、デコード部12A、位相検出部14A、および高精度検出部15Aが、それぞれ光量補正部10B、エッジ検出部11B、デコード部12B、位相検出部14B、および高精度検出部15Bと同様の処理を実行する。したがって、ここでは光量補正部10A、エッジ検出部11A、デコード部12A、位相検出部14A、および高精度検出部15Aが実行する処理について説明する。また、粗検出部13Yおよび演算部45が実行する処理について説明する。
 絶対位置演算部6Yの光量補正部10A、エッジ検出部11A、デコード部12A、粗検出部13Y、位相検出部14A、および高精度検出部15Aは、それぞれ、絶対位置演算部6Xの光量補正部10A、エッジ検出部11A、デコード部12A、粗検出部13A、位相検出部14B、および高精度検出部15Xと同様の処理を実行する。
 すなわち、光量補正部10Aは、AD変換器5Aから送られてくるデジタル信号の信号強度を均一化して、エッジ検出部11Aに送る。エッジ検出部11Aは、信号強度が均一化された信号に対して、閾値レベル105に一致するエッジ画素位置110を求める。また、エッジ検出部11Aは、エッジの立ち上がりまたは立ち下がりを示すエッジ方向情報50を各エッジ画素位置110に設定する。絶対位置演算部6Yのエッジ検出部11Aは、エッジ方向情報50およびエッジ画素位置110をデコード部12Aおよび位相検出部14Aに送る。
 デコード部12Aは、エッジ方向情報50およびエッジ画素位置110に基づいて、信号を、ビット値「1」およびビット値「0」からなるビット列に変換する。デコード部12Aは、ビット列を粗検出部13Yに送る。
 また、デコード部12Bは、デコード部12Aと同様の処理を実行する。すなわち、デコード部12Bは、エッジ検出部11Bから受け付けた、エッジ方向情報50およびエッジ画素位置110に基づいて、信号を、ビット値「1」およびビット値「0」からなるビット列に変換する。デコード部12Bは、ビット列を粗検出部13Yに送る。
 粗検出部13Yは、デコード部12Aが変換したビット列と、デコード部12Bが変換したビット列とを繋ぎ合わせることで、ビット列23を生成する。粗検出部13Yは、ビット列23とルックアップテーブル130とを比較することで粗い絶対位置を検出する。このとき、粗検出部13Yは、特定する粗い絶対位置が、半直線22上のスケール角度位置となるように粗い絶対位置を調整したうえで粗い絶対位置を検出する。実施の形態2では、粗検出部13Yが検出する粗い絶対位置が、第2の絶対位置である。粗検出部13Yは、調整後の粗い絶対位置を高精度検出部15A,15Bに送る。
 位相検出部14Aは、エッジ検出部11Aが判別した立ち上がりエッジ51および立ち下がりエッジ52に基づいて、基準画素位置24に対する位相ずれ量θを算出する。このとき、位相検出部14Aは、イメージセンサ3Yの基準画素位置が、半直線22上の基準画素位置24となるように位相ずれ量θを調整したうえで位相ずれ量θを算出する。位相検出部14Aは、位相ずれ量θを高精度検出部15Aに送る。
 また、位相検出部14Bは、エッジ検出部11Bが判別した立ち上がりエッジ51および立ち下がりエッジ52に基づいて、基準画素位置25に対する位相ずれ量θを算出する。このとき、位相検出部14Bは、イメージセンサ4Yの基準画素位置が、半直線22上の基準画素位置25となるように位相ずれ量θを調整したうえで位相ずれ量θを算出する。位相検出部14Bは、位相ずれ量θを高精度検出部15Bに送る。
 実施の形態2では、基準画素位置24が第1の基準画素位置であり、位相検出部14Aが算出する位相ずれ量θが第1の位相ずれ量である。また、実施の形態2では、基準画素位置25が第2の基準画素位置であり、位相検出部14Bが算出する位相ずれ量θが第2の位相ずれ量である。
 高精度検出部15Aは、粗検出部13Yが検出した粗い絶対位置と、位相検出部14Aが算出した位相ずれ量θとを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Aは、算出した絶対位置を演算部45に送る。
 また、高精度検出部15Bは、高精度検出部15Aと同様に、粗検出部13Yが検出した粗い絶対位置と、位相検出部14Bが算出した位相ずれ量θとを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Bは、算出した絶対位置を演算部45に送る。
 実施の形態2では、高精度検出部15Aが算出する絶対位置が第3の絶対位置であり、高精度検出部15Bが算出する絶対位置が第4の絶対位置である。
 このように、イメージセンサ3Yが取得した信号は、光量補正部10Aから高精度検出部15Aまでの処理によってスケール20の絶対位置に演算され、イメージセンサ4Yが取得した信号は、光量補正部10Bから高精度検出部15Bまでの処理によってスケール20の絶対位置に演算される。
 演算部45は、高精度検出部15Aが算出した絶対位置と、高精度検出部15Bが算出した絶対位置との平均位置を算出し、算出した平均位置を位置データ40Yとして出力する。実施の形態2では、位置データ40Yが第1の絶対位置である。
 このように実施の形態2の絶対位置演算部6Yでは、粗検出部13Yが、デコード部12Aが変換したビット列と、デコード部12Bが変換したビット列とを繋ぎ合わせたビット列23を生成して絶対位置を算出するので、信頼性の高い絶対位置を得ることができる。
実施の形態3.
 つぎに、図12から図16を用いて実施の形態3について説明する。実施の形態3のアブソリュートエンコーダは、2つのイメージセンサがスケール20の中心を挟んで対向する位置に配置されている。実施の形態3のアブソリュートエンコーダは、2つのイメージセンサのうち一方の角度検出機能が異常である場合には、正常なイメージセンサから得られた絶対位置を出力し、両方の角度検出機能が正常である場合には、絶対位置の平均位置を出力する。
 図12は、実施の形態3にかかるアブソリュートエンコーダの構成を示す図である。図12の各構成要素のうち図1に示す実施の形態1のアブソリュートエンコーダ1Xまたは図10に示す実施の形態2のアブソリュートエンコーダ1Yと同一機能を達成する構成要素については同一符号を付しており、重複する説明は省略する。
 アブソリュートエンコーダ1Zは、発光素子2A,2Bと、イメージセンサ3Z,4Zと、スケール20と、AD変換器5A,5Bと、絶対位置演算部6Zとを備えている。イメージセンサ3Z,4Zは、イメージセンサ3X,4Xと同様のイメージセンサであり、イメージセンサ3X,4Xとは配置位置が異なる。
 実施の形態3では、イメージセンサ3Z,4Zが、回転シャフト7の回転軸を対称に180°ずれた位置に配置されている。換言すると、イメージセンサ3Z,4Zが、スケール20の中心位置を挟んで対向するよう配置されている。
 また、発光素子2A,2Bは、実施の形態1の発光素子2と同様にスケール20に光を照射する照明部である。イメージセンサ3Zは、発光素子2Aが照射してスケール20で反射された光を受光し、受光した光に対応するアナログ信号をAD変換器5Aに出力する。イメージセンサ4Zは、発光素子2Bが照射してスケール20で反射された光を受光し、受光した光に対応するアナログ信号をAD変換器5Bに出力する。
 実施の形態3では、発光素子2Aが、スケール20の第1の位置に光を照射する第1の発光素子であり、発光素子2Bが、スケール20の第2の位置に光を照射する第2の発光素子である。また、実施の形態3では、イメージセンサ3Zが第1のイメージセンサであり、イメージセンサ4Zが第2のイメージセンサである。イメージセンサ3Zは、スケール20の中心から第1の距離だけ離れた第1の位置からの第1の光を受光して第1の光に対応するアナログ信号を出力する。イメージセンサ4Zは、スケール20の中心から第2の距離だけ離れた第2の位置からの第2の光を受光して第2の光に対応するアナログ信号を出力する。実施の形態3では、第1の距離と第2の距離とは異なる距離であってもよいし、同じ距離であってもよい。イメージセンサ3Zが、出力するアナログ信号が第1のアナログ信号であり、イメージセンサ4Zが、出力するアナログ信号が第2のアナログ信号である。
 絶対位置演算部6Zは、光量補正部10A,10Bと、エッジ検出部11A,11Bと、デコード部12A,12Bと、粗検出部13A,13Bと、位相検出部14A,14Bと、高精度検出部15A,15Bと、位置データ生成部16とを有している。
 粗検出部13Aは、デコード部12Aが変換したビット列とルックアップテーブル130とを比較することで粗い絶対位置を検出する。粗検出部13Aは、調整後の粗い絶対位置を高精度検出部15Aに送る。
 粗検出部13Bは、デコード部12Bが変換したビット列とルックアップテーブル130とを比較することで粗い絶対位置を検出する。粗検出部13Bは、調整後の粗い絶対位置を高精度検出部15Bに送る。
 高精度検出部15Aは、粗検出部13Aが検出した粗い絶対位置と、位相検出部14Aが算出した位相ずれ量θとを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Aは、算出した絶対位置を位置データ生成部16に送る。
 高精度検出部15Bは、粗検出部13Bが検出した粗い絶対位置と、位相検出部14Bが算出した位相ずれ量θとを足し合わせることで、スケール20の絶対位置を算出する。高精度検出部15Bは、算出した絶対位置を位置データ生成部16に送る。
 このように、絶対位置演算部6Zは、イメージセンサ3Zが取得した信号と、イメージセンサ4Zが取得した信号とを別々に処理して、それぞれの信号から絶対位置を算出する。すなわち、絶対位置演算部6Zは、光量補正部10Aから高精度検出部15Aまでの処理によって、イメージセンサ3Zが取得した信号から絶対位置を算出する。また、絶対位置演算部6Zは、光量補正部10Bから高精度検出部15Bまでの処理によって、イメージセンサ4Zが取得した信号から絶対位置を算出する。
 位置データ生成部16は、イメージセンサ3Zの絶対位置とイメージセンサ4Zの絶対位置との平均位置を位置データ40Zとして算出し出力する。実施の形態3では、イメージセンサ3Zの絶対位置が第2の絶対位置であり、イメージセンサ4Zの絶対位置が第3の絶対位置である。また、実施の形態3では、位置データ40Zが第1の絶対位置である。
 図13は、実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による位置データの生成処理手順を示すフローチャートである。位置データ生成部16は、高精度検出部15Aが算出した絶対位置と、高精度検出部15Bが算出した絶対位置との位相差を補正する(ステップS10)。高精度検出部15Aが算出した絶対位置が、イメージセンサ3Zから得られる絶対位置であり、高精度検出部15Bが算出した絶対位置が、イメージセンサ4Zから得られる絶対位置である。位置データ生成部16は、予め算出しておいたイメージセンサ3Z,4Zの位相差を用いて、イメージセンサ3Z,4Zから得られる絶対位置の少なくとも一方を補正する。
 位置データ生成部16は、アブソリュートエンコーダ1Zの異常の有無を判定する(ステップS20)。アブソリュートエンコーダ1Zの異常は、イメージセンサ3Zの角度検出機能およびイメージセンサ4Zの角度検出機能の少なくとも一方の異常である。位置データ生成部16が異常を検出すると、アブソリュートエンコーダ1Zの動作を緊急停止させるか、または正常な絶対位置となるよう絶対位置を補正して動作を継続する。
 図14は、実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による異常判定処理の第1例の処理手順を示すフローチャートである。位置データ生成部16は、位相差を補正した後にイメージセンサ3Z,4Zから得られる絶対位置の差分が、差分の基準値以上であるか否かを判定する(ステップS110)。
 絶対位置の差分が差分の基準値以上である場合(ステップS110、Yes)、位置データ生成部16は、アブソリュートエンコーダ1Zの異常であると判定する。すなわち、位置データ生成部16は、イメージセンサ3Zの角度検出機能およびイメージセンサ4Zの角度検出機能の少なくとも一方が異常であると判定する。この場合、位置データ生成部16は、回転シャフト7を回転させるモータを緊急停止させることでスケール20の回転を緊急停止させる(ステップS120)。具体的には、絶対位置の差分が差分の基準値以上である場合、位置データ生成部16は、モータを緊急停止させるための指令を、モータを制御するモータ制御装置に送信する。これにより、モータ制御装置が、モータを停止させる。
 一方、絶対位置の差分が差分の基準値未満である場合(ステップS110、No)、位置データ生成部16は、アブソリュートエンコーダ1Zが正常であると判定する。この場合、位置データ生成部16は、イメージセンサ3Z,4Zから得られた位相差補正後の絶対位置の平均位置を位置データ40Zとして出力する(ステップS130)。これにより、アブソリュートエンコーダ1Zは、簡易な演算で信頼性の高い絶対位置を得ることができる。
 図15は、実施の形態3にかかるアブソリュートエンコーダの位置データ生成部による異常判定処理の第2例の処理手順を示すフローチャートである。位置データ生成部16は、イメージセンサ3Zの角度検出機能が異常であるか否かを判定する(ステップS210)。位置データ生成部16は、例えば、エッジ検出部11Aが検出したエッジ画素位置110の個数が、エッジ数の基準値以下である場合に異常であると判定する。また、位置データ生成部16は、粗検出部13Aが求めるビット列120と、ルックアップテーブル130内のビット列140との差異ビット数が閾値以上である場合に異常であると判定してもよい。
 イメージセンサ3Zの角度検出機能が異常である場合(ステップS210、Yes)、位置データ生成部16は、イメージセンサ4Zの角度検出機能が異常であるか否かを判定する(ステップS220)。位置データ生成部16は、例えば、エッジ検出部11Bが検出したエッジ画素位置110の個数が、エッジ数の基準値以下である場合に異常であると判定する。イメージセンサ3Zにおけるエッジ画素位置110が第1のエッジ位置であり、イメージセンサ4Zにおけるエッジ画素位置110が第2のエッジ位置である。
 また、位置データ生成部16は、粗検出部13Bが求めるビット列120と、ルックアップテーブル130内のビット列140との差異ビット数が閾値以上である場合に異常であると判定してもよい。実施の形態3では、粗検出部13Aが求めるビット列120が第1のビット列であり、粗検出部13Bが求めるビット列120が第2のビット列である。また、ルックアップテーブル130内のビット列140が、第3のビット列である。また、実施の形態3では、イメージセンサ3Zの角度検出機能が第1の角度検出機能であり、イメージセンサ4Zの角度検出機能が第2の角度検出機能である。
 イメージセンサ4Zの角度検出機能が異常である場合(ステップS220、Yes)、位置データ生成部16は、モータを緊急停止させる(ステップS230)。
 イメージセンサ3Zの角度検出機能が異常であるが、イメージセンサ4Zの角度検出機能が異常でない場合(ステップS220、No)、位置データ生成部16は、イメージセンサ4Zから得られた絶対位置を位置データ40Zとして出力する(ステップS240)。すなわち、位置データ生成部16は、高精度検出部15Bから送られてきた絶対位置を位置データ40Zとして出力する。
 イメージセンサ3Zの角度検出機能が異常でない場合(ステップS210、No)、位置データ生成部16は、イメージセンサ4Zの角度検出機能が異常であるか否かを判定する(ステップS250)。ここでの位置データ生成部16は、エッジ検出部11Bが検出したエッジ画素位置110の個数が、エッジ数の基準値以下である場合に異常であると判定してもよいし、ビット列120とビット列140との差異ビット数が閾値以上である場合に異常であると判定してもよい。
 イメージセンサ3Zの角度検出機能は異常ではないが、イメージセンサ4Zの角度検出機能が異常である場合(ステップS250、Yes)、位置データ生成部16は、イメージセンサ3Zから得られた絶対位置を位置データ40Zとして出力する(ステップS260)。すなわち、位置データ生成部16は、高精度検出部15Aから送られてきた絶対位置を位置データ40Zとして出力する。
 イメージセンサ3Z,4Zの角度検出機能が異常ではない場合(ステップS250、No)、位置データ生成部16は、イメージセンサ3Z,4Zから得られた絶対位置の平均位置を位置データ40Zとして出力する(ステップS270)。すなわち、位置データ生成部16は、高精度検出部15A,15Bから送られてきた絶対位置の平均位置を位置データ40Zとして出力する。
 このように、位置データ生成部16は、イメージセンサ3Z,4Zの角度検出機能が異常であるか否かを判定し、正常な角度検出機能があれば動作を継続するので、アブソリュートエンコーダ1Zは、ロバストに絶対位置を得ることができる。
 また、アブソリュートエンコーダ1Zでは、180°の位相差でイメージセンサ3Z,4Zが配置されている。そして、アブソリュートエンコーダ1Zは、イメージセンサ3Z,4Zで得られた絶対位置の平均位置を位置データ40Zとして生成している。これにより、アブソリュートエンコーダ1Zは、回転するスケール20の面振れによる絶対位置の誤差成分を除去することができる。
 図16は、実施の形態3にかかるアブソリュートエンコーダのスケールに発生する面振れを説明するための図である。アブソリュートエンコーダ1Zでは、スケール20の上面と制御基板27の上面とが対向するように配置されている。
 発光素子2A,2Bおよびイメージセンサ3Z,4Zは、制御基板27の上面に配置されている。図16では、制御基板27に対してスケール20が面振れによって傾いている場合を図示している。なお、スケール20に対して制御基板27が傾く場合もある。
 このように実施の形態3のアブソリュートエンコーダ1Zでは、イメージセンサ3Z,4Zが180°の位相差で配置されているので、イメージセンサ3Zとスケール20との間の距離と、イメージセンサ4Zとスケール20との間の距離との和は、スケール20の回転位置によらず一定になる。したがって、絶対位置演算部6Zは、イメージセンサ3Z,4Zから得られた絶対位置の平均位置を位置データ40Zとすることで、面振れに起因する絶対位置の誤差成分を除去することが可能となる。
 なお、イメージセンサ3Zとスケール20との間の距離と、イメージセンサ4Zとスケール20との間の距離とが異なっていてもよい。この場合であっても、絶対位置演算部6Zは、イメージセンサ3Z,4Zから得られた絶対位置の平均位置を位置データ40Zとすることで、面振れに起因する絶対位置の誤差成分を低減することが可能となる。
実施の形態4.
 つぎに、図17から図21を用いて実施の形態4について説明する。実施の形態4では、発光素子2、およびイメージセンサ3X,4Xが1つのモジュールに実装される。
 図17は、実施の形態4にかかるアブソリュートエンコーダの概略構成を示す図である。図17の各構成要素のうち図1に示す実施の形態1のアブソリュートエンコーダ1Xと同一機能を達成する構成要素については同一符号を付しており、重複する説明は省略する。
 実施の形態4のアブソリュートエンコーダ1Xは、実施の形態1のアブソリュートエンコーダ1Xと同様の構成要素を有している。実施の形態4のアブソリュートエンコーダ1Xでは、発光素子2、およびイメージセンサ3X,4Xが、1つのモジュール80aに集約され、アブソリュートエンコーダ1Xのハードウェアを構成する制御基板27に実装されている。具体的には、発光素子2、およびイメージセンサ3X,4Xが、小基板26上に実装され、この小基板26が制御基板27の上面に実装されている。
 ここで、モジュール80aの構成と、モジュール80aとは異なる位置に発光素子2、またはイメージセンサ3X,4Xが配置されたモジュール80b,80cの構成について説明する。
 図18は、実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第1の構成例を示す図である。図18では、モジュール80aをイメージセンサ3X,4Xの実装方向から見たモジュール80aの上面図を示している。
 図19は、実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第2の構成例を示す図である。図19では、モジュール80bをイメージセンサ3P,4Pの実装方向から見たモジュール80bの上面図を示している。モジュール80bは、実施の形態1で説明したアブソリュートエンコーダ1Xなどに適用可能である。
 図20は、実施の形態4にかかるアブソリュートエンコーダのイメージセンサが実装されたモジュールの第3の構成例を示す図である。図20では、モジュール80cをイメージセンサ3Zの実装方向から見たモジュール80cの上面図を示している。モジュール80cは、実施の形態3で説明したアブソリュートエンコーダ1Zなどに適用可能である。
 モジュール80aでは、発光素子2およびイメージセンサ3X,4Xが小基板26の上面に配置されている。モジュール80aでは、発光素子2に対向する位置にイメージセンサ4Xが配置され、発光素子2とイメージセンサ4Xとの間にイメージセンサ3Xが配置されている。
 モジュール80bでは、発光素子2およびイメージセンサ3P,4Pが小基板26の上面に配置されている。イメージセンサ3P,4Pは、イメージセンサ3X,4Xと同様のイメージセンサであり、イメージセンサ3X,4Xとは配置位置が異なる。モジュール80bでは、イメージセンサ3Pとイメージセンサ4Pとが対向するようにイメージセンサ3P,4Pが配置され、イメージセンサ3Pとイメージセンサ4Pとの間に発光素子2が配置されている。
 モジュール80cでは、発光素子2Aおよびイメージセンサ3Zが小基板26の上面に配置されている。モジュール80cでは、発光素子2Aに対向する位置にイメージセンサ3Zが配置されている。また、図20に示した小基板26とは異なる小基板26の上面に、発光素子2Bおよびイメージセンサ4Zが配置される。
 図21は、図20に示したモジュールを実施の形態3のアブソリュートエンコーダに適用した場合の、アブソリュートエンコーダの構成を示す図である。図21では、上段にアブソリュートエンコーダ1Zが備える制御基板27などの断面図を示し、下段にアブソリュートエンコーダ1Zが備える制御基板27の上面図を示している。
 制御基板27の上面には、モジュール80c,80cが、スケール20の中心を挟んで対向するよう配置されている。一方のモジュール80cは、図20で説明したモジュールであり、発光素子2Aおよびイメージセンサ3Zが実装されている。他方のモジュール80cでは、発光素子2Bに対向する位置にイメージセンサ4Zが実装されている。
 なお、実施の形態2で説明したアブソリュートエンコーダ1Yの発光素子2およびイメージセンサ3Y,4Yが1つのモジュールに実装されてもよい。このようにアブソリュートエンコーダ1X,1Y,1Zでは、少なくとも1つの発光素子と少なくとも1つのイメージセンサとが1つのモジュールに実装されている。
 このように実施の形態4によれば、モジュール80a,80b,80cの何れかが使用されることで実装部品の集約化を実現でき、制御基板27の実装面積への圧迫を抑制することができる。また、モジュールとして部品を実装できるので、生産時の実装速度が向上し、実装時の実装位置誤りを低減することが可能となる。
 ここで、絶対位置演算部6X~6Zのハードウェア構成について説明する。なお、絶対位置演算部6X~6Zは、同様のハードウェア構成を有しているので、ここでは、絶対位置演算部6Xのハードウェア構成について説明する。
 図22は、実施の形態1にかかるアブソリュートエンコーダが備える絶対位置演算部を実現するハードウェア構成例を示す図である。絶対位置演算部6Xは、入力装置300、プロセッサ100、メモリ200、および出力装置400により実現することができる。プロセッサ100の例は、CPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)またはシステムLSI(Large Scale Integration)である。メモリ200の例は、RAM(Random Access Memory)、ROM(Read Only Memory)である。
 絶対位置演算部6Xは、プロセッサ100が、メモリ200で記憶されている絶対位置演算部6Xの動作を実行するための、コンピュータで実行可能な、絶対位置演算プログラムを読み出して実行することにより実現される。絶対位置演算部6Xの動作を実行するためのプログラムである絶対位置演算プログラムは、絶対位置演算部6Xの手順または方法をコンピュータに実行させるものであるともいえる。
 絶対位置演算部6Xで実行される絶対位置演算プログラムは、光量補正部10A,10Bと、エッジ検出部11A,11Bと、デコード部12Aと、粗検出部13Aと、位相検出部14Bと、高精度検出部15Xとを含むモジュール構成となっており、これらが主記憶装置上にロードされ、これらが主記憶装置上に生成される。
 入力装置300は、AD変換器5A,5Bからデジタル信号を受け付けてプロセッサ100に送る。メモリ200は、プロセッサ100が各種処理を実行する際の一時メモリに使用される。また、メモリ200は、閾値レベル105、ルックアップテーブル130などを記憶する。出力装置400は、プロセッサ100が算出した位置データ40Xを出力する。
 絶対位置演算プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータが読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されてもよい。また、絶対位置演算プログラムは、インターネットなどのネットワーク経由で絶対位置演算部6Xに提供されてもよい。なお、絶対位置演算部6Xの機能について、一部を専用回路などの専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。
 以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1X,1Y,1Z アブソリュートエンコーダ、2,2A,2B 発光素子、3P,3X,3Y,3Z,4P,4X,4Y,4Z イメージセンサ、5A,5B AD変換器、6X~6Z 絶対位置演算部、7 回転シャフト、10A,10B 光量補正部、11A,11B エッジ検出部、12A,12B デコード部、13A,13B,13Y 粗検出部、14A,14B 位相検出部、15A,15B,15X 高精度検出部、16 位置データ生成部、20 スケール、21A,21B 受光面、22 半直線、24,25 基準画素位置、30 絶対値符号パターン、31 反射部、32 非反射部、40X,40Y,40Z 位置データ、45 演算部、70~73 光強度分布、80a,80b,80c モジュール、100 プロセッサ、105 閾値レベル、110 エッジ画素位置、130 ルックアップテーブル、150 基準画素位置、160,170 反射地点、200 メモリ、300 入力装置、400 出力装置。

Claims (14)

  1.  絶対値符号パターンが配置された円板状のスケールと、
     前記スケールに光を照射する発光素子と、
     前記スケールの中心から第1の距離だけ離れた第1の位置からの第1の光を受光して前記第1の光に対応する第1のアナログ信号を出力する第1のイメージセンサと、
     前記スケールの中心から第2の距離だけ離れた第2の位置からの第2の光を受光して前記第2の光に対応する第2のアナログ信号を出力する第2のイメージセンサと、
     前記第1のアナログ信号を第1のデジタル信号に変換する第1の信号変換部と、
     前記第2のアナログ信号を第2のデジタル信号に変換する第2の信号変換部と、
     前記第1のデジタル信号および前記第2のデジタル信号に基づいて、前記スケール上での第1の絶対位置を算出する絶対位置演算部と、
     を備えている、
     ことを特徴とするアブソリュートエンコーダ。
  2.  前記絶対位置演算部は、
     前記第1のデジタル信号に基づいて前記スケール上での第2の絶対位置を算出するとともに、前記第2のデジタル信号に基づいて基準となる画素位置である基準画素位置からの位相ずれ量を算出し、前記第2の絶対位置と前記位相ずれ量とを足し合わせることで前記第1の絶対位置を算出する、
     ことを特徴とする請求項1に記載のアブソリュートエンコーダ。
  3.  前記第1のイメージセンサ、前記第2のイメージセンサ、および前記発光素子は、前記スケールの回転軸方向から見た場合に、前記スケールの中心から前記スケールの第1の径方向に延びる半直線上に重なるように配置されている、
     ことを特徴とする請求項1または2に記載のアブソリュートエンコーダ。
  4.  前記第1のイメージセンサ、前記第2のイメージセンサ、および前記発光素子は、前記スケールの回転軸方向から見た場合に、前記半直線上に前記第1のイメージセンサの中心、前記第2のイメージセンサの中心、および前記発光素子の中心が重なるように配置されている、
     ことを特徴とする請求項3に記載のアブソリュートエンコーダ。
  5.  前記第1のイメージセンサおよび前記第2のイメージセンサは、前記スケールの回転軸方向から見た場合に、前記スケールの中心から前記スケールの第1の径方向に延びる半直線上に重なるように配置され、かつ前記第1のイメージセンサの中心および前記第2のイメージセンサの中心が、前記半直線上に重ならないように配置され、
     前記絶対位置演算部は、
     前記第1のデジタル信号および前記第2のデジタル信号に基づいて前記スケール上での第2の絶対位置を算出するとともに、前記第1のデジタル信号に基づいて基準となる画素位置である第1の基準画素位置からの第1の位相ずれ量を算出し、前記第2のデジタル信号に基づいて基準となる画素位置である第2の基準画素位置からの第2の位相ずれ量を算出し、前記第2の絶対位置と前記第1の位相ずれ量とを足し合わせることで第3の絶対位置を算出し、前記第2の絶対位置と前記第2の位相ずれ量とを足し合わせることで第4の絶対位置を算出し、前記第3の絶対位置および前記第4の絶対位置の平均位置を前記第1の絶対位置として算出する、
     ことを特徴とする請求項1に記載のアブソリュートエンコーダ。
  6.  前記発光素子と、前記第1のイメージセンサおよび前記第2のイメージセンサの少なくとも一方とが1つのモジュールに実装されている、
     ことを特徴とする請求項1から5の何れか1つに記載のアブソリュートエンコーダ。
  7.  絶対値符号パターンが配置された円板状のスケールと、
     前記スケールの中心から第1の距離だけ離れた第1の位置に光を照射する第1の発光素子と、
     前記スケールの中心から第2の距離だけ離れた第2の位置に光を照射する第2の発光素子と、
     前記第1の位置からの第1の光を受光して前記第1の光に対応する第1のアナログ信号を出力する第1のイメージセンサと、
     前記第2の位置からの第2の光を受光して前記第2の光に対応する第2のアナログ信号を出力する第2のイメージセンサと、
     前記第1のアナログ信号を第1のデジタル信号に変換する第1の信号変換部と、
     前記第2のアナログ信号を第2のデジタル信号に変換する第2の信号変換部と、
     前記第1のデジタル信号および前記第2のデジタル信号に基づいて前記スケール上での第1の絶対位置を算出する絶対位置演算部と、
     を備え、
     前記絶対位置演算部は、
     前記第1のデジタル信号および前記第2のデジタル信号に基づいて、前記第1のイメージセンサの第1の角度検出機能および前記第2のイメージセンサの第2の角度検出機能が異常であるか否かを判定し、前記第1の角度検出機能および前記第2の角度検出機能が正常であれば、前記第1のデジタル信号に対応する前記スケール上での第2の絶対位置と前記第2のデジタル信号に対応する前記スケール上での第3の絶対位置との平均位置を前記第1の絶対位置として算出する、
     ことを特徴とするアブソリュートエンコーダ。
  8.  前記絶対位置演算部は、
     前記第1の角度検出機能が正常で前記第2の角度検出機能が異常であれば、前記第2の絶対位置を、前記第1の絶対位置として算出し、
     前記第1の角度検出機能が異常で前記第2の角度検出機能が正常であれば、前記第3の絶対位置を、前記第1の絶対位置として算出する、
     ことを特徴とする請求項7に記載のアブソリュートエンコーダ。
  9.  前記絶対位置演算部は、
     前記第1の角度検出機能および前記第2の角度検出機能が異常であれば、前記スケールの回転を停止させる、
     ことを特徴とする請求項7に記載のアブソリュートエンコーダ。
  10.  前記絶対位置演算部は、
     前記第1の絶対位置と前記第2の絶対位置との差分が基準値以上である場合に、前記第1の角度検出機能および前記第2の角度検出機能の少なくとも一方が異常であると判定し、前記スケールの回転を停止させる、
     ことを特徴とする請求項7から9の何れか1つに記載のアブソリュートエンコーダ。
  11.  前記絶対位置演算部は、
     前記第1のデジタル信号の立ち上がりまたは立ち下がりの位置であり前記第1のデジタル信号の有無の境界である第1のエッジ位置を検出し、前記第1のエッジ位置の個数が基準値以下である場合に前記第1の角度検出機能が異常であると判定し、
     前記第2のデジタル信号の立ち上がりまたは立ち下がりであり前記第2のデジタル信号の有無の境界である第2のエッジ位置を検出し、前記第2のエッジ位置の個数が前記基準値以下である場合に前記第2の角度検出機能が異常であると判定する、
     ことを特徴とする請求項7から9の何れか1つに記載のアブソリュートエンコーダ。
  12.  前記絶対位置演算部は、
     前記第1のデジタル信号に対応する第1のビット列を生成するとともに、前記第2のデジタル信号に対応する第2のビット列を生成し、
     前記第1のビット列と、前記絶対値符号パターンのビット列を示すルックアップテーブル内のビット列である第3のビット列の差異ビット数が、閾値以上である場合に前記第1の角度検出機能が異常であると判定し、
     前記第2のビット列と、前記第3のビット列の差異ビット数が、前記閾値以上である場合に前記第2の角度検出機能が異常であると判定する、
     ことを特徴とする請求項7から9の何れか1つに記載のアブソリュートエンコーダ。
  13.  前記第1のイメージセンサおよび前記第2のイメージセンサは、前記スケールの回転軸方向から見た場合に、前記スケールの中心を挟んで対向する位置に配置される、
     ことを特徴とする請求項7から12の何れか1つに記載のアブソリュートエンコーダ。
  14.  前記第1の発光素子および前記第2の発光素子の少なくとも一方と、前記第1のイメージセンサおよび前記第2のイメージセンサの少なくとも一方とが1つのモジュールに実装されている、
     ことを特徴とする請求項7から13の何れか1つに記載のアブソリュートエンコーダ。
PCT/JP2020/032886 2020-08-31 2020-08-31 アブソリュートエンコーダ WO2022044323A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP2020/032886 WO2022044323A1 (ja) 2020-08-31 2020-08-31 アブソリュートエンコーダ
KR1020227030014A KR102507084B1 (ko) 2020-08-31 2020-08-31 앱솔루트 인코더
JP2021504473A JP6865915B1 (ja) 2020-08-31 2020-08-31 アブソリュートエンコーダ
CN202080098024.9A CN115210538B (zh) 2020-08-31 2020-08-31 绝对编码器
TW110126372A TWI800870B (zh) 2020-08-31 2021-07-19 絕對編碼器
TW112100393A TWI830571B (zh) 2020-08-31 2021-07-19 絕對編碼器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/032886 WO2022044323A1 (ja) 2020-08-31 2020-08-31 アブソリュートエンコーダ

Publications (1)

Publication Number Publication Date
WO2022044323A1 true WO2022044323A1 (ja) 2022-03-03

Family

ID=75638858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032886 WO2022044323A1 (ja) 2020-08-31 2020-08-31 アブソリュートエンコーダ

Country Status (5)

Country Link
JP (1) JP6865915B1 (ja)
KR (1) KR102507084B1 (ja)
CN (1) CN115210538B (ja)
TW (2) TWI800870B (ja)
WO (1) WO2022044323A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170788A (ja) * 2004-12-15 2006-06-29 Canon Inc 光学式エンコーダ
JP2011145118A (ja) * 2010-01-13 2011-07-28 Mitsubishi Electric Corp 反射型光学式エンコーダ
JP2015137955A (ja) * 2014-01-23 2015-07-30 三菱電機株式会社 アブソリュートエンコーダ
JP2016014574A (ja) * 2014-07-01 2016-01-28 キヤノン株式会社 アブソリュートエンコーダ
JP2017531783A (ja) * 2015-09-22 2017-10-26 三菱電機株式会社 アブソリュートエンコーダ
JP2019158850A (ja) * 2018-03-16 2019-09-19 富士電機株式会社 反射型エンコーダ

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02145917A (ja) * 1988-07-13 1990-06-05 Furuno Electric Co Ltd ロータリーエンコーダ
DE4208918A1 (de) * 1992-03-20 1993-09-23 Siemens Ag Dreh- oder linearpositionsgebereinrichtung fuer ein bewegliches geraeteteil
DE102008053985A1 (de) * 2008-10-30 2010-05-06 Dr. Johannes Heidenhain Gmbh Absolute Winkelcodierung und Winkelmessvorrichtung
WO2012029927A1 (ja) * 2010-09-02 2012-03-08 株式会社安川電機 エンコーダ、サーボモータ、及びモータユニット
JP5787513B2 (ja) 2010-12-15 2015-09-30 キヤノン株式会社 アブソリュートロータリーエンコーダ
WO2013171901A1 (ja) * 2012-05-18 2013-11-21 三菱電機株式会社 光学式絶対値エンコーダ
JP5877212B2 (ja) * 2014-01-10 2016-03-02 キヤノンプレシジョン株式会社 エンコーダ、エンコーダを用いた装置およびエンコーダ演算プログラム
JP2015200613A (ja) * 2014-04-10 2015-11-12 株式会社安川電機 エンコーダ、エンコーダ付きモータ、サーボシステム
CN103983290B (zh) * 2014-05-06 2016-05-11 上海精浦机电有限公司 复合型绝对值编码器
JP6630739B2 (ja) * 2015-11-12 2020-01-15 オークラ輸送機株式会社 検出装置の異常判定システム、および検出装置の異常判定方法
CN106871938A (zh) * 2015-12-10 2017-06-20 精工爱普生株式会社 位置检测装置
TWI646311B (zh) * 2018-01-02 2019-01-01 大銀微系統股份有限公司 光學編碼感測裝置
JP2019215306A (ja) * 2018-06-14 2019-12-19 多摩川精機株式会社 光学式ロータリーエンコーダ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170788A (ja) * 2004-12-15 2006-06-29 Canon Inc 光学式エンコーダ
JP2011145118A (ja) * 2010-01-13 2011-07-28 Mitsubishi Electric Corp 反射型光学式エンコーダ
JP2015137955A (ja) * 2014-01-23 2015-07-30 三菱電機株式会社 アブソリュートエンコーダ
JP2016014574A (ja) * 2014-07-01 2016-01-28 キヤノン株式会社 アブソリュートエンコーダ
JP2017531783A (ja) * 2015-09-22 2017-10-26 三菱電機株式会社 アブソリュートエンコーダ
JP2019158850A (ja) * 2018-03-16 2019-09-19 富士電機株式会社 反射型エンコーダ

Also Published As

Publication number Publication date
KR102507084B1 (ko) 2023-03-07
TWI800870B (zh) 2023-05-01
TWI830571B (zh) 2024-01-21
JPWO2022044323A1 (ja) 2022-03-03
TW202318811A (zh) 2023-05-01
KR20220123761A (ko) 2022-09-08
JP6865915B1 (ja) 2021-04-28
CN115210538A (zh) 2022-10-18
TW202210793A (zh) 2022-03-16
CN115210538B (zh) 2023-04-25

Similar Documents

Publication Publication Date Title
CN108027259B (zh) 绝对式编码器
US8698071B2 (en) Rotary encoder having multiple slit arrays, which detects rotation angle
US20140277730A1 (en) Position detection apparatus, lens apparatus, image pickup system, and machine tool apparatus
US8896821B2 (en) Encoder
EP2466267B1 (en) Absolute rotary encoder
US7565256B2 (en) Displacement detecting encoder
US10209104B2 (en) Absolute encoder, processing method, program, driving apparatus, and industrial machine
US20100006748A1 (en) Encoder and photodetector for encoder
WO2022044323A1 (ja) アブソリュートエンコーダ
JP6149740B2 (ja) アブソリュートエンコーダ
WO2018163424A1 (ja) アブソリュートエンコーダ
US20130163654A1 (en) Encoder
JP6413102B2 (ja) 光学式エンコーダ
JP2021018126A (ja) エンコーダ、サーボモータ、サーボシステム
JP7203584B2 (ja) アブソリュートロータリエンコーダ
JP6182729B2 (ja) 光学式エンコーダ
JP3326658B2 (ja) アブソリュートエンコーダ
JP5974154B2 (ja) ロータリーエンコーダ
WO2015151230A1 (ja) エンコーダ、エンコーダ制御装置及びエンコーダの異常検出方法
CN111076760B (zh) 一种绝对式码盘粗码校正的方法
US9423276B2 (en) Measurement apparatus, measurement method, and absolute encoder
JPH11271026A (ja) 光学スケールを用いた寸法測定装置
JP2007078357A (ja) 光学式絶対値エンコーダ

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021504473

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20951572

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227030014

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20951572

Country of ref document: EP

Kind code of ref document: A1