WO2018163424A1 - アブソリュートエンコーダ - Google Patents

アブソリュートエンコーダ Download PDF

Info

Publication number
WO2018163424A1
WO2018163424A1 PCT/JP2017/009807 JP2017009807W WO2018163424A1 WO 2018163424 A1 WO2018163424 A1 WO 2018163424A1 JP 2017009807 W JP2017009807 W JP 2017009807W WO 2018163424 A1 WO2018163424 A1 WO 2018163424A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
region
absolute encoder
signal
scale
Prior art date
Application number
PCT/JP2017/009807
Other languages
English (en)
French (fr)
Inventor
琢也 野口
勇治 久保
岡室 貴士
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2017/009807 priority Critical patent/WO2018163424A1/ja
Priority to JP2018507742A priority patent/JPWO2018163424A1/ja
Publication of WO2018163424A1 publication Critical patent/WO2018163424A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales

Definitions

  • the present invention relates to an absolute encoder that measures the position of a measurement object.
  • the rotary encoder measures the rotation angle of the measurement object by detecting the rotation angle of the scale rotated together with the measurement object.
  • the optical rotary encoder detects reflected light or transmitted light from an optical pattern provided on the scale by a sensor, and obtains a rotation angle of the scale by arithmetic processing based on a signal from the sensor.
  • a first area and a second area that can be detected with a light intensity different from that of the first area by the sensor are arranged.
  • the incremental encoder includes an incremental pattern that is an optical pattern in which a first area and a second area are arranged at a constant pitch.
  • the incremental encoder calculates the rotation angle of the scale by accumulating the number of pulse signals from the sensor.
  • the absolute encoder acquires rotation angle data, which is the absolute position of the scale, from the light intensity pattern detected by the sensor.
  • a bit string that is encoded data is replaced with an arrangement of a first area and a second area.
  • the first area and the second area are irregularly arranged.
  • Patent Document 1 discloses a rotary encoder including a main slit plate which is an incremental encoder and an index slit plate opposed to the main slit plate.
  • the main slit plate and the index slit plate are provided with slits that transmit light at regular intervals.
  • the rotary encoder can measure with high accuracy and high resolution by using the Talbot effect by the diffraction action at the slit.
  • Patent Document 2 discloses that light source feedback control is performed using a light source adjustment signal obtained by acquiring signals including phase differences from each other and adding the acquired signals. Signals including a phase difference from each other are obtained by detecting light from the incremental pattern.
  • the rotary encoder can measure with high accuracy and high resolution by high-precision feedback control of the light source.
  • JP 2002-257593 A Japanese Unexamined Patent Publication No. 2016-61600
  • the first region and the second region are arranged at an irregular pitch.
  • the intensity of light detected by the sensor changes depending on the portion where the light is incident. It becomes.
  • the technique of Patent Document 2 is applied to an absolute encoder that does not have an incremental pattern, the level of the light source adjustment signal obtained by using the light from the absolute pattern varies depending on the portion where the light is incident. In this case, the adjustment of the light source becomes unstable, and measurement with high accuracy and high resolution becomes difficult.
  • the present invention has been made in view of the above, and an object thereof is to obtain an absolute encoder that can measure the position of a measurement object with high accuracy and high resolution.
  • the absolute encoder of the present invention includes a scale provided with an optical pattern, a movable scale, a light emitter that emits light traveling to the optical pattern, and an optical pattern.
  • a sensor that detects the light and outputs a signal indicating the intensity of the detected light, and a calculation unit that obtains the position of the scale based on the signal from the sensor.
  • the data encoded from the unique data assigned for each possible position of the scale can be detected by the first area and the sensor with a light intensity different from that of the first area. It has been replaced with an array with 2 regions.
  • the width of the light emitter is smaller than both the width of the portion where the first regions are continuously arranged and the width of the portion where the second regions are continuously arranged.
  • the absolute encoder according to the present invention has an effect that the position of the measurement object can be measured with high accuracy and high resolution.
  • FIG. 1 Block diagram of the angle calculation unit shown in FIG.
  • FIG. 1 a first schematic diagram showing how light from a light emitter reaches an image sensor through an optical pattern.
  • a second schematic diagram showing how light from the light emitter reaches the image sensor via an optical pattern.
  • the figure explaining the data replaced with the optical pattern shown in FIG. The figure which shows the example of the hardware constitutions of the absolute encoder which performs the function of the control part shown in FIG.
  • FIG. The flowchart which shows the procedure of the light quantity adjustment of the light source control part in Embodiment 2.
  • FIG. 1 is a diagram showing a schematic configuration of an absolute encoder 1 according to the first embodiment of the present invention.
  • the absolute encoder 1 includes a scale 2 on which an optical pattern 10 is provided, and a light emitting element 3 including a light emitter that emits light traveling to the optical pattern 10.
  • the absolute encoder 1 also includes an image sensor 4 that is a sensor that detects light from the optical pattern 10 and outputs a signal representing a pattern of the detected light intensity.
  • the absolute encoder 1 is a rotary encoder including a scale 2 that can be rotated.
  • the scale 2 is a circular flat plate.
  • the scale 2 and the shaft 6 of the motor that is the object to be measured are connected to each other with the position of the axis AX of the shaft 6 aligned with the center point O of the scale 2.
  • the scale 2 rotates with the rotation of the shaft 6.
  • FIG. 1 the illustration of the motor body that rotates the shaft 6 is omitted.
  • the optical pattern 10 is formed on the surface of the scale 2.
  • the optical pattern 10 is an arrangement of a first region 11 and a second region 12 that can be detected by the image sensor 4 with a light intensity different from that of the first region 11.
  • the first region 11 and the second region 12 are arranged in a row, surrounding the region inside the outer edge of the scale 2 in an annular shape.
  • the first region 11 reflects light from the light emitting element 3.
  • the reflectance of the second region 12 is lower than the reflectance of the first region 11.
  • the second region 12 has a lower reflectance than the first region 11 by absorbing or scattering light from the light emitting element 3.
  • the portion of the scale 2 where the optical pattern 10 is formed is disposed at a position facing the light emitting element 3 and the image sensor 4.
  • the scale 2 is a flat plate made of a metal material.
  • a metallic material is aluminum.
  • the metal material may be a reflective metal material other than aluminum, or a reflective material other than a metal material.
  • the optical pattern 10 is formed by pattern processing on a light absorbing film formed on the surface of the scale 2.
  • One example of the light absorption film is an oxide film formed by oxidizing the surface of a metal material.
  • a region where the light absorption film is left in the pattern processing becomes the second region 12.
  • a region between the regions where the light absorption film is left and the metal material is exposed is a first region 11.
  • a member that scatters light may be provided instead of the light absorption film.
  • the light emitting element 3 as a light source is disposed on the scale 2.
  • One example of the light emitting element 3 is a point light source LED (Light Emitting Diode).
  • the light emitting element 3 includes an LED chip that is a light emitter that emits light. The light emitted from the light emitting element 3 is incident on the optical pattern 10 at an angle. LEDs are more resistant to heat and have a longer life than LDs (Laser Diodes). Since the absolute encoder 1 uses an LED as a light source, the absolute encoder 1 can perform stable measurement in a high-temperature environment and extend the life of the light source as compared with the case where an LD is used.
  • the image sensor 4 is arranged in front of the traveling direction of the light reflected from the light emitting element 3 by the optical pattern 10.
  • the image sensor 4 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor.
  • the image sensor 4 includes a plurality of photodiodes that are photoelectric conversion elements. The plurality of photodiodes are arranged in a one-dimensional direction. The photodiode generates a signal charge when it receives light.
  • the image sensor 4 converts an analog signal from each photodiode into a digital signal in an analog-digital converter.
  • the image sensor 4 outputs a digital signal representing a light intensity pattern detected by each photodiode. In FIG. 1, illustration of the photoelectric conversion element and the analog-digital converter is omitted.
  • no lens system for collimating, converging, or diverging light is provided between the light emitting element 3 and the optical pattern 10 and between the optical pattern 10 and the image sensor 4.
  • a lens system for collimating, converging, or diverging light may be provided between the light emitting element 3 and the optical pattern 10 or between the optical pattern 10 and the image sensor 4.
  • the absolute encoder 1 includes a control unit 5 that is a functional unit that controls the entire absolute encoder 1.
  • FIG. 1 shows a functional configuration of the control unit 5.
  • the control unit 5 includes an angle calculation unit 13 that is a functional unit for obtaining the rotation angle of the scale 2 based on the detection result of the light intensity by the image sensor 4.
  • An angle calculation unit 13 that is a calculation unit obtains a rotation angle that is a position of the scale 2 based on a signal from the image sensor 4.
  • the absolute encoder 1 outputs absolute position data indicating the rotation angle obtained by the angle calculation unit 13.
  • the control unit 5 includes a light source control unit 14 that is a functional unit that controls driving of the light emitting element 3, a storage unit 15 that is a functional unit that holds a look-up table (LUT) 16, and an image sensor. 4 is provided with a sensor control unit 17 that is a functional unit that controls driving of the motor 4.
  • the function of the light source control unit 14 includes a function of a light amount adjustment unit that adjusts the light amount of the light emitting element 3.
  • the LUT 16 holds absolute position data indicating the rotation angle of the scale 2 and a bit string that is encoded data in association with each other.
  • One example of the absolute position data is a numerical value representing the rotation angle by the arc degree method or the frequency method.
  • the absolute position data may be unique data assigned for each rotation angle of the scale 2, and may be an address assigned every unit angle.
  • the absolute encoder 1 shown in FIG. 1 detects the light reflected by the optical pattern 10 and obtains the rotation angle of the scale 2.
  • the absolute encoder 1 may include a configuration for detecting the light transmitted through the optical pattern 10 instead of the configuration for detecting the light reflected by the optical pattern 10.
  • the portion of the scale 2 where the optical pattern 10 is formed is disposed in the optical path between the light emitting element 3 and the image sensor 4.
  • the scale 2 is a glass plate or a resin plate.
  • the material of the scale 2 may be another material that transmits light.
  • the optical pattern 10 is formed by patterning a metal film deposited on the scale 2.
  • a metal film material is chromium.
  • the region from which the metal film has been removed becomes the first region 11.
  • a region between the first regions 11 where the metal film is left becomes a second region 12.
  • the material of the metal film may be a light absorbing material other than chromium.
  • the scale 2 may be a plate member having the first region 11 as an opening.
  • the absolute encoder 1 unique absolute position data is assigned to each rotation angle that is the absolute position of the scale 2.
  • the encoded absolute position data is replaced with an arrangement of a first area 11 and a second area 12.
  • the absolute encoder 1 extracts the encoded absolute position data from the pattern of the first area 11 and the second area 12 included in the image detected by the image sensor 4.
  • the first region 11 and the second region 12 are arranged at an irregular pitch.
  • the absolute encoder 1 obtains absolute position data indicating the rotation angle of the scale 2 when light is detected by the image sensor 4 by decoding data extracted from the pattern of the first area 11 and the second area 12. .
  • the encoded data represented by the arrangement of the first region 11 and the second region 12 is further converted to data obtained by encoding from absolute position data to pseudo-random code.
  • Data obtained by encoding the Manchester code is an M-sequence code.
  • the bit string that is the data obtained by encoding the Manchester code the bit “1” is replaced with the first area 11.
  • bit “0” is replaced with the second area 12.
  • the first region 11 is detected as a bright portion having a higher light intensity than the second region 12.
  • the second region 12 is detected as a dark part having a light intensity lower than that of the first region 11. Since the reflectance of the second region 12 is lower than the reflectance of the first region 11, the second region 12 is detected by the image sensor 4 with a light intensity different from that of the first region 11.
  • Each photodiode which is a pixel of the image sensor 4 detects the light intensity of the image projected on the image sensor 4 by sharing the unit area.
  • an axis parallel to the direction in which the pixels are arranged in the image sensor 4 is referred to as an X axis. Due to the rotation of the scale 2, the image of the optical pattern 10 projected onto the image sensor 4 is moved in the X-axis direction by the image sensor 4.
  • FIG. 2 is a block diagram of the angle calculation unit 13 shown in FIG.
  • the angle calculation unit 13 includes an intensity distribution correction unit 31 that is a functional unit that corrects the intensity distribution of the signal 36, and an edge detection unit 32 that is a functional unit that detects an edge that is a signal level switching between high and low. Is provided.
  • the angle calculation unit 13 includes a rough data calculation unit 33 that is a functional unit that calculates rough data of absolute position data based on the detected edge.
  • the rough data calculation unit 33 reads the rotation angle data 38 from the LUT 16 shown in FIG.
  • the angle calculation unit 13 is a functional unit that calculates a phase shift amount of a light intensity distribution pattern detected by the image sensor 4 and a functional unit that calculates absolute position information.
  • a position calculation unit 35 is a functional unit that calculates a phase shift amount of a light intensity distribution pattern detected by the image sensor 4 and a functional unit that calculates absolute position information.
  • FIG. 3 is a diagram showing an example of the intensity distribution of the signal 36 input to the angle calculation unit 13 shown in FIG.
  • the signal 36 represents the intensity of light detected in each pixel of the image sensor 4.
  • the vertical axis shown in FIG. 3 represents the intensity I of the signal 36.
  • the horizontal axis represents the position of the image sensor 4 in the X-axis direction.
  • X value a value representing a position in the X-axis direction
  • a plurality of peaks appear in the distribution of the intensity I of the signal 36.
  • Each peak represents the intensity of light from the first region 11. Further, the bottom between the peaks represents the intensity of light from the second region 12.
  • the peak level and the bottom level of the signal 36 vary due to the influence of various factors. Such factors can include the influence of the intensity distribution of the light emitted from the light emitting element 3 and the influence of the sensitivity variation for each pixel of the image sensor 4.
  • FIG. 4 is a diagram showing an example of the intensity distribution of the signal 37 corrected by the intensity distribution correcting unit 31 shown in FIG.
  • the intensity distribution correction unit 31 makes the levels of the peaks of the signal 36 uniform and makes the levels of the bottoms uniform by correcting the signal 36 shown in FIG.
  • the peak level of the corrected signal 37 is constant, and the bottom level is also constant.
  • the intensity distribution correction unit 31 obtains a signal 37 in which the intensity I changes between the peak H level and the bottom L level.
  • the intensity distribution correction unit 31 outputs a signal 37 to the edge detection unit 32 and the light source control unit 14 shown in FIG.
  • the correction method in the intensity distribution correction unit 31 may be arbitrary as long as the level of the signal 36 can be corrected.
  • the edge detection unit 32 obtains an X value when the intensity I is a preset threshold level 39.
  • the edge detection unit 32 detects an edge that is a boundary between a bright part and a dark part with reference to the threshold level 39.
  • the X value corresponding to the threshold level 39 represents the position of the edge on the image sensor 4.
  • FIG. 5 is a diagram for explaining edge detection for a portion in the frame VII in FIG.
  • the edge detection unit 32 is an X value that represents the position of two pixels corresponding to I (i ⁇ 1) and I (i), which are an intensity I lower than the threshold level 39 and an intensity I higher than the threshold level 39.
  • (I-1) and X (i) are detected.
  • the pixel X (i ⁇ 1) and the pixel X (i) are two pixels adjacent to each other in the X-axis direction. It is sufficient that one of I (i ⁇ 1) and I (i) is lower than the threshold level 39 and the other is higher than the threshold level 39.
  • I (i ⁇ 1) and I (i ) Is not relevant.
  • the edge detection unit 32 obtains an edge position 42 that is an X value corresponding to the threshold level 39 by subpixel processing using two X values, X (i ⁇ 1) and X (i).
  • One example of subpixel processing is a two-point linear interpolation that is X (i ⁇ 1) and X (i).
  • the edge detection unit 32 may obtain the edge position 42 by three or more points of linear interpolation or a method other than linear interpolation.
  • the edge detection unit 32 obtains the edge position 42 of each edge in the signal 37.
  • the coarse data calculation unit 33 compares I (i ⁇ 1) and I (i) detected by the edge detection unit 32 to determine whether the edge is a rising edge or a falling edge.
  • the rising edge is an edge where the intensity I increases from the L level to the H level as the X value increases.
  • the falling edge is an edge where the intensity I decreases from the H level to the L level as the X value increases.
  • I (i) is larger than I (i ⁇ 1) and I (i ⁇ 1) ⁇ I (i) holds
  • the coarse data calculation unit 33 determines that the edge is a rising edge.
  • I (i) is smaller than I (i ⁇ 1) and I (i ⁇ 1)> I (i) holds, the coarse data calculation unit 33 determines that the edge is a falling edge.
  • the coarse data calculation unit 33 converts the signal 37 into a bit string based on the edge discrimination result.
  • FIG. 6 is a diagram for explaining the conversion from the signal 37 to the bit string 41 shown in FIG.
  • the coarse data calculation unit 33 replaces the rising edge in the signal 37 with a bit “1” and the falling edge with a bit “0”.
  • the coarse data calculation unit 33 calculates the interval between the edges to determine how many times each interval corresponds to a preset basic period 44.
  • the coarse data calculation unit 33 replaces the portion where the rising edge and the falling edge are adjacent to each other at the same interval as the basic period 44 with a bit string of “1” and “0”. In addition, the coarse data calculation unit 33 replaces a portion where the rising edge and the falling edge are adjacent to each other at an interval corresponding to twice the basic period 44 with a bit string of “1”, “1”, “0”. . The coarse data calculation unit 33 replaces a portion where the falling edge and the rising edge are adjacent to each other at an interval corresponding to twice the basic period 44 with a bit string of “0”, “0”, “1”. Thereby, the rough data calculation unit 33 converts the optical pattern 10 projected on the image sensor 4 into the bit string 41.
  • the rough data calculation unit 33 reads the rotation angle data 38 corresponding to the obtained bit string 41 from the LUT 16 with reference to the LUT 16. Thereby, the rough data calculation unit 33 calculates the rough data that is the rotation angle data before correction by the absolute position calculation unit 35.
  • the coarse data calculation unit 33 may perform error correction of the bit string 41 using redundant bits added to the bit string 41.
  • the absolute encoder 1 may obtain redundant bits associated with the bit string 41 by expanding the field of view of the image sensor 4 from the field of view for obtaining an image of the portion corresponding to the bit string 41 in the optical pattern 10.
  • FIG. 7 is a diagram for explaining the calculation of the phase shift amount 43 in the phase shift calculation unit 34 shown in FIG.
  • the coarse data obtained by the coarse data calculation unit 33 indicates a rotation angle based on a pixel at the center Xc in the X-axis direction among the plurality of pixels.
  • the phase shift calculation unit 34 searches for one edge position 42 closest to the center Xc from the edges detected by the edge detection unit 32, and a phase shift amount 43 between the edge position 42 and the center Xc. Is calculated.
  • the phase shift calculation unit 34 may calculate the phase shift amount 43 based on one edge position 42 or may calculate the phase shift amount 43 based on two or more edge positions 42.
  • the phase shift calculation unit 34 may obtain the edge detection result from the rough data calculation unit 33 in addition to obtaining the edge detection result from the edge detection unit 32.
  • the coarse data calculation unit 33 outputs the result of edge detection obtained from the edge detection unit 32 to the phase shift calculation unit 34.
  • the calculation of the phase shift amount 43 in the phase shift calculation unit 34 may be performed simultaneously with the calculation of the rough data in the rough data calculation unit 33 or after the calculation of the rough data.
  • the absolute position calculation unit 35 adds the phase shift amount 43 calculated by the phase shift calculation unit 34 to the rough data calculated by the rough data calculation unit 33 to calculate a rotation angle indicating the absolute position of the scale 2. .
  • the absolute position calculation unit 35 outputs absolute position data 40 indicating the calculated rotation angle.
  • the amount of light emitted from the light emitting element 3 may change due to a change in environmental conditions at the measurement location.
  • a change in environmental conditions is an increase in temperature.
  • the intensity of light incident on the image sensor 4 from the optical pattern 10 is reduced, so that the overall amplitude of the signal 36 shown in FIG. 3 is reduced.
  • the amplitude of the signal 37 shown in FIG. 4 is also reduced, which may reduce the accuracy and resolution of the rotation angle calculation in the angle calculation unit 13.
  • the light source control unit 14 adjusts the light amount of the light emitting element 3 based on the detection result of the light intensity in the image sensor 4 so that the light amount of the light emitting element 3 becomes constant regardless of the change in environment.
  • FIG. 8 is a diagram for explaining light amount adjustment by the light source control unit 14 shown in FIG.
  • the left side of FIG. 8 shows an example of the intensity distribution of the signal 37 at the standard temperature.
  • the right side of FIG. 8 shows an example of the intensity distribution of the signal 51 from the intensity distribution correcting unit 31 when the temperature rises above the standard temperature.
  • the amplitude of the signal 51 is reduced as compared with the amplitude of the signal 37.
  • the light source control unit 14 of Embodiment 1 calculates the ratio between the maximum value 52 of the intensity I of the signal 37 and the maximum value 53 of the intensity I of the signal 51, and uses the ratio to drive the drive current value of the light-emitting element 3. Adjust.
  • FIG. 9 is a flowchart showing the procedure of light amount adjustment of the light source control unit 14 in the first embodiment.
  • the light source control unit 14 acquires the signal 51 that has been corrected by the intensity distribution correction unit 31 from the intensity distribution correction unit 31.
  • step S ⁇ b> 1 the light source control unit 14 detects the maximum value 53 of the intensity I in the acquired signal 51.
  • step S2 the light source control unit 14 calculates a ratio between the maximum value 53 detected in step S1 and the maximum value 52 of the intensity I in the signal 37 at the standard time.
  • step S3 the light source control unit 14 adjusts the drive current value of the light emitting element 3 based on the ratio calculated in step S2.
  • the light source control unit 14 adjusts the drive current value so that the light amount of the light emitting element 3 becomes the same light amount as the standard time by multiplying the drive current value by the ratio.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution even if the environmental conditions of the measurement place change by adjusting the light amount of the light source control unit 14.
  • the light source control unit 14 may acquire a signal before correction by the intensity distribution correction unit 31 and adjust the light amount based on the maximum value of the intensity I in the signal.
  • the light source control unit 14 can adjust the drive current value so that the light amount of the light emitting element 3 decreases, contrary to the case where the temperature increases.
  • the light source control unit 14 may adjust the light amount of the light emitting element 3 even when there is an environmental condition other than the temperature at the measurement location or a change in conditions other than the environmental condition.
  • conditions other than environmental conditions is the positional relationship between the scale 2 and the image sensor 4.
  • the positional relationship between the scale 2 and the image sensor 4 can be changed by the vibration of the scale 2 or the image sensor 4.
  • the intensity of light detected by the image sensor 4 may decrease.
  • the light source control unit 14 performs adjustment to increase the light amount of the light emitting element 3, so that the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution.
  • the light emitter is an LED chip of the light emitting element 3.
  • the LED chip includes an opening provided on the light emitting side.
  • the width of the light emitter is the width of the opening.
  • the opening is formed by patterning a metal material provided on a semiconductor material.
  • a light transmissive material may be provided in the opening.
  • a light transmissive material is a transparent electrode material. Even when a light-transmitting material is provided in the opening, the width of the opening is the width of the light emitter. In FIGS. 10 and 11 described below, the opening is not shown.
  • FIG. 10 is a first schematic diagram showing how the light from the light emitter 20 reaches the image sensor 4 via the optical pattern 10 in the absolute encoder 1 shown in FIG.
  • the light beam that is folded back by the reflection in the first region 11 is replaced with a light beam that passes through the first region 11.
  • FIG. 11 described below will be described on the assumption that the first region 11 transmits light from the light emitter 20. Note that the description of FIGS. 10 and 11 is also applicable to the case where light is reflected in the first region 11 by including the return of light in the first region 11.
  • the straight line indicating the image sensor 4 represents the position of the light receiving surface of the image sensor 4.
  • a curve shown on the straight line indicates the intensity distribution of the light detected by the image sensor 4.
  • the point light source means that the light emitter 20 having a size that can be regarded as a point compared to the distance 23 between the light emitter 20 and the optical pattern 10 is provided.
  • the plurality of pixels of the image sensor 4 are arranged in the X-axis direction.
  • the chief ray 25 is perpendicular to the X axis.
  • the direction of the arrow in the X-axis direction is the plus X direction
  • the direction opposite to the arrow is the minus X direction.
  • the width of the first region 11, the width of the second region 12, and the width of the light emitter 20 all indicate the width in the X-axis direction.
  • the width of one first region 11 and the width of one second region 12 are unit widths of the optical pattern 10.
  • the unit width of the optical pattern 10 is a width that is a unit of arrangement of the first region 11 and the second region 12.
  • FIG. 10 shows a portion of the optical pattern 10 in which the first regions 11 and the second regions 12 each having a unit width are alternately arranged.
  • the two first regions 11a and 11b are the first regions 11 adjacent to each other with the one second region 12 interposed therebetween.
  • the light beam 21 is emitted from the end of the light emitter 20 in the minus X direction and is incident on the end of the first region 11a in the plus X direction.
  • the light beam 22 is emitted from the end of the plus X direction in the light emitter 20 and is incident on the end of the first region 11b in the minus X direction.
  • the light beam 21 and the light beam 22 are parallel to each other. Since the light beam 21 and the light beam 22 do not cross each other, the image sensor 4 can detect the light from the first region 11a and the light from the first region 11b separately from each other. Thus, the image sensor 4 can detect the first region 11 and the second region 12 with high resolution by using the light emitter 20 having the same width 26 as the unit width of the optical pattern 10.
  • FIG. 11 is a second schematic diagram showing how the light from the light emitter 20 reaches the image sensor 4 via the optical pattern 10 in the absolute encoder 1 shown in FIG.
  • FIG. 11 shows a portion of the optical pattern 10 that includes two first regions 11 arranged in succession.
  • the width 26 of the light emitter 20 corresponds to twice the unit width of the optical pattern 10.
  • the region 11c is a region in which two first regions 11 having a unit width are continuously arranged.
  • the width of the region 11 c is the same as the width 26 of the light emitter 20.
  • the first region 11d is the first region 11 adjacent to the region 11c with one second region 12 interposed therebetween.
  • the light beam 27 is a light beam emitted from the end of the light emitter 20 in the minus X direction and incident on the end of the region 11c in the plus X direction.
  • the light beam 28 is a light beam emitted from the end in the plus X direction of the light emitter 20 and incident on the end in the minus X direction of the first region 11d.
  • the light rays 27 and 28 are not parallel to each other but intersect each other on the light receiving surface of the image sensor 4.
  • the image sensor 4 can detect the light in the region 11c and the light in the first region 11d separately from each other. As a result, the image sensor 4 can detect the first region 11 and the second region 12 with high resolution using the light emitter 20 having a width 26 corresponding to twice the bit width.
  • the width 26 of the light emitter 20 is larger than the width of the region 11c from the state shown in FIG.
  • the light beam 27 and the light beam 28 intersect each other before the light receiving surface of the image sensor 4.
  • the image sensor 4 detects the light from the region 11c and the light from the first region 11d without being separated from each other. In this case, it is difficult for the image sensor 4 to detect the first region 11 and the second region 12 with high resolution.
  • the width 26 of the light emitter 20 is set to be equal to or less than the maximum width of the portion of the optical pattern 10 where the first regions 11 are continuously arranged. Further, the width 26 of the light emitter 20 is set to be equal to or less than the maximum width of the portion of the optical pattern 10 where the second regions 12 are continuously arranged.
  • the image sensor 4 can separate and detect the light from each first region 11 and the light from each portion where the first regions 11 are continuously arranged.
  • the pattern 10 can be detected with high resolution.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution.
  • FIG. 12 is a diagram for explaining data replaced with the optical pattern 10 shown in FIG.
  • the bit string 55 is a bit string obtained by encoding absolute position data into a pseudo-random code.
  • the bit string 56 is a bit string obtained by encoding the bit string 55, which is a pseudo-random code, into a Manchester code.
  • the number of bits of the pseudo random code also increases.
  • the frequency of the part where the bit “0” continues and the part where the bit “1” continues in the bit string 55 increases.
  • the width of the portion in which the plurality of first regions 11 representing the bit “1” are continuously arranged and the one first region 11 are arranged independently. It is possible that the width of the portion that is present may differ greatly. In this case, a difference in the intensity of light detected by the image sensor 4 may occur between the plurality of first region 11 portions and the one first region 11 portion due to light diffraction. Since the intensity of light detected by the image sensor 4 varies depending on the rotation angle of the scale 2, the accuracy and resolution of the rotation angle calculation in the angle calculation unit 13 may be reduced.
  • the signal of bit “0” in the data before encoding is replaced with a signal that transitions from L level to H level.
  • the signal of bit “1” in the data before encoding is replaced with a signal that transitions from the H level to the L level.
  • the bit “0” of the bit string 55 that is a pseudo random code is replaced with the bit “01” in the bit string 56 that is a Manchester code.
  • the bit “1” of the bit string 55 that is a pseudo random code is replaced with the bit “10” in the bit string 56 that is a Manchester code.
  • the portion where three bits “1” are continuous in the bit string 55 is eliminated by replacing all the bits in the bit string 56 with the bit “10”.
  • encoding to Manchester code eliminates three or more consecutive bits “0” and three or more consecutive bits “1”.
  • a portion in which bit “0” and bit “1” in bit string 55 are continuous is replaced with bit “0110” in bit string 56, thereby generating a portion in which two bits “1” are consecutive in bit string 56.
  • the part in which bit “1” and bit “0” in bit string 55 are continuous is replaced with bit “1001” in bit string 56, thereby generating a part in which two bits “0” are consecutive in bit string 56.
  • the maximum number of consecutive bits “0” and the maximum number of consecutive bits “1” can both be two.
  • the first region 11 and the second region 12 of the optical pattern 10 are arranged according to the bit string 56.
  • the maximum width of the portion where the first region 11 is continuously arranged in the optical pattern 10 and the maximum width of the portion where the second region 12 is continuously arranged are the unit width of the optical pattern 10. Twice as much. Since the maximum width is suppressed to twice the unit width, the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution.
  • the advantages of the absolute encoder 1 in comparison with the incremental encoder will be described.
  • the rotation angle of the scale 2 is obtained by integrating the number of detected pulse signals.
  • an origin return operation is performed for each measurement. Returning to the origin refers to returning the rotation angle of the scale 2 to the origin. Since the absolute encoder 1 can detect the absolute position, the operation of returning to the origin is unnecessary. For this reason, the absolute encoder 1 has an advantage that the time until the measurement is started can be shortened.
  • control unit 5 may be executed on a CPU (Central Processing Unit) or a microcomputer. All or some of the functions of the control unit 5 may be executed on a program that is analyzed and executed by a CPU or a microcomputer. Alternatively, all or some of the functions of the control unit 5 may be executed on hardware by wired logic.
  • CPU Central Processing Unit
  • microcomputer All or some of the functions of the control unit 5 may be executed on a program that is analyzed and executed by a CPU or a microcomputer. Alternatively, all or some of the functions of the control unit 5 may be executed on hardware by wired logic.
  • FIG. 13 is a diagram showing an example of a hardware configuration of the absolute encoder 1 that executes the function of the control unit 5 shown in FIG.
  • the absolute encoder 1 includes a communication unit 81 that is a communication interface, a CPU 82 that executes various processes, and an input / output unit 83 that is an input / output interface between the light emitting element 3 and the image sensor 4 illustrated in FIG. 1. Further, the absolute encoder 1 includes a RAM (Random Access Memory) 84 including a program storage area and a data storage area, and a ROM (Read Only Memory) 85 which is a nonvolatile memory.
  • the bus 86 connects the communication unit 81, the CPU 82, the input / output unit 83, the RAM 84, and the ROM 85.
  • the communication unit 81 transmits the rotation angle data, which is the calculation result of the angle calculation unit 13, to the outside.
  • the ROM 85 stores programs for various processes. In addition to the ROM 85, the program may be recorded on a recording medium that can be read by a drive.
  • the recording medium may be any of a portable recording medium such as a CD-ROM, a DVD disk or a USB memory, and a flash memory that is a semiconductor memory. In FIG. 13, the drive and the recording medium are not shown.
  • the program is loaded into the RAM 84.
  • the CPU 82 expands the program in the program storage area in the RAM 84 and executes various processes.
  • the data storage area in the RAM 84 is a work area for executing various processes.
  • the functions of the angle calculation unit 13, the light source control unit 14, and the sensor control unit 17 are realized using the CPU 82.
  • the LUT 16 illustrated in FIG. 1 is stored in the RAM 84.
  • the function of the storage unit 15 is realized using the RAM 84.
  • the absolute encoder 1 includes either the width of the portion where the first region 11 is continuously arranged or the width of the portion where the second region 12 is continuously arranged.
  • the first region 11 and the second region 12 can be detected with high resolution.
  • the data encoded into the bit string of the Manchester code is replaced with the first area 11 and the second area 12, so that the maximum width of the portion where the first area 11 is continuously arranged is The maximum width of the portion where the second regions 12 are continuously arranged is suppressed to twice the unit width of the optical pattern 10.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution by adjusting the light amount of the light emitting element 3 by the light source control unit 14 which is a light amount adjusting unit. As described above, the absolute encoder 1 has an effect of being able to measure the rotation angle of the measurement object with high accuracy and high resolution.
  • FIG. FIG. 14 is a diagram for explaining light amount adjustment by the light source control unit 14 of the absolute encoder 1 according to the second embodiment.
  • the light source control unit 14 which is a light amount adjusting unit performs light amount adjustment using average values 63 and 64 instead of the maximum values 52 and 53 shown in FIG.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
  • the left side of FIG. 14 shows an example of the intensity distribution of the signal 37 at the standard temperature.
  • the right side of FIG. 14 shows an example of the intensity distribution of the signal 61 from the intensity distribution correcting unit 31 when the temperature rises above the standard temperature.
  • the amplitude of the signal 61 is reduced as compared with the amplitude of the signal 37. Further, a noise 62 having a level higher than the H level of the signal 61 is generated in the signal 61.
  • the light source control unit 14 calculates the ratio between the average value 63 of the intensity I of the signal 37 and the average value 64 of the intensity I of the signal 61, and uses the ratio to drive the drive current value of the light-emitting element 3. Adjust.
  • the first region 11 and the second region 12 of the optical pattern 10 are arranged according to a bit string 56 which is a Manchester code shown in FIG.
  • the number of the first regions 11 corresponding to the bit “1” and the number of the second regions 12 corresponding to the bit “0” are the same or one. It becomes a difference in degree.
  • the average value 63 calculated from the standard time signal 37 can be regarded as constant regardless of the rotation angle. Therefore, the light source control unit 14 can perform adjustment to make the light amount of the light emitting element 3 constant based on the ratio between the average value 63 and the average value 64.
  • FIG. 15 is a flowchart showing a procedure of light amount adjustment of the light source control unit 14 in the second embodiment.
  • the light source control unit 14 acquires the signal 61 that has been corrected by the intensity distribution correction unit 31 from the intensity distribution correction unit 31.
  • the light source control unit 14 detects the average value 64 of the intensity I in the acquired signal 61.
  • step S12 the light source control unit 14 calculates a ratio between the average value 64 detected in step S11 and the average value 63 of the intensity I in the standard time signal 37.
  • step S13 the light source control unit 14 adjusts the drive current value of the light emitting element 3 based on the ratio calculated in step S12.
  • the light source control unit 14 adjusts the drive current value so that the light amount of the light emitting element 3 becomes the same light amount as the standard time by multiplying the drive current value by the ratio.
  • the light source control unit 14 can reduce the influence of the noise 62 in the light amount adjustment by adjusting the light amount using the average values 63 and 64.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution even if the environmental conditions of the measurement place change by adjusting the light amount of the light source control unit 14.
  • the light source control unit 14 may adjust the amount of light based on the average value of the intensity I in the signal 36 before correction by the intensity distribution correction unit 31 as in the first embodiment. Further, the light source control unit 14 may adjust the light amount of the light emitting element 3 even when there is an environmental condition other than the temperature at the measurement location or a change in conditions other than the environmental condition.
  • the absolute encoder 1 adjusts the light amount of the light emitting element 3 using the average values 63 and 64 by the light source control unit 14 which is a light amount adjusting unit.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution.
  • the absolute encoder 1 has an effect of being able to measure the rotation angle of the measurement object with high accuracy and high resolution.
  • FIG. FIG. 16 is a diagram for explaining light amount adjustment by the light source control unit 14 of the absolute encoder 1 according to the third embodiment.
  • the light source control unit 14 that is a light amount adjusting unit replaces the average values 63 and 64 shown in FIG. 14 with an average value of the maximum values 74A, 74B, and 74C and an average of the maximum values 75A, 75B, and 75C.
  • the light intensity is adjusted using the value.
  • the same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
  • FIG. 16 shows an example of the intensity distribution of the signal 37 at the standard temperature on the left side.
  • the right side of FIG. 16 shows an example of the intensity distribution of the signal 71 from the intensity distribution correcting unit 31 when the temperature rises above the standard temperature.
  • the amplitude of the signal 71 is reduced as compared with the amplitude of the signal 37.
  • the signal 71 has a portion 73 where a peak is missing.
  • One example of the cause of such a missing peak is that light is blocked by a foreign substance that has entered the optical path between the optical pattern 10 and the image sensor 4.
  • the light source control unit 14 divides the image sensor 4 into three regions 72A, 72B, and 72C in the X-axis direction, and sets the maximum values 75A, 75B, and 75C of the signal 71 in the regions 72A, 72B, and 72C. calculate. Further, the light source control unit 14 calculates the maximum values 74A, 74B, and 74C of the signal 37 in each of the regions 72A, 72B, and 72C. The light source control unit 14 calculates a ratio between the average value of the maximum values 74A, 74B, and 74C of the signal 37 and the average value of the maximum values 75A, 75B, and 75C of the signal 71, and uses the ratio to calculate the ratio of the light emitting element 3. Adjust the drive current value.
  • FIG. 17 is a flowchart showing a procedure of light amount adjustment of the light source control unit 14 in the third embodiment.
  • the light source control unit 14 acquires the signal 71 that has been corrected by the intensity distribution correction unit 31 from the intensity distribution correction unit 31.
  • the light source control unit 14 detects the maximum values 75A, 75B, and 75C of the intensity I for each of the regions 72A, 72B, and 72C from the acquired signal 71.
  • the light source control unit 14 calculates an average value of the maximum values 75A, 75B, and 75C detected in step S21.
  • step S23 the light source control unit 14 calculates a ratio between the average value calculated in step S22 and the average value of the maximum values 74A, 74B, and 74C in the standard time signal 37.
  • step S24 the light source control unit 14 adjusts the drive current value of the light emitting element 3 based on the ratio calculated in step S23. The light source control unit 14 adjusts the drive current value so that the light amount of the light emitting element 3 becomes the same light amount as the standard time by multiplying the drive current value by the ratio.
  • the light source control unit 14 adjusts the light amount by using the average value of the maximum values 74A, 74B, and 74C and the average value of the maximum values 75A, 75B, and 75C for each of the regions 72A, 72B, and 72C. Compared with the case where the average value of the overall intensity I is used, the influence of the missing portion 73 in the light amount adjustment can be reduced.
  • the light source control unit 14 is not limited to one that detects the maximum values 75A, 75B, and 75C by dividing the image sensor 4 into three regions 72A, 72B, and 72C.
  • the number of regions may be two, or four or more.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution even if the environmental conditions of the measurement place change by adjusting the light amount of the light source control unit 14.
  • the light source control unit 14 may adjust the amount of light based on the average value of the intensity I in the signal before correction by the intensity distribution correction unit 31 as in the first and second embodiments. Further, the light source control unit 14 may adjust the light amount of the light emitting element 3 even when there is an environmental condition other than the temperature at the measurement location or a change in conditions other than the environmental condition.
  • the absolute encoder 1 has an average value of the maximum values 74A, 74B, and 74C and the maximum values 75A, 75B, and 75C for each of the regions 72A, 72B, and 72C by the light source control unit 14 that is a light amount adjustment unit.
  • the light quantity of the light emitting element 3 is adjusted using the average value.
  • the absolute encoder 1 can obtain the rotation angle of the scale 2 with high accuracy and high resolution. As described above, the absolute encoder 1 has an effect of being able to measure the rotation angle of the measurement object with high accuracy and high resolution.
  • the absolute encoder 1 may be a linear encoder instead of the rotary encoder.
  • An absolute encoder 1 that is a linear encoder measures the position of a measurement object that operates in a linear direction.
  • the absolute encoder 1 is assigned unique absolute position data for each absolute position of the scale 2 in the linear direction.
  • the absolute encoder 1 obtains the position of the scale 2 in the linear direction by decoding the detection result of the optical pattern 10 in the image sensor 4.
  • the absolute encoder 1 which is a linear encoder can measure the position of the measurement object with high accuracy and high resolution.
  • the configuration described in the above embodiment shows an example of the contents of the present invention, and can be combined with another known technique, and can be combined with other configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Transform (AREA)

Abstract

アブソリュートエンコーダ(1)は、光学パターン(10)が設けられ、可動とされたたスケール(2)と、光学パターンへ進行させる光を射出する発光体と、光学パターンからの光を検出して、検出された光の強度を表す信号を出力するセンサ(4)と、センサからの信号を基に、スケールの位置を求める演算部(13)とを備える。光学パターンでは、スケールがとり得る位置ごとに割り当てられた固有のデータから符号化されたデータが、第1の領域(11)と、センサにて第1の領域とは異なる光強度で検出可能とされた第2の領域(12)との配列に置き換えられている。発光体の幅は、第1の領域が連続して配列されている部分の幅と、第2の領域が連続して配列されている部分の幅とのいずれよりも小さい。

Description

アブソリュートエンコーダ
 本発明は、測定対象物の位置を測定するアブソリュートエンコーダに関する。
 ロータリーエンコーダは、測定対象物とともに回転させたスケールの回転角度を検出することにより、測定対象物の回転角度を測定する。光学式ロータリーエンコーダは、スケールに設けられた光学パターンからの反射光あるいは透過光をセンサにて検出して、センサからの信号に基づく演算処理によりスケールの回転角度を求める。光学パターンには、第1の領域と、センサにて第1の領域とは異なる光強度で検出可能とされた第2の領域とが配列されている。
 ロータリーエンコーダの種類には、インクリメンタルエンコーダとアブソリュートエンコーダとが知られている。インクリメンタルエンコーダは、第1の領域と第2の領域とが一定のピッチで配列された光学パターンであるインクリメンタルパターンを備える。インクリメンタルエンコーダは、センサからのパルス信号の数を積算してスケールの回転角度を求める。アブソリュートエンコーダは、センサで検出された光の強度のパターンから、スケールの絶対位置である回転角度のデータを取得する。アブソリュートエンコーダのスケールに備えられた光学パターンであるアブソリュートパターンでは、符号化されたデータであるビット列が、第1の領域と第2の領域との配列に置き換えられている。アブソリュートパターンでは、第1の領域と第2の領域とが不規則に配列されている。
 特許文献1には、インクリメンタルエンコーダであるメインスリット板と、メインスリット板に対向させたインデックススリット板とを備えるロータリーエンコーダが開示されている。メインスリット板とインデックススリット板とには、光を透過させるスリットが一定の間隔で設けられている。ロータリーエンコーダは、スリットでの回折作用によるタルボット効果を利用することで、高精度かつ高い分解能での測定が可能となる。
 また、特許文献2には、互いに位相差を含む信号を取得して、取得された信号を加算して得られた光源調整信号を用いて光源のフィードバック制御を行うことが開示されている。互いに位相差を含む信号は、インクリメンタルパターンからの光を検出することにより取得される。ロータリーエンコーダは、光源の高精度なフィードバック制御により、高精度かつ高い分解能での測定が可能となる。
特開2002-257593号公報 特開2016-61600号公報
 上述するように、アブソリュートパターンでは、第1の領域と第2の領域とが不規則なピッチで配列される。特許文献1の技術では一定の間隔のスリットを備えることがタルボット効果の条件となることから、アブソリュートエンコーダに特許文献1の技術を適用しても、高精度および高い分解能での測定は困難である。また、アブソリュートパターンでは、第1の領域と第2の領域とが不規則なピッチで配列されていることから、光が入射している部分によって、センサで検出される光の強度が変化することとなる。インクリメンタルパターンを持たないアブソリュートエンコーダに特許文献2の技術を適用した場合、アブソリュートパターンからの光を利用して得られる光源調整信号のレベルは、光が入射している部分によって変化することとなる。この場合、光源の調整が不安定となることで、高精度および高い分解能での測定が困難となる。
 本発明は、上記に鑑みてなされたものであって、高精度かつ高い分解能で測定対象物の位置を測定可能とするアブソリュートエンコーダを得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明のアブソリュートエンコーダは、光学パターンが設けられ、可動とされたスケールと、光学パターンへ進行させる光を射出する発光体と、光学パターンからの光を検出して、検出された光の強度を表す信号を出力するセンサと、センサからの信号を基に、スケールの位置を求める演算部とを備える。光学パターンでは、スケールがとり得る位置ごとに割り当てられた固有のデータから符号化されたデータが、第1の領域と、センサにて第1の領域とは異なる光強度で検出可能とされた第2の領域との配列に置き換えられている。発光体の幅は、第1の領域が連続して配列されている部分の幅と、第2の領域が連続して配列されている部分の幅とのいずれよりも小さい。
 本発明にかかるアブソリュートエンコーダは、高精度かつ高い分解能で測定対象物の位置を測定できるという効果を奏する。
本発明の実施の形態1にかかるアブソリュートエンコーダの概略構成を示す図 図1に示す角度演算部のブロック図 図2に示す角度演算部へ入力される信号の強度分布の例を示す図 図2に示す強度分布補正部で補正された信号の強度分布の例を示す図 図4の枠VII内の部分についてのエッジ検出について説明する図 図4に示す信号からビット列への変換について説明する図 図2に示す位相ずれ算出部における位相ずれ量の算出について説明する図 図1に示す光源制御部による光量調整について説明する図 実施の形態1における光源制御部の光量調整の手順を示すフローチャート 図1に示すアブソリュートエンコーダにおいて、発光体からの光が光学パターンを経てイメージセンサへ到達するまでの様子を示した第1の模式図 図1に示すアブソリュートエンコーダにおいて、発光体からの光が光学パターンを経てイメージセンサへ到達するまでの様子を示した第2の模式図 図1に示す光学パターンへ置き換えられるデータについて説明する図 図1に示す制御部の機能を実行するアブソリュートエンコーダのハードウェア構成の例を示す図 実施の形態2にかかるアブソリュートエンコーダの光源制御部による光量調整について説明する図 実施の形態2における光源制御部の光量調整の手順を示すフローチャート 実施の形態3にかかるアブソリュートエンコーダの光源制御部による光量調整について説明する図 実施の形態3における光源制御部の光量調整の手順を示すフローチャート
 以下に、本発明の実施の形態にかかるアブソリュートエンコーダを図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1にかかるアブソリュートエンコーダ1の概略構成を示す図である。アブソリュートエンコーダ1は、光学パターン10が設けられたスケール2と、光学パターン10へ進行させる光を射出する発光体を含む発光素子3とを備える。また、アブソリュートエンコーダ1は、光学パターン10からの光を検出し、検出された光の強度のパターンを表す信号を出力するセンサであるイメージセンサ4を備える。
 アブソリュートエンコーダ1は、回転可能とされたスケール2を含むロータリーエンコーダである。スケール2は、円形の平板である。スケール2と、測定対象物であるモータのシャフト6とは、シャフト6の軸心AXの位置をスケール2の中心点Oに一致させて、互いに連結されている。スケール2は、シャフト6の回転とともに回転する。図1では、シャフト6を回転させるモータ本体の図示を省略している。
 光学パターン10は、スケール2の表面に形成されている。光学パターン10は、第1の領域11と、イメージセンサ4にて第1の領域11とは異なる光強度で検出可能とされた第2の領域12との配列である。第1の領域11と第2の領域12とは、スケール2のうち外縁より内側の領域を環状に囲んで、一列に配列されている。第1の領域11は、発光素子3からの光を反射する。第2の領域12の反射率は、第1の領域11の反射率より低い。第2の領域12は、発光素子3からの光を吸収あるいは散乱させることで、第1の領域11より低い反射率とされている。
 光学パターン10を反射した光を検出する構成の場合、スケール2のうち光学パターン10が形成されている部分は、発光素子3およびイメージセンサ4に対向する位置に配置される。1つの例では、スケール2には、金属材料の平板が使用される。金属材料の1つの例は、アルミニウムである。金属材料は、アルミニウム以外の反射性の金属材料、あるいは金属材料以外の反射性材料でも良い。光学パターン10は、スケール2の表面に形成された光吸収膜へのパターン加工により形成される。光吸収膜の1つの例は、金属材料の表面を酸化させることにより形成された酸化膜である。スケール2の表面のうち、パターン加工において光吸収膜を残存させた領域が第2の領域12となる。光吸収膜を残存させた領域同士の間の領域であって金属材料を露出させた領域が、第1の領域11となる。第2の領域12には、光吸収膜に代えて、光を散乱させる部材が設けられても良い。
 光源である発光素子3は、スケール2の上に配置されている。発光素子3の1つの例は、点光源LED(Light Emitting Diode)である。発光素子3は、光を射出する発光体であるLEDチップを備える。発光素子3から射出された光は、光学パターン10に斜めに入射する。LEDは、LD(Laser Diode)に比較して、熱に強くかつ寿命が長い。アブソリュートエンコーダ1は、光源にLEDが用いられることで、LDが用いられる場合に比較して、高温環境での安定した測定ができ、かつ光源の寿命を長くすることができる。
 イメージセンサ4は、発光素子3から光学パターン10で反射した光の進行方向前方に配置されている。イメージセンサ4は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサあるいはCCD(Charge Coupled Device)イメージセンサである。イメージセンサ4は、光電変換素子である複数のフォトダイオードを備える。複数のフォトダイオードは、一次元方向へ配列されている。フォトダイオードは、光を受けたことにより信号電荷を生成する。イメージセンサ4は、各フォトダイオードからのアナログ信号を、アナログデジタル変換器においてデジタル信号へ変換する。イメージセンサ4は、各フォトダイオードで検出された光の強度のパターンを表すデジタル信号を出力する。なお、図1では、光電変換素子とアナログデジタル変換器との図示を省略している。
 実施の形態1では、発光素子3と光学パターン10との間、および光学パターン10とイメージセンサ4との間には、光を平行化、収束あるいは発散させるレンズ系は設けられていない。発光素子3と光学パターン10との間、あるいは光学パターン10とイメージセンサ4との間には、光を平行化、収束あるいは発散させるレンズ系が設けられても良い。
 アブソリュートエンコーダ1は、アブソリュートエンコーダ1の全体を制御する機能部である制御部5を備える。図1には、制御部5の機能構成を示している。制御部5は、イメージセンサ4での光強度の検知結果を基に、スケール2の回転角度を求める機能部である角度演算部13を備える。演算部である角度演算部13は、イメージセンサ4からの信号を基に、スケール2の位置である回転角度を求める。アブソリュートエンコーダ1は、角度演算部13で求められた回転角度を示す絶対位置データを出力する。また、制御部5は、発光素子3の駆動を制御する機能部である光源制御部14と、ルックアップテーブル(Look Up Table,LUT)16を保持する機能部である記憶部15と、イメージセンサ4の駆動を制御する機能部であるセンサ制御部17とを備える。光源制御部14の機能は、発光素子3の光量を調整する光量調整部の機能を含む。
 LUT16は、スケール2の回転角度を示す絶対位置データと、符号化されたデータであるビット列とを対応付けて保持する。絶対位置データの1つの例は、弧度法あるいは度数法により回転角度を表した数値である。絶対位置データは、スケール2の回転角度ごとに割り当てられた固有のデータであれば良く、単位角度おきに割り当てられたアドレスであっても良い。
 図1に示すアブソリュートエンコーダ1は、光学パターン10で反射した光を検出して、スケール2の回転角度を求める。アブソリュートエンコーダ1は、光学パターン10で反射した光を検出する構成に代えて、光学パターン10を透過した光を検出する構成を備えていても良い。
 光学パターン10を透過した光を検出する構成の場合、スケール2のうち光学パターン10が形成されている部分は、発光素子3とイメージセンサ4との間の光路中に配置される。スケール2は、ガラス板あるいは樹脂板である。スケール2の材料は、光を透過させる他の材料でも良い。光学パターン10は、スケール2上に蒸着された金属膜のパターン加工により形成される。金属膜の材料の1つの例は、クロムである。金属膜が除去された領域が、第1の領域11となる。第1の領域11の間の、金属膜が残された領域が、第2の領域12となる。金属膜の材料は、クロム以外の光吸収性の材料でも良い。スケール2は、第1の領域11を開口とした板部材であっても良い。
 アブソリュートエンコーダ1では、スケール2の絶対位置である回転角度ごとに、固有の絶対位置データが割り当てられている。アブソリュートパターンである光学パターン10では、符号化された絶対位置データが第1の領域11と第2の領域12との配列に置き換えられている。アブソリュートエンコーダ1は、符号化された絶対位置データを、イメージセンサ4で検出される像に含まれる第1の領域11と第2の領域12とのパターンから抽出する。光学パターン10において、第1の領域11と第2の領域12とは、不規則なピッチで配列されている。アブソリュートエンコーダ1は、第1の領域11と第2の領域12とのパターンから抽出されたデータのデコードにより、イメージセンサ4での光の検出時におけるスケール2の回転角度を示す絶対位置データを求める。
 実施の形態1において、第1の領域11と第2の領域12との配列で表される符号化されたデータは、絶対位置データから擬似ランダム符号への符号化により得られたデータに、さらにマンチェスター符号への符号化を施すことにより得られたデータである。擬似ランダム符号の1つの例は、M系列符号である。マンチェスター符号への符号化により得られたデータであるビット列のうち、ビット「1」は、第1の領域11へ置き換えられている。ビット列のうち、ビット「0」は、第2の領域12へ置き換えられている。
 イメージセンサ4では、第1の領域11は、第2の領域12に比べて光強度が高い明部となって検出される。第2の領域12は、第1の領域11に比べて光強度が低い暗部となって検出される。第2の領域12の反射率が第1の領域11の反射率より低いことで、第2の領域12は、イメージセンサ4にて第1の領域11とは異なる光強度で検出される。イメージセンサ4の画素である各フォトダイオードは、イメージセンサ4に投影される像の光強度を、単位領域ごとに分担して検出する。以下の説明にて、イメージセンサ4において画素が配列されている方向に平行な軸をX軸と称する。スケール2の回転により、イメージセンサ4に投影される光学パターン10の像は、イメージセンサ4にてX軸方向へ移動する。
 次に、角度演算部13の構成について説明する。図2は、図1に示す角度演算部13のブロック図である。角度演算部13には、イメージセンサ4からの信号36が入力される。角度演算部13は、信号36の強度分布を補正する機能部である強度分布補正部31と、信号レベルの高と低との切り換わりであるエッジを検出する機能部であるエッジ検出部32とを備える。また、角度演算部13は、検出されたエッジを基に絶対位置データの粗データを算出する機能部である粗データ算出部33を備える。粗データ算出部33は、図1に示すLUT16から回転角度のデータ38を読み出す。さらに、角度演算部13は、イメージセンサ4で検出される光の強度分布のパターンの位相ずれ量を算出する機能部である位相ずれ算出部34と、絶対位置情報を算出する機能部である絶対位置算出部35とを備える。
 図3は、図2に示す角度演算部13へ入力される信号36の強度分布の例を示す図である。信号36は、イメージセンサ4の画素ごとにおいて検出された光の強度を表す。図3に示す縦軸は、信号36の強度Iを表す。横軸は、イメージセンサ4におけるX軸方向の位置を表す。以下の説明では、X軸方向における位置を表す値を「X値」と称することがある。
 信号36の強度Iの分布には、複数のピークが現れる。各ピークは、第1の領域11からの光の強度を表している。また、ピーク同士の間のボトムは、第2の領域12からの光の強度を表している。信号36のピークのレベルとボトムのレベルとには、さまざまな要因の影響によりばらつきが生じている。かかる要因には、発光素子3から射出された光の強度分布の影響と、イメージセンサ4の画素ごとの感度のばらつきの影響とが含まれ得る。
 図4は、図2に示す強度分布補正部31で補正された信号37の強度分布の例を示す図である。強度分布補正部31は、図3に示す信号36の補正により、信号36のピーク同士のレベルを均一にするとともに、ボトム同士のレベルを均一にする。補正後の信号37のピークのレベルは一定とされ、ボトムのレベルも一定とされている。これにより、強度分布補正部31は、ピークであるHレベルとボトムであるLレベルとに強度Iが変化する信号37を得る。強度分布補正部31は、エッジ検出部32と、図1に示す光源制御部14とへ信号37を出力する。強度分布補正部31における補正の手法は、信号36のレベルを補正可能であれば良く、任意であるものとする。
 エッジ検出部32は、強度Iがあらかじめ設定された閾値レベル39であるときのX値を求める。エッジ検出部32は、閾値レベル39を基準にして、明部と暗部との境界であるエッジを検出する。閾値レベル39に対応するX値は、イメージセンサ4上におけるエッジの位置を表している。
 図5は、図4の枠VII内の部分についてのエッジ検出について説明する図である。エッジ検出部32は、閾値レベル39より低い強度Iと閾値レベル39より高い強度IとであるI(i-1)およびI(i)に対応する2つの画素の位置を表すX値であるX(i-1)およびX(i)を検出する。X(i-1)の画素とX(i)の画素とは、X軸方向において互いに隣り合う2つの画素とする。I(i-1)とI(i)との一方が閾値レベル39より低く、かつ他方が閾値レベル39より高ければ良く、エッジ検出部32での検出においてI(i-1)とI(i)との大小は無関係とする。
 エッジ検出部32は、2つのX値であるX(i-1)とX(i)とを用いたサブピクセル処理により、閾値レベル39に対応するX値であるエッジ位置42を求める。サブピクセル処理の1つの例は、X(i-1)およびX(i)である2点の線形補間である。エッジ検出部32は、3点以上の線形補間、あるいは線形補間以外の手法によりエッジ位置42を求めても良い。エッジ検出部32は、信号37における各エッジのエッジ位置42を求める。
 粗データ算出部33は、エッジ検出部32で検出されたI(i-1)およびI(i)を比較して、エッジが立ち上がりエッジと立ち下がりエッジとのいずれであるかを判別する。立ち上がりエッジは、X値の増加により強度IがLレベルからHレベルへ上がるエッジとする。立ち下がりエッジは、X値の増加により強度IがHレベルからLレベルへ下がるエッジとする。I(i)がI(i-1)より大きく、I(i-1)<I(i)が成り立つ場合、粗データ算出部33は、エッジが立ち上がりエッジであると判別する。I(i)がI(i-1)より小さく、I(i-1)>I(i)が成り立つ場合、粗データ算出部33は、エッジが立ち下がりエッジであると判別する。
 次に、粗データ算出部33は、エッジの判別結果を基に、信号37からビット列への変換を行う。図6は、図4に示す信号37からビット列41への変換について説明する図である。粗データ算出部33は、信号37における立ち上がりエッジをビット「1」へ、立ち下がりエッジをビット「0」へ置き換える。また、粗データ算出部33は、エッジ同士の間隔を計算して、各間隔があらかじめ設定された基本周期44の何倍に相当するかを求める。
 粗データ算出部33は、基本周期44と同じ間隔で立ち上がりエッジと立ち下がりエッジとが隣り合っている部分を、「1」、「0」のビット列に置き換える。また、粗データ算出部33は、立ち上がりエッジと立ち下がりエッジとが基本周期44の2倍に相当する間隔で隣り合っている部分を、「1」、「1」、「0」のビット列に置き換える。粗データ算出部33は、立ち下がりエッジと立ち上がりエッジとが基本周期44の2倍に相当する間隔で隣り合っている部分を、「0」、「0」、「1」のビット列に置き換える。これにより、粗データ算出部33は、イメージセンサ4に投影された光学パターン10からビット列41への変換を行う。
 粗データ算出部33は、LUT16を参照して、得られたビット列41に対応する回転角度のデータ38をLUT16から読み出す。これにより、粗データ算出部33は、絶対位置算出部35での補正前の回転角度のデータである粗データを算出する。粗データ算出部33は、ビット列41に付加された冗長ビットを用いて、ビット列41の誤り訂正を行っても良い。アブソリュートエンコーダ1は、光学パターン10のうちビット列41に対応する部分の像を得るための視野よりイメージセンサ4の視野を広げることにより、ビット列41に付随する冗長ビットを得ることとしても良い。
 図7は、図2に示す位相ずれ算出部34における位相ずれ量43の算出について説明する図である。粗データ算出部33で得られた粗データは、複数の画素のうち、X軸方向における中心Xcにある画素を基準とする回転角度を示している。位相ずれ算出部34は、エッジ検出部32で検出されたエッジの中から、中心Xcに最も近い1つのエッジ位置42を検索して、かかるエッジ位置42と中心Xcとの間の位相ずれ量43を算出する。位相ずれ算出部34は、1つのエッジ位置42を基に位相ずれ量43を算出するほか、2つ以上のエッジ位置42を基に位相ずれ量43を算出しても良い。なお、位相ずれ算出部34は、エッジ検出の結果をエッジ検出部32から得る以外に、粗データ算出部33から得ても良い。この場合、粗データ算出部33は、エッジ検出部32から得たエッジ検出の結果を位相ずれ算出部34へ出力する。位相ずれ算出部34における位相ずれ量43の算出は、粗データ算出部33における粗データの算出と同時であっても良く、粗データの算出の後であっても良い。
 絶対位置算出部35は、粗データ算出部33で算出された粗データに位相ずれ算出部34で算出された位相ずれ量43を足し合せることにより、スケール2の絶対位置を示す回転角度を算出する。絶対位置算出部35は、算出された回転角度を示す絶対位置データ40を出力する。
 次に、光源制御部14による光量調整の動作について説明する。測定場所の環境条件の変化により、発光素子3から射出される光量が変化することがある。環境条件の変化の1つの例は、温度の上昇である。測定場所の温度が上昇することで、発光素子3の光量が減少することがある。この場合、光学パターン10からイメージセンサ4へ入射する光の強度が減少することで、図3に示す信号36の全体の振幅が縮小する。信号36の振幅の縮小により、図4に示す信号37の振幅も縮小することで、角度演算部13における回転角度の演算の精度と分解能とが低下することがあり得る。光源制御部14は、環境の変化に関わらず発光素子3の光量が一定となるように、イメージセンサ4での光の強度の検出結果を基に、発光素子3の光量を調整する。
 図8は、図1に示す光源制御部14による光量調整について説明する図である。図8の左側には、標準の温度であるときの信号37の強度分布の例を示している。図8の右側には、温度が標準の温度より上昇した場合における強度分布補正部31からの信号51の強度分布の例を示している。信号51の振幅は、信号37の振幅に比べて縮小している。実施の形態1の光源制御部14は、信号37の強度Iの最大値52と、信号51の強度Iの最大値53との比率を算出して、比率を用いて発光素子3の駆動電流値を調整する。
 図9は、実施の形態1における光源制御部14の光量調整の手順を示すフローチャートである。光源制御部14は、強度分布補正部31での補正を経た信号51を、強度分布補正部31から取得する。ステップS1において、光源制御部14は、取得された信号51における強度Iの最大値53を検出する。
 ステップS2において、光源制御部14は、ステップS1で検出された最大値53と、標準時の信号37における強度Iの最大値52との比率を算出する。ステップS3において、光源制御部14は、ステップS2において算出された比率を基に、発光素子3の駆動電流値を調整する。光源制御部14は、駆動電流値に比率を乗算することで、発光素子3の光量が標準時と同じ光量となるように駆動電流値を調整する。
 アブソリュートエンコーダ1は、光源制御部14の光量調整により、測定場所の環境条件が変化しても高精度かつ高い分解能でスケール2の回転角度を求めることができる。なお、光源制御部14は、強度分布補正部31での補正前の信号を取得して、かかる信号における強度Iの最大値を基に光量を調整しても良い。また、光源制御部14は、測定場所の温度が低下した場合には、温度が上昇した場合とは逆に、発光素子3の光量が減少するように駆動電流値を調整し得る。
 光源制御部14は、測定場所の温度以外の環境条件、あるいは環境条件以外の条件の変化があった場合にも、発光素子3の光量を調整しても良い。環境条件以外の条件の1つの例は、スケール2とイメージセンサ4との位置関係である。スケール2とイメージセンサ4との位置関係は、スケール2あるいはイメージセンサ4が振動を受けることにより変化し得る。スケール2とイメージセンサ4との間の距離の変化により、スケール2とイメージセンサ4との位置関係が変化した場合、イメージセンサ4で検出される光の強度が減少することがある。この場合、発光素子3の光量を増加させる調整を光源制御部14が行うことで、アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。
 次に、発光体の幅と、第1の領域11および第2の領域12の幅の設定について説明する。実施の形態1において、発光体は、発光素子3のLEDチップである。LEDチップは、光が射出する側に設けられた開口部を備える。実施の形態1において、発光体の幅は、開口部の幅とする。1つの例では、開口部は、半導体材料の上に設けられた金属材料をパターニングすることで形成される。なお、開口部には、光透過性材料が設けられていても良い。光透過性材料の1つの例は、透明電極材料である。開口部に光透過性材料が設けられている場合も、開口部の幅が発光体の幅となるものとする。なお、以下に述べる図10および図11では、開口部の図示を省略している。
 図10は、図1に示すアブソリュートエンコーダ1において、発光体20からの光が光学パターン10を経てイメージセンサ4へ到達するまでの様子を示した第1の模式図である。なお、図10では、第1の領域11での反射により折り返される光線を、第1の領域11を透過する光線に置き換えて示している。図10と、以下に述べる図11とについては、第1の領域11が発光体20からの光を透過させるものとして説明する。なお、図10および図11についての説明は、第1の領域11における光の折り返しを含めることにより、第1の領域11で光を反射させる場合にも適用可能であるものとする。
 また、図10および図11において、イメージセンサ4を示す直線は、イメージセンサ4の受光面の位置を表している。かかる直線の上に示した曲線は、イメージセンサ4で検出された光の強度分布を示している。
 図10に示す距離23は、発光体20から射出された光の主光線25の方向における発光体20と光学パターン10との間の距離とする。距離24は、主光線25の方向における光学パターン10とイメージセンサ4の受光面との間の距離とする。距離23と距離24とは、同じである。なお、実施の形態1において、点光源とは、発光体20と光学パターン10との間の距離23に比べて点とみなし得るサイズの発光体20を備えることを指すものとする。
 イメージセンサ4の複数の画素は、X軸方向へ配列されている。主光線25は、X軸に垂直である。ここでは、X軸方向のうち矢印の方向をプラスX方向、矢印と逆の方向をマイナスX方向とする。第1の領域11の幅、第2の領域12の幅および発光体20の幅とは、いずれもX軸方向の幅を指すものとする。1つの第1の領域11の幅と、1つの第2の領域12の幅とは、光学パターン10の単位幅である。光学パターン10の単位幅は、第1の領域11と第2の領域12との配列の単位となる幅である。
 図10に示す例では、発光体20の幅26は、光学パターン10の単位幅と同じであるものとする。また、図10には、光学パターン10のうち、いずれも単位幅の第1の領域11と第2の領域12とが交互に配列されている部分を示している。2つの第1の領域11a,11bは、1つの第2の領域12を挟んで互いに隣り合う第1の領域11である。光線21は、発光体20のうちマイナスX方向の端から射出され、第1の領域11aのうちプラスX方向の端へ入射した光線である。光線22は、発光体20のうちプラスX方向の端から射出され、第1の領域11bのうちマイナスX方向の端へ入射した光線である。
 光線21と光線22とは、互いに平行となる。光線21と光線22とは互いに交わらないため、イメージセンサ4は、第1の領域11aからの光と第1の領域11bからの光とを互いに分離して検出することができる。これにより、イメージセンサ4は、光学パターン10の単位幅と同じ幅26の発光体20を用いることで、第1の領域11および第2の領域12を高い分解能で検出することが可能である。
 図11は、図1に示すアブソリュートエンコーダ1において、発光体20からの光が光学パターン10を経てイメージセンサ4へ到達するまでの様子を示した第2の模式図である。図11には、光学パターン10のうち、連続して配列された2つの第1の領域11を含む部分を示している。図11に示す例では、発光体20の幅26は、光学パターン10の単位幅の2倍に相当する。
 領域11cは、単位幅の2つの第1の領域11が連続して配列されている領域である。領域11cの幅は、発光体20の幅26と同じである。第1の領域11dは、1つの第2の領域12を間に挟んで領域11cと隣り合う第1の領域11である。
 光線27は、発光体20のうちマイナスX方向の端から射出され、領域11cのうちプラスX方向の端へ入射した光線である。光線28は、発光体20のうちプラスX方向の端から射出され、第1の領域11dのうちマイナスX方向の端へ入射した光線である。光線27と光線28とは、互いに平行ではなく、イメージセンサ4の受光面において互いに交わる。イメージセンサ4は、領域11cの光と第1の領域11dの光とを互いに分離して検出することができる。これにより、イメージセンサ4は、ビット幅の2倍に相当する幅26の発光体20を用いて、第1の領域11および第2の領域12を高い分解能で検出することが可能である。
 仮に、図11に示す状態より発光体20の幅26が領域11cの幅より拡大されたとする。この場合、光線27と光線28とは、イメージセンサ4の受光面の手前において互いに交わる。この場合、イメージセンサ4では、領域11cからの光と第1の領域11dからの光とが互いに分離されずに検出されることとなる。この場合、イメージセンサ4は、第1の領域11および第2の領域12を高い分解能で検出することが困難となる。
 実施の形態1では、発光体20の幅26が、光学パターン10のうち第1の領域11が連続して配列されている部分の最大幅以下とされている。また、発光体20の幅26が、光学パターン10のうち第2の領域12が連続して配列されている部分の最大幅以下とされている。これにより、イメージセンサ4は、各第1の領域11からの光と、第1の領域11が連続して配置されている各部分からの光とを分離して検出することができるため、光学パターン10を高い分解能で検出することができる。アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。
 次に、光学パターン10に置き換えられるデータの符号化について説明する。図12は、図1に示す光学パターン10へ置き換えられるデータについて説明する図である。ビット列55は、絶対位置データから擬似ランダム符号への符号化により得られたビット列とする。ビット列56は、擬似ランダム符号であるビット列55からマンチェスター符号への符号化により得られたビット列とする。
 アブソリュートエンコーダ1による測定の精度と分解能とを向上可能とするために、絶対位置データが割り当てられる位置の数を増加させた場合、擬似ランダム符号のビット数も増加することとなる。ビット列55のビット数が増加するほど、ビット列55の中においてビット「0」が連続する部分とビット「1」が連続する部分との頻度が増加することとなる。1つの例において、スケール2の回転角度により、ビット「1」を表す複数の第1の領域11が連続して配置されている部分の幅と、1つの第1の領域11が単独で配置されている部分の幅とが大きく異なることがあり得る。この場合、光の回折作用により、複数の第1の領域11の部分と1つの第1の領域11の部分とでは、イメージセンサ4で検出される光の強度に差が生じることがある。イメージセンサ4で検出される光の強度がスケール2の回転角度によってばらつくこととなるため、角度演算部13における回転角度の演算の精度と分解能とが低下することがあり得る。
 マンチェスター符号への符号化により、符号化前のデータにおけるビット「0」の信号は、LレベルからHレベルへ遷移する信号へ置き換えられる。また、符号化前のデータにおけるビット「1」の信号は、HレベルからLレベルへ遷移する信号へ置き換える。これにより、擬似ランダム符号であるビット列55のビット「0」は、マンチェスター符号であるビット列56においてビット「01」に置き換えられる。擬似ランダム符号であるビット列55のビット「1」は、マンチェスター符号であるビット列56においてビット「10」に置き換えられている。
 図12に示す例では、ビット列55において3つのビット「1」が連続している部分は、ビット列56においていずれもビット「10」に置き換えられることにより解消されている。このように、マンチェスター符号への符号化により、連続する3つ以上のビット「0」と、連続する3つ以上のビット「1」とが解消される。また、ビット列55のビット「0」とビット「1」とが連続する部分が、ビット列56ではビット「0110」に置き換えられることで、ビット列56には2つのビット「1」が連続する部分が生じている。ビット列55のビット「1」とビット「0」とが連続する部分が、ビット列56ではビット「1001」に置き換えられることで、ビット列56には2つのビット「0」が連続する部分が生じている。このように、マンチェスター符号への符号化により、連続するビット「0」の最大数と、連続するビット「1」の最大数とを、いずれも2つとすることが可能となる。
 光学パターン10の第1の領域11と第2の領域12とは、ビット列56にしたがって配列される。光学パターン10のうち第1の領域11が連続して配列されている部分の最大幅と、第2の領域12が連続して配列されている部分の最大幅とは、光学パターン10の単位幅の2倍となる。かかる最大幅が単位幅の2倍に抑えられることで、アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。
 ここで、インクリメンタルエンコーダとの比較におけるアブソリュートエンコーダ1の利点について説明する。インクリメンタルエンコーダの場合、検出されたパルス信号の数を積算してスケール2の回転角度を求める。原点を基準とする回転角度を検出するために、測定のたびに原点復帰の動作が行われる。原点復帰とは、スケール2の回転角度を原点に戻すことをいう。アブソリュートエンコーダ1では、絶対位置を検出可能であることから、原点復帰の動作が不要である。このため、アブソリュートエンコーダ1には、測定が開始されるまでの時間を短縮できるという利点がある。
 図1に示す制御部5の機能の全部あるいは任意の一部は、CPU(Central Processing Unit)あるいはマイクロコンピュータ上で実行しても良い。制御部5の機能の全部あるいは任意の一部は、CPUあるいはマイクロコンピュータにて解析および実行されるプログラム上で実行しても良い。または、制御部5の機能の全部あるいは任意の一部は、ワイヤードロジックによるハードウェア上で実行しても良い。
 図13は、図1に示す制御部5の機能を実行するアブソリュートエンコーダ1のハードウェア構成の例を示す図である。アブソリュートエンコーダ1は、通信インタフェースである通信部81と、各種処理を実行するCPU82と、図1に示す発光素子3およびイメージセンサ4との間の入出力インタフェースである入出力部83とを備える。また、アブソリュートエンコーダ1は、プログラム格納領域およびデータ格納領域を含むRAM(Random Access Memory)84と、不揮発性メモリであるROM(Read Only Memory)85とを備える。バス86は、通信部81と、CPU82と、入出力部83と、RAM84と、ROM85を接続する。
 通信部81は、角度演算部13での演算結果である回転角度のデータを外部へ送信する。ROM85には、各種処理のためのプログラムが格納されている。プログラムは、ROM85以外に、ドライブでの読み取りが可能な記録媒体に記録されたものでも良い。記録媒体は、可搬型記録媒体であるCD-ROM、DVDディスクあるいはUSBメモリ、半導体メモリであるフラッシュメモリのいずれであっても良い。図13には、ドライブおよび記録媒体の図示を省略している。
 プログラムは、RAM84にロードされる。CPU82は、RAM84内のプログラム格納領域にてプログラムを展開して各種処理を実行する。RAM84内のデータ格納領域は、各種処理の実行における作業領域とされる。角度演算部13、光源制御部14およびセンサ制御部17の機能は、CPU82を使用して実現される。図1に示すLUT16は、RAM84に格納される。記憶部15の機能は、RAM84を使用して実現される。
 実施の形態1によると、アブソリュートエンコーダ1は、第1の領域11が連続して配列されている部分の幅と、第2の領域12が連続して配列されている部分の幅とのいずれよりも発光体20の幅を小さくすることで、第1の領域11および第2の領域12を高い分解能で検出することができる。また、マンチェスター符号のビット列へ符号化されたデータが第1の領域11と第2の領域12へ置き換えられていることで、第1の領域11が連続して配列されている部分の最大幅と、第2の領域12が連続して配列されている部分の最大幅とが、光学パターン10の単位幅の2倍に抑えられる。アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。さらに、アブソリュートエンコーダ1は、光量調整部である光源制御部14による発光素子3の光量の調整により、高精度かつ高い分解能でスケール2の回転角度を求めることができる。以上により、アブソリュートエンコーダ1は、高精度かつ高い分解能で測定対象物の回転角度を測定できるという効果を奏する。
実施の形態2.
 図14は、実施の形態2にかかるアブソリュートエンコーダ1の光源制御部14による光量調整について説明する図である。実施の形態2において、光量調整部である光源制御部14は、図8に示す最大値52,53に代えて、平均値63,64を使用して光量調整を行う。実施の形態1と同一の部分には同一の符号を付し、重複する説明を省略する。
 図14の左側には、標準の温度であるときの信号37の強度分布の例を示している。図14の右側には、温度が標準の温度より上昇した場合における強度分布補正部31からの信号61の強度分布の例を示している。信号61の振幅は、信号37の振幅に比べて縮小している。また、信号61のHレベルより高いレベルのノイズ62が、信号61に生じている。実施の形態2の光源制御部14は、信号37の強度Iの平均値63と、信号61の強度Iの平均値64との比率を算出して、比率を用いて発光素子3の駆動電流値を調整する。
 光学パターン10の第1の領域11と第2の領域12とは、図12に示すマンチェスター符号であるビット列56にしたがって配列されている。イメージセンサ4で検出される像において、ビット「1」に対応する第1の領域11の数と、ビット「0」に対応する第2の領域12の数とは、互いに同じであるか1つ程度の違いとなる。このため、標準時の信号37から算出される平均値63は、回転角度に関わらず一定とみなせる。よって、光源制御部14は、平均値63と平均値64との比率を基に、発光素子3の光量を一定とする調整を行うことができる。
 図15は、実施の形態2における光源制御部14の光量調整の手順を示すフローチャートである。光源制御部14は、強度分布補正部31での補正を経た信号61を、強度分布補正部31から取得する。ステップS11において、光源制御部14は、取得された信号61における強度Iの平均値64を検出する。
 ステップS12において、光源制御部14は、ステップS11で検出された平均値64と、標準時の信号37における強度Iの平均値63との比率を算出する。ステップS13において、光源制御部14は、ステップS12において算出された比率を基に、発光素子3の駆動電流値を調整する。光源制御部14は、駆動電流値に比率を乗算することで、発光素子3の光量が標準時と同じ光量となるように駆動電流値を調整する。光源制御部14は、平均値63,64を使用して光量調整を行うことで、光量調整におけるノイズ62の影響を低減可能とする。
 アブソリュートエンコーダ1は、光源制御部14の光量調整により、測定場所の環境条件が変化しても高精度かつ高い分解能でスケール2の回転角度を求めることができる。なお、光源制御部14は、実施の形態1と同様に、強度分布補正部31での補正前の信号36における強度Iの平均値を基に光量を調整しても良い。また、光源制御部14は、測定場所の温度以外の環境条件、あるいは環境条件以外の条件の変化があった場合にも、発光素子3の光量を調整しても良い。
 実施の形態2によると、アブソリュートエンコーダ1は、光量調整部である光源制御部14により、平均値63,64を使用して発光素子3の光量を調整する。アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。以上により、アブソリュートエンコーダ1は、高精度かつ高い分解能で測定対象物の回転角度を測定できるという効果を奏する。
実施の形態3.
 図16は、実施の形態3にかかるアブソリュートエンコーダ1の光源制御部14による光量調整について説明する図である。実施の形態3において、光量調整部である光源制御部14は、図14に示す平均値63,64に代えて、最大値74A,74B,74Cの平均値と最大値75A,75B,75Cの平均値とを使用して光量調整を行う。実施の形態1と同一の部分には同一の符号を付し、重複する説明を省略する。
 図16の左側には、標準の温度であるときの信号37の強度分布の例を示している。図16の右側には、温度が標準の温度より上昇した場合における強度分布補正部31からの信号71の強度分布の例を示している。信号71の振幅は、信号37の振幅に比べて縮小している。また、信号71には、ピークが欠落している部分73が生じている。かかるピークの欠落が生じる要因の1つの例は、光学パターン10とイメージセンサ4との間の光路に侵入した異物によって光が遮られることである。
 実施の形態3の光源制御部14は、X軸方向において3つの領域72A,72B,72Cにイメージセンサ4を分けて、各領域72A,72B,72Cにおける信号71の最大値75A,75B,75Cを算出する。また、光源制御部14は、各領域72A,72B,72Cにおける信号37の最大値74A,74B,74Cを算出する。光源制御部14は、信号37の最大値74A,74B,74Cの平均値と、信号71の最大値75A,75B,75Cの平均値との比率を算出して、比率を用いて発光素子3の駆動電流値を調整する。
 図17は、実施の形態3における光源制御部14の光量調整の手順を示すフローチャートである。光源制御部14は、強度分布補正部31での補正を経た信号71を、強度分布補正部31から取得する。ステップS21において、光源制御部14は、取得された信号71から、領域72A,72B,72Cごとにおける強度Iの最大値75A,75B,75Cを検出する。ステップS22において、光源制御部14は、ステップS21で検出された最大値75A,75B,75Cの平均値を算出する。
 ステップS23において、光源制御部14は、ステップS22において算出された平均値と、標準時の信号37における最大値74A,74B,74Cの平均値との比率を算出する。ステップS24において、光源制御部14は、ステップS23において算出された比率を基に、発光素子3の駆動電流値を調整する。光源制御部14は、駆動電流値に比率を乗算することで、発光素子3の光量が標準時と同じ光量となるように駆動電流値を調整する。光源制御部14は、領域72A,72B,72Cごとにおける最大値74A,74B,74Cの平均値と最大値75A,75B,75Cの平均値とを使用して光量調整を行うことで、イメージセンサ4全体の強度Iの平均値を使用する場合と比較して、光量調整における欠落の部分73の影響を低減可能とする。
 光源制御部14は、イメージセンサ4を3つの領域72A,72B,72Cに分けて最大値75A,75B,75Cを検出するものに限られない。領域の数は2つであっても良く、4つ以上であっても良い。
 アブソリュートエンコーダ1は、光源制御部14の光量調整により、測定場所の環境条件が変化しても高精度かつ高い分解能でスケール2の回転角度を求めることができる。なお、光源制御部14は、実施の形態1および2と同様に、強度分布補正部31での補正前の信号における強度Iの平均値を基に光量を調整しても良い。また、光源制御部14は、測定場所の温度以外の環境条件、あるいは環境条件以外の条件の変化があった場合にも、発光素子3の光量を調整しても良い。
 実施の形態3によると、アブソリュートエンコーダ1は、光量調整部である光源制御部14により、領域72A,72B,72Cごとにおける最大値74A,74B,74Cの平均値と最大値75A,75B,75Cの平均値とを使用して発光素子3の光量を調整する。アブソリュートエンコーダ1は、高精度かつ高い分解能でスケール2の回転角度を求めることができる。以上により、アブソリュートエンコーダ1は、高精度かつ高い分解能で測定対象物の回転角度を測定できるという効果を奏する。
 実施の形態1から3のアブソリュートエンコーダ1は、ロータリーエンコーダに代えて、リニアエンコーダであっても良い。リニアエンコーダであるアブソリュートエンコーダ1は、直線方向へ動作する測定対象物の位置を測定する。この場合、アブソリュートエンコーダ1では、直線方向におけるスケール2の絶対位置ごとに、固有の絶対位置データが割り当てられている。アブソリュートエンコーダ1は、イメージセンサ4における光学パターン10の検知結果へのデコードにより、直線方向におけるスケール2の位置を求める。リニアエンコーダであるアブソリュートエンコーダ1は、高精度かつ高い分解能で測定対象物の位置を測定することができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1 アブソリュートエンコーダ、2 スケール、3 発光素子、4 イメージセンサ、5 制御部、6 シャフト、10 光学パターン、11,11a,11b,11d 第1の領域、11c,72A,72B,72C 領域、12 第2の領域、13 角度演算部、14 光源制御部、15 記憶部、16 LUT、17 センサ制御部、20 発光体、21,22,27,28 光線、23,24 距離、25 主光線、26 幅、31 強度分布補正部、32 エッジ検出部、33 粗データ算出部、34 位相ずれ算出部、35 絶対位置算出部、36,37,51,61,71 信号、38 回転角度のデータ、39 閾値レベル、40 絶対位置データ、42 エッジ位置、43 位相ずれ量、44 基本周期、52,53,74A,74B,74C,75A,75B,75C 最大値、62 ノイズ、63,64 平均値、55,56 ビット列、81 通信部、82 CPU、83 入出力部、84 RAM、85 ROM、86 バス。

Claims (9)

  1.  光学パターンが設けられ、可動とされたスケールと、
     前記光学パターンへ進行させる光を射出する発光体と、
     前記光学パターンからの光を検出して、検出された光の強度を表す信号を出力するセンサと、
     前記センサからの前記信号を基に、前記スケールの位置を求める演算部と
     を備え、
     前記光学パターンでは、前記スケールがとり得る位置ごとに割り当てられた固有のデータから符号化されたデータが、第1の領域と、前記センサにて前記第1の領域とは異なる光強度で検出可能とされた第2の領域との配列に置き換えられており、
     前記発光体の幅が、前記第1の領域が連続して配列されている部分の幅と、前記第2の領域が連続して配列されている部分の幅とのいずれよりも小さいことを特徴とするアブソリュートエンコーダ。
  2.  前記第1の領域が連続して配列されている部分の最大幅と、前記第2の領域が連続して配列されている部分の最大幅とが、前記第1の領域と前記第2の領域との配列の単位幅の2倍であることを特徴とする請求項1に記載のアブソリュートエンコーダ。
  3.  前記符号化されたデータは、マンチェスター符号のビット列であることを特徴とする請求項1または2に記載のアブソリュートエンコーダ。
  4.  前記符号化されたデータは、前記固有のデータから擬似ランダム符号への符号化により得られたビット列に、さらに前記マンチェスター符号への符号化を施すことにより得られたビット列であることを特徴とする請求項3に記載のアブソリュートエンコーダ。
  5.  前記スケールは、回転可能とされ、
     前記演算部は、前記スケールの位置である回転角度を求めることを特徴とする請求項1から4のいずれか1つに記載のアブソリュートエンコーダ。
  6.  前記センサでの光の強度の検出結果を基に、前記発光体の光量を調整する光量調整部を備えることを特徴とする請求項1から5のいずれか1つに記載のアブソリュートエンコーダ。
  7.  前記光量調整部は、前記センサからの前記信号における強度の最大値と、標準の信号における強度の最大値との比率を基に、前記発光体の光量を調整することを特徴とする請求項6に記載のアブソリュートエンコーダ。
  8.  前記光量調整部は、前記センサからの前記信号における強度の平均値と、標準の信号における強度の平均値との比率を基に、前記発光体の光量を調整することを特徴とする請求項6に記載のアブソリュートエンコーダ。
  9.  前記光量調整部は、前記センサの領域ごとにおける前記信号の最大値の平均値と、標準の信号における前記センサの領域ごとの強度の最大値の平均値との比率を基に、前記発光体の光量を調整することを特徴とする請求項6に記載のアブソリュートエンコーダ。
PCT/JP2017/009807 2017-03-10 2017-03-10 アブソリュートエンコーダ WO2018163424A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/009807 WO2018163424A1 (ja) 2017-03-10 2017-03-10 アブソリュートエンコーダ
JP2018507742A JPWO2018163424A1 (ja) 2017-03-10 2017-03-10 アブソリュートエンコーダ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/009807 WO2018163424A1 (ja) 2017-03-10 2017-03-10 アブソリュートエンコーダ

Publications (1)

Publication Number Publication Date
WO2018163424A1 true WO2018163424A1 (ja) 2018-09-13

Family

ID=63447464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009807 WO2018163424A1 (ja) 2017-03-10 2017-03-10 アブソリュートエンコーダ

Country Status (2)

Country Link
JP (1) JPWO2018163424A1 (ja)
WO (1) WO2018163424A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6639750B1 (ja) * 2019-04-11 2020-02-05 三菱電機株式会社 エンコーダ
WO2022107421A1 (ja) * 2020-11-20 2022-05-27 パナソニックIpマネジメント株式会社 エンコーダ及び情報処理方法
JP7443140B2 (ja) 2020-04-09 2024-03-05 Dmg森精機株式会社 位置検出装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229116A (ja) * 1990-02-05 1991-10-11 Olympus Optical Co Ltd 位置検出装置における波形成形回路
US20050018204A1 (en) * 2003-07-24 2005-01-27 Zhejiang University Method and apparatus for optically measuring absolute displacement
JP2006139216A (ja) * 2004-11-15 2006-06-01 Ricoh Co Ltd マーク検出装置と駆動制御装置と画像形成装置
JP2008268215A (ja) * 2007-04-20 2008-11-06 Dr Johannes Heidenhain Gmbh エンコーダ
JP2011185806A (ja) * 2010-03-10 2011-09-22 Canon Inc 光学式エンコーダおよび変位計測装置
JP2015090303A (ja) * 2013-11-05 2015-05-11 株式会社安川電機 エンコーダ、エンコーダ付きモータ、サーボシステム
JP2016061600A (ja) * 2014-09-16 2016-04-25 株式会社安川電機 エンコーダ及びエンコーダの発光量調整方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3377669D1 (en) * 1982-09-01 1988-09-15 Rosemount Ltd Position measuring apparatus
DE102007061287A1 (de) * 2007-12-19 2009-06-25 Dr. Johannes Heidenhain Gmbh Positionsmesseinrichtung und Verfahren zur absoluten Positionsbestimmung
US20130204574A1 (en) * 2012-02-07 2013-08-08 Amit Agrawal Method for Estimating Positions Using Absolute Encoders

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229116A (ja) * 1990-02-05 1991-10-11 Olympus Optical Co Ltd 位置検出装置における波形成形回路
US20050018204A1 (en) * 2003-07-24 2005-01-27 Zhejiang University Method and apparatus for optically measuring absolute displacement
JP2006139216A (ja) * 2004-11-15 2006-06-01 Ricoh Co Ltd マーク検出装置と駆動制御装置と画像形成装置
JP2008268215A (ja) * 2007-04-20 2008-11-06 Dr Johannes Heidenhain Gmbh エンコーダ
JP2011185806A (ja) * 2010-03-10 2011-09-22 Canon Inc 光学式エンコーダおよび変位計測装置
JP2015090303A (ja) * 2013-11-05 2015-05-11 株式会社安川電機 エンコーダ、エンコーダ付きモータ、サーボシステム
JP2016061600A (ja) * 2014-09-16 2016-04-25 株式会社安川電機 エンコーダ及びエンコーダの発光量調整方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6639750B1 (ja) * 2019-04-11 2020-02-05 三菱電機株式会社 エンコーダ
WO2020208773A1 (ja) * 2019-04-11 2020-10-15 三菱電機株式会社 エンコーダ
TWI718040B (zh) * 2019-04-11 2021-02-01 日商三菱電機股份有限公司 編碼器
CN113661376A (zh) * 2019-04-11 2021-11-16 三菱电机株式会社 编码器
JP7443140B2 (ja) 2020-04-09 2024-03-05 Dmg森精機株式会社 位置検出装置
US11946779B2 (en) 2020-04-09 2024-04-02 Dmg Mori Co., Ltd. Position detection apparatus
WO2022107421A1 (ja) * 2020-11-20 2022-05-27 パナソニックIpマネジメント株式会社 エンコーダ及び情報処理方法

Also Published As

Publication number Publication date
JPWO2018163424A1 (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
US11125876B2 (en) Lidar system and method for ascertaining a system state of a lidar system
KR102008632B1 (ko) 앱솔루트 인코더
US7132647B2 (en) Optical encoder
WO2018163424A1 (ja) アブソリュートエンコーダ
JP2009150879A (ja) 絶対位置を測定するための位置測定装置と方法
EP3052897B1 (en) Measurement encoder
TWI660159B (zh) 絕對編碼器
JP4703059B2 (ja) 光電式エンコーダ
KR101240792B1 (ko) 엔코더 및 엔코더용 수광장치
JP5200550B2 (ja) 検出ユニット及びエンコーダ
JP4970649B2 (ja) リニア運動又は回転運動を定量的に検出するためのオプティカルエンコーダ
US20140166865A1 (en) Absolute encoder
JP6149740B2 (ja) アブソリュートエンコーダ
JP2005526951A5 (ja)
US20050088667A1 (en) Absolute position encoder requiring less than one encoding track per bit
JP6639750B1 (ja) エンコーダ
CN1250933C (zh) 位置测量装置及运行位置测量装置的方法
US9534936B2 (en) Reference signal generation apparatus and reference signal generation system
JP6054995B2 (ja) クロストークを防止する光学式エンコーダ
JP2005037333A (ja) アブソリュートエンコーダ及び角度検出方法
US9157769B2 (en) Reference signal generation apparatus and reference signal generation system
US20140145071A1 (en) Absolute encoder and method of obtaining absolute position
JP2017111068A (ja) 光エンコーダ
JP2011220805A (ja) エンコーダ
JP6865915B1 (ja) アブソリュートエンコーダ

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018507742

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17899280

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17899280

Country of ref document: EP

Kind code of ref document: A1