WO2020026980A1 - 角度検出システムおよび角度検出方法 - Google Patents

角度検出システムおよび角度検出方法 Download PDF

Info

Publication number
WO2020026980A1
WO2020026980A1 PCT/JP2019/029426 JP2019029426W WO2020026980A1 WO 2020026980 A1 WO2020026980 A1 WO 2020026980A1 JP 2019029426 W JP2019029426 W JP 2019029426W WO 2020026980 A1 WO2020026980 A1 WO 2020026980A1
Authority
WO
WIPO (PCT)
Prior art keywords
encoder pattern
angle
unit
pattern
encoder
Prior art date
Application number
PCT/JP2019/029426
Other languages
English (en)
French (fr)
Inventor
敏 安富
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to CN201980046329.2A priority Critical patent/CN112384754B/zh
Priority to EP19844618.9A priority patent/EP3832258A4/en
Priority to US17/262,168 priority patent/US20210270602A1/en
Publication of WO2020026980A1 publication Critical patent/WO2020026980A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/34776Absolute encoders with analogue or digital scales
    • G01D5/34792Absolute encoders with analogue or digital scales with only digital scales or both digital and incremental scales
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/3473Circular or rotary encoders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/32Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light
    • G01D5/34Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells
    • G01D5/347Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light with attenuation or whole or partial obturation of beams of light the beams of light being detected by photocells using displacement encoding scales
    • G01D5/34776Absolute encoders with analogue or digital scales

Definitions

  • the present invention relates to an angle detection system and an angle detection method, and more particularly, to an angle detection system and an angle detection method used for surveying.
  • an absolute encoder has been known as an angle detecting device for measuring an absolute angle.
  • a disk built in the device is provided with a gray code or a scale pattern such as a slit according to the rules of the M-sequence code, a so-called absolute encoder pattern, and receives an image of light illuminating the slit with an image sensor or the like. , And calculates the angular position from the image obtained by the image sensor.
  • an angle detection device an angular position corresponding to a rotational displacement of an input shaft coaxially connected to a disk is measured. For this reason, it is necessary to perform measurement by directly attaching an angle detection device main body including a disk, a light emitting element, a light receiving element, and a control unit to a measurement object.
  • the present invention has been made in view of such circumstances, and has as its object to provide a technique capable of measuring an angle of a remote measurement target.
  • an angle detection system including an encoder pattern unit attached to a measurement target and a surveying device, wherein the encoder pattern unit includes: A cylindrical base, and an encoder pattern provided on an outer peripheral side surface of the base and indicating an angle in a circumferential direction with respect to a predetermined reference direction, wherein the encoder pattern retroreflects incident light; An encoder pattern layer disposed on a front surface of the reflective material layer, the encoder pattern layer including a first polarization filter that transmits a polarization component in a first direction, and a second polarization filter in a second direction different from the first direction.
  • the surveying device emits reading light toward the encoder pattern, and is configured by a combination with a second polarizing filter that transmits a polarized light component.
  • a reading optical light transmitting unit that, the information indicating the encoder pattern, an information acquisition unit that acquires optically, based on the information, the operation control for calculating the angle (theta T) of the surveying device with respect to the reference direction
  • a first or second polarizing filter disposed on an optical path of light emitted from the reading light transmitting unit, reflected by the encoder pattern, and incident on the light receiving surface of the information acquiring unit. It is characterized by.
  • the angle information section indicates a bit pattern by arranging the first and second polarizing filters on an outer peripheral side surface of an encoder pattern section in a circumferential direction, and the arithmetic control section optically acquires the bit pattern.
  • the read information is read in the circumferential direction of the encoder pattern, the read result is converted into a bit pattern, the center position of the encoder pattern is specified from the read result, and the information is included in a predetermined area having the center position as the center. It is also preferable that the angle is calculated by comparing the bit pattern with a predetermined correlation between the bit pattern and the angle.
  • the angle information section arranges the first polarizing filter in the circumferential direction as a vertical line having two types of widths, wide and narrow, so as to indicate a bit pattern generated by an M sequence. It is also preferable that the pattern is a barcode-like pattern in which a second polarizing filter is arranged between lines.
  • the reflector layer is configured by arranging first and second reflectors having different reflectivities in a circumferential direction, and the first and second polarizing filters, It is also preferred that the bit pattern is indicated by a combination of the first and the second reflector.
  • the information acquisition unit is a camera that acquires information represented by the encoder pattern as an image.
  • the information acquisition unit is a scanner that transmits information indicated by the encoder pattern, transmits scan light to the encoder pattern, receives reflected light from the encoder pattern, and acquires the information as a received light amount distribution. It is also preferred.
  • the measurement object is attached at a predetermined angle ( ⁇ B ) in a circumferential direction with respect to the reference direction, and the arithmetic control unit controls the predetermined angle ( ⁇ B ) and the predetermined angle ( ⁇ B ). It is also preferable that the angle of the measurement object with respect to the surveying device is calculated based on the reading angle ( ⁇ T ) of the encoder pattern.
  • an angle detection method includes a cylindrical base, and an encoder pattern unit that is disposed on an outer peripheral side surface of the base and includes an encoder pattern that indicates an angle in a circumferential direction with respect to a predetermined reference direction.
  • a method of detecting an angle using a surveying device including an information acquisition unit, wherein (a) attaching the encoder pattern unit to the measurement object at a predetermined angle in a circumferential direction of the encoder pattern unit; b) emitting read light toward the encoder pattern, (c) optically acquiring the information indicated by the encoder pattern by the information acquisition unit, and (d) acquiring the information by the (c) step.
  • the direction angle of the surveying device with respect to the reference direction is calculated, and the encoder pattern is a reflective material layer that retroreflects incident light.
  • An encoder pattern layer disposed on a front surface of the reflector layer, the encoder pattern layer including a first polarization filter that transmits a polarization component in a first direction, and a second polarization filter that is different from the first direction.
  • the surveying device is configured by a combination with a second polarizing filter that transmits a polarized light component in a direction, and the surveying device is configured to emit light emitted from the reading light transmitting unit, reflected by the encoder pattern, and incident on the information acquiring unit. It is characterized by comprising a first or second polarizing filter arranged on the optical path.
  • the “encoder pattern” is a pattern having angle information with the reference point being 0 °, and includes a pattern that can be detected by polarized light.
  • the term “reference direction of the encoder pattern” means the direction of the reference point (0 °) of the encoder pattern.
  • the term “surrounding angle of the surveying device with respect to the reference direction of the encoder pattern” refers to “between the straight line connecting the center of the encoder pattern unit and the surveying device with respect to the direction of 0 ° of the encoder pattern. This angle is the “read angle of the encoder pattern” obtained by reading the encoder pattern.
  • FIG. 1 is a configuration block diagram of an angle detection system according to a first embodiment of the present invention and a surveying system including the angle detection system. It is an outline appearance figure of a surveying system provided with the angle detection system of the same form. It is a perspective view of a measurement module concerning the above-mentioned survey system.
  • A) is an enlarged perspective view of the encoder pattern part which concerns on the angle detection system of the same form
  • (b) is a figure which shows the cross-section of this encoder pattern part
  • (c) is this encoder pattern part
  • FIG. 3 is a diagram (partially omitted) of the encoder pattern of FIG. (A)-(c) is a figure explaining the manufacturing method of the encoder pattern part of the angle detection system of the same form.
  • FIG. 1 It is a top view of the above-mentioned measurement module.
  • A)-(c) is a figure which shows the example of a structure of the camera of the angle detection system of the same form
  • (c) is a figure including a reading light transmission part. It is a flowchart of the measurement operation
  • (A) is a landscape image around the encoder pattern portion obtained by the camera of the angle detection system of the same form
  • (b) is an enlarged image of the encoder pattern portion cut out from (a)
  • FIG. 9B is a graph showing a result obtained by reading (b) linearly in the circumferential direction and converting it into pixel values.
  • (A) And (b) is a figure explaining the positional relationship of a reflection target and a measurement point when measuring the measurement point which has no line of sight using the said survey system. It is a perspective view of the encoder pattern concerning one modification of the angle detection system of this embodiment.
  • FIG. 6 is a configuration block diagram of an angle detection system according to a second embodiment of the present invention and a surveying system including the angle detection system.
  • FIG. 2 is a block diagram illustrating a configuration of a scanner of the same angle detection system. It is a flowchart of angle detection using the same angle detection system.
  • FIG. 11 is a configuration block diagram of an angle detection system according to a third embodiment of the present invention and a surveying system including the angle detection system.
  • 4 is a flowchart of angle detection using the angle detection system according to the same embodiment.
  • (A)-(c) is a figure explaining the reading direction by the camera of the same angle detection system. It is a figure explaining the encoder pattern of the angle detection system concerning a 4th embodiment of the present invention, (a) is an encoder pattern layer, (b) is a reflective material layer, (c) is an encoder It is a figure showing the section structure of a pattern part.
  • (D) is a diagram showing the result of converting the image corresponding to the encoder pattern portion shown in (c) into pixel values. It is a figure explaining the encoder pattern of the angle detection system concerning a 5th embodiment of the present invention, (a) is an encoder pattern layer, (b) is a reflective material layer, (c) is an encoder. It is a figure showing the section structure of a pattern part. (D) is a diagram showing the result of converting the image corresponding to the encoder pattern portion shown in (c) into pixel values.
  • First embodiment 1-1 Configuration of Angle Detection System
  • the configuration of the angle detection system 90 according to the first embodiment will be described with reference to FIGS.
  • the angle detection system 90 is provided in the surveying system 100.
  • the surveying system 100 includes a measurement module 10 and a surveying device 50.
  • the angle detection system 90 is a system that measures the angle of the distance measuring device 14 that is a measurement target, and includes the encoder pattern unit 13 of the measurement module 10 and the surveying device 50.
  • the surveying system 100 is a system for surveying a measurement point P to which the surveying device 50 has no visibility. As shown in FIGS. 2 and 3, in the case of a measurement point P that does not have a line of sight from the surveying device 50, a point Q that has a line of sight from the surveying device 50 is set as a temporary measurement point.
  • the vertical state of the support member 12 is ensured while keeping the 12A in contact, and the distance measuring device 14 is expanded and contracted in the direction of the double-headed arrow B to bring the tip 14A into contact with the measurement point P to measure the reflection target 11.
  • the measurement module 10 includes a support member 12 that supports the reflection target 11, and the support member 12 includes an encoder pattern unit 13, a distance measurement device 14, a tilt angle measurement device 15, and a level 16. , A control unit 17, an input unit 18, and a module communication unit 19 are attached.
  • the reflection target 11 is, for example, a so-called omnidirectional prism configured by radially combining a plurality of triangular pyramid-shaped prisms, and makes light incident from the entire circumference (360 °) in a direction opposite to the incident direction. To reflect. That is, the reflection target 11 reflects the ranging light from the surveying device 50 toward the surveying device 50.
  • the reflection target 11 is not limited to an omnidirectional prism, and may use a normal prism used for surveying.
  • the support member 12 is a pole extending with a certain length, and fixedly supports the reflection target 11 so that the center axis A passes through the center O of the reflection target 11.
  • the encoder pattern section 13 is configured by providing an encoder pattern 13B on the side peripheral surface of a short cylindrical base 13A.
  • the base 13A is, for example, a molded body made of metal or resin.
  • the base 13A has a screw portion (not shown) formed on the outer periphery of the support member 12 and a screw hole formed at the center of the base 13A so as to be coaxial with the central axis A of the support member 12. (Not shown) is fixed between the support member 12 and the reflection target 11 by means such as screwing. Therefore, the encoder pattern unit 13 is attached to the distance measuring device 14 that is the measurement target via the support member 12.
  • the encoder pattern 13B includes an angle information section 131 indicating angle information, and a width information section 132 adjacent above the angle information section 131 and indicating the width of the encoder pattern section.
  • FIG. 4B shows a cross-sectional structure of the outer peripheral side surface of the encoder pattern unit 13.
  • the encoder pattern section 13 includes, in a cross-sectional structure, a reflector layer 120 disposed on the outer peripheral side surface of the base 13A, and an encoder pattern layer 130 disposed on the reflector layer 120.
  • the reflective material layer 120 is a reflective material layer that includes, for example, a reflective film, glass beads, and a synthetic resin and has a characteristic of retroreflecting incident light toward a light source.
  • a known reflective sheet such as a reflective prism type, a sealed lens type, or a prism lens type, which is commercially available, can be used as the reflective material layer.
  • the encoder pattern layer 130 transmits a polarization component in a first direction and attenuates other components, and transmits a polarization component in a second direction different from the first direction.
  • the second direction is preferably a direction orthogonal to the first direction, but is not limited to this.
  • a polarizing film prepared by adsorbing and orienting iodine compound molecules on a polyvinyl alcohol (PVA) film can be used.
  • the pattern of the angle information section 131 will be described. As shown in FIG. 4 (c) as an example, the angle information unit 131, a vertical line 131a narrow having a width w 1, and a vertical line 131b of the wide, having a width w 2, the vertical line 131a "0 , And the vertical line 131b is set to “1” to generate an M-sequence cyclic random number code, and a portion corresponding to the vertical lines 131a and 131b is formed in a barcode-like pattern in which the codes are arranged at an equal pitch p.
  • the first polarizing filter 130a is such that a second polarizing filter 130b is disposed between each vertical line. Also, one cycle is set to be less than one cycle of the cyclic random number.
  • the encoder pattern unit 13 sets the direction RD from the center of the encoder pattern unit 13 to the reference point RP (hereinafter, referred to as “reference direction of the encoder pattern”) as 0 °, and calculates the angle calculated from the pattern read by the surveying device 50 (
  • the reading angle of the encoder pattern is the angle ⁇ T of the surveying device 50 in the circumferential direction with respect to the reference direction RD , that is, a straight line connecting the reference direction RD and the center axis A of the encoder pattern portion from the surveying device 50. It is configured to correspond to an absolute angle between.
  • the angle information section 131 is configured to be able to realize a desired resolution by changing the number of bits.
  • the bit pattern is not limited to the M-sequence code, but may be a bit pattern such as a gray code or a pure binary binary code, which can be generated by a known method.
  • the use of the M-sequence code is advantageous because the number of bits can be increased without increasing the number of tracks, and a high resolution can be realized with a simple configuration.
  • the width information portion 132 includes a first band 132a having a predetermined height h 1, and a second zone 132b of the same height.
  • the first band 132a and the second band 132b are composed of a first polarizing filter 130a and a second polarizing filter 130b, respectively.
  • the first band 132a and the second band 132b each extend over the entire circumference of the encoder pattern unit 13 in the circumferential direction, and indicate the width of the encoder pattern unit 13 when observed from the side.
  • the encoder pattern section 13 is manufactured as shown in FIGS. 5 (a) to 5 (c).
  • the encoder pattern layer 130 in which the polarizing filters 130a and 130b are arranged as described above is prepared.
  • the encoder pattern layer 130 may include a protective layer such as a polyethylene terephthalate (PET) layer.
  • the encoder pattern 13B is attached to the outside of the reflective material layer 120 with an adhesive such as PVA to form the encoder pattern portion 13.
  • the width information section 132 is disposed above and adjacent to the angle information section 131.
  • the positional relationship between the angle information section 131 and the width information section 132 is not limited to this, and the width information section 132 may be arranged below the angle information section 131.
  • the encoder pattern section 13 is disposed below and adjacent to the reflection target 11 (FIG. 3).
  • the positional relationship between the encoder pattern portion 13 and the reflection target 11 is not limited to this, and the encoder pattern portion 13 is arranged so as to be coaxial with the central axis A of the support member 12 passing through the center O of the reflection target 11. If so, another arrangement may be used.
  • the encoder pattern unit 13 may be arranged above the reflection target 11. Further, the encoder pattern section 13 and the reflection target 11 may be arranged separately.
  • the distance measuring device 14 is a digital measuring rod.
  • the distance measuring device 14 is configured to be extendable and contractible in the direction of the double-headed arrow B in FIG.
  • the distance measuring device 14 is attached to the support member 12 so as to be rotatable in a direction indicated by a double arrow C in FIG. 2 around a horizontal H1 axis passing through the point R with a point R on the central axis A of the support member 12 as a base point. Installed.
  • the distance measuring device 14 can measure the distance between the base point R and the tip 14A, that is, the distance 1 between the base point R and the measurement point P, and outputs the measurement result to the module communication section 19.
  • the distance d between the base point R of the distance measuring device 14 and the center O of the reflection target 11 is known in advance. Further, the angle ⁇ B of the distance measuring device 14 around the center axis A of the support member 12 with respect to the reference direction RD of the encoder pattern 13B (see FIG. 6) is measured when the distance measuring device 14 is assembled to the support member 12. And is known in advance.
  • the distance measuring device 14 may be configured to be rotatable around the center axis A of the support member 12 and a rotation angle measuring device such as a rotary encoder may be mounted to enable measurement.
  • a rotation angle measuring device such as a rotary encoder
  • the angle around the center axis of the supporting member 12 between the direction corresponding to 0 ° of the rotation angle measuring device and the reference direction RD when the distance measuring device 14 is assembled to the supporting member 12 is the distance measuring device 14. Is obtained when the is assembled, and is set as a correction value in the rotation angle measuring device.
  • the rotational angle measuring device 22, the distance measuring instrument 14 to allow measurement of angle theta B about the central axis A of the encoder pattern 13B supporting member 12 with respect to the reference direction RD of.
  • the measurement data of the rotation angle measuring device can be output to the module communication unit 19.
  • the distance measuring device 14 When outputting the measurement result of the distance l to the module communication unit 19, the distance measuring device 14 also measures the distance d between the center O of the reflection target 11 and the base point R of the distance measuring device 14, and the distance measuring device 14 and it outputs the data of the angle theta B about the central axis a of the support member 12 to the module communication unit 19.
  • the tilt angle measuring device 15 is a tilt sensor, for example, a tilt sensor that causes detection light to be incident on a horizontal liquid surface and detects horizontality based on a change in the reflection angle of the reflected light, or a tilt sensor based on a change in the position of an enclosed bubble.
  • An electronic bubble tube to detect can be used.
  • the tilt angle measuring device 15 is attached to the distance measuring device 14 in parallel with the distance measuring device 14.
  • the inclination angle measuring device 15 measures the inclination angle (ie, the angle in the vertical direction) ⁇ of the distance measuring device 14 with respect to the horizontal plane (H1-H2 plane in FIG. 3) of the distance measuring device 14, and sends the measurement result to the module communication section 19. Output.
  • the level 16 is, for example, a bubble tube in which bubbles and liquid are sealed in a cylindrical container.
  • the level 16 is attached to the supporting member 12 so that the vertical state of the central axis A of the supporting member 12 can be confirmed when the bubble is positioned within the center mark.
  • the control unit 17 is, for example, an MPU (Micro Processing Unit).
  • the control unit 17 is connected to the distance measuring device 14, the inclination angle measuring device 15, the input unit 18, and the module communication unit 19. The connection may be made by means of wireless communication.
  • the control unit 17 executes the measurement of the distance measuring device 14 and the inclination angle measuring device 15 according to the instruction such as the execution of the measurement input from the input unit 18. Further, the measurement data is transmitted to the surveying device 50 via the module communication unit 19.
  • the input unit 18 is, for example, a button switch, and inputs an instruction such as power ON / OFF and measurement start when the operator U presses the button switch.
  • the module communication unit 19 enables wireless communication between the measurement module 10 and the surveying device 50.
  • the module communication unit 19 transmits the measurement data acquired by the measurement module 10 to the communication unit 57 of the surveying device 50.
  • the measurement data is a distance measurement device for the distance 1 between the base point R and the measurement point P of the distance measurement device 14 acquired by the distance measurement device 14 and a horizontal plane acquired by the inclination angle measurement device 15. 14, the distance d between the center O of the reflective target 11 and the base point R of the distance measuring device 14, and the support member 12 with respect to the reference direction RD of the encoder pattern 13B of the distance measuring device 14. Includes angle ⁇ B about central axis A.
  • control unit 17, the input unit 18, and the module communication unit 19 may be attached to the support member of the measurement module 10 in an appropriate form as shown in the illustrated example, or as separate units such as a remote controller. It may be configured.
  • the surveying device 50 As shown in FIG. 2, the surveying device 50 is mounted on a known point using a tripod, and from below, a leveling unit, a base unit provided on the leveling unit, and a base unit provided on the leveling unit. It has a mounting part 2a that rotates horizontally and a telescope 2b that rotates vertically at the center of the mounting part 2a.
  • the surveying device 50 is a total station. As shown in FIG. 1, the surveying device 50 includes an EDM 51, a horizontal angle detector 52, a vertical angle detector 53, a camera 55, a tracking unit 56, a communication unit 57, a horizontal rotation driving unit 58, a vertical rotation driving unit 59, and a storage unit. 61, an input unit 62, a display unit 63, a calculation control unit 64, and a reading light transmitting unit 69.
  • the reading light transmitting unit 69 is connected to the arithmetic control unit 64.
  • the horizontal angle detector 52, the vertical angle detector 53, the communication unit 57, the horizontal rotation drive unit 58, the vertical rotation drive unit 59, the storage unit 61, and the arithmetic control unit 64 are housed in the mounting unit 2a.
  • the input unit 62 and the display unit 63 are provided outside the support unit 2a.
  • the EDM 51 and the tracking unit 56 are housed in the telescope 2b, and the camera 55 is mounted on the upper part of the telescope 2b.
  • the EDM 51 includes a light emitting element, a distance measuring optical system, and a light receiving element.
  • the EDM 51 emits distance measurement light from the light emitting element, receives the reflected light from the reflection target 11 with the light receiving element, and measures the distance of the reflection target 11.
  • the horizontal angle detector 52 and the vertical angle detector 53 are rotary encoders, and the rotation angles around the rotation axis of the mounting section 2a and the telescope 2b driven by a horizontal rotation drive section 58 and a vertical rotation drive section 59, respectively, which will be described later. Is detected, and the horizontal angle and the vertical angle of the collimating optical axis A are obtained.
  • the EDM 51, the horizontal angle detector 52, and the vertical angle detector 53 form a surveying unit 54, which is a main part of the surveying device 50.
  • the camera 55 functions as an information acquisition unit, and includes an optical system 55A, an image sensor 55B, and a polarization filter 55C, as shown in FIG.
  • the optical system 55A is an optical system known as a camera.
  • the image sensor 55B is, for example, an image sensor such as a CCD sensor or a CMOS sensor.
  • the polarization filter 55C is the same as the second polarization filter (130b) of the encoder pattern unit 13 and transmits a polarization component in the second direction.
  • Polarizing filter 55C is emitted from the reading light light transmitting unit 69, it is reflected by the encoder pattern 13 is disposed on the optical path of light incident on the light receiving surface 55B 1 of the image pickup element 55B. Therefore, polarizing filter 55C, as shown in FIG. 7 (a), may be disposed in front of the light receiving surface 55B 1 of the image pickup device 55B, also, as shown in FIG. 7 (b), the optical system 55A May be arranged on the front side. Alternatively, as shown in FIG. 7C, it may be arranged on the front surface of the reading light transmitting section 69.
  • the camera 55 receives light with the image sensor 55B through the optical system 55A, and acquires an image of the light as an image. Therefore, the camera 55 optically acquires the information indicated by the encoder pattern 13B as an image.
  • the imaging element 55B is connected to the arithmetic control unit 64, converts the acquired image into digital data, and outputs the digital data to the arithmetic control unit 64.
  • the camera 55 is attached to the upper part of the telescope 2b in parallel with the telescope 2b. Further, the camera 55 is configured to collimate the encoder pattern unit 13 whose positional relationship with the reflection target 11 is fixed while collimating the reflection target 11 with the telescope 2b.
  • the camera 55 may be provided with a rotation drive unit, and configured to be rotatable up, down, left, and right under the control of the arithmetic and control unit 64 when shooting.
  • the reading light transmitting unit 69 includes a light emitting element, shares an optical system with the EDM 51, and emits light toward the encoder pattern unit 13.
  • the tracking unit 56 includes a light-emitting element that emits tracking light and a light-receiving element that is an image sensor such as a CCD sensor or a CMOS sensor, and includes a tracking optical system that shares an optical element with a distance-measuring optical system.
  • the tracking unit 56 projects an infrared laser beam having a wavelength different from the distance measurement light onto the tracking target (target), receives reflected light from the tracking target, and tracks the tracking target based on the light reception result. It is configured to perform.
  • the tracking unit 56 is not essential and can be omitted when the tracking function is not required.
  • the function of the camera 55 can be incorporated in the tracking unit 56, and the independent camera 55 can be omitted.
  • the communication unit 57 enables wireless communication with the module communication unit 19 of the measurement module 10.
  • the communication unit 57 receives the measurement data from the module communication unit 19.
  • the horizontal rotation drive unit 58 and the vertical rotation drive unit 59 are motors, and are controlled by the arithmetic and control unit 64 to rotate the support unit 2a horizontally and the telescope 2b vertically.
  • the storage unit 61 includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the ROM stores programs and data necessary for the operation of the surveying instrument 50 as a whole. These programs are read out to the RAM and started to be executed by the arithmetic control unit 64 to perform various processes of the surveying device 50.
  • RAM is the three-dimensional positional coordinates of the reflection target center point O, the three-dimensional position coordinates of the measuring point P, and temporarily holds the data for calculating the direction angle theta T of the surveying device.
  • the input unit 62 is, for example, an operation button.
  • the operator can input a command to be executed by the surveying device 50 to the input unit 62 or select a setting.
  • the display unit 63 is, for example, a liquid crystal display, and displays various information such as a measurement result and a calculation result according to a command from the calculation control unit 64.
  • the input unit 62 also displays setting information for the operator to make an input and a command input by the operator.
  • the input unit 62 and the display unit 63 may be integrally configured to form a touch panel display.
  • the arithmetic control unit 64 includes a CPU (Central Processing Unit) and a GPU (Graphical Processing Unit). The arithmetic control unit 64 performs various processes for exhibiting the function of the surveying device 50. Specifically, the rotation driving units 58 and 59 are controlled, and the tracking unit 56 performs automatic tracking. Further, the EDM 51 is controlled to acquire distance measurement data of the reflection target. Further, angle measurement data of the reflection target 11 is obtained from the values of the horizontal angle detector 52 and the vertical angle detector 53. Further, three-dimensional position coordinates of the center O of the reflection target 11 are calculated from the distance measurement data and the angle measurement data. Further, the camera 55 is controlled to acquire an image.
  • the rotation driving units 58 and 59 are controlled, and the tracking unit 56 performs automatic tracking.
  • the EDM 51 is controlled to acquire distance measurement data of the reflection target. Further, angle measurement data of the reflection target 11 is obtained from the values of the horizontal angle detector 52 and the vertical angle detector 53. Further, three-dimensional position coordinates of the center O of the reflection target 11 are
  • the operation control unit 64 includes an encoder pattern reading unit 65, a direction angle operation unit 66, and a measurement point coordinate operation unit 67 as function units.
  • the encoder pattern reading unit 65 recognizes the encoder pattern from the image acquired by the camera 55, and converts the encoder pattern 13B into a bit pattern.
  • Direction angle calculating section 66 calculates the direction angle theta T of the surveying device 50 with respect to the reference direction RD of the encoder pattern 13B.
  • the measurement point coordinate calculation unit 67 calculates the measurement data of the measurement module 10, the direction angle ⁇ T of the surveying device 50 with respect to the reference direction RD of the encoder pattern 13B, and the center O of the reflection target 11 calculated from the distance measurement data and the angle measurement data.
  • three-dimensional position coordinates O (x p, y p, z p) three-dimensional position coordinates P of the measuring point P from (X, Y, Z) calculates a.
  • Each functional unit may be configured as software or a dedicated arithmetic circuit. Further, a functional unit configured by software and a functional unit configured by a dedicated arithmetic circuit may coexist.
  • FIG. 8 shows the operation of the surveying device 50 and the measuring module 10 when the surveying is performed on the measuring point P which is not visible from the surveying device 50 using the surveying system 100 according to the present embodiment. It is a flowchart.
  • the surveying unit 54 measures the center O of the reflection target 11 in step S101.
  • the EDM 51 sends out distance measurement light toward the reflection target 11, receives the reflection distance measurement light reflected from the reflection target 11, and measures the distance from the surveying device 50 to the reflection target 11. Further, the horizontal angle detector 52 and the vertical angle detector 53 measure the angle of the reflection target 11.
  • step S102 the calculation control unit 64, obtained in step S101, based on the distance data and angle data, by a known method, coordinates O (x p of the center O of the reflective targets 11, y p, z p ) is calculated.
  • the calculation result is stored in the storage unit 61.
  • step S103 the camera 55 captures an image of the telescope 2b in the collimating direction and reads the encoder pattern 13B of the measurement module 10. Reading of the encoder pattern 13B will be described later.
  • step S104 the calculation control unit 64, at step S103, based on the reading result of the encoder pattern unit 13 calculates the direction angle theta T of the surveying device 50 with respect to the reference direction RD of the encoder pattern 13B.
  • the calculation result is stored in the storage unit 61.
  • step S105 the arithmetic control unit 64 waits for reception of measurement data from the measurement module 10.
  • the measurement is started by the measurement module worker U pressing the measurement start button of the measurement module in response to a signal from the surveying device worker or the like.
  • the distance measurement device 14 measures the distance 1 from the base point R of the distance measurement device 14 to the measurement point P, and compares the measurement result data with the center O of the reflection target 11 and the base point of the distance measurement device 14. the distance between the R d, and with the data of the angle theta B about the central axis of the support member 12, and outputs to the module communication unit 19.
  • step S202 the inclination angle measuring device 15 measures the inclination angle ⁇ of the distance measuring device 14 with respect to a horizontal plane passing through the base point R of the distance measuring device 14, and outputs measurement result data to the module communication section 19.
  • steps S201 and S202 do not necessarily have to be performed in this order, but may be performed simultaneously or in the reverse order.
  • the module communication unit 19 uses the measurement data of the measurement module 10 as the measurement data of the distance l between the base point R and the measurement point P of the distance measurement device 14, the inclination angle ⁇ of the distance measurement device 14 with respect to the horizontal plane,
  • the distance d between the center O of the reflection target 11 and the base point R of the distance measuring device 14 and the angle ⁇ B around the central axis A of the support member 12 with respect to the reference direction RD of the encoder pattern 13B of the distance measuring device 14 are measured with a surveying device. Send to 50.
  • step S203 If the angle ⁇ B about the center axis A of the support member 12 with respect to the reference direction RD of the encoder pattern 13B of the distance measuring device 14 is not fixed but can be measured by the rotation angle measuring device, the process before step S203 is performed. Then, the angle ⁇ B is measured and output to the module communication unit 19.
  • step S203 it is not always necessary to transmit all the measurement data after both the processing in steps S201 and S202, and the data acquired in each step after each of the steps S201 and S202 is completed. May be transmitted to the surveying device 50.
  • the measurement data transmitted from the measurement module 10 is received in the surveying instrument 50, at step S106, the calculation control unit 64, based on the measurement data and the measurement point direction angle theta T, measuring point coordinate P ( X, Y, Z).
  • the calculation control unit 64 based on the measurement data and the measurement point direction angle theta T, measuring point coordinate P ( X, Y, Z). The calculation of the measurement point coordinates will be described later in detail.
  • step S107 the surveying device 50 displays the measurement point coordinates P (X, Y, Z) obtained by the calculation on the display unit 63, and ends the measurement.
  • FIG. 9 is a flowchart of angle detection in the angle detection system 90, showing an example of processing corresponding to steps S103 and S104 described above.
  • the surveying device 50 performs the following operation.
  • step S301 the reading light transmitting unit 69 transmits the reading light.
  • step S302 the camera 55 captures a landscape image around the encoder pattern unit 13.
  • step S303 the encoder pattern reading unit 65 recognizes the range 81 of the encoder pattern unit 13 from the acquired image and cuts it out into a rectangle (FIG. 10B).
  • step S304 the encoder pattern reading unit 65 linearly reads the image of the range 81 of the encoder pattern unit 13 cut out in step S302 in the circumferential direction of the encoder pattern 13B. For example, as shown in FIG. 10B, a linear read is performed at the positions I to V and converted into pixel values.
  • the same polarizing filter 55C as the second polarizing filter 130b is disposed on the front surface of the image sensor 55B of the camera 55. Therefore, of the light transmitted from the reading light transmitting unit 69 and reflected by the encoder pattern unit 13, the polarization component in the second direction passes through the polarization filter 55C, but the light of the other components is The light is attenuated by the polarization filter 55C.
  • the light reflected by the region 131c constituted by the second polarizing filter 130b and the second band 132b passes through the polarizing filter 55C on the camera 55 side, and the corresponding portion becomes a bright image.
  • the light reflected by the vertical lines 131a and 131b and the first band 132a formed by the first polarizing filter is attenuated by the polarizing filter 55C on the camera 55 side, and the corresponding portion becomes a dark image.
  • pixel rows I to V The result of reading at each of the positions I to V (hereinafter, referred to as “pixel rows I to V”) can be represented, for example, as shown in FIG.
  • the reading interval is determined based on the image of the encoder pattern unit 13 obtained in step S301 and the known information on the encoder pattern unit 13 in advance.
  • the calculated band 132a and the second height of the strip 132b h 1 (FIG. 4 (b)) and the vertical line 131a, the height of 131b h 2 (FIG. 4 (b)) an estimated read interval is high it is smaller than h 1, and is preferably set to a short interval h 3 than half the height h 2. In this way, the angle information section 131 and the width information section 132 can be reliably captured.
  • step S305 the reading result of the width information section 132 is extracted from the reading result of step S304. Specifically, a portion having a pixel value smaller than a predetermined threshold value is determined as a portion corresponding to the first polarization filter 130a, and a portion having a pixel value larger than the predetermined threshold value is determined as a second portion. Judgment is made as a portion corresponding to the polarization filter 130b, and a pixel row in which at least one of a dark portion and a bright portion is continuous with a certain length is judged as a reading result of the width information section 132.
  • the pixel columns I and II correspond to the width information section 132 in FIG.
  • a center position A of the encoder pattern 13B is specified as a position at which L is bisected.
  • step S306 a correlation between pixel rows is calculated from the linear reading result in step S304, and a pixel having a correlation higher than a predetermined value is extracted as a reading result of the angle information unit 131.
  • the pixel columns III to V have high correlation in the pattern of the pixel values. Therefore, it can be understood that the pixel rows III to V are the read results of the angle information unit 131.
  • the average value is calculated by adding the extracted pixel values of the pixel rows III to V in the vertical direction.
  • a portion where the result is smaller than a predetermined threshold value is determined as a vertical line, and the width of each vertical line is obtained.
  • vertical line 131b Read as vertical line 131b.
  • the vertical line widths w 1 and w 2 and the pitch p are observed to be narrower as the distance from the center becomes smaller.
  • the vertical line 131b 1 of the wide near the center is substantially equal to the width the width w 2a is, the width (actual width) of the wide vertical line 131b shown in FIG. 4 (b) and w 2 Observed in.
  • the vertical line 131b 2 farthest wide from the center portion has a width w 2b is observed narrower than the actual width w 2.
  • the width w 1 and a pitch p are preferably the range of variation of the width w 1 and a width w 2 in consideration of the influence of the width observed by the arrangement is changed is set so as not to overlap.
  • step S307 in which the direction angle calculation unit 66 determines the bit pattern of the region of the predetermined width R extending right and left around the center position A of the encoder pattern 13B obtained in step S305, that is, the region of the predetermined width R. Is compared with the bit pattern indicated by a vertical line of a predetermined number of bits (for example, 10) included in the pattern pattern and the correlation between the bit pattern and the angle stored in the storage unit 61, thereby obtaining the reference direction RD of the encoder pattern 13B. , That is, the direction angle ⁇ T of the surveying device 50 with respect to the reference direction RD (the process then proceeds to step S105).
  • a predetermined number of bits for example, 10
  • the extraction of the angle information unit 131 in step S306 is performed by calculating the frequency spectrum of each pixel row from the result of reading the circumferential linear image in step S304. May be performed by extracting the pixel row as the data of the angle information unit 131 when the location of the peak at the frequency of corresponds to the pitch p of the black vertical line indicating the bit pattern.
  • the polarization filter 55C on the camera 55 side may be constituted by the first polarization filter 130a instead of the second polarization filter 130b of the encoder pattern 13.
  • the pixel row obtained by reading in step S304 is turned upside down as shown in FIG. 10C, so that a portion where the pixel value is larger than a predetermined threshold value is determined as a vertical line, and each vertical line is determined. May be set so as to obtain the width.
  • the camera 55 is configured to have an automatic zoom function, and switches the focal length to the wide-angle side or the narrow-angle side according to the size of the encoder pattern unit 13 recognized as a subject in step S101, and
  • the configuration may be such that the size of the image of the pattern 13B is constant regardless of the distance.
  • the encoder pattern unit 13 is attached to a measurement object at a distance, the encoder pattern 13B is read by the camera 55 provided in the surveying device 50, and the surveying device 50 is read.
  • the angle of the object to be measured is remotely measured without mounting a relatively complicated angle detecting device body including a light emitting device, an image sensor, etc. to the object to be measured, since the angle is calculated by the arithmetic control unit 64. can do.
  • the angle between the reference direction of the encoder pattern 13B and the object to be measured is known or measurable in advance, so that the relationship between the angle between the surveying device and the object to be measured can be measured remotely. It is also possible.
  • the measurement module 10 including the distance measuring device 14 as the measurement target includes the module communication unit 19, but simply includes the direction angle of the surveying device with respect to the reference direction of the encoder pattern 13B. in case you want to know theta T, can be measured angles in real time without such a communication means is also needed.
  • the encoder pattern portion 13 is attached to the outside of the object to be measured, the attachment is easy. Furthermore, since the encoder pattern section 13 has a simple structure, it is easy to manufacture.
  • FIG. 11A is a diagram showing the relationship between the center O of the reflection target 11, the base point R of the distance measuring device 14, and the measurement point P on a vertical plane passing through the center O of the reflection target and the surveying device 50.
  • FIG. 11B is a diagram showing the relationship between the center O of the reflection target 11 on the horizontal plane, the base point R of the distance measuring device 14, and the measurement point P.
  • the x-axis indicates a horizontal direction extending from the base point R of the distance measuring device 14 toward the surveying device 50
  • the y-axis indicates a horizontal direction orthogonal to the x-axis
  • the z-axis indicates the central axis of the support member 12.
  • a direction that is, a vertical direction.
  • the measurement of the relationship between the horizontal angle, the vertical angle, and the distance between the reflection target and the measurement point is performed at the same time as the measurement of the reflection target, and based on the result, In this case, the correction calculation is automatically performed, so that even when the measurement point cannot be directly collimated from the surveying device, the coordinates can be confirmed in real time at the surveying site.
  • FIG. 12 is a perspective view of an encoder pattern section 13a according to a modification of the above embodiment.
  • the encoder pattern unit 13a and the width information unit 132 are not provided.
  • the width information section 132 is not essential, and the width information section 132 may not be provided.
  • the vertical line 131a of the angle information unit 131 at intervals shorter than half the height h 2 of the 131b, performs linear reading the horizontal, resulting from the result, the left and right encoder pattern 13Ba May be detected to determine the center of the encoder pattern 13Ba.
  • the width information section 132 is provided as shown in FIG. 4, for example, the background of the encoder pattern section 13 is bright or dark, and the boundary between the encoder pattern 13B and the background is not clear. However, it is advantageous because the center position of the encoder pattern 13B can be accurately obtained.
  • FIG. 13 is a configuration block diagram of a surveying system 200 including an angle detection system 290 according to the second embodiment of the present invention.
  • the surveying system 200 includes the measuring module 10 and the surveying device 250, similarly to the surveying system 100.
  • the surveying device 250 is different in that the surveying device 250 does not include a camera functioning as an information acquisition unit, but includes a scanner 70 instead.
  • the angle detection system 290 includes the encoder pattern unit 13 attached to the distance measuring device 14, the surveying device 250 including the scanner 70, and the arithmetic control unit 264.
  • the scanner 70 includes a light transmitting unit 71 functioning as a reading light transmitting unit, a rotating mirror 72, a mirror rotation driving unit 73, a mirror rotation angle detector 74, a light receiving unit 75, and a control unit 76.
  • a light transmitting unit 71 functioning as a reading light transmitting unit
  • a rotating mirror 72 a mirror rotation driving unit 73
  • a mirror rotation angle detector 74 a mirror rotation angle detector 74
  • a light receiving unit 75 a control unit 76.
  • it is provided above the telescope 2b so as to be able to scan at least around the vertical axis.
  • the scanner 70 transmits, for example, infrared laser light as scan light from the light transmitting unit 71 to the encoder pattern unit 13 and rotationally drives the rotating mirror 72 by the mirror rotation driving unit 73 so that at least the horizontal direction.
  • the scan light is scanned a plurality of times (in the circumferential direction of the encoder pattern section 13), the reflected light from the encoder pattern 13B is received by the light receiving section 75 such as a photodiode, and the received light amount distribution is acquired as scan data. That is, information indicated by the encoder pattern is optically acquired as a received light amount distribution.
  • the control unit 76 of the scanner 70 is electrically connected to the arithmetic control unit 264 of the surveying device 250, and the scanner 70 performs a scan according to the control of the arithmetic control unit 264.
  • the light receiving unit 75 is, for example, a photodiode.
  • a polarization filter 77 that transmits the second polarization component and attenuates other components, which is the same as the second polarization filter 130b that forms the encoder pattern 13B.
  • the arrangement of the polarization filter 77 is such that the light emitted from the light transmitting unit 71, reflected by the encoder pattern 13 and incident on the light receiving surface of the light receiving unit 75. It is sufficient if they are arranged on the optical path of Therefore, it may be arranged on the front surface of an optical system (not shown) provided in the scanner 70 or may be arranged on the front surface of the light transmitter 71.
  • step S401 the scanner 70 scans the encoder pattern unit 13 with a scan light, for example, as shown in FIG. 16A under the control of the encoder pattern reading unit 265.
  • step S402 the light receiving unit of the scanner 70 acquires the received light amount distribution as scan data, and outputs it to the encoder pattern reading unit 65.
  • the light reflected by the encoder pattern 13B the light reflected by the vertical lines 131a and 131b formed by the first polarizing filter 130a and the first band 132a is a polarization component in the first direction. Therefore, the light is attenuated by the polarizing filter 77 of the scanner 70.
  • the light reflected by the region 131c constituted by the second polarization filter 130b and the second band 132b is the second polarization component orthogonal to the first direction, and therefore, passes through the polarization filter 77 of the scanner 70. .
  • the distribution of the received light amount at each of the positions I to V is, for example, as shown in FIG.
  • the obtained received light quantity distribution shows the same behavior as that of the pixel row in the first embodiment. Therefore, the following processing is the same as the processing in steps S305 to S307 in the first embodiment.
  • step S403 a read result of the width information unit 132 is extracted from the received light amount distribution obtained in step S402.
  • step S404 from the received light amount distribution acquired in step S402, a correlation of the received light amount distribution at each width position is calculated, and a value having a correlation higher than a predetermined value is read as a result of reading by the angle information unit 131. Extract.
  • the direction angle calculation unit 66 includes the bit pattern included in the predetermined width R extending right and left around the center position A of the encoder pattern 13B obtained in step S403, that is, included in the region of the predetermined width R.
  • the measurement of the encoder pattern 13B in the reference direction RD is performed. Request direction angle theta T of the device 250 (then, the process proceeds to step S105).
  • the encoder pattern 13B is read using the reflected light of the laser light, so that the amount of received light increases, and sufficient contrast can be obtained even in a long distance or in a measurement in a situation where the amount of light is small. .
  • an angle detection system 390 according to a third embodiment is provided in the same survey system 300 as the survey system 100 according to the first embodiment.
  • the reflective target 11 is included as a component. Since the mechanical configuration of the surveying system 300 and the surveying system 100 are the same, detailed description of the mechanical configuration is omitted.
  • FIG. 18 is a flowchart of angle detection in the angle detection system according to the third embodiment.
  • step S501 the camera 55 acquires the landscape image 80 around the encoder pattern unit 13 including the encoder pattern unit 13, as in step S301.
  • step S502 the encoder pattern reading unit 65 uses the distance measurement data of the reflection target 11 acquired in step S101 and the known dimensions of the encoder pattern unit 13 stored in the storage unit 61 to read the image.
  • the range 81 of the encoder pattern 13B is specified and cut into a rectangle. In this way, an image can be cut out to a size optimal for reading the encoder pattern, and reading accuracy is improved.
  • step S503 the reading direction is set based on the angle measurement data of the reflection target acquired in step S101. This takes into account the effect of the vertical positional relationship between the camera 55 and the encoder pattern section 13 on the appearance of the encoder pattern section 13 that appears in an image.
  • the camera 55 when the camera 55 is located at a position higher than the encoder pattern section 13, the camera 55 is observed to have a downwardly curved shape as shown in FIG. If it is located at a lower position, it will be observed to have a shape that curves upwardly convex as shown in FIG. As a result, the reading may be incomplete or the width of the read pattern may be different.
  • step S503 the calculation is performed based on the angle measurement data obtained in step S101.
  • the side shape of the encoder pattern portion 13 in the image to be obtained is obtained, and the reading direction is set so as to be parallel to the outer periphery of the bottom surface or the top surface corresponding to the side shape. For example, when the image of the encoder pattern section 13 is in a state as shown in FIG. 19A, as shown in Ia to Va in FIG. , Set to read in a curved shape.
  • step S504 the encoder pattern reading unit 65 reads the image of the range 81 of the encoder pattern 13B cut out in step S502 in a linear manner in the circumferential direction of the encoder pattern unit 13.
  • the interval h 3 read the distance data of the reflective targets 11, and the storage unit 61 stored in, based on the size of the encoder pattern 13 is known, the dimensions of the encoder pattern portions and the step S303 similarly It is set to a short interval h 3 than 1/2 small and the height h 2 than the height h 1. In this way, the interval at which the width information section 132 and the angle information section 131 can be reliably captured can be accurately obtained, and the reading accuracy is improved.
  • step S505 the reading result of the width information unit 132 is extracted from the reading result of step S504. Specifically, at least one of the black portion having a pixel value smaller than the predetermined threshold value and the white portion having a pixel value larger than the predetermined threshold value is determined by the distance measurement of the reflection target 11 acquired in step S101. If the pixels are continuous with a length corresponding to the diameter L of the encoder pattern portion calculated from the data and the dimensions of the known encoder pattern portion, it is determined that the pixel row corresponds to the width information portion 132.
  • step S506 a pixel row corresponding to the angle information unit 131 is extracted from the read result in step S504, as in step S305.
  • step S507 the in the same manner as in step S306, the direction angle calculating section 66 calculates the direction angle theta T of the surveying device 50 with respect to the reference direction RD of the encoder pattern 13B (then the process proceeds to step S105) .
  • the angle detection system is provided with the reflection target and the total station is used as the surveying device, it is possible to set the image cutting, reading direction, and the like based on the distance measured by the total station. The accuracy is improved.
  • the camera 55 further includes a narrow-angle camera sharing the optical system with the optical system of the surveying unit, as disclosed in Japanese Patent Application Laid-Open No. 2016-138802, and the distance measurement acquired by the surveying unit.
  • the camera 55 and the narrow-angle camera may be configured to be switchable according to the distance of the reflection target 11 calculated based on the data.
  • a scanner 70 may be used in place of the camera 55, as in the second embodiment.
  • FIG. 20 is a diagram illustrating a configuration of an angle information unit 431 of an encoder pattern of an angle detection system (not shown) according to a fourth embodiment.
  • the mechanical configuration of the angle detection system according to the present embodiment is the same as that of the angle detection system 90 according to the first embodiment, except for the angle information unit 431 of the encoder pattern, and a detailed description thereof will be omitted.
  • the angle information unit 431 includes a reflector layer 420 disposed on the outer peripheral side surface of the base 413A and an encoder pattern layer 430 disposed on the reflector layer 420 in the cross-sectional structure. Is provided.
  • the material of the reflective material layer 420 a commercially available retroreflective sheet or the like, similar to the first embodiment, can be used.
  • the reflector layer 420 is configured by combining two types of reflectors 420a and 420b.
  • the reflection materials 420a and 420b have different reflectivities due to, for example, a difference in a resin layer for protecting the surface.
  • the former has a lower reflectivity and the latter has a higher reflectivity.
  • the encoder pattern layer 430 includes a first polarization filter 430a that transmits a polarization component in a first direction and a polarization component in a second direction orthogonal to the first direction, as in the first embodiment.
  • the transmitting second polarization filters 430b are arranged at an equal pitch p so as to be continuous in the circumferential direction with the same width.
  • a polarization filter 55C which is the same as the second polarization filter 430b, is disposed on the front surface of the image sensor 55B of the camera 55, as in the first embodiment.
  • the pixel value of the image acquired by the camera 55 is determined according to the combination of the reflection material of the reflection material layer 420 and the polarization filter of the encoder pattern layer 430, as shown in Table 1 and FIG. Indicates a value.
  • the encoder pattern is formed by the combination of the reflection material and the polarization filter, the effect that the angle of the measurement object can be remotely measured can be obtained as in the first embodiment.
  • two values can be assigned to one pitch, so that the read width R can be shortened even at the same resolution as compared to the case where one value is assigned to one pitch. . That is, since an area near the center axis A of the encoder pattern portion can be read, it is less likely to be affected by the change in the pitch or width of the observed pattern depending on the arrangement, based on the shape of the encoder pattern portion. Moreover, since the pitch is not reduced, there is no adverse effect on the reading accuracy due to the fine pattern.
  • FIG. 21 is a diagram illustrating a configuration of an angle information unit 531 of an encoder pattern 513B of an angle detection system (not shown) according to a fifth embodiment.
  • the mechanical configuration of the angle detection system according to the present embodiment is the same as that of the angle detection system 90 according to the first embodiment except for the angle information unit 531, and a detailed description thereof will be omitted.
  • the encoder pattern layer 530 of the angle information unit 531 transmits a polarization component in a first direction and attenuates a polarization component in a second direction orthogonal to the first direction. It is composed of a first polarization filter and a second polarization filter that transmits through the polarization filter in the second direction and attenuates the polarization component in the first direction.
  • the first polarization filter 530a narrow having a width w 2 which corresponds to the vertical line of the narrow having a width w 1
  • the first polarization filters 530a corresponding to the vertical lines are arranged at an equal pitch p, and the second polarization filters are arranged between the first polarization filters.
  • the reflector layer 520 is composed of two types of reflectors 520a and 520b having different reflectivities, like the reflector layer 420.
  • the former has a lower reflectance and the latter has a higher reflectance.
  • the reflecting material is arranged such that either the reflecting material 520a or 520b is disposed below the second polarizing filter 530b and the first polarizing filter 530a of the encoder pattern layer 530. Has become.
  • the same polarization filter 55C as the first polarization filter 530a is arranged, contrary to the fourth embodiment.
  • the pixel value of the image acquired by the camera 55 is determined according to the combination of the reflection material of the reflection material layer 520 and the polarization filter of the encoder pattern layer 530, as shown in Table 2 and FIG. Indicates a value.
  • the first polarizing filters 530a arranged at the same pitch p have a and b2 pixel values. Further, since the first polarizing filter 530a is having two kinds of widths of w 1, w 2, the combination of the width and the pixel value, shown in FIG. 21 (d), there is a pattern of four kinds. Therefore, first, an M-sequence bit pattern based on four values of bits “0”, “1”, “2”, and “3” is generated so as to correspond to the angle of the encoder pattern from the reference direction.
  • the angle information unit 531 of the encoder pattern can also be configured by combining the polarizing filters having different widths and the reflecting materials having different reflection intensities. Similar effects can be obtained.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Transform (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

遠隔にある測定対象物の角度を測定することができる技術を提供する。角度検出システム(90)は、測定対象物(14)に取り付けられるエンコーダパターン部(13)と、測量装置(50)とを備える。エンコーダパターン部(13)は、円柱形状のベース(13A)、およびベース(13A)の外周側面に設けられて、所定の基準方向に対する周方向の角度を示すエンコーダパターン(13B)を備え、エンコーダパターン(13)は、入射した光を再帰反射する反射材層(120)と、反射材層(120)の前面に配置されたエンコーダパターン層(130)とを備え、該エンコーダパターン層(130)は、第1の方向の偏光成分を透過する第1の偏光フィルタ(130a)と、第1の方向とは異なる第2の方向の偏光成分を透過する第2の偏光フィルタ(130b)との組み合わせにより構成され、測量装置(50)は、エンコーダパターン(13B)に向けて読取光を出射する読取光送光部(69)と、エンコーダパターン(13)が示す情報を、光学的に取得する情報取得部(55)と、情報に基づいて、基準方向に対する測量装置(50)の角度(θ)を演算する演算制御部(64)と、前記読取光送光部(69)から出射され、前記エンコーダパターン(13B)で反射されて前記情報取得部(55)の受光面に入射する光の光路上に配置された第1のまたは第2の偏光フィルタ(55B)を備える。

Description

角度検出システムおよび角度検出方法
 本発明は、角度検出システムおよび角度検出方法に関し、より詳細には、測量に用いられる角度検出システムおよび角度検出方法に関する。
 従来、絶対角を測定する角度検出装置としてアブソリュートエンコーダが知られている。(例えば、特許文献1参照)。装置に内蔵された円盤に、グレイコードや、M系列コードの規則に従った、スリット等の目盛り模様、いわゆる、アブソリュートエンコーダパターン、を設け、スリットに照射した光の像をイメージセンサ等で受光し、イメージセンサにより得られた像から角位置を演算する。
 このような角度検出装置では、円盤に対して同軸に接続された入力軸の回転の変位に対応する角位置を測定する。このため、測定対象物に、円盤、発光素子、受光素子および制御部を備える角度検出装置本体を直接取り付けて測定を行う必要がある。
特開平05-172588号公報
 しかし、測量の現場では、遠隔にある測定対象物の角度を測定したい場合がある。例えば、建設などの現場で、鉄骨などの部材を遠隔で操作して、指定の方向に設置したい場合などである。このため、遠隔にある測定対象物の角度を測定することができる角度検出装置の提案が求められていた。
 本発明は、かかる事情を鑑みてなされたものであり、遠隔にある測定対象物の角度を測定することができる技術を提供することを目的とする。
 上記目的を達成するために、本発明の一つの態様に係る角度検出システムは、測定対象物に取り付けられるエンコーダパターン部と、測量装置とを備える角度検出システムであって、前記エンコーダパターン部は、円柱形状のベース、および該ベースの外周側面に設けられて、所定の基準方向に対する周方向の角度を示すエンコーダパターンを備え、前記エンコーダパターンは、入射した光を再帰反射する反射材層と、該反射材層の前面に配置されたエンコーダパターン層を備え、該エンコーダパターン層は、第1の方向の偏光成分を透過する第1の偏光フィルタと、第1の方向とは異なる第2の方向の偏光成分を透過する第2の偏光フィルタとの組み合わせにより構成され、前記測量装置は、前記エンコーダパターンに向けて読取光を出射する読取光送光部と、前記エンコーダパターンが示す情報を、光学的に取得する情報取得部と、前記情報に基づいて、前記基準方向に対する前記測量装置の角度(θ)を演算する演算制御部と、前記読取光送光部から出射され、前記エンコーダパターンで反射されて前記情報取得部の受光面に入射する光の光路上に配置された第1のまたは第2の偏光フィルタを備えることを特徴とする。
 上記態様において、前記角度情報部は、前記第1のおよび第2の偏光フィルタをエンコーダパターン部の外周側面に周方向に配置することによりビットパターンを示し、前記演算制御部は、光学的に取得した前記情報を前記エンコーダパターンの周方向に読取り、読取り結果をビットパターンに変換し、前記読取りの結果から前記エンコーダパターンの中央位置を特定し、該中央位置を中央とする所定の領域に含まれる前記ビットパターンを、予め設定されたビットパターンと角度との相関と対比することにより、角度を演算することも好ましい。
 また、上記態様において、前記角度情報部は、前記第1の偏光フィルタを、広狭2種類の幅の縦線として、M系列により生成されたビットパターンを示すように周方向に配置し、各縦線の間に第2の偏光フィルタを配置したバーコード状のパターンであることも好ましい。
 また、上記態様において、前記反射材層は、反射率の異なる第1のおよび第2の反射材を周方向に配置することにより構成され、前記第1のおよび前記第2の偏光フィルタと、前記第1のおよび前記第2の反射材との組み合わせによってビットパターンを示すことも好ましい。
 また、上記態様において、前記情報取得部は、前記エンコーダパターンが示す情報を画像として取得するカメラであることも好ましい。
 また、上記態様において、前記情報取得部は、前記エンコーダパターンが示す情報を、前記エンコーダパターンにスキャン光を送光し、前記エンコーダパターンからの反射光を受光して受光光量分布として取得するスキャナであることも好ましい。
 また、上記態様において、前記測定対象物は、前記基準方向に対して周方向に所定の角度(θ)で取り付けられており、前記演算制御部は、前記所定の角度(θ)および前記エンコーダパターンの読取角(θ)に基づいて、前記測定対象物の前記測量装置に対する角度を演算することも好ましい。
 また、本発明の別の態様に係る角度検出方法は、円柱形状のベース、および該ベースの外周側面に配置されて、所定の基準方向に対する周方向の角度を示すエンコーダパターンを備えるエンコーダパターン部と、情報取得部を備える測量装置とを用いて角度を検出する方法であって、(a)前記エンコーダパターン部を前記測定対象物に、エンコーダパターン部の周方向に所定の角度で取り付ける工程、(b)前記エンコーダパターンに向けて読取光を出射する工程、(c)前記情報取得部が、前記エンコーダパターンが示す情報を、光学的に取得する工程および(d)(c)工程により取得された情報に基づいて、前記測量装置の、前記基準方向に対する方向角を演算し、前記エンコーダパターンは、入射した光を再帰反射する反射材層と、該反射材層の前面に配置されたエンコーダパターン層を備え、該エンコーダパターン層は、第1の方向の偏光成分を透過する第1の偏光フィルタと、第1の方向とは異なる第2の方向の偏光成分を透過する第2の偏光フィルタとの組み合わせにより構成され、前記測量装置は、前記読取光送光部から出射され、前記エンコーダパターンで反射されて前記情報取得部に入射する光の光路上に配置された第1のまたは第2の偏光フィルタを備えることを特徴とする。
 なお、本明細書において、「エンコーダパターン」は、基準点を0°とする角度情報を有する模様であって、偏光により検出可能な模様を含む。
 また、本明細書において、用語「エンコーダパターンの基準方向」は、エンコーダパターンの基準点(0°)の方向を意味する。
 また、本明細書において、用語「測量装置の、エンコーダパターンの基準方向に対する周方向の角度」は、「エンコーダパターンの0°の方向に対する、エンコーダパターン部の中心と測量装置を結ぶ直線の間の角」を意味し、この角度が、エンコーダパターンを読取ることにより得られる「エンコーダパターンの読取角」である。
 上記構成によれば、遠隔にある測定対象物の角度を測定することができる。
本発明の第1の実施の形態に係る角度検出システムおよび該角度検出システムを備える測量システムの構成ブロック図である。 同形態の角度検出システムを備える測量システムの外観概略図である。 上記測量システムに係る計測モジュールの斜視図である。 (a)は、同形態の角度検出システムに係るエンコーダパターン部の拡大斜視図であり、(b)は、該エンコーダパターン部の断面構造を示す図であり、(c)は、該エンコーダパターン部のエンコーダパターンを基準点で切り開いて平面に展開した図(一部を省略している)である。 (a)~(c)は、同形態の角度検出システムのエンコーダパターン部の製造方法を説明する図である。 上記計測モジュールの平面図である。 (a)~(c)は、同形態の角度検出システムのカメラの構成の例を示す図であり、(c)は、読取光送光部を含む図である。 上記測量システムによる測定点の測定動作のフローチャートである。 同形態の角度検出システムを用いた角度検出のフローチャートである。 (a)は、同形態の角度検出システムのカメラにより取得したエンコーダパターン部周辺の風景画像であり、(b)は、(a)より切り出されたエンコーダパターン部の拡大画像であり、(c)は、(b)を周方向に線状に読み込んで、画素値に変換した結果を示すグラフである。 (a)および(b)は、上記測量システムを用いて視通のない測定点を測定する場合の、反射ターゲットと測定点との位置関係を説明する図である。 本形態の角度検出システムの1つの変形例に係るエンコーダパターンの斜視図である。 本発明の第2の実施の形態に係る角度検出システムおよび該角度検出システムを備える測量システムの構成ブロック図である。 同角度検出システムのスキャナの構成を示すブロック図である。 同角度検出システムを用いた角度検出のフローチャートである。 (a)は同角度検出システムのスキャン方向を説明する図であり、(b)はスキャンにより得られる受光光量分布を示すグラフである。 本発明の第3の実施の形態に係る角度検出システムおよび該角度検出システムを備える測量システムの構成ブロック図である。 同形態に係る角度検出システムを用いた角度検出のフローチャートである。 (a)~(c)は、同角度検出システムのカメラによる読込み方向を説明する図である。 本発明の第4の実施の形態に係る角度検出システムのエンコーダパターンを説明する図であり、(a)は、エンコーダパターン層を、(b)は、反射材層と、(c)は、エンコーダパターン部の断面構造を示す図である。(d)は(c)に示す、エンコーダパターン部に対応する画像を画素値に変換した結果を示す図である。 本発明の第5の実施の形態に係る角度検出システムのエンコーダパターンを説明する図であり、(a)は、エンコーダパターン層を、(b)は、反射材層と、(c)は、エンコーダパターン部の断面構造を示す図である。(d)は(c)に示す、エンコーダパターン部に対応する画像を画素値に変換した結果を示す図である。
 本発明の好適な実施の形態について、図面を参照しながら説明する。以下の実施の形態の説明において、同一の構成には同一の符号を付し、重複する説明を省略する。なお、各図において、説明の便宜上構成部品は適宜拡大して模式的に示しており、実際の比率を反映したものではない。
1. 第1の実施の形態
1-1. 角度検出システムの構成
 第1の実施の形態に係る角度検出システム90の構成を図1~4を参照しながら説明する。角度検出システム90は、測量システム100に備えられている。測量システム100は、計測モジュール10と測量装置50とを備える。角度検出システム90は、測定対象物である、距離測定器14の角度を測定するシステムであり、計測モジュール10のエンコーダパターン部13と、測量装置50とで構成される。
 測量システム100は、測量装置50から視通のない測定点Pを測量するためのシステムである。図2、3に示すように、測量装置50から視通のない測定点P場合、仮の測定点として、測量装置50から視通のある点Qを設定し、点Qに支持部材12の先端12Aを当接させつつ支持部材12の鉛直状態を確保し、距離測定器14を両矢印Bの方向に伸縮させて先端14Aを測定点Pに当接させ、反射ターゲット11の測定を行う。
 図2,3に示すように、計測モジュール10は、反射ターゲット11を支持する支持部材12を備え、該支持部材12にエンコーダパターン部13、距離測定器14、傾斜角測定器15、水準器16、制御部17、入力部18、およびモジュール通信部19が取り付けられている。
 反射ターゲット11は、例えば、複数の三角錐状のプリズムを放射状に組み合わせて構成された、いわゆる全方位プリズムであり、その全周(360°)から入射する光を、その入射方向と反対の方向に反射する。すなわち、反射ターゲット11は、測量装置50からの測距光を、測量装置50に向けて反射する。しかし、反射ターゲット11は、全方位プリズムに限定されず、測量用に用いられる通常のプリズムを使用してもよい。
 支持部材12は、一定の長さをもって延びるポールであり、その中心軸Aが、反射ターゲット11の中心Oを通るように、反射ターゲット11を固定支持している。
 エンコーダパターン部13は、短尺円柱形状のベース13Aの側周面に、エンコーダパターン13Bを設けることにより構成されている。
 ベース13Aは、例えば、金属製または樹脂製の成形体である。また、ベース13Aは、支持部材12の中心軸Aと同軸になるように、例えば、支持部材12の外周に形成されたねじ部(図示せず)と、ベース13Aの中心に形成されたねじ穴(図示せず)を螺合させる等の手段により、支持部材12と反射ターゲット11の間に固定されている。従って、エンコーダパターン部13は、支持部材12を介して、測定対象物である距離測定器14に取り付けられている。
 図4で、エンコーダパターン13Bは、角度情報を示す角度情報部131と、角度情報部131の上方に隣接し、エンコーダパターン部の幅を示す幅情報部132とを備える。
 図4(b)は、エンコーダパターン部13の外周側面の断面構造を示す。エンコーダパターン部13は、断面構造において、ベース13Aの外周側面の上に配置された反射材層120と、反射材層120の上に配置されたエンコーダパターン層130とを備える。
 反射材層120は、例えば、反射膜、ガラスビーズ、および合成樹脂を含み、入射した光を光源に向けて再帰反射する特性を有する反射物質層である。具体的には、市場で入手可能な、反射プリズム型、封入レンズ型、プリズムレンズ型等公知の反射シートを反射材層として用いることができる。
 エンコーダパターン層130は、第1の方向の偏光成分を透過し、その他の成分を減衰する第1の偏光フィルタ130a、および第1の方向とは異なる第2の方向の偏光成分を透過し、その他の成分を減衰する第2の偏光フィルタ130bの2種類の偏光フィルタの組み合わせにより、角度情報および幅情報に対応するパターンを形成した層である。ここで、第2の方向は第1の方向と直交する方向であることが好ましいが、これに限定されない。
 なお、偏光フィルタの材料としては、例えば、ポリビニールアルコール(PVA)フィルムに、ヨウ素化合物分子を吸着配向させて調製した偏光フィルムを用いることができる。
 角度情報部131のパターンについて説明する。一例として図4(c)に示すように、角度情報部131は、幅wを有する狭幅の縦線131aと、幅wを有する広幅の縦線131bとを、縦線131aを「0」、縦線131bを「1」として、M系列の循環乱数コードを生成し、これを等ピッチpで配置したバーコード状のパターンとなるように、縦線131a,131bに相当する部分に、第1の偏光フィルタ130aを、各縦線の間に第2の偏光フィルタ130bを配置したものである。また、1周が循環乱数の1周期未満となるように設定されている。
 エンコーダパターン部13は、エンコーダパターン部13の中心から基準点RPへの方向(以下、「エンコーダパターンの基準方向」という。)RDを0°として、測量装置50により読み取ったパターンから算出する角度(以下、「エンコーダパターンの読取り角」という。)が、測量装置50の、基準方向RDに対する周方向の角度θT、すなわち基準方向RDと測量装置50からエンコーダパターン部の中心軸Aを結ぶ直線との間の絶対角度に対応するように構成されている。
 角度情報部131は、そのビット数を変更することにより、所望の分解能を実現可能に構成されている。
 なお、ビットパターンは、M系列コードに限らず、グレイコード、純2進バイナリコードなどのビットパターンを用いることができ、これらは、公知手法により生成することができる。しかし、M系列コードを用いると、トラック数を増やさずにビット数を増大することができ、簡単な構成で、高い分解能を実現することができるため有利である。
 一方、幅情報部132は、所定の高さhを有する第1の帯132aと、同高の第2の帯132bとを備える。第1の帯132a、第2の帯132bは、それぞれ第1の偏光フィルタ130a、第2の偏光フィルタ130bで構成されている。また、第1の帯132a、第2の帯132bはそれぞれエンコーダパターン部13の周方向の全周に亘り延びて、側面から観察した際に、エンコーダパターン部13の幅を示す。
 また、エンコーダパターン部13は、図5(a)~(c)に示すように製造される。
 (a)まず、短尺の円筒形状のベース13Aを用意する。
 (b)次に、ベース13Aの外周側面の全周に、反射材層120として、反射シートを貼付する。一方、偏光フィルタ130aおよび130bを上述の通り配置したエンコーダパターン層130を準備する。エンコーダパターン層130は、ポリエチレンテレフタラート(PET)層などの保護層を備えてもよい。
 (c)最後に、エンコーダパターン13Bを、反射材層120の外側にPVA系等の接着剤で貼付して、エンコーダパターン部13を形成する。
 なお、図示の例では、幅情報部132は角度情報部131の上方に隣接して配置されている。しかし、角度情報部131と幅情報部132の位置関係は、これに限定されず、幅情報部132が角度情報部131の下方に配置されていてもよい。
 また、エンコーダパターン部13は、反射ターゲット11の下方に隣接して配置されている(図3)。しかし、エンコーダパターン部13と反射ターゲット11との位置関係は、これに限定されず、エンコーダパターン部13が反射ターゲット11の中心Oを通る支持部材12の中心軸Aと同軸となるように配置されていれば、他の配置であってもよい。
 すなわち、エンコーダパターン部13が反射ターゲット11の上方に配置されていてもよい。また、エンコーダパターン部13と反射ターゲット11とが離間して配置されていてもよい。
 距離測定器14は、デジタル式の測定棒である。距離測定器14は、図3の両矢印Bの方向に伸縮自在に構成されている。また、距離測定器14は、支持部材12の中心軸A上の点Rを基点として、点Rを通る水平なH1軸周りに図2の両矢印Cの方向に回動可能に支持部材12に取り付けられている。距離測定器14は、その基点Rと先端14Aとの間の距離、すなわち基点Rと測定点Pとの間の距離lを測定可能であり、測定結果をモジュール通信部19へ出力する。
 また、距離測定器14の基点Rと反射ターゲット11の中心Oとの間の距離dは予め既知とされている。さらに、距離測定器14の、エンコーダパターン13Bの基準方向RDに対する、支持部材12の中心軸A周りの角度θ(図6参照)は、距離測定器14を支持部材12に組み付けた時点で測定され、予め既知とされている。
 あるいは、距離測定器14を、支持部材12の中心軸A回りに回転可能に取付け、ロータリ-エンコーダなどの回転角測定器を取り付けて、測定可能に構成されていてもよい。
 この場合、回転角測定器の0°に対応する方向と、距離測定器14を支持部材12に組み付けた際の基準方向RDとの、支持部材12の中心軸回りの角度は、距離測定器14を組み付けた際に求められ、補正値として、回転角測定器に設定する。このように、回転角測定器22は、距離測定器14の、エンコーダパターン13Bの基準方向RDに対する支持部材12の中心軸A周りの角度θを測定可能とする。また、回転角測定器の測定データは、モジュール通信部19に出力可能とする。
 距離測定器14は、距離lの測定結果をモジュール通信部19へ出力する際、併せて反射ターゲット11の中心Oと距離測定器14の基点Rとの間の距離d、および距離測定器14の支持部材12の中心軸A周りの角度θのデータをモジュール通信部19へ出力する。
 傾斜角測定器15は、傾斜センサであり、たとえば、水平液面に検出光を入射させてその反射光の反射角度の変化で水平を検出する傾斜センサ、あるいは封入した気泡の位置変化で傾斜を検出する電子気泡管を用いることができる。
 傾斜角測定器15は、距離測定器14と平行に距離測定器14に取り付けられている。傾斜角測定器15は、距離測定器14の水平面(図3のH1-H2平面)に対する距離測定器14の傾斜角(すなわち鉛直方向の角度)φを測定し、測定結果をモジュール通信部19に出力する。
 水準器16は、例えば、円柱状の容器に気泡と液体とを封入した気泡管である。水準器16は、気泡が中央の標線内に位置することで、支持部材12の中心軸Aの鉛直状態を確認し得るように、支持部材12に取り付けられている。
 制御部17は、例えばMPU(Micro・Processing・Unit)である。制御部17は、距離測定器14、傾斜角測定器15、入力部18、およびモジュール通信部19と接続されている。接続は無線通信の手段によりなされていてもよい。制御部17は、入力部18から入力された測定実行等の指示に従って、距離測定器14および傾斜角測定器15の測定を実行する。また、計測データを、モジュール通信部19を介して測量装置50に送信する。
 入力部18は、例えば、ボタンスイッチであり、作業者Uが押圧等することにより、電源ON/OFFや、測定開始等の指示を入力する。
 モジュール通信部19は、計測モジュール10と測量装置50との間での無線通信を可能とする。モジュール通信部19は、計測モジュール10で取得される計測データを測量装置50の通信部57に送信する。
 なお本明細書において、計測データは、距離測定器14で取得される距離測定器14の基点Rと測定点Pとの間の距離l、傾斜角測定器15で取得される水平面に対する距離測定器14の傾斜角φ、ならびに予め既知とされている反射ターゲット11の中心Oと距離測定器14の基点Rとの距離d、および距離測定器14のエンコーダパターン13Bの基準方向RDに対する支持部材12の中心軸A周りの角度θを含む。
 なお、制御部17、入力部18、モジュール通信部19は、図示の例のように計測モジュール10の支持部材に適宜の形態で取り付けられていてもよく、また、リモートコントローラのように別体として構成されていてもよい。
 次に測量装置50について説明する。
 図2に示すとおり、測量装置50は、三脚を用いて既知の点に据え付けられており、下方から、整準部、該整準部の上に設けられた基盤部、該基盤部の上を水平回転する托架部2aと、托架部2aの中央で鉛直回転する望遠鏡2bとを有する。
 測量装置50は、トータルステーションである。図1に示す通り、測量装置50は、EDM51、水平角検出器52、鉛直角検出器53、カメラ55,追尾部56、通信部57、水平回転駆動部58、鉛直回転駆動部59、記憶部61、入力部62、表示部63、演算制御部64、および読取光送光部69を備える。EDM51、水平角検出器52、鉛直角検出器53、カメラ55,追尾部56、通信部57、水平回転駆動部58、鉛直回転駆動部59、記憶部61、入力部62、および表示部63、読取光送光部69は、演算制御部64に接続されている。
 水平角検出器52、鉛直角検出器53、通信部57、水平回転駆動部58、鉛直回転駆動部59、記憶部61、および演算制御部64は托架部2aに収容されている。入力部62および表示部63は托架部2aの外部に設けられている。EDM51、および追尾部56は、望遠鏡2bに収容されており、カメラ55は、望遠鏡2bの上部に取り付けられている。
 EDM51は、発光素子、測距光学系および受光素子を備える。EDM51は、発光素子から測距光を出射し、反射ターゲット11からの反射光を受光素子で受光して、反射ターゲット11を測距する。
 水平角検出器52および鉛直角検出器53は、ロータリーエンコーダであり、後述する水平回転駆動部58および鉛直回転駆動部59でそれぞれ駆動される托架部2aおよび望遠鏡2bの回転軸周りの回転角度を検出し、視準光軸Aの水平角および鉛直角を求める。
 EDM51、水平角検出器52、および鉛直角検出器53は、測量装置50の要部である測量部54を形成している。
 カメラ55は、情報取得部として機能し、図7に示すように、光学系55Aと、撮像素子55Bと、偏光フィルタ55Cとを備える。
 光学系55Aは、カメラとして公知の光学系である。撮像素子55Bは、例えば、CCDセンサやCMOSセンサ等のイメージセンサである。偏光フィルタ55Cは、エンコーダパターン部13の第2の偏光フィルタ(130b)と同じ、第2の方向の偏光成分を透過する偏光フィルタである。
 偏光フィルタ55Cは、読取光送光部69から出射され、エンコーダパターン13で反射されて撮像素子55Bの受光面55Bに入射する光の光路上に配置されている。従って、偏光フィルタ55Cは、図7(a)に示すように、撮像素子55Bの受光面55Bの前面に配置されていてもよく、また、図7(b)に示すように、光学系55Aの前面に配置されていてもよい。あるいは、図7(c)に示すように、読取光送光部69の前面に配置されていてもよい。
 カメラ55は、その光学系55Aを通して撮像素子55Bで光を受光し、その光の像を画像として取得する。したがってカメラ55は、エンコーダパターン13Bが示す情報を、画像として光学的に取得する。撮像素子55Bは、演算制御部64に接続されており、取得した画像をデジタルデータに変換して、演算制御部64に出力する。
 また、カメラ55は、望遠鏡2bの上部に、望遠鏡2bと平行に取り付けられている。また、カメラ55は、望遠鏡2bで反射ターゲット11を視準している状態で、反射ターゲット11との位置関係が固定されているエンコーダパターン部13を視準するように構成されている。このために、カメラ55が、回転駆動部を備え、演算制御部64の制御に従って、撮影をおこなう際に上下左右に回動可能に構成されていてもよい。
 読取光送光部69は、発光素子を備え、EDM51と光学系を共有し、エンコーダパターン部13に向けて光を出射する。
 追尾部56は、追尾光を出射する発光素子、および例えばCCDセンサやCMOSセンサ等のイメージセンサである受光素子を備え、測距光学系と光学要素を共有する追尾光学系を備える。追尾部56は、測距光とは異なる波長の赤外レーザ光を追尾対象物(ターゲット)に投射し、該追尾対象物からの反射光を受光し、受光結果に基づいて追尾対象物の追尾を行う様に構成されている。
 追尾部56は、追尾機能を必要としない場合には必須ではなく省略することができる。また、追尾部56を備える場合には、追尾部56にカメラ55の機能を組み込み、独立したカメラ55を省略することもできる。
 通信部57は、計測モジュール10のモジュール通信部19との無線通信を可能とする。通信部57は、モジュール通信部19から、計測データを受信する。
 水平回転駆動部58および鉛直回転駆動部59はモータであり、演算制御部64に制御されて、それぞれ托架部2aを水平回転させ、望遠鏡2bを鉛直回転させる。
 記憶部61は、ROM(Read・Only・Memory)およびRAM(Ramdam・Access・Memory)を備える。
 ROMには、測量装置50全体の動作に必要なプログラムおよびデータを格納する。これらプログラムは、RAMに読み出されて演算制御部64による実行が開始され、測量装置50の各種処理を行う。
 RAMは、反射ターゲット中心点Oの三次元位置座標、測定点Pの三次元位置座標、および測量装置の方向角θを演算するためのデータを一時的に保持する。
 入力部62は、例えば、操作ボタンである。作業者は、入力部62に、測量装置50に実行させるための指令を入力したり、設定の選択を行ったりすることができる。
 表示部63は、例えば、液晶ディスプレイであり、演算制御部64の指令に応じて測定結果、演算結果等種々の情報を表示する。また、入力部62より、作業者が入力を行うための設定情報や作業者により入力された指令を表示する。
 なお、入力部62と表示部63とを一体的に構成して、タッチパネル式ディスプレイとしてもよい。
 演算制御部64は、CPU(Central・Processing・Unit)、GPU(Graphical・Processing・Unit)を備える。演算制御部64は、測量装置50の機能を発揮するための種々の処理を行う。具体的には、回転駆動部58,59を制御し、追尾部56による自動追尾を行う。また、EDM51を制御し、反射ターゲットの測距データを取得する。また、水平角検出器52,鉛直角検出器53の値から、反射ターゲット11の測角データを取得する。また、測距データおよび測角データから、反射ターゲット11の中心Oの三次元位置座標を演算する。また、カメラ55を制御して、画像の取得を行う。
 また、演算制御部64は、機能部として、エンコーダパターン読取部65、方向角演算部66、および測定点座標演算部67を備えている。
 エンコーダパターン読取部65は、カメラ55で取得した画像から、エンコーダパターンを認識し、エンコーダパターン13Bをビットパターンに変換する。
 方向角演算部66は、エンコーダパターン読取部65の読取り結果に基づいて、エンコーダパターン13Bの基準方向RDに対する測量装置50の方向角θを演算する。
 測定点座標演算部67は、計測モジュール10の計測データ、エンコーダパターン13Bの基準方向RDに対する測量装置50の方向角θおよび測距データと測角データから演算される反射ターゲット11の中心Oの三次元位置座標O(x,y,z)から測定点Pの三次元位置座標P(X,Y,Z)を演算する。
 各機能部は、ソフトウェアとして構成されていてもよいし、専用の演算回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部が混在していてもよい。
1-2. 測定点の測量
 図8は、本実施の形態にかかる測量システム100を用いて、測量装置50から視通のない測定点Pについて測量を実施する場合の、測量装置50および計測モジュール10の動作のフローチャートである。
 まず、測定開始ボタンを押す等することにより、視通のない測定点を測定するモードでの測定が開始すると、ステップS101では、測量部54が、反射ターゲット11の中心Oを測定する。
 具体的には、EDM51が反射ターゲット11に向けて測距光を送出し、反射ターゲット11から反射された反射測距光を受光して、測量装置50から反射ターゲット11までの距離を測定する。また、水平角検出器52および鉛直角検出器53が、反射ターゲット11の角度を測定する。
 次に、ステップS102では、演算制御部64が、ステップS101で取得した、距離データおよび角度データに基いて、公知の手法により、反射ターゲット11の中心Oの座標O(x,y,z)を演算する。演算結果は、記憶部61に記憶される。
 次に、ステップS103では、カメラ55が、望遠鏡2bの視準方向の画像を撮像して、計測モジュール10のエンコーダパターン13Bを読み取る。エンコーダパターン13Bの読取りについては後述する。
 次に、ステップS104では、演算制御部64が、ステップS103での、エンコーダパターン部13の読み取り結果に基いてエンコーダパターン13Bの基準方向RDに対する測量装置50の方向角θを演算する。演算結果は記憶部61に記憶される。
 次に、ステップS105で、演算制御部64は計測モジュール10からの計測データの受信を待機する。
 一方、計測モジュール10では、計測モジュール側作業者Uが、測量装置側作業者からの合図などに応じて、計測モジュールの測定開始ボタンを押す等することにより測定が開始する。次に、ステップS201では、距離測定器14が、距離測定器14の基点Rから測定点Pまでの距離lを測定し、測定結果データを、反射ターゲット11の中心Oと距離測定器14の基点Rとの距離d、および支持部材12の中心軸周りの角度θのデータと共に、モジュール通信部19に出力する。
 次に、ステップS202では、傾斜角測定器15が、距離測定器14の基点Rを通る水平面に対する距離測定器14の傾斜角φを測定し、測定結果データをモジュール通信部19に出力する。
 なお、ステップS201,S202の処理は必ずしもこの順で行う必要はなく、同時に行ってもよく、逆の順序で行ってもよい。
 次に、ステップS203では、モジュール通信部19が、計測モジュール10の計測データとして、距離測定器14の基点Rと測定点Pとの間の距離l、水平面に対する距離測定器14の傾斜角φ、反射ターゲット11の中心Oと距離測定器14の基点Rとの間の距離d、および距離測定器14のエンコーダパターン13Bの基準方向RDに対する支持部材12の中心軸A周りの角度θを測量装置50に送信する。
 なお、距離測定器14のエンコーダパターン13Bの基準方向RDに対する支持部材12の中心軸A周りの角度θが固定ではなく、回転角測定器により測定可能となっている場合には、ステップS203以前に、角度θを測定し、モジュール通信部19に出力する。
 また、ステップS203におけるデータの送信は、必ずしもステップS201,S202の両方の処理の後に全ての計測データを送信する必要はなく、ステップS201,S202のそれぞれが終了した後に、各ステップで取得されるデータを測量装置50に送信することとしてもよい。
 そして、計測モジュール10から送信された計測データが、測量装置50に受信されると、ステップS106では、演算制御部64が、計測データおよび測定点方向角θに基いて、測定点座標P(X,Y,Z)を演算する。測定点座標の演算については後で詳述する。
 次に、ステップS107において、測量装置50では、演算により求められた測定点座標P(X,Y,Z)を表示部63に表示して測定を終了する。
1-3. 角度の検出(エンコーダパターンの読取り)
 図9は、角度検出システム90における、角度検出のフローチャートであり、上記ステップS103およびステップS104に対応する処理の一例を示す。ステップS103においてエンコーダパターンの読取りが開始すると、測量装置50では以下の動作を実行する。
 角度の検出を開始すると、ステップS301で、読取光送光部69は、読取光を送光する。次にステップS302で、カメラ55が、エンコーダパターン部13周辺の風景画像を撮像する。
 次に、ステップS303では、エンコーダパターン読取部65が、取得した画像から、エンコーダパターン部13の範囲81を認識して矩形に切り出す(図10(b))。
 次に、ステップS304において、エンコーダパターン読取部65は、ステップS302において切り出したエンコーダパターン部13の範囲81の画像を、エンコーダパターン13Bの周方向に線状に読込む。例えば、図10(b)に示すように、I~Vの位置で線状の読込み、画素値に変換する。
 上述の通り、カメラ55の撮像素子55Bの前面には、第2の偏光フィルタ130bと同じ偏光フィルタ55Cが配置されている。このため、読取光送光部69から送光され、エンコーダパターン部13で反射された光のうち、第2の方向の偏光成分は、偏光フィルタ55Cを透過するが、その他の成分の光は、偏光フィルタ55Cにより減衰される。
 したがって、第2の偏光フィルタ130bで構成される領域131cおよび第2の帯132bで反射した光は、カメラ55側の偏光フィルタ55Cを透過して、対応する部分は明るい像となる。一方、第1の偏光フィルタで構成される縦線131a,131bおよび第1の帯132aで反射した光は、カメラ55側の偏光フィルタ55Cにより減衰されるため、対応する部分は暗い像となる。
 画素値は、暗いと値が小さくなり、明るいと値が大きくなる。このため、I~Vの各位置における読込みの結果(以下、「画素列I~V」という。)は、例えば、図10(c)のように表すことができる。
 読込み間隔は、例えば、図10(b)に示すように、予め、ステップS301で得られるエンコーダパターン部13の画像および、エンコーダパターン部13に関する既知の情報から、画像における幅情報部132の第1の帯132aおよび第2の帯132bの高さh(図4(b))および縦線131a,131bの高さh(図4(b))を概算で算出し、読込み間隔が、高さhよりも小さく、かつ高さhの1/2よりも短い間隔hに設定することが好ましい。このようにすれば、角度情報部131および幅情報部132を確実に捕捉することができる。
 次に、ステップS305では、ステップS304の読込み結果から、幅情報部132の読取り結果を抽出する。具体的には、所定のしきい値よりも小さな画素値となる部分を第1の偏光フィルタ130aに対応する部分と判断し、所定のしきい値よりも大きな画素値となる部分を第2の偏光フィルタ130bに対応する部分と判断して、暗い部分と明るい部分の少なくとも一方が、一定の長さで連続している画素列を幅情報部132の読み取り結果と判断する。
 この結果、図10(c)において、画素列IおよびIIが幅情報部132に相当することがわかる。そして、検出されたエンコーダパターン13Bの幅(エンコーダパターン部13の直径)Lから、Lを2等分する位置を、エンコーダパターン13Bの中心位置Aを特定する。幅情報部132を備えると、例えば、エンコーダパターン部13の背景が暗かったり明るかったりして、エンコーダパターン13Bの像と背景との境界が不明瞭な場合であっても、少なくとも一方の帯が検出できれば、エンコーダパターン13Bの中心位置を正確に求めることができる。
 次に、ステップS306では、ステップS304での線状の読み込み結果から、画素列間の相関を算出し、相関性が所定の値よりも高いものを、角度情報部131の読取り結果として抽出する。
 図10(c)の例では、画素列III~Vは、画素値のパターンが高い相関性を有している。したがって、画素列III~Vが角度情報部131の読込み結果であることがわかる。
 そして、抽出した画素列III~Vの画素値を垂直方向に加算して平均値を算出する。その結果が所定のしきい値よりも小さな部分を縦線と判断し、各縦線の幅を求める。次に、求めた幅の値が、狭幅、広幅のいずれの縦線に該当するかを判断し、狭幅のものをビット「0」すなわち縦線131a、広幅のものをビット「1」すなわち縦線131bとして読み取る。このように、複数の画素列から、平均値として画素値を算出すると、例えば、画素列IVのように位置のずれた画素列が生じたとしても、位置のずれの影響を低減し、読取り精度を向上することができる。
 なお、エンコーダパターン部13は、円柱状であるため、縦線幅w,wおよびピッチpが、中心から遠ざかるにつれて実際の幅よりも狭く観察される。例えば、図4(a)において、中央付近の広幅の縦線131bは、その幅w2aが、図4(b)における広幅の縦線131bの幅(実際の幅)wとほぼ等しい幅で観察される。一方、中央部から最も遠い広幅の縦線131bは、その幅w2bが、実際の幅wよりも狭く観察される。幅wおよびピッチpについても同様である。したがって、幅wおよびwは、配置によって観察される幅が変化するという影響を考慮して幅wと幅wの変化の範囲が重複しないように設定されていることが好ましい。
 次に、ステップS307に移行して、方向角演算部66が、ステップS305において求めたエンコーダパターン13Bの中心位置Aを中央として左右に伸びる所定幅Rの領域のビットパターン、すなわち所定幅Rの領域に含まれる所定のビット数(例えば、10本)の縦線で示されるビットパターンと、記憶部61に記憶されたビットパターンと角度との相関と対比することにより、エンコーダパターン13Bの基準方向RDに対する周方向の角度、すなわち、基準方向RDに対する測量装置50の方向角θを求める(その後、ステップS105に移行する。)。
 なお、エンコーダパターン13Bの読取動作の他の一例として、ステップS306における角度情報部131の抽出を、ステップS304の周方向直線状の画像の読み込み結果から各画素列の周波数スペクトルを算出し、空間上の周波数におけるピークの場所が、ビットパターンを示す黒い縦線のピッチpに相当する場合に、当該画素列を、角度情報部131のデータとして抽出することにより行ってもよい。
 また、カメラ55側の偏光フィルタ55Cをエンコーダパターン13の第2の偏光フィルタ130bではなく、第1の偏光フィルタ130aで構成してもよい。その場合、ステップS304の読込みで得られる画素列は図10(c)と上下が逆転する状態となるため、画素値が所定のしきい値よりも大きな部分を縦線と判断し、各縦線の幅を求めるように設定してもよい。
 また、カメラ55を、自動ズーム機能を備えるように構成し、ステップS101で、被写体として認識した、エンコーダパターン部13の大きさに合わせて、広角側または狭角側へ焦点距離を切り替えて、エンコーダパターン13Bの画像の大きさが距離に関わらず一定になるように構成してもよい。
 このように構成すると、測量装置50から計測モジュール10までの距離に関わらず、ステップS304におけるエンコーダパターン13Bの読取りに適した大きさの画像を切り出すことが可能となり、距離に伴う読取り誤差の発生を防止することができる。
 このように、本実施の形態に係る角度検出システム90によれば、遠方にある測定対象物にエンコーダパターン部13を取付け、測量装置50に備えたカメラ55でエンコーダパターン13Bを読取り、測量装置50の演算制御部64で角度の演算を行うので、遠隔にある測定対象物の角度を、発光装置やイメージセンサなどを含む比較的複雑な角度検出装置本体を測定対象物に取り付けることなく遠隔から測定することができる。
 さらに、本実施の形態においては、エンコーダパターン13Bの基準方向と、測定対象物との角度を予め既知、または測定可能としておくことにより、測量装置と測定対象物との角度の関係を遠隔から測定することも可能である。
 また、角度検出システム90に適用した場合においては、測定対象物である距離測定器14を備える計測モジュール10はモジュール通信部19を備えるが、単に、エンコーダパターン13Bの基準方向に対する測量装置の方向角θを知りたい場合においては、このような通信手段も必要とせずリアルタイムに角度の測定を行うことができる。
 また、エンコーダパターン部13は、測定対象物の外側に取り付けられるものであるため、取付けが容易である。さらに、エンコーダパターン部13は、簡単な構造であるため製造も容易である。
1-4. 測定点座標の演算
 次に、測定点座標P(X,Y,Z)の演算方法について説明する。図11(a)は、反射ターゲットの中心Oおよび測量装置50を通る鉛直平面における、反射ターゲット11の中心O、距離測定器14の基点R、および測定点Pの関係を示す図である。
 また、図11(b)は、水平面における反射ターゲット11の中心O、距離測定器14の基点R、および測定点Pの関係を示す図である。
 ここで、x軸は、距離測定器14の基点Rから測量装置50の方向へ伸びる水平方向を示し、y軸はx軸に直交する水平方向を示し、z軸は、支持部材12の中心軸A方向、すなわち鉛直方向を示す。
 まず、図11(a)より、反射ターゲットの中心Oと測定点Pと間のx軸方向の距離l’が、x軸に対する、測定点の角度φ,および距離測定器14の基点Rと測定点Pとの間の距離lを用いて、式1で求められる。
l’=l・cosφ      ・・・式1
 また、反射ターゲットの中心Oと測定点Pとの間のz軸方向の距離は、d+l・sinφで求められる。
 次に図10(b)より、x軸に対する測定点Pの方向角θが、エンコーダパターン13Bの基準方向RDに対する測量装置の方向角θおよびエンコーダパターン13Bの基準方向RDに対する距離測定器14の方向角θを用いて式2により求められる。
θ=θ+θ        ・・・式2
 したがって、反射ターゲットの中心Oに対する、測定点Pのオフセット値を(x,y,z)とすると、(x,y,z)の値は、それぞれ、式3,4,5より求められる。
=l’=l・cosφ   ・・・式3
=l’・sinθ     ・・・式4
=d+l・sinφ     ・・・式5
 このように求められた測定点Pのオフセット値(x,y,z)と、点Oの座標O(x,y,z)とから、点Pの座標P(X,Y,Z)が、式6のように求められる。
P(X,Y,Z)=(x+x,y+y,z+z)  ・・・式6
 このように、本実施の形態に係る測量システム100によれば、反射ターゲットの測定と同時に、反射ターゲットと測定点との水平角、鉛直角および距離の関係についての測定を行い、その結果に基づいて自動的に補正演算を行うので、測定点が測量装置から直接視準できない場合でも、その座標を測量現場でリアルタイムに確認することができる。
1-5. 変形例1
 図12は、上記実施の形態の1つの変形例に係る、エンコーダパターン部13aの斜視図である。図12に示すように、エンコーダパターン部13a、幅情報部132を備えていない。このように幅情報部132は必須ではなく、幅情報部132を備えなくてもよい。この場合、ステップS303において、角度情報部131の縦線131a,131bの高さhの半分よりも短い間隔で、水平方向の直線状の読込みを行い、その結果結果から、エンコーダパターン13Baの左右の境界を検出し、エンコーダパターン13Baの中心を求めるとよい。
 しかし、図4のように、幅情報部132を備えると、例えば、エンコーダパターン部13の背景が、明るかったり、暗かったりして、エンコーダパターン13Bと、背景との境界が不明瞭な場合であっても、エンコーダパターン13Bの中心位置を正確に求めることができるので有利である。
2.第2の実施の形態
2-1. 角度検出システムの構成
 図13は、本発明の第2の実施の形態に係る角度検出システム290を備える測量システム200の構成ブロック図である。
 測量システム200は、測量システム100と同様に、計測モジュール10および測量装置250を備える。しかし、測量装置250は情報取得部として機能するカメラを備えず、それに代えて、スキャナ70を備える点で異なる。従って、角度検出システム290は、距離測定器14に取り付けられたエンコーダパターン部13と、スキャナ70、および演算制御部264を備える測量装置250とにより構成されている。
 スキャナ70は、図14に示すように、読取光送光部として機能する送光部71、回動ミラー72、ミラー回転駆動部73、ミラー回転角検出器74、受光部75、および制御部76を備え、例えば、望遠鏡2bの上部に、少なくとも鉛直軸周りにスキャン可能に設けられている。
 スキャナ70は、送光部71からエンコーダパターン部13に向けて、スキャン光として例えば赤外レーザ光を送光し、ミラー回転駆動部73により回動ミラー72を回転駆動することで、少なくとも水平方向(エンコーダパターン部13の周方向)にスキャン光を複数回スキャンし、エンコーダパターン13Bからの反射光をフォトダイオード等での受光部75で受光し、スキャンデータとして、受光光量分布を取得する。すなわち、エンコーダパターンの示す情報を、受光光量分布として光学的に取得する。
 また、スキャナ70の制御部76は、測量装置250の演算制御部264と電気的に接続されており、スキャナ70は演算制御部264の制御に従って、スキャンを実行する。
 受光部75は、例えばフォトダイオードである。受光部75の受光面の前面には、エンコーダパターン13Bを構成する第2の偏光フィルタ130bと同じ、第2の偏光成分を透過し、その他の成分を減衰する偏光フィルタ77が設けられている。
 しかし、偏光フィルタ77の配置は、第1の形態に係るカメラ55の偏光フィルタ55Cと同様に、送光部71から出射され、エンコーダパターン13で反射されて受光部75の受光面に入射する光の光路上に配置されていればよい。従って、スキャナ70が備える、図示しない光学系の前面に配置されていてもよく、送光振71の前面に配置されていてもよい。
2-2. 角度の検出(エンコーダパターンの読取り)
 測量システム200を用いて、測量装置250から視通のない測定点Pについて測量を実施する場合の動作における、エンコーダパターン13Bの基準方向RDに対する測量装置250の方向角θの検出において、角度検出システム290は、第1の実施の形態のステップS301~S307に代えて、図15の動作を行う。
 角度の検出を開始すると、ステップS401では、エンコーダパターン読取部265の制御により、スキャナ70はエンコーダパターン部13に対して、例えば図16(a)に示すようにスキャン光を走査する。
 次に、ステップS402では、スキャナ70の受光部が、スキャンデータとして受光光量分布を取得し、エンコーダパターン読取部65に出力する。
 ここで、エンコーダパターン13Bで反射された光のうち、第1の偏光フィルタ130aで構成される縦線131a,131bおよび第1の帯132aで反射された光は、第1の方向の偏光成分であるため、スキャナ70の偏光フィルタ77で減衰される。一方第2の偏光フィルタ130bで構成される領域131cおよび第2の帯132bで反射された光は第1の方向に直交する第2の偏光成分であるため、スキャナ70の偏光フィルタ77を透過する。
 この結果、I~Vの各位置における受光光量分布は、例えば、図16(b)のようになる。得られる受光光量分布は、第1の実施の形態における、画素列と同様の挙動を示す。従って、以下の処理は、第1の実施の形態におけるステップS305~S307と同様の処理である。
 ステップS403では、ステップS402で取得した受光光量分布から、幅情報部132の読取り結果を抽出する。
 次に、ステップS404では、ステップS402で取得した受光光量分布から、幅各位置における受光光量分布の相関を算出し、相関性が所定の値よりも高いものを、角度情報部131の読取り結果として抽出する。
 次に、ステップS405では、方向角演算部66が、ステップS403で求めたエンコーダパターン13Bの中心位置Aを中央として左右に伸びる所定幅Rに含まれるビットパターン、すなわち所定幅Rの領域に含まれる所定のビット数(例えば、10本)の縦線で示されるビットパターンと、記憶部61に記憶されたビットパターンと角度との相関とを対比することにより、エンコーダパターン13Bの基準方向RDに対する測量装置250の方向角θを求める(その後、ステップS105に移行する)。
 このように、カメラ55に代えて、スキャナ70を用いても、実施の形態1の角度検出システム90と同様の効果を奏することができる。また、スキャナ70を用いると、レーザ光の反射光を用いて、エンコーダパターン13Bを読み取るので、受光光量が大きくなり、遠距離や、光量の少ない状況の測定においても十分なコントラストを得ることができる。
 また、スキャナを用いると、複数回のスキャンにより読み取りを行うので、目的により、スキャン回数を増やす等して、読み取り精度を向上することができる。
3. 第3の実施の形態
 図17に示すように、第3の実施の形態に係る角度検出システム390は、第1の実施の形態に係る測量システム100と同一の測量システム300に備えられており、反射ターゲット11を構成要素として含む。測量システム300と測量システム100の機械的構成は同一であるので、機械的構成についての詳細な説明は省略する。
 一方、第3の実施の形態に係る角度検出システム390では、角度検出における動作が角度検出システム90とは以下のように異なる。図18は、第3の実施の形態に係る角度検出システムにおける、角度検出のフローチャートである。
 角度の検出を開始すると、ステップS501では、ステップS301と同様にカメラ55が、エンコーダパターン部13を含むエンコーダパターン部13周辺の風景画像80を取得する。
 次に、ステップS502では、エンコーダパターン読取部65が、ステップS101で取得した反射ターゲット11の測距データ、および記憶部61に記憶された、既知であるエンコーダパターン部13の寸法に基づいて画像におけるエンコーダパターン13Bの範囲81を特定し、矩形に切り出す。このようにすると、エンコーダパターンの読み取りに最適な大きさに画像を切り出すことができ、読取り精度が向上する。
 次に、ステップS503では、ステップS101で取得した、反射ターゲットの測角データに基づいて、読込み方向を設定する。これは、カメラ55とエンコーダパターン部13との鉛直方向の位置関係による、画像に現れるエンコーダパターン部13の見え方への影響を考慮したものである。
 具体的には、カメラ55がエンコーダパターン部13よりも高い位置にある場合には、図19(a)に示すように、下に凸に湾曲した形状に観察され、カメラ55がエンコーダパターン部13よりも低い位置にある場合には、図17(b)に示すように、上に凸に湾曲した形状に観察される。この結果、読込みが不完全となったり、読み取ったパターンの幅にも違いが生じたりする虞がある。
 そこで、予め、測角データに対応するエンコーダパターン部の側面形状を算出し、算出結果を記憶部61に記憶させておき、ステップS503において、ステップS101で取得した測角データに基づいて、取得される画像におけるエンコーダパターン部13の側面形状を求め、側面形状に対応して、底面または上面の外周縁と平行になるように読込み方向を設定する。例えば、エンコーダパターン部13の画像が図19(a)に示すような状態の場合には、図19(c)のIa~Vaに示すように、底面または上面の外周縁と平行になるように、曲線状に読み込むように設定する。
 次に、ステップS504において、エンコーダパターン読取部65は、ステップS502において切り出したエンコーダパターン13Bの範囲81の画像を、エンコーダパターン部13の周方向に線状に読込む。ここで、読込みの間隔hは、反射ターゲット11の測距データ、および記憶部61に記憶された、既知であるエンコーダパターン部13の寸法に基づいて、エンコーダパターン部の寸法およびステップS303同様に、高さhよりも小さく、かつ高さhの1/2よりも短い間隔hに設定される。このようにすると、幅情報部132および角度情報部131を確実に捕捉することができる間隔を正確に求めることができ、読取り精度が向上する。
 次に、ステップS505では、ステップS504の読込み結果から、幅情報部132の読み取り結果を抽出する。具体的には、所定のしきい値よりも小さな画素値となる黒色部分および所定のしきい値よりも大きな画素値となる白色部分の少なくとも一方が、ステップS101で取得した反射ターゲット11の測距データ、および既知のエンコーダパターン部の寸法から算出される、エンコーダパターン部の直径Lに相当する長さで連続している場合に、当該画素列が、幅情報部132に相当すると判断する。
 次に、ステップS506では、ステップS305と同様に、ステップS504の読込み結果から、角度情報部131に該当する画素列を抽出する。
 その後、ステップS507に移行して、ステップS306と同様にして、方向角演算部66が、エンコーダパターン13Bの基準方向RDに対する測量装置50の方向角θを求める(その後、ステップS105へ移行する)。
 このように、角度検出システムに、反射ターゲットを備え、測量装置として、トータルステーションを用いれば、画像の切り出し、読込み方向等の設定を、トータルステーションで測定した距離に基づいて行うことができるので、読込みの精度が向上する。
 本実施の形態において、カメラ55を、特開2016-138802号公報に開示されているように、測量部の光学系と光学系を共有した狭角カメラをさらに備え、測量部により取得した測距データに基づいて算出される反射ターゲット11の距離に応じて、カメラ55と、狭角カメラとを切り替え可能に構成してもよい。
 上記構成によれば、測量装置50から計測モジュール10までの距離に関わらず、ステップS302におけるエンコーダパターン13Bの読取りに適した大きさの画像を切り出すことが可能となり、距離に伴う読取り誤差の発生を防止することができる。
 また、第2の実施の形態と同様に、本実施の形態においても、カメラ55に代えてスキャナ70を用いてもよい。
4. 第4の実施の形態
 図20は、第4の実施の形態に係る、角度検出システム(図示せず)の、エンコーダパターンの角度情報部431の構成を説明する図である。本実施の形態に係る、角度検出システムの機械構成は、エンコーダパターンの角度情報部431を除き、第1の実施の形態に係る角度検出システム90と同様であるのでその詳細な説明は省略する。
 図20(c)に示すように、角度情報部431は、断面構造において、ベース413Aの外周側面上に配置された反射材層420と反射材層420の上に配置されたエンコーダパターン層430とを備える。
 反射材層420の材質としては、第1の実施の形態と同様の、市場にて入手可能な再帰反射シート等を用いることができる。反射材層420は、2種類の反射材420a、および420bを組み合わせて構成されている。反射材420aと420bとは、例えば、表面を保護する樹脂層の違いなどにより反射率が異なり、例えば、前者の反射率が低く、後者の反射率が高い。
 一方エンコーダパターン層430には、第1の実施の形態と同様に第1の方向の偏光成分を透過する第1の偏光フィルタ430aと、第1の方向と直交する第2の方向の偏光成分を透過する第2の偏光フィルタ430bとが、それぞれ等幅で、周方向に連続するように等ピッチpで配置されている。
 そして、エンコーダパターン層の各偏光フィルタと、反射シートの位置が合致するようになっている。
 カメラ55の撮像素子55Bの前面には、第1の実施の形態と同様に、第2の偏光フィルタ430bと同じ偏光フィルタ55Cが配置されている。この結果、カメラ55により取得される画像の画素値は、反射材層420の反射材とエンコーダパターン層430の偏光フィルタの組み合わせに応じて、表1および図20(d)に示すような、画素値を示す。
Figure JPOXMLDOC01-appb-T000001
 このように、反射材と偏光フィルタとの組み合わせに応じて、3通りの画素値を示すようになる。そこで、まず、ビット「-1」,「0」,「1」の3値による、M系列のコードパターンを、エンコーダパターンの基準方向からの角度に対応するように生成する。ついで、3通りの画素値の値に応じた、反射材と偏光フィルタとの組み合わせに、ビット「-1」,「0」,「1」を割りあてて、コードパターンを示すように反射材420a,420bおよび偏光フィルタ430a,430bを配置して、エンコーダパターン413Bが構成されている。
 したがって、反射材と偏光フィルタとの組み合わせによっても、エンコーダパターンを形成しても、実施の形態1と同様に、遠隔から測定対象物の角度を測定できるという効果を奏することができる。
 しかも、本実施の形態によれば、1ピッチに2つの値を割り当てることができるので、1ピッチに1つの値を割り当てた場合と比較して、同じ分解能でも読取り幅Rを短くすることができる。すなわち、エンコーダパターン部の中心軸Aに近い領域を読み取ることができるので、配置によって観察されるパターンのピッチや幅が変化するという、エンコーダパターン部の形状に基づく影響を受けにくくなる。しかも、ピッチを小さくするわけではないため、パターンが細かくなることに起因する読取り精度への悪影響も生じない。
5. 第5の実施の形態
 図21は、第5の実施の形態に係る角度検出システム(図示せず)の、エンコーダパターン513Bの角度情報部531の構成を説明する図である。本実施の形態に係る、角度検出システムの機械構成は、角度情報部531を除き、第1の実施の形態に係る角度検出システム90と同様であるので、その詳細な説明は省略する。
 図21(a)に示すように、角度情報部531のエンコーダパターン層530は、第1の方向の偏光成分を透過し、第1の方向に直交する第2の方向の偏光成分を減衰する、第1の偏光フィルタと、第2の方向の偏光フィルタを透過し、第1の方向の偏光成分を減衰する第2の偏光フィルタで構成されている。エンコーダパターン層530では、第1の実施の形態に係るエンコーダパターン層130と同様に、幅wを有する狭幅の縦線に対応する第1の偏光フィルタ530aと、幅wを有する狭幅の縦線に対応する第1の偏光フィルタ530aとを等ピッチpで配置し、第1の偏光フィルタ間に第2の偏光フィルタを配置して、構成されている。
 また、図21(b)に示すように、反射材層520は、反射材層420と同様に、反射率の異なる、2種類の反射材520a,520bで構成されている。例えば、前者の反射率が低く、後者の反射率が高い。
 反射材は、図21(c)に示すように、エンコーダパターン層530の第2の偏光フィルタ530b、第1の偏光フィルタ530aの下に、反射材520aまたは520bのいずれかが配置されるようになっている。
 また、カメラ55の撮像素子55Bの前面には、第4の実施の形態とは逆に、第1の偏光フィルタ530aと同じ偏光フィルタ55Cが配置されている。この結果、カメラ55により取得される画像の画素値は、反射材層520の反射材とエンコーダパターン層530の偏光フィルタの組み合わせに応じて、表2および図21(d)に示すような、画素値を示す。
Figure JPOXMLDOC01-appb-T000002
 等ピッチpで配置された第1の偏光フィルタ530aは、a,b2通りの画素値の値を有する。また、第1の偏光フィルタ530aはw,wの2種類の幅を有するため、幅と画素値との組み合わせは、図21(d)に示す、4通りのパターンがある。そこで、まず、ビット「0」,「1」,「2」,「3」の4値による、M系列のビットパターンを、エンコーダパターンの基準方向からの角度に対応するように生成する。ついで、第1の偏光フィルタ530aの幅と画素値の組み合わせによる4つのパターンをビット「0」,「1」,「2」,「3」に割り当てて、ビットパターンを示すように、反射材520a,520bおよび偏光フィルタ530a,530bを配置して、エンコーダパターン513Bの角度情報部531を構成する。
 このように、幅の異なる偏光フィルタと、反射強度の異なる反射材とを組み合わせることによっても、エンコーダパターンの角度情報部531を構成することができ、第1の実施の形態に係る角度検出装置と同様の効果を奏することができる。
 以上、本発明の好ましい実施の形態について述べたが、上記の実施の形態および実施例は本発明の一例であり、それぞれの構成を当業者の知識に基づいて組み合わせることが可能であり、そのような形態も本発明の範囲に含まれる。
11 反射ターゲット
14 距離測定器(測定対象物)
13,13a エンコーダパターン部
13A,413A,513A ベース
13B,413B,513B エンコーダパターン
19 モジュール通信部
50, 250 測量装置
55 カメラ(情報取得部)
55C 偏光フィルタ
57 通信部
64,264 演算制御部
69 読取光送光部
70 スキャナ(情報取得部)
71 スキャナの送光部(読取光送光部)
77 偏光フィルタ
90,290,390 角度検出システム
120,420,520 反射材層
130,430,530 エンコーダパターン層
130a,430a,530a 第1の偏光フィルタ
130b,430b,530b 第2の偏光フィルタ
131,431,531 角度情報部

Claims (8)

  1.  測定対象物に取り付けられるエンコーダパターン部と、
     測量装置とを備える角度検出システムであって、
      前記エンコーダパターン部は、
       円柱形状のベース、および該ベースの外周側面に設けられて、所定の基準方向に対する周方向の角度を示すエンコーダパターンを備え、
       前記エンコーダパターンは、入射した光を再帰反射する反射材層と、該反射材層の前面に配置されたエンコーダパターン層を備え、該エンコーダパターン層は、第1の方向の偏光成分を透過する第1の偏光フィルタと、第1の方向とは異なる第2の方向の偏光成分を透過する第2の偏光フィルタとの組み合わせにより構成され、
      前記測量装置は、前記エンコーダパターンに向けて読取光を出射する読取光送光部と、前記エンコーダパターンが示す情報を、光学的に取得する情報取得部と、前記情報に基づいて、前記基準方向に対する前記測量装置の角度(θ)を演算する演算制御部と、前記読取光送光部から出射され、前記エンコーダパターンで反射されて前記情報取得部の受光面に入射する光の光路上に配置された第1のまたは第2の偏光フィルタを備えることを特徴とする角度検出システム。
  2.  前記角度情報部は、前記第1のおよび第2の偏光フィルタをエンコーダパターン部の外周側面に周方向に配置することによりビットパターンを示し、
     前記演算制御部は、光学的に取得した前記情報を前記エンコーダパターンの周方向に読取り、読取り結果をビットパターンに変換し、前記読取りの結果から前記エンコーダパターンの中央位置を特定し、該中央位置を中央とする所定の領域に含まれる前記ビットパターンを、予め設定されたビットパターンと角度との相関と対比することにより、角度を演算することを特徴とする請求項1に記載の角度検出システム。
  3.  前記角度情報部は、前記第1の偏光フィルタを、広狭2種類の幅の縦線として、M系列により生成されたビットパターンを示すように周方向に配置し、各縦線の間に第2の偏光フィルタを配置したバーコード状のパターンであることを特徴とする請求項1または2に記載の角度検出システム。
  4.  前記反射材層は、反射率の異なる第1のおよび第2の反射材を周方向に配置することにより構成され、
     前記第1のおよび前記第2の偏光フィルタと、前記第1のおよび前記第2の反射材との組み合わせによってビットパターンを示すことを特徴とする請求項1~3のいずれかに記載の角度検出システム。
  5.  前記情報取得部は、前記エンコーダパターンが示す情報を画像として取得するカメラであることを特徴とする請求項1~4のいずれかに記載の角度検出システム。
  6.  前記情報取得部は、前記エンコーダパターンが示す情報を、前記エンコーダパターンにスキャン光を送光し、前記エンコーダパターンからの反射光を受光して受光光量分布として取得するスキャナであることを特徴とする請求項1~4のいずれかに記載の角度検出システム。
  7.  前記測定対象物は、前記基準方向に対して周方向に所定の角度(θ)で取り付けられており、前記演算制御部は、前記所定の角度(θ)および前記エンコーダパターンの読取角(θ)に基づいて、前記測定対象物の前記測量装置に対する角度を演算することを特徴とする請求項1~6のいずれかに記載の角度検出システム。
  8.  円柱形状のベース、および該ベースの外周側面に配置されて、所定の基準方向に対する周方向の角度を示すエンコーダパターンを備えるエンコーダパターン部と、情報取得部を備える測量装置とを用いて角度を検出する方法であって、
     (a)前記エンコーダパターン部を前記測定対象物に、エンコーダパターン部の周方向に所定の角度で取り付ける工程、
     (b)前記エンコーダパターンに向けて読取光を出射する工程、
     (c)前記情報取得部が、前記エンコーダパターンが示す情報を、光学的に取得する工程および
     (d)(c)工程により取得された情報に基づいて、前記測量装置の、前記基準方向に対する方向角を演算し、
     前記エンコーダパターンは、入射した光を再帰反射する反射材層と、該反射材層の前面に配置されたエンコーダパターン層を備え、該エンコーダパターン層は、第1の方向の偏光成分を透過する第1の偏光フィルタと、第1の方向とは異なる第2の方向の偏光成分を透過する第2の偏光フィルタとの組み合わせにより構成され、
     前記測量装置は、前記読取光送光部から出射され、前記エンコーダパターンで反射されて前記情報取得部に入射する光の光路上に配置された第1のまたは第2の偏光フィルタを備えることを特徴とする角度検出方法。
PCT/JP2019/029426 2018-08-01 2019-07-26 角度検出システムおよび角度検出方法 WO2020026980A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980046329.2A CN112384754B (zh) 2018-08-01 2019-07-26 角度检测系统以及角度检测方法
EP19844618.9A EP3832258A4 (en) 2018-08-01 2019-07-26 ANGLE DETECTION SYSTEM AND ANGLE DETECTION METHOD
US17/262,168 US20210270602A1 (en) 2018-08-01 2019-07-26 Angle detection system and angle detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-144786 2018-08-01
JP2018144786A JP7080129B2 (ja) 2018-08-01 2018-08-01 角度検出システムおよび角度検出方法

Publications (1)

Publication Number Publication Date
WO2020026980A1 true WO2020026980A1 (ja) 2020-02-06

Family

ID=69232511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/029426 WO2020026980A1 (ja) 2018-08-01 2019-07-26 角度検出システムおよび角度検出方法

Country Status (5)

Country Link
US (1) US20210270602A1 (ja)
EP (1) EP3832258A4 (ja)
JP (1) JP7080129B2 (ja)
CN (1) CN112384754B (ja)
WO (1) WO2020026980A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6080707A (ja) * 1983-10-07 1985-05-08 Toshihiro Tsumura 傾斜角度計測装置
JPH05172588A (ja) 1991-12-26 1993-07-09 Sokkia Co Ltd アブソリュートエンコーダ
JPH07139942A (ja) * 1993-11-12 1995-06-02 Wacom Co Ltd 測量装置
US20090024325A1 (en) * 2007-07-19 2009-01-22 Scherzinger Bruno M AINS enhanced survey instrument
US20160178406A1 (en) * 2013-09-10 2016-06-23 Yong Wang Optical measurement system, method and scaleplate therefor
JP2016138802A (ja) 2015-01-27 2016-08-04 株式会社トプコン 測量システム、測量方法、測量機及び測量用反射ターゲット
JP2016145791A (ja) * 2015-01-28 2016-08-12 株式会社トプコン 三次元位置計測システム
JP2019020209A (ja) * 2017-07-14 2019-02-07 株式会社トプコン 測量システム
JP2019105515A (ja) * 2017-12-12 2019-06-27 株式会社トプコン ターゲット装置、測量方法、測量装置およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575894B2 (ja) * 1995-12-11 2004-10-13 三菱プレシジョン株式会社 相対角度検出装置及び仮想現実感提供装置
JP6369042B2 (ja) * 2013-11-05 2018-08-08 日本精工株式会社 光学式エンコーダユニット及び光学式エンコーダ
JP6449584B2 (ja) * 2014-08-04 2019-01-09 株式会社トプコン 角度検出装置、測量装置
JP2016146791A (ja) * 2015-02-13 2016-08-18 みのる産業株式会社 土の混合撹拌装置
JP7275439B2 (ja) * 2018-09-28 2023-05-18 株式会社トプコン 測量システム、スキャナ装置、および測量方法
JP7139942B2 (ja) * 2018-12-27 2022-09-21 三菱電機株式会社 給湯装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6080707A (ja) * 1983-10-07 1985-05-08 Toshihiro Tsumura 傾斜角度計測装置
JPH05172588A (ja) 1991-12-26 1993-07-09 Sokkia Co Ltd アブソリュートエンコーダ
JPH07139942A (ja) * 1993-11-12 1995-06-02 Wacom Co Ltd 測量装置
US20090024325A1 (en) * 2007-07-19 2009-01-22 Scherzinger Bruno M AINS enhanced survey instrument
US20160178406A1 (en) * 2013-09-10 2016-06-23 Yong Wang Optical measurement system, method and scaleplate therefor
JP2016138802A (ja) 2015-01-27 2016-08-04 株式会社トプコン 測量システム、測量方法、測量機及び測量用反射ターゲット
JP2016145791A (ja) * 2015-01-28 2016-08-12 株式会社トプコン 三次元位置計測システム
JP2019020209A (ja) * 2017-07-14 2019-02-07 株式会社トプコン 測量システム
JP2019105515A (ja) * 2017-12-12 2019-06-27 株式会社トプコン ターゲット装置、測量方法、測量装置およびプログラム

Also Published As

Publication number Publication date
CN112384754B (zh) 2023-11-07
EP3832258A4 (en) 2022-04-13
EP3832258A1 (en) 2021-06-09
CN112384754A (zh) 2021-02-19
US20210270602A1 (en) 2021-09-02
JP2020020673A (ja) 2020-02-06
JP7080129B2 (ja) 2022-06-03

Similar Documents

Publication Publication Date Title
US10921430B2 (en) Surveying system
JP4228132B2 (ja) 位置測定装置
JP6963936B2 (ja) 測量システム
EP3407013B1 (en) Surveying instrument and three-dimensional camera
US10895632B2 (en) Surveying system
JP7139052B2 (ja) 測量システム
JP5688876B2 (ja) レーザスキャナ測定システムの較正方法
JP7066322B2 (ja) 測量システム
US10837767B2 (en) Angle detection system
JP2019039863A (ja) 測量システム
JP7085888B2 (ja) 測量システム
WO2020026980A1 (ja) 角度検出システムおよび角度検出方法
WO2020026978A1 (ja) 角度検出システムおよび角度検出方法
JP6913422B2 (ja) 測量システム
JP7139184B2 (ja) 測量システム、計測モジュール、および測量方法
JP2020020673A5 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19844618

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019844618

Country of ref document: EP

Effective date: 20210301