EP2893371A1 - Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite - Google Patents

Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite

Info

Publication number
EP2893371A1
EP2893371A1 EP13758865.3A EP13758865A EP2893371A1 EP 2893371 A1 EP2893371 A1 EP 2893371A1 EP 13758865 A EP13758865 A EP 13758865A EP 2893371 A1 EP2893371 A1 EP 2893371A1
Authority
EP
European Patent Office
Prior art keywords
image
distance
positioning
unit
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP13758865.3A
Other languages
English (en)
French (fr)
Other versions
EP2893371B1 (de
Inventor
Burkhard Böckem
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Geosystems AG
Original Assignee
Leica Geosystems AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems AG filed Critical Leica Geosystems AG
Priority to EP13758865.3A priority Critical patent/EP2893371B1/de
Publication of EP2893371A1 publication Critical patent/EP2893371A1/de
Application granted granted Critical
Publication of EP2893371B1 publication Critical patent/EP2893371B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Definitions

  • the invention relates to a laser tracker for position and / or orientation determination of an object according to the preamble of claim 1, an object detection method for the defined sharp image capture of the object for and with a laser tracker according to claim 11 and a
  • Measuring devices that are designed for a continuous tracking of a target point and a coordinate position determination of this point, in general, in particular in the context of industrial surveying, under the
  • a target point may in this case be represented by a retro-reflective unit (for example a cube prism) which is connected to an optical measuring beam of the measuring device, in particular a measuring beam
  • Laser beam is targeted.
  • the laser beam is reflected back parallel to the measuring device, the reflected beam being detected by a detection unit of the device.
  • a detection unit of the device In this case, an emission or reception direction of the beam, for example by means of sensors for
  • Target unit of the system are assigned determined.
  • a distance from the meter to the target point e.g. using runtime or
  • Servo control point determined.
  • these measurable Tray may be a position difference between the center of a retroreflector and the impact of the
  • the described target tracking must be preceded by a coupling of the laser beam to the reflector.
  • the tracker additionally a detection unit with a
  • Position sensitive sensor and be arranged with a relatively large field of view.
  • Position sensitive sensor and be arranged with a relatively large field of view.
  • Wavelength of the distance measuring means distinctive
  • the senor can be designed to be sensitive to a region around this specific wavelength, for example
  • the target By means of the illumination means, the target can be illuminated and the camera captured an image of the target with illuminated reflector. Through the picture of the specific (wavelength-specific) reflection on the sensor, the reflection position in the image can be resolved and thus an angle relative to the detection direction of the camera and a direction to the target or reflector can be determined.
  • Such destination search unit is for example from the
  • the orientation of the measuring laser beam can be changed such that a distance between the laser beam and the reflector, to which the laser beam is to be coupled, is reduced.
  • laser trackers of the prior art comprise at least one distance meter, this being known e.g. can be designed as an interferometer. Since such distance measuring units can only measure relative distance changes, in today's laser trackers, in addition to interferometers, so-called absolute distance meters are used
  • Interferometer for distance determination with a HeNe laser for example, from WO 2007/079600 AI known.
  • two-dimensional photosensitive array e.g. a CCD or CID camera or a camera based on a CMOS array, or with a pixel array sensor and with an image processing unit.
  • a CCD or CID camera or a camera based on a CMOS array or with a pixel array sensor and with an image processing unit.
  • the laser tracker and the camera can in particular be mounted on one another in such a way that their positions relative to one another can not be changed.
  • the camera is for example, rotatable together with the laser tracker about its substantially vertical axis, but independently of the laser tracker and up and down pivotally and thus
  • the camera e.g. depending on the particular application - be executed pivotable about an axis.
  • the camera can be installed in integrated construction with the laser optics together in a common housing.
  • Image acquisition and image processing unit - a so-called auxiliary measuring instrument with markings whose relative positions are known to one another can be closed in space by an orientation of the instrument and of an object (for example a probe) arranged on the auxiliary measuring instrument.
  • an orientation of the instrument and of an object for example a probe
  • the position and orientation of the object in space absolutely and / or relative to the laser tracker can be precisely determined (6DoF determination: determination of six degrees of freedom).
  • auxiliary measuring instruments can be embodied by so-called feeler tools, which are positioned with their point of contact on a point of the target object.
  • the stylus has markings, e.g. Points of light, and a reflector, which represents a target point on the stylus and with the laser beam of the tracker
  • the auxiliary measuring instrument may also be, for example, a hand-held, distance measuring scanner for non-contact surface measurements, as known in the art and position of the distance measurement used
  • Reflectors which are arranged on the scanner, are well known. Such a scanner is described for example in EP 0 553 266.
  • Leica Geosystems AG offers the product “T-Cam”, which can be used with a vario / zoom lens-based solution in a measuring range of 1.5 m to 15 m through a combination of an adjustable magnification and a also adjustable
  • Focusing allows a target object within this measuring range to be fixed with a fixed image scale
  • Orientation determination of a DUT can be performed more reliably and precisely over an enlarged measuring range.
  • a specific object of the present invention is to provide an improved laser tracker with an optical system such that an object whose
  • Orientation determination on this object can be imaged and recorded over an enlarged measuring range with a respective optimized image scale, in particular in their entirety with the greatest possible spatial extent on an image-capturing sensor.
  • the invention relates to a laser tracker for position and / or orientation determination of a reference in a defined spatial relationship reference features
  • auxiliary measuring object having a base defining a standing axis, a pivotable motorized support relative to the base about the standing axis, and a pivotable about a tilt axis motorized pivoting unit with at least two optical assemblies and an image acquisition unit, wherein the optical assemblies along an optical axis of the pivoting unit are displaceable and by a respective current positioning of the
  • Optics assemblies an enlargement factor for a detection of an image is defined by means of the image capture unit.
  • the laser tracker has a beam source for emitting a laser beam, a distance measuring unit for distance measurement to the measurement auxiliary object by means of the
  • Laser beam an angle measurement functionality for determining an emission direction of the laser beam relative to the base and a control and processing unit with an object mapping functionality, in the execution of a controlled positioning of the optical assemblies in
  • Image capture unit is provided. Furthermore, an image processing unit for image evaluation of the imaged reference features, so that the spatial
  • Orientation of the auxiliary measuring object can be determined
  • the object mapping functionality defines at least one normal distance range and one distance range for a distance to the measurement auxiliary object, and upon execution of the object mapping functionality, the magnification factor is controlled by the control and processing unit as a function of the distance to the measurement auxiliary object determined by the initiated measurement for distances within the normal distance range, a substantially constant normal picture scale is provided for the mapping, and for each distance within the far distance range for the mapping, a distance variable depending on the distance is provided Remote image scale becomes smaller with increasing distance to the measurement auxiliary object.
  • the image processing unit has a common logic with the control and
  • Image evaluation with regard to the reference features can be executed by the control and processing unit.
  • an extension of the measuring range for a zoom zoom lens (which is designed according to the invention as a swivel unit) is provided in a laser tracker.
  • optical elements in such a zoom-zoom objective, which are individually positionable and controllable, are based on different
  • the reference features attached to the measurement auxiliary can, as described in the introduction, be for example LEDs and / or can be embodied by e.g. a certain dimensioning and / or shape or by edges of the auxiliary measuring object.
  • Per thousand may be adjusted so that, depending on the orientation of the auxiliary measuring instrument - e.g. if its main axis of extension is substantially parallel to a picture diagonal of the image acquisition unit and the auxiliary measuring instrument then increases in size
  • Imaging unit can be imaged as if the instrument is displayed vertically in the image capture area - the normal image scale is slightly adjusted so that the image in terms of the distribution of the reference features in the image is filled to produce.
  • the normal image scale for the distances within the normal distance range is provided such that the image capture area of the image acquisition unit
  • Normal image scale is the same for the distances within the normal distance range.
  • the identical normal image scale provided for distances within the normal distance range, it is understood that within the framework of the technically possible, the identical normal image scale is generated such that an object imaged with this scale always remains the same (for distances within the normal distance range) is displayed large. That the optical assemblies are positioned so that the image is (theoretically) generated at the same scale, and the
  • Image acquisition unit is designed so that an image of the object with the size corresponding to the scale is detectable.
  • images which have structurally and / or constructively and / or sensor-related (small) deviations from an exactly identical representation of exactly the same size are to be understood as images having an identical normal image scale.
  • Embodiment at least two optics positioning curves for the positioning of the at least two optical modules deposited, wherein the at least two optics ⁇ positioning curves are hybrid structured and indicate a positioning of the at least two optical assemblies for distances within the normal distance range and / or the distance distance range.
  • the at least two optics ⁇ positioning curves are hybrid structured and indicate a positioning of the at least two optical assemblies for distances within the normal distance range and / or the distance distance range.
  • Optics positioning curve is understood to mean a curve having at least two regions within which the curve in each case has a homogeneous course (for example
  • optics assemblies may be positionably controlled by the control and processing unit based on the at least two optics positioning curves.
  • a further embodiment relating to a laser tracker according to the invention is a focusing group positioning curve for positioning a Focusing group and a zoom group positioning curve for positioning a zoom group depending on the determined distance to the measurement aid object deposited, wherein the focusing group a first of the at least two
  • Focusing group a picture focusing and focusing
  • control and processing unit can this particular one
  • Image processing is derived, in particular by determining image positions for the imaged
  • the remote image scale is variable and also known by the respective relative positioning of the two optical modules in the pivot unit in conjunction with the knowledge of the distance to the auxiliary measuring object.
  • the respective image scale is taken into account in the image analysis. As a result of the knowledge of the respective scale, the size with which the object is imaged on the image capture unit and can be detected is thus also known. From the location of
  • Filter unit for optical filtering of incident radiation, in particular an infrared filter for filtering such that light within a
  • the determination of the positions of reference features on the image-capturing sensor can be achieved.
  • a number of orientation marks provided as the reference features that emit and / or reflect transmissible radiation through the filter unit can be provided on the image capture unit, in particular wherein an image of the provided orientation marks is captured by the image capture unit and a spatial
  • Image evaluation is derived specific image positions for the orientation marks.
  • at least one further distance range with a positioning criterion for positioning the at least two optical assemblies as a function of a distance to the measurement auxiliary object which lies within the further distance range can be provided by the object mapping functionality , in particular wherein the positioning criterion is represented by a further optical positioning curve.
  • a positioning criterion for positioning the at least two optical assemblies as a function of a distance to the measurement auxiliary object which lies within the further distance range.
  • Positioning curve be hybridized so that it has different (especially more than two) parts, each part has a specific
  • the at least two optical assemblies according to the invention can in particular be displaceable and positionable along the optical axis, in each case by means of an optical carriage. Furthermore, the
  • Swivel unit having a spindle drive for the displacement and positioning of the at least two optical assemblies along the optical axis.
  • einschwenkbare radiation blocking for preventing a radiation passage to the image acquisition unit in particular a shutter for blocking the beam path, and / or the image detection unit may be formed as a CCD or CMOS camera.
  • the laser tracker can have a beam steering unit having at least the distance measuring unit, in particular the beam source, and motorized about the tilting axis relative support, wherein the pivoting unit is embodied by the
  • Beam deflection unit is defined an image detection direction and wherein the beam steering unit for emission of the
  • Laser beam is formed in the emission direction and for receiving at least a portion of the laser beam reflected on the auxiliary measuring object.
  • the invention also relates to a
  • Reference features with and for a laser tracker having a base defining a standing axis, a support rotatable motorized relative to the base about the standing axis, and a pivoting unit motorized for rotation relative to the support about a tilt axis for capturing an image of the measurement aid object, wherein as part of the object detection method a distance measurement for
  • Determining a current distance to the measurement auxiliary object by means of a laser beam is carried out.
  • adjustment, in particular continuously, of a magnification factor takes place as a function of the current distance to
  • Measurement auxiliary object such that an illustration for the
  • At least one normal distance range and one remote distance range are defined, and the setting of the magnification factor is dependent on the current distance to the measurement auxiliary object such that a substantially constant normal image scale is provided for distances within the normal distance range for the imaging and for each distance within the remote distance range for the image, a remote image scale which is variable as a function of the respective distance is provided, whereby the distance image scale becomes smaller with increasing distance to the measurement auxiliary object.
  • the remote image scale provided for the particular distance is further based on the image and image processing
  • this setting can be based in particular on stored Optics positioning curves, in particular where a focusing group positioning curve a
  • Zoom group positioning curve specify an enlargement position for a zoom group as a function of the distance to the auxiliary measuring object.
  • the normal image scale can be provided in particular for the distances within the normal distance range in such a way that the image is separated by the image
  • Distribution of the imaged reference features is filled in the image and / or the normal image scale for the distances within the normal distance range is always identical.
  • At least one further distance range is with one
  • Enlargement factor as a function of a respective distance to the measurement auxiliary object, which lies within the further distance range defined, in particular wherein the positioning criterion is represented by a further optical positioning curve.
  • radiation is detected within a defined wavelength range in the image and, in particular, a spatial orientation of the measurement auxiliary object is derived from the filtered radiation captured in the image, in particular from image positions determined by the image evaluation,
  • infrared light is filtered such that light within a defined infrared range is transmitted, absorbed or reflected, and / or the auxiliary measurement object orientation marks, which radiation within the defined
  • the orientation of the measurement assist object can be determined based on the detected filtered radiation and the determination of image positions for the detected radiation.
  • the invention relates to a
  • Computer program product stored on a machine-readable medium. This is configured for
  • Fig. 2a-b a first embodiment of a
  • Laser trackers depending on a measured distance to an object.
  • FIG. 1 shows two embodiments of laser trackers 10, 11 according to the invention and a measurement auxiliary object 80, whose
  • the measuring auxiliary object 80 is designed here as a tactile measuring device.
  • the first laser tracker 10 has a base 40 and a support 30, wherein the support 30 about a defined by the base 40 pivot axis 41 relative to the base 40 pivotally or
  • a target unit 20 (pivot unit) is arranged on the support 30 in such a way that the target unit 20 is moved relative to the support 30 by one
  • Tilting axis (inclination or transit axis) is rotatable. Can be achieved by thus provided about two axes alignment ⁇ possibility of targeting moiety 20 a of this
  • Unit 20 emitted laser beam 21 aligned exactly and thus targets are targeted. This alignment can be done automatically by means of a motorization.
  • Swivel axis 41 and the tilt axis are here in
  • Substantially orthogonal to each other, ie minor deviations from an exact axis orthogonality can be predetermined and stored in the system, for example, to compensate for measurement errors resulting therefrom.
  • the measuring laser beam 21 is directed to a reflector 81 (retroreflector) on the auxiliary measuring object 80 and is retro-reflected at this back to the laser tracker 10.
  • a distance to the object 80 or to the reflector 81 in particular by means of running time measurement, by means of
  • the laser tracker 10 has a distance measuring unit (with interferometer and
  • Laser beam 21 can be aligned and guided, and thus a propagation direction of the
  • Swivel unit 20 an image capture unit.
  • This image acquisition unit may include a CMOS for the purpose of position determination ⁇ a sensor exposure on a sensor or in a captured image or is
  • the auxiliary measuring instrument 80 has a tactile sensor whose contact point 83 can be brought into contact with a target object to be measured. While this contact between the stylus 80 and the target object is a position of the
  • Determining takes place by means of a defined relative
  • the orientation markers 82 may also be designed such that, when illuminated, for example with radiation of a defined wavelength, they reflect the incident radiation (for example formed as retroreflectors)
  • Orientation marks 82 in particular a certain luminous characteristic show, or that this one
  • An orientation of the stylus 80 can thus be determined from the position or distribution of the orientation markers 82 in an image captured by a sensor of the image capture unit.
  • the laser tracker 10 has an inventive
  • a sharp image with a known scale of the object 80 or the orientation marks 82 is generated on the image acquisition unit. For this purpose, first the distance to the object 80 through the
  • Distance measuring unit determined and based on this measured distance optical assemblies (e.g.
  • Focusing group and a zoom group) of the target unit 20 are positioned in a defined position in the targeting unit 20.
  • a detection direction of the pivoting unit 20 and the propagation direction of the laser beam 21 used for measuring the distance are relatively so adapted to each other that the targeted with the beam 21 object 80 is detectable by the image detection unit.
  • Measurement tool 80 thus freely adjustable positioning of the optical assemblies can - with the dimensioning of the measuring auxiliary object 80 is known - for each measured
  • Object 80 and the orientation marks 82 are provided on the image capture unit, whereby the orientation marks 82 on a thereby detectable
  • Image are optimally recognizable (for example by means of image processing) and from a current orientation of the object 80 can be derived.
  • the optical assemblies can be positioned independently of each other (e.g., as a focus group and zoom group).
  • distance ranges for example, a normal distance range and a remote distance range
  • the object 80 will always be of the same fixed size (and known by the defined positioning of, for example, the zoom group) on the
  • Image capture unit is imaged, preferably so that the orientation marks 82 are sharply detectable. From the location of the markers 82 in the detected
  • Image can then be determined, for example, by means of image processing, the orientation of the object 80.
  • the optical assemblies are each placed so that also a sharp image of the object 80 and the orientation marks 82 is provided on the image acquisition unit.
  • the fixed image scale for the first distance range is no longer obtained by a positioning in this second distance range, but a respective magnification factor varies in
  • Positioning of the optical assemblies and by the particular distance is known and is taken into account in an image processing-based determination and readout of image positions for the reference features (for example for an orientation determination of the auxiliary measuring object 80).
  • the first distance range preferably corresponds to a normal range, e.g. a range for measurements up to 15 m or 20 m, and the second distance range a range covering measurements beyond the first range, e.g. > 15 m or> 20 m. Furthermore, a plurality of distance ranges can be defined, wherein a specific positioning function for positioning the optical assemblies is stored for each area.
  • the positioning of the two optical assemblies can be done in particular by a respective positioning curve. These curves indicate, respectively, in which
  • a zoom group positioning curve of a control and processing ⁇ unit of the tracker provides the information in which position the zoom group must be moved, so that an optimal image (in terms of thereby generated
  • Image scale is generated on the image acquisition unit.
  • the Tracker 10 also optionally has an infrared filter.
  • the filter is integrated into the pivot unit 20 in such a way that incident radiation is filtered in such a way that only radiation having a wavelength within a wavelength range defined by the filter is transmitted and impinges on the image capture unit. As a result, unwanted scattered radiation or others
  • Ambient light influences can be prevented or reduced and an increase in measuring accuracy can be achieved.
  • a filter can also be a
  • Marks 82 detected and from their location in the image can be closed to an orientation of the object 82 (with known relative positioning of the markers 82 on the object 80).
  • the second laser tracker 11 has one of a
  • Beam guiding unit 16 for emitting a second
  • Laser beam 17, which is also aligned with the reflector 81.
  • Both the laser beam 17 and the pivot unit 15 are each pivotable about two axes motorized and can thereby be aligned, in that the target 81 and the orientation marks 82 (reference features) of the auxiliary measuring object 80 targeted by the laser beam 17 can be detected by means of the zoom camera 15.
  • the target 81 and the orientation marks 82 reference features
  • the auxiliary measuring object 80 targeted by the laser beam 17 can be detected by means of the zoom camera 15.
  • a precise distance to the reflector 81 and an orientation of the object 80 can be determined based on the spatial position of the orientation marks 82.
  • Illuminating means for illuminating the reflector 81 with radiation of a specific wavelength, in particular in the infrared wavelength range, provided and additional at least one Zielsuchgro with a position-sensitive detector, a so-called ATR camera (automatic target recognition), arranged on each tracker 10.11.
  • ATR camera automatic target recognition
  • Detectors can be mapped a position of the reflector 81 on the respective detector.
  • an imaged position of the reflector can be determined and detected as a function of it
  • the target unit 20 pivot unit
  • the beam guiding unit 16 are aligned such that the target with the measuring beam 17,21 automatically
  • the target 81 is targeted or the laser beam 17,21 the target 81 is automatically (iteratively) approximated.
  • laser trackers 10, 11 may each have at least two cameras, each with one position-sensitive detector, with 10.11 for each tracker two detected search image positions for the reflector 81 each, for example, a coarse position of the reflector 81 can be determined.
  • Laser trackers 10, 11 provide distance information to the target 81 based on a determination of a relative or absolute distance between the respective tracker 10, 11 and the target 81 and a determination of a change in that distance. Becomes the absolute distance
  • Phase measurement principle or determined by means of the Fizeau principle a measurement is carried out with an interferometer associated with the respective distance measuring unit for determining the distance change.
  • the measurement radiation 17,21 is emitted from the tracker 10,11 such that it meets the target 81 and is reflected back to this.
  • the reflected beam or parts of the reflected beam are then in turn detected by the tracker 10,11 and guided along a measuring path to the interferometer, where the reference radiation with the
  • the pivoting unit 15 of the laser tracker 11 has at least two optical assemblies and a camera sensor, wherein the tracker 11 in addition via a control and
  • Positioning of optical assemblies has. At least two measuring ranges (distance ranges) are defined for the respective positioning of the optical assemblies (eg a zoom group and a focusing group) when executing the object mapping functionality
  • Optical assemblies are such that a (focused) image for the object 80 on the camera sensor with a substantially constant image scale, in particular always with the same image scale (i.e., with the same size on the sensor) or the detection range of
  • Completing the image capture unit is provided. For distances to the object 80, in a second
  • Positioning of the optical groups is performed so that the object 80 each sharp but different sizes, i.
  • a current image of the object 80 can be detected in each case and a current orientation of the object 80 can be determined from the image. This can be determined, for example, by determining the center of gravity in the image for the orientation marks 82 detected in the image (for determining image positions for the orientation marks 82 in the image) or by edge extraction for identifying the object 80 and / or by means of analysis in the image
  • Orientation marks 82 are derived.
  • Markers 82 are thereby recognized and read out taking into account the image scale assigned to the respective image, and the scale can also be used for the determination the spatial orientation of the auxiliary measuring object
  • Figure 2 shows a first embodiment of a
  • Camera unit 50 of a laser tracker according to the invention with two optical assemblies 51, 52, wherein a zoom group 51 and a focusing group 52 are provided, and one
  • Image capture unit 53 e.g. a CCD or CMOS sensor.
  • Distance measuring unit 22 shown with the distance to, for example, a known auxiliary measuring instrument can be measured.
  • the known measuring aid ⁇ instrument (or an alternative object, which is targeted with the distance measuring unit 22) can be detected.
  • Camera unit 50 through a front lens assembly 55, guided by the optical assemblies 51,52, by a rear lens 56 and an infrared filter 54 on a beam deflection 57 and from there to the image detection unit 53.
  • the camera unit 50 is also a
  • Radiation blocking unit 58 e.g., a shutter to the
  • the radiation blocking unit 58 is formed for this purpose in the beam path einschwenkbar. By such a total darkening of the image acquisition unit 53, e.g. a black balance can be performed.
  • optical assemblies 51, 52 are movably mounted along the optical axis 60 by means of a guide 59. By such storage, these two groups 51,52 independently of each other along the optical Axis 60 are moved, creating a respective
  • Image capture unit 53 can be adjusted.
  • Change in position of the optics assemblies 51,52 is in this case in response to a certain distance by means of the measuring unit 22 ⁇ distance to the respective
  • optical assemblies 51, 52 thus become a function of a distance measured when a measurement is triggered
  • the object to be imaged (whose orientation is to be determined on the basis of the image) is within a normal distance range, e.g. less than 15 m
  • the optical groups 51, 52 are placed along the guide 59 such that the object is imaged with a constant image scale (especially for distances within the normal distance range, each having an identical image scale). If the object is outside the normal distance range and is e.g. at a distance within a distance range, (by corresponding
  • Positioning of the assemblies 51, 52) generates a (focused) image for the object on the image acquisition unit 53 for a particular distance to the object intended for this, which has a high image sharpness (of the object) at respectively different image scales, ie the object is at different distances to the object in sharply mapped in different sizes.
  • Image scale in the far distance range decreases substantially with increasing distance to the object, i. at
  • the image scale generated in each case by the positioning of the optical assemblies 51, 52 can also be used for the normal distance range (if a distance is present within the normal distance range).
  • the zoom group 51 may include a number of optical elements, eg, diffractive optical elements such as lenses, by arranging them in the zoom group 51
  • Focusing group 52 a certain number of optical
  • Elements such as diffractive optical elements such as lenses, ironing in a defined arrangement, in order by a corresponding influence of radiation by means of Focusing group 52 in particular to be able to produce a sharp image.
  • FIG. 3 shows a further embodiment of a
  • Camera unit 50 of a laser tracker according to the invention with two optical assemblies 51, 52 (with a zoom group 51 and a focusing group 52), a prism 57 (for
  • Beam deflection and an image acquisition unit 53.
  • the zoom group 51 is for the detection of a nearby object, e.g. in 1.5 m distance, in one
  • Position 61a (relative to an end of the zoom group 51 facing the focusing group 52) positioned.
  • the double arrow 61 also represents a region 61 for a displacement of the zoom group 51 as a function of a current (in the context of a triggered measurement) present distance to the object to be detected. Is this located?
  • Focusing group 52 is given a range 62, within which the group 52 can be controlled controlled.
  • the two positioning areas 61, 62 are
  • the zoom group 51 and the focusing group 52 are each independently shifted according to a predefined function within their respective positioning ⁇ range 61.62, ie a distance between the groups 51,52 is not fixed, but can depending on the positioning function of vary the measured distance to the object.
  • the zoom group 51 and the zoom group 52 are each independently shifted according to a predefined function within their respective positioning ⁇ range 61.62, ie a distance between the groups 51,52 is not fixed, but can depending on the positioning function of vary the measured distance to the object.
  • the zoom group 51 and the zoom group 52 are each independently shifted according to a predefined function within their respective positioning ⁇ range 61.62, ie a distance between the groups 51,52 is not fixed, but can depending on the positioning function of vary the measured distance to the object.
  • Focusing group 52 are also positioned outside the areas 61,62, if a distance to
  • the zoom group 51 can provide the imaging of the object with a specific imaging ratio respectively.
  • FIG. 4 shows an example according to the invention
  • FIG. 4 shows two optics positioning curves 71, 72 which each have a position x of lenses or
  • a first optics positioning curve 71 determines positioning of a first optics assembly (e.g., a zoom group) at a position x, e.g. at a position x along a guide on which the first optical subassembly is displaceable, in accordance with the object measured
  • Optics positioning curve 72 (e.g., focusing group positioning curve 72) positioning a second optics assembly (e.g., focusing group) at a position x, e.g. likewise at a position x along the guide on which the second subassembly is also displaceable, in accordance with the distance d currently measured for the object.
  • a first distance range dl and a second distance range d2 for the positioning of the first and the second optical assembly are defined.
  • the two curves 71,72 are - as can be seen - also according to this
  • Area d2 is the first module despite increasing distance d to the object at least partially displaced in the opposite direction (decreasing x-value). If the first assembly is designed as a zoom group, this essentially leads to a retention of a specific image scale (of the imaged object) on the
  • Image acquisition unit of the telescope unit for distances d within the first distance range dl and to
  • the second optical positioning curve 72 is also hybrid. Different positions for the second module as a function of the distance d are defined for the first distance range d1, wherein a substantially fixed optical group position for distances in this range d2 is defined for the second distance range d2. Is this second optical assembly as a focusing group
  • Imaging unit generated.
  • Distance ranges dl, d2 is also a minimum measurement distance (distances to the object ⁇ dl) taken into account for the laser tracker, which must at least be present for measurements with the tracker per close execution of the tracker.
  • further distance ranges may be defined, e.g. Imagine distances that are greater than those covered by the two areas dl, d2 distances.
  • the two curves 71, 72 may also correspond correspondingly to these further regions
  • curves 71,72 may analogously have further regions (d n ) with further positioning conditions. Alternatively or additionally, further positioning curves for such areas can be stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft einen Lasertracker zur Positions- und/oder Orientierungsbestimmung eines Messhilfsobjekts mit einer eine Stehachse definierenden Basis, einer schwenkbaren Stütze und einer drehbaren Schwenkeinheit mit zumindest zwei Optikbaugruppen und einer Bilderfassungseinheit, wobei die Optikbaugruppen entlang einer optischen Achse der Schwenkeinheit verschiebbar sind und durch eine Positionierung der Optikbaugruppen ein Vergrösserungsfaktor definiert ist. Ferner verfügt der Tracker über eine Strahlquelle zur Emission eines Laserstrahls, eine Entfernungsmesseinheit, eine Winkelmessfunktionalität und über eine Steuerungs- und Verarbeitungseinheit mit einer Objektabbildungsfunktionalität, bei deren Ausführung ein Positionieren der Optikbaugruppen in Abhängigkeit von einer ausgelösten Messung zum Messhilfsobjekt so erfolgt, dass eine Abbildung für das Messhilfsobjekt mit einem bestimmten Bildmassstab auf der Bilderfassungseinheit bereitgestellt wird. Durch die Objektabbildungsfunktionalität ist zumindest ein Normal-Distanzbereich und ein Fern-Distanzbereich für eine Distanz zum Messhilfsobjekt definiert und bei Ausführung der Objektabbildungsfunktionalität wird gesteuert durch die Steuerungs- und Verarbeitungseinheit der Vergrösserungsfaktor in Abhängigkeit von der bestimmten Distanz zum Messhilfsobjekt derart eingestellt wird, dass für jede Distanz innerhalb des Normal-Distanzbereichs ein im Wesentlichen konstanter Normal-Bildmassstab und für jede Distanz innerhalb des Fern-Distanzbereichs ein in Abhängigkeit von der jeweiligen Distanz variabler Fern-Bildmassstab bereitgestellt wird.

Description

Lasertracker mit hybridem Abbildungsverfahren zur Erweiterung der Messreichweite
Die Erfindung betrifft einen Lasertracker zur Positionsund/oder Ausrichtungsbestimmung eines Objekts nach dem Oberbegriff des Anspruchs 1, ein Objekterfassungsverfahren zum definierten scharfen Bilderfassen des Objekts für und mit einem Lasertracker nach Anspruch 11 und ein
Computerprogrammprodukt nach Anspruch 15.
Messgeräte, die für eine fortlaufende Verfolgung eines Zielpunkts und eine koordinative Positionsbestimmung dieses Punkts ausgebildet sind, können allgemein, insbesondere im Zusammenhang mit industrieller Vermessung, unter dem
Begriff Lasertracker zusammengefasst werden. Ein Zielpunkt kann dabei durch eine retro-reflektierende Einheit (z.B. Würfelprisma) repräsentiert sein, die mit einem optischen Messstrahl der Messvorrichtung, insbesondere einem
Laserstrahl, angezielt wird. Der Laserstrahl wird parallel zurück zum Messgerät reflektiert, wobei der reflektierte Strahl mit einer Erfassungseinheit der Vorrichtung erfasst wird. Hierbei wird eine Emissions- bzw. Empfangsrichtung des Strahls, beispielsweise mittels Sensoren zur
Winkelmessung, die einem Ablenkspiegel oder einer
Anzieleinheit des Systems zugeordnet sind, ermittelt. Zudem wird mit dem Erfassen des Strahls eine Distanz von dem Messgerät zum Zielpunkt, z.B. mittels Laufzeit- oder
Phasendifferenzmessung oder mittels des Fizeau-Prinzips, ermittelt .
In modernen Trackersystemen wird zudem - zunehmend
standardisiert - auf einem Sensor eine Ablage des
empfangenen Messlaserstrahls von einem so genannten
Servokontrollpunkt ermittelt. Mittels dieser messbaren Ablage kann eine Positionsdifferenz zwischen dem Zentrum eines Retroreflektors und dem Auftreffpunkt des
Laserstrahls auf dem Reflektor bestimmt und die Ausrichtung des Laserstrahls in Abhängigkeit dieser Abweichung derart korrigiert bzw. nachgeführt werden, dass die Ablage auf dem Sensor verringert wird, insbesondere „Null" ist, und damit der Strahl in Richtung des Reflektorzentrums ausgerichtet ist. Durch das Nachführen der Laserstrahlausrichtung kann eine fortlaufende Zielverfolgung (Tracking) des Zielpunkts erfolgen und die Entfernung und Position des Zielpunkts fortlaufend relativ zum Vermessungsgerät bestimmt werden. Das Nachführen kann dabei mittels einer
Ausrichtungsänderung des motorisiert bewegbaren, zur
Ablenkung des Laserstrahls vorgesehenen Ablenkspiegels und/oder durch ein Schwenken der Anzieleinheit, die die strahlführende Laseroptik aufweist, realisiert werden.
Der beschriebenen Zielverfolgung muss ein Ankoppeln des Laserstrahls an den Reflektor vorausgehen. Hierzu kann am Tracker zusätzlich eine Erfassungseinheit mit einem
positionssensitiven Sensor und mit einem verhältnismässig grossen Sichtfeld angeordnet sein. Zudem sind in
gattungsgemässe Geräte zusätzliche Beleuchtungsmittel integriert, mit welchen das Ziel bzw. der Reflektor, insbesondere mit einer definierten, sich von der
Wellenlänge der Distanzmessmittel unterscheidenden
Wellenlänge, beleuchtet wird. Der Sensor kann in diesem Zusammenhang sensitiv auf einen Bereich um diese bestimmte Wellenlänge ausgebildet sein, um beispielsweise
Fremdlichteinflüsse zu reduzieren oder gänzlich zu
verhindern. Mittels der Beleuchtungsmittel kann das Ziel beleuchtet und mit der Kamera ein Bild des Ziels mit beleuchtetem Reflektor erfasst werden. Durch die Abbildung des spezifischen (wellenlängenspezifischen) Reflexes auf dem Sensor können die Reflexposition im Bild aufgelöst und damit ein Winkel relativ zur Erfassungsrichtung der Kamera und eine Richtung zum Ziel bzw. Reflektor bestimmt werden. Eine Ausführungsform eines Lasertrackers mit einer
derartigen Zielsucheinheit ist beispielsweise aus der
WO 2010/148525 AI bekannt. In Abhängigkeit der so
ableitbaren Richtungsinformation kann die Ausrichtung des Messlaserstrahls derart verändert werden, dass ein Abstand zwischen dem Laserstrahl und dem Reflektor, an welchen der Laserstrahl angekoppelt werden soll, verkleinert wird.
Zur Entfernungsmessung weisen Lasertracker des Standes der Technik zumindest einen Distanzmesser auf, wobei dieser z.B. als Interferometer ausgebildet sein kann. Da solche Entfernungsmesseinheiten nur relative Distanzänderungen messen können, werden in heutigen Lasertrackern zusätzlich zu Interferometern so genannte Absolutdistanzmesser
verbaut. Beispielsweise ist eine derartige Kombination von Messmitteln zur Entfernungsbestimmung durch das Produkt AT901 der Leica Geosystems AG bekannt. Ferner ist eine Kombination eines Absolutdistanzmessers und eines
Interferometers zur Entfernungsbestimmung mit einem HeNe- Laser beispielsweise aus der WO 2007/079600 AI bekannt.
Lasertracker nach dem Stand der Technik können zusätzlich mit einer optischen Bilderfassungseinheit mit einem
zweidimensionalen, lichtempfindlichen Array, z.B. einer CCD- oder CID-Kamera oder einer auf einem CMOS-Array basierenden Kamera, oder mit einem Pixelarraysensor und mit einer Bildverarbeitungseinheit ausgeführt sein. Der
Lasertracker und die Kamera können dabei insbesondere derart aufeinander montiert sein, dass ihre Positionen relativ zueinander nicht veränderbar sind. Die Kamera ist beispielsweise zusammen mit dem Lasertracker um dessen im Wesentlichen senkrechte Achse drehbar, jedoch unabhängig vom Lasertracker auf und ab schwenkbar und somit
insbesondere von der Optik des Laserstrahls getrennt angeordnet. Weiters kann die Kamera - z.B. in Abhängigkeit der jeweiligen Anwendung - nur um eine Achse schwenkbar ausgeführt sein. In alternativen Ausführungen kann die Kamera in integrierter Bauweise mit der Laseroptik zusammen in einem gemeinsamen Gehäuse verbaut sein. Mit dem Erfassen und Auswerten eines Bildes - mittels
Bilderfassungs- und Bildverarbeitungseinheit - eines so genannten Messhilfsinstruments bzw. Messhilfsobjekts mit Markierungen, deren relative Lagen zueinander bekannt sind, kann auf eine Orientierung des Instruments und eines an dem Messhilfsinstrument angeordneten Objekts (z.B. eine Sonde) im Raum geschlossen werden. Zusammen mit der bestimmten räumlichen Position des Zielpunkts kann ferner die Position und Orientierung des Objekts im Raum absolut und/oder relativ zum Lasertracker präzise bestimmt werden (6DoF- Bestimmung: Bestimmung von sechs Freiheitsgraden).
Derartige Messhilfsinstrumente können durch so genannte Tastwerkzeuge, die mit ihrem Kontaktpunkt auf einem Punkt des Zielobjektes positioniert werden, verkörpert sein. Das Tastwerkzeug weist Markierungen, z.B. Lichtpunkte, und einen Reflektor auf, der einen Zielpunkt am Tastwerkzeug repräsentiert und mit dem Laserstrahl des Trackers
anzielbar ist, wobei die Positionen der Markierungen und des Reflektors relativ zum Kontaktpunkt des Tastwerkzeuges präzise bekannt sind. Das Messhilfsinstrument kann in dem Fachmann bekannter Weise auch ein beispielsweise von Hand gehaltener, zur Distanzmessung ausgerüsteter Scanner für berührungslose Oberflächenvermessungen sein, wobei Richtung und Position des für die Distanzmessung verwendeten
Scanner-Messstrahles relativ zu den Lichtpunkten und
Reflektoren, die auf dem Scanner angeordnet sind, genau bekannt sind. Ein derartiger Scanner ist beispielsweise in der EP 0 553 266 beschrieben.
Für eine zuverlässige Bestimmung der Orientierung eines Objekts mit einem Lasertracker ist eine scharfe
(fokussierte) Abbildung und vorzugsweise ein bekannter Massstab für die Abbildung des Objekts z.B. auf einer Kamera vorteilhaft. Ein daraus erfassbares Bild kann dadurch bei einem bekannten und für eine Auswertung optimierten Grössenverhältnis schnell mittels
Bildverarbeitung ausgewertet werden.
Den hierfür einschlägigen Stand der Technik stellen bildverarbeitende Systeme typischerweise mit
Fixfokusobjektiven dar. Im Bereich der
Koordinatenmessmaschinen (CMM) kommen mitunter
Zoomobjektive für eingeschränkte Objektdistanzen zum
Einsatz. Für die industrielle Vermessung (mit
Lasertrackern) bietet die Leica Geosystems AG das Produkt „T-Cam" an, welches mit einer Vario-/Zoom-Objektiv- basierten Lösung in einem Messbereich von 1,5 m bis 15 m einsetzbar ist. Durch eine Kombination einer verstellbaren Vergrösserung und einer ebenfalls einstellbaren
Fokussierung kann damit ein Zielobjekt innerhalb dieses Messbereichs stet mit einem festen Bildmassstab
(verhältnismässig gross) abgebildet werden, wobei
gleichzeitig ein scharfes Abbild der Markierungen erzeugt wird. Dies bietet den Vorteil gegenüber anderen Lösungen, dass auf Basis des so erzeugbaren Abbilds zuverlässig (aufgrund der bekannten und optimalen Grösse des
abgebildeten Objekts bzw. der Markierungen) drei rotatorische Freiheitsgrade eines zu erfassenden Objekts, z.B. eines Messhilfsobjekts mit bekannter Positionierung von Markierungen, sehr genau bestimmt werden können. Damit bietet dieses System eine erhöhte Messgenauigkeit gegenüber alternativer derartiger Messsysteme.
Ein Nachteil dieser Vario-Optik besteht jedoch in der limitierten Messreichweite, welche zumindest teilweise durch die strukturell gegebene Limitierung der
Verstellbarkeit der Fokussiereinheit und der
Vergrösserungseinheit besteht. Insbesondere in Anbetracht einer verstärkt geforderten Miniaturisierung von
Messgeräten allgemein und von Trackersystemen im Speziellen bleibt die damit verbundene Limitierung der Messreichweite einer verbauten Vario-Optik nach dem Stand der Technik weiterhin bestehen bzw. könnte mit immer kleiner werdenden Messsystemen weiter zunehmen, was gleichzeitig zu zunehmend nachteiligen Messbedingungen führen kann.
Es ist daher Aufgabe der vorliegenden Erfindung einen verbesserten Lasertracker mit einem optischen
Abbildungssystem bereitzustellen, wobei eine
Orientierungsbestimmung eines Messobjekts zuverlässiger und präziser über einen vergrösserten Messbereich durchführbar ist .
Eine spezielle Aufgabe der vorliegenden Erfindung ist es, einen verbesserten Lasertracker mit einem optischen System derart bereitzustellen, dass ein Objekt, dessen
Orientierung sowie insbesondere Position präzise
festgestellt werden soll, bzw. Markierung zur
Orientierungsbestimmung an diesem Objekt, über einen vergrösserten Messbereich mit einem jeweils optimierten Bildmassstab abgebildet und erfasst werden können, insbesondere in ihrer Gesamtheit mit einer möglichst grossen räumlichen Ausdehnung auf einem bilderfassenden Sensor abgebildet werden.
Diese Aufgaben werden durch die Verwirklichung der
kennzeichnenden Merkmale der unabhängigen Ansprüche gelöst. Merkmale, die die Erfindung in alternativer oder
vorteilhafter Weise weiterbilden, sind den abhängigen
Patentansprüchen zu entnehmen.
Die Erfindung betrifft einen Lasertracker zur Positions- und/oder Orientierungsbestimmung eines in definierter räumlicher Beziehung angebrachte Referenzmerkmale
aufweisenden Messhilfsobjekts und insbesondere zur
fortlaufenden Verfolgung des Messhilfsobjekts, mit einer eine Stehachse definierenden Basis, einer relativ zur Basis um die Stehachse motorisiert schwenkbare Stütze und einer relativ zur Stütze um eine Kippachse motorisiert drehbare Schwenkeinheit mit zumindest zwei Optikbaugruppen und einer Bilderfassungseinheit, wobei die Optikbaugruppen entlang einer optischen Achse der Schwenkeinheit verschiebbar sind und durch eine jeweilige aktuelle Positionierung der
Optikbaugruppen ein Vergrösserungsfaktor für eine Erfassung eines Bildes mittels der Bilderfassungseinheit definiert ist. Zudem weist der Lasertracker eine Strahlquelle zur Emission eines Laserstrahls, eine Entfernungsmesseinheit zur Distanzmessung zum Messhilfsobjekt vermittels des
Laserstrahls, eine Winkelmessfunktionalität zur Bestimmung einer Emissionsrichtung des Laserstrahls relativ zur Basis und eine Steuerungs- und Verarbeitungseinheit mit einer Objektabbildungsfunktionalität auf, bei deren Ausführung ein gesteuertes Positionieren der Optikbaugruppen in
Abhängigkeit von einer aktuell ausgelösten Messung zum Messhilfsobjekt derart erfolgt, insbesondere fortlaufend, dass eine Abbildung für das Messhilfsobjekt mit einem bestimmten Bildmassstab für eine durch die ausgelöste
Messung bestimmte Distanz zum Messhilfsobjekt auf der
Bilderfassungseinheit bereitgestellt wird. Weiters ist eine Bildverarbeitungseinheit zur Abbildungsauswertung der abgebildeten Referenzmerkmale, sodass die räumliche
Orientierung des Messhilfsobjekts bestimmbar ist,
vorgesehen .
Durch die Objektabbildungsfunktionalität sind zumindest ein Normal-Distanzbereich und ein Fern-Distanzbereich für eine Distanz zum Messhilfsobjekt definiert und bei Ausführung der Objektabbildungsfunktionalität wird gesteuert durch die Steuerungs- und Verarbeitungseinheit der Vergrösserungs- faktor in Abhängigkeit von der durch die ausgelöste Messung bestimmten Distanz zum Messhilfsobjekt derart eingestellt, dass für Distanzen innerhalb des Normal-Distanzbereichs für die Abbildung ein im Wesentlichen konstanter Normal- Bildmassstab bereitgestellt wird und für jede Distanz innerhalb des Fern-Distanzbereichs für die Abbildung ein in Abhängigkeit von der jeweiligen Distanz variabler Fern- Bildmassstab bereitgestellt wird, wobei der Fern- Bildmassstab mit zunehmender Distanz zum Messhilfsobjekt kleiner wird. Zudem wird bei Ausführung der
Abbildungsauswertung bei Vorliegen der bestimmten Distanz innerhalb des Fern-Distanzbereichs der jeweils für die bestimmte Distanz bereitgestellte Fern-Bildmassstab
berücksichtigt .
Es versteht sich, dass die Bildverarbeitungseinheit eine gemeinsame Logik mit der Steuerungs- und
Verarbeitungseinheit bilden kann und die Funktionalitäten der Bildverarbeitungseinheit, insbesondere die
Abbildungsauswertung hinsichtlich der Referenzmerkmale, durch die Steuerungs- und Verarbeitungseinheit ausgeführt werden können.
Mittels der vorliegenden Erfindung wird eine Erweiterung des Messbereichs für ein Vario-Zoom-Obj ektiv (welches erfindungsgemäss als Schwenkeinheit ausgeführt ist) in einem Lasertracker bereitgestellt. Die beweglichen
optischen Elemente (Optikbaugruppen) in solch einem Vario- Zoom-Obj ektiv, die individuell positionierbar und steuerbar sind, werden demnach basierend auf unterschiedlichen
Funktionen (Kurven) positioniert. Die Funktionen sind dabei so spezifiziert, dass die Positionierung sowohl für den Normal- und Fern-Distanzbereich definiert bereitgestellt wird und dadurch ein bestimmter Vergrösserungsfaktor generiert wird. So ist eine Erzeugung verschiedenster optischer Systeme möglich, die beispielsweise eine Konstanz des Bildmassstabs für kürzere bis mittlere Distanzen
(Normal-Distanzbereich) , eine Übersichtkamera mit grossem Field-of-view oder eine nachfokussierende Messkamera für lange Distanzen (Fern-Distanzbereich) erzeugbar, wobei insbesondere hybride Typen möglich sind. Hierdurch kann der Messbereich des Vario-Zoom-Obj ektivs (T-Cam) beispielsweise nominell verdoppelt werden.
Die an dem Messhilfsobjekt angebrachten Referenzmerkmale können - wie Eingangs beschrieben - beispielsweise LEDs sein und/oder können verkörpert werden durch z.B. eine bestimmte Dimensionierung und/oder Form bzw. durch Kanten des Messhilfsobjekts.
Der im Wesentlichen konstante Normal-Bildmassstab ist im Rahmen dieser Erfindung so zu verstehen, dass dieser
Massstab konstruktionsbedingt und bedingt durch eine im Besonderen optimal einzustellende Darstellung bzw. Erfassung der Abbildung gewissen Schwankungen unterliegen kann. In diesem Zusammenhang kann dieser Massstab
beispielsweise minimal (d.h. beispielsweise im
Promillebereich) so angepasst werden, dass in Abhängigkeit der Orientierung des Messhilfsinstruments - z.B. wenn dessen Haupterstreckungsachse im Wesentlichen parallel zu einer Bilddiagonalen der Bilderfassungseinheit liegt und das Messhilfsinstruments dann grösser auf die
Bilderfassungseinheit abgebildet werden kann, als wenn das Instrument vertikal im Bilderfassungsbereich abgebildet wird - der Normal-Bildmassstab derart geringfügig angepasst wird, dass die Abbildung hinsichtlich der Verteilung der Referenzmerkmale im Bild bildausfüllend erzeugbar ist.
Gemäss einer speziellen Ausführungsform der Erfindung wird der Normal-Bildmassstab für die Distanzen innerhalb des Normal-Distanzbereichs derart bereitgestellt, dass der Bilderfassungsbereich der Bilderfassungseinheit
hinsichtlich einer Verteilung der abzubildenden
Referenzmerkmale optimal ausgefüllt ist und/oder der
Normal-Bildmassstab für die Distanzen innerhalb des Normal- Distanzbereichs identisch ist.
Hinsichtlich des für Distanzen innerhalb des Normal- Distanzbereichs bereitgestellten identischen Normal- Bildmassstabs versteht sich, dass im Rahmen des technisch Möglichen der identische Normal-Bildmassstab so erzeugt wird, dass ein mit diesem Massstab abgebildetes Objekt (für Distanzen innerhalb des Normal-Distanzbereichs) immer gleich gross abgebildet wird. D.h. die Optikbaugruppen sind so positioniert, dass die Abbildung (theoretisch) mit dem identischen Massstab erzeugt wird, und die
Bilderfassungseinheit ist so ausgestaltet, dass ein Bild des Objekts mit der dem Massstab entsprechenden Grösse erfassbar ist. Damit sind im Zusammenhang mit vorliegender Erfindung auch Abbildungen, die strukturell- und/oder konstruktiv- und/oder sensorbedingte (geringe) Abweichungen von einer exakt identisch genau gleich grossen Darstellung aufweisen, als Abbildungen mit einem identischen Normal- Bildmassstab zu verstehen.
Bezüglich der Positionierung der Optikbaugruppen in der Schwenkeinheit sind gemäss einer spezifischen
Ausführungsform zumindest zwei Optikpositionierungskurven für die Positionierung der zumindest zwei Optikbaugruppen hinterlegt, wobei die zumindest zwei Optikpositionierungs¬ kurven hybride strukturiert sind und eine Positionierung der zumindest zwei Optikbaugruppen für Distanzen innerhalb des Normal-Distanzbereichs und/oder des Fern- Distanzbereichs angeben. Als hybride strukturierte
Optikpositionierungskurve wird eine Kurve verstanden, die zumindest zwei Bereiche aufweist, innerhalb derer die Kurve jeweils einen homogenen Verlauf (beispielsweise
hinsichtlich der Kurvenkrümmung, der Steigung ( -sänderung) und/oder der Differenzierbarkeit ) aufweist, wobei die
Verläufe (die Homogenitäten) der beiden Bereiche
unterschiedlich sind, sodass die Kurve in ihrer Gesamtheit nicht einen homogenen Verlauf aufweist.
In diesem Zusammenhang können die zumindest zwei
Optikbaugruppen ferner insbesondere gesteuert durch die Steuerungs- und Verarbeitungseinheit basierend auf den zumindest zwei Optikpositionierungskurven positionierbar sein .
Eine weitere Ausführungsform für einen erfindungsgemässen Lasertracker betreffend sind dabei eine Fokussiergruppe- Positionierungskurve zur Positionierung einer Fokussiergruppe und eine Zoomgruppe-Positionierungskurve zur Positionierung einer Zoomgruppe in Abhängigkeit von der bestimmten Distanz zum Messhilfsobjekt hinterlegt, wobei die Fokussiergruppe eine erste der zumindest zwei
Optikbaugruppen und die Zoomgruppe eine zweite der
zumindest zwei Optikbaugruppen verkörpert. Hierbei können die Fokussiergruppe-Positionierungskurve und die
Zoomgruppe-Positionierungskurve insbesondere die
Positionierung der Fokussiergruppe und der Zoomgruppe für Distanzen innerhalb des Normal-Distanzbereichs und/oder des Fern-Distanzbereichs angeben, insbesondere wobei im
Wesentlichen vermittels der Positionierung der
Fokussiergruppe eine Fokussierung der Abbildung und
vermittels der Positionierung der Zoomgruppe eine
Vergrösserung der Abbildung einstellbar ist.
Ein weiterer Aspekt der Erfindung betrifft die Bestimmung der Orientierung des Messhilfsobjekts. Die Steuerungs- und Verarbeitungseinheit kann hierfür insbesondere eine
Orientierungsbestimmungsfunktionalität aufweisen, bei deren Ausführung die räumliche Orientierung des Messhilfsobjekts basierend auf der Abbildungsauswertung mittels
Bildverarbeitung abgeleitet wird, insbesondere mittels Bestimmen von Bildpositionen für die abgebildeten
Referenzmerkmale durch Schwerpunktberechnung und/oder mittels Kantenextraktion und/oder mittels Helligkeits¬ und/oder Kontrastanalyse.
Für eine solche Orientierungsbestimmung wird dann der jeweilige Bildmassstab für die aktuelle Abbildung
herangezogen und bei einem dafür ausgeführten Erkennen und Auslesen von Bildpositionen für die Referenzmerkmale berücksichtigt. Dadurch ist aus der Lage der
Referenzmerkmale, z.B. von LEDs, aus der Abbildung eine Orientierung des Messhilfsinstruments schnell, mit grosser Genauigkeit und insbesondere eindeutig bestimmbar, wobei der Bildmassstab bei vorliegen einer Entfernung zwischen Messhilfsinstrument und Lasertracker innerhalb des Normal- Distanzbereichs im Wesentlichen stets konstant
(insbesondere identisch oder hinsichtlich der Verteilung der abzubildenden Referenzmerkmale bildausfüllend) und dadurch bekannt ist und der Fern-Bildmassstab variabel und durch die jeweilige relative Positionierung der beiden Optikbaugruppen in der Schwenkeinheit in Verbindung mit der Kenntnis der Entfernung zum Messhilfsobjekt ebenfalls bekannt ist. Der jeweils vorliegende Bildmassstab wird bei der Bildauswertung berücksichtigt. Durch die Kenntnis des jeweiligen Massstabes ist somit auch die Grösse, mit der das Objekt auf der Bilderfassungseinheit abgebildet wird und erfassbar ist, bekannt. Aus der Lage der
Referenzmerkmale und der bekannten Grösse des Objekts in einem erfassten Bild kann somit eindeutig eine Orientierung des Objekts abgeleitet werden. Die strukturelle Ausgestaltung des Lasertrackers kann gemäss einer spezifischen Ausführungsform erfindungsgemäss derart vorgesehen sein, dass die Schwenkeinheit eine
Filtereinheit zur optischen Filterung von einfallender Strahlung aufweist, insbesondere ein Infrarotfilter zur derartigen Filterung, dass Licht innerhalb eines
definierten infraroten Wellenlängenbereichs mittels der Filtereinheit transmittiert , absorbiert oder reflektiert wird und gegebenenfalls auf die Bilderfassungseinheit trifft. Durch einen solchen Filter können beispielsweise
Streustrahlung oder ungewollte Strahlungseinflüsse
verringert bzw. zur Gänze verhindert werden, wodurch eine Steigerung der Genauigkeit für z.B. die Bestimmung der Positionen von Referenzmerkmalen auf dem bilderfassenden Sensor erreicht werden kann.
Insbesondere können erfindungsgemäss bei Ausführung der Objektabbildungsfunktionalität eine Anzahl von als die Referenzmerkmale vorgesehenen Orientierungsmarkierungen, die durch die Filtereinheit transmittierbare Strahlung emittieren und/oder reflektieren, auf der Bilderfassungseinheit bereitgestellt werden, insbesondere wobei ein Bild der bereitgestellten Orientierungsmarkierungen durch die Bilderfassungseinheit erfasst wird und eine räumliche
Orientierung des Messhilfsobjekts aus durch die
Abbildungsauswertung bestimmten Bildpositionen für die Orientierungsmarkierungen abgeleitet wird. Neben dem für die Positionierung der Optikbaugruppen festgelegten Normal- und dem Fern-Distanzbereich kann im Rahmen der Erfindung durch die Objektabbildungsfunktionalität zumindest ein weiterer Distanzbereich mit einem Positionierungskriterium zur Positionierung der zumindest zwei Optikbaugruppen in Abhängigkeit von einer Distanz zum Messhilfsobjekt, die innerhalb des weiteren Distanzbereichs liegt, definiert sein, insbesondere wobei das Positionierungskriterium repräsentiert wird durch eine weitere Optikpositionierungskurven . In diesem Zusammenhang kann beispielsweise eine
Positionierungskurve derart hybride strukturiert sein, dass diese unterschiedliche (insbesondere mehr als zwei) Teile aufweist, wobei jeder Teil eine spezifische
Positionierungsvorschrift für einen Distanzbereich angibt. Zur Positionierung der Optikbaugruppe können die zumindest zwei Optikbaugruppen erfindungsgemäss insbesondere jeweils mittels eines optischen Wagens entlang der optischen Achse verschiebbar und positionierbar sein. Ferner kann die
Schwenkeinheit einen Spindelantrieb zur Verschiebung und Positionierung der zumindest zwei Optikbaugruppen entlang der optischen Achse aufweisen.
Weiter kann die Schwenkeinheit erfindungsgemäss
insbesondere eine in einen durch die mindestens zwei
Optikbaugruppen definierten optischen Strahlengang
einschwenkbare Strahlungsblockiereinheit zur Verhinderung eines Strahlungsdurchtritts zur Bilderfassungseinheit aufweisen, insbesondere einen Shutter zur Blockierung des Strahlengangs, und/oder die Bilderfassungseinheit kann ausgebildet sein als CCD- oder CMOS-Kamera.
Bezüglich der Ausgestaltung des Lasertrackers kann gemäss einer speziellen Ausführungsform der Lasertracker eine zumindest die Entfernungsmesseinheit, insbesondere die Strahlquelle, aufweisende und um die Kippachse relativ Stütze motorisiert schwenkbare Strahllenkeinheit aufweisen, wobei die Schwenkeinheit verkörpert ist durch die
Strahllenkeinheit und durch eine Ausrichtung der
Strahllenkeinheit eine Bilderfassungsrichtung definiert ist und wobei die Strahllenkeinheit zur Emission des
Laserstrahls in Emissionsrichtung und zum Empfang von zumindest einem Teil des am Messhilfsobjekt reflektierten Laserstrahls ausgebildet ist.
Die Erfindung betrifft ausserdem ein
Objekterfassungsverfahren zum Orientierungsbestimmen eines in definierter räumlicher Beziehung angebrachte
Referenzmerkmale aufweisenden Messhilfsobjekts für und mit einem Lasertracker mit einer eine Stehachse definierenden Basis, einer relativ zur Basis um die Stehachse motorisiert schwenkbaren Stütze und mit einer relativ zur Stütze um eine Kippachse motorisiert drehbare Schwenkeinheit zum Erfassen eines Bildes des Messhilfsobjekts, wobei im Rahmen des Objekterfassungsverfahrens ein Distanzmessen zum
Bestimmen einer aktuellen Distanz zum Messhilfsobjekt vermittels eines Laserstrahls erfolgt. Zudem erfolgt ein Einstellen, insbesondere fortlaufend, eines Vergrösserungs- faktors in Abhängigkeit der aktuellen Distanz zum
Messhilfsobjekt derart, dass eine Abbildung für das
Messhilfsobjekt mit einem für die aktuelle Distanz
bestimmten Bildmassstab für das Erfassen des Bildes
bereitgestellt wird, und das Bild wird erfasst. Erfindungsgemäss sind zumindest ein Normal-Distanzbereich und ein Fern-Distanzbereich definiert und das Einstellen des Vergrösserungsfaktors erfolgt in Abhängigkeit von der aktuellen Distanz zum Messhilfsobjekt derart, dass für Distanzen innerhalb des Normal-Distanzbereichs für die Abbildung ein im Wesentlichen konstanter Normal- Bildmassstab bereitgestellt wird und für jede Distanz innerhalb des Fern-Distanzbereichs für die Abbildung ein in Abhängigkeit von der jeweiligen Distanz variabler Fern- Bildmassstab bereitgestellt wird, wobei der Fern- Bildmassstab mit zunehmender Distanz zum Messhilfsobjekt kleiner wird. Der jeweils für die bestimmte Distanz bereitgestellte Fern-Bildmassstab wird ferner bei einem auf Basis der Abbildung und mittels Bildverarbeitung
erfolgenden Abbildungsauswerten hinsichtlich der
Referenzmerkmale zum Ausrichtungsbestimmen berücksichtigt.
Bezüglich des Einstellens des Vergrösserungsfaktors kann dieses Einstellen insbesondere basierend auf hinterlegten Optikpositionierungskurven erfolgen, insbesondere wobei eine Fokussiergruppe-Positionierungskurve eine
Fokussierstellung für eine Fokussiergruppe und eine
Zoomgruppe-Positionierungskurve eine Vergrösserungsstellung für eine Zoomgruppe in Abhängigkeit von der Distanz zum Messhilfsobjekt angeben.
Der Normal-Bildmassstab kann erfindungsgemäss insbesondere für die Distanzen innerhalb des Normal-Distanzbereichs derart bereitgestellt werden, dass das Bild durch die
Verteilung der abgebildeten Referenzmerkmale im Bild ausgefüllt ist und/oder der Normal-Bildmassstab für die Distanzen innerhalb des Normal-Distanzbereichs stets identisch ist.
Gemäss einer spezifischen Ausführungsform der Erfindung ist zumindest ein weiterer Distanzbereich mit einem
Positionierungskriterium zur Einstellung des
Vergrösserungsfaktors in Abhängigkeit von einer jeweiligen Distanz zum Messhilfsobjekt, die innerhalb des weiteren Distanzbereichs liegt, definiert, insbesondere wobei das Positionierungskriterium repräsentiert wird durch eine weitere Optikpositionierungskurve .
Im Zusammenhang mit dem Erfassen der Referenzmerkmale kann insbesondere ein Filtern von einfallender Strahlung
erfindungsgemäss derart erfolgen, dass Strahlung innerhalb eines definierten Wellenlängenbereichs in dem Bild erfasst wird und insbesondere eine räumliche Orientierung des Messhilfsobjekts aus der im Bild erfassten gefilterten Strahlung abgeleitet wird, insbesondere aus mittels des Abbildungsauswertens ermittelten Bildpositionen,
insbesondere wobei infrarotes Licht derart gefiltert wird, dass Licht innerhalb eines definierten infraroten Bereichs transmittiert , absorbiert oder reflektiert wird, und/oder das Messhilfsobjekt Orientierungsmarkierungen aufweist, welche Strahlung innerhalb des definierten
Wellenlängenbereichs emittieren und/oder reflektieren.
Somit kann die Ausrichtung der Messhilfsobjekts auf Basis der erfassten, gefilterten Strahlung und der Bestimmung von Bildpositionen für die erfasste Strahlung bestimmt werden.
Ausserdem betrifft die Erfindung ein
Computerprogrammprodukt, das auf einem maschinenlesbaren Träger gespeichert ist. Diese ist konfiguriert zur
Steuerung des Entfernungsmessens, des Einstellens der
Vergrösserung und des Erfassens des Bildes gemäss des erfindungsgemässen Objekterfassungsverfahrens, insbesondere wenn das Computerprogrammprodukt auf einer Steuerungs- und Verarbeitungseinheit eines erfindungsgemässen Lasertrackers ausgeführt wird.
Das erfindungsgemässe Verfahren und die erfindungsgemässe Vorrichtung werden nachfolgend anhand von in den
Zeichnungen schematisch dargestellten konkreten
Ausführungsbeispielen rein beispielhaft näher beschrieben, wobei auch auf weitere Vorteile der Erfindung eingegangen wird. Im Einzelnen zeigen:
Fig.l zwei Ausführungsformen eines erfindungsgemässen
Lasertrackers und ein Messhilfsinstrument;
Fig .2a-b eine erste Ausführungsform einer
Teleskopeinheit eines erfindungsgemässen
Lasertrackers mit zwei Optikbaugruppen und
Bilderfassungseinheit ;
Fig.3 weitere Ausführungsform einer
Teleskopeinheit eines erfindungsgemässen Lasertrackers mit zwei Optikbaugruppen, einem Prisma und einer Bilderfassungseinheit; und
Fig.4 eine erfindungsgemässe
Positionierungsvorschrift für eine jeweilige Positionierung zweier Optikbaugruppen eines
Lasertrackers in Abhängigkeit von einer zu einem Objekt gemessene Distanz.
Figur 1 zeigt zwei Ausführungsformen für erfindungsgemässe Lasertracker 10,11 und ein Messhilfsobjekt 80, dessen
Position und Orientierung (6DoF) bestimmt werden soll und welches gegebenenfalls mit einem jeweiligen Messlaserstrahl 17,21 verfolgt werden soll. Das Messhilfsobjekt 80 ist hier als taktiles Messgerät ausgebildet. Der erste Lasertracker 10 weist eine Basis 40 und eine Stütze 30 auf, wobei die Stütze 30 um eine durch die Basis 40 definierte Schwenkachse 41 relativ zur Basis 40 schwenkbar bzw.
rotierbar angeordnet ist. Zudem ist eine Anzieleinheit 20 (Schwenkeinheit) derart an der Stütze 30 angeordnet, dass die Anzieleinheit 20 relativ zur Stütze 30 um eine
Kippsachse (Neigungs- bzw. Transitachse) drehbar ist. Durch eine so um zwei Achsen bereitgestellte Ausrichtungs¬ möglichkeit der Anzieleinheit 20 kann ein von dieser
Einheit 20 emittierter Laserstrahl 21 exakt ausgerichtet und damit Ziele angezielt werden. Dieses Ausrichten kann mittels einer Motorisierung automatisch erfolgen. Die
Schwenkachse 41 und die Neigungsachse sind hierbei im
Wesentlichen orthogonal zueinander angeordnet, d.h. geringe Abweichungen von einer exakten Achsenorthogonalität können vorbestimmt und im System, beispielsweise zur Kompensation von dadurch entstehenden Messfehlern, hinterlegt sein. In der gezeigten Anordnung ist der Messlaserstrahl 21 auf einen Reflektor 81 (Retroreflektor) am Messhilfsobjekt 80 gerichtet und wird an diesem zurück zum Lasertracker 10 retro-reflektiert . Mittels dieses Messlaserstrahls 21 kann eine Entfernung zum Objekt 80 bzw. zum Reflektor 81, insbesondere mittels LaufZeitmessung, mittels des
Phasenmessprinzips oder mittels des Fizeau-Prinzips, bestimmt werden. Der Lasertracker 10 verfügt hierzu über eine Entfernungsmesseinheit (mit Interferometer und
Absolutdistanzmesser) und über Winkelmesser, die eine
Stellung der Anzieleinheit 20, mittels derer der
Laserstrahl 21 definiert ausgerichtet und geführt werden kann, und somit eine Ausbreitungsrichtung des
Laserstrahls 21 bestimmbar machen. Ausserdem weist der Lasertracker 10, insbesondere die
Schwenkeinheit 20, eine Bilderfassungseinheit auf. Diese Bilderfassungseinheit kann zum Zweck einer Positions¬ bestimmung einer Sensorbelichtung auf einem Sensor bzw. in einem erfassten Bild einen CMOS aufweisen oder ist
insbesondere als CCD- oder Pixelsensorarray-Kamera
ausgebildet. Derartige Sensoren erlauben eine
positionssensitive Detektion von erfasster Belichtung auf dem Detektor. Weiters weist das Messhilfsinstrument 80 einen taktilen Sensor auf, dessen Kontaktpunkt 83 mit einem zu vermessenden Zielobjekt in Kontakt gebracht werden kann. Während dieser Kontakt zwischen dem Tastwerkzeug 80 und dem Zielobjekt besteht können eine Position des
Kontaktpunktes 83 im Raum und damit die Koordinaten eines Punkts am Zielobjekt exakt bestimmt werden. Dieses
Bestimmen erfolgt vermittels einer definierten relativen
Positionierung des Kontaktpunkts 83 zum Reflektor 81 und zu am Messhilfsinstrument 80 angeordneten Orientierungs- markierungen 82 (= Referenzmerkmale) , die beispielsweise als Leuchtdioden ausgebildet sein können. Alternativ können die Orientierungsmarkierungen 82 auch derart ausgebildet sein, dass diese bei einem Beleuchten, z.B. mit Strahlung einer definierten Wellenlänge, die auftreffende Strahlung reflektieren (z.B. als Retroreflektoren ausgebildete
Orientierungsmarkierungen 82), insbesondere eine bestimmte Leuchtcharakteristik zeigen, oder dass diese ein
definiertes Muster oder Farbkodierung aufweisen. Aus der Lage bzw. Verteilung der Orientierungsmarkierungen 82 in einem mit einem Sensor der Bilderfassungseinheit erfassten Bild kann somit eine Orientierung des Tastwerkzeugs 80 bestimmt werden.
Als Grundlage für die Bestimmung der Orientierung dient damit das erfasste Bild des Messhilfsobjekts 80 bzw. der Orientierungsmarkierungen 82 des Messhilfsobjekts 80. Für eine insbesondere fokussierte Erfassung dieser
Markierungen 82 mit einem optimalen Bildmassstab verfügt der Lasertracker 10 über eine erfindungsgemässe
Objektabbildungsfunktionalität mittels derer (bei
Ausführung) eine scharfe Abbildung mit bekanntem Massstab des Objekts 80 bzw. der Orientierungsmarkierungen 82 auf der Bilderfassungseinheit erzeugt wird. Hierfür wird zunächst die Distanz zum Objekt 80 durch die
Entfernungsmesseinheit ermittelt und basierend auf dieser gemessenen Distanz Optikbaugruppen (z.B. eine
Fokussiergruppe und eine Zoomgruppe) der Anzieleinheit 20 in einer definierten Position in der Anzieleinheit 20 positioniert. Eine Erfassungsrichtung der Schwenkeinheit 20 und die Ausbreitungsrichtung des zur Messung der Distanz verwendeten Laserstrahls 21 sind dabei derart relativ zueinander ausgelegt, dass das mit dem Strahl 21 angezielte Objekt 80 mittels der Bilderfassungseinheit erfassbar ist.
Durch die in Abhängigkeit von der Entfernung zum
Messhilfsinstrument 80 frei einstellbare Positionierung der Optikbaugruppen kann somit - wobei die Dimensionierung des Messhilfsobjekts 80 bekannt ist - für jede gemessene
Distanz zum Objekt 80 eine optimale Abbildung des
Objekts 80 bzw. der Orientierungsmarkierungen 82 auf der Bilderfassungseinheit bereitgestellt werden, wodurch die Orientierungsmarkierungen 82 auf einem dabei erfassbaren
Bild optimal erkennbar (z.B. mittels Bildverarbeitung) sind und daraus eine aktuelle Orientierung des Objekts 80 ableitbar ist. Die Optikbaugruppen können dabei unabhängig voneinander positioniert werden (z.B. als Fokussiergruppe und Zoomgruppe) .
Für diese so einstellbare Abbildung sind für die
Positionierungssteuerung der Optikbaugruppen zwei
Distanzbereiche (z.B. ein Normal-Distanzbereich und ein Fern-Distanzbereich) definiert, wobei die Positionierung für den ersten Distanzbereich so erfolgt, dass die
Objektmarkierungen 82 für Distanzen innerhalb des ersten Distanzbereichs stets mit einem im Rahmen des technisch Möglichen im Wesentlichen konstanten, insbesondere
identischen, Bildmassstab (insbesondere scharf) abgebildet werden, d.h. dass das Objekt 80 im Speziellen mit immer derselben festen (und durch die definierte Positionierung z.B. der Zoomgruppe bekannten) Grösse auf der
Bilderfassungseinheit abbildbar ist, vorzugsweise so, dass die Orientierungsmarkierungen 82 dabei scharf erfassbar sind. Aus der Lage der Markierungen 82 in dem erfassten
Bild kann dann beispielsweise mittels Bildverarbeitung die Orientierung des Objekts 80 bestimmt werden. Für Entfernungen innerhalb des zweiten Distanzbereichs werden die Optikbaugruppen jeweils so platziert, dass ebenfalls eine scharfe Abbildung des Objekt 80 bzw. der Orientierungsmarkierungen 82 auf der Bilderfassungseinheit bereitgestellt wird. Zudem wird durch eine Positionierung in diesem zweiten Distanzbereich der feste Bildmassstab für den ersten Distanzbereich nicht länger erhalten, sondern ein jeweiliger Vergrösserungsfaktor variiert in
Abhängigkeit von der jeweiligen vorliegenden Entfernung zum Objekt 80. Der Bildmassstab in diesem zweiten
Distanzbereichs nimmt mit zunehmender Distanz zum
Messhilfsinstrument ab. Somit variiert ebenfalls die Grösse des Abbilds für das Objekt 80 bzw. die relative Lage der Markierungen 82 auf der Kamera. Der hier jeweils
vorliegende Bildmassstab ist durch die definierte
Positionierung der Optikbaugruppen und durch die bestimmte Distanz bekannt und wird bei einem bildverarbeitungs- basierenden Bestimmen und Auslesen von Bildpositionen für die Referenzmerkmale (z.B. für eine Orientierungsbestimmung des Messhilfsobjekts 80) berücksichtigt.
Der erste Distanzbereich entspricht dabei vorzugsweise einem Normal-Bereich, z.B. einem Bereich für Messungen bis zu 15 m oder 20 m, und der zweite Distanzbereich einem Bereich, der Messungen über den ersten Bereich hinaus abdeckt, z.B. > 15 m oder > 20 m. Ferner können mehrere Distanzbereiche definiert sein, wobei für jeden Bereich eine bestimmte Positionierungsfunktion zur Positionierung der Optikbaugruppen gespeichert ist.
Die Positionierung der beiden optischen Baugruppen kann insbesondere durch eine jeweilige Positionierungskurve erfolgen. Diese Kurven geben jeweils an, in welcher
Stellung die jeweilige Optikbaugruppe für welche gemessene Distanz zu positionieren ist. Z.B. stellt eine Zoomgruppe- Positionierungskurve einer Steuerungs- und Verarbeitungs¬ einheit des Trackers die Information bereit, in welche Stellung die Zoomgruppe verschoben werden muss, damit ein optimales Abbild (hinsichtlich des dadurch erzeugten
Bildmassstabes) auf der Bilderfassungseinheit erzeugt wird.
Der Tracker 10 weist ausserdem optional ein Infrarotfilter auf. Das Filter ist dabei derart in die Schwenkeinheit 20 integriert, dass einfallende Strahlung derart gefiltert wird, dass nur Strahlung mit einer Wellenlänge innerhalb eines durch das Filter definierten Wellenlängenbereichs transmittiert und auf die Bilderfassungseinheit trifft. Dadurch können ungewollte Streustrahlung oder andere
Fremdlichteinflüsse verhindert bzw. verringert werden und eine Steigerung der Messgenauigkeit erreicht werden. Mit dem Einsatz eines solchen Filters kann ferner ein
selektives Erfassen von nur reflektierter (bei passiver Beleuchtung mit geeigneter IR-Strahlung) oder emittierter (bei aktiver Aussendung von IR-Strahlung) Strahlung seitens der Orientierungsmarkierungen 82 bereitgestellt werden. Dadurch werden mit einem Bild im Wesentlichen nur die
Markierungen 82 erfasst und aus deren Lage im Bild kann auf eine Orientierung des Objekts 82 geschlossen werden (bei bekannter relativer Positionierung der Markierungen 82 am Objekt 80) .
Der zweite Lasertracker 11 weist eine von einer
Schwenkeinheit 15 (Vario-Kamera) separierte
Strahlführungseinheit 16 zur Emission eines zweiten
Laserstrahls 17 auf, welcher ebenfalls auf den Reflektor 81 ausgerichtet ist. Sowohl der Laserstrahl 17 als auch die Schwenkeinheit 15 sind jeweils um zwei Achsen motorisiert schwenkbar und können dadurch derart ausgerichtet werden, dass mittels der Vario-Kamera 15 das mit dem Laserstrahl 17 angezielte Ziel 81 und die Orientierungsmarkierungen 82 (Referenzmerkmale) des Messhilfsobjekts 80 erfasst werden können. Somit können auch hier eine präzise Entfernung zum Reflektor 81 und eine Orientierung des Objekts 80 anhand der räumlichen Lage der Orientierungsmarkierungen 82 bestimmt werden.
Zur jeweiligen Ausrichtung der Laserstrahlen 17,21 auf den Reflektor 81 sind an den Lasertrackern 10,11 jeweils
Beleuchtungsmittel zur Beleuchtung des Reflektors 81 mit Strahlung einer bestimmten Wellenlänge, insbesondere im infraroten Wellenlängenbereich, vorgesehen und zusätzliche zumindest eine Zielsuchkamera mit einem positionssensitiven Detektor, eine so genannte ATR-Kamera (automatic target recognition) , an jedem Tracker 10,11 angeordnet. Die an dem Reflektor 81 reflektierte und zum Lasertracker 10,11 rückgestrahlte Beleuchtungsstrahlung kann jeweils mittels der Kamera detektiert und mit den positionssensitiven
Detektoren kann eine Position des Reflektors 81 auf dem jeweiligen Detektor abgebildet werden. Somit kann sowohl mit dem ersten Lasertracker 10 als auch mit dem zweiten Lasertracker 11 eine abgebildete Position des Reflektors bestimmt und in Abhängigkeit dieser detektierten
Suchbildpositionen das Ziel (Reflektor 81) im Bild
aufgefunden und die Anzieleinheit 20 (Schwenkeinheit) bzw. die Strahlführungseinheit 16 derart ausgerichtet werden, dass das Ziel mit dem Messstrahl 17,21 automatisch
angezielt wird bzw. der Laserstrahl 17,21 dem Ziel 81 automatisch (iterativ) angenähert wird. Die
Lasertracker 10,11 können alternativ jeweils zumindest zwei Kameras mit jeweils einem positionssensitiven Detektor aufweisen, wobei für jeden Tracker 10,11 aus den jeweils zwei erfassten Suchbildpositionen für den Reflektor 81 jeweils beispielsweise eine Grobposition des Reflektors 81 bestimmt werden kann.
Die Entfernungsmesseinheit des jeweiligen
Lasertrackers 10,11 stellt eine Entfernungsinformation zum Ziel 81 auf Basis einer Bestimmung einer relativen oder absoluten Distanz zwischen dem jeweiligen Tracker 10,11 und dem Ziel 81 und einer Bestimmung einer Änderung dieser Distanz bereit. Wird dabei die absolute Distanz
insbesondere mittels LaufZeitmessung, mittels des
Phasenmessprinzips oder mittels des Fizeau-Prinzips bestimmt, so wird zur Bestimmung der Distanzänderung eine Messung mit einem der jeweiligen Entfernungsmesseinheit zugeordneten Interferometer durchgeführt. Die Messstrahlung 17,21 wird derart aus dem Tracker 10,11 ausgesendet, dass diese auf das Ziel 81 trifft und an diesem rückreflektiert wird. Der reflektierte Strahl bzw. Teile des reflektierten Strahls werden dann wiederum seitens des Trackers 10,11 erfasst und entlang eines Messpfades zum Interferometer- detektor geführt, wo die Referenzstrahlung mit der
empfangenen Messstrahlung 17,21 überlagert wird. Durch diese Überlagerung entsteht eine Interferenz aus den beiden Strahlungen, welche am Detektor erfasst und aufgelöst werden kann. Die Schwenkeinheit 15 des Lasertrackers 11 weist zumindest zwei Optikbaugruppen und einem Kamerasensor auf, wobei der Tracker 11 zusätzlich über eine Steuerungs- und
Verarbeitungseinheit mit einer erfindungsgemässen
Objektabbildungsfunktionalität zur bestimmten
Positionierung der Optikbaugruppen verfügt. Zur jeweiligen Positionierung der Optikbaugruppen (z.B. einer Zoomgruppe und einer Fokussiergruppe) bei Ausführung der Objektabbildungsfunktionalität sind mindesten zwei Messbereiche (Distanzbereiche) definiert, wobei für
Entfernung zum Objekt 80 innerhalb eines ersten
Messbereichs jeweils eine Positionierung der
Optikbaugruppen derart erfolgt, dass eine (fokussierte) Abbildung für das Objekt 80 auf dem Kamerasensor mit einem im Wesentlichen konstanten Bildmassstab, insbesondere stets mit demselben Bildmassstab (d.h. mit gleich bleibender Grösse auf dem Sensor) oder den Erfassungsbereich der
Bilderfassungseinheit ausfüllend, bereitgestellt wird. Für Entfernungen zum Objekt 80, die in einem zweiten
Messbereich liegen, wird eine Positionierung der optischen Gruppen so vollzogen, dass das Objekt 80 jeweils scharf aber in unterschiedlichen Grössen, d.h. mit
unterschiedlichen Bildmassstäben, abgebildet wird.
Mit der jeweiligen Abbildung für das Objekt 80 auf dem Kamerasensor kann jeweils ein aktuelles Bild des Objekts 80 erfasst werden und aus dem Bild eine aktuelle Orientierung des Objekts 80 bestimmt werden. Diese kann beispielsweise mittels Schwerpunktsbestimmung im Bild für die im Bild erfassten Orientierungsmarkierungen 82 (zur Bestimmung von Bildpositionen für die Orientierungsmarkierungen 82 im Bild) oder mittels Kantenextraktion zur Identifikation des Objekts 80 und/oder mittels Analyse der im Bild
vorliegenden Helligkeiten und/oder Kontraste zur Bestimmung einer Lage der im Bild erfassten
Orientierungsmarkierungen 82 abgeleitet werden. Die
Markierungen 82 werden dabei unter Berücksichtigung des dem jeweiligen Bild zugeordneten Bildmassstabes erkannt und ausgelesen und der Massstab kann zudem für die Bestimmung der räumlichen Orientierung des Messhilfsobjekts
berücksichtigt werden.
Figur 2 zeigt eine erste Ausführungsform einer
Kameraeinheit 50 eines erfindungsgemässen Lasertrackers mit zwei Optikbaugruppen 51,52, wobei eine Zoomgruppe 51 und eine Fokussiergruppe 52 vorgesehen sind, und einer
Bilderfassungseinheit 53, z.B. einem CCD- oder CMOS-Sensor. Zudem ist eine einen Laserstrahl 21 emittierende
Entfernungsmesseinheit 22 gezeigt, mit der eine Distanz zu beispielsweise einem bekannten Messhilfsinstrument gemessen werden kann.
Mit der Kameraeinheit 50 ist das bekannte Messhilfs¬ instrument (oder ein alternatives Objekt, welches mit der Entfernungsmesseinheit 22 angezielt wird) erfassbar. Dabei wird die Strahlung entlang der optischen Achse 60 der
Kameraeinheit 50 durch eine Frontlinsenanordnung 55, durch die Optikbaugruppen 51,52, durch eine rückseitige Linse 56 und einen Infrarotfilter 54 auf ein Strahlumlenkmittel 57 geführt und von dort auf die Bilderfassungseinheit 53 umgelenkt. In der Kameraeinheit 50 ist zudem eine
Strahlungsblockiereinheit 58 (z.B. ein Shutter zur
Unterbrechung des Strahlengangs) zur Verhinderung eines Strahlungsdurchtritts auf die Bilderfassungseinheit 53 vorgesehen. Die Strahlungsblockiereinheit 58 ist hierfür in den Strahlengang einschwenkbar ausgebildet. Durch eine solche totale Abdunklung der Bilderfassungseinheit 53 kann z.B. ein Schwarzabgleich durchgeführt werden.
Die Optikbaugruppen 51,52 sind vermittels einer Führung 59 beweglich entlang der optischen Achse 60 gelagert. Durch die derartige Lagerung können diese beiden Gruppen 51,52 unabhängig voneinander jeweils entlang der optischen Achse 60 verschoben werden, wodurch eine jeweilige
definierte Abbildung für ein Messhilfsobjekt auf der
Bilderfassungseinheit 53 eingestellt werden kann.
Eine Steuerung der jeweiligen Position bzw. von
Positionsänderung der Optikbaugruppen 51,52 wird dabei in Abhängigkeit von einer mittels der Entfernungs¬ messeinheit 22 bestimmten Distanz zu dem jeweils
abzubildenden Objekt (Messhilfsinstrument) durchgeführt. Die Optikbaugruppen 51,52 werden also in Abhängigkeit einer bei Auslösen einer Messung gemessenen Distanz so
positioniert, dass das dadurch erzeugte Abbild für ein angemessenes Objekt auf der Bilderfassungseinheit 53 mit einem vorbestimmten Massstab, insbesondere scharf
(fokussiert) , erzeugt wird bzw. mit einem vorbestimmten Abbildungsverhältnis abgebildet wird.
Befindet sich das abzubildende Objekt (dessen Orientierung auf Basis der Abbildung bestimmt werden soll) innerhalb eines Normal-Distanzbereichs, z.B. weniger als 15 m
entfernt von der Kameraeinheit 50, so werden die optischen Gruppen 51,52 so entlang der Führung 59 platziert, dass das Objekt mit einem konstanten Bildmassstab (im Speziellen für Distanzen innerhalb des Normal-Distanzbereichs mit jeweils identischem Bildmassstab) abgebildet wird. Ist das Objekt ausserhalb des Normal-Distanzbereichs und befindet sich z.B. in einer Entfernung innerhalb eines Fern- Distanzbereichs , so wird (durch entsprechende
Positionierung der Baugruppen 51,52) für eine jeweilige hierfür bestimmte Entfernung zum Objekt eine (fokussierte) Abbildung für das Objekt auf der Bilderfassungseinheit 53 erzeugt, die eine grosse Bildschärfe (des Objekts) bei jeweils unterschiedlichen Bildmassstäben aufweist, d.h. das Objekt wird für unterschiedliche Distanzen zum Objekt in unterschiedlichen Grössen scharf abgebildet. Der
Bildmassstab im Fern-Distanzbereich nimmt im Wesentlichen mit zunehmender Entfernung zum Objekt ab, d.h. bei
grösseren Entfernungen wird die Abbildung des Objekts kleiner.
Der jeweils aktuelle Bildmassstab für eine Distanz
innerhalb des den Fern-Distanzbereichs kann ausserdem für die Abbildungsauswertung, z.B. für das Erkennen und
Auslesen von Bildpositionen für Referenzmerkmale,
berücksichtigt werden. Insbesondere kann auch der jeweils durch die Positionierung der Optikbaugruppen 51,52 erzeugte Bildmassstab für den Normal-Distanzbereich (bei Vorliegen einer Distanz innerhalb des Normal-Distanzbereichs)
ebenfalls berücksichtigt werden. Für die variable Positionierung der Zoomgruppe 51 und der Fokussiergruppe 52 können diese Baugruppen 51,52 auf jeweils einem so genannten optischen Wagen angeordnet sein, wobei diese optische Wägen z.B. mittels eines Spindel¬ antriebs entlang der Führung 59 verschoben werden können. Die Zoomgruppe 51 kann eine Anzahl optischer Elemente, z.B. diffraktiver optischer Elemente wie z.B. Linsen, aufweisen durch deren Anordnung in der Zoomgruppe 51 eine
vorbestimmte Beeinflussung von durch die Zoomgruppe 51 durchtretender Strahlung erfolgt, insbesondere zur
Erzeugung eines Abbilds auf der Bilderfassungseinheit 53 mit einem bekannten Massstab. Ebenso kann die
Fokussiergruppe 52 eine bestimmte Anzahl optischer
Elemente, z.B. diffraktiver optischer Elemente wie z.B. Linsen, in definierter Anordnung aufeisen, um durch eine entsprechende Beeinflussung von Strahlung mittels der Fokussiergruppe 52 insbesondere eine scharfe Abbildung erzeugen zu können.
Figur 3 zeigt eine weitere Ausführungsform einer
Kameraeinheit 50 eines erfindungsgemässen Lasertrackers mit zwei Optikbaugruppen 51,52 (mit einer Zoomgruppe 51 und einer Fokussiergruppe 52), einem Prisma 57 (zur
Strahlumlenkung) und einer Bilderfassungseinheit 53.
Die Zoomgruppe 51 ist dabei für die Erfassung eines nahe gelegenen Objekts, z.B. in 1,5 m Entfernung, in einer
Position 61a (bezüglich eines der Fokussiergruppe 52 zugewandten Endes der Zoomgruppe 51) positioniert. Der Doppelpfeil 61 repräsentiert zudem einen Bereich 61 für eine Verschiebung der Zoomgruppe 51 in Abhängigkeit einer aktuell (im Rahmen einer ausgelösten Messung) vorliegenden Entfernung zum zu erfassenden Objekt. Befindet sich das
Objekt z.B. weiter entfernt, z.B. in ca. 15 m Entfernung, so wird die Zoomgruppe 51 gesteuert durch die Steuerungs¬ und Verarbeitungseinheit in der Position 61b positioniert, um eine vorbestimmte Abbildung für das Objekt oder durch eine Filterung mittels des IR-Filters 54 für die bestimmten Markierungen am Objekt auf dem CCD-Sensor 53 zu erzeugen. Auch für die entfernungsabhängige Positionierung der
Fokussiergruppe 52 ist ein Bereich 62 vorgegeben, innerhalb dessen die Gruppe 52 gesteuert positioniert werden kann. Die beiden Positionierungsbereiche 61,62 sind
beispielsweise für Entfernungen zu einem Objekt innerhalb eines Normal-Bereichs bzw. Nah-Bereichs (z.B. 1,5 m bis 15 m) definiert, sodass durch die jeweils definierte
Platzierung der Baugruppen 51,52 innerhalb der jeweiligen Bereiche 61,62 in der Kameraeinheit 50 eine vorbestimmte Abbildung des Objekts - mit konstantem Bildmassstab - auf dem CCD-Bildsensor 53 erreicht wird.
Dabei werden die Zoomgruppe 51 und die Fokussiergruppe 52 jeweils unabhängig voneinander gemäss einer vordefinierten Funktion innerhalb ihres jeweiligen Positionierungs¬ bereichs 61,62 gesteuert verschoben, d.h. ein Abstand zwischen den Gruppen 51,52 ist dabei nicht fest vorgegeben, sondern kann je nach Positionierungsfunktion abhängig von der gemessenen Distanz zum Objekt variieren. Ausserdem können die Zoomgruppe 51 und die
Fokussiergruppe 52 auch ausserhalb der Bereiche 61,62 positioniert werden, falls eine Entfernung zum
abzubildenden Objekt vorliegt, für die eine Positionierung der Zoomgruppe 51 und/oder der Fokussiergruppe 52 zur
Bereitstellung einer (scharfen) Abbildung mit definiertem Massstab ausserhalb der jeweiligen Bereichs 61,62
festgelegt ist. Wird beispielsweise eine Distanz zu einem Objekt (z.B. zu einem taktilen Messgerät mit definiert platzierten Markern am Messgerät) gemessen, die grösser ist als eine innerhalb des Normal-Bereichs liegende Distanz, so kann die Zoomgruppe 51 zur Bereitstellung der Abbildung des Objekts mit einem bestimmten Abbildungsverhältnis bzw.
Vergrösserungsfaktor aus dem Positionierungsbereich 61 heraus näher an die Frontlinsenanordnung 55 oder (bei
Bedarf und abhängig von der Ausgestaltung der Fokussierund Zoomgruppe) näher in Richtung der Fokussiergruppe 52 gefahren werden. Analoges kann für das gesteuerte Verfahren der Fokussiergruppe 52 gelten.
Figur 4 zeigt beispielhaft eine erfindungsgemässe
Positionierungsvorschrift für eine jeweilige Positionierung von zwei Optikbaugruppen (z.B. einer Fokussiergruppe und einer Zoomgruppe) eines Lasertrackers in Abhängigkeit einer zu einem Objekt gemessene Distanz d, wobei eine
Orientierung des Objekts durch ein bildliches Erfassen des Objekts oder von zumindest Teilen des Objekts bestimmt werden soll.
In Figur 4 sind zwei Optikpositionierungskurven 71,72 zu sehen, die jeweils eine Position x von Linsen bzw.
Abbildungsgruppen in einer Kameraeinheit des Lasertrackers in Abhängigkeit von der Entfernung d zu einem Objekt angeben. Eine erste Optikpositionierungskurve 71 (z.B. eine Zoomgruppe-Positionierungskurve 71) bestimmt somit eine Positionierung einer ersten Optikbaugruppe (z.B. einer Zoomgruppe) an einer Position x, z.B. an einer Position x entlang einer Führung auf der die erste Optikbaugruppe verschiebbar ist, gemäss der zum Objekt gemessenen
Entfernung d. Ebenso definiert eine zweite
Optikpositionierungskurve 72 (z.B. eine Fokussiergruppe- Positionierungskurve 72) eine Positionierung einer zweiten Optikbaugruppe (z.B. Fokussiergruppe) an einer Position x, z.B. ebenfalls an einer Position x entlang der Führung auf der auch die zweite Baugruppe verschiebbar ist, gemäss der zum Objekt aktuell gemessenen Entfernung d.
Ausserdem ist ein erster Distanzbereich dl und ein zweiter Distanzbereich d2 für die Positionierung der ersten und der zweiten Optikbaugruppe definiert. Die beiden Kurven 71,72 sind - wie zu sehen - ebenfalls gemäss dieser
Bereichsfestlegung hybride (gemäss den beiden
Distanzbereichen dl,d2 aus zwei Teilen zusammengesetzt) strukturiert . So wird die Position der ersten Optikbaugruppe basierend auf der ersten Optikpositionierungskurve 71 innerhalb des ersten Distanzbereichs dl mit zunehmender Entfernung d zum Objekt stetig in eine Richtung (mit ebenfalls zunehmendem x-Wert) verschoben. Bei Erreichen des zweiten
Distanzbereichs d2 bzw. innerhalb dieses zweiten
Bereichs d2 wird die erste Baugruppe trotz zunehmender Distanz d zum Objekt zumindest teilweise in entgegen gesetzter Richtung (abnehmender x-Wert) verschoben. Ist die erste Baugruppe als Zoomgruppe ausgebildet, so führt dies im Wesentlichen zu einer Beibehaltung eines bestimmten Bildmassstabes (des abgebildeten Objekts) auf der
Bilderfassungseinheit der Teleskopeinheit für Distanzen d innerhalb des ersten Distanzbereichs dl und zu
unterschiedlichen Bildmassstäben (mit zunehmender Distanz abnehmenden Bildmassstäben) für Distanzen d innerhalb des zweiten Distanzbereichs d2.
Für die Positionierung der zweiten Optikbaugruppe ist die zweite Optikpositionierungskurve 72 ebenfalls hybride ausgestaltet. Für den ersten Distanzbereich dl sind jeweils unterschiedliche Positionen für die zweite Baugruppe in Abhängigkeit der Distanz d definiert, wobei für den zweiten Distanzbereich d2 eine im Wesentliche feste Optikgruppenposition für Distanzen in diesem Bereich d2 definiert ist. Ist diese zweite Optikbaugruppe als Fokussiergruppe
ausgebildet, so wird dadurch sowohl für Abbildungen im ersten Distanzbereich dl (z.B. Normal-Bereich) als auch für Abbildung im zweiten Distanzbereich d2 jeweils eine im Wesentlichen scharfe Abbildung des Objekts auf der
Bilderfassungseinheit erzeugt.
Gemeinsam betrachtet stellen die Positionierungen des
Systems aus der ersten und der zweiten Optikbaugruppe gemäss des aktuell vorliegenden Abstands d zu einem Objekt basierend auf den beiden Optikpositionierungskurven 71,72 eine für den jeweiligen Distanzbereich dl,d2 vorgesehen Vergrösserung für eine Abbildung des Objekts bereit. Zudem wird dadurch jeweils eine Abbildung mit einer grossen
Bildschärfe bereitgestellt. Durch die hier vorliegende Definition der
Distanzbereiche dl,d2 ist ferner ein Mindestmessabstand (Entfernungen zum Objekt < dl) für den Lasertracker berücksichtigt, der für Messungen mit dem Tracker je nah Ausführung des Trackers mindestens vorliegen muss. Zusätzlich können weitere Distanzbereiche (hier nicht gezeigt) definiert sein, die z.B. Distanzen abbilden, die grösser als diejenigen durch die beiden Bereiche dl,d2 abgedeckten Distanzen sind. Die beiden Kurven 71,72 können für diese weiteren Bereiche ebenfalls entsprechend
definiert sein, d.h. die Kurven 71,72 können analog weitere Bereiche (dn) mit weiteren Positionierungsbedingungen aufweisen. Alternativ oder zusätzlich können auch weitere Positionierungskurven für solche Bereiche hinterlegt sein.
Es versteht sich, dass diese dargestellten Figuren nur mögliche Ausführungsbeispiele schematisch darstellen. Die verschiedenen Ansätze können erfindungsgemäss ebenso miteinander sowie mit Verfahren zur Abbildung von Objekten bzw. mit Verfahren zur Orientierungsbestimmung von Objekten und mit gattungsgemässen Messgeräten, insbesondere
Lasertrackern, des Stands der Technik kombiniert werden.

Claims

Patentansprüche
1. Lasertracker (10,11) zur Positions- und/oder
Orientierungsbestimmung eines in definierter räumlicher Beziehung angebrachte Referenzmerkmale (82)
aufweisenden Messhilfsobjekts (80) und insbesondere zur fortlaufenden Verfolgung des Messhilfsobjekts (80), aufweisend
• eine eine Stehachse (41) definierende Basis (40), · eine relativ zur Basis (40) um die Stehachse (41) motorisiert schwenkbare Stütze (30),
• eine relativ zur Stütze (30) um eine Kippachse
motorisiert drehbare Schwenkeinheit (15,20) mit zumindest zwei Optikbaugruppen (51,52) und einer Bilderfassungseinheit (53) , wobei
° die Optikbaugruppen (51,52) entlang einer optischen Achse (60) der Schwenkeinheit (15,20) verschiebbar sind und
° durch eine jeweilige aktuelle Positionierung der Optikbaugruppen (51,52) ein Vergrösserungsfaktor für eine Erfassung eines Bildes mittels der Bilderfassungseinheit (53) definiert ist,
• eine Strahlquelle zur Emission eines
Laserstrahls (17,21),
· eine Entfernungsmesseinheit (22) zur Distanzmessung zum Messhilfsobjekt (80) vermittels des
Laserstrahls (17,21),
• eine Winkelmessfunktionalität zur Bestimmung einer Emissionsrichtung des Laserstrahls (17,21) relativ zur Basis (40) ,
• eine Steuerungs- und Verarbeitungseinheit mit einer Objektabbildungsfunktionalität, bei deren Ausführung ein gesteuertes Positionieren der
Optikbaugruppen (51,52) in Abhängigkeit von einer aktuell ausgelösten Messung zum Messhilfsobjekt (80) derart erfolgt, insbesondere fortlaufend, dass eine Abbildung für das Messhilfsobjekt (80) mit einem bestimmten Bildmassstab für eine durch die ausgelöste Messung bestimmte Distanz zum Messhilfsobjekt (80) auf der Bilderfassungseinheit (53) bereitgestellt wird, und
· eine Bildverarbeitungseinheit zur
Abbildungsauswertung der abgebildeten
Referenzmerkmale (82), sodass daraus die räumliche Orientierung des Messhilfsobjekts (80) bestimmbar ist,
dadurch gekennzeichnet, dass
• durch die Objektabbildungsfunktionalität zumindest ein Normal-Distanzbereich (dl) und ein Fern- Distanzbereich (d2) für eine Distanz zum
Messhilfsobjekt (80) definiert sind und bei
Ausführung der Objektabbildungsfunktionalität gesteuert durch die Steuerungs- und
Verarbeitungseinheit der Vergrösserungsfaktor in Abhängigkeit von der durch die ausgelöste Messung bestimmten Distanz zum Messhilfsobjekt (80) derart eingestellt wird, dass
° für Distanzen innerhalb des Normal- Distanzbereichs (dl) für die Abbildung ein im
Wesentlichen konstanter Normal-Bildmassstab
bereitgestellt wird und
° für jede Distanz innerhalb des Fern-
Distanzbereichs (d2) für die Abbildung ein in
Abhängigkeit von der jeweiligen Distanz variabler Fern-Bildmassstab bereitgestellt wird, wobei der Fern-Bildmassstab mit zunehmender Distanz zum
Messhilfsobjekt (80) kleiner wird, und
• bei Ausführung der Abbildungsauswertung bei Vorliegen der bestimmten Distanz innerhalb des Fern- Distanzbereichs (d2) der jeweils für die bestimmte Distanz bereitgestellte Fern-Bildmassstab
berücksichtigt wird.
Lasertracker (10,11) nach Anspruch 1,
dadurch gekennzeichnet, dass
der Normal-Bildmassstab für die Distanzen innerhalb des Normal-Distanzbereichs (dl) derart bereitgestellt wird, dass ein Bilderfassungsbereich der
Bilderfassungseinheit (53) hinsichtlich einer
Verteilung der abzubildenden Referenzmerkmale (82) optimal ausgefüllt ist und/oder der Normal-Bildmassstab für die Distanzen innerhalb des Normal- Distanzbereichs (dl) identisch ist.
Lasertracker (10,11) nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
zumindest zwei Optikpositionierungskurven (71,72) für die Positionierung der zumindest zwei
Optikbaugruppen (51,52) hinterlegt sind, wobei die zumindest zwei Optikpositionierungskurven (71,72) hybride strukturiert sind und eine Positionierung der zumindest zwei Optikbaugruppen (51,52) für die
Distanzen innerhalb des Normal-Distanzbereichs (dl) und/oder des Fern-Distanzbereichs (d2) angeben.
Lasertracker (10,11) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine Fokussiergruppe-Positionierungskurve (72) zur Positionierung einer Fokussiergruppe (52) und eine Zoomgruppe-Positionierungskurve (71) zur Positionierung einer Zoomgruppe (51) in Abhängigkeit von der
bestimmten Distanz zum Messhilfsobjekt (80) hinterlegt sind, wobei die Fokussiergruppe (52) eine erste der zumindest zwei Optikbaugruppen und die Zoomgruppe (51) eine zweite der zumindest zwei Optikbaugruppen
verkörpert ,
insbesondere wobei die Fokussiergruppe- Positionierungskurve (72) und die Zoomgruppe- Positionierungskurve (71) die Positionierung der
Fokussiergruppe (52) und der Zoomgruppe (51) für die Distanzen innerhalb des Normal-Distanzbereichs (dl) und/oder des Fern-Distanzbereichs (d2) angeben, insbesondere wobei im Wesentlichen vermittels der Positionierung der Fokussiergruppe (52) eine
Fokussierung der Abbildung und vermittels der
Positionierung der Zoomgruppe (51) eine Vergrösserung der Abbildung einstellbar ist.
Lasertracker (10,11) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass
die Steuerungs- und Verarbeitungseinheit eine
Orientierungsbestimmungsfunktionalität aufweist, bei deren Ausführung die räumliche Orientierung des
Messhilfsobjekts (80) basierend auf der
Abbildungsauswertung mittels Bildverarbeitung
abgeleitet wird, insbesondere mittels Bestimmen von Bildpositionen für die abgebildeten
Referenzmerkmale (82) durch Schwerpunktberechnung und/oder mittels Kantenextraktion und/oder mittels Helligkeits- und/oder Kontrastanalyse. Lasertracker (10,11) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass
die Schwenkeinheit (15,20) eine Filtereinheit (54) zur optischen Filterung von einfallender Strahlung
aufweist, insbesondere ein Infrarotfilter zur
derartigen Filterung, dass Licht innerhalb eines definierten infraroten Wellenlängenbereichs mittels der Filtereinheit transmittiert , absorbiert oder
reflektiert wird und gegebenenfalls auf die
Bilderfassungseinheit (53) trifft.
Lasertracker (10,11) nach Anspruch 6,
dadurch gekennzeichnet, dass
bei Ausführung der Objektabbildungsfunktionalität eine Anzahl von als die Referenzmerkmale vorgesehenen
Orientierungsmarkierungen (82), die durch die
Filtereinheit (54) transmittierbare Strahlung
emittieren und/oder reflektieren, auf der
Bilderfassungseinheit (53) bereitgestellt werden, insbesondere wobei ein Bild der bereitgestellten
Orientierungsmarkierungen (82) durch die
Bilderfassungseinheit (53) erfasst wird und die
räumliche Orientierung des Messhilfsobjekts (80) aus durch die Abbildungsauswertung bestimmten
Bildpositionen für die Orientierungsmarkierungen (82) abgeleitet wird.
Lasertracker (10,11) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass
durch die Objektabbildungsfunktionalität zumindest ein weiterer Distanzbereich mit einem Positionierungskriterium zur Positionierung der zumindest zwei Optikbaugruppen (51,52) in Abhängigkeit von einer Distanz zum Messhilfsobjekt (80), die innerhalb des weiteren Distanzbereichs liegt, definiert ist,
insbesondere wobei das Positionierungskriterium repräsentiert wird durch eine weitere
Optikpositionierungskurven .
Lasertracker (10,11) nach einem der Ansprüche 1 bis 8 dadurch gekennzeichnet, dass
die zumindest zwei Optikbaugruppen (51,52) jeweils mittels eines optischen Wagens entlang der optischen Achse (60) verschiebbar und positionierbar sind, und/oder
die Schwenkeinheit (15,20) einen Spindelantrieb zur Verschiebung und Positionierung der zumindest zwei Optikbaugruppen (51,52) aufweist und/oder
die Schwenkeinheit (15,20) eine in einen durch die mindestens zwei Optikbaugruppen (51,52) definierten optischen Strahlengang einschwenkbare
Strahlungsblockiereinheit (58) zur Verhinderung eines Strahlungsdurchtritts zur Bilderfassungseinheit (53) aufweist, insbesondere einen Shutter zur Blockierung des Strahlengangs, und/oder die
Bilderfassungseinheit (53) ausgebildet ist als CCD- oder CMOS-Kamera.
10. Lasertracker (10,11) nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass
der Lasertracker (10,11) eine zumindest die
Entfernungsmesseinheit (22), insbesondere die
Strahlquelle, aufweisende und um die Kippachse relativ Stütze (30) motorisiert schwenkbare
Strahllenkeinheit (20) aufweist, wobei • die Schwenkeinheit verkörpert ist durch die
Strahllenkeinheit (20) und durch eine Ausrichtung der Strahllenkeinheit (20) eine Bilderfassungsrichtung definiert ist und
• die Strahllenkeinheit (20) zur Emission des
Laserstrahls (21) in Emissionsrichtung und zum
Empfang von zumindest einem Teil des am
Messhilfsobjekt ( 80 ) reflektierten Laserstrahls ausgebildet ist.
Objekterfassungsverfahren zum Orientierungsbestimmen eines in definierter räumlicher Beziehung angebrachte Referenzmerkmale (82) aufweisenden
Messhilfsobjekts (80) für und mit einem
Lasertracker (10,11) mit
• einer eine Stehachse (41) definierenden Basis (40),
• einer relativ zur Basis (40) um die Stehachse (41) motorisiert schwenkbaren Stütze (30),
• einer relativ zur Stütze (30) um eine Kippachse
motorisiert drehbare Schwenkeinheit (15,20) zum
Erfassen eines Bildes des Messhilfsobjekts (80), wobei im Rahmen des Objekterfassungsverfahrens erfolgen
• ein Distanzmessen zum Bestimmen einer aktuellen
Distanz zum Messhilfsobjekt (80) vermittels eines Laserstrahls (17,21),
• ein Einstellen, insbesondere fortlaufend, eines
Vergrösserungsfaktors in Abhängigkeit der aktuellen Distanz zum Messhilfsobjekt (80) derart, dass eine Abbildung für das Messhilfsobjekt (80) mit einem für die aktuelle Distanz bestimmten Bildmassstab für das Erfassen des Bildes bereitgestellt wird, und
• Erfassen des Bildes, dadurch gekennzeichnet, dass
• zumindest ein Normal-Distanzbereich (dl) und ein
Fern-Distanzbereich (d2) definiert sind und das Einstellen des Vergrösserungsfaktors in Abhängigkeit von der aktuellen Distanz zum Messhilfsobjekt (80) derart erfolgt, dass
° für Distanzen innerhalb des Normal- Distanzbereichs (dl) für die Abbildung ein im
Wesentlichen konstanter Normal-Bildmassstab bereitgestellt wird und
° für jede Distanz innerhalb des Fern-
Distanzbereichs (d2) für die Abbildung ein in
Abhängigkeit von der jeweiligen Distanz variabler Fern-Bildmassstab bereitgestellt wird, wobei der Fern-Bildmassstab mit zunehmender Distanz zum
Messhilfsobjekt (80) kleiner wird, und
• der jeweils für die bestimmte Distanz bereitgestellte Fern-Bildmassstab bei einem auf Basis der Abbildung und mittels Bildverarbeitung erfolgenden
Abbildungsauswerten hinsichtlich der
Referenzmerkmale (82) zum Orientierungsbestimmen berücksichtigt wird.
12. Objekterfassungsverfahren nach Anspruch 11,
dadurch gekennzeichnet, dass
das Einstellen des Vergrösserungsfaktors basierend auf hinterlegten Optikpositionierungskurven (71,72) erfolgt, insbesondere wobei eine Fokussiergruppe- Positionierungskurve (72) eine Fokussierstellung für eine Fokussiergruppe (52) und eine Zoomgruppe-
Positionierungskurve (72) eine Vergrösserungsstellung für eine Zoomgruppe (52) in Abhängigkeit von der
Distanz zum Messhilfsobjekt (80) angeben, und/oder der Normal-Bildmassstab für die Distanzen innerhalb des Normal-Distanzbereichs (dl) derart bereitgestellt wird, dass das Bild bezüglich der Verteilung der abgebildeten Referenzmerkmale im Bild ausgefüllt ist und/oder der Normal-Bildmassstab identisch ist.
Objekterfassungsverfahren nach Ansprüche 11 oder 12, dadurch gekennzeichnet, dass
zumindest ein weiterer Distanzbereich mit einem
Positionierungskriterium zur Einstellung des
Vergrösserungsfaktors in Abhängigkeit von einer
jeweiligen Distanz zum Messhilfsobjekt (80), die innerhalb des weiteren Distanzbereichs liegt, definiert ist, insbesondere wobei das Positionierungskriterium repräsentiert wird durch eine weitere
Optikpositionierungskurve .
Objekterfassungsverfahren nach einem der Ansprüche 11 bis 13,
dadurch gekennzeichnet, dass
ein Filtern von einfallender Strahlung derart erfolgt, dass Strahlung innerhalb eines definierten
Wellenlängenbereichs in dem Bild erfasst wird und insbesondere eine räumliche Orientierung des
Messhilfsobjekts (80) aus der im Bild erfassten
gefilterten Strahlung abgeleitet wird, insbesondere aus mittels des Abbildungsauswertens ermittelten
Bildpositionen, insbesondere wobei
• infrarotes Licht derart gefiltert wird, dass Licht innerhalb eines definierten infraroten Bereichs transmittiert , absorbiert oder reflektiert wird, und/oder
• das Messhilfsobjekt (80)
Orientierungsmarkierungen (82) aufweist, welche
Strahlung innerhalb des definierten
Wellenlängenbereichs emittieren und/oder
reflektieren .
Computerprogrammprodukt, das auf einem
maschinenlesbaren Träger gespeichert ist, zur Steuerung
• des Entfernungsmessens,
• des Einstellens des Vergrösserungsfaktors und
• des Erfassens des Bildes,
des Objekterfassungsverfahrens nach einem der
Ansprüche 11 bis 14, insbesondere wenn das
Computerprogrammprodukt auf einer Steuerungs- und
Verarbeitungseinheit eines Lasertrackers (10,11) nach einem der Ansprüche 1 bis 10 ausgeführt wird.
EP13758865.3A 2012-09-07 2013-09-05 Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite Active EP2893371B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP13758865.3A EP2893371B1 (de) 2012-09-07 2013-09-05 Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12183598.7A EP2706376A1 (de) 2012-09-07 2012-09-07 Lasertracker mit hybridem Abbildungsverfahren zur Erweiterung der Messreichweite
PCT/EP2013/068366 WO2014037441A1 (de) 2012-09-07 2013-09-05 Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite
EP13758865.3A EP2893371B1 (de) 2012-09-07 2013-09-05 Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite

Publications (2)

Publication Number Publication Date
EP2893371A1 true EP2893371A1 (de) 2015-07-15
EP2893371B1 EP2893371B1 (de) 2017-12-27

Family

ID=46939549

Family Applications (2)

Application Number Title Priority Date Filing Date
EP12183598.7A Withdrawn EP2706376A1 (de) 2012-09-07 2012-09-07 Lasertracker mit hybridem Abbildungsverfahren zur Erweiterung der Messreichweite
EP13758865.3A Active EP2893371B1 (de) 2012-09-07 2013-09-05 Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP12183598.7A Withdrawn EP2706376A1 (de) 2012-09-07 2012-09-07 Lasertracker mit hybridem Abbildungsverfahren zur Erweiterung der Messreichweite

Country Status (5)

Country Link
US (1) US9864062B2 (de)
EP (2) EP2706376A1 (de)
JP (1) JP6042547B2 (de)
CN (1) CN104603635B (de)
WO (1) WO2014037441A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6934811B2 (ja) * 2017-11-16 2021-09-15 株式会社ミツトヨ 三次元測定装置
JP7037860B2 (ja) * 2017-11-17 2022-03-17 株式会社トプコン 測量装置及び測量装置システム
CN112384951A (zh) * 2018-05-09 2021-02-19 特里纳米克斯股份有限公司 用于确定至少一个存储单元中的填充水平的方法和装置
EP3627101B1 (de) * 2018-09-20 2021-11-03 Hexagon Technology Center GmbH Retroreflektor mit sensor
EP3640590B1 (de) 2018-10-17 2021-12-01 Trimble Jena GmbH Vermessungsvorrichtung zur vermessung eines objekts
EP3640677B1 (de) 2018-10-17 2023-08-02 Trimble Jena GmbH Verfolger einer vermessungsvorrichtung zur verfolgung eines ziels
EP3696498A1 (de) 2019-02-15 2020-08-19 Trimble Jena GmbH Vermessungsinstrument und verfahren zur kalibrierung eines vermessungsinstruments

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2774624B2 (ja) * 1989-11-24 1998-07-09 株式会社東芝 移動体用距離・姿勢測定装置
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US7800758B1 (en) * 1999-07-23 2010-09-21 Faro Laser Trackers, Llc Laser-based coordinate measuring device and laser-based method for measuring coordinates
JP2001042200A (ja) * 1999-07-30 2001-02-16 Casio Comput Co Ltd カメラ装置及びズーム動作制御方法
JP2001167379A (ja) * 1999-12-10 2001-06-22 Mitsubishi Electric Corp ナンバ読取照合装置
AU2001284519A1 (en) 2000-09-11 2002-03-26 Kunikatsu Takase Mobile body position detecting system
JP4282216B2 (ja) 2000-09-19 2009-06-17 オリンパス株式会社 3次元位置姿勢センシング装置
US6697761B2 (en) 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
JP3937154B2 (ja) * 2002-06-28 2007-06-27 株式会社トプコン 位置検出装置
JP4188394B2 (ja) * 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
US8031331B2 (en) 2006-01-13 2011-10-04 Leica Geosystems Ag Coordinate measurement instrument
DE102006047053B4 (de) 2006-10-05 2010-04-01 A. Monforts Textilmaschinen Gmbh & Co. Kg Hotflue
US7639935B2 (en) * 2007-03-28 2009-12-29 Sony Ericsson Mobile Communications Ab Zoom control
CN101821583B (zh) * 2007-10-10 2013-08-14 特里伯耶拿有限公司 用于跟踪和测量目标的测量装置
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
CN102216803A (zh) 2008-11-17 2011-10-12 法罗技术股份有限公司 测量六个自由度的装置和方法
US8681317B2 (en) 2009-06-23 2014-03-25 Leica Geosystems Ag Tracking method and measuring system having a laser tracker
CN102803987B (zh) 2009-06-23 2015-09-16 莱卡地球系统公开股份有限公司 坐标测量设备
US9497388B2 (en) * 2010-12-17 2016-11-15 Pelco, Inc. Zooming factor computation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2014037441A1 *

Also Published As

Publication number Publication date
JP6042547B2 (ja) 2016-12-14
CN104603635A (zh) 2015-05-06
CN104603635B (zh) 2016-10-26
EP2706376A1 (de) 2014-03-12
EP2893371B1 (de) 2017-12-27
US20150247927A1 (en) 2015-09-03
US9864062B2 (en) 2018-01-09
JP2015531478A (ja) 2015-11-02
WO2014037441A1 (de) 2014-03-13

Similar Documents

Publication Publication Date Title
EP2805180B1 (de) Lasertracker mit funktionalität zur graphischen zielbereitstellung
EP2788791B1 (de) Lasertracker mit positionssensitiven detektoren zur suche eines ziels
EP2810020B1 (de) Vermessungsgerät mit scanfunktionalität und einzelpunktmessmodus
EP2893371B1 (de) Lasertracker mit hybridem abbildungsverfahren zur erweiterung der messreichweite
EP2746806B1 (de) Selbstkalibrierender Lasertracker und Selbstkalibrierungsverfahren
EP2916104B1 (de) Reflektoranordnung mit Retroreflektor sowie mit Sensoranordnung zur Neigungsbestimmung und Kalibrierung
EP2875383B1 (de) Lasertracker mit kalibriereinheit zur selbstkalibrierung
EP2591311B1 (de) Geodätisches vermessungsgerät mit automatischer hochpräziser zielpunkt-anzielfunktionalität
EP3022527B1 (de) Lasertracker mit zielsuchfunktionalität
EP2801841B1 (de) Lasertracker mit einer Zielerfassungseinheit für eine Zielverfolgung und eine Orientierungserkennung
EP2835613B1 (de) Geodätisches Vermessungsgerät mit Mikrolinsenarray
EP2980526B1 (de) Koordinatenmessgerät und Verfahren zum Messen von Koordinaten
EP3264034A1 (de) Vermessungsgerät mit höhenmesssystem und verfahren zum messen einer höhe
EP2810019A1 (de) Vermessungssystem mit einem vermessungsgerät und einem scanmodul
EP3845859B1 (de) Koordinatenmessgerät mit automatischer zielobjekterkennung
EP2825907B1 (de) Kamerasystem mit einem zoomobjektiv und einem linearencoder
DE10122936A1 (de) Vermessungsinstrument mit einer Phasendifferenz-Schärfenerfassungsvorrichtung und einer Strahlteileroptik

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20150130

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIC1 Information provided on ipc code assigned before grant

Ipc: G01S 17/66 20060101AFI20170629BHEP

Ipc: G01S 17/89 20060101ALI20170629BHEP

Ipc: G01S 7/481 20060101ALI20170629BHEP

Ipc: G01S 17/02 20060101ALI20170629BHEP

INTG Intention to grant announced

Effective date: 20170801

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 958771

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502013009133

Country of ref document: DE

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: KAMINSKI HARMANN PATENTANWAELTE AG, LI

REG Reference to a national code

Ref country code: SE

Ref legal event code: TRGR

REG Reference to a national code

Ref country code: NL

Ref legal event code: FP

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180327

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180328

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180327

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180427

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502013009133

Country of ref document: DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

26N No opposition filed

Effective date: 20180928

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20180930

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180905

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180905

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180930

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20190918

Year of fee payment: 7

Ref country code: SE

Payment date: 20190918

Year of fee payment: 7

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 958771

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180905

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180905

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: CH

Payment date: 20190919

Year of fee payment: 7

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171227

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20130905

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171227

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: NL

Ref legal event code: MM

Effective date: 20201001

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20201001

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930

Ref country code: SE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200906

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930

REG Reference to a national code

Ref country code: SE

Ref legal event code: EUG

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20230920

Year of fee payment: 11

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230928

Year of fee payment: 11

Ref country code: DE

Payment date: 20230920

Year of fee payment: 11