WO2016146379A1 - Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts - Google Patents

Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts Download PDF

Info

Publication number
WO2016146379A1
WO2016146379A1 PCT/EP2016/054342 EP2016054342W WO2016146379A1 WO 2016146379 A1 WO2016146379 A1 WO 2016146379A1 EP 2016054342 W EP2016054342 W EP 2016054342W WO 2016146379 A1 WO2016146379 A1 WO 2016146379A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
detection
sensor carrier
sensor
orientation
Prior art date
Application number
PCT/EP2016/054342
Other languages
English (en)
French (fr)
Inventor
Nils Haverkamp
Original Assignee
Carl Zeiss Industrielle Messtechnik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik Gmbh filed Critical Carl Zeiss Industrielle Messtechnik Gmbh
Publication of WO2016146379A1 publication Critical patent/WO2016146379A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2428Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring existing positions of tools or workpieces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2452Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces
    • B23Q17/2471Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces of workpieces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/248Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods
    • B23Q17/249Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods using image analysis, e.g. for radar, infrared or array camera images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/0011Arrangements for eliminating or compensation of measuring errors due to temperature or weight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines

Definitions

  • the invention relates to a coordinate measuring machine (short: CMM), which has a sensor for detecting coordinates of a workpiece.
  • the CMM has a moveable sensor carrier that carries the sensor and that is movable within a range of motion relative to a base of the CMM.
  • the invention further relates to a method for operating such a coordinate measuring machine.
  • the senor is a probe attached to a moving part (such as a quill or arm) of the CMM.
  • a stylus e.g., a stylus
  • the probe head for tactionally engaging the surface of the workpiece with the CMM to generate the probe sensor signals. Therefore, in particular, a probe for tactile probing of the workpiece to be measured is an example of a sensor or for a part of the sensor.
  • the measuring head has a sensor system which generates measuring signals, by the evaluation of which the coordinates can be determined.
  • Coordinate metrology come before other sensors.
  • the sensor can only trigger the measurement of the coordinates. This is the case, for example, in the case of a switching measuring head, which generates a switching signal upon contact with the workpiece to be measured, which measurement of the coordinates z.
  • B. triggers by reading the scales of the moving parts or the CMM.
  • the sensors can be divided into contact (tactile probing of the workpiece) and non-contact sensors.
  • optical or capacitive sensors for coordinate measurement are sensors that are not based on the principle of tactile sensing. It is also possible to divide sensors according to the type or size of the particularly simultaneously detected region of the workpiece.
  • sensors can measure coordinates of only one point or surface on the surface or even inside the workpiece, or measure coordinates of a volume of the workpiece.
  • sensors can be used different sensors simultaneously on the same sensor carrier or different sensor carrier, either as separate units or integrated into a common unit. It is common practice to design CMMs so that the sensor can be replaced with another sensor. In this case, that part of the CMM which has the interface for attaching the respective sensor can be referred to as a sensor carrier. However, that portion of the coupled sensor that is immobile in the coupled state relative to the docking interface may also be referred to as part of the sensor carrier. It is also possible, as in the already mentioned case of a measuring head with a tactile button attached thereto, to designate two different parts as a sensor. If one sensor carries the other sensor, one sensor may be referred to as a sensor carrier of the other sensor.
  • the sensor is used to acquire coordinates of a workpiece.
  • signals generated by the sensor from a scan of the workpiece alone are not sufficient to be able to determine the coordinates of the workpiece in the coordinate system of the coordinate measuring machine.
  • the CMM therefore has one
  • Position determining device for determining a position and / or a
  • a scale such as a scale graduation with bars, are arranged on a part of the CMM and a
  • Measuring signal transmitter arranged on a relatively movable second part of the CMM.
  • An evaluation device of the CMM determined from one of the
  • Position determining device detected position and / or orientation of the sensor carrier and from signals of the sensor coordinates of the workpiece.
  • the position determination of the sensor carrier depends on external influences and the respective operating state of the CMM. For example, affects the temperature and
  • Influencing variables vary in size. Also, the behavior of the CMM changes over time, so the calibration must be repeated.
  • the position of a movable part of the CMM is detected optically with at least one camera.
  • the movable part may be a supporting structure for supporting the workpiece (eg, a movable measuring table supporting the workpiece to be measured, such as a so-called xy table) or the sensor carrier of the CMM, with others also fixedly connected to the sensor carrier Parts, such as a relative to that
  • Sensor carrier immovable part of the sensor are attributable to the sensor carrier. They are also firmly connected to the sensor carrier and are therefore suitable for optical position determination.
  • the term positioning is used hereafter for the determination of position and / or orientation, if it results from the
  • the at least one camera is in particular a digital camera, e.g. a
  • Range generated with a number of pixels corresponding to the number of pixels
  • the sensor elements may be, for example, radiation-sensitive CMOS (Complementary Metal Oxide Semiconductor) sensor elements act.
  • the camera may have CCD (charge-coupled device) sensor elements.
  • CCD charge-coupled device
  • the camera can therefore basically also be a line scan camera.
  • the camera may be different than, for example, optical
  • Distance measuring systems for example, the laser triangulation and / or
  • phase information of the radiation to act a measuring device, which measures and / or detects only the intensity distribution of the radiation incident on the camera.
  • a measuring device which measures and / or detects only the intensity distribution of the radiation incident on the camera.
  • at least one TOF (Time of Flight) camera which measures the transit time of the detected radiation.
  • the position of the moving part can be easily determined.
  • the optical position determination has the advantage that the measurement results of conventional motion measuring devices (e.g.
  • Binary scales, rotary encoders, speedometer can be checked during operation of the CMM or the conventional motion measuring devices can be completely or partially omitted.
  • Motion measuring devices include not only those that are arranged on the relatively moving parts of the CMM, but also those that are attached to the
  • Processing of the camera signals with detection of the position of the movable part, the drive control and not just the workpiece coordinate detection of the CMM can be based solely on actual values of the position and / or orientation of the movable part or moving parts of the CMM, which is determined from the camera images were. As a result, complicated and high-precision to be manufactured conventional motion measuring devices can be saved. Furthermore, the calibration of the CMM with respect to the optically detected by the camera or the camera moving part with respect to changes due to mechanical loads and external factors omitted.
  • the movable part or one of the moving parts of the CMM is optically detected by a plurality of the cameras, wherein the different cameras optically detect the movable part, preferably from different directions.
  • the number of cameras used may be selected depending on the size of the viewing angle of the camera optics, the desired geometric resolution in the range of movement of the movable part and the number and type of degrees of freedom of movement of the movable part.
  • the complementary detection areas partially overlap in order to be able to reliably and accurately assemble images of the different, complementary cameras to form an overall image. This is advantageous in any case when the movable part has moved or moved from the detection area of one of the cameras into the detection area of the supplementary camera.
  • the focal length of the camera optics is not variable or at least not changed during operation of the CMM.
  • a variable focal length is an influencing factor for the position determination, which may require a calibration of the optical positioning system.
  • the detection of the movable part with wide-angle optics i. with an angle of the detection range of the camera, which is larger than the detection range angle of normal lenses having a detection range angle of 50 ° maximum.
  • the detection of the movable part in a large detection area, which in particular contains the entire range of motion in which the movable part can move, has the advantage that only a few or no supplementary camera is needed, whose detection area or detection areas together with the
  • Coverage of the first camera cover the entire range of motion. To separate from these considerations is the consideration of how many cameras with
  • a plurality of cameras may be used for the optical detection of the movable part, each of the cameras having a detection area covering the entire movement range of the movable part from the viewing direction of the camera. This is the most preferred case.
  • high-level cameras are used geometric resolutions in the peripheral areas of the detection areas, with high light intensity (to minimize the required illumination radiation amount) and / or large depth of field preferred.
  • the viewing direction of the at least one camera is not changed during the operation of the CMM. This can be effort for the control of a camera drive for moving the camera and / or for the calibration and consideration of the
  • the at least one camera can, in particular, detect a structure (in the following: detection structure) that is defined by the shape and / or
  • the object may be the moving part. But it is also possible to attach and detect at least one additional object and / or at least one additional structure on the movable part. It is also possible to arrange at least one radiation source or an array of radiation sources as a detection structure on the movable part.
  • the additional object or structure, with the exception of optical detection, is not required for the CMM function. It is preferred that on the surface of the
  • movable part is arranged along the surface extending detection structure is / will.
  • electromagnetic radiation having a characteristic radiation distribution may be irradiated on the object to be detected or the arrangement of the objects to be detected and the reflection image observed.
  • electromagnetic radiation having a characteristic radiation distribution may be irradiated on the object to be detected or the arrangement of the objects to be detected and the reflection image observed.
  • electromagnetic radiation having a characteristic radiation distribution may be irradiated on the object to be detected or the arrangement of the objects to be detected and the reflection image observed.
  • Radiation distribution are irradiated and at least a first portion of the surface of the object to be detected or the arrangement of objects have other reflective properties than at least one other, second portion of the surface.
  • the first portion of the surface may be specular
  • markers reflect while the second part of the surface reflects diffusely. All additional items and surface features not required for the operation of the CMM except optical detection can be collectively referred to as markers.
  • the more general term acquisition structure includes markers and not additional designs / items.
  • a plurality of detection structures is used. From previously known information about the position and / or orientation of the detection structures relative to each other then the position and / or orientation of the movable part is determined.
  • a plurality of circular markers may be used. The circle centers of the individual circular markers can be determined from camera images in a simple manner and with high precision by means known per se
  • the at least one detection structure does not apply only to the case where the detection structure is disposed on the movable part and / or connected to the movable part. Rather, it is alternatively or additionally possible that at least one camera is connected to the movable part and at least one detection structure is connected to the base of the CMM and / or arranged thereon, wherein not only for example a base plate or a measuring table of the CMM is understood, but each relative to the moving part stationary part of the CMM. Even in a fixed environment of the CMM can the
  • Detection structure be arranged.
  • the at least one camera may be connected to another movable part of the CMM.
  • Multiple cameras can be connected to different moving parts of the CMM. This makes it possible in a simple manner to determine the position and / or orientation of the further movable part relative to the support structure and thus relative to the workpiece supported by the support structure.
  • Measurement (or machining) of the workpiece is of particular interest to know the position and / or orientation of the movable part (e.g., the sensor carrier) relative to the workpiece.
  • the measured coordinates of the workpiece become
  • the movement control of the movable part can easily control the drive or drives of the CMM using the position and / or orientation of the movable part in the coordinate system of the workpiece.
  • at least one camera is connected to the sensor carrier and is at least one
  • Detection structure arranged on the support structure.
  • the movable support structure may be part of a so-called tripod CMM or another CMM having a movable measuring table on which the workpiece to be measured is placed.
  • a so-called tripod CMM or another CMM having a movable measuring table on which the workpiece to be measured is placed.
  • Movement device for example, a turntable
  • the workpiece therefore does not have to be in direct contact with the support structure.
  • At least one detection structure may be disposed on the movable support structure (e.g., a movable stage) and / or may be formed by the support structure itself.
  • another detection structure is arranged stationary, that is, it is not moved with either the support structure, or with another moving part of the CMM. It is therefore located at the base or at least not moved relative to the base.
  • the measuring table of a CMM is the part on which the workpiece to be measured is arranged.
  • there may be means for moving the workpiece for example a turntable, between the workpiece and the measuring table surface.
  • a movable measuring table is defined by the fact that its movement can lead to an equal movement of the workpiece relative to a fixed coordinate system and also results if there is no additional movement device which moves the workpiece relative to the measuring table.
  • the workpiece may be additionally moved during movement of the movable support structure, for example by rotation of a turntable.
  • movable support structure is arranged and / or is formed by the movable support structure, by evaluating at least one image of the at least one camera, which is arranged on the movable part of the CMM (in particular example on the sensor carrier), the position and / or orientation of the movable Part in that Coordinate system of the movable support structure and / or the workpiece are determined.
  • the movable part may be any movable part of the CMM, for example, in a gantry type gantry, a carriage movable transversely of the gantry, or the quill, especially the lower end of the quill.
  • the moving part can also be a sensor of the CMM.
  • the movable part in an articulated arm CMM, the movable part may be one of the movable articulated arms, and preferably the end portion of the articulated arm to which the sensor is attached.
  • the movable part in a horizontal type CMM, the movable part may be the horizontal arm, and preferably the end portion of the horizontal arm that supports the sensor.
  • the sensor may be the movable part, which is optically detected by at least one camera for position determination.
  • the detection of the position and / or orientation of the sensor carrier by at least one camera is more reliable than the direct detection of the position and / or
  • Alignment of a relative to the sensor carrier movable part of the sensor as is the case, for example, in a deflectable from a rest position tactile button.
  • a probe element for example, a probe ball
  • the camera also, for example, together with the sensor to move. In this case, however, the position and / or orientation of the sensor in the
  • Coordinate system of the CMM can be determined.
  • this position and / or orientation is optically detected and detected.
  • any influences of external influencing variables and operating states are directly detected.
  • the advantage here is that the basis of a CMM in practice usually anyway designed so that the base does not or only slightly depends on external factors and the operating condition.
  • An exception to this is the influence of temperature, which can lead to expansion or contraction of the materials even with common materials used for the base.
  • the influence of temperature on the one hand as in conventional position-determining devices by calibration determined and corrected.
  • Another possibility is to use, for example, materials connected to the origin of the CMM coordinate system as camera carriers and / or acquisition carriers that do not or only negligibly expand or contract with temperature changes.
  • the scope of the invention also includes a method for calibrating the optical position-determining device, which in turn is part of a CMM (or analogous to a machine tool).
  • the CMM it is possible to prepare in advance, that is to say before the operation of the CMM, information about the geometry of the arrangement, in particular with regard to the position and / or orientation of at least one detection structure and the camera orientation.
  • This may be, for example, a calibration object with a scale graduation for determining the pitch error, as could also be used by conventional position-determining devices.
  • a calibration object can have a multiplicity of markings, the distance of which from each other is precisely known and which can be detected by the camera.
  • other calibration objects may be used, such as those with a plurality of spheres or circular structures, wherein the distances of the ball centers or
  • the calibration object extends over the entire range of movement of the movable part to be detected later, wherein the calibration object can also consist of individual objects which are not connected to one another.
  • at least one calibration object can be arranged successively at different locations within the movement range and each be taken by the at least one camera.
  • aberrations of the camera optics and detection errors in particular of the sensor element matrix of the camera, can also be determined.
  • monochromatic errors such as the distortion and field curvature can be determined and optionally corrected.
  • the images may be included from the image processing known methods (which may be referred to, for example, with the keyword stitching) are composed and can be the desired
  • the optical position determination can be calibrated with respect to its temporal behavior.
  • the temporal behavior is particularly important because the evaluation of a single image of the camera requires time.
  • a single image of the camera which was recorded at a specific time, is evaluated for the position determination.
  • Machine tool finds a movement not only of the sensor or the tool instead of the sensor / tool carrier. Even at low speeds, a time calibration can be beneficial to increase accuracy. In particular, with this temporal calibration, there is the possibility that the
  • Calibration object changes its visual appearance over time.
  • the calibration object itself may change (for example due to time-varying image contents of one or more displays) and / or the irradiation of electromagnetic radiation onto the calibration object and / or the electromagnetic radiation propagating from the calibration object in the direction of the camera may over time be changed (for example, by at least one adjustable aperture and / or at least one with respect to its orientation and / or size variable radiation reflector).
  • the calibration object and / or a means for influencing the said radiation can be moved periodically and / or changed. If the camera takes a temporal sequence of images of the detection area, for example with a given clock frequency, this periodic change can be detected and from this the temporal behavior of the optical detection and the position determination can be determined. Due to the time required for the processing of the camera image, the position and / or orientation is determined only after a time delay after the optical detection.
  • electromagnetic radiation can also be pulsed with a pulse frequency, d. H.
  • the radiation distribution of the electromagnetic radiation radiated onto the calibration object has a suddenly increasing and decreasing radiation flux density in the manner of light pulses.
  • the pulse rate and the frequency of the aforementioned periodic change may be equal and thus in a fixed phase relationship of the change phase to the pulses, whereby different phase relationships (eg light pulse at the time of the maximum rate of change or light pulse each at a lower rate of change) can be investigated.
  • the pulse rate is an integer multiple of the rate of change or vice versa.
  • Camera image of a millisecond or shorter is sought, preferably only the phase angle of the periodic change for repeated and also periodic determination of the position and / or orientation is considered from the camera images.
  • the temporal phase shift is the delay.
  • the position determination device can be calibrated by changing a scene to be detected by the camera over time and by information about the time and / or the temporal course of a state of the scene on the one hand and the time and / or the time course of the scene Determining a result for the position and / or orientation of an object within the scene, on the other hand, the delay of the determination, ie the time required for the determination is determined.
  • the state of the scene is changed periodically and the delay determined from the phase shift of the periodic course of the state to the periodic course of the determination of the result of the position determination from the individual camera images.
  • the determination of the delay is advantageous in particular if, in the measurement of coordinates of a workpiece, sensor signals of the sensor of the CMM correspond to a state at a given time, the determination of the coordinates in
  • the delay may depend on an operating mode of the camera, in particular on the length of the period over which sensor elements of a sensor matrix of the digital camera detect incident radiation and generate a sensor signal corresponding to the total radiation incident over the time period.
  • This period is also known as the integration period. If the integration period can be changed in a camera used for the position determination, it is preferred for a plurality of different lengths of the
  • the shortest possible integration period is not necessarily the period leading to the highest accuracy in position detection. Rather, it must be taken into account that sensor signals from sensor elements of the camera, the position of parts of the CMM and the position of the workpiece can unintentionally oscillate back and forth. These are just examples of noise from signals and vibrating objects.
  • the signals which represent the times of the sensor signals of the sensor, which measures the workpiece, and the position determination by the position-determining device, as well as their difference, may also be subject to noise. Therefore, it may be cheaper if integrated over a relatively long period of time and larger radiation energy is incident on the respective sensor element of the camera matrix. Short integration periods are particularly desirable when the
  • Positioning is to take place at a high frequency, for example, because the sensor is moved at a relatively high speed. In this case, to increase the absorbed by the individual sensor elements of the camera matrix
  • Radiation energy within the integration period increases the radiation flux density of the incident on the moving part of the CMM radiation, d. H. the illuminance increases.
  • the illuminance is thus preferably greater when the
  • One way to increase the frequency of the position determination is the use of a plurality of cameras that detect the same detection range at temporally offset time points, or at least detect a common detection area.
  • both the position determination and the scanning of the workpiece of the CMM can each be based on a time base in order to determine the times of the workpiece scanning and the position determination with one another
  • a clock generator may generate a clock signal that both the
  • Positioning device and the sensor is supplied, and its use, the time of scanning of the workpiece and also the time of the position determination are determined.
  • Position determination device via the same data bus with the clock signal generator be connected.
  • different parts of the data bus to the sensor on the one hand and to the position determination device on the other hand can be used.
  • the data bus can also be used to transmit the sensor signals generated by the sensor and the results of the position determination to a common evaluation device. Another possibility for the transmission of the information on the common time base to the sensor and the
  • Positioning device provides a global or local
  • Satellite navigation system that wirelessly transmits information about the common time base (for example, repeats information about a particular time base time).
  • Both the sensor and the position-determining device can have their own oscillator, in particular a clock signal generator, for generating a local periodic time signal which is synchronized by processing the information on the common time base. This approach allows for differences between the local time of the sensor and the local time of the sensor
  • Position determining device to further reduce.
  • the expense of using a common time base in this way is low.
  • Position detection is not sufficient, the frequency can be increased by averaging a plurality of the results of the position determination in some cases. This depends on the reasons for the low accuracy. For example, the signal noise and the vibration of parts have already been mentioned. An averaging over at least one or preferably several periods of noise and / or vibration can increase the accuracy and in any case eliminate random fluctuations.
  • Positioning system can be used, which provides at least one additional result of the position determination, in particular between two times at which the optical position determination device determines a result.
  • the non-optical position determination systems may, for example, be systems determining absolute positions or systems determining relative positions.
  • Positioning systems is that the optical Although the position-determining device delivers results at a lower frequency, it does not or only slightly depends on external influencing variables and operating states of the CMM. A falsification of the results of the conventional position determination system caused by such factors and operating states can therefore be repeatedly corrected by results of the optical position determination device.
  • optical position determination is described as part of a coordinate measuring machine or as part of a method for operating a coordinate measuring machine.
  • Coordinate measuring machine are replaced by the term machine tool.
  • Positioning device can be combined to the coordinates of the
  • the results of the optical position determination of a position-determining device of the machine tool are used to determine the position and / or orientation of the
  • the machining tool of a machine tool can also have a measuring device that allows, for example, the position relative to the workpiece to be determined, which corresponds, for example, to the degree of wear of a contact element that is in direct contact with the workpiece, to work on this.
  • the following description again relates to a coordinate measuring machine. However, the description can be transferred analogously to a machine tool.
  • a coordinate measuring machine which comprises:
  • Movement range is movable relative to a base of the coordinate measuring machine
  • a position determining device for determining a position and / or an orientation of the sensor carrier
  • Position determining device detected position and / or orientation of the sensor carrier and from signals of the sensor coordinates of the workpiece, wherein the position determination device has at least one camera and at least one detectable by the camera detection structure, wherein
  • the camera is connected to the base and the detection structure or at least one of the detection structures is connected to the sensor carrier and / or is formed by the sensor carrier or
  • the camera is connected to the sensor carrier and the detection structure or at least one of the detection structures is connected to the base and / or is formed by the base,
  • the position determination device is configured to detect the position and / or orientation of the sensor carrier from detection signals of the camera with which the camera detects the detection structure.
  • a coordinate measuring machine comprising:
  • Movement range is movable relative to a base of the coordinate measuring machine
  • a position determining device for determining a position and / or an orientation of the sensor carrier
  • Positioning device detected position and / or orientation of the sensor carrier and determined from signals of the sensor coordinates of the workpiece, wherein the position determination device has at least one camera and at least one detection structure that can be detected by the camera, wherein
  • the camera is connected to the sensor carrier and the detection structure or at least one of the detection structures is connected to a support structure movable relative to the base for supporting the workpiece on the base and / or is formed by the base,
  • the position determination device is configured to detect the position and / or orientation of the sensor carrier from detection signals of the camera with which the camera detects the detection structure.
  • a sensor generates sensor signals for detecting coordinates of a workpiece
  • Movement range is moved relative to a base of the coordinate measuring machine
  • a position-determining device of the coordinate measuring machine determines a position and / or an orientation of the sensor carrier
  • An evaluation device of the coordinate measuring machine from one of the
  • Position determining device detected position and / or orientation of the sensor carrier and from the sensor signals coordinates of the workpiece, wherein at least one camera of the position determination device detects at least one detection structure, wherein
  • the camera is connected to the base and the detection structure or at least one of the detection structures is connected to the sensor carrier and / or is formed by the sensor carrier or
  • the camera is connected to the sensor carrier and the detection structure or at least one of the detection structures is connected to the base and / or is formed by the base,
  • the position determining means detects from detection signals of the camera, with which the camera detects the detection structure, the position and / or orientation of the sensor carrier.
  • a sensor generates sensor signals for detecting coordinates of a workpiece
  • Movement range is moved relative to a base of the coordinate measuring machine
  • a position-determining device of the coordinate measuring machine determines a position and / or an orientation of the sensor carrier
  • An evaluation device of the coordinate measuring machine from one of the
  • Position determining device detected position and / or orientation of the sensor carrier and from the sensor signals coordinates of the workpiece, wherein at least one camera of the position determination device detects at least one detection structure, wherein
  • the camera is connected to the sensor carrier and the detection structure or at least one of the detection structures is connected to a support structure movable relative to the base for supporting the workpiece on the base and / or is formed by the base,
  • the position determining means detects from detection signals of the camera, with which the camera detects the detection structure, the position and / or orientation of the sensor carrier.
  • the movable sensor carrier is the movable part of the CMM, its position and / or orientation by the optical
  • Position determining device is determined. Parts that are permanently connected to the sensor carrier are to be ascribed to this, that is, these parts permanently connected to the sensor carrier, such as the stationary part of the sensor, can also be detected by the camera for position determination and have at least one marker, for example.
  • a machine tool may include:
  • a movable tool carrier which carries the tool and which is movable within a range of movement relative to a base of the machine tool,
  • a position determination device for determining a position and / or an orientation of the tool carrier
  • the position determination device has at least one camera and at least one detection structure that can be detected by the camera, wherein
  • the camera is connected to the base and the detection structure or at least one of the detection structures is connected to the tool carrier and / or is formed by the tool carrier or
  • the camera is connected to the tool carrier and the detection structure or at least one of the detection structures is connected to the base and / or is formed by the base,
  • the position determination device is configured to detect the position and / or orientation of the tool carrier from detection signals of the camera with which the camera detects the detection structure.
  • a machine tool may include:
  • a movable tool carrier which carries the tool and which is movable within a range of movement relative to a base of the machine tool
  • a position determination device for determining a position and / or an orientation of the tool carrier
  • the position determination device has at least one camera and at least one detection structure that can be detected by the camera, wherein
  • the camera is connected to the tool carrier and the detection structure or at least one of the detection structures is connected to a support structure movable relative to the base for supporting the workpiece on the base and / or is formed by the base, and wherein the position determination device is configured to detect the position and / or orientation of the tool carrier from detection signals of the camera with which the camera detects the detection structure.
  • the camera may be connected to the base and the detection structure may be connected to the sensor carrier and / or be formed by the sensor carrier, wherein at a distance to the camera, a calibration structure is connected to the base and wherein the calibration structure and the camera are arranged in that the calibration structure can be detected by the camera simultaneously with the detection structure.
  • the calibration structure may be, for example, a marker or an array of markers.
  • the camera may be connected to the base and the detection structure or at least one of the detection structures may be connected to the sensor carrier and / or formed by the sensor carrier, the camera having a
  • Movement is movable or is moved and yet detected by the camera or is detected, and wherein the camera detects the entire detection range regardless of the position and / or orientation of the sensor carrier.
  • the orientation of the camera and the size of the detection area are therefore not changed depending on the position and / or orientation of the sensor carrier.
  • the viewing direction of the camera does not follow the sensor carrier. Nevertheless, the position and / or orientation of the sensor carrier can be determined by evaluating the camera images, if the sensor carrier is still in the detection range and not is hidden from view of the camera. This has the advantage that no calibration of the camera with respect to a camera movement and with respect to a change in the size of the detection area has to be performed.
  • the position-determining device may use the part of the camera from the detection signals of the camera, which correspond to the entire detection area
  • Evaluation of camera images are reduced because the amount of image data is reduced, which are evaluated for position determination. This also allows increasing the frequency of the position determination with repeated recording of camera images. For example, in a camera with a CMOS sensor element matrix, the partial areas of the camera image that contain the information about the position and / or
  • the partial detection area to be evaluated can be determined in different ways.
  • One possibility is to evaluate information, for example, of a movement control of the CMM via the position and / or orientation of the movable part.
  • the position and / or orientation can be determined in advance, using this information and using a position and / or orientation of the movable part already determined by the position-determining device.
  • the camera image can be preprocessed before the image data selected thereby are subsequently evaluated for the purpose of position determination.
  • the detection structure can be determined using known methods for identifying known structures from image data. If, as usual, the coordinate measuring machine has a motion control, with which a movement of the sensor carrier within the range of motion can be controlled or controlled, the movement of the sensor carrier can in particular under
  • the motion control may be configured in particular. This makes it possible to completely dispense with additional conventional motion measuring devices. Alternatively, it is possible to use the optical position determination only for the motion control, but not for the determination of the coordinates of a workpiece. This also applies to the case of a machine tool.
  • the coordinate measuring machine may have a lighting device, which during the operation of the CMM with at least one detection structure
  • Targeted illumination of the area to be detected by the camera creates defined conditions for the detection.
  • the illumination may be tuned to the integration period of the camera sensor elements.
  • the electromagnetic radiation is infrared radiation whose intensity distribution can be detected or detected by the camera. Infrared radiation, in contrast to visible radiation from humans, is not perceived as disturbing. This is an advantage, in particular with radiation pulses.
  • radiation in another, non-visible wavelength range for example ultraviolet radiation. Invisible radiation leads in particular to defined
  • the wavelength of the radiation of the illumination device therefore lies, for example, in the range of 850-950 nm.
  • Such radiation can be generated at high radiation flux density, e.g. with light-emitting diodes. Not only with infrared radiation it allows a high radiation flux density, a short one
  • the position determination device has a plurality of the cameras, each of which detects a detection structure, in each case one of the detection structures or in each case several of the detection structures, about the position and / or orientation determine the sensor carrier, each of the cameras with an associated
  • Image processing device each of which processes only detection signals of one of the cameras and thereby obtains information about the position and / or orientation of the detected by the camera detection structure (s), and wherein the
  • Image processing equipment with a central unit of
  • Position determination device which is configured, from the information obtained from the image processing means the position and / or
  • the plurality of image processing devices which are respectively arranged in each case at the location of the associated camera, the amount of data to be transmitted is reduced and the speed of the position determination is increased, i. the delay of the position determination is reduced. For example, it can be at the
  • Image processing devices to microprocessors such as FPGAs (Field Programmable Gate Arrays) or ARMs (Advanced RISC Machines) or other in the embedded area, in particular the respective camera, arranged microcomputer act. It is therefore a decentralized processing of the data of the individual cameras.
  • each of the image processing devices of the central unit can transmit the position and / or orientation of the movable part ascertained by it, insofar as the respective image processing device can determine this from the image data of the associated camera.
  • at least partially redundant information about the position and / or orientation of the movable part can be obtained from the various image processing devices and transmitted to the central unit. It is preferred, however, that of the individual
  • Information determined image processing means is not completely redundant to each other, but the total information is greater than the individual information of the image processing device.
  • the position and / or orientation information determined by a single image processing device can be used independently of the information of other image processing devices for the operation of the CMM.
  • the information of the individual image processing device may be sufficient to control one of a plurality of drives of the CMM for moving the movable part.
  • this drive is only the information of a single image processing device and the associated camera required. This can also be the case with other drives, which are each assigned a different image processing device with the associated camera. In this way, for example, the three different
  • Linear motion drives are controlled to produce a (linear) linear motion in the direction of an axis of a Cartesian coordinate system (such as in a gantry type CMM or gantry type case). Therefore, for the purpose of motion control, the transmission of the information from the various image processing devices to the central unit may be omitted.
  • a central unit of the CMM obtains the positions and / or orientations of the movable part at least indirectly from the individual drive controls or also directly from the image processing devices. If the movable part is mentioned here, in particular in the case mentioned the
  • Coordinate gauges in portal or gantry construction may have a plurality of moving parts, e.g. the portal, the carriage, which is movable in the longitudinal direction of the bridge of the portal, and the quill, which is movable transversely to the direction of movement of the carriage.
  • the cameras can therefore detect in particular these or other moving parts, e.g. each camera only one of the several moving parts.
  • the majority of the cameras may detect the same movable part, in particular from different viewing directions.
  • This is preferably the sensor carrier.
  • Detection structures is connected to the base and / or is formed by the base, the camera may in particular have a detection area in which only a part of the plurality of detection structures is located, it from the position and / or
  • Orientation of the sensor carrier depends on which part of the plurality of
  • Detection structures is in the detection area and therefore detected by the camera or is detected. More generally, the movable part may be a different moving part than the sensor carrier. The corresponding applies.
  • a plurality of cameras can be connected to the movable part, which are aligned in different viewing directions and / or have mutually different detection areas. This makes it possible, in particular, if observation structures are covered by other machine parts from the perspective of one camera, by evaluating images of the other camera or at least one the other cameras to determine the position and / or orientation. It is preferred that the cameras have different viewing directions.
  • the arrangement of the detection structures at the base can be compared to a fixed star sky. As with the fixed starry sky in particular in advance
  • Preliminary information can therefore be determined by evaluating the camera images, the position and / or orientation of the movable part.
  • multiple acquisition structures can be distributed in any way.
  • at least one sensing structure may be attached directly to the base (e.g., to a base of the CMM) or to a moveable support structure of the CMM and / or formed through the base or moveable support structure.
  • At least one further detection structure may be attached to a fixed or movably connected part to the base and / or be formed by this part.
  • at least one further detection structure may be attached to and / or formed from another part fixedly or movably connected to the base.
  • each one is attached to each other or to a plurality of another fixedly or movably connected to the base part and / or are formed by this part.
  • this part is the information where (for example in a fixed coordinate system, a coordinate system of the base or in a coordinate system of the workpiece to be measured) each one
  • Detection structure is located and / or in which direction each individual collection structure is aligned.
  • the position and / or orientation of the part on which the detection structure is arranged can be determined in a simple manner and in a short time / or the the
  • the individual detection structures be different from each other
  • Detection structure is formed on the movable part. This makes it possible, when evaluating a camera image, to determine which acquisition structure (s) was acquired by the generation of the image. By assigning the identified Detection structure (s) for a particular pre-known position and / or orientation of the detection structure (s) can therefore be determined which portion of the camera has detected. From the identification of the detection structure (s) already follows the approximate position and / or orientation of the movable part to which the camera is connected or the camera detects. Using the preliminary information about the position and / or orientation of the identified detection structure, therefore, the position and / or orientation of the movable part can be determined. A plurality of individually designed detection structures enables a reliable position determination even if one or more of the detection structures are hidden from view of the camera and therefore can not be detected. It can through
  • Identification of the detection structure can be easily determined which detection structure (s) has been detected by the camera.
  • the angle of the detection range of the camera is smaller.
  • the camera captures only a portion of the detection structures that are detectable in the direction of view of the camera, including parallel offset viewing directions. Due to the smaller solid angle of the detection area, a finer spatial resolution can be achieved with the same number of pixels of the camera images. In other words, the recorded amount of data can be reduced and / or the position and / or orientation of the movable part can be determined more precisely. A smaller amount of data can reduce the delay until the position and / or orientation of the moving part is detected.
  • the position and / or orientation of the movable part can be determined by a position determination system respectively for the time of recording of the respective camera image, which is present in addition to the optical position determination device.
  • this additional positioning system may also be an optical Positioning system be, for example, has a plurality of cameras, which are connected at different viewing directions with the base. These cameras connected to the base can be removed from the base after the camera images of the at least one camera, which is connected to the movable part, are taken.
  • the additional positioning system may also be another system which uses eg laser triangulation for position determination. During the recording of the camera images by the at least one camera connected to the movable part, the movable part can be moved. However, it is preferred that this movement take place at low speed.
  • At least one camera is used to obtain the preliminary information about the positions and / or orientations of the base-connected detection structures, which captures the movable part with the at least one camera connected to it, the at least one camera connected to the base (in FIG.
  • outer camera in contrast to the camera hereinafter referred to as inner camera, which is connected to the movable part
  • Detection structures made difficult by the at least one inner camera or prevent, in particular by covering detection structures can therefore already be connected to the base in different positions during the determination of the preliminary information. Also during the actual operation of the CMM, the external camera may be removed or connected to the base at a different location and / or with a different orientation. If the preliminary information is to be checked and / or recaptured, the at least one external camera can again be connected to the base such that the position and / or orientation of the movable part with the associated at least one internal camera from its camera images can be detected with high precision.
  • Fig. 1 in a simplified schematic representation of a coordinate measuring machine in
  • Fig. 2 is a schematic representation of four cameras whose
  • Detection ranges the range of motion of a sensor carrier of a
  • FIG. 3 schematically in a simplified representation of a coordinate measuring machine
  • Fig. 4 is a machine tool in gantry design, in a Fig. 1 similar
  • Fig. 5 is a tripod CMM with a movable measuring table in a schematic
  • Fig. 1 shows a coordinate measuring machine 1 in gantry design.
  • the movable in the X direction of a Cartesian coordinate system of the CMM 1 portal 3 is arranged.
  • a carriage 5 can in the Y direction of the
  • a quill 6 in the Z-direction of the coordinate system is movably arranged on the carriage 5.
  • no drives are shown.
  • the coordinate measuring machine 1 has a
  • Control and evaluation device 10 for example, part of a
  • Evaluation device 10 is connected to the moving parts of the CMM 1, as shown by a dotted line.
  • On the measuring table is a
  • the position of the sensor carrier here the quill 6
  • the position of the lower end of the quill is detected by a plurality of cameras connected to the base of the CMM 1 via unillustrated connections.
  • the measuring table 2 belongs to the basis.
  • the cameras 13 are wide-angle cameras. They are, as shown by dotted lines, also connected to the control and evaluation device 10.
  • Fig. 2 shows a dotted line represented by a cube
  • Movement area of a moving part of a CMM In the figure, as an example, the lower end portion of a quill 6 of a CMM coupled thereto stylus 8 is shown as a movable part.
  • the movable part could also be another part of a CMM or a machine tool, e.g. a measuring head of a CMM or a tool or tool carrier of a machine tool.
  • the camera arrangement in FIG. 2 may be used as an alternative to the arrangement in FIG. 1 or 4.
  • a total of four cameras 23a, 23b, 23c, 23d are aligned in different directions in each case on the range of motion. Edges of the detection area of three of the cameras 23a, 23b, 23c are shown by dashed lines as in FIG. Using the example of the camera 23b shown above in FIG. 2, it is further shown schematically that the cameras each have an optical system 24b, e.g. a lens array, and a sensor element array 25b of radiation-sensitive sensor elements.
  • an optical system 24b e.g. a lens array
  • the movable part 6 has at least one marker 31 on different sides, here on differently oriented surfaces.
  • four markers 31 are arranged on the forward-facing surface and on the right-facing surface.
  • the markers 31 are each detected by at least one of the cameras 23.
  • movable part 6 of the cameras 23c, 23d right and in the foreground of Fig. 2 detected.
  • the camera 23d shown in the foreground can detect the forwardly facing surface, which is also detected by the camera 23a shown at the top left.
  • the arrangements of cameras shown schematically in Figs. 1 and 2 attached to the base of a CMM or machine tool are merely examples. This also applies to the construction of a CMM shown in FIG. 4, a machine tool 41 is shown as a variant whose construction is similar to the construction of the CMM 1 of FIG. 1 with a few exceptions. The following is briefly the
  • the machine tool 41 in FIG. 4 has at the lower end of the sleeve 6 a tool carrier 17, which carries a machining tool 18 for machining a workpiece 22 on the table.
  • the cameras 13; 23 take repeated, e.g. with a clock frequency of 100 Hz, images of their detection range. Each image is given a timestamp, i. the time of taking the respective camera image is assigned to the camera image and e.g. stored in a common record with the image data.
  • each individual camera image to be evaluated is optionally subjected to pre-processing, in which the image region of the camera image in which there is at least one detection structure of the movable part (for example a characteristic feature or a marker) is determined.
  • the image data of the detected area of the camera image will be further used for the purpose of
  • the camera images of a plurality of cameras recorded at the same time and / or the camera images of a plurality of cameras not captured at the same time but having the same or approximately the same position and / or orientation of the movable part to be jointly from a central evaluation device to be evaluated. This is particularly useful when camera images of different cameras capture the same detection structure or the same detection structures.
  • Properties of the collection structure used. For example, it can be at the
  • Detection structure to act around a circular or rectangular detection structure, wherein the surface of the detection structure within its border
  • the detection structure has an optical structure. It can therefore be concluded not only from the course of the imaged in the camera image edge of the detection structure, but alternatively or additionally from the image of the structured surface on the position and / or orientation of the detection structure and thus on the associated movable part.
  • the knowledge of the at least one detected detection structure makes it possible, on the basis of geometric considerations, to determine from the at least one camera image how the detection structure is positioned and / or aligned in the movement region of the movable part.
  • a circular-edge detection structure in the camera image is generally depicted as a structure having a circumferential edge of an ellipse.
  • Detection structure and the distance of the camera to the detection structure are detected.
  • Camera image detected detection structure redundant information, so that the position and / or orientation of the detection structure not only based on a
  • Structural feature but can be performed on the basis of a plurality of structural features. This increases the safety in determining the position and / or orientation of the movable part. This also applies to the evaluation a plurality of camera images that have detected at least one detection structure from different directions in the same state of motion of the movable part.
  • the determination of the imaging geometry of camera and movable part e.g. however, calculation of the viewing angle and distance from the geometry of the imaged registration structure is not the only possible approach.
  • Other methods are known from image processing. For example, may be simulated and / or pre-determined by comparing the detection pattern imaged in the camera image
  • the position and / or orientation of the detection structure in the range of motion are determined. For example, Each of the simulated or previously recorded images may be assigned the appropriate position and / or orientation. By determining the correct comparison image, therefore, the position and / or orientation is determined.
  • FIG. 3 shows an exemplary embodiment for the reversal of the principle explained with reference to FIGS. 1, 2 and 4, according to which the at least one camera is connected to the base and the at least one detection structure is connected to the movable part.
  • the at least one camera is connected to the movable part and at least one detection structure is connected to the base.
  • the device may be a machine tool, such as a machine tool. in Fig. 4.
  • the device may be a machine tool, such as a machine tool. in Fig. 4.
  • Reversal of the detection principle can be applied to other constructions of CMMs and machine tools, e.g. on CMMs in horizontal arm construction or articulated arm construction and on appropriately designed machine tools.
  • Fig. 3 Representation are arranged in Fig. 3 only behind the movement range marker 31. In practice, however, other markers may also be located laterally, in the foreground and above the movement range, for example. In the illustrated embodiment eleven rows each with nine markers 31 are present, and for the sake of better recognizability of the illustration, some markers 31 are omitted, which are located behind the quill and behind the measuring head 7 and the probe 8.
  • two cameras 33 a, 33 b are shown, which are connected to the quill 6. Alternatively, more than two cameras or only one camera may be attached to the quill 6.
  • the two cameras 33a, 33b shown in FIG. 3 are aligned in different orientations. Marginal lines of her
  • Detection area are shown in dashed lines.
  • each of the two cameras 33a, 33b detects at least one of the markers 31 completely.
  • the fully detected markers 31 are in the drawing with a plus sign
  • the markers 31 each have an individual structure or are otherwise individually designed for the camera, information about the approximate position can already be obtained from the identification of the detection structure captured in the camera image and from the knowledge of the orientation of the detection range of the camera / or alignment of the movable part are obtained. If, for example, it is moving the quill 6 from the state shown in Fig. 3 upwards in the Z direction, would no longer detected with a plus sign in Fig. 3 marker detected, but an overlying marker.
  • the detection areas of the cameras 33a, 33b in FIG. 3 extend over a smaller solid angle than the detection areas of the arrangements in FIGS. 1, 2, and 4.
  • the respective detected detection structure therefore occupies a larger part of
  • a finer resolution and more accurate determination of the position and / or orientation of the movable part can be achieved and / or the number of pixels of the camera images can be reduced so that camera images can be recorded, in particular with a higher repetition frequency.
  • Fig. 5 shows a coordinate measuring machine 51 in tripod construction. Same and
  • a quill 6 of the CMM is driven, so that the quill 6 in the vertical direction (Z-direction) is movable.
  • a measuring head 7 with arranged a button 8 attached thereto.
  • the measuring head 7 a camera 53 attached.
  • the camera 53 is attached directly to the quill 6.
  • at least one further camera can likewise be fastened directly or indirectly to the quill 6.
  • the illustrated camera 53 has a dashed line schematically
  • the detection structure 31 is arranged on a movable measuring table 56 of the CMM 51 and / or formed by the measuring table 56.
  • the detection structure z. B. arranged on a fixedly connected to the measuring table 56 additional component and / or be formed by this.
  • Detection structures or parts of different detection structures of the respective camera can be detected.
  • the camera captures at least parts of a first detection structure in a first relative position and at least parts of another in a second relative position different from the first relative position
  • the measuring stage 56 of the CMM 51 is in the embodiment in two mutually perpendicular directions, namely the X-direction and the Y-direction, parallel to the surface of the base 2 movable.
  • the corresponding drive means are the
  • the workpiece 12 to be measured is arranged on the movable measuring table 56.
  • the workpiece 12 may not be arranged directly on the measuring table surface, but z. B. may be an additional turntable on the Messtischober Structure and the workpiece may be disposed on the surface of the turntable.
  • at least one detection structure may be arranged on the rotatable part of the turntable and / or be formed by this. This may be an additional collection structure, in addition to the relative to the movable measuring table 56 resting detection structure.
  • the CMM 51 shown in FIG. 5 also has a control and evaluation device 10 which, for example, is part of a commercially available or specially designed computer for the operation of the CMM 51, which is equipped with software for the operation of the CMM 51.
  • the control and evaluation device 10 is, as shown by a dotted line, connected to the drive for driving the movement of the sleeve 6 relative to the support arm 54.
  • Evaluation device 10 connected to the camera 53 or the cameras, which are connected to the quill 6 (or more generally formulated with the sensor carrier). As well as the control and evaluation device 10 of FIG. 1 and FIG. 4 determines the
  • Control and evaluation device 10 from FIG. 5 from a position and / or orientation of the sensor carrier detected by the at least one camera from the position determination device and from signals of the sensor (in this case the button 8 or the measuring head 7) coordinates of the workpiece. Furthermore, the control and evaluation devices 10 control the drive (s) of the CMM, in the exemplary embodiment of FIG. 5 the drive of the quill 6 and the drive (s) of the movable drive
  • Measuring table 56 In this way, the workpiece can be brought according to a measurement plan in corresponding relative positions and / or relative orientations to the sensor.
  • this control of the actuators of the button 8 shown in Fig. 5 can be brought into contact with surface points of the workpiece 12, which correspond to the measurement plan and / or desired by a user and / or predetermined.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Die Erfindung betrifft ein Koordinatenmessgerät (1), aufweisend einen Sensor (7) zur Erfassung von Koordinaten eines Werkstücks, einen beweglichen Sensorträger (6), der den Sensor (7) trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts (1) bewegbar ist, eine Positionsbestimmungseinrichtung (10, 13; 23; 33) zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers (6), eine Auswertungseinrichtung, die aus einer von der Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus Signalen des Sensors (7) Koordinaten des Werkstücks ermittelt, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Kamera (13; 23; 33) und zumindest eine von der Kamera (13; 23; 33) erfassbare Erfassungsstruktur (31) aufweist, wobei a) die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger (6) gebildet ist, oder b) die Kamera (33) mit dem Sensorträger (6) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen (31) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) ausgestaltet ist, aus Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.

Description

Koordinatenmessgerät mit beweglichem Sensorträger und
Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines
Koordinatenmessgeräts
Die Erfindung betrifft ein Koordinatenmessgerät (kurz: KMG), das einen Sensor zur Erfassung von Koordinaten eines Werkstücks aufweist. Das KMG hat einen beweglichen Sensorträger, der den Sensor trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des KMG bewegbar ist. Die Erfindung betrifft ferner ein Verfahren zum Betreiben eines derartigen Koordinatenmessgeräts.
Z.B. ist der Sensor ein Messkopf, der an einem beweglichen Teil (zum Beispiel einer Pinole oder einem Arm) des KMG angebracht ist. An dem Messkopf, kann insbesondere ein Taster (z.B. ein Taststift) angebracht sein, mit dem das KMG die Oberfläche des Werkstücks taktil antastet, um die Sensorsignale des Messkopfes zu erzeugen. Daher ist insbesondere auch ein Taster zum taktilen Antasten des zu vermessenden Werkstücks ein Beispiel für einen Sensor oder für einen Teil des Sensors.
Der Messkopf weist insbesondere eine Sensorik auf, die Messsignale erzeugt, durch deren Auswertung die Koordinaten ermittelt werden können. In der
Koordinatenmesstechnik kommen jedoch auch andere Sensoren vor. Zum Beispiel kann der Sensor lediglich die Messung der Koordinaten auslösen. Dies ist zum Beispiel bei einem schaltenden Messkopf der Fall, der bei Kontakt mit dem zu vermessenden Werkstück ein Schaltsignal erzeugt, welches die Messung der Koordinaten z. B. durch Ablesung der Maßstäbe des oder der beweglichen Teile des KMG auslöst. Grundsätzlich können die Sensoren in durch Berührung (taktile Antastung des Werkstücks) und in nicht durch Berührung vermessende Sensoren eingeteilt werden. Zum Beispiel optische oder kapazitive Sensoren zur Koordinatenmessung sind Sensoren, die nicht auf dem Prinzip der taktilen Abtastung basieren. Auch ist es möglich, Sensoren nach der Art oder Größe des insbesondere gleichzeitig erfassten Bereichs des Werkstücks einzuteilen.
Insbesondere können Sensoren Koordinaten lediglich eines Punktes oder einer Fläche an der Oberfläche oder auch im Inneren des Werkstücks messen oder Koordinaten eines Volumens des Werkstücks messen. Außerdem ist es möglich, verschiedene Sensoren gleichzeitig an demselben Sensorträger oder verschiedenen Sensorträger zu verwenden, entweder als separate Einheiten oder in eine gemeinsame Einheit integriert. Es ist üblich, KMGs so auszugestalten, dass der Sensor gegen einen anderen Sensor ausgewechselt werden kann. In diesem Fall kann derjenige Teil des KMG, der die Schnittstelle zum Anbringen des jeweiligen Sensors aufweist, als Sensorträger bezeichnet werden. Jedoch kann auch derjenige Teil des angekoppelten Sensors, der in dem angekoppelten Zustand relativ zu der Ankopplungsschnittstelle unbeweglich ist, als Teil des Sensorträgers bezeichnet werden. Auch ist es, wie z.B. in dem bereits erwähnten Fall eines Messkopfes mit einem daran angebrachten taktilen Taster, möglich, zwei verschiedene Teile jeweils als Sensor zu bezeichnen. Wenn der eine Sensor den anderen Sensor trägt, kann der eine Sensor als Sensorträger des anderen Sensors bezeichnet werden.
Der Sensor dient der Erfassung von Koordinaten eines Werkstücks. Von dem Sensor erzeugte Signale aus einer Abtastung des Werkstücks reichen jedoch allein nicht aus, um die Koordinaten des Werkstücks im Koordinatensystem des Koordinatenmessgeräts ermitteln zu können. Hierzu ist au ßerdem Information über die Position und/oder
Ausrichtung des Sensors erforderlich. Das KMG hat daher eine
Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer
Ausrichtung des Sensorträgers, der den Sensor trägt, und damit des Sensors.
Üblicherweise sind zusätzliche Bewegungsmesseinrichtungen mit den beweglichen Teilen des KMG kombiniert. Zum Beispiel sind eine Maßverkörperung, beispielsweise eine Maßstabsteilung mit Strichen, an einem Teil des KMG angeordnet und ein
Messsignalgeber an einem relativ dazu beweglichen zweiten Teil des KMG angeordnet.
Eine Auswertungseinrichtung des KMG ermittelt aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors Koordinaten des Werkstücks.
Die Positionsbestimmung des Sensorträgers hängt von äu ßeren Einflüssen und dem jeweiligen Betriebszustand des KMG ab. Z.B. beeinflusst die Temperatur und
Luftfeuchtigkeit die Positionsbestimmung. Ferner muss die Gewichtskraft eines an den Sensorträger angekoppelten Sensors berücksichtigt werden. Auch können sich Teile des KMG abhängig von der Position des Sensorträgers verbiegen. Die Geschwindigkeit der Bewegung der beweglichen Teile des KMG und die Beschleunigung beeinflussen ebenfalls die Positionsmessung. KMGs werden daher für bestimmte Umgebungsbedingungen und Betriebszustände kalibriert. Es muss dann darauf geachtet werden, dass die bei der Kalibrierung berücksichtigten Bereiche der Einflussgrößen während des Betriebes des KMG nicht verlassen werden. Aufgrund der Vielzahl der Einflussgrößen ist der Aufwand für die Kalibrierung und die entsprechenden
Korrekturmodelle hoch. Ferner ist die trotz der Korrektur verbleibende Unsicherheit der von dem KMG gemessenen Messgrößen in verschiedenen Teilbereichen der
Einflussgrößen unterschiedlich groß. Auch verändert sich das Verhalten des KMG im Laufe der Zeit, sodass die Kalibrierung wiederholt werden muss.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Koordinatenmessgerät mit einem Sensor zur Erfassung von Koordinaten eines Werkstücks und mit einem beweglichen Sensorträger sowie ein Verfahren zum Betreiben eines derartigen Koordinatenmessgeräts anzugeben, die den Aufwand für die Positionsbestimmung und/oder
Ausrichtungsbestimmung des Sensors oder des Sensorträgers verringern.
Gemäß einem Grundgedanken der vorliegenden Erfindung wird die Position eines beweglichen Teils des KMG optisch mit zumindest einer Kamera erfasst. Bei dem beweglichen Teil kann es sich insbesondere um eine Stützstruktur zum Abstützen des Werkstücks (z.B. einen beweglichen Messtisch, der das zu vermessende Werkstück trägt, wie einen sogenannten x-y-Tisch) oder den Sensorträger des KMG handeln, wobei auch fest mit dem Sensorträger verbundene andere Teile, wie z.B. ein relativ zu dem
Sensorträger unbeweglicher Teil des Sensors dem Sensorträger zuzurechnen sind. Auch sie sind fest mit dem Sensorträger verbunden und eignen sich daher für die optische Positionsbestimmung. Der Begriff der Positionsbestimmung wird im Folgenden für die Bestimmung der Position und/oder Ausrichtung verwendet, wenn sich aus dem
Zusammenhang nichts anders ergibt. Bevorzugt wird die Bestimmung der Position und der Ausrichtung. Es gibt jedoch Konstruktionen von KMGs und Betriebssituationen, bei denen lediglich die Position oder lediglich die Ausrichtung variieren kann und daher zu bestimmen ist.
Die zumindest eine Kamera ist insbesondere eine Digitalkamera, die z.B. eine
zweidimensionale Matrix von strahlungsempfindlichen Sensorelementen aufweist, die beim Betrieb der Kamera zweidimensionale Bilder des von der Kamera erfassten
Bereichs erzeugt mit einer Anzahl von Pixeln entsprechend der Anzahl der
Sensorelemente. Bei den Sensorelementen kann es sich z.B. um strahlungsempfindliche CMOS (Komplementäre Metalloxyd Halbleiter) Sensorelemente handeln. Alternativ oder zusätzlich kann die Kamera CCD (Ladungsgekoppelte Einrichtung) Sensorelemente aufweisen. Auch wenn Kameras mit einer zweidimensionalen Matrix bevorzugt werden, umfasst der Begriff der Matrix auch eindimensionale Matrizen. Bei der Kamera kann es sich daher grundsätzlich auch um eine Zeilenkamera handeln.
Insbesondere kann es sich bei der Kamera zum Beispiel anders als bei optischen
Entfernungsmesssystemen (die zum Beispiel Laser-Triangulation und/oder
Phaseninformation der Strahlung nutzen) um eine Messeinrichtung handeln, die lediglich die Intensitätsverteilung der auf die Kamera einfallenden Strahlung misst und/oder erfasst. Grundsätzlich möglich ist jedoch alternativ die Verwendung zumindest einer TOF (Time of Flight) -Kamera, die die Laufzeit der erfassten Strahlung misst.
Durch Bildauswertung des oder der Kamerabilder unter Berücksichtigung der optischen Eigenschaften der Kamera und der bekannten geometrischen Verhältnisse der Kamera (wie z.B. Blickwinkel, Position und Ausrichtung, Vergrößerung, Abbildungsfehler, insbesondere Verzeichnung) und optional Vorkenntnisse über die von der Kamera erfassten Objekte und/oder Strukturen kann die Position des beweglichen Teils auf einfache Weise bestimmt werden. Die optische Positionsbestimmung hat den Vorteil, dass die Messergebnisse konventioneller Bewegungsmesseinrichtungen (z.B.
Binärmaßstäbe, Drehwinkelgeber, Tachometer) während des Betriebes des KMG überprüft werden können oder auf die konventionellen Bewegungsmesseinrichtungen ganz oder teilweise verzichtet werden kann. Zu den konventionellen
Bewegungsmesseinrichtungen gehören nicht nur solche, die an den relativ zueinander beweglichen Teilen des KMG angeordnet sind, sondern auch solche, die an den
Antrieben angeordnet sind, wie z.B. Tachometer. Bei entsprechend schneller
Verarbeitung der Kamerasignale mit Feststellung der Position des beweglichen Teils kann auch die Antriebssteuerung und nicht nur die Werkstück-Koordinatenerfassung des KMG ausschließlich auf Ist-Werten der Position und/oder Ausrichtung des beweglichen Teils oder der beweglichen Teile des KMG basieren, die aus den Kamerabildern ermittelt wurden. Dadurch werden komplizierte und hochpräzise zu fertigende konventionelle Bewegungsmesseinrichtungen eingespart. Ferner entfällt die Kalibrierung des KMG bezüglich des von der Kamera oder den Kameras optisch erfassten beweglichen Teils in Bezug auf Veränderungen durch mechanische Belastungen und äußere Einflussgrößen. Vorzugsweise wird das bewegliche Teil oder eines der beweglichen Teile des KMG von einer Mehrzahl der Kameras optisch erfasst, wobei die verschiedenen Kameras das bewegliche Teil vorzugsweise aus verschiedenen Richtungen optisch erfassen. Z.B. erfassen vier verschiedene Kameras aus vier verschiedenen Richtungen dasselbe bewegliche Teil. Die Anzahl der verwendeten Kameras kann insbesondere abhängig von der Größe des Blickwinkels der Kameraoptik, von der angestrebten geometrischen Auflösung im Bewegungsbereich des beweglichen Teils und von der Anzahl und Art der Bewegungsfreiheitsgrade des beweglichen Teils gewählt werden. Es ist insbesondere möglich, den gesamten Bewegungsbereich des beweglichen Teils mit Kameras zu erfassen, deren Erfassungsbereiche sich zu einem Gesamt-Erfassungsbereich ergänzen, welche den Bewegungsbereich des beweglichen Teils enthält. Bevorzugt wird dabei, dass sich die einander ergänzenden Erfassungsbereiche teilweise überlappen, um Bilder der verschiedenen, sich ergänzenden Kameras zuverlässig und genau zu einem Gesamtbild zusammensetzen zu können. Dies ist jedenfalls dann von Vorteil, wenn sich das bewegliche Teil von dem Erfassungsbereich einer der Kameras in den Erfassungsbereich der ergänzenden Kamera bewegt oder bewegt hat.
Bevorzugt wird, dass die Brennweite der Kameraoptik nicht variabel ist oder jedenfalls während des Betriebes des KMG nicht verändert wird. Eine veränderliche Brennweite stellt einen Einflussfaktor für die Positionsbestimmung dar, der eine Kalibrierung des optischen Positionsbestimmungssystems erforderlich machen kann. Ferner bevorzugt wird die Erfassung des beweglichen Teils mit Weitwinkeloptik, d.h. mit einem Winkel des Erfassungsbereichs der Kamera, der größer ist als der Erfassungsbereichswinkel von Normalobjektiven, die einen Erfassungsbereichswinkel von maximal 50 ° haben. Die Erfassung des beweglichen Teils in einem großen Erfassungsbereich, der insbesondere den gesamten Bewegungsbereich enthält, in dem sich das bewegliche Teil bewegen kann, hat den Vorteil, dass nur wenige oder keine ergänzende Kamera benötigt wird, deren Erfassungsbereich oder Erfassungsbereiche gemeinsam mit dem
Erfassungsbereich der ersten Kamera den gesamten Bewegungsbereich abdecken. Von diesen Überlegungen zu trennen ist die Überlegung, wie viele Kameras mit
unterschiedlichen Blickrichtungen eingesetzt werden. Z.B. kann eine Mehrzahl von Kameras für die optische Erfassung des beweglichen Teils eingesetzt werden, wobei jede der Kameras einen Erfassungsbereich hat, der aus der Blickrichtung der Kamera den gesamten Bewegungsbereich des beweglichen Teils abdeckt. Dies stellt den am meisten bevorzugten Fall dar. Alternativ oder zusätzlich werden Kameras mit hohen geometrischen Auflösungen auch in den Randbereichen der Erfassungsbereiche, mit hoher Lichtstärke (um die benötigte Beleuchtungsstrahlungsmenge zu minimieren) und/oder großer Schärfentiefe bevorzugt. Ferner alternativ oder zusätzlich wird bevorzugt, dass die Blickrichtung der zumindest einen Kamera während des Betriebes des KMG nicht verändert wird. Dadurch kann Aufwand für die Steuerung eines Kameraantriebs zum Bewegen der Kamera und/oder für die Kalibrierung und Berücksichtigung der
Kamerabewegung vermieden werden.
Die zumindest eine Kamera kann bei der optischen Erfassung insbesondere eine Struktur erfassen (im Folgenden: Erfassungsstruktur), die durch die Form und/oder
Oberflächenstruktur des Gegenstandes oder der Gegenstände im Erfassungsbereich gegeben sein kann. Insbesondere kann der Gegenstand das bewegliche Teil sein. Es ist aber auch möglich, zumindest einen zusätzlichen Gegenstand und/oder zumindest eine zusätzliche Struktur an dem beweglichen Teil anzubringen und zu erfassen. Auch ist es möglich, zumindest eine Strahlungsquelle oder eine Anordnung von Strahlungsquellen als Erfassungsstruktur an dem beweglichen Teil anzuordnen. Der zusätzliche Gegenstand oder die zusätzliche Struktur ist mit Ausnahme der optischen Erfassung nicht für die Funktion des KMG erforderlich. Es wird bevorzugt, dass an der Oberfläche des
beweglichen Teils eine sich entlang der Oberfläche verlaufende Erfassungsstruktur angeordnet ist/wird.
Die genannten Möglichkeiten für eine Erfassungsstruktur sind lediglich Beispiele. Es existieren weitere Möglichkeiten für die optische Erfassung durch zumindest eine Kamera. Zum Beispiel kann, wie es bei der Streifenlichtprojektion der Fall ist, elektromagnetische Strahlung mit einer charakteristischen Strahlungsverteilung auf den zu erfassenden Gegenstand oder die Anordnung der zu erfassenden Gegenstände eingestrahlt werden und das Reflexionsbild beobachtet werden. Alternativ kann zum Beispiel
elektromagnetische Strahlung mit einer homogenen oder homogeneren
Strahlungsverteilung eingestrahlt werden und kann zumindest ein erster Teilbereich der Oberfläche des zu erfassenden Gegenstandes oder der Anordnung von Gegenständen andere Reflexionseigenschaften haben als zumindest ein anderer, zweiter Teilbereich der Oberfläche. Zum Beispiel kann der erste Teilbereich der Oberfläche spiegelnd
reflektieren, während der zweite Teil der Oberfläche diffus reflektiert. Alle zusätzlichen, nicht für den Betrieb des KMG mit Ausnahme der optischen Erfassung erforderlichen Gegenstände und Oberflächengestaltungen können zusammenfassend als Marker bezeichnet werden. Der allgemeinere Begriff der Erfassungsstruktur schließt Marker und auch nicht zusätzliche Gestaltungen/Gegenstände mit ein.
Insbesondere wird eine Mehrzahl von Erfassungsstrukturen verwendet. Aus vorab bekannter Information über Position und/oder Ausrichtung der Erfassungsstrukturen relativ zueinander wird dann die Position und/oder Ausrichtung des beweglichen Teils ermittelt. Zum Beispiel kann eine Mehrzahl von kreisförmigen Markern verwendet werden. Die Kreismittelpunkte der einzelnen kreisförmigen Marker lassen sich aus Kamerabildern auf einfache Weise und mit hoher Präzision mit an sich bekannten Mitteln der
Bildverarbeitung bestimmen. Unter Verwendung von vorab bekannter Information über die relative Lage der Kreismittelpunkte kann dann die Position und/oder Ausrichtung festgestellt werden.
Die vorangegangene Beschreibung bezüglich der zumindest einen Erfassungsstruktur gilt nicht nur für den Fall, dass die Erfassungsstruktur an dem beweglichen Teil angeordnet ist und/oder mit dem beweglichen Teil verbunden ist. Vielmehr ist es alternativ oder zusätzlich möglich, dass zumindest eine Kamera mit dem beweglichen Teil verbunden ist und zumindest eine Erfassungsstruktur mit der Basis des KMG verbunden ist und/oder daran angeordnet ist, wobei unter der Basis nicht nur zum Beispiel eine Grundplatte oder ein Messtisch des KMG zu verstehen ist, sondern jeder relativ zu dem beweglichen Teil ortsfeste Teil des KMG. Auch in einer ortsfesten Umgebung des KMG kann die
Erfassungsstruktur angeordnet sein.
In dem Fall, dass das bewegliche Teil eine Stützstruktur zum Abstützen des Werkstücks ist, kann die zumindest eine Kamera mit einem weiteren beweglichen Teil des KMG verbunden sein. Mehrere Kameras können mit unterschiedlichen weiteren beweglichen Teilen des KMG verbunden sein. Dies ermöglicht es auf einfache Weise, die Position und/oder Ausrichtung des weiteren beweglichen Teils relativ zur Stützstruktur und damit relativ zu dem von der Stützstruktur abgestützten Werkstück zu ermitteln. Für die
Vermessung (oder Bearbeitung) des Werkstücks ist es von besonderem Interesse, die Position und/oder Ausrichtung des beweglichen Teils (z.B. des Sensorträgers) relativ zum Werkstück zu kennen. Die gemessenen Koordinaten des Werkstücks werden
zweckmäßigerweise im Koordinatensystem des Werkstücks angegeben. Alternativ oder zusätzlich kann die Bewegungssteuerung des beweglichen Teils den Antrieb oder die Antriebe des KMG unter Verwendung der Position und/oder Ausrichtung des beweglichen Teils im Koordinatensystem des Werkstücks auf einfache Weise steuern. Zum Beispiel ist zumindest eine Kamera mit dem Sensorträger verbunden und ist zumindest eine
Erfassungsstruktur an der Stützstruktur angeordnet.
Insbesondere kann die bewegliche Stützstruktur Teil eines sogenannten Stativ-KMG sein oder eines anderen KMG, das einen beweglichen Messtisch hat, auf dem das zu vermessende Werkstück platziert ist. Optional kann eine zusätzliche
Bewegungseinrichtung (zum Beispiel ein Drehtisch) von der Stützstruktur auf der Basis abgestützt werden/sein. Das Werkstück muss daher nicht unmittelbar in Kontakt mit der Stützstruktur sein.
Z.B. kann an der beweglichen Stützstruktur (z.B. ein beweglicher Messtisch) zumindest eine Erfassungsstruktur angeordnet sein und/oder durch die Stützstruktur selbst ausgebildet sein. Bei einer Variante dieses Falls ist eine weitere Erfassungsstruktur ortsfest angeordnet, das heißt sie wird weder mit der Stützstruktur, noch mit einem anderen beweglichen Teil des KMG mitbewegt. Sie ist daher an der Basis angeordnet oder wird zumindest nicht relativ zur Basis bewegt.
Der Messtisch eines KMG ist derjenige Teil, auf dem das zu vermessende Werkstück angeordnet ist. Optional kann sich zwischen dem Werkstück und der Messtischoberfläche eine Einrichtung zum Bewegen des Werkstücks befinden, zum Beispiel ein Drehtisch. Ein beweglicher Messtisch ist dadurch definiert, dass seine Bewegung zu einer gleichen Bewegung des Werkstücks relativ zu einem ortsfesten Koordinatensystem führen kann und auch führt, wenn keine zusätzliche Bewegungseinrichtung vorhanden ist, die das Werkstück relativ zu dem Messtisch bewegt. Im Allgemeinen kann das Werkstück aber während der Bewegung der beweglichen Stützstruktur zusätzlich bewegt werden, zum Beispiel durch Drehung eines Drehtisches.
Insbesondere in dem Fall, in dem zumindest eine Erfassungsstruktur an einer
beweglichen Stützstruktur angeordnet ist und/oder durch die bewegliche Stützstruktur gebildet ist, kann durch Auswertung zumindest eines Bildes der zumindest einen Kamera, welche an dem beweglichen Teil des KMG (insbesondere Beispiel an dem Sensorträger) angeordnet ist, die Position und/oder Ausrichtung des beweglichen Teils in dem Koordinatensystem der beweglichen Stützstruktur und/oder des Werkstücks ermittelt werden.
Das bewegliche Teil kann ein beliebiges bewegliches Teil des KMG sein, zum Beispiel bei einem KMG in Portalbauweise ein quer zu dem Portal beweglicher Schlitten oder die Pinole, insbesondere der untere Endbereich der Pinole. Der bewegliche Teil kann aber auch ein Sensor des KMG sein. Bei einem KMG in Gelenkarmbauweise kann das bewegliche Teil zum Beispiel einer der beweglichen Gelenkarme sein und vorzugsweise der Endbereich desjenigen Gelenkarms, an dem der Sensor befestigt ist. Bei einem KMG in Horizontalbauweise kann das bewegliche Teil zum Beispiel der Horizontalarm sein und vorzugsweise der Endbereich des Horizontalarms der den Sensor trägt. Alternativ kann in allen Fällen auch der Sensor das bewegliche Teil sein, das zur Positionsbestimmung optisch von zumindest einer Kamera erfasst wird.
Die Erfassung der Position und/oder Ausrichtung des Sensorträgers durch zumindest eine Kamera ist zuverlässiger möglich als die direkte Erfassung der Position und/oder
Ausrichtung eines relativ zu dem Sensorträger beweglichen Teils des Sensors, wie es zum Beispiel bei einem aus einer Ruhelage auslenkbaren taktilen Taster der Fall ist.
Insbesondere kommt es häufig vor, dass ein Tastelement (zum Beispiel eine Tastkugel) des Tasters in zurückspringende Bereiche des Werkstücks eingebracht wird und dadurch für eine direkte Erfassung durch die Kamera nicht sichtbar wäre. Zwar ist es denkbar, die Kamera ebenfalls, zum Beispiel gemeinsam mit dem Sensor, zu bewegen. In diesem Fall müsste aber au ßerdem die Position und/oder Ausrichtung des Sensors in dem
Koordinatensystem des KMG bestimmt werden. Bei der vorliegenden Erfindung wird dagegen diese Position und/oder Ausrichtung optisch erfasst und festgestellt.
Mit der direkten optischen Erfassung der Position und/oder Ausrichtung des beweglichen Teils werden jegliche Einflüsse von äu ßeren Einflussgrößen und Betriebszuständen (zum Beispiel Biegung von Teilen) unmittelbar erfasst. Von Vorteil ist es dabei, dass die Basis eines KMG in der Praxis meist ohnehin so gestaltet ist, dass die Basis nicht oder nur unwesentlich von äußeren Einflussgrößen und dem Betriebszustand abhängt. Eine Ausnahme davon betrifft die Einflussgröße Temperatur, die auch bei gängigen, für die Basis verwendeten Materialien zu einer Ausdehnung oder Kontraktion der Materialien führen kann. Der Einfluss der Temperatur kann bei der optischen Positionsbestimmung einerseits wie bei konventionellen Positionsbestimmungseinrichtungen durch Kalibrierung bestimmt und korrigiert werden. Eine andere Möglichkeit besteht darin, zum Beispiel mit dem Ursprung des KMG Koordinatensystems verbundene Materialien als Kameraträger und/oder Erfassungsstrukturträger zu verwenden, die sich nicht oder nur vernachlässigbar mit Temperaturänderungen ausdehnen oder kontrahieren.
Da bei konventionellen Positionsbestimmungseinrichtungen eine Vielzahl von
Einflussgrößen und Betriebszuständen für die Kalibrierung berücksichtigt werden muss, wird durch die optische Positionsbestimmung der Aufwand insbesondere für die
Kalibrierung reduziert. Dies betrifft sowohl die während der Kalibrierung durchzuführenden Messungen als auch die spätere Korrektur während des Betriebes des KMG.
Dennoch gehört zum Umfang der Erfindung auch ein Verfahren zur Kalibrierung der optischen Positionsbestimmungseinrichtung, die wiederum Teil eines KMG (oder analog einer Werkzeugmaschine) ist.
Um die optische Positionsbestimmungseinrichtung für den Betrieb des KMG
vorzubereiten kann einerseits vorab, das heißt vor dem Betrieb des KMG, Information über die Geometrie der Anordnung, insbesondere bezüglich der Position und/oder Ausrichtung zumindest einer Erfassungsstruktur und der Kameraausrichtung, gewonnen werden. Alternativ oder zusätzlich wird es bevorzugt, mit der zumindest einen Kamera zumindest ein Kalibrierobjekt zu erfassen. Dabei kann es sich zum Beispiel um ein Kalibrierobjekt mit einer Maßstabsteilung zur Bestimmung des Teilungsfehlers handeln, wie es auch von konventionellen Positionsbestimmungseinrichtungen verwendet werden könnte. Zum Beispiel kann ein solches Kalibrierobjekt eine Vielzahl von Markierungen aufweisen, deren Abstand zueinander genau bekannt ist und die von der Kamera erfassbar sind. Es können jedoch alternativ oder zusätzlich andere Kalibrierobjekte verwendet werden, wie zum Beispiel solche mit einer Mehrzahl von Kugeln oder kreisförmigen Strukturen, wobei die Abstände der Kugelmittelpunkte bzw.
Kreismittelpunkte zueinander genau bekannt ist. Auch Siemenssterne und andere an sich bereits bekannte Kalibrierobjekte sind für die Vorbereitung der optischen
Positionserfassung geeignet. Bevorzugt wird, dass sich das Kalibrierobjekt über den gesamten Bewegungsbereich des später zu erfassenden beweglichen Teils erstreckt, wobei das Kalibrierobjekt auch aus einzelnen Objekten bestehen kann, die nicht miteinander verbunden sind. Alternativ kann zumindest ein Kalibrierobjekt nacheinander an verschiedenen Orten innerhalb des Bewegungsbereichs angeordnet werden und jeweils von der zumindest einen Kamera aufgenommen werden. Ferner ist es möglich, den Bezug des Kalibrierobjekts zum Ursprung des Koordinatensystems des KMG unter Verwendung zumindest eines insbesondere lediglich für die Vorbereitung der optischen Positionsbestimmung verwendeten präzisen Messsystems herzustellen. Zum Beispiel kann ein Laser-Triangulationssystem verwendet werden.
Bei der Vorbereitung der optischen Positionsbestimmung unter Verwendung eines Kalibrierobjekts können auch Abbildungsfehler der Kameraoptik und Erfassungsfehler insbesondere der Sensorelemente-Matrix der Kamera ermittelt werden. Insbesondere monochromatische Fehler wie die Verzeichnung und die Bildfeldwölbung können ermittelt und optional korrigiert werden. Insbesondere ist es möglich, dasselbe Kalibrierobjekt nacheinander in verschiedenen Ausrichtungen und/oder Positionen im Bewegungsbereich anzuordnen und jeweils durch dieselbe Kamera zu erfassen. Selbst wenn die Geometrie des Kalibrierobjekts nicht exakt bekannt ist oder Unregelmäßigkeiten aufweist, können auf diese Weise die Abbildungsfehler und Erfassungsfehler der Kamera ermittelt werden. Wenn nicht der gesamte Bewegungsbereich von der Kamera erfasst wird, und deshalb Bilder von mehreren Kameras bei der Erfassung des Kalibrierobjekts zusammengesetzt werden, oder wenn das Kalibrierobjekt durch verschiedene Bilder derselben Kamera in verschiedenen Positionen und/oder Ausrichtungen erfasst wird, können die Bilder mit an sich aus der Bildverarbeitung bekannten Verfahren (die z. B. mit dem Stichwort Stitching bezeichnet werden) zusammengesetzt werden und kann die gewünschte
Kalibrierinformation gewonnen werden.
Insbesondere wenn nicht lediglich im ruhenden, unbewegten Zustand des beweglichen Teils Messwerte für die Bestimmung von Koordinaten eines Werkstücks gewonnen werden sollen und/oder wenn, wie bevorzugt, auch die Bewegung des zumindest einen beweglichen Teils unter Verwendung der Ergebnisse der optischen Positionsbestimmung gesteuert werden soll, kann die optische Positionsbestimmung bezüglich ihres zeitlichen Verhaltens kalibriert werden. Das zeitliche Verhalten ist insbesondere deshalb von Bedeutung, da die Auswertung bereits eines einzelnen Bildes der Kamera Zeit benötigt. Hinzu kommt, dass aus verschiedenen Gründen vorzugsweise nicht lediglich ein einziges Bild der Kamera, das zu einem bestimmten Zeitpunkt aufgenommen wurde, für die Positionsbestimmung ausgewertet wird. Insbesondere bei scannendem Vermessen von Werkstücken, aber auch während der Bearbeitung eines Werkstücks durch eine
Werkzeugmaschine findet eine Bewegung nicht nur des Sensors bzw. des Werkzeugs statt, sondern auch des Sensor-/Werkzeugträgers. Auch bei niedrigen Geschwindigkeiten kann eine zeitliche Kalibrierung von Vorteil sein, um die Genauigkeit zu erhöhen. Bei dieser zeitlichen Kalibrierung besteht insbesondere die Möglichkeit, dass das
Kalibrierobjekt seine optische Erscheinung im Laufe der Zeit ändert. Dabei kann sich das Kalibrierobjekt selbst verändern (zum Beispiel durch sich zeitlich verändernde Bildinhalte von einem oder mehreren Displays) und/oder die Einstrahlung elektromagnetischer Strahlung auf das Kalibrierobjekt und/oder die sich von dem Kalibrierobjekt in Richtung der Kamera ausbreitende elektromagnetische Strahlung kann mit der Zeit verändert werden (zum Beispiel durch zumindest eine verstellbare Blende und/oder zumindest einen hinsichtlich seiner Ausrichtung und/oder Größe veränderbaren Strahlungsreflektor). Alternativ oder zusätzlich kann das Kalibrierobjekt und/oder ein Mittel zur Beeinflussung der genannten Strahlung periodisch bewegt und/oder verändert werden. Wenn die Kamera eine zeitliche Folge von Bildern des Erfassungsbereichs aufnimmt, zum Beispiel mit einer gegebenen Taktfrequenz, kann diese periodische Veränderung erfasst werden und daraus das zeitliche Verhalten der optischen Erfassung und der Positionsbestimmung ermittelt werden. Bereits aufgrund der für die Verarbeitung des Kamerabildes benötigten Zeit wird die Position und/oder Ausrichtung erst mit einer zeitlichen Verzögerung nach der optischen Erfassung festgestellt.
Insbesondere kann außerdem elektromagnetische Strahlung mit einer Pulsfrequenz gepulst eingestrahlt werden, d. h. die Strahlungsverteilung der auf das Kalibrierobjekt eingestrahlten elektromagnetischen Strahlung hat eine in der Art von Lichtpulsen wiederkehrend plötzlich zunehmende und abnehmende Strahlungsflussdichte. Die Pulsfrequenz und die Frequenz der vorgenannten periodischen Veränderung können gleichgroß sein und somit in einer festen Phasenbeziehung der Veränderungsphase zu den Pulsen stehen, wobei unterschiedliche Phasenbeziehungen (zum Beispiel Lichtpuls jeweils zum Zeitpunkt der maximalen Veränderungsgeschwindigkeit oder Lichtpuls jeweils bei geringerer Veränderungsgeschwindigkeit) untersucht werden können.
Entsprechendes gilt für die Pulsfrequenz. Z. B. ist die Pulsfrequenz ein ganzzahliges Vielfaches der Veränderungsfrequenz oder umgekehrt. Es ist jedoch auch möglich, ein anderes Verhältnis der Frequenzen zueinander zu wählen oder zumindest eine der Frequenzen mit der Zeit zu verändern.
Insbesondere wenn die durch die Kamera durchgeführte optische Erfassung des
Erfassungsbereichs während des eigentlichen Betriebes des KMG und auch während der Kalibrierung gemeinsam mit der Positionsbestimmung (d. h. der Auswertung der
Kamerabilder) zu Positionsbestimmungsraten im Bereich von 100 Hz und größer führt und dabei eine Verzögerung der Feststellung der Position und/oder Ausrichtung des beweglichen Teils bezogen auf den Zeitpunkt der Aufnahme des ausgewerteten
Kamerabildes von einer Millisekunde oder kürzer angestrebt wird, wird bevorzugtermaßen lediglich die Phasenlage der periodischen Veränderung zur wiederholten und ebenfalls periodischen Bestimmung der Position und/oder Ausrichtung aus den Kamerabildern betrachtet. Die zeitliche Phasenverschiebung ist die Verzögerung.
Allgemeiner formuliert kann die Positionsbestimmungseinrichtung kalibriert werden, indem eine von der Kamera zu erfassende Szene im Laufe der Zeit verändert wird und aus Informationen über den Zeitpunkt und/oder den zeitlichen Verlauf eines Zustandes der Szene einerseits und über den Zeitpunkt und/oder den zeitlichen Verlauf der Feststellung eines Ergebnisses für die Position und/oder Ausrichtung eines Objekts innerhalb der Szene andererseits die Verzögerung der Bestimmung, d.h. die für die Bestimmung benötigte Zeit ermittelt wird. Insbesondere wird der Zustand der Szene periodisch verändert und aus der Phasenverschiebung des periodischen Verlaufs des Zustandes zu dem periodischen Verlauf der Feststellung des Ergebnisses der Positionsbestimmung aus den einzelnen Kamerabildern die Verzögerung ermittelt.
Vorteilhaft ist die Bestimmung der Verzögerung insbesondere, wenn bei der Messung von Koordinaten eines Werkstücks Sensorsignale des Sensors des KMG einem Zustand zu einem gegebenen Zeitpunkt entsprechen, die Ermittlung der Koordinaten im
Koordinatensystem des KMG aber auch das Ergebnis der zeitverzögerten Bestimmung der Position und/oder Ausrichtung berücksichtigt und wenn sich der Sensor oder das Werkstück bewegen.
Insbesondere kann die Verzögerung von einem Betriebsmodus der Kamera abhängig sein, insbesondere von der Länge des Zeitraums, über den hinweg Sensorelemente einer Sensormatrix der digitalen Kamera einfallende Strahlung detektieren und einen der insgesamt über den Zeitraum eingefallenen Strahlung entsprechendes Sensorsignal erzeugen. Dieser Zeitraum wird auch als Integrationszeitraum bezeichnet. Wenn bei einer für die Positionsbestimmung verwendeten Kamera der Integrationszeitraum verändert werden kann, wird bevorzugt, für eine Mehrzahl verschiedener Längen des
Integrationszeitraumes jeweils die Verzögerung zu ermitteln. Der kürzest mögliche Integrationszeitraum ist nicht zwangsläufig der Zeitraum, der zu der höchsten Genauigkeit bei der Positionserfassung führt. Vielmehr ist zu berücksichtigen, dass Sensorsignale von Sensorelementen der Kamera, die Position von Teilen des KMG und die Position des Werkstücks unbeabsichtigt hin- und herschwanken können. Dies sind lediglich Beispiele für ein Rauschen von Signalen und Vibrieren von Objekten. Auch die Signale, die die Zeitpunkte der Sensorsignale des Sensors, welcher das Werkstück vermisst, und der Positionsbestimmung durch die Positionsbestimmungseinrichtung repräsentieren, sowie deren Differenz, können einem Rauschen unterliegen. Daher kann es günstiger sein, wenn über einen größeren Zeitraum integriert wird und dabei größere Strahlungsenergie auf das jeweilige Sensorelement der Kameramatrix einfällt. Kurze Integrationszeiträume sind insbesondere dann wünschenswert, wenn die
Positionsbestimmung mit hoher Frequenz stattfinden soll, zum Beispiel weil der Sensor mit verhältnismäßig hoher Geschwindigkeit bewegt wird. In diesem Fall wird zur Erhöhung der von den einzelnen Sensorelementen der Kameramatrix absorbierten
Strahlungsenergie innerhalb des Integrationszeitraumes die Strahlungsflussdichte der auf den beweglichen Teil des KMG einfallen Strahlung erhöht, d. h. die Beleuchtungsstärke erhöht. Die Beleuchtungsstärke ist somit vorzugsweise größer, wenn die
Integrationszeiträume kleiner sind und umgekehrt.
Eine Möglichkeit zur Erhöhung der Frequenz der Positionsbestimmung besteht in der Verwendung einer Mehrzahl von Kameras, die zu zeitlich gegeneinander versetzten Zeitpunkten denselben Erfassungsbereich erfassen, oder zumindest einen gemeinsamen Erfassungsbereich erfassen.
Es wurde bereits erwähnt, dass sowohl die Positionsbestimmung als auch die Abtastung des Werkstücks des KMG jeweils auf eine Zeitbasis bezogen werden können, um die Zeitpunkte der Werkstückabtastung und der Positionsbestimmung miteinander in
Beziehung setzen zu können. Insbesondere um Unsicherheiten bezüglich der Zeitbasis zu verringern, wird es bevorzugt, dass eine gemeinsame Zeitbasis verwendet wird. Zum Beispiel kann ein Taktsignalgeber ein Taktsignal erzeugen, dass sowohl der
Positionsbestimmungseinrichtung als auch dem Sensor zugeführt wird, und unter dessen Verwendung der Zeitpunkt der Abtastung des Werkstücks und auch der Zeitpunkt der Positionsbestimmung ermittelt werden. Zum Beispiel können der Sensor und die
Positionsbestimmungseinrichtung über denselben Datenbus mit dem Taktsignalgenerator verbunden sein. Dabei können jedoch unterschiedliche Teile des Datenbusses zu dem Sensor einerseits und zu der Positionsbestimmungseinrichtung andererseits genutzt werden. Der Datenbus kann ferner zur Übertragung der von dem Sensor erzeugten Sensorsignale und der Ergebnisse der Positionsbestimmung zu einer gemeinsamen Auswertungseinrichtung genutzt werden. Eine weitere Möglichkeit für die Übermittlung der Informationen über die gemeinsame Zeitbasis an den Sensor und an die
Positionsbestimmungseinrichtung bietet ein globales oder lokales
Satellitennavigationssystem, das Informationen über die gemeinsame Zeitbasis (zum Beispiel wiederholt Informationen über eine bestimmten Zeitpunkt der Zeitbasis) per Funk überträgt. Sowohl der Sensor als auch die Positionsbestimmungseinrichtung können einen eigenen Oszillator, insbesondere Taktsignalgenerator, zur Erzeugung eines lokalen periodischen Zeitsignals aufweisen, der durch Verarbeitung der Information über die gemeinsame Zeitbasis auf diese synchronisiert wird. Diese Vorgehensweise ermöglicht Unterschiede zwischen der lokalen Zeit des Sensors und der lokalen Zeit der
Positionsbestimmungseinrichtung weiter zu verringern. Insbesondere wenn eine Mehrzahl von Sensoren und/oder eine Mehrzahl der Kameras der Positionsbestimmungseinrichtung zum Einsatz kommen, ist der Aufwand für die Nutzung einer gemeinsamen Zeitbasis in dieser Weise gering.
Wenn die Genauigkeit der Positionsbestimmung durch die optische
Positionsbestimmungseinrichtung bei einer vorhandenen Frequenz der
Positionserfassung nicht ausreichend ist, kann die Frequenz durch Mittelwertbildung einer Mehrzahl der Ergebnisse der Positionsbestimmung in manchen Fällen gesteigert werden. Dies hängt von den Ursachen für die geringe Genauigkeit ab. Zum Beispiel wurden bereits das Signalrauschen und das Vibrieren von Teilen erwähnt. Eine Mittelung über zumindest eine oder vorzugsweise mehrere Perioden des Rauschens und/oder Vibrierens kann die Genauigkeit erhöhen und jedenfalls zufällige Schwankungen eliminieren.
Optional kann zusätzlich ein konventionelles nicht optisches
Positionsbestimmungssystem verwendet werden, das insbesondere zwischen zwei Zeitpunkten, zu denen die optische Positionsbestimmungseinrichtung ein Ergebnis feststellt, zumindest ein weiteres Ergebnis der Positionsbestimmung liefert. Bei den nicht optischen Positionsbestimmungssystemen kann es sich zum Beispiel um absolute Positionen bestimmende Systeme oder um Relativpositionen bestimmende Systeme handeln. Ein Vorteil dieser kombinierten Nutzung verschiedener
Positionsbestimmungssysteme liegt darin, dass die optische Positionsbestimmungseinrichtung zwar mit kleinerer Frequenz Ergebnisse liefert, jedoch nicht oder nur geringfügig von äu ßeren Einflussgrößen und Betriebszuständen des KMG abhängt. Eine durch solche Einflussgrößen und Betriebszustände bewirkte Verfälschung der Ergebnisse des konventionellen Positionsbestimmungssystems kann daher wiederholt durch Ergebnisse der optischen Positionsbestimmungseinrichtung korrigiert werden.
In der bisherigen Beschreibung wurde, und auch in der folgenden Beschreibung wird die optische Positionsbestimmung als Teil eines Koordinatenmessgerätes bzw. als Teil eines Verfahrens zum Betreiben eines Koordinatenmessgerätes beschrieben. Diese
Beschreibung kann mit Ausnahme der Unterschiede zwischen der Koordinatenmessung und der Werkstückbearbeitung auch auf Werkzeugmaschinen übertragen werden, die einen in einem Bewegungsbereich beweglichen Werkzeugträger aufweisen, der ein Bearbeitungswerkzeug trägt oder tragen kann. Auch derartige Werkzeugmaschinen haben üblicherweise eine Positionsbestimmungseinrichtung. Es wird vorgeschlagen, diese Positionsbestimmungseinrichtung als optische Positionsbestimmungseinrichtung auszuführen. In der Beschreibung des Koordinatenmessgerätes und des Verfahrens zum Betreiben eines Koordinatenmessgerätes kann daher überall der Begriff des
Koordinatenmessgerätes durch den Begriff Werkzeugmaschine ersetzt werden.
Außerdem kann überall der Begriff des Sensors des Koordinatenmessgerätes durch den Begriff des Werkzeugs ersetzt werden. Dabei ist die Funktionsbeschreibung des Sensors, der ein Werkstück abtastet, um Koordinaten zu bestimmen, durch die
Funktionsbeschreibung des Werkzeugs zu ersetzen, das das Werkstück bearbeitet.
Während bei einem KMG Sensorsignale mit Signalen der
Positionsbestimmungseinrichtung kombiniert werden, um die Koordinaten des
abgetasteten Werkstücks im Koordinatensystem des KMG zu ermitteln, werden die Ergebnisse der optischen Positionsbestimmung einer Positionsbestimmungseinrichtung der Werkzeugmaschine dazu verwendet, die Position und/oder Ausrichtung des
Werkzeugs zu ermitteln und damit insbesondere die Position und/oder Ausrichtung des Werkzeugs an eine Soll-Position und/oder Ausrichtung anzupassen, um das Werkstück in einer vorgegebenen Weise zu bearbeiten. Ähnlich wie bei einem Sensor eines KMG kann auch das Bearbeitungswerkzeug einer Werkzeugmaschine über eine Messeinrichtung verfügen, die es zum Beispiel erlaubt, die Position relativ zu dem Werkstück zu ermitteln, die beispielsweise dem Abnutzungsgrad eines Kontaktelements entspricht, das mit dem Werkstück unmittelbar in Kontakt ist, um dieses zu bearbeiten. Die folgende Beschreibung bezieht sich wiederum auf ein Koordinatenmessgerät. Die Beschreibung kann jedoch analog auf eine Werkzeugmaschine übertragen werden.
Insbesondere wird ein Koordinatenmessgerät vorgeschlagen, das aufweist:
• einen Sensor zur Erfassung von Koordinaten eines Werkstücks,
• einen beweglichen Sensorträger, der den Sensor trägt und der innerhalb eines
Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegbar ist,
• eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers,
• eine Auswertungseinrichtung, die aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors Koordinaten des Werkstücks ermittelt, wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
• die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden ist und/oder durch den Sensorträger gebildet ist oder
• die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
und wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers festzustellen.
Auch wird ein Koordinatenmessgerät vorgeschlagen, das aufweist:
• einen Sensor zur Erfassung von Koordinaten eines Werkstücks,
• einen beweglichen Sensorträger, der den Sensor trägt und der innerhalb eines
Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegbar ist,
• eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers,
• eine Auswertungseinrichtung, die aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors Koordinaten des Werkstücks ermittelt, wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
• die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit einer relativ zur Basis beweglichen Stützstruktur zum Abstützen des Werkstücks auf der Basis verbunden ist und/oder durch die Basis gebildet ist,
wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers festzustellen.
Ferner wird ein Verfahren zum Betreiben eines Koordinatenmessgeräts vorgeschlagen, wobei
• ein Sensor Sensorsignale zur Erfassung von Koordinaten eines Werkstücks erzeugt,
• ein beweglicher Sensorträger, der den Sensor trägt, innerhalb eines
Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegt wird,
• eine Positionsbestimmungseinrichtung des Koordinatenmessgeräts eine Position und/oder eine Ausrichtung des Sensorträgers feststellt,
• eine Auswertungseinrichtung des Koordinatenmessgeräts aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt, wobei zumindest eine Kamera der Positionsbestimmungseinrichtung zumindest eine Erfassungsstruktur erfasst, wobei
• die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden ist und/oder durch den Sensorträger gebildet ist oder
• die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
und wobei die Positionsbestimmungseinrichtung aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers feststellt.
Außerdem wird ein Verfahren zum Betreiben eines Koordinatenmessgeräts
vorgeschlagen, wobei • ein Sensor Sensorsignale zur Erfassung von Koordinaten eines Werkstücks erzeugt,
• ein beweglicher Sensorträger, der den Sensor trägt, innerhalb eines
Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegt wird,
• eine Positionsbestimmungseinrichtung des Koordinatenmessgeräts eine Position und/oder eine Ausrichtung des Sensorträgers feststellt,
• eine Auswertungseinrichtung des Koordinatenmessgeräts aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt, wobei zumindest eine Kamera der Positionsbestimmungseinrichtung zumindest eine Erfassungsstruktur erfasst, wobei
• die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit einer relativ zur Basis beweglichen Stützstruktur zum Abstützen des Werkstücks auf der Basis verbunden ist und/oder durch die Basis gebildet ist,
wobei die Positionsbestimmungseinrichtung aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers feststellt.
Demgemäß ist insbesondere der bewegliche Sensorträger das bewegliche Teil des KMG, dessen Position und/oder Ausrichtung durch die optische
Positionsbestimmungseinrichtung bestimmt wird. Fest mit dem Sensorträger verbundene Teile sind diesem zuzurechnen, das heißt auch diese fest mit dem Sensorträger verbundenen Teile, wie zum Beispiel der feststehende Teil des Sensors, können zur Positionsbestimmung von der Kamera erfasst werden und zum Beispiel zumindest einen Marker aufweisen.
Um auf die entsprechende Gestaltung einer Werkzeugmaschine zurückzukommen kann eine Positionsbestimmung wie folgt realisiert werden. Dies fällt nicht in den Schutzbereich der beigefügten Ansprüche:
Eine Werkzeugmaschine kann Folgendes aufweisen:
• ein Werkzeug zur Erfassung von Koordinaten eines Werkstücks,
• einen beweglichen Werkzeugträger, der das Werkzeug trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis der Werkzeugmaschine bewegbar ist, • eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Werkzeugträgers,
• eine Auswertungseinrichtung, die aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Werkzeugträgers und aus Signalen des Werkzeugs Koordinaten des Werkzeug und/oder des Werkstücks ermittelt,
wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
• die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Werkzeugträger verbunden ist und/oder durch den Werkzeugträger gebildet ist oder
• die Kamera mit dem Werkzeugträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
und wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Werkzeugträgers festzustellen.
Eine Werkzeugmaschine kann Folgendes aufweisen:
• ein Werkzeug zur Erfassung von Koordinaten eines Werkstücks,
• einen beweglichen Werkzeugträger, der das Werkzeug trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis der Werkzeugmaschine bewegbar ist,
• eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Werkzeugträgers,
• eine Auswertungseinrichtung, die aus einer von der
Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Werkzeugträgers und aus Signalen des Werkzeugs Koordinaten des Werkzeug und/oder des Werkstücks ermittelt,
wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
• die Kamera mit dem Werkzeugträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit einer relativ zur Basis beweglichen Stützstruktur zum Abstützen des Werkstücks auf der Basis verbunden ist und/oder durch die Basis gebildet ist, und wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Werkzeugträgers festzustellen.
Das entsprechende Betriebsverfahren zum Betreiben einer Werkzeugmaschine sowie Ausgestaltungen des Betriebsverfahrens und der Werkzeugmaschine ergeben sich analog aus der Beschreibung des KMG und der Beschreibung des Betriebsverfahrens zum Betreiben des KMG.
Insbesondere kann die Kamera mit der Basis verbunden sein und die Erfassungsstruktur mit dem Sensorträger verbunden sein und/oder durch den Sensorträger gebildet sein, wobei in einem Abstand zu der Kamera eine Kalibrierungsstruktur mit der Basis verbunden ist und wobei die Kalibrierungsstruktur und die Kamera derart angeordnet sind, dass die Kalibrierungsstruktur von der Kamera gleichzeitig mit der Erfassungsstruktur erfassbar ist bzw. erfasst wird.
Dies ermöglicht es, während des Betriebes des KMG die Kalibrierungsstruktur zum Zweck der Positionsbestimmung und/oder Überprüfung der Positionsbestimmung zu verwenden. Die Kalibrierungsstruktur kann zum Beispiel ein Marker oder eine Anordnung von Markern sein.
Insbesondere kann die Kamera mit der Basis verbunden sein und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden sein und/oder durch den Sensorträger gebildet sein, wobei die Kamera einen
Erfassungsbereich hat, in dem die Erfassungsstruktur oder die zumindest eine der Erfassungsstrukturen durch Bewegung des Sensorträgers innerhalb des
Bewegungsbereichs bewegbar ist bzw. bewegt wird und dennoch von der Kamera erfassbar ist bzw. erfasst wird, und wobei die Kamera unabhängig von der Position und/oder Ausrichtung des Sensorträgers den gesamten Erfassungsbereich erfasst.
Die Ausrichtung der Kamera und die Größe des Erfassungsbereichs werden daher nicht abhängig von der Position und/oder Ausrichtung des Sensorträgers verändert. Die Blickrichtung der Kamera folgt nicht dem Sensorträger. Dennoch kann die Position und/oder Ausrichtung des Sensorträgers durch Auswertung der Kamerabilder festgestellt werden, sofern sich der Sensorträger noch in dem Erfassungsbereich befindet und nicht aus Sicht der Kamera verdeckt wird. Dies hat den Vorteil, dass keine Kalibrierung der Kamera bezüglich einer Kamerabewegung und bezüglich einer Veränderung der Größe des Erfassungsbereichs durchgeführt werden muss.
Insbesondere kann die Positionsbestimmungseinrichtung aus den Erfassungssignalen der Kamera, die dem gesamten Erfassungsbereich entsprechen, einen Teil der
Erfassungssignale auswählen, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur oder der zumindest einen der Erfassungsstrukturen enthält, und kann durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des Sensorträgers feststellen. D.h., die Positionsbestimmungseinrichtung kann entsprechend ausgestaltet sein.
Mit dieser Maßnahme kann die Verzögerung bei der Positionsbestimmung durch
Auswertung der Kamerabilder reduziert werden, da die Menge der Bilddaten reduziert wird, die zur Positionsbestimmung ausgewertet werden. Dies erlaubt auch die Erhöhung der Frequenz der Positionsbestimmung bei wiederholter Aufnahme von Kamerabildern. Zum Beispiel bei einer Kamera mit einer CMOS- Sensorelementen-Matrix können die Teilbereiche des Kamerabildes, die die Information über die Position und/oder
Ausrichtung der Erfassungsstruktur oder der zumindest einen von mehreren
Erfassungsstrukturen enthält, insbesondere durch Auslesen der entsprechenden
Datenspeicherregister und Verarbeiten der ausgelesenen Daten ausgewertet werden. Bei großem Erfassungsbereich der Kamera ist der auszuwertende Teil-Erfassungsbereich besonders klein. Es findet daher eine besonders große Reduktion der auszuwertenden Datenmenge statt. Der auszuwertende Teil-Erfassungsbereich kann auf unterschiedliche Weise ermittelt werden. Eine Möglichkeit besteht darin, Information zum Beispiel einer Bewegungssteuerung des KMG über die Position und/oder Ausrichtung des beweglichen Teils auszuwerten. Während einer Bewegung des beweglichen Teils kann die Position und/oder Ausrichtung vorausschauend, unter Verwendung dieser Information und unter Verwendung einer bereits von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des beweglichen Teils ermittelt werden. Alternativ oder zusätzlich kann das Kamerabild vorverarbeitet werden, bevor die dadurch ausgewählten Bilddaten anschließend zum Zweck der Positionsbestimmung ausgewertet werden. Dabei kann zum Beispiel unter Anwendung an sich bekannter Verfahren zur Identifikation bekannter Strukturen aus Bilddaten die Erfassungsstruktur ermittelt werden. Wenn das Koordinatenmessgerät wie üblich eine Bewegungssteuerung aufweist, mit der eine Bewegung des Sensorträgers innerhalb des Bewegungsbereichs steuerbar ist bzw. gesteuert wird, kann die Bewegung des Sensorträgers insbesondere unter
Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des Sensorträgers gesteuert werden, die die Positionsbestimmungseinrichtung durch Auswertung der Erfassungssignale der Kamera festgestellt hat. D.h., die Bewegungssteuerung kann insbesondere so ausgestaltet sein. Dies ermöglicht es, auf zusätzliche konventionelle Bewegungsmesseinrichtungen vollständig zu verzichten. Alternativ ist es möglich, die optische Positionsbestimmung lediglich für die Bewegungssteuerung zu verwenden, nicht aber für die Ermittlung der Koordinaten eines Werkstücks. Dies betrifft auch den Fall einer Werkzeugmaschine.
Insbesondere kann das Koordinatenmessgerät eine Beleuchtungseinrichtung aufweisen, die während des Betriebes des KMG zumindest eine Erfassungsstruktur mit
elektromagnetischer Strahlung beleuchtet. Durch gezielte Beleuchtung des von der Kamera zu erfassenden Bereichs, zum Beispiel mit Strahlungspulsen, werden definierte Verhältnisse für die Erfassung geschaffen. Zum Beispiel kann die Beleuchtung auf den Integrationszeitraum der Kamera-Sensorelemente abgestimmt werden. Bevorzugt wird, dass die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera erfassbar ist bzw. erfasst wird. Infrarot-Strahlung wird im Gegensatz zu sichtbarer Strahlung von Menschen nicht als störend empfunden. Dies ist insbesondere bei Strahlungspulsen ein Vorteil. Es ist aber auch möglich, Strahlung in einem anderen, nicht sichtbaren Wellenlängenbereich zu verwenden, zum Beispiel Ultraviolettstrahlung. Nicht sichtbare Strahlung führt insbesondere dann zu definierten
Beleuchtungsverhältnissen, wenn in dem Wellenlängenbereich während des Betriebes des KMG keine andere Strahlung mit erheblicher Strahlungsintensität vorkommt als aus der Beleuchtungseinrichtung. Bei Infrarotstrahlung liegt die Wellenlänge der Strahlung der Beleuchtungseinrichtung daher zum Beispiel im Bereich von 850-950 nm. Erzeugt werden kann solche Strahlung bei hoher Strahlungsflussdichte z.B. mit Leuchtdioden. Nicht nur bei Infrarot-Strahlung erlaubt es eine hohe Strahlungsflussdichte, einen kurzen
Integrationszeitraum der Kamera zu wählen.
Vorzugsweise weist die Positionsbestimmungseinrichtung eine Mehrzahl der Kameras auf, die jeweils eine Erfassungsstruktur, jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers festzustellen, wobei jede der Kameras mit einer zugeordneten
Bildverarbeitungseinrichtung kombiniert ist, die jeweils lediglich Erfassungssignale einer der Kameras verarbeitet und dadurch Information über die Position und/oder Ausrichtung der von der Kamera erfassten Erfassungsstruktur(en) gewinnt, und wobei die
Bildverarbeitungseinrichtungen mit einer zentralen Einheit der
Positionsbestimmungseinrichtung verbunden sind, die ausgestaltet ist, aus der von den Bildverarbeitungseinrichtungen gewonnenen Information die Position und/oder
Ausrichtung des Sensorträgers festzustellen.
Durch die mehreren Bildverarbeitungseinrichtungen, die insbesondere jeweils am Ort der zugeordneten Kamera angeordnet sind, wird die Menge der zu übertragenden Daten reduziert und die Geschwindigkeit der Positionsbestimmung erhöht, d.h. die Verzögerung der Positionsbestimmung verringert. Z.B. kann es sich bei den
Bildverarbeitungseinrichtungen um Mikroprozessoren wie FPGAs (Field Programmable Gate Arrays) oder ARMs (Advanced RISC Machines) oder andere im Embedded-Bereich, insbesondere der jeweiligen Kamera, angeordnete Mikrocomputer handeln. Es handelt sich somit um eine dezentrale Verarbeitung der Daten der einzelnen Kameras.
Insbesondere kann jede der Bildverarbeitungseinrichtungen der zentralen Einheit die von ihr festgestellte Position und/oder Ausrichtung des beweglichen Teils übertragen, soweit die jeweilige Bildverarbeitungseinrichtung dies aus den Bilddaten der zugeordneten Kamera ermitteln kann. Von den verschiedenen Bildverarbeitungseinrichtungen kann auf diese Weise, je nach Anordnung der Kameras und insbesondere auch bei Kameras mit unterschiedlichen Blickrichtungen zumindest teilweise redundante Information über die Position und/oder Ausrichtung des beweglichen Teils gewonnen und an die zentrale Einheit übertragen werden. Es wird jedoch bevorzugt, dass die von den einzelnen
Bildverarbeitungseinrichtungen ermittelte Information nicht vollständig redundant zueinander ist, sondern die Gesamtinformation größer ist als die einzelne Information der Bildverarbeitungseinrichtung.
Dies schließt nicht aus, dass die von einer einzigen Bildverarbeitungseinrichtung ermittelte Positions- und/oder Ausrichtungsinformation unabhängig von der Information anderer Bildverarbeitungseinrichtungen für den Betrieb des KMG genutzt werden kann. Z.B. kann die Information der einzelnen Bildverarbeitungseinrichtung ausreichen, um einen von mehreren Antrieben des KMG zur Bewegung des beweglichen Teils zu steuern. Für diesen Antrieb ist lediglich die Information einer einzigen Bildverarbeitungseinrichtung und der zugeordneten Kamera erforderlich. Dies kann auch bei anderen Antrieben der Fall sein, denen jeweils eine andere Bildverarbeitungseinrichtung mit der zugeordneten Kamera zugeordnet ist. Auf diese Weise können z.B. die drei verschiedenen
Linearbewegungsantriebe zur Erzeugung einer (geradlinigen) linearen Bewegung in Richtung einer Achse eines kartesischen Koordinatensystems (wie z.B. bei einem KMG in Portalbauweise oder Gantrybauweise der Fall) gesteuert werden. Daher kann zum Zweck der Bewegungssteuerung die Übertragung der Information von den verschiedenen Bildverarbeitungseinrichtungen zu der zentralen Einheit entfallen. Allerdings wird es bevorzugt, dass eine zentrale Einheit des KMG zumindest indirekt von den einzelnen Antriebssteuerungen oder auch direkt von den Bildverarbeitungseinrichtungen die Positionen und/oder Ausrichtungen des beweglichen Teils erhält. Wenn hier von dem beweglichen Teil die Rede ist, kann insbesondere in dem genannten Fall der
Koordinatenmessgeräte in Portal- oder Gantrybauweise eine Mehrzahl von beweglichen Teilen vorhanden sein, z.B. das Portal, der Schlitten, welcher in Längsrichtung der Brücke des Portals beweglich ist, und die Pinole, die quer zur Bewegungsrichtung des Schlittens beweglich ist. Die Kameras können daher insbesondere diese oder andere beweglichen Teile erfassen, z.B. jede Kamera lediglich eines der mehreren beweglichen Teile.
Alternativ oder zusätzlich ist es aber auch möglich, dass die Mehrzahl der Kameras dasselbe bewegliche Teil insbesondere aus verschiedenen Blickrichtungen erfasst. Dies ist vorzugsweise der Sensorträger.
Wenn die Kamera mit dem Sensorträger verbunden ist und eine Mehrzahl der
Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist, kann die Kamera insbesondere einen Erfassungsbereich haben, in dem lediglich ein Teil der Mehrzahl der Erfassungsstrukturen liegt, wobei es von der Position und/oder
Ausrichtung des Sensorträgers abhängt, welcher Teil der Mehrzahl der
Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera erfassbar ist bzw. erfasst wird. Allgemeiner formuliert kann das bewegliche Teil ein anderes bewegliches Teil als der Sensorträger sein. Dafür gilt entsprechendes.
Optional kann mit dem beweglichen Teil eine Mehrzahl von Kameras verbunden sein, die in unterschiedliche Blickrichtungen ausgerichtet sind und/oder sich voneinander unterscheidende Erfassungsbereiche haben. Dies ermöglicht es insbesondere dann, wenn aus Sicht einer Kamera Erfassungsstrukturen durch andere Maschinenteile verdeckt sind, durch Auswertung von Bildern der anderen Kamera oder zumindest einer der anderen Kameras die Position und/oder Ausrichtung zu ermitteln. Bevorzugt wird, dass die Kameras unterschiedliche Blickrichtungen haben.
Die Anordnung der Erfassungsstrukturen an der Basis kann mit einem Fixsternhimmel verglichen werden. Wie auch bei dem Fixsternhimmel kann insbesondere vorab
Information darüber gewonnen werden, wo sich die einzelnen Erfassungsstrukturen befinden und/oder wie diese ausgerichtet sind. Unter Berücksichtigung dieser
Vorabinformation und kann daher durch Auswertung der Kamerabilder die Position und/oder Ausrichtung des beweglichen Teils festgestellt werden. Allgemein können mehrere Erfassungsstrukturen in beliebiger Weise verteilt sein. Zum Beispiel kann zumindest eine Erfassungsstruktur unmittelbar an der Basis (z.B. an einer Grundplatte des KMG) oder an einer beweglichen Stützstruktur des KMG befestigt sein und/oder durch die Basis oder die bewegliche Stützstruktur ausgebildet sein. Zumindest eine weitere Erfassungsstruktur kann an einem mit der Basis fest oder beweglich verbundenen Teil befestigt sein und/oder von diesem Teil gebildet sein. Optional kann zumindest eine weitere Erfassungsstruktur an einem anderen mit der Basis fest oder beweglich verbundenen Teil befestigt sein und/oder von diesem Teil gebildet sein. Optional gilt für noch weitere Erfassungsstrukturen, dass diese jeweils oder zu mehreren an einem weiteren mit der Basis fest oder beweglich verbundenen Teil befestigt sind und/oder von diesem Teil gebildet sind. Von Bedeutung ist allerdings die Information, wo (zum Beispiel in einem ortsfesten Koordinatensystem, einem Koordinatensystem der Basis oder in einem Koordinatensystem des zu vermessenden Werkstücks) sich jede einzelne
Erfassungsstruktur befindet und/oder in welche Richtung jede einzelne Erfassungsstruktur ausgerichtet ist. Mit dieser Information kann durch Auswertung zumindest eines Bildes einer (z.B. an dem Sensorträger oder an einem anderen Teil des KMG) angeordneten Kamera auf einfache Weise und in kurzer Zeit die Position und/oder Ausrichtung des Teils ermittelt werden, an dem die Erfassungsstruktur angeordnet ist und/oder die die
Erfassungsstruktur bildet.
Es wird bevorzugt, dass die einzelnen Erfassungsstrukturen sich voneinander
unterscheiden, d.h. individuell gestaltet sind. Dies gilt auch für den Fall, dass die zumindest eine Kamera mit der Basis verbunden und die zumindest eine
Erfassungsstruktur an dem beweglichen Teil ausgebildet ist. Dies ermöglicht es, bei der Auswertung eines Kamerabildes festzustellen, welche Erfassungsstruktur(en) durch die Erzeugung des Bildes erfasst wurde. Durch Zuordnung der identifizierten Erfassungsstruktur(en) zu einer insbesondere vorab bekannten Position und/oder Ausrichtung der Erfassungsstruktur(en) kann daher ermittelt werden, welchen Teilbereich die Kamera erfasst hat. Aus der Identifikation der Erfassungsstruktur(en) folgt bereits die ungefähre Position und/oder Ausrichtung des beweglichen Teils, mit dem die Kamera verbunden ist oder den die Kamera erfasst. Unter Verwendung der Vorabinformation über die Position und/oder Ausrichtung der identifizierten Erfassungsstruktur kann/wird daher die Position und/oder Ausrichtung des beweglichen Teils ermittelt werden. Eine Mehrzahl von individuell gestalteten Erfassungsstrukturen ermöglicht auch dann eine zuverlässige Positionsbestimmung, wenn eine oder mehrere der Erfassungsstrukturen aus Sicht der Kamera verdeckt sind und daher nicht erfasst werden können. Es kann durch
Identifizierung der Erfassungsstruktur auf einfache Weise ermittelt werden, welche Erfassungsstruktur(en) von der Kamera erfasst wurde.
Im Vergleich zu der Anordnung der zumindest einen Kamera an der Basis und der Anordnung und/oder Ausbildung der zumindest einen Erfassungsstruktur an dem beweglichen Teil wird für die Variante des Fixsternhimmels bevorzugt, dass der Winkel des Erfassungsbereichs der Kamera kleiner ist.
Allgemeiner formuliert erfasst die Kamera lediglich einen Teil der Erfassungsstrukturen, die in der Blickrichtung der Kamera, einschließlich parallel versetzter Blickrichtungen erfassbar sind. Durch den kleineren Raumwinkel des Erfassungsbereichs kann bei gleicher Pixelzahl der Kamerabilder eine feinere örtliche Auflösung erzielt werden. Anders ausgedrückt kann die aufgenommene Datenmenge reduziert werden und/oder die Position und/oder Ausrichtung des beweglichen Teils präziser festgestellt werden. Durch eine kleinere Datenmenge kann die Verzögerung bis zur Feststellung der Position und/oder Ausrichtung des beweglichen Teils verringert werden.
Für die Ermittlung der bereits erwähnten Information über Positionen und/oder
Ausrichtungen der Erfassungsstrukturen, die mit der Basis verbunden sind, wird es bevorzugt, mit der zumindest einen Kamera Kamerabilder zu erzeugen, durch deren Gesamtheit sämtliche Erfassungsstrukturen erfasst werden. Dabei kann die Position und/oder Ausrichtung des beweglichen Teils durch ein Positionsbestimmungssystem jeweils für den Zeitpunkt der Aufnahme des jeweiligen Kamerabildes festgestellt werden, das zusätzlich zu der optischen Positionsbestimmungseinrichtung vorhanden ist. Z.B. kann dieses zusätzliche Positionsbestimmungssystem ebenfalls ein optisches Positionsbestimmungssystem sein, das beispielsweise eine Mehrzahl von Kameras aufweist, welche bei unterschiedlichen Blickrichtungen mit der Basis verbunden sind. Diese mit der Basis verbundenen Kameras können nach der Aufnahme der Kamerabilder der zumindest einen Kamera, welche mit dem beweglichen Teil verbunden ist, von der Basis entfernt werden. Das zusätzliche Positionsbestimmungssystem kann jedoch auch ein anderes System sein, welches z.B. Lasertriangulation zur Positionsbestimmung nutzt. Während der Aufnahme der Kamerabilder durch die zumindest eine mit dem beweglichen Teil verbundene Kamera kann das bewegliche Teil bewegt werden. Allerdings wird es bevorzugt, dass diese Bewegung bei geringer Geschwindigkeit stattfindet.
Wenn zur Gewinnung der Vorabinformation über die Positionen und/oder Ausrichtungen der mit der Basis verbundenen Erfassungsstrukturen wie erwähnt zumindest eine Kamera verwendet wird, die das bewegliche Teil mit der zumindest einen damit verbundenen Kamera erfasst, kann die zumindest eine mit der Basis verbundene Kamera (im
Folgenden kurz: äußere Kamera im Gegensatz zu der im Folgenden als innere Kamera bezeichneten Kamera, die mit dem beweglichen Teil verbunden ist) in manchen
Konfigurationen die Erfassung eines Teils der mit der Basis verbundenen
Erfassungsstrukturen durch die zumindest eine innere Kamera erschweren oder verhindern, insbesondere durch Verdecken von Erfassungsstrukturen. Die äu ßere Kamera kann daher bereits während der Ermittlung der Vorabinformation nacheinander in unterschiedlichen Positionen mit der Basis verbunden sein. Auch während des eigentlichen Betriebes des KMG kann die äu ßere Kamera entfernt werden oder an einem anderen Ort und/oder mit anderer Ausrichtung mit der Basis verbunden sein. Wenn die Vorabinformation überprüft werden soll und/oder erneut gewonnen werden soll, kann die zumindest eine äu ßere Kamera wieder derart mit der Basis verbunden werden, dass die Position und/oder Ausrichtung des beweglichen Teils mit der damit verbundenen zumindest einen inneren Kamera aus ihren Kamerabildern mit hoher Präzision festgestellt werden kann.
Ausführungsbeispiele der Erfindung werden nun unter Bezugnahme auf die beigefügte Zeichnung beschrieben. Die einzelnen Figuren der Zeichnung zeigen:
Fig. 1 in vereinfachter schematischer Darstellung ein Koordinatenmessgerät in
Portalbauweise, wobei eine Mehrzahl von Kameras auf den Bewegungsbereich des Sensorträgers am unteren Ende der Pinole des
KMG ausgerichtet ist,
Fig. 2 eine schematische Darstellung mit vier Kameras, deren
Erfassungsbereiche den Bewegungsbereich eines Sensorträgers eines
KMG abdecken, wobei an dem Sensorträger eine Mehrzahl von
Erfassungsstrukturen angeordnet ist,
Fig. 3 schematisch in vereinfachter Darstellung ein Koordinatenmessgerät in
Portalbauweise mit Kameras, die am Sensorträger befestigt sind, und eine
Vielzahl von Erfassungsstrukturen, die mit der Basis des KMG verbunden sind,
Fig. 4 eine Werkzeugmaschine in Portalbauweise, in einer Fig. 1 ähnlichen
Darstellung, wobei jedoch am unteren Ende der Pinole statt eines Mess- Sensors ein Bearbeitungswerkzeug getragen wird, und
Fig. 5 ein Stativ-KMG mit einem beweglichen Messtisch in schematischer
Darstellung.
Fig. 1 zeigt ein Koordinatenmessgerät 1 in Portalbauweise. Auf einem Messtisch 2 des KMG 1 ist das in X-Richtung eines kartesischen Koordinatensystems des KMG 1 bewegliche Portal 3 angeordnet. Ein Schlitten 5 kann in Y-Richtung des
Koordinatensystems entlang einem Querträger 4 des Portals 3 bewegt werden. Ferner ist eine Pinole 6 in Z-Richtung des Koordinatensystems beweglich an dem Schlitten 5 angeordnet. Am unteren Ende der Pinole 6 ist ein Messkopf 7, d.h. ein Sensor, befestigt, der einen Taster 8 trägt. In der vereinfachten Darstellung sind keine Antriebe dargestellt.
Wie in Fig. 1 schematisch dargestellt ist, weist das Koordinatenmessgerät 1 eine
Steuerungs- und Auswertungseinrichtung 10 auf, die beispielsweise Teil eines
handelsüblichen oder speziell für den Betrieb des KMG ausgestalteten Computers ist, der mit Software für den Betrieb des KMG 1 ausgestattet ist. Die Steuerungs- und
Auswertungseinrichtung 10 ist, wie durch eine gepunktete Linie dargestellt ist, mit den beweglichen Teilen des KMG 1 verbunden. Auf dem Messtisch befindet sich ein
Werkstück 12 innerhalb des Bewegungsbereichs des Tasters 8.
Bei konventionellen KMGs, und auch bei Werkzeugmaschinen, sind Messgeber und Maßverkörperungen an den relativ zueinander beweglichen Teilen angebracht, um die Position des Sensorträgers (hier der Pinole 6) zu bestimmen. In dem dargestellten Beispiel eines KMG wird jedoch die Position des unteren Endes der Pinole von einer Mehrzahl von Kameras erfasst, die über nicht dargestellte Verbindungen mit der Basis des KMG 1 verbunden sind. Zu der Basis gehört insbesondere der Messtisch 2.
In dem konkret in Fig. 1 dargestellten Ausführungsbeispiel sind lediglich zwei Kameras 13a, 13b dargestellt, die den Bewegungsbereich des unteren Pinolenendes jeweils vollständig erfassen, dabei jedoch in unterschiedliche Blickrichtungen blicken. Bei den Kameras 13 handelt es sich um Weitwinkelkameras. Sie sind, wie durch gepunktete Linien dargestellt ist, ebenfalls mit der Steuerungs- und Auswertungseinrichtung 10 verbunden.
Fig. 2 zeigt ein durch einen Würfel mit gepunkteten Kantenlinien dargestellten
Bewegungsbereich eines beweglichen Teils eines KMG. In der Figur ist als Beispiel der untere Endbereich einer Pinole 6 eines KMG mit daran angekoppelten Taststift 8 als bewegliches Teil dargestellt. Das bewegliche Teil könnte jedoch auch ein anderes Teil eines KMG oder einer Werkzeugmaschine sein, z.B. ein Messkopf eines KMG oder ein Werkzeug oder Werkzeugträger einer Werkzeugmaschine. Die Kameraanordnung in Fig. 2 kann zum Beispiel alternativ zu der Anordnung in Fig. 1 oder 4 verwendet werden.
Insgesamt vier Kameras 23a, 23b, 23c, 23d sind bei unterschiedlicher Richtung jeweils auf den Bewegungsbereich ausgerichtet. Ränder des Erfassungsbereichs von drei der Kameras 23a, 23b, 23c sind wie in Fig. 1 durch gestrichelte Linien dargestellt. Am Beispiel der oben in Fig. 2 dargestellten Kamera 23b ist ferner schematisch dargestellt, dass die Kameras jeweils eine Optik 24b, z.B. eine Linsenanordnung, und eine Sensorelementen- Matrix 25b aus strahlungsempfindlichen Sensorelementen aufweisen.
Das bewegliche Teil 6 weist an verschiedenen Seiten, hier an unterschiedlich orientierten Oberflächen, jeweils zumindest einen Marker 31 auf. Im Beispiel sind an der nach vorne weisenden Oberfläche und an der nach rechts weisenden Oberfläche jeweils vier Marker 31 angeordnet. Die Marker 31 werden jeweils zumindest von einer der Kameras 23 erfasst. Z.B. werden die Marker 31 der nach rechts weisenden Oberfläche des
beweglichen Teils 6 von den Kameras 23c, 23d rechts und im Vordergrund der Fig. 2 erfasst. Die im Vordergrund dargestellte Kamera 23d kann z.B. au ßerdem, die nach vorne weisende Oberfläche erfassen, die auch von der links oben dargestellten Kamera 23a erfasst wird. Die schematisch in Fig. 1 und Fig. 2 dargestellten Anordnungen von Kameras, die an der Basis eines KMG oder einer Werkzeugmaschine befestigt sind, sind lediglich Beispiele. Dies gilt auch für die in Fig. 1 dargestellte Konstruktion eines KMG. In Fig. 4 ist als Variante eine Werkzeugmaschine 41 dargestellt, deren Konstruktion der Konstruktion des KMG 1 aus Fig. 1 mit wenigen Ausnahmen gleicht. Im Folgenden wird kurz der
Unterschied zwischen der Werkzeugmaschine 41 in Fig. 4 und dem KMG 1 in Fig. 1 beschrieben. Gleiche Bezugszeichen bezeichnen gleiche Teile, die nicht erneut beschrieben werden. Die Werkzeugmaschine 41 in Fig. 4 weist am unteren Ende der Pinole 6 einen Werkzeugträger 17 auf, der ein Bearbeitungswerkzeug 18 zum Bearbeiten eines Werkstücks 22 auf dem Tisch trägt.
Bei den in Fig. 1 , 2 und 4 dargestellten Anordnungen mit an der Basis befestigten Kameras 13; 23 wird die Position und/oder Ausrichtung des beweglichen Teils
beispielsweise wie folgt festgestellt. Die Kameras 13; 23 nehmen wiederholt, z.B. mit einer Taktfrequenz von 100 Hz, Bilder ihres Erfassungsbereichs auf. Jedes Bild erhält einen Zeitstempel, d.h. der Zeitpunkt der Aufnahme des jeweiligen Kamerabildes wird dem Kamerabild zugeordnet und z.B. in einem gemeinsamen Datensatz mit den Bilddaten abgespeichert.
Insbesondere aus zum gleichen Zeitpunkt aufgenommenen Kamerabildern mehrerer der Kameras 13; 23 wird die Position und/oder Ausrichtung des beweglichen Teils innerhalb seines Bewegungsbereichs festgestellt. Jedes einzelne auszuwertende Kamerabild wird optional einer Vorbearbeitung unterzogen, in der derjenige Bildbereich des Kamerabildes ermittelt wird, in dem sich zumindest eine Erfassungsstruktur des beweglichen Teils (z.B. ein charakteristisches Merkmal oder ein Marker) befindet. In diesem Fall werden lediglich die Bilddaten des ermittelten Bereiches des Kamerabildes weiter zum Zweck der
Feststellung der Position und/oder Ausrichtung des beweglichen Teils ausgewertet. Diese Vorbearbeitung findet z.B. innerhalb der jeweiligen Kamera statt, die das Kamerabild aufgenommen hat, und wird z.B. von einem Mikroprozessor der Kamera durchgeführt. Auch der nächste Verarbeitungsschritt, nämlich die Bestimmung der Position und/oder Ausrichtung der zumindest einen Erfassungsstruktur, die in dem Kamerabild erfasst ist, in Bezug auf ein Koordinatensystem der Kamera (bei dem es sich insbesondere um ein zweidimensionales in der Bildebene des Kamerabildes liegendes Koordinatensystem handeln kann), kann dezentral ausgeführt werden, z.B. durch den erwähnten Mikroprozessor der Kamera. Alternativ ist es jedoch auch möglich, die zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras und/oder die nicht zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras, die jedoch dieselbe oder annähernd dieselbe Position und/oder Ausrichtung des beweglichen Teils erfasst haben, gemeinsam von einer zentralen Auswertungseinrichtung auswerten zu lassen. Dies ist insbesondere dann sinnvoll, wenn Kamerabilder verschiedener Kameras dieselbe Erfassungsstruktur oder dieselben Erfassungsstrukturen erfassen.
Bei der Feststellung der Position und/oder Ausrichtung des beweglichen Teils aus dem oder den Kamerabildern wird insbesondere die Kenntnis der geometrischen
Eigenschaften der Erfassungsstruktur genutzt. Z.B. kann es sich bei der
Erfassungsstruktur um eine kreisförmige oder rechteckförmige Erfassungsstruktur handeln, wobei die Fläche der Erfassungsstruktur innerhalb ihrer Umrandung
vorzugsweise nicht optisch homogen ist, d.h. auch über den Verlauf ihrer Fläche hat die Erfassungsstruktur eine optische Struktur. Es kann daher nicht nur aus dem Verlauf des in dem Kamerabild abgebildeten Randes der Erfassungsstruktur, sondern alternativ oder zusätzlich aus dem Bild der strukturierten Fläche auf die Position und/oder Ausrichtung der Erfassungsstruktur und somit auf die des damit verbundenen beweglichen Teils geschlossen werden.
Die Kenntnis über die zumindest eine erfasste Erfassungsstruktur erlaubt es, aufgrund von geometrischen Überlegungen aus dem zumindest einen Kamerabild festzustellen, wie die Erfassungsstruktur im Bewegungsbereich des beweglichen Teils positioniert und/oder ausgerichtet ist. Z.B. wird eine Erfassungsstruktur mit kreisförmig umlaufendem Rand im Kamerabild im Allgemeinen als eine Struktur abgebildet, die einen umlaufenden Rand einer Ellipse hat. Z.B. durch Feststellung der Lage und Länge der Hauptachsen der Ellipse in dem Kamerabild kann der Blickwinkel der Kamera bezüglich der
Erfassungsstruktur und die Entfernung der Kamera zur Erfassungsstruktur festgestellt werden. Vorzugsweise enthält die zumindest eine in dem Kamerabild oder den
Kamerabildern erfasste Erfassungsstruktur redundante Information, sodass die Position und/oder Ausrichtung der Erfassungsstruktur nicht lediglich anhand eines
Strukturmerkmals, sondern anhand einer Mehrzahl von Strukturmerkmalen durchgeführt werden kann. Dadurch wird die Sicherheit bei der Bestimmung der Position und/oder Ausrichtung des beweglichen Teils erhöht. Dies gilt auch bezüglich der Auswertung mehrerer Kamerabilder, die in demselben Bewegungszustand des beweglichen Teils zumindest eine Erfassungsstruktur aus verschiedenen Blickrichtungen erfasst haben.
Die Feststellung der Abbildungsgeometrie von Kamera und beweglichem Teil, z.B. mit Berechnung des Blickwinkels und der Entfernung aus der Geometrie der abgebildeten Erfassungsstruktur, stellt jedoch nicht die einzige mögliche Vorgehensweise dar. Aus der Bildverarbeitung sind andere Verfahren bekannt. Z.B. kann durch Vergleichen der in dem Kamerabild abgebildeten Erfassungsstruktur mit simulierten und/oder vorher
aufgenommenen Bildern die Position und/oder Ausrichtung der Erfassungsstruktur im Bewegungsbereich ermittelt werden. Z.B. kann jedem der simulierten oder vorher aufgenommenen Bilder die entsprechende Position und/oder Ausrichtung zugeordnet sein. Durch Ermittlung des korrekten Vergleichsbildes wird daher die Position und/oder Ausrichtung festgestellt.
Fig. 3 zeigt ein Ausführungsbeispiel für die Umkehrung des anhand von Fig. 1 , 2 und 4 erläuterten Prinzips, wonach die zumindest eine Kamera mit der Basis verbunden ist und die zumindest eine Erfassungsstruktur mit dem beweglichen Teil verbunden ist. Bei der Umkehrung des Prinzips ist zumindest eine Kamera mit dem beweglichen Teil verbunden und zumindest eine Erfassungsstruktur mit der Basis verbunden.
In Fig. 3 ist dieselbe Konstruktion eines KMG wie in Fig. 1 gezeigt. Alternativ kann es sich bei dem Gerät um eine Werkzeugmaschine handeln wie z.B. in Fig. 4. Auch die
Umkehrung des Erfassungsprinzips kann auf andere Konstruktionen von KMGs und Werkzeugmaschinen angewendet werden, z.B. auf KMGs in Horizontalarmbauweise oder Gelenkarmbauweise und auf entsprechend konstruierte Werkzeugmaschinen.
Fig. 3 zeigt schematisch und vereinfacht, dass sich au ßerhalb des Bewegungsbereichs des beweglichen Teils (hier z.B. des unteren Endbereichs der Pinole 6) eine Anordnung mit einer Vielzahl von Markern 31 befinden kann. Aus Gründen der vereinfachten
Darstellung sind in Fig. 3 lediglich hinter dem Bewegungsbereich Marker 31 angeordnet. In der Praxis können sich jedoch weitere Marker z.B. auch seitlich, im Vordergrund und über dem Bewegungsbereich befinden. In dem dargestellten Ausführungsbeispiel sind elf Reihen mit jeweils neun Markern 31 vorhanden, wobei aus Gründen der besseren Erkennbarkeit der Darstellung einige Marker 31 weggelassen sind, die sich hinter der Pinole und hinter dem Messkopf 7 und dem Taster 8 befinden. Im unteren Endbereich der Pinole 6 sind zwei Kameras 33a, 33b dargestellt, die mit der Pinole 6 verbunden sind. Alternativ können mehr als zwei Kameras oder kann lediglich eine Kamera an der Pinole 6 befestigt sein. Die beiden in Fig. 3 dargestellten Kameras 33a, 33b sind in unterschiedliche Ausrichtungen ausgerichtet. Randlinien ihres
Erfassungsbereichs sind gestrichelt dargestellt. In dem in Fig. 3 gezeigten Zustand erfasst jede der beiden Kameras 33a, 33b zumindest einen der Marker 31 vollständig. Die vollständig erfassten Marker 31 sind in der Zeichnung mit einem Pluszeichen
gekennzeichnet. Insbesondere wenn die Marker 31 jeweils eine individuelle Struktur haben oder auf andere Weise für die Kamera erkennbar individuell gestaltet sind, kann bereits aus der Identifizierung der in dem Kamerabild erfassten Erfassungsstruktur und aus der Kenntnis über die Ausrichtung des Erfassungsbereichs der Kamera Information über die ungefähre Position und/oder Ausrichtung des beweglichen Teils gewonnen werden. Bewegt sich z.B. die Pinole 6 aus dem in Fig. 3 dargestellten Zustand nach oben in Z-Richtung, würde nicht mehr der mit einem Pluszeichen in Fig. 3 dargestellte Marker erfasst, sondern ein darüber liegender Marker.
Die Erfassungsbereiche der Kameras 33a, 33b in Fig. 3 erstrecken sich über einen kleineren Raumwinkel als die Erfassungsbereiche der Anordnungen in Fig. 1 , 2 und 4. Die jeweilige erfasste Erfassungsstruktur nimmt daher einen größeren Teil des
aufgenommenen Kamerabildes ein und es kann daher prinzipiell eine feinere Auflösung und genauere Feststellung der Position und/oder Ausrichtung des beweglichen Teils erzielt werden und/oder die Anzahl der Pixel der Kamerabilder reduziert werden, sodass insbesondere mit höherer Wiederholfrequenz Kamerabilder aufgenommen werden können.
Fig. 5 zeigt ein Koordinatenmessgerät 51 in Stativ-Bauweise. Gleiche und
funktionsgleiche Bauteile und Elemente sind mit denselben Bezugszeichen wie in den Figuren 1 bis 4 bezeichnet.
Auf einem Messtisch 2 des KMG 51 ist eine relativ zur Basis 2 unbewegliche
Tragkonstruktion mit einer Säule 55 und einem Tragarm 54 angeordnet. Durch einen an dem Tragarm 54 angeordneten, nicht dargestellten Antrieb wird eine Pinole 6 des KMG angetrieben, sodass die Pinole 6 in vertikaler Richtung (Z-Richtung) beweglich ist. Wie auch bei dem KMG 1 in Fig. 1 ist an dem unteren Ende der Pinole 6 ein Messkopf 7 mit einem daran befestigten Taster 8 angeordnet. Anders als bei dem KMG 1 aus Fig. 1 ist aber an der Pinole 6 entweder direkt oder indirekt über weitere Bauteile wie z. B. den Messkopf 7 eine Kamera 53 befestigt. Im Ausführungsbeispiel ist die Kamera 53 unmittelbar an der Pinole 6 befestigt. Optional kann zumindest eine weitere Kamera ebenfalls direkt oder indirekt an der Pinole 6 befestigt sein.
Die dargestellte Kamera 53 weist einen durch gestrichelte Linien schematisch
angedeuteten Erfassungsbereich auf, in dem zumindest eine Erfassungsstruktur 31 erfassbar ist. In dem dargestellten Ausführungsbeispiel ist die Erfassungsstruktur 31 an einem beweglichen Messtisch 56 des KMG 51 angeordnet und/oder von dem Messtisch 56 gebildet. Alternativ kann die Erfassungsstruktur z. B. an einem mit dem Messtisch 56 fest verbundenen zusätzlichen Bauteil angeordnet und/oder von diesem ausgebildet sein. Ferner ist es möglich, dass von jeder direkt oder indirekt mit der Pinole verbundenen Kamera mehrere Erfassungsstrukturen erfassbar sind und insbesondere in verschiedene Relativpositionen der Pinole 6 und des Messtischs 56 verschiedenen
Erfassungsstrukturen oder Teile von verschiedenen Erfassungsstrukturen von der jeweiligen Kamera erfassbar sind. Z. B. erfasst die Kamera in einer ersten Relativposition zumindest Teile einer ersten Erfassungsstruktur und in einer zweiten, von der ersten Relativposition verschiedenen Relativposition zumindest Teile einer anderen
Erfassungsstruktur. In dieser Hinsicht gleichen das Prinzip der Erfassung von
Erfassungsstrukturen und die daraus resultierende Positions- und/oder
Ausrichtungsbestimmung des KMG 51 aus Fig. 5 dem Prinzip und der Bestimmung des KMG aus Fig. 3.
Der Messtisch 56 des KMG 51 ist in dem Ausführungsbeispiel in zwei zueinander senkrecht stehenden Richtungen, nämlich der X-Richtung und der Y-Richtung, parallel zur Oberfläche der Basis 2 beweglich. Die entsprechenden Antriebsmittel sind dem
Fachmann bekannt und in Fig. 5 nicht dargestellt. Das zu vermessende Werkstück 12 ist auf dem beweglichen Messtisch 56 angeordnet. Optional kann das Werkstück 12 nicht unmittelbar auf der Messtischoberfläche angeordnet sein, sondern z. B. kann sich ein zusätzlicher Drehtisch auf der Messtischoberfläche befinden und das Werkstück kann auf der Oberfläche des Drehtischs angeordnet sein. In diesem Fall kann zumindest eine Erfassungsstruktur an dem drehbaren Teil des Drehtischs angeordnet sein und/oder von diesem ausgebildet sein. Dabei kann es sich um eine zusätzliche Erfassungsstruktur, zusätzlich zu der relativ zum beweglichen Messtisch 56 ruhenden Erfassungsstruktur handeln.
Auch das in Fig. 5 gezeigte KMG 51 weist eine Steuerungs- und Auswertungseinrichtung 10 auf, die beispielsweise Teil eines handelsüblichen oder speziell für den Betrieb des KMG 51 ausgestalteten Computers ist, der mit Software für den Betrieb des KMG 51 ausgestattet ist. Die Steuerungs- und Auswertungseinrichtung 10 ist, wie durch eine gepunktete Linie dargestellt ist, mit dem Antrieb zum Antreiben der Bewegung der Pinole 6 relativ zu dem Tragarm 54 verbunden. Au ßerdem ist die Steuerungs- und
Auswertungseinrichtung 10 mit der Kamera 53 oder den Kameras verbunden, die mit der Pinole 6 (oder allgemeiner formuliert mit dem Sensorträger) verbunden sind. Wie auch die Steuerungs- und Auswertungseinrichtung 10 aus Fig. 1 und Fig. 4 ermittelt die
Steuerungs- und Auswertungseinrichtung 10 aus Fig. 5 aus einer mithilfe der zumindest einen Kamera von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors (hier des Tasters 8 bzw. des Messkopfes 7) Koordinaten des Werkstücks. Ferner steuern die Steuerungs- und Auswertungseinrichtungen 10 den oder die Antriebe des KMG, im Ausführungsbeispiel der Fig. 5 den Antrieb der Pinole 6 und den oder die Antriebe des beweglichen
Messtischs 56. Auf diese Weise kann das Werkstück gemäß einem Messplan in entsprechende Relativpositionen und/oder relative Ausrichtungen zum Sensor gebracht werden. Insbesondere kann durch diese Steuerung der Antriebe der in Fig. 5 dargestellte Taster 8 in Kontakt zu Oberflächenpunkten des Werkstücks 12 gebracht werden, die dem Messplan entsprechen und/oder von einem Benutzer gewünscht und/oder vorgegeben werden.

Claims

Patentansprüche
1 . Koordinatenmessgerät (1 ), aufweisend
• einen Sensor (7) zur Erfassung von Koordinaten eines Werkstücks,
• einen beweglichen Sensorträger (6), der den Sensor (7) trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts (1 ) bewegbar ist,
• eine Positionsbestimmungseinrichtung (10, 13; 23; 33) zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers (6),
• eine Auswertungseinrichtung, die aus einer von der
Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus Signalen des Sensors (7) Koordinaten des Werkstücks ermittelt,
wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Kamera (13; 23; 33) und zumindest eine von der Kamera (13; 23; 33) erfassbare Erfassungsstruktur (31 ) aufweist, wobei
• die Kamera (13; 23) mit der Basis (2) verbunden ist und die
Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger (6) gebildet ist oder
• die Kamera (33) mit dem Sensorträger (6) verbunden ist und die Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen (31 ) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) ausgestaltet ist, aus Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des
Sensorträgers (6) festzustellen.
2. Koordinatenmessgerät nach Anspruch 1 , wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei in einem Abstand zu der Kamera (13; 23) eine Kalibrierungsstruktur mit der Basis (2) verbunden ist und wobei die
Kalibrierungsstruktur und die Kamera (13; 23) derart angeordnet sind, dass die Kalibrierungsstruktur von der Kamera (13; 23) gleichzeitig mit der
Erfassungsstruktur (31 ) erfassbar ist.
3. Koordinatenmessgerät nach Anspruch 1 oder 2, wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei die Kamera (13; 23) einen Erfassungsbereich hat, in dem die Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen durch Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs bewegbar ist und dennoch von der Kamera (13; 23) erfassbar ist, und wobei die Kamera (13; 23) unabhängig von der Position und/oder Ausrichtung des
Sensorträgers (6) den gesamten Erfassungsbereich erfasst.
4. Koordinatenmessgerät nach Anspruch 3, wobei die
Positionsbestimmungseinrichtung (10; 13; 23) ausgestaltet ist, aus den
Erfassungssignalen der Kamera (13; 23), die dem gesamten Erfassungsbereich entsprechen, einen Teil der Erfassungssignale auszuwählen, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur (31 ) oder der zumindest einen der Erfassungsstrukturen enthält, und durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.
5. Koordinatenmessgerät nach einem der Ansprüche 1 -4, wobei die Kamera (33) mit dem Sensorträger (6) verbunden ist und eine Mehrzahl der Erfassungsstrukturen mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, und wobei die Kamera (33) einen Erfassungsbereich hat, in dem lediglich ein Teil der Mehrzahl der Erfassungsstrukturen liegt, wobei es von der Position und/oder Ausrichtung des Sensorträgers (6) abhängt, welcher Teil der Mehrzahl der Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera (33) erfassbar ist.
6. Koordinatenmessgerät (51 ), aufweisend
• einen Sensor (7) zur Erfassung von Koordinaten eines Werkstücks (12), • einen beweglichen Sensorträger (6), der den Sensor (7) trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis (2) des Koordinatenmessgeräts (51 ) bewegbar ist,
• eine Positionsbestimmungseinrichtung (10, 53) zur Feststellung einer
Position und/oder einer Ausrichtung des Sensorträgers (6),
• eine Auswertungseinrichtung (10), die aus einer von der
Positionsbestimmungseinrichtung (10, 53) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus Signalen des Sensors (7) Koordinaten des Werkstücks ermittelt,
wobei die Positionsbestimmungseinrichtung (10, 53) zumindest eine Kamera (53) und zumindest eine von der Kamera (53) erfassbare Erfassungsstruktur (31 ) aufweist, wobei
• die Kamera (53) mit dem Sensorträger (6) verbunden ist und die
Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen (31 ) mit einer relativ zur Basis (2) beweglichen Stützstruktur (56) zum Abstützen des Werkstücks (12) auf der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist,
wobei die Positionsbestimmungseinrichtung (10, 53) ausgestaltet ist, aus
Erfassungssignalen der Kamera (53), mit denen die Kamera (53) die
Erfassungsstruktur (31 ) erfasst, die Position und/oder Ausrichtung des
Sensorträgers (6) festzustellen.
7. Koordinatenmessgerät nach einem der Ansprüche 1 -6, wobei das
Koordinatenmessgerät eine Bewegungssteuerung aufweist, mit der eine
Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs steuerbar ist, und wobei die Bewegungssteuerung ausgestaltet ist, die Bewegung des
Sensorträgers (6) unter Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des Sensorträgers (6) zu steuern, die die
Positionsbestimmungseinrichtung (10; 13; 23; 33; 53) durch Auswertung der Erfassungssignale der Kamera (13; 23; 33; 53) festgestellt hat.
8. Koordinatenmessgerät nach einem der Ansprüche 1 -7, wobei das
Koordinatenmessgerät eine Beleuchtungseinrichtung aufweist, die ausgestaltet ist, die zumindest eine Erfassungsstruktur (31 ) mit elektromagnetischer Strahlung zu beleuchten, wobei die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera (13; 23; 33; 53) erfassbar ist.
9. Koordinatenmessgerät nach einem der Ansprüche 1 -8, wobei die
Positionsbestimmungseinrichtung (10; 13; 23; 33; 53) eine Mehrzahl der Kameras (13; 23; 33; 53) aufweist, die jeweils eine Erfassungsstruktur (31 ), jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen, wobei jede der Kameras (13; 23; 33; 53) mit einer zugeordneten Bildverarbeitungseinrichtung kombiniert ist, die jeweils lediglich Erfassungssignale einer der Kameras (13; 23; 33; 53) verarbeitet und dadurch Information über die Position und/oder
Ausrichtung der von der Kamera (13; 23; 33; 53) erfassten Erfassungsstruktur(en) gewinnt, und wobei die Bildverarbeitungseinrichtungen mit einer zentralen Einheit der Positionsbestimmungseinrichtung (10; 13; 23; 33; 53) verbunden sind, die ausgestaltet ist, aus der von den Bildverarbeitungseinrichtungen gewonnenen Information die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.
10. Verfahren zum Betreiben eines Koordinatenmessgeräts (1 ), wobei
• ein Sensor (7) Sensorsignale zur Erfassung von Koordinaten eines
Werkstücks erzeugt,
• ein beweglicher Sensorträger (6), der den Sensor (7) trägt, innerhalb eines Bewegungsbereichs relativ zu einer Basis (2) des Koordinatenmessgeräts (1 ) bewegt wird,
• eine Positionsbestimmungseinrichtung (10; 13; 23; 33) des
Koordinatenmessgeräts (1 ) eine Position und/oder eine Ausrichtung des Sensorträgers (6) feststellt,
• eine Auswertungseinrichtung des Koordinatenmessgeräts (1 ) aus einer von der Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt,
wobei zumindest eine Kamera (13; 23; 33) der Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Erfassungsstruktur (31 ) erfasst, wobei
• die Kamera (13; 23) mit der Basis (2) verbunden ist und die
Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist oder • die Kamera (33) mit dem Sensorträger (6) verbunden ist und die
Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen (31 ) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) aus
Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur (31 ) erfasst, die Position und/oder Ausrichtung des
Sensorträgers (6) feststellt.
1 1 . Verfahren nach Anspruch 10, wobei die Kamera (13; 23) mit der Basis (2)
verbunden ist und die Erfassungsstruktur (31 ) oder zumindest eine der
Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, und wobei die Kamera (13; 23) gleichzeitig mit der Erfassungsstruktur (31 ) eine Kalibrierungsstruktur erfasst, die mit der Basis (2) verbunden ist.
12. Verfahren nach Anspruch 10 oder 1 1 , wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31 ) oder zumindest eine der
Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei die Kamera (13; 23) einen Erfassungsbereich hat, in dem die Erfassungsstruktur (31 ) oder die zumindest eine der
Erfassungsstrukturen durch Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs bewegbar ist und dennoch von der Kamera (13; 23) erfassbar ist, und wobei die Kamera (13; 23) unabhängig von der Position und/oder
Ausrichtung des Sensorträgers (6) den gesamten Erfassungsbereich erfasst.
13. Verfahren nach Anspruch 12, wobei die Positionsbestimmungseinrichtung (10; 13;
23) aus den Erfassungssignalen der Kamera (13; 23), die den gesamten
Erfassungsbereich entsprechen, einen Teil der Erfassungssignale auswählt, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur (31 ) oder der zumindest einen der Erfassungsstrukturen enthält, und durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des
Sensorträgers (6) feststellt.
14. Verfahren nach einem der Ansprüche 10-13, wobei die Kamera (33) mit dem
Sensorträger (6) verbunden ist und eine Mehrzahl der Erfassungsstrukturen mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, und wobei die Kamera (33) in einem von ihr erfassten Erfassungsbereich lediglich einen Teil der Mehrzahl der Erfassungsstrukturen erfasst, wobei es von der Position und/oder Ausrichtung des Sensorträgers (6) abhängt, welcher Teil der Mehrzahl der Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera (33) erfasst wird, und wobei die Positionsbestimmungseinrichtung (10, 33) durch Auswertung von Erfassungssignalen der Kamera (33), die dem Teil der Mehrzahl der Erfassungsstrukturen entsprechen, die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
15. Verfahren zum Betreiben eines Koordinatenmessgeräts (51 ), wobei
• ein Sensor (7) Sensorsignale zur Erfassung von Koordinaten eines
Werkstücks erzeugt,
• ein beweglicher Sensorträger (6), der den Sensor (7) trägt, innerhalb eines Bewegungsbereichs relativ zu einer Basis (2) des Koordinatenmessgeräts (51 ) bewegt wird,
• eine Positionsbestimmungseinrichtung (10, 53) des
Koordinatenmessgeräts (51 ) eine Position und/oder eine Ausrichtung des Sensorträgers (6) feststellt,
• eine Auswertungseinrichtung (10) des Koordinatenmessgeräts (51 ) aus einer von der Positionsbestimmungseinrichtung (10, 53) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt,
wobei zumindest eine Kamera (53) der Positionsbestimmungseinrichtung (10, 53) zumindest eine Erfassungsstruktur (31 ) erfasst, wobei
• die Kamera (53) mit dem Sensorträger (6) verbunden ist und die
Erfassungsstruktur (31 ) oder zumindest eine der Erfassungsstrukturen (31 ) mit einer relativ zur Basis (2) beweglichen Stützstruktur (56) zum Abstützen des Werkstücks (12) auf der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist,
wobei die Positionsbestimmungseinrichtung (10, 53) aus Erfassungssignalen der Kamera (53), mit denen die Kamera (53) die Erfassungsstruktur (31 ) erfasst, die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
16. Verfahren nach einem der Ansprüche 10-15, wobei von einer
Bewegungssteuerung des Koordinatenmessgeräts (1 ; 51 ) eine Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs gesteuert wird und wobei die Bewegungssteuerung die Bewegung des Sensorträgers (6) unter
Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des
Sensorträgers (6) steuert, die die Positionsbestimmungseinrichtung (10; 13; 23; 33; 53) durch Auswertung der Erfassungssignale der Kamera (13; 23; 33; 53) festgestellt hat.
17. Verfahren nach einem der Ansprüche 10-16, wobei die zumindest eine
Erfassungsstruktur (31 ) mit elektromagnetischer Strahlung beleuchtet wird, wobei die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera (13; 23; 33; 53) erfasst wird.
18. Verfahren nach einem der Ansprüche 10-17, wobei eine Mehrzahl der Kameras (13; 23; 33; 53) der Positionsbestimmungseinrichtung (10; 13; 23; 33) jeweils eine Erfassungsstruktur (31 ), jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen, wobei jede der Kameras (13; 23; 33; 53) Erfassungssignale lediglich einer zugeordneten Bildverarbeitungseinrichtung übermittelt, die die Erfassungssignale lediglich einer der Kameras (13; 23; 33; 53) verarbeitet und dadurch Information über die Position und/oder Ausrichtung der von der Kamera erfassten Erfassungsstruktur(en) gewinnt, und wobei die
Information von den Bildverarbeitungseinrichtungen zu einer zentralen Einheit der Positionsbestimmungseinrichtung (10; 13; 23; 33; 53) übertragen wird, die aus der Information die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
PCT/EP2016/054342 2015-03-17 2016-03-01 Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts WO2016146379A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015204796.2 2015-03-17
DE102015204796.2A DE102015204796A1 (de) 2015-03-17 2015-03-17 Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts

Publications (1)

Publication Number Publication Date
WO2016146379A1 true WO2016146379A1 (de) 2016-09-22

Family

ID=55446808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/054342 WO2016146379A1 (de) 2015-03-17 2016-03-01 Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts

Country Status (2)

Country Link
DE (1) DE102015204796A1 (de)
WO (1) WO2016146379A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108145534A (zh) * 2017-12-15 2018-06-12 西安交通大学 一种立式加工中心运行特性检测与评估方法
CN109986410A (zh) * 2018-01-02 2019-07-09 东莞市鑫国丰机械有限公司 铣床加工与量测的结合结构
DE102020209486B3 (de) 2020-07-28 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Aktuator
EP4235090A3 (de) * 2017-10-13 2023-11-15 Renishaw PLC Koordinaten-positionierungsmaschine

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3104118B1 (de) * 2015-06-12 2019-02-27 Hexagon Technology Center GmbH Verfahren zur steuerung eines antriebsmechanismus einer automatisierten maschine mit einer kamera
DE102018115620A1 (de) * 2018-06-28 2020-01-02 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem
DE102021105293A1 (de) 2021-03-04 2022-09-08 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät und Verfahren zum Kalibrieren eines Koordinatenmessgeräts

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002027264A1 (de) * 2000-09-28 2002-04-04 Carl Zeiss Koordinatenmessgerät
US20080250625A1 (en) * 2005-09-13 2008-10-16 Gudmunn Slettemoen Opto-Mechanical Postion Finder
EP2158999A1 (de) * 2008-08-26 2010-03-03 DMG Microset GmbH Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs
EP2489977A2 (de) * 2011-02-16 2012-08-22 Steinbichler Optotechnik GmbH Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
EP2705935A1 (de) * 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Koordinatenmessmaschine
DE102014012203A1 (de) * 2013-08-16 2015-02-19 Steinbichler Optotechnik Gmbh Vorrichtung zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8706790D0 (en) * 1987-03-21 1987-04-23 Renishaw Plc Interferometer position measurement system
DE102010014423A1 (de) * 2010-03-31 2011-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Starten einer Messprozedur zum Messen von Koordinaten eines Werkstücks
CN103988049B (zh) * 2011-12-06 2016-11-09 赫克斯冈技术中心 具有摄像头的坐标测量机
EP2698596A1 (de) * 2012-08-16 2014-02-19 Hexagon Technology Center GmbH Verfahren und System zur Bestimmung der räumlichen Koordinaten mit einer mobilen Koordinatenmessmaschine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002027264A1 (de) * 2000-09-28 2002-04-04 Carl Zeiss Koordinatenmessgerät
US20080250625A1 (en) * 2005-09-13 2008-10-16 Gudmunn Slettemoen Opto-Mechanical Postion Finder
EP2158999A1 (de) * 2008-08-26 2010-03-03 DMG Microset GmbH Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs
EP2489977A2 (de) * 2011-02-16 2012-08-22 Steinbichler Optotechnik GmbH Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
EP2705935A1 (de) * 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Koordinatenmessmaschine
DE102014012203A1 (de) * 2013-08-16 2015-02-19 Steinbichler Optotechnik Gmbh Vorrichtung zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4235090A3 (de) * 2017-10-13 2023-11-15 Renishaw PLC Koordinaten-positionierungsmaschine
CN108145534A (zh) * 2017-12-15 2018-06-12 西安交通大学 一种立式加工中心运行特性检测与评估方法
CN108145534B (zh) * 2017-12-15 2019-06-11 西安交通大学 一种立式加工中心运行特性检测与评估方法
CN109986410A (zh) * 2018-01-02 2019-07-09 东莞市鑫国丰机械有限公司 铣床加工与量测的结合结构
DE102020209486B3 (de) 2020-07-28 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Aktuator

Also Published As

Publication number Publication date
DE102015204796A1 (de) 2016-09-22

Similar Documents

Publication Publication Date Title
WO2016146379A1 (de) Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts
EP3278302B1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
EP3321628B1 (de) Koordinaten-messvorrichtung mit optischem sensor und entsprechendes verfahren
EP0330901B1 (de) Mehrkoordinatenmess- und prüfeinrichtung
DE102004061338B4 (de) Automatische Bauteilprüfung
DE112011103090B4 (de) Berührungsloses Messsystem und Sensorgerät mit einer auf einem mikro-elektro-mechanischen System basierenden Lichtquelle
DE19841235C5 (de) Positionskalibrierverfahren für eine optische Meßeinrichtung
DE102015217637B4 (de) Betreiben eines konfokalen Weißlichtsensors an einem Koordinatenmessgerät und Anordnung
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
EP2095068B1 (de) Vorrichtung und verfahren zur steigerung der mess-genauigkeit digitaler 3d-geometriemessysteme
EP1347266B1 (de) Vorrichtung zum Vermessen eines Messobjekts
EP3441712A1 (de) Koordinaten-messvorrichtung mit optischem sensor und entsprechendes verfahren
EP2284486A2 (de) Koordinatenmessgerät sowie Verfahren zum Messen mit einem Koordinatenmessgerät
DE112016003805T5 (de) Optisches Profilometer und Verfahren zu seiner Verwendung
EP0671679B1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
EP3077763B1 (de) Verfahren zur auswertung von koordinatenmessdaten, entsprechende vorrichtung zum vermessen eines messobjektes und entsprechendes computerprogrammprodukt
EP3418680A1 (de) System und verfahren zur positionierungsmessung
WO2015169345A1 (de) Verfahren und vorrichtung zum kalibrieren einer abbildungsoptik für messtechnische anwendungen
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
DE102013208397B4 (de) Koordinatenmessgerät mit einem zusätzlichen, berührungslos messenden Oberflächenvermessungsgerät
DE102015217332A1 (de) Positionsmessvorrichtung
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
EP3739287A1 (de) Vermessungsvorrichtung
DE102020124704B4 (de) Vorrichtung und Verfahren zur Erfassung einer räumlichen Position eines Körpers
DE102016013550B3 (de) Profilmesssystem für eine Rauheits- und Konturmessung an einer Oberfläche eines Werkstücks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16707139

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16707139

Country of ref document: EP

Kind code of ref document: A1