WO2011160962A1 - Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche - Google Patents

Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche Download PDF

Info

Publication number
WO2011160962A1
WO2011160962A1 PCT/EP2011/059641 EP2011059641W WO2011160962A1 WO 2011160962 A1 WO2011160962 A1 WO 2011160962A1 EP 2011059641 W EP2011059641 W EP 2011059641W WO 2011160962 A1 WO2011160962 A1 WO 2011160962A1
Authority
WO
WIPO (PCT)
Prior art keywords
measuring
image sequence
projector
camera system
accelerations
Prior art date
Application number
PCT/EP2011/059641
Other languages
English (en)
French (fr)
Inventor
Knut Siercks
Original Assignee
Leica Geosystems Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems Ag filed Critical Leica Geosystems Ag
Priority to CA2801595A priority Critical patent/CA2801595C/en
Priority to EP11724425.1A priority patent/EP2583055B1/de
Priority to JP2013515812A priority patent/JP5680196B2/ja
Priority to BR112012032875A priority patent/BR112012032875B1/pt
Priority to KR1020137000016A priority patent/KR101458991B1/ko
Priority to US13/702,259 priority patent/US9683837B2/en
Priority to CN201180030261.2A priority patent/CN102947670B/zh
Priority to AU2011269189A priority patent/AU2011269189B2/en
Publication of WO2011160962A1 publication Critical patent/WO2011160962A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0181Memory or computer-assisted visual determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision

Definitions

  • the invention relates to an optical measuring method for determining 3D coordinates of a plurality of
  • measuring systems used to determine 3D coordinates of objects to be measured, for example as portable,
  • hand-held and / or permanently installed systems can be formed, generally have a
  • Patterns are therefore sometimes referred to as pattern-projecting 3D scanners or light-structure SD scanners.
  • the pattern projected onto the surface of the measurement object is recorded by a camera system as an additional component of the measurement system.
  • the projector illuminates the measurement object sequentially in time with different ones
  • Patterns e.g., parallel light and dark stripes
  • Projection pattern becomes an image with each camera
  • the camera system consists of one or
  • Projector can be firmly connected to the camera system (in the case of using separate cameras with only a part of the existing cameras of the
  • the sought-after three-dimensional coordinates of the surface are in the general case, i. in case that relative positioning and orientation of projector to
  • Camera system fix each other and therefore not previously known, calculated in two steps.
  • the coordinates of the projector are determined as follows. For a given object point, the image coordinates in the camera image are known.
  • the projector is equivalent to a reversed camera. From the sequence of brightness values resulting from the image sequence for each
  • Camera image point can be measured, the number of the Be calculated. In the simplest case this is done via a binary code (eg a Gray code) of the number of the strip as a discrete coordinate in the projector
  • phase shift method since it can determine a non-discrete coordinate. It can be used either as a supplement to a Gray code or as an absolute heterodyne method.
  • the strip number in the projector corresponds to the image coordinate in the camera.
  • the strip number specifies one
  • the image coordinate a ray of light.
  • the illumination sequence must take place so rapidly that movement by the operator during the recording of the series of images is not required
  • Patterns and taking a picture sequence of the respective patterns with the camera system is conventional
  • Measuring devices e.g. a measurement duration of about 200 ms is necessary (for example: for the acquisition of sequences of 8 to 10 images at an exposure time of 20 ms to 40 ms per image, total acquisition times of between 160 ms and 400 ms per measurement position may result).
  • vibrations in the measurement environment e.g.
  • the holder of the test object or a robot head holding the measuring head are transmitted and thus to
  • Measuring points on the measuring object surface is either completely impossible or can only be made possible by enormously high computational effort and involving information from a variety of images of the same area of the measuring object surface (i.e., it can be a very
  • a robot arm for holding and guiding the measuring head can achieve a reduction of the computational effort required for the assembling process, in that the recording positions and directions in the individual measurements are determined on the basis of the
  • the technical problem underlying the invention is therefore to provide an improved optical measuring method and measuring system using image sequences for determining 3D coordinates on a measuring object surface, in particular wherein one or more of the disadvantages described above can be reduced or eliminated.
  • Pattern sequence projecting and image sequence recording in the Specifically, on the one hand, errors or inaccuracies in the determination of the 3D coordinates attributable to shaking and / or motion blur in the individual images of an image sequence should be able to be reduced. On the other hand, it should be possible to reduce or eliminate errors that occur when the user is troubled
  • the invention relates to a sample projecting and image sequences using measuring method for determining SD coordinates of a measuring object surface and trained for selbigem purpose measuring system.
  • a Measuring process - ie when recording the image sequence - using inertial sensors translational and / or rotational accelerations of the pattern projector, the camera system (or possibly a camera assembly and the projector integrated containing the measuring head included) and / or measured object measured and the measured accelerations at Determining the 3D coordinates considered.
  • Motion blur provoke in the respective individual images of the image sequence, based on the measured
  • Accelerations are taken into account algorithmically when determining the SD coordinates. In particular, depending on the measured
  • Accelerations compensation and / or correction of camera shake and / or motion blur which by occurring during the exposure times of the respective individual images of the image sequence movements of the
  • the inertial sensors can be arranged on the camera system, on the projector and / or on the measurement object, the inertial sensors in particular being designed together as an integrated inertial measurement unit.
  • the inertial sensors in particular being designed together as an integrated inertial measurement unit.
  • Projectors can the inertial sensors in accordance with a component of the camera system and / or the
  • the camera system also called camera arrangement
  • the camera system can be any camera system (also called camera arrangement)
  • - as already known from the prior art - be composed of one, two, three, four or more cameras arranged with fixed and known positioning and orientation relative to each other in a common housing and for substantially simultaneously
  • individual cameras of the camera arrangement can also be carried out physically separately from one another with their own housing, which generally complicates the evaluation of the image sequences, since then the relative spatial relationship of the cameras to each other is not predefined (which normally results in an increased amount of computation the evaluation of the image sequences results).
  • the user's difficulty arises in having to carry and hold several separate devices. For these two reasons can - especially at
  • Hand-held or adapted for attachment to a robotic arm systems the camera system together with the projector with fixed and known positioning and
  • the inertial sensors or the inertial measuring unit can be arranged.
  • a group of inertial sensors can also be designed to be attached to the object to be measured, which can measure the measured objects
  • Movements or even positions and orientations) to the evaluation unit of the measuring system for consideration in the 3D coordinate determination communicates.
  • the inertial sensors in an inertial measuring unit based on MEMS-based components are combined and integrated in such a way that the inertial measuring unit is designed to measure the accelerations in all six degrees of freedom, in particular with a measuring rate between about 50 and 2000 Hz.
  • IMU Inertial Measurement Unit
  • Three orthogonally arranged acceleration sensors (also referred to as translation sensors) detect the linear acceleration in the x, y and z axes. From this, the translational movement (as well as the relative
  • Three orthogonal yaw rate sensors also called gyroscopic sensors
  • the accelerations are delivered at a sufficiently high rate (ie a rate which delivers at least some acceleration values, for example between 5 and 50, per exposure time of a single image), as is provided in the context of the invention. can shake and / or
  • Motion blur in the image provoking movements of the projector, the camera system and / or the measurement object during the exposure times of the individual images of the image sequence are taken into account algorithmically based on these measured acceleration values.
  • the measured acceleration values - after e.g. from the photography well-known methods - for
  • Lack of position and orientation of Measuring system and measuring object relative to each other during the exposure times of the images can be caused thereby, for example by a user holding the projector, the camera system and / or the measuring object,
  • the movement in space detected according to the invention can thus be e.g. to correct blurring in the individual
  • Recordings can be used by digital cameras or triangulation scanners. Furthermore, can be hand-held
  • Measuring systems which are given by the tremor of the hand of a user given basic limitations or at least reduced.
  • the disturbing oscillations / vibrations during measurements, which frequently occur during a stationary installation of the measuring system, can thus also be used according to the invention - as above
  • the measuring system according to the invention is therefore more suitable for use directly in a production line. On a - considered overall - very complex operation of the
  • Measuring system "offline" in a special measuring room (with removal of the DUT from the production line and transporting the same in the corresponding
  • the accelerations are detected during an entire measuring operation (i.e., the entire process of taking a picture sequence or even several picture sequences).
  • the accelerations can be measured at a rate such that a sufficiently accurate assignment to the respective recording times of the individual images is made possible.
  • the respective images can also be associated with those image acquisition positions and directions that result from an averaging of the accelerations detected during the exposure times of the individual images.
  • Non-restraining of measuring components during the recording of the series of images according to the invention is sufficiently well compensated or correctable and not too
  • the traversing speed and the sequence of the projected patterns as well as the image acquisition frequency should be adapted and designed in such a way that all subareas are illuminated with sufficiently varying patterns for the evaluation and a sufficient number of images are taken thereby.
  • a continuous measuring process can be "slidably” carried out, and based on the meanwhile measured accelerations the individual images with respect to their respective recording positions and directions - for evaluation of the image sequence - in spatial relation
  • individual measuring operations can also be carried out whose measurement results (for example point clouds) according to the invention - using the measured accelerations - under
  • measuring positions and directions which can be derived from the accelerations in the individual measuring processes can also be used, for example, and to provide an improved starting value for the computational linking of the point clouds, if this points to identical points (control points) or
  • the recording positions and directions assigned to the respective images, which are derived from the measured accelerations can also be used for compressing the measuring range (so that, within a certain range)
  • Measuring range can be determined for a higher number of measuring points SD coordinates). For this, e.g. under
  • Camera arrangement and / or measurement object eg caused by the natural tremor of a user's hand projecting a series of patterns onto a surface area and taking a series of images (or combining several series of the same measurement area), and - using the accelerations -
  • the images are brought into high-precision spatial relationship with each other, so that within a measuring range with higher measuring point density 3D coordinates can be determined. In particular, this may e.g. also in
  • Subpixel area of each image 3D coordinates of measuring points on the surface of the measuring object can be determined.
  • Using radiation also allows, caused by unwanted Specklefeider in the respective patterns of the pattern sequence negative
  • the speckle dressers also change in the patterns projected onto the measuring object surface. As a result, it can therefore also be achieved that the speckle dressers in the respective images do not always appear at identical locations on the measurement object surface
  • the negative influences caused by speckle in the case of the pattern projection with coherent optical radiation can therefore be reduced.
  • the measuring object, the camera system and / or the projector can therefore intentionally be moved during a measuring process (pattern sequence projection and image sequence recording) (or reduces the negative effects caused by an actually unwanted movement or fixed).
  • a measuring process pattern sequence projection and image sequence recording
  • each image may also have a respective current recording position and direction derived from the accelerations (possibly averaged) relative to the measurement object (and, if appropriate, a respective current recording position)
  • Pattern projection position and direction) and thus the images for the determination of the 3D coordinates taking place from the image sequence are brought into spatial relation to one another in advance.
  • a deliberate movement of the measurement object, the camera system and / or the projector can take place - for enlarging the measurement area on the measurement object surface, for compressing the measurement area and thus for increasing the measurement point density on the measurement object surface and / or Changing in case of lighting with im
  • Measurement inaccuracies or measurement point gaps can be effected by a user holding the measurement object or the camera system, and / or a support designed and preprogrammed for this automatically or manually controlled - in particular a robot arm - for the projector, the camera system and / or the measurement object.
  • each measuring process can also have an (possibly averaged) measuring position and orientation (of camera arrangement, projector and
  • Fig. 1 is an optical measuring system for the determination of
  • hand-held measuring head is integrated;
  • 2 shows an optical measuring system according to the invention with hand-held and IMU, projector and three cameras having measuring head, wherein a car door is illuminated as a measurement object in the context of the 3D coordinate determination with a pattern;
  • 3 and 4 an inventive optical measuring system with hand-held and IMU, projector and a camera having head, wherein a car door as a measurement object successively with different degrees of fineness
  • FIG. 7 shows an optical measuring system according to the invention with a hand-held measuring head, wherein a hand tremor-caused rest stop during the measurement is illustrated;
  • FIG. 8 shows an optical measuring system according to the invention with IMU arranged on the test object, the test object being used to enlarge the
  • Measuring range is brought into different positions and recorded in the different positions images based on the measured
  • Measuring head with the measuring head for
  • FIG. 10 shows an inventive optical measuring system in use in a production line, which refers to measurements with the
  • Vibrations transmitted from a neighboring production station can be compensated based on the measured accelerations.
  • a projector 3 a camera system 4, an evaluation unit 6 as well as inertial sensors 5a integrated into an inertial measurement unit (IMU).
  • IMU inertial measurement unit
  • the projector 3 is to illuminate the target surface ls with a pattern sequence
  • the pattern projector 3 may be similar to the
  • the camera system 4 is designed to record an image sequence of the measurement object surface ls illuminated with the pattern sequence and can at least one Have camera, but in particular two, three or four cameras 4a, 4b, 4c, for example, with fixed and
  • cameras 4a, 4b, 4c may be provided with electronic imaging
  • Image sensor e.g. CCD or CMOS sensors are used, which provide the image information in the form of an image matrix for further processing. Both monochrome cameras and color cameras can be used.
  • the evaluation unit 6 is designed to determine the 3D coordinates of the measuring points from the image sequence, in particular ⁇ sondere upon detection of a sequence of identical luminance values for measuring points of the measurement object surface ls in the respective images of the captured image sequence.
  • the projector 3 and the camera system 4 aredirectsscher- with fixed and known positioning and orientation relative to each other physically in one
  • Inertial sensors 5a having IMU integrated, wherein the inertial sensors 5a thus for measuring translational and rotational accelerations of the measuring head 8 (ie, the projector 3 and the camera system 4) are formed when recording the image sequence.
  • the inertial sensors 5a are designed to measure the accelerations with at least one such measuring rate, that during the exposure times of the respective individual images of the image sequence in each case a plurality of values, in particular a
  • the evaluation unit 6 is designed such that by this a synchronized control of
  • Inertial sensors 5a and 4 of the camera system takes place such that when recording the image sequence at least during the exposure times of individual images of the image sequence in each case a plurality of values for the accelerations are detected.
  • Evaluation unit 6 an algorithmic consideration of movements of the projector 3, the camera system 4 and / or the measuring object 1, which shake and / or
  • Inertial sensors 5a measured accelerations for the
  • Acceleration for each image separately compensates or corrects for movement during movement
  • Exposure time of individual images caused effects (blurring /absolutunMrfen) done in the picture.
  • the evaluation unit 6 may be designed such that, as a function of the measured accelerations, compensation and / or correction of - during the exposure times of the respective individual images of the Image sequence sequence occurring movements of the projector 3, the camera system 4 and / or the measurement object 1 caused - blurring and / or motion blur respectively in the individual images of the image sequence is done.
  • the evaluation unit 6 may be designed such that, as a function of the measured accelerations, compensation and / or correction of - during the exposure times of the respective individual images of the Image sequence sequence occurring movements of the projector 3, the camera system 4 and / or the measurement object 1 caused - blurring and / or motion blur respectively in the individual images of the image sequence is done.
  • Accelerations are detected at a sufficiently high rate (i.e., at a rate that includes at least some, e.g., between 5 and 50, acceleration values per exposure period of one)
  • the measured acceleration values after e.g. well-known from photography
  • Camera shake and / or motion blur may be used in the individual images of an image sequence.
  • the inertial sensors 5a of the inertial measuring unit may in particular be based on MEMS-based components and be integrated in the IMU such that it is designed to measure the accelerations in all six degrees of freedom, in particular with a measuring rate of approximately between 50 and 2000 Hz.
  • Optical measuring system 7 has a hand-held and IMU (with inertial sensors 5a),
  • Measuring head 8 (eg, integrated into a hand-held housing with handle and thus designed as light structures 3D hand scanner) on, with a car door as a measuring object 1 in the context of 3D coordinate determination using the projector 3 with a pattern 2a (as part of a pattern sequence ) is illuminated.
  • the three cameras 4a, 4b, 4c of the camera system 4 which are arranged here by way of example with fixed and known positioning and orientation relative to one another, are designed to receive an image sequence from the car door surface illuminated by the pattern sequence.
  • Cameras 4a, 4b, 4c can be designed to record individual images substantially simultaneously.
  • Inertial sensors 5a are integrated in the measuring head 8, whereby a compensation according to the invention of e.g. by
  • Figures 3 and 4 illustrate an inventive optical measuring system 7 with handhaltbarem and IMU (Inertial with ⁇ sensors 5a), projector 3 and a camera 4a auf josdem Measuring head 8 (eg, integrated into a hand-held housing with handle and thus designed as a light structures 3D hand-held scanner), wherein a car door as the measurement object.
  • IMU Inertial with ⁇ sensors 5a
  • camera 4a e.g, an inventive optical measuring system 7 with handhaltbarem and IMU (Inertial with ⁇ sensors 5a), projector 3 and a camera 4a auf josdem Measuring head 8 (eg, integrated into a hand-held housing with handle and thus designed as a light structures 3D hand-held scanner), wherein a car door as the measurement object.
  • FIG. 4 finer
  • illumination of the object for example car door
  • a sequence of light patterns 2a, 2b of different texture fineness takes place in order to obtain an unambiguous depth determination of the measuring points in the measuring area by means of triangulation (forward cutting).
  • picture shots i.e., a series of pictures
  • illumination of the measuring object 1 with the corresponding different patterns 2a, 2b i.e., with the series of patterns.
  • Measuring unit (with inertial sensors 5a) integrated into the measuring head 8 of the 3D scanner shown in Figures 3 and 4, whereby a compensating according to the invention of e.g. caused by hand tremor caused Unruhigalten measurement errors in the context of the evaluation of the image sequence and the derivation of the 3D coordinates can be done.
  • a compensating according to the invention of e.g. caused by hand tremor caused Unruhigalten measurement errors in the context of the evaluation of the image sequence and the derivation of the 3D coordinates can be done.
  • the illustrated optical measuring system 7 for example, automatically and preprogrammed controlled by the evaluation, the illustrated optical measuring system 7 for
  • FIGS. 5 and 6 show an optical measuring system 7 according to the invention similar to that of FIGS. 3 and 4. except that the measuring head 8 is designed here as a roboterarmgester measuring head 8 and the projector 3 for
  • successively projecting strands 2 a, 2 b having different finenesses is designed as a pattern sequence.
  • the measuring head 8 shown in FIGS. 3 and 4 also has an inertial measuring unit IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a), whereby a compensation according to the invention of measuring errors, e.g. through on the IMU (with inertial sensors 5a
  • Vibrations can be effected as part of the evaluation of the image sequence and the derivation of the 3D coordinates.
  • the measured accelerations can also be used for spatial joining
  • Robotarmpositionen detected frames (as part of one or more image sequences) can be used so that - depending on the choice of different recording positions, which can be adjusted by the expert according to requirements - thereby the measuring range can be increased and / or compressed, or a change of in the case of illumination with substantially coherent optical
  • Figures 7 and 9 show a measuring system 7 similar to that of Figure 1, illustrating an intentional (unintentionally hand tremor-induced or, for example, for purposes of compacting or enlarging the measuring range)
  • Unruhighalten / moving the measuring head 8 during a Measurement The accelerations measured on the basis of the IMU (with inertial sensors 5a) can then be used to spatially "stitch" the individual
  • Single images (as part of one or more image sequences) can be used.
  • Pattern projections 2a, 2b (a pattern sequence) on the measuring object 1 and a blurring of individual image recordings (an image sequence) can be effected, wherein the blurring caused by the blur in the image as well
  • FIG. 8 illustrates an optical system according to the invention
  • Measuring system 7 with arranged on the measuring object 1 IMU (with inertial sensors 5b), wherein the measuring object 1, for. to
  • Positions can be brought and - according to the invention - in the individual images (the image sequence)
  • Measuring object 1 can in turn be integrated in the measuring head 8 itself, an IMU (with inertial sensors 5a). This can - as described above - also occurring during the measurement movements of the measuring head. 8
  • FIG. 10 shows an optical system according to the invention
  • Measuring system 7 in use in a production line wherein the effects on measurements with the inventive measuring system 7 vibrations that are transmitted from an adjacent production station, are compensated based on the measured accelerations.
  • an exemplary IMU (with inertial sensors 5a and 5b) may be arranged, whereby a compensating according to the invention for measurement errors, e.g. by vibrations transmitted to the robotic arm from the measurement environment and by rough handling of the
  • Measuring head 8 can be effected in the context of the evaluation of the image sequence and the derivation of the 3D coordinates.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein optisches Messverfahren zum Bestimmen von 3D-Koordinaten von einer Vielzahl von Messpunkten einer Messobjekt-Oberfläche (1s). Dafür erfolgen ein Beleuchten der Messobjekt-Oberfläche (1s) mit einer Muster-Sequenz aus unterschiedlichen Mustern (2a, 2b) durch einen Projektor (3), ein Aufnehmen einer Bild-Sequenz von der mit der Muster-Sequenz beleuchteten Messobjekt-Oberfläche (1s) mit einem Kamerasystem (4), und ein Bestimmen der 3D-Koordinaten der Messpunkte durch Auswerten der Bild-Sequenz. Erfindungsgemäss werden beim Aufnehmen der Bild-Sequenz zumindest während den Belichtungszeiten von einzelnen Bildern der Bild-Sequenz translatorische und/oder rotatorische Beschleunigungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1) mit mindestens einer derartigen Messrate gemessen, dass während den Belichtungszeiten von den jeweils einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte, insbesondere eine Vielzahl von Werten, für die Beschleunigungen erfasst werden. Somit können anhand der gemessenen Beschleunigungen Bewegungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1), die während den Belichtungszeiten der jeweiligen einzelnen Bilder der Bild-Sequenz auftreten und Verwacklungen und/ oder Bewegungsunschärfe in den jeweiligen einzelnen Bildern der Bild-Sequenz provozieren, algorithmisch beim Bestimmen der 3D-Koordinaten berücksichtigt werden.

Description

Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
Die Erfindung betrifft ein optisches Messverfahren zum Bestimmen von 3D-Koordinaten von einer Vielzahl von
Messpunkten einer Messobjekt-Oberfläche nach dem
Oberbegriff des Anspruchs 1 sowie ein zu selbigem Zweck ausgebildetes Messsystem nach dem Oberbegriff des
Anspruchs 9.
Derartige Vorrichtungen und Verfahren werden insbesondere im Maschinenbau, Automobilbau, Keramikindustrie,
Schuhindustrie, Schmuckindustrie, Dentaltechnik und
Humanmedizin (Orthopädie) und weiteren Bereichen verwendet und kommen beispielsweise zum Einsatz für die Vermessung und Protokollierung für Qualitätskontrolle, Reverse
Engineering, Rapid Prototyping, Rapid Milling oder Digital Mock-Up .
Die steigenden Forderungen nach einer weitgehend
vollständigen Qualitätskontrolle im laufenden
Produktionsprozess sowie nach der Digitalisierung der
Raumform von Prototypen machen die Aufnahme von
Oberflächentopografien zu einer immer häufiger gesteilten Messaufgabe. Dabei stellt sich die Aufgabe, die Koordinaten einzelner Punkte der Oberfläche der zu vermessenden
Gegenstände in kurzer Zeit zu bestimmen. Aus dem Stand der Technik bekannte, Bild-Sequenzen
verwendende Messsysteme zur Bestimmung von 3D-Koordinaten von Messobjekten, die beispielsweise als portable,
handhaltbare und/oder fest installierte Systeme ausgebildet sein können, weisen dabei im Allgemeinen einen
Musterprojektor zur Beleuchtung des Messobjekts mit einem Muster auf und werden daher teilweise auch als musterproj izierende 3D-Scanner oder Lichtstrukturen-SD- Scanner bezeichnet. Das auf die Oberfläche des Messobjekts projizierte Muster wird von einem Kamerasystem als weiterer Bestandteil des Messsystems aufgenommen.
Im Rahmen einer Messung beleuchtet also der Projektor das Messobjekt zeitlich sequentiell mit unterschiedlichen
Mustern (z.B. parallele helle und dunkle Streifen
unterschiedlicher Breite, insbesondere kann auch eine
Drehung des Streifenmusters z.B. um 90° erfolgen) . Die
Kamera (s) registrieren das projizierte Streifenmuster unter einem bekannten Blickwinkel zur Projektion. Für jedes
Projektionsmuster wird mit jeder Kamera ein Bild
aufgenommen. Für jeden Bildpunkt aller Kameras entsteht so eine zeitliche Folge von unterschiedlichen
Helligkeitswerten.
Projiziert werden können dabei ausser Streifen jedoch auch entsprechende andere Muster, wie beispielsweise Random Patterns, Pseudocodes, etc. Dafür geeignete Muster sind aus dem Stand der Technik dem Fachmann hinlänglich bekannt. Pseudocodes ermöglichen z.B. eine leichtere absolute
Zuordnung von Objektpunkten, was bei der Projektion sehr feiner Streifen zunehmend schwieriger wird. Zu diesem Zweck kann also entweder in schneller Folge zunächst ein oder mehrere Pseudocodes und danach ein feines Streifenmuster oder auch in aufeinander folgenden Aufnahmen verschiedne, in der Abfolge feiner werdende Streifenmuster projiziert werden, bis die gewünschte Genauigkeit in der Auflösung von Messpunkten auf der Messobjekt-Oberfläche erreicht ist. Die 3D-Koordinaten der Messobjekt-Oberfläche können dann aus der aufgenommenen Bild-Sequenz mittels Bildverarbeitung nach dem Fachmann auf diesem Gebiet bekannten Verfahren aus der Photogrammetrie und/oder Streifenprojektion berechnet werden. Beispielsweise sind derartige Messverfahren und Messsysteme beschrieben in der WO 2008/046663, der
DE 101 27 304 AI, der DE 196 33 686 AI oder der DE 10 2008 036 710 AI.
Im Üblichen besteht das Kamerasystem aus einer oder
mehreren digitalen Kameras, die sich während einer Messung in bekannter räumlicher Lage zueinander befinden. Zur
Gewährleistung einer stabilen Lage der Kameras relativ zueinander sind diese meist fix mit bekannter räumlicher Positionierung und Ausrichtung zusammen in einem
gemeinsamen Gehäuse integriert, insbesondere wobei die Kameras derart ausgerichtet sind, dass sich die Sichtfelder der einzelnen Kameras grösstenteils überschneiden. Oft werden dabei zwei oder drei Kameras verwendet. Der
Projektor kann dabei fest mit dem Kamerasystem verbunden sein (im Falle der Verwendung von getrennten Kameras auch nur mit einem Teil der vorhandenen Kameras des
Kamerasystems) oder auch komplett getrennt vom Kamerasystem positioniert werden.
Die gesuchten dreidimensionalen Koordinaten der Oberfläche werden im allgemeinen Fall, d.h. im Fall dass relative Positionierung und Ausrichtung von Projektor zum
Kamerasystem fix zueinander und daher nicht vorab schon bekannt ist, in zwei Schritten berechnet. In einem ersten Schritt werden dann die Koordinaten des Projektors wie folgt bestimmt. Zu einem gegebenen Objektpunkt sind die Bildkoordinaten im Kamerabild bekannt. Der Projektor entspricht einer umgekehrten Kamera. Aus der Folge von Helligkeitswerten, die aus der Bildsequenz für jeden
Kamerabildpunkt gemessen wurden, kann die Nummer des Streifens berechnet werden. Im einfachsten Fall erfolgt das über einen Binärkode (z.B. einen Gray-Code) der die Nummer des Streifens als diskrete Koordinate im Projektor
kennzeichnet. Eine höhere Genauigkeit ist mit dem so genannten Phasenschiebeverfahren zu erreichen, da es eine nicht diskrete Koordinate bestimmen kann. Es kann entweder als Ergänzung eines Gray-Codes oder als absolut messendes Heterodynverfahren eingesetzt werden.
Nach solcherart bestimmter Position des Projektors oder bei bereits vorab bekannter Position desselben relativ zum Kamerasystem können nun - z.B. durch die Methode des
Vorwärtsschnitts - wie folgt 3D-Koordinaten von Messpunkten auf der Messobjekt-Oberfläche ermittelt werden. Die
Streifennummer im Projektor entspricht der Bildkoordinate in der Kamera. Die Streifennummer spezifiziert eine
Lichtebene im Raum, die Bildkoordinate einen Lichtstrahl. Bei bekannter Kamera und Projektorposition kann der
Schnittpunkt der Ebene und der Gerade berechnet werden. Das ist die gesuchte dreidimensionale Koordinate des
Objektpunktes im Koordinatensystem des Sensors. Die
geometrische Lage aller Bildstrahlen muss genau bekannt sein. Die exakte Berechnung der Strahlen erfolgt mit dem aus der Photogrammetrie bekannten Vorwärtsschnitt.
Zur Erzielung von höheren Genauigkeiten bei diesem
Messverfahren für die Berechnung der 3D-Koordinaten können die nicht idealen Eigenschaften von realen Linsensystemen, die in Verzerrungen des Bildes resultieren, durch eine Verzeichnungskorrektur angepasst werden und/oder eine präzise Kalibrierung der Abbildungseigenschaften erfolgen. Alle Abbildungseigenschaften von Projektor und Kameras können dabei im Rahmen von dem Fachmann bekannten
Kalibrierungsprozessen (z.B. einer Serie von Kalibrieraufnahmen) gemessen und daraus ein mathematisches Modell zur Beschreibung dieser Abbildungseigenschaften generiert werden (z.B. werden aus der Serie von
Kalibrieraufnahmen mit photogrammetrischen Methoden - insbesondere mit einer Bündelausgleichsrechnung - die die Abbildungseigenschaften bezeichnende Parameter bestimmt) .
Zusammengefasst ist also bei dem Musterprojektionsverfahren bzw. bei Lichtstrukturen-3D-Scanner eine Beleuchtung des Objekts mit einer Sequenz von Lichtmustern erforderlich, um eine eindeutige Tiefenbestimmung der Messpunkte im
Messbereich mit Hilfe von Triangulation (Vorwärtsschnitt) zu ermöglichen. Es sind also meist mehrere Aufnahmen (d.h. eine Serie von Bildern) unter Beleuchtung des Messobjekts mit entsprechenden unterschiedlichen Muster-Projektionen (d.h. mit einer entsprechenden Serie von Mustern)
notwendig, um eine hinlänglich hohe Genauigkeit bezüglich des Messergebnisses zu gewährleisten. Bei aus dem Stand der Technik bekannten handgehaltenen Systemen, wie
beispielsweise bei der in der WO 2008/046663 beschriebenen Messvorrichtung, muss die Beleuchtungssequenz dabei derart schnell erfolgen, dass eine Bewegung durch den Bediener während des Aufnehmens der Serie von Bildern nicht zu
Messfehlern führt. Die durch die Kameras aufgenommenen Bildpunkte der jeweiligen Projektion müssen hinreichend gut untereinander zugeordnet werden können. Somit muss die Bildsequenz schneller als die durch den Bediener
verursachte Muster- oder Bildverschiebung erfolgen. Da die emittierbare optische Energie des Projektors durch die verfügbaren optischen Quellen und durch
Strahlenschutzbestimmungen begrenzt ist, führt dies zu einer Limitierung der detektierbaren Energie im
Kamerasystem und somit zu einer Limitierung der Messung auf schwach reflektierenden Messobjekt-Oberflächen. Weiterhin sind die Projektoren in der Projektionsgeschwindigkeit (Bildrate) begrenzt. Übliche maximale Bildraten solcher Projektoren liegen beispielsweise um 60 Hz. Für einen Messvorgang mit Projizieren einer Serie von
Patterns und Aufnehmen einer Bild-Sequenz der jeweiligen Patterns mit dem Kamerasystem ist mit herkömmlichen
Messvorrichtungen z.B. eine Messdauer von etwa 200 ms nötig (als Beispiel: für die Aufnahme von Sequenzen von 8 bis 10 Bildern bei einer Belichtungsdauer 20 ms bis 40 ms pro Bild können sich z.B. Gesamtaufnahmezeiten bzw. Messdauern von zwischen 160 ms und 400 ms pro Messposition ergeben) .
Bei nicht hinlänglichem Ruhighalten bzw. bei nicht
hinlänglich hoher Positions- und Ausrichtungshaltigkeit der Kameraanordnung, des Projektors (bzw. ggf. eines die
Kameraanordnung und den Projektor integriert beinhaltenden Messkopfes) und des Messobjekts relativ zueinander während eines Messvorgangs (in einer Messposition) kann es somit zu verschiedenen unerwünschten und die Auswertung
erschwerenden, verkomplizierenden, gar verunmöglichenden oder zumindest die erzielbare Genauigkeit negativ
beeinflussenden Effekten kommen.
Für ein unzulängliches Nichtruhighalten der
Kameraanordnung, des Projektors (bzw. ggf. eines die
Kameraanordnung und den Projektor integriert beinhaltenden Messkopfes) oder des Messobjekts können dabei
unterschiedliche Ursachen infrage kommen.
Zum einen können Vibrationen in der Messumgebung (z.B.
falls die Messungen an einer in eine Produktionsstrasse integrierten Produktionsstation durchgeführt werden) auf die Halterung des Messobjekts oder auch einen den Messkopf haltenden Roboterarm übertragen werden und somit zu
störenden Schwingungen führen. Daher sind bisher aufwändige Massnahmen zur Schwingungsdämpfung nötig oder es ist ein Ausweichen auf spezielle Messräume erforderlich, was jedoch den Produktionsprozess deutlich aufwändiger gestaltet (da ein Entnehmen des Messobjekts aus der Produktionsstrasse und ein Transportieren desselben in den entsprechend dafür ausgelegten Messraum erforderlich ist) . Bei handgehaltenen Systemen ist die Hauptursache für unzulängliches Nichtruhighalten insbesondere der natürliche Tremor in der Hand des menschlichen Benutzers.
Als negative Effekte, die durch mangelnde Positions- und Ausrichtungshaltigkeit der Kameraanordnung, des Projektors und des Messobjekts relativ zueinander bewirkt werden können, sind - zum einen - eine Bewegungsunschärfe und/oder Verwacklungen in einzelnen aufgenommenen Bildern einer Bild-Sequenz zu nennen.
Zum anderen können jedoch auch Unkonformitäten der
einzelnen Bilder einer Bild-Sequenz zueinander bezüglich deren jeweiligen Aufnahmepositionen und -richtungen relativ zum Messobjekt (d.h. Schwankungen in den Aufnahmepositionen und -richtungen bei den einzelnen Bildern innerhalb einer Bild-Sequenz) auftreten, sodass ein jeweiliges Zuordnen von Bildpunkten in den einzelnen Bildern zu identischen
Messpunkten auf der Messobjekt-Oberfläche entweder ganz verunmöglicht ist oder nur durch enorm hohen Rechenaufwand und Miteinbeziehen von Informationen aus einer Vielzahl von Bildern desselben Bereichs der Messobjekt-Oberfläche ermöglicht werden kann (d.h. es kann ein sich sehr
aufwändig gestaltendes nachträgliches rechnerisches in räumlichen Bezug Bringen der Einzelbilder erforderlich sein, weshalb bisher teilweise präventiv gegen diesen
Effekt ein Überschuss an Bildern pro Bild-Sequenz
aufgenommen werden, die hauptsächlich lediglich zum
Rückrechnen des räumlichen Bezugs der Aufnahmepositionen und -richtungen der einzelnen Bilder untereinander dienen) .
Zur Erweiterung des Messbereichs auf dem Messobjekt (z.B. zur Vermessung eines Objekts in seiner Gesamtheit), sind oft mehrere Messungen nacheinander (aus verschiedenen
Messpositionen und unter verschiedenen Blickwinkeln der Kameras relativ zum Messobjekt) erforderlich, wobei die Ergebnisse der verschiedenen Messungen anschliessend miteinander verknüpft werden. Dies kann beispielsweise dadurch erfolgen, dass bei den jeweiligen Messvorgängen die Erfassungsbereiche jeweils überlappend gewählt werden und der jeweilige Überlapp zum entsprechenden Zusammenfügen der bei mehreren Messvorgängen gewonnenen 3D-Koordinaten (d.h. Punktwolken) verwendet wird (d.h. es können identische oder ähnliche Verteilungen in den bei den einzelnen
Messvorgängen bestimmten Punktwolken identifiziert und dementsprechend die Punktwolken zusammengefügt werden) .
Dieser Zusammenfügungsvorgang ist im Allgemeinen jedoch extrem rechenintensiv und bedarf sogar bei Verfügbarkeit von höchsten Prozessorleistungen dennoch einen nicht zu verachtenden und störend hohen Zeit- und Energieaufwand.
Bei Verwendung z.B. eines Roboterarms zum Halten und Führen des Messkopfes kann etwa dadurch eine Reduzierung des für den Zusammenfügungsvorgang erforderlichen Rechenaufwands erreicht werden, indem die Aufnahmepositionen und - richtungen bei den einzelnen Messungen anhand der
jeweiligen Roboterarmstellung erfasst und diese für das Zusammenfügen als Vorinformation (z.B. als Randbedingungen) herangezogen werden.
Nachteile hierbei sind die verhältnismässig geringe
Genauigkeit mit welcher anhand der Roboterarmstellung die Messposition bestimmbar ist und - gleichwohl - das
Erfordernis des Vorhandenseins eines solchen Roboterarms. So kann die Rechenleistung, die für das Zusammenfügen von Messergebnissen mehrerer Messvorgänge erforderlich ist, für handgehaltene Messsysteme nicht auf diese Weise reduziert werden . Weiterer Nachteile von Systemen des Standes der Technik, welche zur Musterbeleuchtung im Wesentlichen kohärente optische Strahlung verwenden, sind - durch ungewollt auftretende Specklefeider in den jeweiligen Mustern der Muster-Sequenz hervorgerufene - lokale Messungenauigkeiten oder Messpunkt-Lücken.
Die der Erfindung zugrunde liegende technische Aufgabe ist daher das Bereitstellen eines verbesserten, Bild-Sequenzen verwendenden optischen Messverfahrens und Messsystems zum Bestimmen von 3D-Koordinaten auf einer Messobjekt- Oberfläche, insbesondere wobei ein oder mehrere der zuvor beschriebenen Nachteile vermindert oder behoben werden können .
Spezifischere Aufgaben der Erfindung sind dabei das
Ermöglichen einer präziseren Bestimmung von 3D-Koordinaten auch bei für aus dem Stand der Technik bekannte Messsysteme unzulänglicher Positionshaltigkeit des Projektors, des Kamerasystems und/oder des Messobjekts (z.B. durch
unerwünschte Schwingungen, Vibrationen oder Unruhighalten) während des Messvorgangs (d.h. während des
Mustersequenzproj izierens und der Bildsequenzaufnahme). Im Speziellen sollen dabei - zum einen - auf Verwackelungen und/oder Bewegungsunschärfen in den Einzelbildern einer Bild-Sequenz zurückzuführende Fehler oder Ungenauigkeiten in der Bestimmung der 3D-Koordinaten verringert werden können. Zum anderen sollen auch Fehler verringert oder eliminiert werden können, die auf bei Unruhighalten
auftretenden Aufnahmepositions- und -richtungsschwankungen bei den Bildern einer Bild-Sequenz untereinander
zurückzuführen sind. Eine weitere spezifische Aufgabe bei Verwendung einer kohärenten Quelle zum Projizieren der Muster ist das
Verringern der durch auftretende Speckle im Muster auf der Messobjekt-Oberfläche hervorgerufenen lokalen Messlücken oder lokalen Messungenauigkeiten . Eine weitere spezifische Aufgabe - besonders für
handgehaltene Messsysteme - ist das Vereinfachen des
Zusammenfügens von Messergebnissen (z.B. daraus erzeugten Punktwolken) mehrerer Messvorgänge und/oder das Ermöglichen einer Reduzierung der für ein solches Zusammenfügen
erforderlichen Rechenleistung.
Diese Aufgaben werden durch die Verwirklichung der
kennzeichnenden Merkmale der unabhängigen Ansprüche gelöst. Merkmale, die die Erfindung in alternativer oder
vorteilhafter Weise weiterbilden, sind den abhängigen
Patentansprüchen zu entnehmen.
Die Erfindung betrifft ein musterproj izierendes und Bild- Sequenzen verwendendes Messverfahren zum Bestimmen von SD- Koordinaten einer Messobjekt-Oberfläche sowie ein zu selbigem Zweck ausgebildetes Messsystem. Im Rahmen der Erfindung werden dabei während eines Messvorgangs - d.h. beim Aufnehmen der Bild-Sequenz - anhand von Inertialsensoren translatorische und/oder rotatorische Beschleunigungen des Musterprojektors, des Kamerasystems (bzw. ggf. eines die Kameraanordnung und den Projektor integriert beinhaltenden Messkopfes) und/oder des Messobjekts gemessen und die gemessenen Beschleunigungen beim Bestimmen der 3D-Koordinaten berücksichtigt.
Detaillierter beschrieben, werden erfindungsgemäss beim Aufnehmen der Bild-Sequenz zumindest während den
Belichtungszeiten von einzelnen Bildern der Bild-Sequenz die translatorische und/oder rotatorische Beschleunigungen mit mindestens einer derartigen Messrate gemessen, dass während den Belichtungszeiten von den jeweils einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte,
insbesondere eine Vielzahl von Werten, für die
Beschleunigungen erfasst werden. Basierend darauf werden erfindungsgemäss dann Bewegungen des Projektors, des
Kamerasystems und/oder des Messobjekts, die während den Belichtungszeiten der jeweiligen einzelnen Bilder der Bild- Sequenz auftreten und dadurch Verwacklungen und/oder
Bewegungsunschärfe in den jeweiligen einzelnen Bildern der Bild-Sequenz provozieren, anhand der gemessenen
Beschleunigungen algorithmisch beim Bestimmen der SD- Koordinaten berücksichtigt. Insbesondere erfolgt in Abhängigkeit von den gemessenen
Beschleunigungen ein Kompensieren und/oder Korrigieren von Verwacklungen und/oder Bewegungsunschärfen, welche durch während den Belichtungszeiten der jeweiligen einzelnen Bilder der Bild-Sequenz auftretende Bewegungen des
Projektors, des Kamerasystems und/oder des Messobjekts bewirkt werden, jeweils in den einzelnen Bildern der Bild- Sequenz . Dafür können am Kamerasystem, am Projektor und/oder am Messobjekt die Inertialsensoren angeordnet sein, wobei die Inertialsensoren insbesondere zusammen als integrierte inertiale Messeinheit ausgebildet sind. Je nach Ausführungsvariante des Kamerasystems und des
Projektors können die Inertialsensoren dabei entsprechend in einem Komponenten des Kamerasystems und/oder des
Projektors beinhaltenden Gehäuse mitintegriert sein. Das Kamerasystem (auch Kameraanordnung genannt) kann
beispielsweise - wie aus dem Stand der Technik bereits bekannt - aus einer, zwei, drei, vier oder mehr Kameras aufgebaut sein, die mit fixer und bekannter Positionierung und Orientierung relativ zueinander in einem gemeinsamen Gehäuse angeordnet und zur im Wesentlichen simultan
erfolgenden Aufnahme von Einzelbildern ausgebildet sind.
Alternativ können einzelne Kameras der Kameraanordnung auch körperlich separat voneinander mit jeweils eigenem Gehäuse ausgeführt sein, was im Allgemeinen die Auswertung der Bild-Sequenzen jedoch erschwert, da dann der relative räumliche Bezug der Kameras zueinander nicht vordefiniert ist (wodurch sich im Normalfall ein erhöhter Rechenaufwand bei der Auswertung der Bild-Sequenzen ergibt) . Zudem tritt im Fall von körperlich separat ausgeführten Kameras bei handgehaltenen Systemen die Benutzungserschwernis auf, mehrere separate Gerätschaften tragen und halten zu müssen. Aus diesen beiden Gründen kann - insbesondere bei
handhaltbaren oder zum Anbringen an einen Roboterarm ausgebildeten Systemen - das Kamerasystem zusammen mit dem Projektor mit fixer und bekannter Positionierung und
Orientierung relativ zueinander körperlich in einem
gemeinsamen Messkopf des Messsystems untergebracht sein, in dem dann auch erfindungsgemäss die Inertialsensoren bzw. die inertiale Messeinheit angeordnet sein kann.
Ebenso kann - alternativ oder zusätzlich - eine Gruppe von Inertialsensoren auch zum Anbringen an das zu vermessende Objekt ausgebildet sein, welche die gemessenen
Beschleunigungen (oder bereits daraus abgeleitete
Bewegungen oder gar Positionen und Ausrichtungen) an die Auswertereinheit des Messsystems zur Berücksichtigung bei der 3D-Koordiantenbestimmung kommuniziert.
Im Speziellen sind dabei die Inertialsensoren in einer auf MEMS-basierten Komponenten beruhenden inertialen Messeinheit (wobei MEMS für Micro-Electro-Mechanical System steht) derart kombiniert und integriert, dass die inertiale Messeinheit zur Messung der Beschleunigungen in allen sechs Freiheitsgraden ausgebildet ist, insbesondere mit einer Messrate zwischen etwa 50 und 2000 Hz.
Wie dem Fachmann bekannt können dabei durch die
entsprechende Kombination mehrerer Inertialsensoren in einer inertialen Messeinheiten (engl.: Inertial Measurement Unit (IMU)) die Beschleunigungen der sechs Freiheiten in der Regel anhand der folgenden Sensorarten gemessen werden:
Drei orthogonal angeordnete Beschleunigungssensoren (auch als Translationssensoren bezeichnet) detektieren die lineare Beschleunigung in x- bzw. y- bzw. z-Achse. Daraus kann die translatorische Bewegung (sowie die relative
Position) berechnet werden. Drei orthogonal angeordnete Drehratensensoren (auch als Gyroskopische Sensoren
bezeichnet) messen die Winkelbeschleunigung um die x- bzw. y- bzw. z-Achse. Daraus kann die Rotationsbewegung (sowie die relative Ausrichtung) berechnet werden. Derartige auf MEMS-basierte Komponenten beruhende inertiale Messeinheiten, die als miniaturisierte Geräte oder
Baugruppen ausgebildet sind, sind aus dem Stand der Technik bereits hinlänglich bekannt und werden schon lange in
Grossserie gefertigt. Die während eines Messvorgangs - oder zusätzlich auch zwischen mehreren Messvorgängen - erfassten Beschleunigungen des Kamerasystems, des Projektors und/oder des
Messobjekts können erfindungsgemäss im Rahmen der
Auswertung (z.B. im Rahmen des Bestimmens der 3D- Koordinaten der Messpunkte aus der Bild-Sequenz oder im
Rahmen der Zusammenfügung von aus mehreren durchgeführten Messvorgängen gewonnenen Messergebnissen, d.h. aus mehreren Bild-Sequenzen) dabei für verschiedene Zwecke und zur
Verbesserung unterschiedlicher Aspekte verwendet werden. Werden - wie dies im Rahmen der Erfindung vorgesehen ist - während der Belichtungszeiten der einzelnen Bilder einer Bild-Sequenz die Beschleunigungen mit hinreichend hoher Rate (d.h. einer Rate, die zumindest einige - z.B. zwischen 5 und 50 - Beschleunigungswerte pro Belichtungsdauer eines Einzelbildes liefert), können Verwacklungen und/oder
Bewegungsunschärfe im Bild provozierende Bewegungen des Projektors, des Kamerasystems und/oder des Messobjekts während der Belichtungszeiten der einzelnen Bilder der Bild-Sequenz anhand dieser gemessener Beschleunigungswerte algorithmisch berücksichtigt werden. Vorzugsweise können die gemessenen Beschleunigungswerte - nach z.B. aus der Photographie hinlänglich bekannten Verfahren - zum
Kompensieren oder Korrigieren von Verwacklungen und/oder Bewegungsunschärfen in den einzelnen Bildern einer Bild- Sequenz verwendet werden.
Mangelnde Positions- und Orientierungshaltigkeit von Messsystem und Messobjekt relativ zueinander während der Belichtungszeiten der Bilder kann dabei hervorgerufen werden z.B. durch einen den Projektor, das Kamerasystem und/oder das Messobjekt handhaltenden Benutzer,
insbesondere handtremorbedingt und unabsichtlich, oder durch Vibrationen oder Schwingungen in den Halterungen des Projektors, des Kamerasystems und/oder des Messobjekts.
Die erfindungsgemäss erfasste Bewegung im Raum kann also z.B. zur Korrektur von Unscharfen in den einzelnen
Aufnahmen von Digitalkameras bzw. Triangulationsscannern verwendet werden. Ausserdem können bei handgehaltenen
Messsystemen die durch den Tremor der Hand eines Benutzers gegebenen prinzipiellen Limitierungen aufgehoben oder zumindest vermindert werden. Auch die bei einer stationären Installation des Messsystems oft auftretenden störenden Schwingungen/Vibrationen während Messungen können somit erfindungsgemäss - wie oben
beschrieben - bei der Auswertung und beim Bestimmen der SD- Koordinaten berücksichtigt werden. Dadurch kann z.B. auf oft baulich sehr aufwändige Vorkehrung zur Schwingungs¬ dämpfung verzichtet werden (oder zumindest deutlich weniger aufwändige Verkehrungen vorgesehen werden) , bei
gleichzeitig verbesserter Genauigkeit bei der SD- Koordinatenbestimmung oder zumindest ohne dabei Einbussen hinsichtlich der Genauigkeit hinnehmen zu müssen. Das erfindungsgemässe Messsystem eignet sich somit verbessert zum Einsatz direkt in einer Produktionslinie. Auf ein - insgesamt betrachtet - sehr aufwändiges Betreiben des
Messsystems „offline" in einem speziellen Messraum (mit Entnehmen des Messobjekts aus der Produktionsstrasse und Transportieren desselben in den entsprechend dafür
ausgelegten Messraum) kann - ermöglicht durch die Erfindung - im Allgemeinen verzichtet werden.
Gemäss einer Weiterbildung können die erfassten
Beschleunigungen von Messsystem-Komponenten (d.h.
Kameraanordnung/Projektor) und/oder des Messobjekts
erfindungsgemäss auch dafür verwendet werden, um den jeweiligen Bildern einer Bild-Sequenz jeweils eine zum jeweiligen Aufnahmezeitpunkt aktuelle Bildaufnahmeposition und -richtung relativ zum Messobjekt zuzuordnen. Dafür werden während eines gesamten Messvorgangs (d.h. des gesamten Vorgangs des Aufnehmens einer Bild-Sequenz oder auch mehrerer Bild-Sequenzen) die Beschleunigungen erfasst. Insbesondere können dazu die Beschleunigungen mit einer derartigen Rate gemessen werden, dass eine hinlänglich genaue Zuordnung zu den jeweiligen Aufnahmezeitpunkten der einzelnen Bilder ermöglicht ist. Werden die
Beschleunigungen mit einer deutlich höheren Rate erfasst als die Bilder sequentiell aufgenommen werden, können den jeweiligen Bildern auch jene Bildaufnahmepositionen und -richtungen zugeordnet werden, die sich aus einer Mittelung der während den Belichtungsdauern der einzelnen Bildern erfassten Beschleunigungen ergeben.
Die den einzelnen Bildern einer Bild-Sequenz zugeordneten jeweiligen Aufnahmepositionen und -richtungen zum
vereinfachten Verknüpfen von Bildpunkten in den einzelnen Bildern zu identischen Messpunkten auf der Messobjekt- Oberfläche, auch im Falle dass - z.B. tremorbedingt - Schwankungen in den Aufnahmepositionen und -richtungen der einzelnen Bildern innerhalb einer Bild-Sequenz auftreten.
Der Rechenaufwand für die Auswertung einer Bild-Sequenz (der insbesondere für das Vorwärtsschnittverfahren
erforderlich ist) kann erfindungsgemäss somit also deutlich reduziert werden, da abgeleitet von den Aufnahmepositionen und -richtungen vorab bestimmt werden kann, durch welche Bildpunkte in den jeweiligen Bildern der Bild-Sequenz jeweils identische Messpunkte der Oberfläche abgebildet sind.
Da bei Systemen aus dem Stand der Technik bisher teilweise ein Überschuss an Bildern pro Bild-Sequenz aufgenommen werden musste, um - vor der eigentlichen Auswertung - die Bilder zueinander durch Bildverarbeitung miteinander in einen räumlichen Bezug zu bringen, kann erfindungsgemäss nun der Rechenaufwand und/oder die erforderliche Anzahl von aufzunehmenden Bildern pro Bild-Sequenz für das
vergleichbar genaue Bestimmen der 3D-Koordinaten aus dieser Bild-Sequenz reduziert werden. Auf der anderen Seite wird durch die Erfindung jedoch nun auch ermöglicht, über längere Messzeiträume Bilder einer Bild-Sequenz aufzunehmen, da der Einfluss durch ein
Nichtruhighalten von Messkomponenten während des Aufnehmens der Serie von Bildern erfindungsgemäss hinlänglich gut kompensierbar oder korrigierbar ist und nicht zu
Messausfällen führt.
Um beispielsweise grössere Bereiche einer Messobjekt- Oberfläche zu vermessen, welche über den Sicht- und
Musterprojektionsbereich von Kameraanordnung und Projektor hinausgehen, ist es gemäss dem Stand der Technik
erforderlich, mehrere Messvorgänge durchzuführen und die Ergebnisse (z.B. Punktwolken) anschliessend anhand von überlappend gemessenen Teilbereichen aneinanderzufügen („Stitching") . Erfindungsgemäss kann nun z.B. auch ein verhältnismässig langer Messvorgang durchgeführt werden (z.B. über 1-5 Sekunden oder länger mit fortlaufender sequentieller
Aufnahme von Bildern), wobei absichtlich Projektor und Kamerasystem derart verfahren werden, dass letztendlich ein gesamter gewünschter Messbereich (z.B. das gesamte
Messobjekt von allen Seiten) abgedeckt ist. Dabei sollte die Verfahrgeschwindigkeit und die Abfolge der projizierten Muster sowie die Bildaufnahmefrequenz so angepasst und ausgelegt werden, dass alle Teilbereich mit zur Auswertung hinreichend variierenden Mustern beleuchtet und davon hinreichend viele Bilder aufgenommen werden.
Anstelle von mehreren Einzelmessvorgängen mit möglichst ruhigem Positions- und Ausrichtungshalten der
Kameraanordnung und des Projektors während den jeweiligen Einzelmessungen, deren Messergebnisse anschliessend
rechenintensiv verknüpft werden, kann also gemäss der Erfindung auch ein fortlaufender Messvorgang „gleitend" erfolgen, und anhand der währenddessen erfindungsgemäss gemessenen Beschleunigungen die einzelnen Bildern bzgl. ihrer jeweiligen Aufnahmepositionen und -richtungen - zur Auswertung der Bild-Sequenz - in räumlichen Bezug
zueinander gebracht werden.
In einer weiteren Ausführungsform der Erfindung können jedoch auch Einzelmessvorgänge durchgeführt werden, deren Messergebnisse (z.B. Punktwolken) erfindungsgemäss - mithilfe der gemessenen Beschleunigungen - unter
reduziertem Rechenaufwand zusammengefügt werden können („Stitching" ) . Dabei ist es nun nicht zwingend
erforderlich, gewisse Teilbereiche überlappend zu
vermessen, um das entsprechende Zusammenfügen der
Messergebnisse überhaupt erst zu ermöglichen. Ein
überlappendes Messen kann jedoch zur weiteren Steigerung der Zuverlässigkeit und Genauigkeit des Stitchings der einzelnen Messergebnisse auch im Rahmen der Erfindung dennoch so erfolgen. Die - anhand der Beschleunigungen ableitbaren - Messpositionen und -richtungen bei den jeweiligen Einzelmessvorgängen können auch z.B. verwendet werden, und um einen verbesserten Startwert für das rechnerische Verknüpfen der Punktwolken zu liefern, wenn sich dieses auf identische Punkte (Passpunkte) oder
identische Muster/Geometrien bezieht (in den Überlapp- bereichen) .
Gemäss eines weiteren Aspekts der Erfindung können die den jeweiligen Bildern zugeordneten Aufnahmepositionen und -richtungen, die aus den gemessenen Beschleunigungen abgeleitet werden, auch zum Verdichten des Messbereichs verwendet werden (sodass innerhalb eines gewissen
Messbereichs für eine höhere Anzahl von Messpunkten SD- Koordinaten bestimmt werden) . Dafür kann z.B. unter
geringfügiger absichtlicher Bewegung von Projektor,
Kameraanordnung und/oder Messobjekt (z.B. verursacht durch den natürlichen Tremor der Hand eines Benutzers) eine Serie von Mustern auf einen Oberflächenbereich projiziert und davon eine Serie von Bildern aufgenommen werden (oder auch mehrere Serien desselben Messbereichs miteinander verknüpft werden) , und - mithilfe der Beschleunigungen - die Bilder hochpräzise miteinander in räumlichen Bezug gebracht werden, sodass dadurch innerhalb eines Messbereichs mit höher Messpunktdichte 3D-Koordinaten bestimmt werden können. Insbesondere können dadurch z.B. auch im
Subpixelbereich der einzelnen Bilder 3D-Koordinaten von Messpunkten auf der Oberfläche des Messobjekts bestimmt werden .
Auf ähnliche Weise ist es für Systeme, die zur Musterbeleuchtung im Wesentlichen kohärente optische
Strahlung verwenden, erfindungsgemäss auch ermöglicht, die durch ungewollt auftretende Specklefeider in den jeweiligen Mustern der Muster-Sequenz hervorgerufenen negativen
Auswirkungen auf die Messergebnisse (z.B. lokale
Messungenauigkeiten oder Messpunkt-Lücken) zu verringern. Werden beim Messvorgang nämlich Projektor, Kameraanordnung und/oder Messobjekt geringfügig absichtlich bewegt (z.B. verursacht durch den natürlichen Tremor der Hand eines Benutzers) , ändern sich auch die Specklefeider in den auf die Messobjekt-Oberfläche projizierten Mustern. In der Folge kann dadurch also auch erreicht werden, dass die Specklefeider in den jeweiligen Bildern nicht stets an identischen Stellen auf der Messobjekt-Oberfläche
auftreten. Im Rahmen einer dieserart aufgenommenen Bild- Sequenz sollten also weniger oder keine Stellen vorhanden sein, welche nicht in zumindest einigen der Bilder der Bild-Sequenz mit im Wesentlichen specklefreiem Muster beleuchtet abgebildet sind. Durch die Zusammenschau der Bilder der Bild-Sequenz (wobei die Bilder wiederum
erfindungsgemäss durch Verwendung der dabei gemessenen Beschleunigungen in räumlichen Bezug zueinander gebracht werden) können also die im Falle der Musterprojektion mit kohärenter optischer Strahlung durch Speckle verursachten negativen Einflüsse vermindert werden.
Zusammengefasst können gemäss der Erfindung also während eines Messvorgangs (Muster-Sequenz-Projektion und Bild- Sequenz-Aufnahme) für verschiedene Zwecke das Messobjekt, das Kamerasystem und/oder der Projektor absichtlich bewegt werden (oder die durch eine eigentlich ungewollte Bewegung verursachten negativen Auswirkungen vermindert oder behoben werden). Dafür werden die Beschleunigungen von Projektor, Kameraanordnung und/oder Messobjekt anhand Inertialsensoren gemessen und beim Auswerten der einzelnen Bilder der Bild- Sequenz berücksichtigt.
Insbesondere kann gemäss der Erfindung anhand der
gemessenen Beschleunigungen für jedes Bild separat eine Kompensation oder Korrektur von durch Bewegungen während der Belichtungszeit einzelner Bilder verursachten
Auswirkungen (Verwacklungen/Bewegungsunschärfen) im Bild erfolgen . Zusätzlich oder alternativ kann jedoch auch jedem Bild eine aus den Beschleunigungen (ggf. gemittelt) abgeleitete, jeweils aktuelle Aufnahmeposition und -richtung relativ zum Messobjekt (sowie ggf. eine jeweilige aktuelle
Musterprojektionsposition und -richtung) zugeordnet und somit die Bilder für die aus der Bild-Sequenz erfolgende Bestimmung der 3D-Koordinaten vorab in räumlichen Bezug zueinander gebracht werden. Beispielsweise kann dann ein absichtliches Bewegen des Messobjekts, des Kamerasystems und/oder des Projektors erfolgen - zum Vergrössern des Messbereichs auf der Messobjekt- Oberfläche, zum Verdichten des Messbereichs und somit zur Erhöhung der Messpunkte-Dichte auf der Messobjekt-Oberfläche und/oder - zum Verändern von im Falle des Beleuchtens mit im
Wesentlichen kohärenter optischer Strahlung ungewollt auftretenden Specklefeidern in den jeweiligen Mustern der Muster-Sequenz und somit zur Verringerung von durch solche Specklefeider hervorgerufene lokale
Messungenauigkeiten oder Messpunkt-Lücken. Im Speziellen kann dabei das zu diesen Zwecken erfolgende Bewegen bewirkt werden durch einen das Messobjekt bzw. das Kamerasystem handhaltenden Benutzer, und/oder eine dafür ausgelegte und vorprogrammiert automatisch oder manuell gesteuerte Halterung - insbesondere ein Roboterarm - für den Projektor, das Kamerasystem und/oder das Messobjekt.
Wiederum zusätzlich oder alternativ kann bei Durchführung von mehreren einzelnen Messvorgängen nacheinander jedoch auch jedem Messvorgang eine (ggf. gemittelte) Messposition und -ausrichtung (von Kameraanordnung, Projektor und
Messobjekt relativ zueinander) zugeordnet werden und dadurch das Zusammenfügen der Ergebnisse aus mehreren Einzelmessvorgängen vereinfacht oder gar überhaupt erst ermöglicht werden. Das erfindungsgemässe Verfahren und die erfindungsgemässe Vorrichtung werden nachfolgend anhand von in den
Zeichnungen schematisch dargestellten konkreten
Ausführungsbeispielen rein beispielhaft näher beschrieben, wobei auch auf weitere Vorteile der Erfindung eingegangen wird. Im Einzelnen zeigen:
Fig. 1 ein optisches Messsystem zur Bestimmung von
3D-Koordinaten, wobei erfindungsgemäss eine inertiale Messeinheit (IMU) in den
handhaltbaren Messkopf integriert ist; Fig. 2 ein erfindungsgemässes optisches Messsystem mit handhaltbarem und IMU, Projektor sowie drei Kameras aufweisendem Messkopf, wobei eine Autotüre als Messobjekt im Rahmen der 3D-Koordinatenbestimmung mit einem Muster beleuchtet wird; Fig. 3 und 4 ein erfindungsgemässes optisches Messsystem mit handhaltbarem und IMU, Projektor sowie eine Kamera aufweisendem Messkopf, wobei eine Autotüre als Messobjekt nacheinander mit unterschiedliche Feinheitsgrade
aufweisenden Mustern beleuchtet wird;
Fig. 5 und 6 ein erfindungsgemässes optisches Messsystem mit roboterarmgehaltenem Messkopf, wobei eine Autotüre als Messobjekt nacheinander mit unterschiedliche Feinheitsgrade
aufweisenden Strichmustern beleuchtet wird;
Fig. 7 ein erfindungsgemässes optisches Messsystem mit handhaltbarem Messkopf, wobei ein handtremorbedingtes Unruhighalten während der Messung veranschaulicht ist;
Fig. 8 ein erfindungsgemässes optisches Messsystem mit am Messobjekt angeordneter IMU, wobei das Messobjekt zur Vergrösserung des
Messbereichs in unterschiedliche Stellungen gebracht wird und die in den unterschiedlichen Stellungen aufgenommenen Bilder anhand der gemessenen
Beschleunigungen verknüpft werden;
Fig. 9 ein erfindungsgemässes optisches Messsystem mit handhaltbarem und IMU-aufweisendem
Messkopf, wobei der Messkopf zur
Vergrösserung des Messbereichs in
unterschiedliche Stellungen gebracht wird und die in den unterschiedlichen Stellungen aufgenommenen Bilder anhand der gemessenen Beschleunigungen verknüpft werden; und
Fig. 10 ein erfindungsgemässes optisches Messsystem in Anwendung in einer Produktionsstrasse, wobei die sich auf Messungen mit dem
erfindungsgemässen Messsystem auswirkenden
Vibrationen, die von einer benachbarten Produktionsstation übertragen werden, anhand der gemessenen Beschleunigungen kompensiert werden . Das in Figur 1 dargestellte optische Messsystem 7 zur
Bestimmung von 3D-Koordinaten von einer Vielzahl von
Messpunkten einer Messobjekt-Oberfläche ls weist
erfindungsgemäss einen Projektor 3, ein Kamerasystem 4, eine Auswerteeinheit 6 sowie in eine inertiale Messeinheit (IMU) integrierte Inertialsensoren 5a auf.
Der Projektor 3 ist dabei zur Beleuchtung der Messobjekt- Oberfläche ls mit einer Muster-Sequenz aus
unterschiedlichen optischen Mustern 2a ausgebildet.
Beispielsweise kann der Musterprojektor 3 ähnlich dem
Prinzip eines Diaprojektors aufgebaut sein. Es können jedoch auch andere Projektionstechniken zur Erzeugung der Lichtmuster 2a eingesetzt werden, beispielsweise
programmierbare LCD-Projektoren, verschiebliche Glasträger mit unterschiedlichen Gitterstrukturen in einem Projektor, eine Kombination eines elektrisch schaltbaren Gitters und einer mechanischen Verschiebeeinrichtung oder auch die Projektion von Einzelgittern auf der Basis von Glasträgern.
Das Kamerasystem 4 ist zur Aufnahme einer Bild-Sequenz von der mit der Muster-Sequenz beleuchteten Messobjekt- Oberfläche ls ausgebildet und kann dabei zumindest eine Kamera aufweisen, insbesondere jedoch zwei, drei oder vier Kameras 4a, 4b, 4c, die beispielsweise mit fixer und
bekannter Positionierung und Orientierung relativ
zueinander angeordnet sein können und im Speziellen zur im Wesentlichen simultan erfolgenden Aufnahme von
Einzelbildern ausgebildet sind.
Wie dem Fachmann bekannt können zur Bildaufzeichnung beispielsweise Kameras 4a, 4b, 4c mit elektronischem
Bildsensor, z.B. CCD- oder CMOS-Sensoren, verwendet werden, welche die Bildinformation in Form einer Bildmatrix für die weitere Verarbeitung zur Verfügung stellen. Es können dabei sowohl monochrome Kameras als auch Farbkameras zum Einsatz kommen .
Die Auswerteeinheit 6 ist zur Bestimmung der 3D-Koordinaten der Messpunkte aus der Bild-Sequenz ausgebildet, insbe¬ sondere unter Ermittlung einer Folge von Helligkeitswerten für identische Messpunkte der Messobjekt-Oberfläche ls in jeweiligen Bildern der aufgenommenen Bild-Sequenz.
Der Projektor 3 und das Kamerasystem 4 sind ausführungsbei- spielgemäss mit fixer und bekannter Positionierung und Orientierung relativ zueinander körperlich in einem
gemeinsamen Messkopf 8 des Messsystems 7 untergebracht, insbesondere wobei der Messkopf 8 handhaltbar und/oder zum Anbringen an einen Roboterarm ausgebildet ist. Erfindungsgemäss ist in den Messkopf 8 auch die
Inertialsensoren 5a aufweisende IMU integriert, wobei die Inertialsensoren 5a somit zur Messung von translatorischen und rotatorischen Beschleunigungen des Messkopfes 8 (d.h. des Projektors 3 und des Kamerasystems 4) beim Aufnehmen der Bild-Sequenz ausgebildet sind. Die Inertialsensoren 5a sind dabei ausgebildet zur Messung von den Beschleunigungen mit mindestens einer derartigen Messrate, dass während den Belichtungszeiten von den jeweiligen einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte, insbesondere eine
Vielzahl von Werten, für die Beschleunigungen erfassbar sind .
Die Auswerteeinheit 6 ist dabei derart ausgebildet, dass durch diese eine synchronisierte Steuerung der
Inertialsensoren 5a und des Kamerasystems 4 derart erfolgt, dass beim Aufnehmen der Bild-Sequenz zumindest während den Belichtungszeiten von einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte für die Beschleunigungen erfasst werden .
Somit kann letztendlich erfindungsgemäss durch die
Auswerteeinheit 6 eine algorithmische Berücksichtigung von Bewegungen des Projektors 3, des Kamerasystems 4 und/oder des Messobjekts 1, welche Verwacklungen und/oder
Bewegungsunschärfe in den jeweiligen einzelnen Bildern der Bild-Sequenz provozieren, anhand der durch die
Inertialsensoren 5a gemessen Beschleunigungen für die
Bestimmung der 3D-Koordinaten erfolgen.
Insbesondere kann dabei anhand der gemessenen
Beschleunigungen für jedes Bild separat eine Kompensation oder Korrektur von durch Bewegungen während der
Belichtungszeit einzelner Bilder verursachten Auswirkungen (Verwacklungen/Bewegungsunschärfen) im Bild erfolgen.
Dafür kann die Auswerteeinheit 6 derart ausgebildet sein, dass in Abhängigkeit von den gemessenen Beschleunigungen eine Kompensation und/oder Korrektur von - durch während den Belichtungszeiten der jeweiligen einzelnen Bilder der Bild-Sequenz auftretende Bewegungen des Projektors 3, des Kamerasystems 4 und/oder des Messobjekts 1 bewirkten - Verwacklungen und/oder Bewegungsunschärfen jeweils in den einzelnen Bildern der Bild-Sequenz erfolgt. Zusammengefasst werden also während der Belichtungszeiten der einzelnen Bilder einer Bild-Sequenz die
Beschleunigungen mit hinreichend hoher Rate erfasst (d.h. mit einer Rate, die zumindest einige - z.B. zwischen 5 und 50 - Beschleunigungswerte pro Belichtungsdauer eines
Einzelbildes liefert) , und basierend darauf können dann Verwacklungen und/oder Bewegungsunschärfe im Bild
provozierende Bewegungen des Projektors, des Kamerasystems und/oder des Messobjekts während der Belichtungszeiten der einzelnen Bilder der Bild-Sequenz anhand dieser gemessener Beschleunigungswerte algorithmisch berücksichtigt werden. Vorzugsweise können die gemessenen Beschleunigungswerte - nach z.B. aus der Photographie hinlänglich bekannten
Verfahren - zum Kompensieren oder Korrigieren von
Verwacklungen und/oder Bewegungsunschärfen in den einzelnen Bildern einer Bild-Sequenz verwendet werden.
Die Inertialsensoren 5a der inertialen Messeinheit können dabei insbesondere auf MEMS-basierten Komponenten basieren und derart kombiniert und in die IMU integriert sein, dass die diese zur Messung der Beschleunigungen in allen sechs Freiheitsgraden ausgebildet ist, insbesondere mit einer Messrate etwa zwischen 50 und 2000 Hz.
Insbesondere automatisch und vorprogrammiert gesteuert durch die Auswerteeinheit 6 kann somit das dargestellte optische Messsystem 7 zur Durchführung des
erfindungsgemässen optischen Messverfahrens - wie bereits obig beschrieben - ausgebildet und ausgelegt ist. Das in Figur 2 gezeigte Ausführungsbeispiel eines
erfindungsgemässen optischen Messsystems 7 weist einen handhaltbaren und IMU (mit Inertialsensoren 5a) ,
Projektor 3 sowie drei Kameras 4a, 4b, 4c umfassenden
Messkopf 8 (z.B. integriert in ein handhaltbares Gehäuse mit Griff und somit als Lichtstrukturen-3D-Handscanner ausgebildet) auf, wobei eine Autotüre als Messobjekt 1 im Rahmen der 3D-Koordinatenbestimmung anhand des Projektors 3 mit einem Muster 2a (als Teil einer Muster-Sequenz) beleuchtet wird.
Die drei Kameras 4a, 4b, 4c des Kamerasystems 4, die hier beispielhaft mit fixer und bekannter Positionierung und Orientierung relativ zueinander angeordnet sind, sind zur Aufnahme einer Bild-Sequenz von der mit der Muster-Sequenz beleuchteten Autotür-Oberfläche ausgebildet. Die
Kameras 4a, 4b, 4c können dabei zur im Wesentlichen simultan erfolgenden Aufnahme von Einzelbildern ausgebildet sein.
Zudem ist wiederum eine inertiale Messeinheit (mit
Inertialsensoren 5a) in den Messkopf 8 integriert, wodurch ein erfindungsgemässes Kompensieren von z.B. durch
handtremorbedingtes Unruhighalten bewirkten Messfehlern im Rahmen der Auswertung der Bild-Sequenz und der Ableitung der 3D-Koordinaten erfolgen kann. Insbesondere automatisch und vorprogrammiert gesteuert durch die Auswerteeinheit kann das dargestellte optische Messsystem 7 zur
Durchführung des erfindungsgemässen optischen
Messverfahrens - wie obig beschrieben - ausgebildet und ausgelegt sein.
Figuren 3 und 4 zeigen ein erfindungsgemässes optisches Messsystem 7 mit handhaltbarem und IMU (mit Inertial¬ sensoren 5a), Projektor 3 sowie eine Kamera 4a aufweisendem Messkopf 8 (z.B. integriert in ein handhaltbares Gehäuse mit Griff und somit als Lichtstrukturen-3D-Handscanner ausgebildet), wobei eine Autotüre als Messobjekt 1
nacheinander mit unterschiedliche Feinheitsgrade
aufweisenden Mustern 2a, 2b als Teil der Muster-Sequenz; Figur 3: gröberes Muster 2a; und Figur 4: feiner
strukturiertes Muster 2b) beleuchtet wird.
Wie aus dem Stand der Technik bekannt erfolgt also eine Beleuchtung des Objekts (z.B. Autotüre) mit einer Sequenz von Lichtmustern 2a, 2b unterschiedlicher Strukturenfeinheit, um eine eindeutige Tiefenbestimmung der Messpunkte im Messbereich mit Hilfe von Triangulation (Vorwärtsschnitt) zu erhalten. Es werden dabei auch mehrere Bild-Aufnahmen gemacht (d.h. eine Serie von Bildern) unter Beleuchtung des Messobjekts 1 mit den entsprechenden unterschiedlichen Mustern 2a, 2b (d.h. mit der Serie von Mustern) .
Erfindungsgemäss ist dabei wiederum eine inertiale
Messeinheit (mit Inertialsensoren 5a) in den Messkopf 8 des in den Figuren 3 und 4 dargestellten 3D-Scanner integriert, wodurch ein erfindungsgemässes Kompensieren von z.B. durch handtremorbedingtes Unruhighalten bewirkten Messfehlern im Rahmen der Auswertung der Bild-Sequenz und der Ableitung der 3D-Koordinaten erfolgen kann. Insbesondere automatisch und vorprogrammiert gesteuert durch die Auswerteeinheit kann das dargestellte optische Messsystem 7 zur
Durchführung einzelner oder mehrerer der oben beschriebenen Ausführungsformen des erfindungsgemässen optischen
Messverfahrens (z.B. nach einem der Ansprüche 1 bis 8) ausgebildet und ausgelegt sein. In den Figuren 5 und 6 ist ein erfindungsgemässes optisches Messsystem 7 ähnlich dem aus Figuren 3 und 4 gezeigt, ausser dass der Messkopf 8 hier als roboterarmgehaltener Messkopf 8 ausgebildet ist und der Projektor 3 zum
nacheinander erfolgenden Projizieren von unterschiedliche Feinheiten aufweisende Streifenmuster 2a, 2b als Muster- Sequenz ausgebildet ist.
Erfindungsgemäss weist auch der in den Figuren 3 und 4 dargestellte Messkopf 8 eine inertiale Messeinheit IMU (mit Inertialsensoren 5a) auf, wodurch ein erfindungsgemässes Kompensieren von Messfehlern, die z.B. durch auf den
Roboterarm aus der Messbereichumgebung übertragene
Vibrationen bewirkt werden, im Rahmen der Auswertung der Bild-Sequenz und der Ableitung der 3D-Koordinaten erfolgen kann. Alternativ oder zusätzlich können die gemessenen Beschleunigungen auch zum räumlichen Zusammenfügen
(„Stitchen") einzelner aus unterschiedlicher
Roboterarmpositionen erfasster Einzelbilder (als Teil einer oder mehrerer Bild-Sequenzen) verwendet werden, sodass - je nach Wahl der unterschiedlichen Aufnahmepositionen, die durch den Fachmann anforderungsgemäss angepasst werden kann - dadurch der Messbereich vergrössert und/oder verdichtet werden kann, oder aber ein Verändern von im Falle des Beleuchtens mit im Wesentlichen kohärenter optischer
Strahlung ungewollt auftretenden Specklefeidern in den jeweiligen Mustern 2a, 2b der Muster-Sequenz und somit ein Verringern von durch solche Specklefeider hervorgerufene lokale Messungenauigkeiten oder Messpunkt-Lücken erfolgen kann .
Figuren 7 und 9 zeigen ein ähnliches Messsystem 7 wie aus Figur 1 und veranschaulichen dabei ein (unabsichtlich handtremorbedingtes oder - z.B. zu Zwecken des Verdichtens oder Vergrösserns des Messbereichs - absichtliches)
Unruhighalten/Bewegen des Messkopfes 8 während einer Messung. Die anhand der IMU (mit Inertialsensoren 5a) gemessenen Beschleunigungen können dann zum räumlichen Zusammenfügen („Stitchen") der einzelnen aus
unterschiedlichen Handhaltepositionen erfassten
Einzelbilder (als Teil einer oder mehrerer Bild-Sequenzen) verwendet werden.
Zudem kann dabei jedoch auch ein Verwackeln einzelner
Muster-Projektionen 2a, 2b (einer Muster-Sequenz) auf dem Messobjekt 1 und ein Verwackeln einzelner Bildaufnahmen (einer Bild-Sequenz) bewirkt werden, wobei die durch das Verwackeln verursachten Fehler im Bild ebenso
erfindungsgemäss anhand der durch die im Messkopf 8 integrierte IMU gemessenen Beschleunigungen korrigiert oder im Rahmen der 3D-Koordinatenbestimmung kompensiert bzw. berücksichtigt werden können.
Figur 8 stellt ein erfindungsgemässes optisches
Messsystem 7 dar mit am Messobjekt 1 angeordneter IMU (mit Inertialsensoren 5b), wobei das Messobjekt 1 z.B. zur
Vergrösserung des Messbereichs in unterschiedliche
Stellungen gebracht werden kann und - erfindungsgemäss - die in den einzelnen Bildern (der Bild-Sequenz)
aufgenommenen unterschiedlichen Stellen des Messobjekts 1 anhand der IMU-gemessenen Beschleunigungen verknüpft und in räumlichen Bezug miteinander gebracht werden können. Zusätzlich zu der IMU (mit Inertialsensoren 5b) am
Messobjekt 1 kann auch wiederum im Messkopf 8 selbst eine IMU (mit Inertialsensoren 5a) integriert sein. Dadurch können - wie oben beschrieben - zudem auch während der Messung auftretende Bewegungen des Messkopfes 8
erfindungsgemäss beim Bestimmen der Tiefeninformationen und der 3D-Koordinaten mitberücksichtigt werden. Figur 10 zeigt ein erfindungsgemässes optisches
Messsystem 7 in Anwendung in einer Produktionsstrasse, wobei die sich auf Messungen mit dem erfindungsgemässen Messsystem 7 auswirkenden Vibrationen, die von einer benachbarten Produktionsstation übertragen werden, anhand der gemessenen Beschleunigungen kompensiert werden.
Dafür kann erfindungsgemäss - wie z.B. auch in Verbindung mit Figur 8 oben beschrieben - sowohl am Messobjekt 1 als auch integriert in den Messkopf 8 (der hier rein
beispielhaft zwei Kameras aufweist) jeweils eine IMU (mit Inertialsensoren 5a bzw. 5b) angeordnet sein, wodurch ein erfindungsgemässes Kompensieren von Messfehlern, die z.B. durch auf den Roboterarm aus der Messbereichumgebung übertragene Vibrationen und durch Unruhighalten des
Messkopfes 8 bewirkt werden, im Rahmen der Auswertung der Bild-Sequenz und der Ableitung der 3D-Koordinaten erfolgen kann .
Es versteht sich, dass diese dargestellten Figuren nur mögliche Ausführungsbeispiele schematisch darstellen. Die verschiedenen Ansätze können ebenso miteinander sowie mit Verfahren des Stands der Technik kombiniert werden.

Claims

Patentansprüche
1. Optisches Messverfahren zum Bestimmen von 3D-
Koordinaten von einer Vielzahl von Messpunkten einer Messobjekt-Oberfläche (ls),
mit den Schritten
• Beleuchten der Messobjekt-Oberfläche (ls) mit einer Muster-Sequenz aus unterschiedlichen Mustern (2a, 2b) durch einen Projektor (3),
· Aufnehmen einer Bild-Sequenz aus mehreren einzelnen
Bildern von der mit der Muster-Sequenz beleuchteten Messobjekt-Oberfläche (ls) mit einem
Kamerasystem (4), und
• Bestimmen der 3D-Koordinaten der Messpunkte durch
Auswerten der Bild-Sequenz, insbesondere wobei eine
Folge von Helligkeitswerten für identische Messpunkte der Messobjekt-Oberfläche (ls) in den jeweiligen Bildern der Bild-Sequenz ermittelt wird,
dadurch gekennzeichnet, dass
· beim Aufnehmen der Bild-Sequenz zumindest während den
Belichtungszeiten von einzelnen Bildern der Bild- Sequenz translatorische und/oder rotatorische
Beschleunigungen
° des Projektors (3),
° des Kamerasystems (4) und/oder
° des Messobjekts (1)
mit mindestens einer derartigen Messrate gemessen werden, dass während den Belichtungszeiten von den jeweils einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte, insbesondere eine Vielzahl von Werten, für die Beschleunigungen erfasst werden, und
• Verwacklungen und/oder Bewegungsunschärfe in den jeweiligen einzelnen Bildern der Bild-Sequenz provozierende Bewegungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1), die während den Belichtungszeiten der jeweiligen
einzelnen Bildern der Bild-Sequenz auftreten, anhand der gemessenen Beschleunigungen algorithmisch beim Bestimmen der 3D-Koordinaten berücksichtigt werden.
Optisches Messverfahren nach Anspruch 1,
dadurch gekennzeichnet, dass
Beschleunigungen des Projektors (3), des
Kamerasystems (4) bzw. des Messobjekts (1) in allen sechs Freiheitsgraden gemessen werden und das Messen der Beschleunigungen fortlaufend mit einer bestimmten Messrate, insbesondere zwischen etwa 50 und 2000 Hz, erfolgt, im Speziellen während des gesamten Vorgangs des Aufnehmens der Bild-Sequenz.
Optisches Messverfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
in Abhängigkeit von den gemessenen Beschleunigungen ein Kompensieren und/oder Korrigieren von - durch während den Belichtungszeiten der jeweiligen einzelnen Bilder der Bild-Sequenz auftretende Bewegungen des
Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1) bewirkten - Verwacklungen und/oder Bewegungsunschärfen jeweils in den einzelnen Bildern der Bild-Sequenz erfolgt,
im Speziellen wobei die Bewegungen hervorgerufen werden • durch einen den Projektor (3), das Kamerasystem (4) und/oder das Messobjekt (1) handhaltenden Benutzer, insbesondere handtremorbedingt und unabsichtlich, oder • durch Vibrationen oder Schwingungen in den
Halterungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1).
Optisches Messverfahren nach einem der Ansprüche 1 bis 3 ,
dadurch gekennzeichnet, dass
während des gesamten Vorgangs des Aufnehmens der Bild- Sequenz oder mehrerer Bild-Sequenzen die
Beschleunigungen gemessen werden und die durch das Auswerten der einzelnen Bilder bezüglich der SD- Koordinaten der Messpunkte gewonnene Informationen rechnerisch zusammengefügt werden unter Zuhilfenahme der gemessenen Beschleunigungen,
insbesondere wobei während des Vorgangs des Aufnehmens
• zum Vergrössern des Messbereichs auf der Messobjekt- Oberfläche (ls),
• zum Verdichten des Messbereichs und somit zur
Erhöhung der Messpunkte-Dichte auf der Messobjekt- Oberfläche (ls) und/oder
• zum Verändern von im Falle des Beleuchtens mit im
Wesentlichen kohärenter optischer Strahlung ungewollt auftretenden Specklefeidern in den jeweiligen
Mustern (2a, 2b) der Muster-Sequenz und somit zur Verringerung von durch solche Specklefeider
hervorgerufene lokale Messungenauigkeiten oder
Messpunkt-Lücken
das Messobjekt (1), das Kamerasystem (4) und/oder der Projektor (3) bewegt wird,
im Speziellen wobei das zu diesem Zweck erfolgende Bewegen bewirkt wird durch
• einen das Messobjekt (1) bzw. das Kamerasystem (4) handhaltenden Benutzer, und/oder
• eine dafür ausgelegte und vorprogrammiert automatisch oder manuell gesteuerte Halterung - insbesondere ein Roboterarm - für den Projektor (3), das
Kamerasystem (4) und/oder das Messobjekt (1).
Optisches Messverfahren nach Anspruch 4,
dadurch gekennzeichnet, dass
für das rechnerische Zusammenfügen als Startbedingungen aus den gemessenen Beschleunigungen abgeleitete
räumliche Bezüge zwischen den einzelnen aufgenommenen Bilder untereinander hinsichtlich deren
Aufnahmepositionen und -richtungen relativ zum
Messobjekt (1) herangezogen werden, sodass das
rechnerische Zusammenfügen an sich einen - gegenüber einem unter Nichtheranziehung solcher Startbedingungen erfolgenden Verfahren - verringerten rechnerischen Aufwand bedarf.
Optisches Messverfahren nach einem der Ansprüche 1 bis 5 ,
dadurch gekennzeichnet, dass
das Bestimmen der 3D-Koordinaten der Messpunkte
photogrammetrisch nach dem Triangulationsprinzip aus der Bild-Sequenz und unter Kenntnis des in den
jeweiligen Bildern der Bild-Sequenz erfassten Musters der Muster-Sequenz erfolgt, insbesondere vermittels Vorwärtsschnitt .
Optisches Messverfahren nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet, dass
das Beleuchten und das Aufnehmen von relativ zueinander bekannten Positionen aus und mit relativ zueinander bekannten Ausrichtungen erfolgt, insbesondere wobei das Aufnehmen mit mehreren Kameras (4a, 4b, 4c) als Teile des Kamerasystems (4) von unterschiedlichen Positionen aus erfolgt .
8. Optisches Messverfahren nach einem der Ansprüche 1
bis 7 ,
dadurch gekennzeichnet, dass
die Messobjekt-Oberfläche (ls) nacheinander mit
• Streifenmustern unterschiedlichen Feinheitsgrads,
• Pseudocodes und/oder
• Random Patterns
als die unterschiedlichen Muster der Muster-Sequenz beleuchtet wird, insbesondere wobei das Beleuchten mit den einzelnen Mustern (2a, 2b) im Wesentlichen zeitlich direkt aufeinander folgend mit einer Projektionsdauer von etwa zwischen 100 und 300 ms, im Speziellen etwa 200 ms, und das Aufnehmen der Bild-Sequenz mit einer Belichtungsdauer pro Bild von jeweils etwa zwischen 100 und 300 ms, im Speziellen etwa 200 ms, erfolgt.
9. Optisches Messsystem (7) zur Bestimmung von SD- Koordinaten einer Vielzahl von Messpunkten einer
Messobjekt-Oberfläche (ls),
mit
• einem Projektor (3) zur Beleuchtung der Messobjekt- Oberfläche (ls) mit einer Muster-Sequenz aus
unterschiedlichen optischen Mustern (2a, 2b),
• einem Kamerasystem (4) zur Aufnahme einer Bild- Sequenz aus mehreren einzelnen Bildern von der mit der Muster-Sequenz beleuchteten Messobjekt- Oberfläche (ls), und
• einer Auswerteeinheit zur Bestimmung der 3D- Koordinaten der Messpunkte aus der Bild-Sequenz, insbesondere unter Ermittlung einer Folge von
Helligkeitswerten für identische Messpunkte der
Messobjekt-Oberfläche (ls) in den jeweiligen Bildern der Bild-Sequenz,
dadurch gekennzeichnet, dass
• am Projektor (3),
· am Kamerasystem (4) und/oder
• am Messobjekt (1)
Inertialsensoren (5a, 5b) angeordnet sind zur Messung von translatorischen und rotatorischen Beschleunigungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1) mit mindestens einer derartigen
Messrate, dass während den Belichtungszeiten von den jeweiligen einzelnen Bildern der Bild-Sequenz jeweils mehrere Werte, insbesondere eine Vielzahl von Werten, für die Beschleunigungen erfassbar sind, und dass die Auswerteeinheit (6) ausgebildet ist
• zur synchronisierten Steuerung der
Inertialsensoren (5a, 5b) und des Kamerasystems (4) derart, dass beim Aufnehmen der Bild-Sequenz
zumindest während den Belichtungszeiten von einzelnen Bildern der Bild-Sequenz jeweils eine Erfassung von mehreren Werten für die Beschleunigungen erfolgt, und
• zur algorithmischen Berücksichtigung von - Verwacklungen und/oder Bewegungsunschärfe in den jeweiligen einzelnen Bildern der Bild-Sequenz provozierenden - Bewegungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1) anhand der durch die Inertialsensoren (5a, 5b) gemessen
Beschleunigungen für die Bestimmung der SD- Koordinaten . 10. Optisches Messsystem (7) nach Anspruch 9,
dadurch gekennzeichnet, dass
die Inertialsensoren (5a, 5b) in einer - insbesondere auf MEMS-basierten Komponenten beruhenden - inertialen Messeinheit derart kombiniert und integriert sind, dass die inertiale Messeinheit zur Messung der
Beschleunigungen in allen sechs Freiheitsgraden
ausgebildet ist, insbesondere mit einer Messrate von etwa 50 bis 2000 Hz. 11. Optisches Messsystem (7) nach Anspruch 9 oder 10,
dadurch gekennzeichnet, dass
die Auswerteeinheit (6) derart ausgebildet ist, dass in Abhängigkeit von den gemessenen Beschleunigungen eine Kompensation und/oder Korrektur von - durch während den Belichtungszeiten der jeweiligen einzelnen Bilder der
Bild-Sequenz auftretende Bewegungen des Projektors (3), des Kamerasystems (4) und/oder des Messobjekts (1) bewirkten - Verwacklungen und/oder Bewegungsunschärfen jeweils in den einzelnen Bildern der Bild-Sequenz erfolgt.
12. Optisches Messsystem (7) nach einem der Ansprüche 9 bis 11,
dadurch gekennzeichnet, dass
dass der Projektor (3) und das Kamerasystem (4) mit fixer und bekannter Positionierung und Orientierung relativ zueinander körperlich in einem gemeinsamen Messkopf (8) des Messsystems untergebracht sind, in dem auch die Inertialsensoren (5a, 5b) angeordnet sind, insbesondere wobei der Messkopf (8) handhaltbar
und/oder zum Anbringen an einen Roboterarm ausgebildet ist .
13. Optisches Messsystem (7) nach einem der Ansprüche 9 bis 12,
dadurch gekennzeichnet, dass
das Kamerasystem (4) zumindest eine Kamera (4a, 4b, 4c) aufweist, insbesondere wobei das Kamerasystem (4) zwei, drei oder vier Kameras (4a, 4b, 4c) beinhaltet, die mit fixer und bekannter Positionierung und Orientierung relativ zueinander angeordnet sind und zur im
Wesentlichen simultan erfolgenden Aufnahme von
Einzelbildern ausgebildet sind.
14. Optisches Messsystem (7) nach einem der Ansprüche 9 bis 13,
dadurch gekennzeichnet, dass
dieses zur Durchführung des optischen Messverfahrens nach einem der Ansprüche 1 bis 8 ausgebildet und ausgelegt ist.
PCT/EP2011/059641 2010-06-21 2011-06-09 Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche WO2011160962A1 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CA2801595A CA2801595C (en) 2010-06-21 2011-06-09 Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
EP11724425.1A EP2583055B1 (de) 2010-06-21 2011-06-09 Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
JP2013515812A JP5680196B2 (ja) 2010-06-21 2011-06-09 測定対象物表面上の三次元座標を求めるための光学式測定方法および測定システム
BR112012032875A BR112012032875B1 (pt) 2010-06-21 2011-06-09 método e sistema de medição óptica para determinar as coordenadas em 3d de uma multiplicidade de pontos de medição
KR1020137000016A KR101458991B1 (ko) 2010-06-21 2011-06-09 측정 대상 표면에 대한 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템
US13/702,259 US9683837B2 (en) 2010-06-21 2011-06-09 Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface
CN201180030261.2A CN102947670B (zh) 2010-06-21 2011-06-09 用于确定测量对象表面上的3d坐标的光学测量方法和测量系统
AU2011269189A AU2011269189B2 (en) 2010-06-21 2011-06-09 Optical measurement method and measurement system for determining 3D coordinates on a measurement object surface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP10166672A EP2400261A1 (de) 2010-06-21 2010-06-21 Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
EP10166672.5 2010-06-21

Publications (1)

Publication Number Publication Date
WO2011160962A1 true WO2011160962A1 (de) 2011-12-29

Family

ID=42697642

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/059641 WO2011160962A1 (de) 2010-06-21 2011-06-09 Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche

Country Status (9)

Country Link
US (1) US9683837B2 (de)
EP (2) EP2400261A1 (de)
JP (1) JP5680196B2 (de)
KR (1) KR101458991B1 (de)
CN (1) CN102947670B (de)
AU (1) AU2011269189B2 (de)
BR (1) BR112012032875B1 (de)
CA (1) CA2801595C (de)
WO (1) WO2011160962A1 (de)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130271573A1 (en) * 2011-09-30 2013-10-17 Steinbichler Optotechnik Gmbh Method and apparatus for determining the 3d coordinates of an object
DE102012112321A1 (de) * 2012-12-14 2014-07-03 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8970823B2 (en) 2012-12-14 2015-03-03 Faro Technologies, Inc. Device for optically scanning and measuring an environment
JP2015523574A (ja) * 2012-07-15 2015-08-13 エイト ツリー リミテッド ライアビリティー カンパニー8 tree LLC 計測されている表面上にデータが表示される携帯型三次元測定
US9217637B2 (en) 2012-12-14 2015-12-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
DE102014216390A1 (de) * 2014-08-19 2016-02-25 Siemens Aktiengesellschaft Projektor
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US9967545B2 (en) 2011-04-15 2018-05-08 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
US10119805B2 (en) 2011-04-15 2018-11-06 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
KR20180126475A (ko) * 2016-04-08 2018-11-27 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 다중 측량 모드의 3차원 측량 시스템 및 측량방법
US10267619B2 (en) 2011-04-15 2019-04-23 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US10302413B2 (en) 2011-04-15 2019-05-28 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote sensor

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006031580A1 (de) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8630314B2 (en) 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8898919B2 (en) 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US8677643B2 (en) 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8875409B2 (en) 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
GB2489651B (en) 2010-01-20 2015-01-28 Faro Tech Inc Coordinate measurement machines with removable accessories
US8638446B2 (en) 2010-01-20 2014-01-28 Faro Technologies, Inc. Laser scanner or laser tracker having a projector
US8276286B2 (en) 2010-01-20 2012-10-02 Faro Technologies, Inc. Display for coordinate measuring machine
US8615893B2 (en) 2010-01-20 2013-12-31 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine having integrated software controls
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US8607536B2 (en) 2011-01-14 2013-12-17 Faro Technologies, Inc. Case for a device
GB2518769A (en) 2011-03-03 2015-04-01 Faro Tech Inc Target apparatus and method
EP2511656A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
EP2511659A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Geodätisches Markierungssystem zur Markierung von Zielpunkten
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
EP2527784A1 (de) 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US8922647B2 (en) * 2011-08-03 2014-12-30 The Boeing Company Projection aided feature measurement using uncalibrated camera
US8934010B2 (en) * 2011-11-21 2015-01-13 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method for smear measurement of display device and device for smear measurement of display device
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
JP6099675B2 (ja) 2012-01-27 2017-03-22 ファロ テクノロジーズ インコーポレーテッド バーコード識別による検査方法
DE102012100953B4 (de) * 2012-02-06 2020-01-09 A.Tron3D Gmbh Vorrichtung zum Erfassen der dreidimensionalen Geometrie von Objekten und Verfahren zum Betreiben derselben
JP2013234951A (ja) * 2012-05-10 2013-11-21 Mitsutoyo Corp 三次元測定装置
JP5816773B2 (ja) * 2012-06-07 2015-11-18 ファロ テクノロジーズ インコーポレーテッド 取り外し可能なアクセサリーを備える座標測定マシン
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
ES2683364T3 (es) * 2012-11-07 2018-09-26 Artec Europe S.A.R.L. Método para monitorizar dimensiones lineales de objetos tridimensionales
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9405972B2 (en) 2013-09-27 2016-08-02 Qualcomm Incorporated Exterior hybrid photo mapping
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
FR3021784B1 (fr) * 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
RU2573053C1 (ru) * 2014-09-10 2016-01-20 Самсунг Электроникс Ко., Лтд. Лазерные спекл-интерферометрические системы и способы для мобильных устройств
DE102014019053A1 (de) * 2014-12-18 2016-06-23 Testo Ag Verfahren und Vorrichtung zur Bestimmung einer Abmessung eines Objektes
WO2016106196A1 (en) * 2014-12-22 2016-06-30 Cyberoptics Corporation Updating calibration of a three-dimensional measurement system
JP6101944B2 (ja) * 2014-12-25 2017-03-29 パナソニックIpマネジメント株式会社 投影装置
JP6168577B2 (ja) 2014-12-31 2017-07-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd マイクロレンズアレイを有する画像化システムの基準線を調節するシステムおよび方法
CN107251538A (zh) * 2015-02-02 2017-10-13 Ocr系统株式会社 光学终端装置及扫描程序
DE102015204474B4 (de) * 2015-03-12 2016-10-13 Hans-Günter Vosseler Vorrichtung und Verfahren zum berührungslosen dreidimensionalen Vermessen von Bauteilen
USD754130S1 (en) * 2015-03-19 2016-04-19 Faro Technologies, Inc. Optical scanner
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
KR101687307B1 (ko) * 2015-12-29 2016-12-16 인천대학교 산학협력단 프로젝터-투사면-카메라 기반 무선 디지털 광통신 방법
DE102016002398B4 (de) 2016-02-26 2019-04-25 Gerd Häusler Optischer 3D-Sensor zur schnellen und dichten Formerfassung
CN109791044B (zh) 2016-06-20 2021-03-16 康耐视公司 用于在已知运动的情况下对运动的对象进行三维测量的方法
US10659764B2 (en) * 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
CN109496265B (zh) * 2016-06-20 2023-04-28 康耐视公司 用于在使用时间编码的图案目标的情况下校准由至少一个传感器相机构成的图像采集传感器的方法
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
US11060853B2 (en) 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
CN106403845B (zh) * 2016-09-14 2017-10-03 杭州思看科技有限公司 三维传感器系统及三维数据获取方法
ES2857587T3 (es) * 2017-02-27 2021-09-29 Kulzer & Co Gmbh Escáner 3D con sensor giroscópico
CN107202554B (zh) * 2017-07-06 2018-07-06 杭州思看科技有限公司 同时具备摄影测量和三维扫描功能的手持式大尺度三维测量扫描仪系统
DE102017222708A1 (de) * 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D-Umfelderfassung mittels Projektor und Kameramodulen
WO2019116401A1 (en) * 2017-12-15 2019-06-20 Camoga S.P.A. Three-dimensional mapping machine for leather or similar material covered objects
KR102068309B1 (ko) * 2017-12-26 2020-01-20 경북대학교 산학협력단 3차원 스캐닝 장치 및 3차원 스캐닝 방법
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7124424B2 (ja) * 2018-05-02 2022-08-24 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
US10477180B1 (en) * 2018-05-22 2019-11-12 Faro Technologies, Inc. Photogrammetry system and method of operation
KR20200005332A (ko) 2018-07-06 2020-01-15 삼성전자주식회사 캘리브레이션 장치 및 그것의 동작 방법
JP7346775B2 (ja) * 2018-12-25 2023-09-20 株式会社Xtia 光学測定機器及びそのデータ生成方法
JP7206127B2 (ja) * 2019-02-20 2023-01-17 株式会社Ihiエアロスペース 画像センサの情報補正方法及び移動体
DE102019110508A1 (de) * 2019-04-23 2020-10-29 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zum Steuern eines Koordinatenmessgerätes und Koordinatenmessgerät
CN112348948B (zh) * 2019-08-08 2024-04-30 中国石油天然气股份有限公司 三维地质模型的构建方法、装置及存储介质
TWI714221B (zh) * 2019-08-19 2020-12-21 國立中央大學 基於穿透式光線的抖動辨識方法及其系統
TWI721533B (zh) * 2019-08-19 2021-03-11 國立中央大學 抖動辨識方法及其系統
WO2021038276A1 (en) 2019-08-28 2021-03-04 Elasizer S.R.L. Method and system for an automatic selection of items of equipment
CN114585875A (zh) * 2019-10-11 2022-06-03 莱卡地球系统公开股份有限公司 计量系统
US11132804B2 (en) * 2020-01-07 2021-09-28 Himax Technologies Limited Hybrid depth estimation system
CN111383332B (zh) * 2020-03-26 2023-10-13 深圳市菲森科技有限公司 一种三维扫描和重建系统、计算机设备和可读存储介质
CN111409109B (zh) * 2020-04-01 2022-11-04 伯朗特机器人股份有限公司 工业机器人稳定性的测量和评估方法
CN113011206A (zh) * 2021-02-25 2021-06-22 先临三维科技股份有限公司 手持扫描仪及其扫描方法
CN114485479B (zh) * 2022-01-17 2022-12-30 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统
CN115002429B (zh) * 2022-05-07 2023-03-24 深圳市和天创科技有限公司 一种基于摄像头计算自动校准投影位置的投影仪

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19633686A1 (de) 1996-08-12 1998-02-19 Fraunhofer Ges Forschung Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
US20020041282A1 (en) * 2000-08-08 2002-04-11 Ricoh Company, Ltd. Shape measurement system
DE10127304A1 (de) 2001-06-06 2002-12-19 Univ Braunschweig Tech Carolo Wilhelmina Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
WO2008046663A2 (de) 2006-10-16 2008-04-24 Fraunhofer Gesellschaft Zur Förderung Der Angewandten Forschung E. V. Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur
EP2026034A2 (de) * 2007-08-16 2009-02-18 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
EP2071279A1 (de) * 2007-12-12 2009-06-17 NextSense Mess- und Prüfsysteme GmbH Verfahren und Vorrichtung zur Erfassung von Körpermaßdaten und Konturdaten eines Festkörpers
DE102008036710A1 (de) 2008-08-07 2010-02-11 GOM - Gesellschaft für Optische Meßtechnik mbH Messsystem und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP2166303A1 (de) * 2008-09-18 2010-03-24 Steinbichler Optotechnik GmbH Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts insbesondere eines Zahns

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
DE19942900B4 (de) * 1998-09-08 2004-01-22 Ricoh Company, Ltd. Vorrichtung zur Korrektur von Bildfehlern, die durch ein Kameraverwackeln hervorgerufen werden
EP1606576A4 (de) 2003-03-24 2006-11-22 D3D L P Laserdigitalisierersystem für zahnmedizinische anwendungen
JP4480488B2 (ja) 2003-08-28 2010-06-16 富士通株式会社 計測装置、コンピュータ数値制御装置及びプログラム
US8239162B2 (en) * 2006-04-13 2012-08-07 Tanenhaus & Associates, Inc. Miniaturized inertial measurement unit and associated methods
JP4800163B2 (ja) * 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
DE102007060263A1 (de) 2007-08-16 2009-02-26 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
PL2438397T3 (pl) * 2009-06-01 2019-05-31 Dentsply Sirona Inc Sposób i urządzenie do trójwymiarowej detekcji powierzchni z dynamiczną ramką odniesienia
CN101697233B (zh) 2009-10-16 2012-06-06 长春理工大学 一种基于结构光的三维物体表面重建方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19633686A1 (de) 1996-08-12 1998-02-19 Fraunhofer Ges Forschung Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
US20020041282A1 (en) * 2000-08-08 2002-04-11 Ricoh Company, Ltd. Shape measurement system
DE10127304A1 (de) 2001-06-06 2002-12-19 Univ Braunschweig Tech Carolo Wilhelmina Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
WO2008046663A2 (de) 2006-10-16 2008-04-24 Fraunhofer Gesellschaft Zur Förderung Der Angewandten Forschung E. V. Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur
EP2026034A2 (de) * 2007-08-16 2009-02-18 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
EP2071279A1 (de) * 2007-12-12 2009-06-17 NextSense Mess- und Prüfsysteme GmbH Verfahren und Vorrichtung zur Erfassung von Körpermaßdaten und Konturdaten eines Festkörpers
DE102008036710A1 (de) 2008-08-07 2010-02-11 GOM - Gesellschaft für Optische Meßtechnik mbH Messsystem und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP2166303A1 (de) * 2008-09-18 2010-03-24 Steinbichler Optotechnik GmbH Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts insbesondere eines Zahns

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10209059B2 (en) 2010-04-21 2019-02-19 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9885771B2 (en) 2010-04-21 2018-02-06 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US10480929B2 (en) 2010-04-21 2019-11-19 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9885559B2 (en) 2010-04-21 2018-02-06 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US10578423B2 (en) 2011-04-15 2020-03-03 Faro Technologies, Inc. Diagnosing multipath interference and eliminating multipath interference in 3D scanners using projection patterns
US10302413B2 (en) 2011-04-15 2019-05-28 Faro Technologies, Inc. Six degree-of-freedom laser tracker that cooperates with a remote sensor
US10267619B2 (en) 2011-04-15 2019-04-23 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9967545B2 (en) 2011-04-15 2018-05-08 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
US10119805B2 (en) 2011-04-15 2018-11-06 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US20130271573A1 (en) * 2011-09-30 2013-10-17 Steinbichler Optotechnik Gmbh Method and apparatus for determining the 3d coordinates of an object
US10200670B2 (en) * 2011-09-30 2019-02-05 Carl Zeiss Optotechnik GmbH Method and apparatus for determining the 3D coordinates of an object
JP2015523574A (ja) * 2012-07-15 2015-08-13 エイト ツリー リミテッド ライアビリティー カンパニー8 tree LLC 計測されている表面上にデータが表示される携帯型三次元測定
US9217637B2 (en) 2012-12-14 2015-12-22 Faro Technologies, Inc. Device for optically scanning and measuring an environment
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8970823B2 (en) 2012-12-14 2015-03-03 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9858682B2 (en) 2012-12-14 2018-01-02 Faro Technologies, Inc. Device for optically scanning and measuring an environment
US9599455B2 (en) 2012-12-14 2017-03-21 Faro Technologies, Inc. Device for optically scanning and measuring an environment
DE102012112321A1 (de) * 2012-12-14 2014-07-03 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102014216390A1 (de) * 2014-08-19 2016-02-25 Siemens Aktiengesellschaft Projektor
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
US10444009B2 (en) 2015-04-24 2019-10-15 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US11262194B2 (en) 2015-04-24 2022-03-01 Faro Technologies, Inc. Triangulation scanner with blue-light projector
US10866089B2 (en) 2015-04-24 2020-12-15 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
KR20180126475A (ko) * 2016-04-08 2018-11-27 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 다중 측량 모드의 3차원 측량 시스템 및 측량방법
KR102207725B1 (ko) 2016-04-08 2021-01-26 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 다중 측량 모드의 3차원 측량 시스템 및 측량방법

Also Published As

Publication number Publication date
EP2583055B1 (de) 2020-09-23
JP5680196B2 (ja) 2015-03-04
CN102947670A (zh) 2013-02-27
US20130100282A1 (en) 2013-04-25
CA2801595C (en) 2015-10-27
KR101458991B1 (ko) 2014-11-12
CA2801595A1 (en) 2011-12-29
BR112012032875B1 (pt) 2020-02-04
CN102947670B (zh) 2015-11-25
AU2011269189B2 (en) 2013-09-26
KR20130032351A (ko) 2013-04-01
EP2400261A1 (de) 2011-12-28
EP2583055A1 (de) 2013-04-24
BR112012032875A2 (pt) 2016-11-08
JP2013531237A (ja) 2013-08-01
US9683837B2 (en) 2017-06-20
AU2011269189A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
EP2583055B1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
EP2710331B1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE69831181T2 (de) Positionsbestimmung
DE69628956T2 (de) Abtastvorrichtung und -verfahren
DE102007054906B4 (de) Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE102011114674C5 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112013002824T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102006042311B4 (de) Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
EP3104330B1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
EP4020973A1 (de) Hintergrund-wiedergabeeinrichtung, hintergrundwiedergabesystem, aufnahmesystem, kamerasystem, digitale kamera und verfahren zum steuern einer hintergrund-wiedergabeeinrichtung
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE102004058655A1 (de) Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes
DE102011082280A1 (de) Bildmessvorrichtung und Bildmessverfahren
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180030261.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11724425

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2011724425

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 9480/DELNP/2012

Country of ref document: IN

ENP Entry into the national phase

Ref document number: 2011269189

Country of ref document: AU

Date of ref document: 20110609

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2801595

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13702259

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013515812

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20137000016

Country of ref document: KR

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012032875

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012032875

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20121221