EP3080551A1 - Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung - Google Patents

Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung

Info

Publication number
EP3080551A1
EP3080551A1 EP13817652.4A EP13817652A EP3080551A1 EP 3080551 A1 EP3080551 A1 EP 3080551A1 EP 13817652 A EP13817652 A EP 13817652A EP 3080551 A1 EP3080551 A1 EP 3080551A1
Authority
EP
European Patent Office
Prior art keywords
projection
proj
measuring device
model
projection means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP13817652.4A
Other languages
English (en)
French (fr)
Inventor
Patrick Zahn
Martin Stratmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Testo SE and Co KGaA
Original Assignee
Testo SE and Co KGaA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Testo SE and Co KGaA filed Critical Testo SE and Co KGaA
Publication of EP3080551A1 publication Critical patent/EP3080551A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Definitions

  • the invention relates to a method for the correct projection of a marking on an object.
  • the invention further relates to a projection device with a recording and / or measuring device and a projection means, wherein the projection means is coupled to the recording and / or measuring device such that a spatial orientation of the recording and / or measuring device defined spatial orientation of the project agent or; can be specified.
  • a projection device is known, with which a measurement result of an object obtainable, can be converted into a false color representation and projected back to the object as a false color representation.
  • a spatially correct projection of the false color representation is achieved by the projection being adjusted to the recording optics.
  • the present invention further proceeds from a method with corresponding apparatus according to DE 10 2013 009 288.4, according to which a 3D model with associated scaling of the model is calculated from an examined object by taking a sequence or sequence of two-dimensional images of the object, from which an unscaled 3D model is calculated, whereby by measuring a distance a scaling of the 3D model was made.
  • a projection Information on the object is not provided.
  • Another starting point of the invention is a method according to DE 10 2009 050 474 AI, in which associated with a recorded thermal image metadata are spatially associated with the display.
  • the invention is based on the object of specifying a method for the correct projection of a marking on an object.
  • the model can be present in two-dimensional form as a 2D model. This variant may be useful, for example, if the object has a planar shape, which may be the case, for example, in a room wall.
  • the model can also be present as a 3D model with three-dimensional position information. This is particularly advantageous if the object has a spatial structure or, in general, a complex structure.
  • the method according to the invention can provide that the 2D or 3D model is automatically created, for example, using distance measurements.
  • the setting of the projection means according to the invention can in this case be effected, for example, by aligning the projection means such that the projection direction yields a positionally correct projection.
  • the adjustment of the projecting means according to the invention can be effected by means of the projection means, for example by controlling a projection matrix or a projection mask or at least one adjustable mirror; for example, a micromirror which can be pivoted in one or two directions in order to obtain the correct projection of the marking.
  • the at least one pivotable micromirror can be embodied, for example, in MEMS technology.
  • the above steps may be performed in the order listed or in any other order that is logically possible. lent is to be executed. However, the order given by the enumeration of the individual steps is the preferred embodiment.
  • the projection pose serves to describe the position and orientation of the proj ekomsstoffs in a conventional manner.
  • the invention makes it possible to project a given mark in a 2D or 3D model of an object onto the object in such a way that the impact of the mark on the object coincides with the position of this mark in the 2D or SD model.
  • the Proj edictionspose of the projection means is in this case computer-aided in a conventional manner for given perspective and geometric laws determined by the recorded with the recording and / or measuring device measurement result, such as an image or a three-dimensional representation of the object, with the 2D or 3D model is compared, for example, by deriving from the 2D or 3D model on the assumption of a certain propj etechnischspose a corre sponding, simulated measurement result.
  • the actual projection pose is then that for which a match of the derived simulated measurement result with the actually obtained measurement result.
  • the setting of the proj etechnischsmittels can be done for example by a method, pivoting or tilting or twisting of the projection means or by moving parts of the projection means such as mirrors and the like.
  • the marker can be specified as a point, line, circle, area or other simple or more complex geometric shape in the 2D or 3D model.
  • wiring diagrams or pipe plans are located correctly on objects where these plans are realized or implemented to be, projectable.
  • desired distance dimensions with respect to features of the object can also be deducted in this way by the spatially correct projection on the object. Because the right-angled projection also produces a true-to-scale representation of desired lines, circles or other patterns.
  • the invention for measuring the spatial position and / or orientation, at least one distance of a projection device having the projection means to the object is measured.
  • the advantage here is that information about the distance and thus the actual size of the examined object can be obtained, for example, for a scaling of the 2D or 3D model. This is especially true then; favorable if there is no absolute size information about the 3D model.
  • a three-dimensional representation of the object is calculated from a, for example the already mentioned, at least one distance of a projection device having the projecting means to the object and / or from a sequence of recorded images of the object and to the 2D or 3D Model is compared.
  • a three-dimensional representation of the object is calculated and compared with the 2D or 3D model for measuring the spatial position from a sequence of recorded images of the object: This can be done, for example, by solving a system of equations comprising different positions recorded images of the sequence as projections of the object describes done.
  • the images are taken with a camera described below from different recording angles.
  • information about the projected pose can be obtained directly by a spatial position by comparing the shapes of the 2D or 3D model on the one hand and the three-dimensional representation of the distance measurements and / or the sequence of images on the other and orientation of the object with respect to the projection device and thus, conversely, a spatial position and orientation of the projection device with known geometrical laws of spatial geometry can be calculated.
  • the three-dimensional representation was obtained from a plurality of distance measurements, for example by a scan of the object in the manner described. The scanning process may be performed by a line or column scan or by projection of different patterns and evaluation of the distorted by a surface of the object pattern or done in another way.
  • At least one feature of the object is detected for measuring the spatial position and / or orientation of the object.
  • the at least one feature may, for example, be an edge, a corner, a point, a line and / or another marking.
  • the detection can be done by scanning.
  • feature descriptors exist that can be used to capture or scan the object. It is well known to use descriptors for two-dimensional corners, that is, corners in a plane, and for three-dimensional corners, that is, corners in the space. These descriptors can be used here.
  • the advantage here is that characteristic features of the object are extractable, which are easily findable or identifiable in the 2D or 3D model.
  • the projecting pose can be determined with little technical effort.
  • an image of the object is taken to measure the spatial position and / or orientation.
  • the advantage here is that the recorded image is comparable to an image derived from the 2D or 3D model.
  • the 2D or 3D model can be rotated and / or moved until the derived image matches the captured image. From the parameters of the rotation or displacement of the object is then the ejunction pose calculable and is calculated in one embodiment.
  • the projection pose in the 2D or 3D Model is defined at least one feature as alignment aid and that the at least one feature is identified by feature analysis in the measurement result.
  • the advantage here is that in a simple way correspondences between the 2D or 3D model and the measurement result of the object are obtainable, from which a proj etechnischspose can be calculated.
  • edges, corners, points, textures, color and / or brightness values, color and / or brightness differences or other features known from image processing can be used as features. It is particularly favorable when the measurement result is in the form of a recorded image.
  • the measurement result is provided as a three-dimensional representation of the object, for example by the previously described stand-still measurement or recognition of a reference object or scale.
  • a reference object may be an applied object or a marker or a recognized existing object of known or specified size.
  • such a feature may describe a distinctive shape of the object.
  • the invention thus makes it possible to easily project markings in the desired relative position, for example at a desired distance and / or a desired orientation, onto the object.
  • such features may be used to identify edges of doors in a wall, the location of room corners, floor and ceiling.
  • reference points, surfaces and space structures are given, to which oversizes can be related.
  • the spatially correct projection according to the invention enables a true-to-scale marking.
  • the proposition pose can be determined by taking a position of a Plane defined by the 2D model. This may be done, for example, by evaluating a line and a point, two lines, three points, a spatially extended marker, or otherwise to measure or generally determine an inclination or orientation of the object described by the 2D model determine.
  • the projection pose being calculated from parameters of the transformation.
  • the relative transformation parameters may be assigned different poses which describe the transformation in question as perspective distortion to the pose.
  • the projection pose can thus be derived directly from the parameters. In this case, only the recorded image or the three-dimensional representation or only the 2D or 3D model or a two-dimensional image derived therefrom or both can be transformed.
  • a control of the projecting means from the projecting pose is computer-controlled.
  • the advantage here is that the adjustment of the proj ectionsffens fully automated computer-aided feasible.
  • the projection means is attached to a projection device which is spatially fixed is placed, for example on a tripod or the like.
  • the projection means can be aligned by pivoting, tilting or shifting or in some other way for the correct projection.
  • the projecting agent can be set up by means of internal or external manipulation, for example by controlling a projection mask or a projection matrix, for the positionally correct projection.
  • a computer-aided check is made repeatedly as to whether the projection means is oriented to the positionally correct projection.
  • the advantage here is that the pivoting movement of the proj ekomsmittels is manually executable. This can be done, for example, by continuously taking pictures of the object to be examined. By evaluating a sequence of recorded images, the pivotal movement between the images can be calculated in a manner known per se if the object does not change or changes only insignificantly between the images.
  • Motion detection unit available.
  • an acoustic signal and / or an optical signal is generated in order to indicate to the user that a projection pose has now been reached, in which the projection of the desired at least one marking can be carried out with the correct location.
  • a locally correct projection is understood to mean a projection which impinges on the object at the point which is recorded in the 2D or 3D model as the localization of the predetermined at least one marking.
  • a spatial position and / or orientation of the projection means is measured with a sensor, in particular with an acceleration sensor, a gravity field sensor, a position sensor or an inertial sensor.
  • This position and / or orientation is preferably defined with respect to a gravitational field, for example the gravitational field of the earth.
  • the advantage here is that spatial information such as horizontally and / or vertically available to be able to simply characterize, for example, the location and / or orientation of the predetermined at least one marker.
  • a line in a 360 ° angle or a full circle or a text thereof can be marked by a proper projection.
  • markings for example lines, with respect to objects or parts of them can be imaged by a location-correct projection
  • the recording and / or measuring device is set up to carry out a measurement of a spatial position and / or orientation of an object, in that a computing unit for the computer-aided determination of a projecting pose of the projecting means with respect to the measured spatial position and / or orientation of the object by comparison of a Measurement result of the measurement with a stored 2D or 3D model of the object is set up and that the proj etechnischsvortechnisch for
  • the arithmetic unit is set up for computer-aided calculation of an activation of the projection means for a spatially correct projection of the at least one marking on the object.
  • the advantage in this case is that a fully-automatic, locally correct projection can be carried out by the projection means being aligned accordingly and / or by, for example, filling a projection mask of the projection means in accordance with the device of the projection means.
  • a drive unit for computer-assisted control of the proj etechnischsmittels is arranged for the location-correct projection of at least one mark on the object.
  • the advantage here is that a manual intervention in the proj etechnischsvorgang is not required.
  • the proj edictionsmittel has an adjusting device, which is set up to adjust the projection means relative to the receiving and / or measuring device.
  • a defined relative orientation of the projection means relative to the recording and / or measuring device is adjustable, so that by the spatial orientation of the recording and / or measuring device a defined spatial orientation of the projecting agent, namely, the predetermined by the relative orientation absolute orientation, can be specified.
  • the projection means can be controlled by computer in order to project the desired at least one marking, for example a point, a line or a more complex pattern such as a circuit and / or wiring diagram of a building wall or other object onto the object ,
  • the projecting agent is rigidly coupled to the receiving and / or measuring device.
  • the advantage here is that a pose of the recording and / or measuring device is directly ejektpose in the projected pose.
  • the recording and / or measuring device has a camera up.
  • images of the object to be examined are receivable, from which, for example in the manner described on features and / or perspective laws of the imaging process, a camera pose and A project pose can be calculated via the mentioned coupling.
  • the receiving and / or measuring device has a distance measuring device.
  • the advantage here is that distances between the object to be examined and the recording and / or measuring device and thus distances to the proj ekomsstoff are measurable.
  • the distance measuring device is designed as a distance scanner in order to be able to measure a multiplicity of distances to different points of the object.
  • the proj edictionsmittel has a laser pointer.
  • the advantage here is that punctiform markings are easy to project.
  • Another advantage is that more complex markings such as line systems and the like can be projected by a control of the laser pointer, for example by pivoting or 'other adjustment by means of an adjusting device.
  • the projection means has at least one pivotable mirror.
  • the advantage here is that a pivoting of the projection means itself is not required. With appropriate design of the mirror so quick switching operations are executable to project a complex line pattern for the viewer, which is composed of individual points and / or lines.
  • the projection means is set up to project a two-dimensional pattern.
  • this can be a corresponding Proj etechnischsmaske or proj emiesmatrix be provided, which is controlled according to the mark to be projected and is controlled. By this control, the projection means is set.
  • the advantage here is that a large number of information and thus a large number of different markings of any shape can be displayed simultaneously.
  • the recording and / or measuring device is designed integrated into the projection means.
  • the advantage here is that a space-saving robust Proj etechnischsvorraum is provided.
  • the projection means can be set up as laser pointer and the recording and / or measuring device as laser-supported distance measuring device.
  • a sensor in particular an acceleration sensor or a gravity field sensor, is designed to measure a spatial position and / or orientation of the projection means.
  • Other sensors can also be advantageously used, for example yaw rate sensors or other inertial sensors.
  • the advantage here is that the position and the course of a horizontal and / or vertical line is easily determinable. This is favorable, for example, in construction, where dimensions or positions often have to be imparted via a horizontal and / or a vertical connecting line.
  • lines in the projection can be displayed, which extend in relation to the at least one marking or to a reference point on the object in the horizontal direction or in the vertical direction, for example at a predetermined distance from the at least one marking or the reference point.
  • the arithmetic unit for a computer-aided transformation of a recorded image for example the already mentioned recorded image, and / or a three-dimensional representation of the object, for example the mentioned three-dimensional representation of the object, on the one hand and the 2D
  • computer-assisted or 3D model on the other hand until a registration is reached, is set up. It is advantageous in this case that a projection pose of the projection means can be calculated from parameters of the transformation required for registration with simple geometrical laws.
  • the arithmetic unit is set up to calculate a three-dimensional representation of the object from measurement results of the recording and / or measuring device.
  • the advantage here is that a three-dimensional representation can be obtained that can be processed directly with the 2D or 3D model. Replicas of the recording and / or measuring process are dispensable.
  • the three-dimensional representation of the object can be calculated, for example, from recorded images and / or from at least one measured distance, preferably in the manner already described.
  • the projection device has means for carrying out the method according to the invention, in particular the method described above and / or in one of the claims directed to a method.
  • the advantage here is that the advantages of a method according to the invention with the advantages of a erfindungsge- ze touch Proj tion device can be combined.
  • the proj edictionsvorraum is designed as a handheld device.
  • FIG. 2 shows the positionally correct projection of a marking with the projection device according to the invention according to FIG. 1,
  • FIG. 3 shows a further projection device according to the invention with adjustable projection means
  • FIG. 4 shows a further projection device according to the invention with an adjustable mirror
  • FIG. 5 shows a further projection device according to the invention with a display device connected wirelessly
  • FIG. 6 shows the orthogonal projection in the case of the invention In accordance with the method according to the invention with a projection device according to the invention according to FIG. 5, a first step of another
  • FIG. 8 shows a second step of the exemplary embodiment according to FIG. 7,
  • FIG. 9 the locally correct projection of at least one marking in the method according to FIG. 7 and FIG. 8 and FIG. 10 an enlarged representation of the detail K of FIG.
  • Figure 1 shows a greatly simplified schematic representation of a generally designated 1 according to the invention Proj edictionsvorraum.
  • the proj edictionsvorraum 1 has: a recording and / or measuring device 2, which is adapted to perform a measurement of a spatial position and / or orientation of an object 3, as will be described in more detail below.
  • the projection apparatus 1 further has a projecting means 4 with which any marks, such as dots, lines, circles or other geometric shapes or other more complex patterns, can be projected onto the object 3.
  • the recording and / or measuring device 2 and the proj ection means 4 are fixedly connected to each other and thus rigidly coupled, so that a defined spatial orientation of the proj etechnischsmittels 4 is given by the spatial orientation of the recording and / or measuring device.
  • a computing unit 5 is arranged, with which measurement results of the recording and / or measuring device 2 can be evaluated.
  • the arithmetic unit 5 is set up by programming so that from the measured spatial position and orientation of the object 3, a projecting pose of the projection means 4 coupled to the recording and / or measuring device 2 can be calculated.
  • the projection means 4 generates a laser beam 7, which is directed to the obj ect 3 to measure with the distance measuring device 6 a distance.
  • the projecting means 4 is thus switchable between a projection mode and a distance measuring mode.
  • the recording and / or measuring device 2 further has a camera 8, with which an image of the object 3 can be received.
  • the recording and / or measuring device 2 is mounted rotatably and / or pivotably on a stand 9 and can be tilted or pivoted by means of a handle 10 at least in the directions indicated by the arrows. As a result, the laser beam 7 over the object 3.
  • the arithmetic unit 5 can detect a pivoting movement of the recording and / or measuring device 2 and thus of the distance measuring device 6.
  • the arithmetic unit 5 forms a motion detection unit 25 with the camera 8.
  • the detection of the pivoting or tilting angle of the projection means 4 with the arithmetic unit 5 thus results in an angle-dependent distance information, from which a three-dimensional representation of the object, for example by displaying the essential shapes of the object 3, can be calculated in the arithmetic unit 5.
  • a 3D model 13 (see FIG. 7, but here in the form of a cube corresponding to the object shown : 3) is deposited in a memory means 12 in the interior of the projection apparatus 1.
  • a 2D model is deposited, which describes a sheet-like object.
  • the computing unit 5 compares the 3D model with the calculated three-dimensional representation of the object 3 and applies to the 3D model and / or the three-dimensional representation a transformation from elementary displacement, rotation and / or scaling operations to determine from which pose the three-dimensional representation of the object 3 was taken.
  • the recording and / or measuring device 2 is adjusted manually in order to guide the laser beam 7 over the object 3.
  • the user guides the laser beam 7 adjacent to an edge 14 on the object 3 in order to scan the edge 14 with the distance measuring device 6.
  • FIG. 1 shows the scanning of an edge 14 of the object 3 in which the laser beam 7 is guided with the handle 10 transversely to the direction of extension of this edge 14. In fact, this process is repeated for other edges of the object.
  • the proj etechnischsstoffs 4 can now be a marker that is predetermined in the 3D model, projected in the right place on the object. It is assumed to explain the invention that in the 3D model of the object 3, a mark in the form of a point at a location corresponding to the impact 11 in FIG. 2 is given.
  • the user now pivots the projection apparatus 1 until the laser beam 7 reaches this point of incidence 11.
  • the swivel angle is determined in the manner already described by taking an image of the object 3 in the camera 8 and then processing a sequence of recorded images with the motion detection unit 25.
  • the projection device 1 generates an acoustic and / or optical signal which indicates to the user the arrival of the point of impingement 11 for the positionally correct projection of the marking from the 3D model.
  • the laser beam 7 indicates the location of this mark on the object 3 in the correct location.
  • FIG. 3 shows a further projection device 1 according to the invention.
  • identical or identical details to the exemplary embodiment according to FIGS. 1 and 2 are denoted by the same reference symbols and are not described separately again. The comments on Figure 1 and 2 therefore apply to Figure 3 accordingly.
  • the exemplary embodiment according to FIG. 3 differs from the preceding exemplary embodiment in that the projection means 4 and the camera 8 of the recording and / or measuring Device 2 are not rigidly coupled, but are coupled to each other via an adjusting device 15.
  • This adjusting device 15 is set up in a manner known per se for measuring the respectively set angle between the projection means 4 and the camera 8. Thus, with knowledge of the pose of the camera 8, a defined projecting pose of the projecting means 4 is provided by the adjusting means 15 being operated or adjusted accordingly.
  • the projection means 4 is additionally set up as a distance measuring device 6 for measuring a distance with the laser beam 7.
  • the distance measuring device 6 is pivoted during the preparation of the three-dimensional representation.
  • the camera 8 remains spatially fixed on the object 3.
  • the arithmetic unit 5 again constructs a three-dimensional representation from the measured distances between the distance measuring device 6 and the respective impingement point 11 and the respectively associated angles at the adjusting device 15.
  • the adjusting device 15 is now automatically controlled in order to specify a marking predetermined in the 3D model, for example a point, to project a line or other geometric pattern in the correct position on the object 3.
  • the corresponding control for the adjusting device 15 in the arithmetic unit 5 is calculated from the projection pose and transmitted to a control unit 27 of the adjusting device 15.
  • the adjusting device 15 can now be controlled so that the proj etechnischsstoff 4 is pivoted to the drawing of a horizontal or a vertical line on the object 3.
  • another sensor for example a position sensor or an inertial sensor such as a gyroscope, is provided for determining the orientation in the gravitational field of the earth.
  • FIG. 4 shows a further embodiment of the invention.
  • the projection apparatus 1 according to FIG. 4 differs from the preceding exemplary embodiments in that the projection means 4 is rigidly coupled to the camera 8, wherein at least one adjustable mirror 16 is additionally provided which can bring the laser beam 7 to different points of incidence 11 of the object 3 in order to carry out a plurality of distance measurements. From the adjustment angle of the adjustable angle 16 and the image of the impact point 11 in an image captured by the camera 8, a three-dimensional representation can be calculated from the distance information.
  • Figure 4 shows the situation in which the Auftref ftician 11 is located at a corner 17, which is formed by three converging edges 14.
  • the corner 17 results in the three-dimensional representation in that the three edges 14 are scanned one after the other.
  • the adjustable mirror 16 can be adjusted manually, but is automatically controlled in one embodiment to perform a predetermined scan for detecting the object 3.
  • the adjustable mirror 16 is controlled by the arithmetic unit 5 so that the laser beam 7 to a position marked by at least one mark in the deposited 3D model position in the object 3 is directed.
  • the projection means 4 is automatically adjusted for the correct projection of the desired mark, that is to say the projection means 4. set up in this case.
  • FIG. 5 shows a further exemplary embodiment of a projection device 1 according to the invention. Structural and / or functional details which are identical or identical to the preceding exemplary embodiments are designated by the same reference numerals and are not described separately again. The comments on the figures 1 to 4 therefore apply to Figure 5 and 6 accordingly.
  • FIG. 5 shows the creation of a three-dimensional representation of the object 3 in the arithmetic unit 5.
  • the proj edictionsvorraum 1 is arranged on a motor-driven stand 9. Via a wirelessly connected operating unit 18, the projection device 1 can be pivoted to the receiving and / or measuring device 2 and the rigidly coupled projection means 4 in order to guide the laser beam 7 over the object 3. By detecting the associated adjustment angle of the adjusting device 15, a three-dimensional representation of the object 3 results again.
  • the calculated three-dimensional representation of the object 3 is compared with the stored 3D model to the object 3, the pose of the proj ekomsstoffs 4 relative to the object 3, so the position and orientation of the projection means 4, under which the distance measurements were made to calculate .
  • the arithmetic unit 5 activates the adjusting device 15 in order to move the laser beam 7 to the position in position at the object 3 to a marking in the 3D mode. to bring dell.
  • This situation is shown in FIG. 6.
  • the projection means 4 is automatically set by the arithmetic unit 5 for the positionally correct projection. This takes place here in that the projection means 4 is aligned correspondingly by the integrated actuation unit 27 via the adjusting device 5 of the stand 9.
  • an acceleration sensor 26 in the form of a tilt sensor is mounted on the outside of the projection device 1 on the outside.
  • FIGS. 7 to Figure 9 show a further embodiment of the invention.
  • the figures 7 to 10 are functionally and / or constructive to the preceding embodiments identical or similar details with the same reference numerals and not described again separately.
  • the remarks on FIGS. 1 to 6 therefore apply correspondingly to FIGS. 7 to 10.
  • the method in FIGS. 7 to 10 begins with the provision of a 3D model 13 of an object 3 in a projection device 1.
  • the 3D model 13 does not reproduce all the details of the real object 3.
  • the wall structure 23 of the object 3 is not included in the 3D model 13.
  • a mark 20 is given.
  • a wall of a room is shown here as an example as an object 3, on which an electrical line is defined as marking 20 in the 3D model 13.
  • marking 20 in the 3D model 13.
  • any other objects and markings can be used.
  • the user wants to display this mark 20 in the correct position on the object 3 in order to determine the actual position of this electrical line.
  • an image 22 is taken by the object 3 with the camera 8.
  • the characteristics of the alignment aids 21 are searched for by means of a feature analysis using computer-aided analysis.
  • the computing unit 5 calculates under which pose the image of the object 3 was taken.
  • the recorded image 22 with the identified alignment aids 21 is compared with an image derived from the 3D model 13.
  • the two images are computer-aided until transformed until registration of the alignment aids 21 is achieved. From parameters of this transformation, the pose of the camera 8 for recording takes place with known geometrical and perspective laws.
  • Can be the Proj etechnischsstoff 4 is rigidly connected to the camera 8 on the ⁇ ddling- and / or measurement device 2 are coupled so that calculated from the pose of the camera 8, the Proj ect ionspose of the projection means. 4
  • the arithmetic unit 5 With knowledge of this projected pose, the arithmetic unit 5 now calculates a control of the projection means 4 in order to project the marker 20 in the correct position onto the object 3. This control is transmitted to an integrated control unit 27, which adjusts the projection means 4 accordingly.
  • the proj ectionsstoff 4 is thus set to the correct location projection, set up here in particular by defining a proj ectionsmaske.
  • the projection means 4 is hereby set up for the projection of a two-dimensional pattern.
  • the object 3 is again with the camera 8 be ⁇ taken and displayed on a display means 19 ( Figure 10).
  • the projection device 1 is in each case equipped with an already mentioned motion detection unit 25, which is arranged inside the projection device 1.
  • This motion detection unit 25 is used to detect pivoting movements and / or displacements of the recording and / or measuring device 2, for example in the manner already described by evaluation a sequence of images taken with the camera 8.
  • an optical flow can be calculated in these images, from which a corresponding movement of the recording and / or measuring device 2 can be calculated in the case of a substantially unchanged object.
  • an acceleration sensor 26 is arranged, with which an alignment of the Proj edictionsvortechnisch 1 in the gravitational field of the earth is measurable and measured.
  • the output signal of this acceleration sensor 26 is used to view or horizontal or vertical lines or lines in a certain angle to the horizontal or vertical direction in 'projection to use for the calculation of projections as the reference lines.
  • a horizontal line the so-called "water” along an angular range, in particular along a full circle of 360 °, by rotating the proj etechnischsstoffs 4 or other suitable control are marked.
  • the recording and / or measuring device 2 is formed by the projection means 4 and the camera 8, wherein the orientation of the projection means 4 with respect to an optical axis of the camera 8 is calibrated kalib.
  • an imaging distance to the object 3 is determined. Details on this are described in DE 10 2010 005 042 B3.
  • a three-dimensional representation of the object 3 is again calculated, from which, by comparison with the deposited 3D model 13, a projection pose of the projection means 4 is calculated.
  • this is set for the correct projection of a mark in the manner already described.
  • the proj edictionsvorraum 1 it is proposed to measure with a recording and / or measuring device 2, a spatial position and / or orientation of an object 3, from a result of this measurement a Proj edictionspose a projection means 4 to calculate and the Proj etechnischsstoff 4 set in that a marker 20 predetermined in a 2D or 3D model 13 of the object 3 is projected onto the project 3 in the correct position.

Abstract

Bei einer Projektionsvorrichtung (1) wird vorgeschlagen, mit einer Aufnahme- und/oder Messvorrichtung (2) eine räumliche Lage und/oder Ausrichtung eines Objektes (3) zu messen, aus einem Ergebnis dieser Messung eine Projektionspose eines Projektionsmittels (4) zu berechnen und das Projektionsmittel (4) so auszurichten, dass eine in einem 2D- oder 3D-Modell (13) des Objekts (3) vorgegebene Markierung (20) ortsrichtig auf das Projekt (3) projiziert wird.

Description

Verfahren zur ortsrichtigen Projektion einer Markierung auf ein
Obj ekt und Proj ektionsvorrichtung
Die Erfindung betrifft ein Verfahren zur ortsrichtigen Projektion einer Markierung auf ein Objekt. Die Erfindung betrifft weiter eine Proj ektionsvorrichtung mit einer Aufnahme- und/oder Messvorrichtung und einem Projektions- mittel, wobei das Proj ektionsmittel mit der Aufnahme- und/oder Messvorrichtung derart gekoppelt ist, dass durch eine räumliche Ausrichtung der Aufnahme- und/oder Messvorrichtung eine defi- nierte räumliche Ausrichtung des Proj ektionsmittels vorgegeben oder; vorgebbar ist.
Aus WO 2011/082754 AI ist eine Projektionsvorrichtung bekannt, mit welcher ein Messergebnis von einem Objekt gewinnbar, in eine Falschfarbendarstellung umwandelbar und als Falschfarbendarstellung auf das Objekt zurück projizierbar ist. Hierbei wird eine ortsrichtige Projektion der Falschfarbendarstellung dadurch erreicht, dass die Projektion auf die Aufnahmeoptik ab- : gestimmt ist .
Die vorliegende Erfindung geht weiter aus von einem Verfahren mit korrespondierender Vorrichtung gemäß DE 10 2013 009 288.4, nach welchem von einem untersuchten Objekt ein 3D-Modell mit zugehöriger Skalierung des Modells berechnet wird, indem eine Folge oder Sequenz von zweidimensionalen Bildern des Objekts aufgenommen wird, aus denen ein unskaliertes 3D-Modell berechnet wird, wobei durch Messung eines Abstands eine Skalierung des 3D-Modells vorgenommen wurde. Eine Projektion von Informationen auf das Objekt ist nicht vorgesehen.
Weiterer Ausgangspunkt der Erfindung ist ein Verfahren nach DE 10 2009 050 474 AI, in welchem zu einem aufgenommenen Wärmebild zugehörige Metadaten in die Anzeige räumlich zugeordnet eingeblendet werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur ortsrichtigen Projektion einer Markierung auf ein Objekt anzu- geben.
Zur Lösung dieser Aufgabe sind erfindungsgemäß bei einem Verfahren zur ortsrichtigen Projektion einer Markierung auf ein Objekt die Merkmale des Anspruches 1 vorgesehen. Insbesondere wird somit zur Lösung der genannten Aufgabe bei einem Verfahren der eingangs beschriebenen Art erfindungsgemäß vorgeschlagen, zumindest die folgenden Schritte auszuführen: rechnergestütztes Bereitstellen eines 2D- oder 3D-Modells des Objekts,
Vorgabe wenigstens einer Markierung in dem 2D- oder 3D-Mo- dell,
Durchführung einer Messung einer räumlichen Lage und/oder Ausrichtung des Objektes,
Rechnergestützte Ermittlung einer Projektionspose des Projektionsmittels in Bezug auf die gemessene räumliche Lage und/oder Ausrichtung des Objektes durch Vergleich eines Messergebnisses der Messung mit dem 2D- oder 3D-Modell,
Einstellen des Proj ektionsmittels anhand der Projekt ions- pose zu einer ortsrichtigen Projektion der wenigstens einen Markierung auf das Objekt, und ortsrichtige Projektion der wenigstens einen Markierung auf das Objekt anhand der berechneten Ansteuerung.
Das Modell kann hierbei in zweidimensionaler Form als 2D-Modell vorliegen. Diese Variante kann beispielsweise zweckmäßig sein, wenn das Objekt eine flächige Gestalt hat, was zum Beispiel bei einer Zimmerwand der Fall sein kann. Das Modell kann auch mit dreidimensionalen Positionsangaben als 3D-Modell vorliegen. Diese ist besonders dann von Vorteil, wenn das Objekt eine räumliche Struktur oder allgemein eine komplexe Struktur hat. Das erfindungsgemäße Verfahren kann vorsehen, dass das 2D- oder 3D-Modell zum Beispiel mithilfe von Abstandsmessungen automatisch erstellt wird.
Das erfindungsgemäße Einstellen des Projektionsmittels kann hierbei beispielsweise durch Ausrichten des Proj ekt ionsmittels derart, dass die Proj ekt ionsrichtung eine ortsrichtige Projektion ergibt, erfolgen. Alternativ oder zusätzlich kann das erfindungsgemäße Einstellen des Proj ekt ionsmittels durch Einrichtung des Projektionsmittels erfolgen, beispielsweise durch An- Steuerung einer Proj ekt ionsmatrix oder einer Proj ekt ionsmaske oder wenigstens eines verstellbaren Spiegels,; beispielsweise eines in einer oder zwei Richtungen schwenkbaren Mikrospiegels , um die ortsrichtige Projektion der Markierung zu erhalten. Der wenigstens eine schwenkbare Mikrospiegel kann beispielsweise in MEMS-Technologie ausgeführt sein.
Die genannten Schritte können in der aufgeführten Reihenfolge oder in jeder beliebigen anderen Reihenfolge, die logisch mög- lieh ist, ausgeführt werden. Die durch die Aufzählung gegebene Reihenfolge der einzelnen Schritte ist jedoch die bevorzugte Ausführungsform . Die Projektionspose dient zur Beschreibung der Position und der Orientierung des Proj ektionsmittels in an sich bekannter Weise. Die Erfindung ermöglicht es, eine vorgegebene Markierung in einem 2D- oder 3D-Modell eines Objekts derart auf das Objekt zu projizieren, dass der Auftreff unkt der Markierung auf dem Objekt mit der Position dieser Markierung in dem 2D- oder SD- Modell übereinstimmt. Die Proj ektionspose des Projektionsmittels wird hierbei rechnergestützt in an sich bekannter Weise nach gegebenen perspektivischen und geometrischen Gesetzmäßigkeiten dadurch bestimmt, dass das mit der Aufnahme- und/oder Messvorrichtung aufgenommene Messergebnis, beispielsweise ein Bild oder eine dreidimensionale Darstellung des Objekts, mit dem 2D- oder 3D-Modell beispielsweise dadurch verglichen wird, dass von dem 2D- oder 3D-Modell unter der Annahme einer bestimmten Proj ektionspose ein korres- pondierendes , simuliertes Messergebnis abgeleitet wird. Die tatsächliche Projektionspose ist dann diejenige, für welche sich eine Übereinstimmung des abgeleiteten simulierten Messergebnisses mit dem tatsächlich gewonnen Messergebnis ergibt. Die Einstellung des Proj ektionsmittels kann beispielsweise durch ein Verfahren, Verschwenken oder Verkippen oder Verdrehen des Projektionsmittels oder durch bewegliche Teile des Projektionsmittels wie Spiegel und dergleichen erfolgen.
Bei der Erfindung kann die Markierung als Punkt, Linie, Kreis, Fläche oder sonstige einfache oder komplexere geometrische Form im 2D- oder 3D-Modell vorgegeben sein. Beispielsweise sind auf diese Weise Verschaltungspläne oder Leitungspläne ortsrichtig auf Objekte, an denen diese Pläne realisiert oder umgesetzt werden sollen, projizierbar. Beispielsweise sind auf diese Weise auch gewünschte Abstandsmaße in Bezug auf zu Merkmale des Objekts durch die ortsrichtige Projektion auf dem Objekt abtragbar. Denn die ortsrichtige Projektion ergibt auch eine maßstabsgetreue Darstellung von gewünschten Linien, Kreisen oder anderen Mustern.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Messung der räumlichen Lage und/oder Ausrichtung we- nigstens ein Abstand einer das Projektionsmittel aufweisenden Projektionsvorrichtung zu dem Objekt gemessen wird. Von Vorteil ist dabei, dass eine Information über den Abstand und somit die tatsächliche Größe des untersuchten Objekts gewinnbar ist, beispielsweise für eine Skalierung des 2D- oder 3D-Modells. Dies ist besonders dann; günstig, wenn keine absoluten Größeninformationen zu dem 3D-Modell vorliegen.
Besonders günstig ist es dabei, wenn mehr als ein Abstand, beispielsweise zwei Abstände, drei Abstände oder mehr als drei Ab- stände zu unterschiedlichen Punkten am Objekt gemessen werden. Von Vorteil ist dabei, dass unmittelbar Informationen über die Lage und/oder Ausrichtung des Objekts in Bezug auf den Standort der Aufnahme- und/oder Messvorrichtung gewinnbar sind. Beispielsweise ist bei flächenhaften Objekten die Messung von drei Abständen häufig ausreichend, um die Lage des Objektes im Raum und die Ausrichtung in Bezug auf die Aufnahme- und/oder Messvorrichtung festzulegen.
Besonders günstig ist es, wenn das Objekt zur Messung e Vielzahl von Abständen in einem Punktraster auf dem Objekt scannt wird.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Messung der räumlichen Lage aus einem, beispielsweise dem bereits erwähnten wenigstens einen Abstand einer das Proj ektionsmittel aufweisenden Proj ektionsvorrichtung zu dem Objekt und/oder aus einer Sequenz von aufgenommenen Bildern des Objektes eine dreidimensionale Darstellung des Objekts berechnet und mit dem 2D- oder 3D-Modell verglichen wird. Alternativ oder zusätzlich kann vorgesehen sein, dass zur Messung der räumlichen Lage aus einer Sequenz von aufgenommenen Bildern des Objekts eine dreidimensionale Darstellung des Objekts berechnet und mit dem 2D- oder 3D-Modell verglichen wird: Dies kann beispielsweise durch Auflösen eines Gleichungssystems, welches die aus unterschiedlichen Positionen aufgenommenen Bilder der Sequenz als Projektionen von dem Objekt beschreibt, erfolgen. Bevorzugt sind die Bilder mit einer weiter unten beschriebenen Kamera aus unterschiedlichen Aufnahmewinkeln aufgenommen.
Von Vorteil ist bei diesen Alternativen, dass unmittelbar Informationen über die Proj ektionspose gewinnbar sind, indem durch einen Vergleich der Formen des 2D- oder 3D-Modells einerseits und der dreidimensionalen Darstellung aus den Abstandsmessungen und/oder der Sequenz von Bildern andererseits miteinander eine räumliche Lage und Ausrichtung des Objekts in Bezug auf die Proj ektionsvorrichtung und somit umgekehrt eine räumliche Lage und Ausrichtung der Proj ektionsvorrichtung mit bekannten geometrischen Gesetzmäßigkeiten der räumlichen Geometrie berechenbar sind. Besonders günstig ist es dabei, wenn die dreidimensionale Darstellung aus einer Vielzahl von Abstandsmessungen, beispielsweise durch einen Scan des Objekts in der beschriebenen Weise, gewonnen wurde. Der Scanvorgang kann hierbei durch einen Zeilen- oder Spaltenscan oder durch Projektion von unterschiedlichen Mustern und Auswertung der durch eine Oberfläche des Objekts verzerrten Muster oder auf andere Weise erfolgen.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Messung der räumlichen Lage und/oder Ausrichtung des Objekts wenigstens ein Merkmal des Objekts erfasst wird. Das wenigstens eine Merkmal kann beispielsweise eine Kante, eine Ecke, ein Punkt, eine Linie und/oder eine sonstige Markierung sein. Die Erfassung kann durch Scannen erfolgen. Zu den genannten und weiteren Merkmalen existieren jeweils Merkmals- Deskriptoren, die zur Erfassung bzw. zum Scannen des Objekts verwendet werden können. Es ist allgemein bekannt, Deskriptoren für zweidimensionale Ecken, also Ecken in einer Ebene, und für dreidimensionale Ecken, also Ecken im Raum, zu verwenden. Diese Deskriptoren können hier eingesetzt werden. Von Vorteil ist dabei, dass charakteristische Merkmale des Objekts extrahierbar sind, welche in dem 2D- oder 3D-Modell einfach auffindbar oder identifizierbar sind. Somit ist ein direkter Vergleich von korrespondierenden Einzelheiten des Objekts und des 2D- oder 3D-Modells ausführbar. Hierdurch kann die Proj ektionspose mit geringem technischem Aufwand ermittelt werden. Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Messung der räumlichen Lage und/oder Ausrichtung ein Bild des Objekts aufgenommen wird. Von Vorteil ist dabei, dass das aufgenommene Bild mit einem von dem 2D- oder 3D-Modell abgeleiteten Bild vergleichbar ist. Hierbei kann das 2D- oder 3D-Modell rotiert und/oder verschoben werden, bis das abgeleitete Bild mit dem aufgenommenen Bild übereinstimmt. Aus den Parametern der Drehung beziehungsweise Verschiebung des Objekts ist anschließend die Proj ektionspose berechenbar und wird bei einer Ausgestaltung berechnet.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Ermittlung der Proj ektionspose in dem 2D- oder 3D- Modell wenigstens ein Merkmal als Ausrichtungshilfe definiert ist und dass das wenigstens eine Merkmal mittels Merkmalsanalyse in dem Messergebnis identifiziert wird. Von Vorteil ist dabei, dass auf einfache Weise Korrespondenzen zwischen dem 2D- oder 3D-Modell und dem Messergebnis von dem Objekt gewinnbar sind, aus denen eine Proj ektionspose berechenbar ist. Als Merkmale sind beispielsweise Kanten, Ecken, Punkte, Texturen, Färb- und/oder Helligkeitswerte, Farb- und/oder Helligkeitsunterschiede oder andere aus der Bildverarbeitung bekannte Merkmale verwendbar. Besonders günstig es dabei, wenn das Messergebnis in Form eines aufgenommenen Bildes vorliegt. Alternativ oder zusätzlich kann vorgesehen sein, dass das Messergebnis als dreidimensionale Darstellung des Objekts, beispielsweise durch die zuvor beschriebene Ab- Standsmessung oder Erkennung eines Referenzobjektes oder Maßstabes, bereitgestellt wird. Ein Referenzobjekt kann ein aufgebrachtes Objekt oder ein Marker oder ein erkanntes vorhandenes Objekt bekannter oder angegebener Größe sein. Beispielsweise kann ein solches Merkmal eine markante Form des Objekts beschreiben. Die Erfindung ermöglicht es somit, auf einfache Weise Markierungen in gewünschter Relativposition, beispielsweise in einem gewünschten Abstand und/oder einer gewünschten Ausrichtung, auf das Objekt zu projizieren. Beispielsweise können solche Merkmale zur Identifizierung von Kanten von Türen in einer Wand, der Lage von Zimmerecken, Boden und Zimmerdecke, verwendet werden. Hierdurch sind Bezugspunkte, -flächen und -raumstrukturen gegeben, auf welche Aufmaße bezogen werden können. Die erfindungsgemäße ortsrichtige Projektion ermöglicht ein maßstabgetreues Anzeichnen.
Bei der Bereitstellung eines 2D-Modells kann die Proj ektionspose dadurch ermittelt werden, dass eine Lage einer Ebene, die durch das 2D-Modell beschrieben wird, bestimmt wird. Dies kann beispielsweise durch Auswertung einer Linie und eines Punktes, von zwei Linien, von drei Punkten, von einer räumlich ausgedehnten Markierung oder auf andere Weise geschehen, um eine Neigung oder Ausrichtung des durch das 2D-Modell beschriebenen Objekts zu messen oder allgemein zu bestimmen oder ermitteln.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Ermittlung der Proj ekt ionspose ein aufgenommenes Bild, beispielsweise das bereits erwähnte aufgenommene Bild, und/oder eine dreidimensionale Darstellung des Objekts, beispielsweise die bereits erwähnte dreidimensionale Darstellung, einerseits und das 2D- oder 3D-Modell oder ein aus diesem abgeleitetes zweidimensionales Bild zueinander transformiert werden, bis eine Registrierung erreicht ist, wobei die Proj ekt ionspose aus Parametern der Transformation berechnet wird. Somit können den Parametern der relativen Transformation unterschiedliche Posen zugeordnet werden, welche die betreffende Transformation als perspektivische Verzerrung zu der Pose beschreiben. Die Projektionspose ist somit unmittelbar aus den Parametern ableitbar. Hierbei können nur das aufgenommene Bild beziehungsweise die dreidimensionale Darstellung oder nur das 2D- oder 3D-Modell oder ein daraus abgeleitetes zweidimensionales Bild oder beide transformiert werden.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass zur Einstellung des Proj ekt ionsmittels eine Ansteuerung des Proj ekt ionsmittels aus der Proj ekt ionspose rechnergesteuert berechnet wird. Von Vorteil ist dabei, dass die Einstellung des Proj ekt ionsmittels vollautomatisch rechnergestützt durchführbar ist. Dies ist besonders dann günstig, wenn das Projektionsmittel an einer Proj ekt ionsvorrichtung befestigt ist, die raumfest aufgestellt ist, beispielsweise auf einem Stativ oder dergleichen. Das Projektionsmittel kann hierbei durch Verschwenken, Verkippen oder Verschieben oder auf andere Weise zur ortsrichtigen Projektion ausgerichtet werden. Alternativ oder zusätz- lieh kann das Proj ektionsmittel durch interne oder externe Manipulation, beispielsweise durch Ansteuerung einer Projektionsmaske oder einer Proj ektionsmatrix, zur ortsrichtigen Projektion eingerichtet werden. Alternativ oder zusätzlich kann vorgesehen sein, dass zur Ausrichtung des Proj ektionsmittels während einer Schwenkbewegung des Projektionsmittels wiederkehrend rechnergestützt geprüft wird, ob das Proj ektionsmittel zur ortsrichtigen Projektion ausgerichtet ist. Von Vorteil ist dabei, dass die Schwenkbewe- gung des Proj ektionsmittels manuell ausführbar ist. Dies kann beispielsweise durch kontinuierliche Aufnahme von Bildern des zu untersuchenden Objekts geschehen. Durch Auswertung einer Sequenz von aufgenommenen Bildern kann in an sich bekannter Weise die Schwenkbewegung zwischen den Bildern berechnet werden, wenn sich das Objekt zwischen den Aufnahmen nicht oder nur unwesentlich ändert. Somit ist eine
Bewegungserkennungseinheit bereitstellbar. Beispielsweise kann vorgesehen sein, dass bei Erreichung der ortsrichtigen Projektion ein akustisches Signal und/oder ein optisches Signal generiert wird, um dem Benutzer anzuzeigen, dass nun eine Projektionspose erreicht ist, in welcher die Projektion der gewünschten wenigstens einen Markierung ortsrichtig erfolgen kann . Allgemein wird unter einer ortsrichtigen Projektion eine Projektion verstanden, welche am Objekt an derjenigen Stelle auftrifft, welche in dem 2D- oder 3D-Modell als Lokalisierung der vorgegebenen wenigstens eine Markierung verzeichnet ist. Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass mit einem Sensor, insbesondere mit einem Beschleunigungssensor, einem Schwerefeldsensor, einem Lagesensor oder einem Inertialsensor, eine räumliche Lage und/oder Ausrichtung des Projektionsmittels gemessen wird. Bevorzugt ist diese Lage und/oder Ausrichtung bezüglich eines Schwerefeldes, beispielsweise des Schwerefeldes der Erde, definiert. Von Vorteil ist dabei, dass räumliche Angaben wie horizontal und/oder vertikal bereitstehen, um beispielsweise die Lage und/oder Ausrichtung der vorgegebenen wenigstens einen Markierung einfach charakterisieren zu können.
Somit kann - beispielsweise durch ein Rotieren der Projektions- Vorrichtung oder zumindest des Proj ektionsmittels - eine Linie in einem 360° Winkel oder ein Vollkreis oder ein Text davon durch ortsrichtige Projektion markiert werden. Von Vorteil ist dabei, dass somit eine gesamte Projektion im „Wasser" durchgeführt werden kann. Alternativ oder zusätzlich können statt einer Ausrichtung auf das Schwerefeld der Erde auch Markierungen, beispielsweise Linien, in Bezug auf Objekte oder Teile von diesen durch eine ortsrichtige Projektion abgebildet werden . Zur Lösung der genannten Aufgabe und insbesondere in dem bereits beschriebenen erfindungsgemäßen Verfahren ist erfindungsgemäß bei einer Proj ektionsvorrichtung der eingangs beschriebenen Art vorgesehen, dass die Aufnahme- und/oder Messvorrichtung zur Durchführung einer Messung einer räumlichen Lage und/oder Ausrichtung eines Objekts eingerichtet ist, dass eine Recheneinheit zur rechnergestützten Ermittlung einer Proj ektionspose des Proj ektionsmittels in Bezug auf die gemessene räumliche Lage und/oder Ausrichtung des Objekts durch Vergleich eines Messergebnisses der Messung mit einem hinterlegten 2D- oder 3D- Modell des Objekts eingerichtet ist und dass die Proj ektionsvorrichtung zur Einstellung des Projektionsmittels anhand der Projektionspose zu einer ortsrichtigen Projektion wenigstens einer Markierung in dem 2D- oder 3D-Modell auf das Objekt eingerichtet ist. Von Vorteil ist dabei, dass eine handgehaltene und/oder auf einem : Stativ möntierbare Projektionsvorrichtung geschaffen ist, mit welcher das beschriebene erfindungsgemäße Verfahren ausführbar ist. Die Einstellung des Projektionsmittels kann beispielsweise durch Einrichten oder durch Ausrichten in der beschriebenen Weise ermöglicht sein.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Recheneinheit zur rechnergestützten Berechnung einer Ansteuerung des Projektionsmittels zu einer ortsrichtigen Projektion der wenigstens einen Markierung auf das Objekt eingerichtet ist. Von Vorteil ist dabei, dass eine vollautomatische ortsrichtige Projektion durchführbar ist, indem das Projek- tionsmittel entsprechend ausgerichtet wird und/oder indem die beispielsweise eine Projektionsmaske des Proj ektionsmittels entsprechend zur Einrichtung des Proj ektionsmittels befüllt wird. Hierbei oder bei einer weiteren Ausgestaltung der Erfindung kann vorgesehen sein, dass eine Ansteuerungseinheit zur computergestützten Ansteuerung des Proj ektionsmittels zur ortsrichtigen Projektion der wenigstens einen Markierung auf das Objekt eingerichtet ist. Von Vorteil ist dabei, dass ein manuelles Eingreifen in den Proj ektionsvorgang nicht erforderlich ist. Insbesondere ist somit ein Schwenken des Proj ektionsmittels zur Erreichung einer ortsrichtigen Projektion nicht erforderlich. Hierbei oder bei einer weiteren Ausgestaltung der Erfindung kann vorgesehen sein, dass das Proj ektionsmittel eine Versteileinrichtung aufweist, welche zur Verstellung des Projektionsmittels relativ zur Aufnahme- und/oder Messvorrichtung einge- richtet ist. Von Vorteil ist dabei, dass eine definierte rela- tive Ausrichtung des Proj ektionsmittels relativ zu der Aufnahme- und/oder Messvorrichtung einstellbar ist, so dass durch die räumliche Ausrichtung der Aufnahme- und/oder Messvorrichtung eine definierte räumliche Ausrichtung des Proj ektionsmit- tels, nämlich die durch die relative Ausrichtung vorgegebene absolute Ausrichtung, vorgebbar ist. Von Vorteil ist dabei weiter, dass das Projektionsmittel computergestützt ansteuerbar ist, um die gewünschte wenigstens eine Markierung, beispielsweise ein Punkt, eine Linie oder ein komplexeres Muster wie ein Schalt- und/oder Leitungsplan einer Gebäudewand oder eines sonstigen Objektes, auf das Objekt zu projizieren.
Alternativ kann vorgesehen sein, dass das Proj ektionsmittel starr mit der Aufnahme- und/oder Messvorrichtung gekoppelt ist. Von Vorteil ist dabei, dass eine Pose der Aufnahme- und/oder Messvorrichtung unmittelbar in die Proj ektionspose umrechenbar ist. Somit kann aus einer Aufnahme- und/oder Messpose der Aufnahme- und/oder Messvorrichtung zum Aufnahme- oder Messzeitpunkt eine Proj ektionspose des Proj ektionsmittels berechnet werden, da das Proj ektionsmittel mit der Aufnahme- und/oder Messvorrichtung starr mitgeführt wird..
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Aufnahme- und/oder Messvorrichtung eine Kamera auf- weist. Von Vorteil ist dabei, dass Bilder des zu untersuchenden Objekts aufnehmbar sind, aus welchen, beispielsweise in der beschriebenen Weise über Merkmale und/oder perspektivische Gesetzmäßigkeiten des Abbildungsvorgangs, eine Kamerapose und über die erwähnte Kopplung eine Proj ektionspose berechenbar sind.
Alternativ oder zusätzlich kann vorgesehen sein, dass die Auf- nähme- und/oder Messvorrichtung eine Abstandsmessvorrichtung aufweist. Von Vorteil ist dabei, dass Abstände zwischen dem zu untersuchenden Objekt und der Aufnahme- und/oder Messvorrichtung und somit Abstände zu dem Proj ektionsmittel messbar sind. Bevorzugt ist die Abstandsmessvorrichtung als Abstandsscanner ausgebildet, um eine Vielzahl von Abständen zu unterschiedlichen Punkten des Objekts messen zu können.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass das Proj ektionsmittel eine Laserpointer aufweist. Von Vor- teil ist dabei, dass punktförmige Markierungen einfach projizierbar sind. Von Vorteil ist dabei weiter, dass durch eine An- steuerung des Laserpointers , beispielsweise durch ein Schwenken oder' sonstiges Verstellen mittels einer Versteileinrichtung, komplexere Markierungen wie Liniensysteme und dergleichen projizierbar sind.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass das Projektionsmittel wenigstens einen schwenkbaren Spiegel aufweist. Von Vorteil ist dabei, dass ein Schwenken des Projektionsmittels selbst nicht erforderlich ist. Bei entsprechender Ausbildung des Spiegels sind so schnelle Schaltvorgänge ausführbar, um für den Betrachter ein komplexes Linienmuster zu projizieren, welches aus einzelnen Punkten und/oder Linien zusammengesetzt ist.
Alternativ oder zusätzlich kann vorgesehen sein, dass das Projektionsmittel zur Projektion eines zweidimensionalen Musters eingerichtet ist. Beispielsweise kann hierzu eine entsprechende Proj ektionsmaske oder Proj ektionsmatrix vorgesehen sein, welche entsprechend der zu projizierenden Markierung ansteuerbar ist und angesteuert wird. Durch diese Ansteuerung wird das Projektionsmittel eingestellt. Von Vorteil ist dabei, dass eine Viel- zahl von Informationen und somit eine Vielzahl von unterschiedlichen Markierungen beliebiger Gestalt gleichzeitig anzeigbar sind.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Aufnahme- und/oder Messvorrichtung in das Projektionsmittel integriert ausgeführt ist. Von Vorteil ist dabei, dass eine platzsparende robuste Proj ektionsvorrichtung bereitstellbar ist. Beispielsweise kann das Proj ektionsmittel als Laser- pointer und die Aufnahme- und/oder Messvorrichtung als laserge- stützte Abstandsmessvorrichtung eingerichtet sein.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass ein Sensor, insbesondere ein Beschleunigungssensor oder ein Schwerefeldsensor, zur Messung einer räumlichen Lage ünd/oder Ausrichtung des Proj ektionsmittels ausgebildet ist. Es sind auch andere Sensoren mit Vorteil verwendbar, beispielsweise Drehratensensoren oder andere Inertialsensoren . Von Vorteil ist dabei, dass die Lage und der Verlauf einer horizontalen und/oder vertikalen Linie einfach bestimmbar ist. Dies ist beispielsweise im Bauwesen günstig, wo häufig Abmessungen oder Positionen über eine horizontale und/oder eine vertikale Verbindungslinie vermittelt werden müssen.
Somit sind beispielsweise Linien in der Projektion anzeigbar, die sich in Bezug auf die wenigstens eine Markierung oder auf einen Referenzpunkt am Objekt in horizontaler Richtung beziehungsweise in vertikaler Richtung erstrecken, beispielsweise in einem vorgegebenen Abstand zu der wenigstens einen Markierung oder dem Referenzpunkt.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Recheneinheit zu einer rechnergestützten Transforma- tion eines aufgenommenen Bildes, beispielsweise des bereits erwähnten aufgenommenen Bildes, und/oder einer dreidimensionalen Darstellung des Objekts, beispielsweise der erwähnten dreidimensionalen Darstellung des Objekts, einerseits und des 2D- oder 3D-Modells andererseits rechnergestützt relativ zueinander, bis eine Registrierung erreicht ist, eingerichtet ist. Von Vorteil ist dabei, dass aus Parametern der zur Registrierung nötigen Transformation mit einfachen geometrischen Gesetzmäßigkeiten eine Projektionspose des Proj ektionsmittels berechenbar ist.
Bei einer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Recheneinheit zur Berechnung einer dreidimensionalen Darstellung des Objektes aus Messergebnissen der Aufnahme- und/der Messvorrichtung eingerichtet ist. Von Vorteil ist da- bei, dass eine dreidimensionale Darstellung gewinnbar ist, die direkt mit dem 2D- oder 3D-Modell verarbeitbar ist. Nachbildungen der Aufnahme- und/oder Messvorgangs sind so verzichtbar. Die dreidimensionale Darstellung des Objekts kann beispielsweise aus aufgenommenen Bildern und/oder aus wenigstens einem gemessenen Abstand berechnet sein, bevorzugt in der bereits beschriebenen Weise.
Besonders günstig ist es, wenn die Proj ektionsvorrichtung Mittel zur Ausführung des erfindungsgemäßen Verfahrens, insbeson- dere des zuvor beschriebenen und/oder in einem der auf ein Verfahren gerichteten Schutzansprüche beanspruchten Verfahrens, aufweist. Von Vorteil ist dabei, dass die Vorteile eines erfindungsgemäßen Verfahrens mit den Vorteilen einer erfindungsge- mäßen Proj ektionsvorrichtung kombinierbar sind.
Bevorzugt ist die Proj ektionsvorrichtung als Handgerät ausgebildet.
Die Erfindung wird nun anhand von Ausführungsbeispielen näher beschrieben, ist aber nicht auf diese Ausführungsbeispiele beschränkt. Weitere Ausführungsbeispiele ergeben sich durch Kombination der Merkmale einzelner oder mehrerer Schutzansprüche untereinander und/oder mit einzelnen oder mehreren Merkmalen der Ausführungsbeispiele.
Es zeigt in stark vereinfachter Prinzipdarstellung zur Erläuterung des Erfindungsgedankens :
Figur 1 die Verwendung einer erfindungsgemäßen
Proj ektionsvorrichtung in einem erfindungsgemäßen
Verfahren,
Figur 2 die ortsrichtige Projektion einer Markierung mit der erfindungsgemäßen Proj ektionsvorrichtung gemäß Figur 1,
Figur 3 eine weitere erfindungsgemäße Proj ektionsvorrichtung mit verstellbarem Proj ektionsmittel ,
Figur 4 eine weitere erfindungsgemäße Proj ektionsvorrichtung mit verstellbarem Spiegel, Figur 5 eine weitere erfindungsgemäße Proj ektionsvorrichtung mit drahtlos verbundenem Anzeigemittel,
Figur 6 die ortsrichtige Projektion bei dem erfindungsge- mäßen Verfahren mit einer erfindungsgemäßen Projektionsvorrichtung nach Figur 5, einen ersten Schritt eines weiteren
Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
Figur 8 einen zweiten Schritt des Ausführungsbeispiels gemäß Figur 7 ,
Figur 9 die ortsrichtige Projektion wenigstens einer Markierung bei dem Verfahren gemäß Figur 7 und Figur 8 und Figur 10 eine vergrößerte Darstellung der Einzelheit K des
Anzeigemittels der Proj ektionsvorrichtung bei dem Verfahren gemäß Figur 7 bis Figur 9.
Figur 1 zeigt in stark vereinfachter Prinzipdarstellung eine im Ganzen mit 1 bezeichnete erfindungsgemäße Proj ektionsvorrichtung .
Die Proj ektionsvorrichtung 1 hat: eine Aufnahme- und/oder Messvorrichtung 2, welche zur Durchführung einer Messung einer räumlichen Lage und/oder Ausrichtung eines Objekts 3 eingerichtet ist, wie im Folgenden noch genauer beschrieben wird.
Die Proj ektionsvorrichtung 1 hat weiter ein Proj ektionsmittel 4, mit welchem beliebige Markierungen, beispielsweise Punkte, Linien, Kreise oder andere geometrische Formen oder andere komplexere Muster, auf das Objekt 3 projizierbar sind.
Die Aufnahme- und/oder Messvorrichtung 2 und das Proj ektions- mittel 4 sind miteinander fest verbunden und somit starr gekoppelt, so dass durch die räumliche Ausrichtung der Aufnahme- und/oder Messvorrichtung eine definierte räumliche Ausrichtung des Proj ektionsmittels 4 vorgegeben ist.
Im Inneren der Proj ektionsvorrichtung 1 ist eine Recheneinheit 5 angeordnet, mit welcher Messergebnisse der Aufnahme- und/oder Messvorrichtung 2 auswertbar sind. Hierbei ist die Recheneinheit 5 durch Programmierung so eingerichtet, dass aus der gemessenen räumlichen Lage und Ausrichtung- des Objektes 3 eine Proj ektionspose des mit der Aufnahme- und/oder Messvorrichtung 2 gekoppelten Projektionsmittels 4 berechenbar ist.
Zur Erstellung des Messergebnisses weist die Aufnahme- und/oder Messvorrichtung 2 eine Abstandsmessvorrichtung 6 auf, die in an sich bekannter Weise zur Messung von Abständen in das als Laserpointer ausgebildete Proj ektionsmittel 4 integriert ist.
Hierzu erzeugt das Projektionsmittel 4 einen Laserstrahl 7, welcher auf das Obj ekt 3 gerichtet wird, um mit der Abstandsmessvorrichtung 6 einen Abstand zu messen. Das Proj ektionsmit - tel 4 ist somit zwischen einem Proj ektionsmodus und einem Ab- standsmessmodus umschaltbar.
Die Aufnahme- und/oder Messvorrichtung 2 weist ferner eine Kamera 8 auf, mit welcher ein Bild des Objektes 3 aufnehmbar ist. Die Aufnahme- und/oder Messvorrichtung 2 ist auf einem Stativ 9 dreh- und/oder schwenkbar gelagert und kann mittels Handgriff 10 zumindest in den durch die Pfeile angedeuteten Richtungen verkippt oder verschwenkt werden. Hierdurch wandert der Laser- strahl 7 über das Objekt 3.
Durch Auswertung einer Sequenz von aufgenommenen Bildern des Objektes 3 kann die Recheneinheit 5 eine Schwenkbewegung der Aufnahme- und/oder Messvorrichtung 2 und somit der Abstands- messvorrichtung 6 erfassen. Somit bildet die Recheneinheit 5 mit der Kamera 8 eine Bewegungserkennungseinheit 25.
Durch Verschwenken oder Verkippen der Aufnahme- und/oder Mess- Vorrichtung 2 in den durch das Stativ 9 vorgegebenen Freiheitsgraden können somit eine Vielzahl von Abständen zu unterschiedlichen Auftreffpunkten 11 des Laserstrahls 7 auf dem Objekt 3 gemessen werden. Es ist daher ein Abstandsscan an dem Objekt 3 durchführbar.
Durch die Erfassung des Schwenk- oder Kippwinkels des Projektionsmittels 4 mit der Recheneinheit 5 ergibt sich somit eine winkelabhängige Abstandsinformation, aus der eine dreidimensionale Darstellung des Objekts, beispielsweise durch Darstellung der wesentlichen Formen des Objekts 3, in der Recheneinheit 5 berechenbar ist.
In einem Speichermittel 12 im Inneren der Proj ekt ionsvorrich- tung 1 ist ein nicht weiter dargestelltes 3D-Modell 13 (vgl. Figur 7, hier jedoch in Form eines Würfels entsprechend dem dargestellten Objekt : 3) hinterlegt. Statt des 3D-Modells 13 kann ist bei einer Alternative ein 2D-Modell hinterlegt, welches ein flächenartiges Objekt beschreibt. Die Recheneinheit 5 vergleicht das 3D-Modell mit der berechneten dreidimensionalen Darstellung des Objektes 3 und wendet auf das 3D-Modell und/oder die dreidimensionale Darstellung eine Transformation aus elementaren Verschiebungs- , Drehungs- und/oder Skalierungsoperationen an, um zu ermitteln, aus welcher Pose die dreidimensionale Darstellung von dem Objekt 3 aufgenommen wurde . Da das Proj ektionsmittel 4 fest mit der Aufnahme- und/oder Messvorrichtung 2 verbunden gekoppelt ist, ergibt sich auf diese Weise die Proj ektionspose des Proj ektionsmittels 4 zum Zeitpunkt der Aufnahme der dreidimensionalen Darstellung des Obj ekts 3.
Zur Erzeugung der dreidimensionalen Darstellung wird die Aufnahme- und/oder Messvorrichtung 2 manuell verstellt, um den Laserstrahl 7 über das Objekt 3 zu führen. Hierzu ist es besonders günstig, wenn der Benutzer den Laserstrahl 7 in Nachbarschaft einer Kante 14 an dem Objekt 3 führt, um die Kante 14 mit der Abstandsmessvorrichtung 6 abzuscannen.
Auf diese Weise ergibt sich in der dreidimensionalen Darstel- lung aus dem Abstandscan eine entsprechende Kante, welche besonders einfach an dem 3D-Modell als korrespondierende Einzelheit identifizierbar ist. Dies erleichtert die Ermittlung der Proj ektionspose des Proj ektionsmittels 4. Figur 1 zeigt das Abscannen einer Kante 14 des Objekts 3, in dem der Laserstrahl 7 mit dem Handgriff 10 quer zur Er- streckungsrichtung dieser Kante 14 geführt wird. Tatsächlich wird dieser Vorgang für weitere Kanten des Objekts wiederholt. Nach Kenntnis der Proj ektionspose des Proj ektionsmittels 4 kann nun eine Markierung, die in dem 3D-Modell vorgegeben ist, ortsrichtig auf das Objekt projiziert werden. Es sei zur Erläuterung der Erfindung angenommen, dass in dem 3D-Modell des Objekts 3 eine Markierung in Form eines Punktes an einer Stelle vorgegeben ist, welche dem Auftreff unkt 11 in Figur 2 entspricht.
Der Benutzer verschwenkt nun die Proj ektionsvorrichtung 1 solange, bis der Laserstrahl 7 auf diesen Auftreffpunkt 11 gelangt. Hierbei wird der Schwenkwinkel in der bereits beschriebenen Weise durch Aufnahme eines Bildes des Objektes 3 in der Kamera 8 und anschließende Aufbereitung einer Sequenz von aufgenommenen Bildern mit der Bewegungserkennungseinheit 25 ermittelt.
Ist dieser Auftreffpunkt 11 erreicht, so generiert die Projek- tionsvorrichtung 1 ein akustisches und/oder optisches Signal, welches dem Benutzer das Erreichen des Auftreffpunktes 11 zur ortsrichtigen Projektion der Markierung aus dem 3D-Modell anzeigt. Somit zeigt der Laserstrahl 7 die Lage dieser Markierung auf dem Objekt 3 ortsrichtig an.
Figur 3 zeigt eine weitere erfindungsgemäße Proj ekt ionsvorrichtung 1. In Figur 3 sind zu dem Ausführungsbeispiel gemäß den Figuren 1 und 2 konstruktiv und/oder funktionell gleichartige oder identische Einzelheiten mit denselben Bezugszeichen bezeichnet und nicht noch einmal gesondert beschrieben. Die Ausführungen zu Figur 1 und 2 gelten daher zu Figur 3 entsprechend .
Das Ausführungsbeispiel gemäß Figur 3 unterscheidet sich von dem vorangegangenen Ausführungsbeispiel dadurch, dass das Projektionsmittel 4 und die Kamera 8 der Aufnahme- und/oder Mess- Vorrichtung 2 nicht starr gekoppelt sind, sondern über eine VerStelleinrichtung 15 miteinander gekoppelt sind.
Diese Versteileinrichtung 15 ist in an sich bekannter Weise zur Messung des jeweils eingestellten Winkels zwischen dem Projektionsmittel 4 und der Kamera 8 eingerichtet. Somit ist bei Kenntnis der Pose der Kamera 8 eine definierte Proj ektionspose des Proj ektionsmittels 4 vorgebhar, indem die Versteileinrichtung 15 entsprechend betätigt oder eingestellt wird.
Auch bei dem Ausführungsbeispiel gemäß Figur 3 ist das Projektionsmittel 4 zusätzlich als Abstandsmessvorrichtung 6 zur Messung eines Abstandes mit dem Laserstrahl 7 eingerichtet. Im Unterschied zum vorangehenden Ausführungsbeispiel wird nun während der Erstellung der dreidimensionalen Darstellung nicht die ganze Proj ektionsvorrichtung 1, sondern nur die Abstandsmessvorrichtung 6 verschwenkt. Die Kamera 8 bleibt hierbei raumfest auf das Objekt 3 gerichtet.
Aus den gemessenen Abständen zwischen der Abstandsmessvorrichtung 6 und dem jeweiligen Auftreffpunkt 11 und den jeweils zugehörigen Winkeln an der Versteileinrichtung 15 konstruiert die Recheneinheit 5 wieder eine dreidimensionale Darstellung.
Dies kann dadurch zusätzlich unterstützt werden, dass die Auftreffpunkte 11 jeweils in aufgenommenen Bildern der Kamera 8 identifiziert werden. Nach Vergleich der dreidimensionalen Darstellung mit dem hinterlegten 3D-Modell in der zuvor beschriebenen Weise wird nun die Versteileinrichtung 15 automatisch angesteuert, um eine im 3D-Modell vorgegebene Markierung, beispielsweise einen Punkt, eine Linie oder ein anderes geometrisches Muster, ortsrichtig auf das Objekt 3 zu projizieren.
Hierzu wird die entsprechende Ansteuerung für die Verstellein- richtung 15 in der Recheneinheit 5 aus der Projektionspose berechnet und an eine Ansteuerungseinheit 27 der Versteileinrichtung 15 übermittelt.
In der Proj ektionsvorrichtung 1 ist weiter ein Beschleunigungs - sensor 26 angeordnet, mit welchem die Orientierung der Projektionsvorrichtung 1 im Schwerefeld der Erde messbar ist. Auf diese Weise steht eine Information zur Verfügung, welche eine horizontale und eine vertikale Ausrichtung kennzeichnet. Die Versteileinrichtung 15 kann nun so angesteuert werden, dass das Proj ektionsmittel 4 zur Zeichnung einer horizontalen oder einer vertikalen Linie auf dem Objekt 3 verschwenkt wird. Bei weiteren Ausführungsbeispielen ist statt des Beschleunigungssensors 26 ein anderer Sensor, beispielsweise ein Lagessensor oder ein Inertialsensor wie ein Gyroskop, zur Bestimmung der Ausrichtung im Schwerefeld der Erde vorhanden.
Figur 4 zeigt ein weiteres Ausführungsbeispiel der Erfindung. In Figur 4 sind konstruktive und/oder funktionelle Einzelheiten, die identisch oder ähnlich zu den vorangegangenen Ausfüh- rungsbeispielen ausgeführt sind, mit denselben Bezugszeichen bezeichnet und nicht noch einmal gesondert beschrieben. Die Ausführungen zu den Figuren 1 bis 3 gelten daher zu Figur 4 entsprechend . Die Projektionsvorrichtung 1 gemäß Figur 4 unterscheidet sich von den vorangegangenen Ausführungsbeispielen dadurch, dass das Projektionsmittel 4 starr mit der Kamera 8 gekoppelt ist, wobei zusätzlich wenigstens ein verstellbarer Spiegel 16 vorgesehen ist, welcher den Laserstrahl 7 auf unterschiedliche Auftreff- punkte 11 des Objekts 3 bringen kann, um mehrere Abstandsmessungen durchzuführen. Aus dem Stellwinkel des verstellbaren Winkels 16 und der Abbildung des Auftreffpunktes 11 in einem von der Kamera 8 aufgenommenen Bildes kann so aus den Abstandsinformationen eine dreidimensionale Darstellung berechnet werden. Figur 4 zeigt die Situation, bei welcher der Auftref fpunkt 11 an einer Ecke 17 liegt, die durch drei aufeinander zulaufende Kanten 14 gebildet ist.
Die Ecke 17 ergibt sich in der dreidimensionalen Darstellung dadurch, dass die drei Kanten 14 nacheinander abgescannt werden.
Der verstellbare Spiegel 16 kann manuell verstellt werden, ist jedoch bei einem Ausführungsbeispiel automatisch ansteuerbar, um einen vorgegebenen Scanvorgang zur Erfassung des Objekts 3 auszuführen.
Nach Ermittlung der Pro ekt ionspose des Proj ekt ionsmittels 4 in der bereits beschriebenen Weise wird der verstellbare Spiegel 16 durch die Recheneinheit 5 so angesteuert, dass der Laserstrahl 7 auf eine durch wenigstens eine Markierung in dem hinterlegten 3D-Modell gekennzeichnete Position ortsrichtig an dem Objekt 3 gerichtet wird. Somit wird das Projektionsmittel 4 zur ortsrichtigen Projektion der gewünschten Markierung automatisch eingestellt, d.h. in diesem Fall eingerichtet.
Somit ergibt sich eine ortsrichtige Projektion dieser Markierung . Figur 5 zeigt ein weiteres Ausführungsbeispiel einer erfindungsgemäßen Proj ektionsvorrichtung 1. Konstruktive und/oder funktionell zu den vorangehenden Ausführungsbeispielen gleich- artige oder identische Einzelheiten sind mit denselben Bezugszeichen bezeichnet und nicht noch einmal gesondert beschrieben. Die Ausführungen zu den Figuren 1 bis 4 gelten daher zu Figur 5 und 6 entsprechend. Figur 5 zeigt die Erstellung einer dreidimensionalen Darstellung des Objektes 3 in der Recheneinheit 5.
Hierbei ist die Proj ektionsvorrichtung 1 auf einem motorisch verfahrbaren Stativ 9 angeordnet. Über eine drahtlos verbundene Bedieneinheit 18 kann die Proj ektionsvorrichtung 1 mit der Aufnahme- und/oder Messvorrichtung 2 und dem starr angekoppelten Projektionsmittel 4 verschwenkt werden, um den Laserstrahl 7 über das Objekt 3 zu führen. Durch Erfassung der zugehörigen Verstellwinkel der VerStelleinrichtung 15 ergibt sich wieder eine dreidimensionale Darstellung des Objektes 3.
Anschließend wird die berechnete dreidimensionale Darstellung des Objektes 3 mit dem hinterlegten 3D-Modell zu dem Objekt 3 verglichen, um die Pose des Proj ektionsmittels 4 relativ zu dem Objekt 3, also die Lage und Orientierung des Projektionsmittels 4, unter welchen die Abstandsmessungen vorgenommen wurden, zu berechnen .
Mit dieser Proj ektionspose steuert die Recheneinheit 5 die Versteileinrichtung 15 an, um den Laserstrahl 7 an die ortsrichtige Position an dem Objekt 3 zu einer Markierung in dem 3D-Mo- dell zu bringen. Diese Situation zeigt Figur 6. Somit wird das Projektionsmittel 4 durch die Recheneinheit 5 automatisch zur ortsrichtigen Projektion eingestellt. Dies erfolgt hier dadurch, dass das Proj ektionsmittel 4 durch die integrierte An- Steuerungseinheit 27 über die VerStelleinrichtung 5 des Stativs 9 entsprechend ausgerichtet wird.
In Figur 5 ist noch ersichtlich, dass an der Proj ektionsvor- richtung 1 außenseitig ein Beschleunigungssensor 26 in Form eines Neigesensors angebracht ist.
Mit diesem Beschleunigungssensor 26 wird eine Ausrichtung der Proj ektionsvorrichtung 1 im Schwerefeld der Erde gemessen, so dass für die ortsrichtigen Projektionen eine horizontale Rich- tung und eine vertikale Richtung und Richtungen im beliebigen Winkel zu der horizontalen oder vertikalen Richtung als Referenzlinien zur Verfügung stehen.
Figur 7 bis Figur 9 zeigen ein weiteres Ausführungsbeispiel der Erfindung. Bei den Figuren 7 bis 10 sind funktionell und/oder konstruktiv zu den vorangehenden Ausführungsbeispielen identische oder ähnliche Einzelheiten mit denselben Bezugszeichen bezeichnet und nicht noch einmal gesondert beschrieben. Die Ausführungen zu den Figuren 1 bis 6 gelten daher zu den Figuren 7 bis 10 entsprechend.
Das Verfahren in den Figuren 7 bis 10 beginnt damit, dass in einer Projektionsvorrichtung 1 ein 3D-Modell 13 eines Objektes 3 bereitgestellt wird. Das 3D-Modell 13 gibt nicht alle Einzel- heiten des realen Objekts 3 wieder. Beispielhaft ist die Wandstruktur 23 des Objekts 3 nicht im 3D-Modell 13 enthalten.
In diesem 3D-Modell 13 ist eine Markierung 20 vorgegeben. Zur Verdeutlichung der Erfindung wird hier beispielhaft eine Wand eines Zimmers als Objekt 3 dargestellt, an der eine elektrische Leitung als Markierung 20 im 3D-Modell 13 definiert ist. Es sind jedoch auch beliebige andere Objekte und Markierungen verwendbar.
Der Benutzer möchte diese Markierung 20 ortsrichtig auf dem Objekt 3 darstellen, um die tatsächliche Lage dieser elektrischen Leitung zu ermitteln.
In Figur 7 ist ersichtlich, dass in dem 3D-Modell 13 Ausrichtungshilfen 21 hinterlegt sind, die automatisch identifizier- bare: Merkmale (features) des 3.D-Modells 13 beschreiben.
In einem nächsten Schritt (Figur 8) wird von dem Objekt 3 mit der Kamera 8 ein Bild 22 aufgenommen.
In diesem Bild wird mittels Merkmalsanalyse nach den Merkmalen der Ausrichtungshilfen 21 rechnergestützt gesucht.
Durch die Lage dieser automatisch identifizierten Merkmale der Ausrichtungshilfen 21 in dem aufgenommenen Bild 22 des Objektes 3 wird anschließend in der Recheneinheit 5 berechnet, unter welcher Pose die Aufnahme des Objektes 3 erfolgte. Hierzu wird das aufgenommene Bild 22 mit den identifizierten Ausrichtungs - hilfen 21 mit einem von dem 3D-Modell 13 abgeleiteten Bild verglichen. Die beiden Bilder werden gegeneinander rechnergestützt solange transformiert, bis eine Registrierung der Ausrichtungs - hilfen 21 erreicht ist. Aus Parametern dieser Transformation ergibt sich anschließend mit bekannten geometrischen und perspektivischen Gesetzmäßigkeiten die Pose der Kamera 8 zum AufnahmeZeitpunkt . Das Proj ektionsmittel 4 ist starr mit der Kamera 8 der Auf¬ nahme- und/oder Messvorrichtung 2 gekoppelt, so dass aus der Pose der Kamera 8 die Proj ekt ionspose des Projektionsmittels 4 berechnet werden kann.
Unter Kenntnis dieser Proj ekt ionspose berechnet die Recheneinheit 5 nun eine Ansteuerung des Projektionsmittels 4, um die Markierung 20 ortsrichtig auf das Objekt 3 zu projizieren. Diese Ansteuerung wird an eine integrierte Ansteuerungseinheit 27 übermittelt, welche das Projektionsmittel 4 entsprechend einstellt. Durch diese Ansteuerung wird das Proj ekt ionsmittel 4 somit zur ortsrichtigen Projektion eingestellt, hier insbesondere durch Definition einer Proj ekt ionsmaske eingerichtet. Das Projektionsmittel 4 ist hierbei zur Projektion eines zweidimensionalen Musters eingerichtet.
Zur Kontrolle wird das Objekt 3 erneut mit der Kamera 8 aufge¬ nommen und an einem Anzeigemittel 19 dargestellt (Figur 10) .
Durch Vergleich der Darstellungen an dem Anzeigemittel 19 in Figur 7 und in Figur 10 ist ersichtlich, dass die Markierung 20 in dem Bild 22 - erkennbar an dem Bild 24 der Wandstruktur 23, die nicht im 3D-Modell 13 enthalten ist, - ortsrichtig proji- ziert wurde.
In den Figuren ist noch ersichtlich, dass die Proj ekt ionsvor- richtung 1 jeweils mit einer bereits erwähnten Bewegungserken- nungseinheit 25 ausgestattet ist, die im Inneren der Projek- t ionsvorrichtung 1 angeordnet ist. Diese Bewegungserkennungs - einheit 25 dient zur Erfassung von Schwenkbewegungen und/oder Verschiebungen der Aufnahme- und/oder Messvorrichtung 2, beispielsweise in der bereits beschriebenen Weise durch Auswertung einer Sequenz von mit der Kamera 8 aufgenommenen Bildern. Hierzu kann beispielsweise ein optischer Fluss in diesen Bildern berechnet werden, aus welchen sich bei im Wesentlichen unverändertem Objekt eine korrespondierende Bewegung der Auf- nähme- und/oder Messvorrichtung 2 berechnen lässt.
Zusätzlich ist in den Proj ektionsvorrichtungen 1 der gezeigten Ausführungsbeispiele ein Beschleunigungssensor 26 angeordnet, mit welchem eine Ausrichtung der Proj ektionsvorrichtung 1 im Schwerefeld der Erde messbar ist und gemessen wird. Das Ausgangssignal dieses Beschleunigungssensors 26 wird verwendet, um horizontale oder vertikale Linien oder Linien in einem bestimmten Winkel zur horizontalen oder vertikalen Richtung in ' der Projektion anzeigen oder zur Berechnung von Projektionen als Bezugslinien verwenden zu können. Somit kann beispielsweise eine horizontale Linie, das sogenannte „Wasser", entlang eines Winkelbereichs, insbesondere entlang eines Vollkreises von 360°, durch Rotieren des Proj ektionsmittels 4 oder sonstige geeignete Ansteuerung markiert werden.
Bei einem weiteren Ausführungsbeispiel ist die Aufnahme- und/oder Messvorrichtung 2 durch das Projektionsmittel 4 und die Kamera 8 gebildet, wobei die Ausrichtung des Projektionsmittels 4 in Bezug auf eine optische Achse der Kamera 8 kali- briert ist. Durch Bestimmung einer Bildposition des Auftreff- punkts 11 des Laserstrahls 7 auf dem Objekt 3 in einem mit der Kamera 8 aufgenommenen Bild wird ein Abbildungsabstand zu dem Objekt 3 bestimmt. Details hierzu sind in DE 10 2010 005 042 B3 beschrieben. Durch Abscannen des Objekts 3 mit einem Laser- strahl 7 wird wieder eine dreidimensionale Darstellung des Objekts 3 berechnet, aus welcher durch Vergleich mit dem hinterlegten 3D-Modell 13 eine Proj ektionspose des Projekt ionsmittels 4 berechnet wird. Durch Ansteuerung des Projektionsmittels 4 wird dieses zur ortsrichtigen Projektion einer Markierung in der bereits beschriebenen Weise eingestellt.
Bei der Proj ektionsvorrichtung 1 wird vorgeschlagen, mit einer Aufnahme- und/oder Messvorrichtung 2 eine räumliche Lage und/oder Ausrichtung eines Objektes 3 zu messen, aus einem Ergebnis dieser Messung eine Proj ektionspose eines Projektionsmittels 4 zu berechnen und das Proj ektionsmittel 4 so einzustellen, dass eine in einem 2D- oder 3D-Modell 13 des Objekts 3 vorgegebene Markierung 20 ortsrichtig auf das Projekt 3 projiziert wird.
/Ansprüche

Claims

Ansprüche Verfahren zur ortsrichtigen Projektion einer Markierung (20) auf ein Objekt (3), gekennzeichnet durch die folgenden Schritte: - rechnergestütztes Bereitstellen eines 2D- oder 3D-Modells (13) des Objekts (3) , - Vorgabe wenigstens einer Markierung (20) in dem 2D- oder 3D-Modell (13) , - Durchführung einer Messung einer räumlichen Lage und/oder Ausrichtung des Objekts (3), - rechnergestützte Ermittlung einer Projektionspose eines Proj ektionsmittels (4) in Bezug auf die gemessene räumliche Lage und/oder Ausrichtung des Objekts (3) durch Vergleich eines Messergebnisses der Messung mit dem 2D- oder 3D-Modell (13) , - Einstellen des Proj ektionsmittels (4) anhand der Projektionspose zu einer ortsrichtigen Projektion der wenigstens einen Markierung (20) auf das Objekt (3) und - örtsrichtige Projektion der wenigstens einen Markierung (20) auf das Objekt (3) anhand der berechneten Ansteue- rung. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Messung der räumlichen Lage und/oder Ausrichtung wenigstens ein Abstand einer das Proj ektionstnittel (4) aufweisenden Proj ektionsvorrichtung (1) zu dem Objekt (3) gemessen wird und/oder dass zur Messung der räumlichen Lage aus einem oder dem wenigstens einen Abstand einer das Projektionsmittel (4) aufweisenden Proj ektionsvorrichtung (1) zu dem Objekt (3) und/oder aus einer Sequenz von aufgenommenen Bildern des Objekts eine dreidimensionale Darstellung des Objekts (3) berechnet und mit dem 2D- oder 3D-Modell (13) verglichen wird. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Messung der räumlichen Lage und/oder Ausrichtung des Objekts (3) wenigstens: ein Merkmal, insbesondere wenigstens eine Kante (14), wenigstens ein Ecke, wenigstens ein Punkt, wenigstens eine Linie und/oder wenigstens eine Markierung, des Objekts (3) erfasst wird und/oder dass zur Messung der räumlichen Lage und/oder Ausrichtung ein Bild (22) des Objekts (3) aufgenommen wird . Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Ermittlung der Proj ektionspose in dem 2D- oder 3D-Modell (13) wenigstens ein Merkmal als Ausrichtungshilfe (21) definiert ist und das wenigstens eine Merkmal mittels Merkmalsanalyse in dem Messergebnis, insbesondere in dem oder einem aufgenommenen Bild (22) und/oder in der oder einer dreidimensionalen Darstellung des Objekts (3), identifiziert wird. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zur Ermittlung der Proj ektionspose das oder ein aufgenommenes Bild (22) und/oder die oder eine dreidimensionale Darstellung des Objekts (3) einerseits und das 2D- oder 3D-Modell (13) andererseits rechnergestützt relativ zueinander transformiert werden, bis eine Registrierung erreicht ist, wobei die Proj ektionspose aus Parametern der Transformation berechnet wird. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zum Einstellen des Projektionsmittels (4) eine Ansteuerung des Projektionsmittels (4) aus der Projektionspose rechnergestützt berechnet wird und/oder dass zum Einstellen des Proj ekt ionsmittels (4) während einer Schwenkbewegung des Proj ekt ionsmittels (4) wiederkehrend rechnergestützt geprüft wird, ob das Projektionsmittel (4) zür ortsrichtigen Projektion ausgerichtet ist. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass mit einem Sensor, insbesondere mit einem Beschleunigungssensor (26) oder mit einem Schwerefeldsensor oder mit einem Lagesensor oder mit einem Inert ialsensor, eine räumliche Lage und/oder Ausrichtung des Projektionsmittels (4) , insbesondere bezüglich eines Schwerefeldes, gemessen wird. Proj ektionsvorrichtung (1) mit einer Aufnahme- und/oder Messvorrichtung (1) und einem Proj ekt ionsmittel (4) , wobei das Projektionsmittel (4) mit der Aufnahme- und/oder Messvorrichtung (2) derart gekoppelt ist, dass durch eine räumliche Ausrichtung der Aufnahme- und/oder Messvorrichtung (2) eine definierte räumliche Ausrichtung des Projektionsmittels (4) vorgegeben oder vorgebbar ist, dadurch gekennzeichnet, dass die Aufnahme- und/oder Messvorrichtung (2) zur Durchführung einer Messung einer räumlichen Lage und/oder Ausrichtung eines Objekts (3) eingerichtet ist, dass eine Recheneinheit (5) zur rechnergestützten Ermittlung einer Proj ekt ionspose des Proj ekt ionsmittels (4) in Bezug auf die gemessene räumliche Lage und/oder Ausrichtung des Objekts (3) durch Vergleich eines Messergebnisses der Messung mit einem hinterlegten 2D- oder. SD- Modell (13) des Objekts (3) eingerichtet ist und dass die Proj ekt ionsvorrichtung (1) zum Einstellen des Projektionsmittels (4) anhand der Projektionspose zu einer ortsrichtigen Projektion wenigstens einer Markierung (20) in dem 2D- oder 3D-Modell (13) auf das Objekt (3) eingerichtet ist. Proj ektionsvorrichtung (1) nach Anspruch 8, dadurch gekennzeichnet, dass die Recheneinheit (5) zur rechnergestützten Berechnung einer Ansteuerung des Proj ektionsmit - tels (4) zu einer ortsrichtigen Projektion der wenigstens einen Markierung (20) auf das Objekt (3) eingerichtet ist und/oder dass eine Ansteuerungseinheit (27) zur computergestützten Ansteuerung des Proj ektionsmittels (4) zur ortsrichtigen Projektion der wenigstens einen Markierung (20) auf das Objekt (3) eingerichtet ist. 0. Proj ektionsvorrichtung :(1) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass das Proj ektionsmittel (4) eine Versteileinrichtung (15) aufweist, welche zur Verstellung des Projektionsmittels (4) relativ zur Aufnahme- und/oder Messvorrichtung eingerichtet ist, oder dass das Projektionsmittel (4) starr mit der Aufnahme- und/oder Messvorrichtung (2) gekoppelt ist.
1. Proj ektionsvorrichtung (1) nach einem der Ansprüche 8 bis
10, dadurch gekennzeichnet, dass die Aufnahme- und/oder Messvorrichtung (2) eine Kamera (8) aufweist und/oder dass die Aufnahme- und/oder Messvorrichtung (2) eine Abstands- messvorrichtung (6) aufweist.
2. Projektionsvorrichtung (1) nach einem der Ansprüche 8 bis
11, dadurch gekennzeichnet, dass das Projektionsmittel (4) einen Laserpointer aufweist und/oder dass das Projektionsmittel (4) wenigstens einen verstellbaren Spiegel (16) aufweist.
3. Proj ektionsvorrichtung (1) nach einem der Ansprüche 8 bis
12, dadurch gekennzeichnet, dass das Projektionsmittel (4) zur Projektion eines zweidimensionalen Musters eingerichtet ist.
4. Proj ektionsvorrichtung (1) nach einem der Ansprüche 8 bis
13, dadurch gekennzeichnet, die Aufnahme- und/oder Messvorrichtung (2) in das Proj ektionsmittel (4) integriert ausgeführt ist und/oder dass ein Sensor, insbesondere ein Beschleunigungssensor (26) , ein Schwerefeldsensor oder ein Inertialsensor, zur Messung einer räumlichen Lage und/oder Ausrichtung des Projektionsmittels (4) ausgebildet ist.
5. Proj ektionsvorrichtung (1) nach einem der Ansprüche 8 bis
14, dadurch gekennzeichnet, dass die Proj ektionsvorrichtung (1) eine Bewegungserkennungseinheit (25) aufweist, welche zur Erfassung einer Schwenkbewegung des Projektionsmittels (4) eingerichtet ist.
6. Proj ektionsvorrichtung (1) nach einem der Ansprüche 8 bis
15, dadurch gekennzeichnet, dass die Recheneinheit (5) zu einer rechnergestützten Transformation des oder eines aufgenommenen Bild (22) und/oder der oder einer dreidimensionale Darstellung des Objekts (3) einerseits und des 2D- oder 3D-Modells (13) andererseits rechnergestützt relativ zueinander, bis eine Registrierung erreicht ist, eingerichtet ist und/oder dass die Recheneinheit (5) zur Berechnung einer dreidimensionalen Darstellung des Objektes (3) aus Messergebnissen der Aufnahme- und/oder Messvorrichtung (2), insbesondere aus aufgenommenen Bildern (22) und/oder aus wenigstens einem gemessenen Abstand, eingerichtet ist.
EP13817652.4A 2013-12-12 2013-12-12 Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung Withdrawn EP3080551A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/003760 WO2015086036A1 (de) 2013-12-12 2013-12-12 Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung

Publications (1)

Publication Number Publication Date
EP3080551A1 true EP3080551A1 (de) 2016-10-19

Family

ID=49917633

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13817652.4A Withdrawn EP3080551A1 (de) 2013-12-12 2013-12-12 Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung

Country Status (3)

Country Link
US (1) US20170026636A1 (de)
EP (1) EP3080551A1 (de)
WO (1) WO2015086036A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2821750A1 (de) * 2013-07-04 2015-01-07 Hexagon Technology Center GmbH Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
EP3037780A1 (de) * 2014-12-23 2016-06-29 HILTI Aktiengesellschaft Verfahren zum Detektieren eines Messbereiches in einem Untergrund
EP3037779A1 (de) * 2014-12-23 2016-06-29 HILTI Aktiengesellschaft Verfahren zum Übertragen eines Objektes auf eine Grenzfläche
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
DE102017107570A1 (de) * 2017-04-07 2018-10-11 Testo SE & Co. KGaA Markiervorrichtung
US11315286B2 (en) * 2017-04-26 2022-04-26 Hewlett-Packard Development Company, L.P. Locating a region of interest on an object
CN109375626B (zh) * 2018-11-20 2021-08-24 深圳市海柔创新科技有限公司 定位码贴设方法、装置、计算机设备和存储介质
CN111369571B (zh) * 2020-02-27 2023-06-23 北京百度网讯科技有限公司 三维物体位姿准确性判断方法、装置及电子设备
DE102022112625A1 (de) 2022-05-19 2023-11-23 Isra Vision Gmbh Verfahren und Vorrichtung zur Ausrichtung von Kameras

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261596A1 (de) * 2009-06-12 2010-12-15 Konrad Maierhofer Projektionsvorrichtung kombiniert mit einem Distanzmessgerät

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US655443A (en) * 1899-04-20 1900-08-07 Frank C Keller Bottle-filling machine.
DE4443413C2 (de) * 1994-12-07 1996-09-19 Schiele Josef Verfahren und Vorrichtung zum Vermessen und Markieren
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
US20030038822A1 (en) * 2001-08-14 2003-02-27 Mitsubishi Electric Research Laboratories, Inc. Method for determining image intensities of projected images to change the appearance of three-dimensional objects
US6930681B2 (en) * 2001-08-14 2005-08-16 Mitsubishi Electric Research Labs, Inc. System and method for registering multiple images with three-dimensional objects
US7068274B2 (en) * 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
US20110111849A1 (en) * 2005-12-06 2011-05-12 Microvision, Inc. Spatially Aware Mobile Projection
EP2453205A1 (de) * 2010-11-11 2012-05-16 Leica Geosystems AG Konstruktionsvermessungsgerät zum Vermessen und Markieren von Raumpunkten entlang von auf einer Oberfläche horizontal verlaufenden Höhenlinien
JP5132832B1 (ja) * 2011-07-11 2013-01-30 キヤノン株式会社 計測装置および情報処理装置
US20130044912A1 (en) * 2011-08-19 2013-02-21 Qualcomm Incorporated Use of association of an object detected in an image to obtain information to display to a user
CN104054023B (zh) * 2011-11-16 2017-11-17 欧特法斯公司 用于与机器人控制的物体映射的3d投影的系统和方法
US9132346B2 (en) * 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
CN105027562B (zh) * 2012-12-28 2019-02-22 苹果公司 用于将数字信息投影到真实环境中的真实对象上的方法和系统
US9049369B2 (en) * 2013-07-10 2015-06-02 Christie Digital Systems Usa, Inc. Apparatus, system and method for projecting images onto predefined portions of objects
US9740935B2 (en) * 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2261596A1 (de) * 2009-06-12 2010-12-15 Konrad Maierhofer Projektionsvorrichtung kombiniert mit einem Distanzmessgerät

Also Published As

Publication number Publication date
WO2015086036A1 (de) 2015-06-18
US20170026636A1 (en) 2017-01-26

Similar Documents

Publication Publication Date Title
WO2015086036A1 (de) Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
EP2071279B1 (de) Verfahren und Vorrichtung zur Erfassung von Körpermaßdaten und Konturdaten eines Festkörpers
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP2079982B1 (de) Verfahren zum ermitteln der drehachse eines fahrzeugrades
DE112014007236T5 (de) Zweidimensionales Zwischenscannen mit einem dreidimensionalen Scanner zur Beschleunigung der Registrierung
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE112012005524T5 (de) Verfahren und Vorrichtung zur Verwendung von Gesten zur Steuerung eines Lasertrackers
EP2598839B1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
WO2014195000A1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE102008054453A1 (de) Messsystem zur Vermessung von Räumen und/oder von Objekten
EP2423640A1 (de) Neigungssensor für ein Gerät und Verfahren zur Bestimmung der Neigung eines Gerätes
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
EP2998694A9 (de) Verfahren und vorrichtung zum bestimmen der 3d-koordinaten eines objekts
EP3385916A1 (de) Messgerät und korrespondierendes messverfahren
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
EP3486606A1 (de) Stereokamera und stereophotogrammetrisches verfahren
WO2007090557A2 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102019113799B4 (de) Messsystem und Verfahren zum Vermessen eines Messobjekts
DE102020129923B4 (de) Verfahren zur Vorbereitung eines 3D-Scans und 3D-Scanner zur Durchführung des Verfahrens
DE102005043070A1 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160712

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20180926

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20190325