WO2019149594A1 - Verfahren zu einer indirekten abstandsmessung - Google Patents

Verfahren zu einer indirekten abstandsmessung Download PDF

Info

Publication number
WO2019149594A1
WO2019149594A1 PCT/EP2019/051616 EP2019051616W WO2019149594A1 WO 2019149594 A1 WO2019149594 A1 WO 2019149594A1 EP 2019051616 W EP2019051616 W EP 2019051616W WO 2019149594 A1 WO2019149594 A1 WO 2019149594A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
image
measuring
unit
method step
Prior art date
Application number
PCT/EP2019/051616
Other languages
English (en)
French (fr)
Inventor
Marc Luther
Ulrich-Lorenz Benzler
Carsten Dolar
Wolfgang Niehsen
Matthias Roland
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to EP19701818.7A priority Critical patent/EP3749978A1/de
Publication of WO2019149594A1 publication Critical patent/WO2019149594A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Definitions

  • EP 2 669 707 Al a method for an indirect distance measurement of two measuring points has already been proposed by means of a distance determination unit before, wherein the distance determination unit has a Laserentfer tion measuring unit for a distance measurement of a respective first and a second measuring point to the laser distance measuring unit.
  • the already known method is based on the application of the cosine theorem, wherein a solid angle is determined by means of image processing methods for concatenating individual images ("image stitching") from a series of images.
  • the invention is based on a method for an indirect distance measurement of two measurement points from one another by means of a distance determination unit, which has a laser distance measuring unit for a distance measurement of at least one first and one second measurement point relative to the distance determination unit.
  • a positional change of the distance determination unit to a distance calculation, in particular for a determination of a distance between the first measurement point and the second measurement point be carried out by means of a coordinate transformation.
  • a “distance” is intended in particular to mean a length of a shortest connecting line between two points, in particular the first measuring point and the second measuring point.
  • a measuring point is a point aimed at by the laser distance measuring unit on an object for measuring the distance of the object relative to the distance determining unit and / or the laser distance measuring unit.
  • ighting is to be understood in particular special that a laser beam emitted by the laser distance measuring unit laser beam is directed to measure the distance to a location on an object.
  • a measurement point is targeted by a user.
  • the measurement of a distance between the Ers th measuring point and the second measuring point takes place indirectly.
  • a variable for example the distance
  • the distance is determined at least from the distance measurement of the first measuring point relative to the distance determination unit and / or the laser distance measuring unit and the distance measurement of the second measuring point relative to the distance determining unit and / or the laser distance measuring unit.
  • the Ab is state determination unit by a user freely movable in space, in particular special stand-free usable.
  • a change in position of the distance determining unit takes place.
  • a “location” is to be understood in particular a position and / or orientation Orientation in a, in particular three-dimensional, space.
  • a “change in position” is to be understood as meaning, in particular, a change in the spatial position and / or the spatial orientation, in particular the distance determination unit, that is at least substantially completed.
  • a change in position is a transfer of a starting position of the distance determination unit, before the position change, into an end position of the distance determination unit, after the position change.
  • At least one distance of a measuring point relative to the distance determination unit and / or the laser distance measuring unit in the starting position and a distance of another measuring point relative to the distance determining unit and / or the laser distance measuring unit in the end position is detected.
  • a change in position of the distance determination unit is made by a user.
  • a change in position by means of a transport device.
  • a distance measurement of a measuring point is recorded with respect to a fixedly connected to the distance determining unit coordinate system.
  • the laser beam emitted by the laser distance measuring unit defines a coordinate axis of the coordinate system.
  • a representation of a measuring point in the coordinate system of the starting position in a representation of the measuring point in the coordinate system of the end position by a coordinate transformation can be transferred.
  • at least one representation of a measurement point is transformed into a distance calculation into a coordinate system belonging to another measurement point.
  • the coordinate transformation is preferably determined on the basis of at least one further acquisition of data.
  • an absolute and / or relative position, a temporal change of a position and / or a movement of the distance determination unit for determining the coordinate transformation are detected directly and / or indirectly. It is also conceivable that on a relative position of the distance determination unit due to matching Struk tures on imaging methods, especially in the starting position and the end position, created additional data is concluded.
  • the embodiment of the method according to the invention advantageously makes it possible to design an indirect distance measurement in a particularly user-friendly manner.
  • the method allows for a change in position during the Anvi sierens the measuring points guidance of a distance determination unit by an operator on any track in the room.
  • a change in the distance determining unit is adapted by means of a, in particular measured or estimated, translation vector and / or a rotation matrix, in particular measured or estimated.
  • Vorzugswei se is a transfer of a starting position of the distance determination unit in an end position of the distance determination unit by a translation and / or Rota tion described, in particular independent of the actual movement performed.
  • a transformation vector and / or a rotation matrix is determined in order to obtain a vector, in particular a vector pointing to a measurement point, from a coordinate system transform the starting position into a coordinate system of the end position.
  • Preference is / are the translation vector and / or the rotation matrix gemes sen.
  • the translation vector and / or the rotation matrix is / is measured
  • a determination of the translation vector and / or the rotation matrix is based on sensor data, in particular a motion parameter, for example an inclination, a translation speed and / or or a spin, measure.
  • the translation vector and / or the rotation matrix is estimated.
  • An "estimation” is to be understood in particular as meaning a mathematical calculation method, in particular a stochastic parameter estimation method, which finds an approximated solution, in particular that which is best based on a previously defined criterion, a problem.
  • an estimate of the translation vector and / or the rotation matrix is made on the basis of position-dependent sensor data, which in particular capture position-dependent environmental parameters, in particular image data of objects located in the environment.
  • the inventive design of the method can advantageously reliably and easily describe the change in position de coordinate transformation to a distance determination carried out who the.
  • At least one, in particular optical, image is created from a perspective at least before and after the position change, which image contains at least the first and the second measuring point.
  • create an image is meant in particular that an imaging and / or image processing method is used. Preference, an image that holds at least the first and the second measuring point ent, created with a single pass of the imaging process.
  • an image containing at least the first and the second measuring point from data of several runs of the imaging method and / or data from multiple imaging devices, in particular at least two spaced-apart cameras, together.
  • the image is created by means of an optical camera.
  • a thermal imaging camera and / or another imaging device that appears appropriate to a person skilled in the art is used to create the image.
  • a "perspective" in particular one, in particular Position-dependent, viewing direction of the distance determination unit to be understood on the object targeted by the laser distance measuring unit.
  • Preference at least one image containing at least the first and the second measuring point, created from a perspective before the change in position.
  • Preference at least one image containing at least the first and the second measuring point, created from a perspective after the change in position.
  • Before giving a creation of an image is triggered in each case by measuring a distance of a measuring point.
  • At least one pixel correspondence is assigned to the measuring points in at least one method step.
  • a "pixel correspondence" is to be understood in particular as an association of a point of an image from an object to a point of another image of the same object, in particular from another perspective.
  • a pixel correspondence assigns two points to each other which represent the same location of the object.
  • a pixel correspondence is preferably created automatically, in particular by means of a computing unit. Before preferably at least one pixel correspondence is determined at least between an image created in the starting position and an image created in the end position. In particular, a point of an image created in the end position is assigned to a measuring point in the starting position.
  • a point of an image created in the starting position is assigned to a measuring point in the end position.
  • a pixel correspondence is represented by a vector in a coordinate system belonging to a layer.
  • a vector representing a pixel correspondence from an origin of a coordinate system of one layer points to a measurement point recorded in another layer.
  • Preference will be given to anyone beyond the first Measuring point determined at least two pixel correspondences.
  • a pixel correspondence is determined in order to represent a further measuring point in the coordinate system of a preceding measuring point and to represent a pixel correspondence about a preceding measuring point in the coordinate system of a following measuring point.
  • a further measuring point with pixel correspondences can be linked to the measuring point immediately last taken and / or to a reference point, in particular to the first measuring point.
  • each measurement point is assigned a pixel correspondence to each other coordinate system.
  • the inventive design of the method can advantageously be a linkage of the image data with the Koordina tentransformation be created. It can be worked with advantageous few Nursekorkor respondenzen.
  • the computational complexity can be kept low.
  • the generated images are output in at least one method step, in particular in order to enable manual creation and / or correction of automatically generated pixel correspondence.
  • a measurement point is drawn in an output image, which was taken up with the same position of the distance determination unit, in which the image was created.
  • a measurement point is drawn which was recorded with a different position of the distance determination unit than the image itself.
  • a user can record the position of the measurement point that was recorded with a different position of the distance determination unit than the image itself mark the image for the first time and / or move an already existing mark, in particular to set and / or correct a pixel correspondence.
  • at least two images are juxtaposed under different positions.
  • a pixel correspondence is made visible, for example with a shape and / or color coded marking of the corresponding points and / or with a connecting line between the corresponding points. Due to the inventive design of the method can advantageously a high reliability of the assignment tion of the measuring points to the corresponding points in the images. Advantageously, a high reliability of the distance determination can be achieved.
  • the coordinate transformation, in particular a rotation, based on inertial sensor data is determined in at least one method step.
  • sensor data is acquired via a sensor unit connected to the laser distance measuring unit.
  • inertial sensor data are acquired during a change in position, in particular for a determination of the positional change.
  • inertial sensor data is acquired along three spatial axes which are each pairwise substantially perpendicular to each other.
  • substantially perpendicular is intended to define here in particular an orientation of a direction relative to a reference direction, wherein the direction and the reference direction, in particular seeks in a plane, include an angle of 90 ° and the angle of maximum deviation from particular less than 8 °, advantageously less than 5 ° and FITS advantageously less than 2 °.
  • a coordinate transformation is determined from the inertial sensor data which converts a vector of the coordinate system of the starting position into a corresponding vector of the coordinate system of the final position and / or vice versa.
  • a rotational speed of the distance determination unit is detected during a change in position by means of inertial sensors, in particular a special rotation rate sensor.
  • a rotation matrix is calculated from the time course of the rotational speed.
  • the calculated rotation matrix transfers, except for a translation, a vector of the coordinate system of the starting position into a corresponding vector of the co-ordinate system of the end position and / or vice versa.
  • inertial sensor data it would also be conceivable for inertial sensor data to be evaluated for detecting the translation. Due to the configuration of the method according to the invention, advantageously exactly one coordinate transformation, in particular a rotation matrix, can be determined for a distance measurement. It is further proposed that in at least one method step, the coordinate transformation, in particular a rotation, be determined taking into account further sensor data, in particular acceleration and magnetic field sensor data.
  • further sensor data are used.
  • acceleration sensor data is detected.
  • the rotation rate of the distance determination unit along three spatial axes, which are pairwise substantially perpendicular to one another, are detected during a change in position, in particular by means of inertial sensors.
  • the time course of the rotation rate is included in the calculation of the rotation matrix.
  • magnetic field sensor data is detected to correct a rotation matrix.
  • each ver a measuring point with at least two layers of the distance determination unit binds.
  • two points are defi ned by a distance measurement.
  • a distance measurement defines a measurement point and an origin of the coordinate system fixedly connected to the distance determination unit.
  • the origin of the coordinate system is set equal to the spatial position of the distance determination unit.
  • a measurement point vector is determined which points from the origin to the measurement point and whose magnitude is just the distance of the measurement point from the distance determination unit.
  • a distance measurement defines at least four points, in particular two measurement points and two origins.
  • the defined points lie on a closed vector train, which is formed by the measuring point vectors and the corresponding pixel correspondences.
  • at least one measuring point vector and at least one pixel correspondence is converted by means of a coordinate transformation, in particular deres by means of a rotation matrix, in the coordinate system of another measuring point.
  • a "closed vector train” should in particular be understood to mean that the vector sum, the vectors involved in the vector train, is just zero.
  • the amounts of the pixel correspondences form the unknowns.
  • the equation system is overdetermined.
  • the relative position of the measuring points involved can be calculated relative to each other.
  • a distance is determined by means of the, in particular weighted, least squares method, in particular under constraints.
  • the system of equations resulting from the closed vector train is solved by means of the, in particular weighted, least squares method.
  • the least squares method provides a unique solution of the system of equations resulting from the closed vector train.
  • a distance of a measuring point which was detected in one position of the distance determining unit from the distance determining unit in a different position is determined by means of the least squares method.
  • the distance between the measuring points is calculated from the solution.
  • a determination of the translation vector from the solution can be determined.
  • the translation vector determined with the solution of the equation system is compared to a plausibility check with further sensor data, in particular inertial sensor data. Due to the configuration of the method according to the invention, advantageously, an indirect distance measurement can be carried out particularly precisely, in particular also with faulty measurement data.
  • an image is created with an image diagonal that is greater than a focal length of the imaging optics used.
  • a wide-angle kel Meetingiv a fisheye lens
  • an F-theta optics and / or another to those skilled in the appear appropriate sense optics used.
  • multiple frames may be combined to form an image containing at least the first and second measurement points. It is also conceivable, in particular, for a measuring point row to be recorded in at least one method step, so that at least two measuring points each are imaged on every two pictures.
  • a total distance between a first and a last measuring point can be determined by one, in particular vector, addition of the relative positions of the measuring points resulting from the individual measurements.
  • the embodiment of the method according to the invention advantageously makes it easy to ensure that a total distance to be measured, in particular the measuring points defining the distance, are recorded in a single image. In particular, increased user comfort and more reliable evaluation of the image data can be achieved.
  • At least two regions of an image acquisition unit be illuminated in an offset manner for recording an image.
  • an exposure area for capturing an image of the image capture unit is illuminated in columns and / or lines.
  • an image is taken in columns and / or lines.
  • the recorded image is corrected by means of the inertial sensor data, in particular with respect to a change in position of the image acquisition unit during recording of the image by means of a processing unit of the image acquisition unit.
  • a measuring device in particular hand-held measuring device, pre-strike with a distance determination unit and a computing unit for carrying out a method according to one of the preceding claims.
  • the meter is designed as a hand-held meter.
  • the measuring device without the aid of a transport machine and / or a holding device, in particular a tripod, with the hands, especially with one hand, transported and in particular be operated during a measurement process.
  • the mass of the Ausrichtvor direction is less than 10 kg, preferably less than 5 kg and more preferably less than 1 kg.
  • a "computing unit" is to be understood in particular as a unit having an information input, an information processing and an information output.
  • the arithmetic unit has at least one processor, a memory, input and output means, further electrical components, an operating program, control routines, control routines and / or calculation routines.
  • the components of the arithmetic unit are arranged on a common board and / or advantageously arranged in a common housing.
  • the measuring device preferably has at least one sensor unit, in particular with at least one inertial sensor element.
  • the measuring device preferably has at least one image acquisition unit with an imaging optics.
  • the distance determination unit, the sensor unit and the image detection unit are directly and / or indirectly, for example, via a housing rigidly connected together.
  • the fact that "two or more units are rigidly connected together" is intended to mean that a relative position of the units relative to one another can be changed by less than 0.5 mm and a relative orientation can be changed by less than 1 ° without destruction.
  • the image acquisition unit and / or the distance determination unit it would also be conceivable for the image acquisition unit and / or the distance determination unit to be connected to a housing of the measuring device via a movement unit, in particular to adapt a rela tive orientation between the image acquisition unit and the distance determination unit, for example around a measurement point in an edge region of the position the captured image.
  • the movement unit comprises a measuring unit for detecting the relative position, in particular the relative orientation, the image detection unit and the distance movement unit.
  • the inventive design of the measuring device can advantageously be designed to be particularly user-friendly indirect distance measurement.
  • the measuring device allows for a change in position during the sighting of the measuring points a guidance of the measuring device by an operator on any track.
  • the method according to the invention and / or the measuring device according to the invention should / should not be limited to the application and execution described above. be limited form.
  • the method according to the invention and / or the measuring device according to the invention can have a number deviating from a number of individual elements, components and units as well as method steps mentioned herein to fulfill a mode of operation described herein.
  • values lying within the limits mentioned should also be considered to be disclosed and usable as desired.
  • Fig. 1 is a schematic representation of an inventive
  • Measuring device and an illustration of a measuring principle of a method according to the invention which can be carried out by means of the inventions to the invention measuring device and Fig. 2 is a flowchart of the method according to the invention in a schematic representation.
  • the measuring device 10 has a distance determination unit 16 and a computing unit 40.
  • the measuring device 10 comprises a housing 42, in which at least the distance determination unit 16 and the computing unit 40 are arranged.
  • the Distance determination unit 16 is provided to measure a distance 34 of two measuring points 12, 14 on an object (here sketch-like represented by the object structure 48).
  • the distance determining unit 16 comprises a laser distance measuring unit 18.
  • the laser range measuring unit 18 preferably transmits a laser beam 51, 53 to a measurement of a distance of a measuring point 12, 14 on the object, in particular the object structure 48, from the laser distance measuring unit 18, in particular in different layers 30 , 32 of the distance determination unit 16, from.
  • the measuring device 10 comprises an image acquisition unit 38 and an imaging optics 36, for creating an image 20, 22, which images at least two measurement points 12, 14.
  • the imaging optics 36 are preferably integrated into the image capture unit 38.
  • the imaging optics 36 could also be arranged interchangeably on the image capture unit 38, in particular without tools.
  • the image acquisition unit 38 includes a CMOS image sensor to a recording of an image 20, 22.
  • the image capture unit 38 a CCD image sensor.
  • the measuring device 10 preferably has a user interface 44.
  • the user interface 44 includes a display at least to a display of indirectly ge measured distance 34.
  • the user interface 44 in particular the special display, to see a display of the recorded images 20, 22 provided.
  • the user interface 44 in particular the display, is preferably provided with at least two images 20, 22, which were taken up in particular from a different perspective, in particular from the layers 30, 32, for comparison with one another.
  • the display is designed as a touch screen to allow direct processing of the images 20, 22.
  • the measuring device 10 preferably has at least one sensor unit 46.
  • the sensor unit 46 is provided to detect a change in position of the measuring device 10, in particular of the laser distance measuring unit 18, from one layer 30 to another layer 32.
  • the sensor unit 46 is at least provided by a rotational component of a change in position of the measuring device 10, in particular the laser distance measuring unit 18, of a Layer 30 to detect another layer 32.
  • the sensor unit 46 preferably comprises at least three inertial sensor elements, in particular rotation rate meters, for measuring a rotational speed of the measuring device 10, in particular the laser distance measuring unit 18, along three spatial axes which are in each case substantially perpendicular to one another in pairs.
  • FIG. 2 shows a flowchart of a method for an indirect distance measurement of two measuring points 12, 14 from each other by means of the distance determining unit 16, which has the laser distance measuring unit 18 for a distance measurement of respectively one first and one second measuring point 12, 14 for the distance determining unit 16.
  • sighting 60 of a location of the object is effected by means of a laser beam 53 of the laser distance measuring unit 18.
  • at least one image 20 is created by the image acquisition unit 38 and output in the user interface 44 ,
  • a current position of an impact of the laser beam 53 on the object is shown in the image 20, in particular marked.
  • a new image 20 is taken at regular intervals and / or triggered by a change in the current position 30 of the measuring device 10.
  • the method step ends with a confirmation, in particular by means of a control element, that a current laser impact point is used as a first measuring point 12.
  • a measurement 62 takes place.
  • the laser distance measuring unit 18 measures a distance of the measuring point 12 from the distance determining unit 16, in particular with respect to an origin 59 of a coordinate system.
  • the coordinate system is fixedly connected to the measuring device 10 and dependent on the position 30 of the measuring device 10.
  • an axis of the coordinate system along the laser beam 53 is arranged.
  • a representation of the measuring point 12 in the coordinate system is determined with a measuring point vector 52, which in particular points from the origin 59 on the measuring point 12 and has the measured distance as the absolute value.
  • the confirmation of the current laser impact point as a measuring point 12 triggers the creation of an image 20.
  • the image 20 is stored in a memory element of the arithmetic unit 40 and / or the image frame. Sung unit 38 deposited.
  • the image 20 is output in the user interface 44, in particular with a marking of the measuring point 12.
  • an automatic update of the image 20 ends with the measurement 62.
  • the image 20 is created with an image diagonal that is greater than a focal length of the imaging imager 36 used.
  • the image 20 includes an image of the measurement point 12 and an image of a location on the object to which the second measurement point 14 is to be set.
  • the image 20 could also be composed of several individual images, if the location for the second measuring point 14 with a single image of thessen conductedsein unit 38 in the position 30 is not displayed.
  • at least two regions of an image capture unit 38 are illuminated with a time offset in order to capture an image 20.
  • the confirmation of the current laser impingement point as the measuring point 12 preferably triggers a recording of a time progression of sensor data, in particular of inertial sensor data, of the sensor unit 46.
  • the time course of the sensor data, in particular the inertial sensor data is evaluated in a later method step for detecting a deviation of a later position 32 of the measuring device 10 from the current position 30 in which the measuring point 12 was defined.
  • an immediate processing in particular a stepwise integration and / or summation of the sensor data can also take place.
  • sighting 64 of a further position in particular a point different from the measuring point 12, of the object, in particular by a user, is effected by means of a laser beam 51 of the laser distance measuring unit 18.
  • a change in position of the distance determination unit 16 to a distance calculation by means of a coordinate transformation is preferably created by the image acquisition unit 38 and output in the user interface 44.
  • a current position of an impact of the laser beam 51 on the object is shown in the image 22, in particular mar- kiert.
  • a new image 22 is taken at regular intervals and / or triggered by a change in the current position 32 of the instrument 10 Messge.
  • the method step preferably concludes with a confirmation, in particular by means of an operating element, that a current laser impingement point is used as a further, in particular second, measuring point 14.
  • a measurement 66 takes place. Analogously to the measurement 62, a distance of the measuring point 14 to an origin 58 dependent on the new position 32 is measured and a measuring point vector 50 is determined. Analogous to the measurement 62, the confirmation of the current laser impact point as measurement point 14 triggers the creation and display of an image 22.
  • the method comprises at least one method step in which at least one, in particular optical, image 20, 22 is created from a perspective, at least before and after the change in position, which contains at least the first and the second measuring points 12, 14.
  • the confirmation of the aktuel len laser incident as another, especially second, measuring point 14 defines an end point in the recording of the time course and / or the immediate processing of the sensor data, in particular the Inertialsensor schemes, Sen soriens 46.
  • a Koordinatentrans formation in particular a rotation, based on inertial sensor data ermit means.
  • the coordinate transformation in particular a rotation, taking into account further sensor data, in particular acceleration and magnetic field sensor data, determined.
  • the time course of the sensor data, in particular of the inertial sensor data is evaluated from a time of confirmation of the measuring point 12 to a point in time of the confirmation of the measuring point 14.
  • the change in position of the measuring device 10 from a first position 30 to a further position 32 is determined from the time profile.
  • a Koordina tentransformation is determined, to a transformation of a vector from the coordinate system belonging to the position 30 in a position 32 belonging to Koordi natensystem and / or vice versa.
  • at least one rotation component of the coordinate transformation is determined.
  • a rotation matrix is determined.
  • the method steps of sighting 64 and the measurement 66 are repeated to define more than two measurement points.
  • a correspondence determination 68 of pixel correspondences 24, 26 takes place.
  • the images 20, 22 are compared with one another by means of the arithmetic unit 40.
  • the measuring points 12, 14 are assigned at least one pixel correspondence 24, 26 each.
  • the measuring point 12 is assigned a corresponding point in the image 22 and measuring point 14 a corresponding point in the image 20, in particular automatically.
  • the pixel correspondence denz 24 can be represented by a line of sight of the origin 59 of the former layer 30 to the measuring point 14 of the later layer 32.
  • the image point correspondence 26 can be represented by a line of sight of the origin 58 of the later layer 32 to the measuring point 12 of the earlier layer 30.
  • a unit vector 54, 56 is determined by an image comparison, which points from the respective origin 58, 59 to the measuring point 12, 14 defined in the other position 30, 32.
  • the images 20, 22 are output in a further method step together with a marking of the measuring points 12, 14 and / or a marking of the corresponding points in the respective other image 22, 20.
  • the images 20, 22 are compared with the marked points in the user interface 44 facing each other.
  • an interrogation 70 an acceptance, in particular by a user, of the determined pixel correspondenzen 24, 26 queried.
  • the method step of the query 70 could also be used in a further refinement of the method, in particular for a measurement series with a plurality of measurement points, a selection of recorded measurement points and / or distances between the measurement points whose distance and / or their length is to be measured. to enable.
  • surfaces and / or bodies to be calculated could be defined.
  • the method has at least one method step in which the images 20, 22 are displayed, in particular in order to produce a manual result. Position and / or a correction of an automatically created Pixelkorres pondenz 24, 26 to allow.
  • a correction step 72 the corresponding points in the displayed images 20, 22 can be moved, deleted and / or recreated.
  • new unit vectors 54, 56 are determined.
  • an evaluation step 74 is carried out for a distance calculation of the distance 34 between the measuring point 12 and the measuring point 14.
  • a change in position of the distance determining unit 16 is effected by means of a, in particular measured or estimated, translation vector and / or one, in particular measured or estimated, rotational matrix adapted.
  • a measuring point vector 50, 52 and a unit vector 54, 56 along a pixel correspondence 26, 24 by means of the coordinate transformation in the coordinate system of the other layer 30, 32 is shown.
  • the measurement point vector 52 and the unit vector 56 are represented by the coordinate transformation in the origin 58 coordinate system.
  • the measurement point vector 50 and the unit vector 54 are represented by means of the, in particular inverse, coordinate transformation in the coordinate system with the origin 59.
  • a distance determination is based on a closed vector train 28, each of which connects a measuring point 12, 14 with at least two layers 30, 32 of the distance determination unit 16.
  • the vector train 28 consists of the measurement point vector 50 from origin 58 to measurement point 14, the scaled unit vector 56 from measurement point 14 to origin 59, the measurement point vector 52 from origin 59 to measurement point 12, and the scaled unit vector 54 from measurement point 12 to origin 58.
  • knowledge of the rotation matrix is sufficient to perform a coordinate transformation; in particular, a translation vector in the closed vector train 28 itself negates.
  • a distance 34 is determined by means of the, in particular weighted, least squares method, in particular under constraints.
  • the special weighted least squares method is used to solve the sliding system resulting from the vector train 28, in particular to determine at least one scaling factor of the unit vectors 54, 56.
  • measurement point 12 may be uniquely represented by the scaled unit vector 54 in the origin 58 coordinate system.
  • the distance 34 can be determined from the norm of the difference between the scaled unit vector 54 and the measuring point vector 50.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung geht aus von einem Verfahren zu einer indirekten Abstandsmessung zweier Messpunkte (12, 14) voneinander mittels einer Abstandsbestimmungseinheit (16), welche eine Laserentfernungsmesseinheit (18) zu einer Entfernungsmessung von zumindest einem ersten und einem zweiten Messpunkt (12, 14) relativ zur Abstandsbestimmungseinheit (16) aufweist. Es wird vorgeschlagen, dass in zumindest einem Verfahrensschritt eine Lageveränderung der Abstandsbestimmungseinheit (16) zu einer Abstandsberechnung mittels einer Koordinatentransformation erfolgt.

Description

Beschreibung
Verfahren zu einer indirekten Abstandsmessung
Stand der Technik
In EP 2 669 707 Al ist bereits ein Verfahren zu einer indirekten Abstandmessung zweier Messpunkte voneinander mittels einer Abstandsbestimmungseinheit vor geschlagen worden, wobei die Abstandsbestimmungseinheit eine Laserentfer nungsmesseinheit zu einer Entfernungsmessung von jeweils einem ersten und einem zweiten Messpunkt zur Laserentfernungsmesseinheit aufweist. Das be reits bekannte Verfahren basiert auf der Anwendung des Kosinussatzes, wobei ein Raumwinkel mittels Bildverarbeitungsmethoden zur Verkettung von Einzelbil dern („Image Stitching“) aus einer Bildserie bestimmt wird.
Offenbarung der Erfindung
Die Erfindung geht aus von einem Verfahren zu einer indirekten Abstandsmes sung zweier Messpunkte voneinander mittels einer Abstandsbestimmungseinheit, welche eine Laserentfernungsmesseinheit zu einer Entfernungsmessung von zumindest einem ersten und einem zweiten Messpunkt relativ zur Abstandsbe stimmungseinheit aufweist.
Es wird vorgeschlagen, dass in zumindest einem Verfahrensschritt eine Lagever änderung der Abstandsbestimmungseinheit zu einer Abstandsberechnung, ins besondere zu einer Bestimmung eines Abstands zwischen dem ersten Mess punkt und dem zweiten Messpunkt, mittels einer Koordinatentransformation er folgt. Unter einem„Abstand“ soll insbesondere eine Länge einer kürzesten Ver bindungslinie zwischen zwei Punkten, insbesondere dem ersten Messpunkt und dem zweiten Messpunkt, verstanden werden. Ein Messpunkt ist insbesondere eine mittels der Laserentfernungsmesseinheit anvisierte Stelle an einem Objekt zu einer Messung der Entfernung des Objekts relativ zur Abstandsbestimmungs einheit und/oder zur Laserentfernungsmesseinheit. Unter„anvisieren“ soll insbe sondere verstanden werden, dass ein von der Laserentfernungsmesseinheit ausgesandter Laserstrahl zur Messung der Entfernung auf eine Stelle an einem Objekt gerichtet wird. Vorzugsweise wird ein Messpunkt durch einen Benutzer anvisiert. Vorzugsweise erfolgt die Messung eines Abstands zwischen dem ers ten Messpunkt und dem zweiten Messpunkt indirekt. Darunter, dass„eine Mes sung indirekt erfolgt“ soll insbesondere verstanden werden, dass eine Größe, beispielsweise der Abstand, aus der Messung zumindest einer anderen Größe bestimmt, insbesondere berechnet, wird. Insbesondere wird der Abstand zumin dest aus der Entfernungsmessung des ersten Messpunkts relativ zur Abstands bestimmungseinheit und/oder zur Laserentfernungsmesseinheit und der Entfer nungsmessung des zweiten Messpunkts relativ zur Abstandsbestimmungseinheit und/oder zur Laserentfernungsmesseinheit bestimmt. Vorzugsweise ist die Ab standsbestimmungseinheit durch einen Benutzer frei im Raum bewegbar, insbe sondere stativfrei nutzbar. Es ist denkbar, dass zumindest zu einem Anvisieren des zweiten Messpunkts, insbesondere nach einer Messung einer Entfernung des ersten Messpunkts relativ zur Abstandsbestimmungseinheit und/oder zur Laserentfernungsmesseinheit eine Lageveränderung der Abstandsbestimmungs einheit erfolgt. Unter einer„Lage“ soll insbesondere eine Position und/oder Orien tierung in einem, insbesondere dreidimensionalen, Raum verstanden werden. Unter einer„Lageveränderung“ soll insbesondere eine zumindest im Wesentli chen abgeschlossene Veränderung der räumlichen Position und/oder der räumli chen Orientierung, insbesondere der Abstandsbestimmungseinheit, verstanden werden. Insbesondere ist eine Lageveränderung eine Überführung einer Startla ge der Abstandsbestimmungseinheit, vor der Lageveränderung, in eine Endlage der Abstandsbestimmungseinheit, nach der Lageveränderung. Vorzugsweise wird zumindest eine Entfernung eines Messpunkts relativ zur Abstandsbestim mungseinheit und/oder zur Laserentfernungsmesseinheit in der Startlage und eine Entfernung eines weiteren Messpunkts relativ zur Abstandsbestimmungs einheit und/oder zur Laserentfernungsmesseinheit in der Endlage erfasst. Bevor zugt wird eine Lageveränderung der Abstandsbestimmungseinheit durch einen Benutzer vorgenommen. Es ist aber auch denkbar, dass eine Lageveränderung mittels einer Transportvorrichtung erfolgt. Vorzugsweise wird eine Entfernungs messung eines Messpunkts bezüglich eines fest mit der Abstandsbestimmungs einheit verbundenen Koordinatensystems aufgenommen. Insbesondere definiert der von der Laserentfernungsmesseinheit ausgesandte Laserstrahl eine Koordi natenachse des Koordinatensystems. Vorzugsweise ist eine Darstellung eines Messpunkts in dem Koordinatensystem der Startlage in eine Darstellung des Messpunkts in dem Koordinatensystem der Endlage durch eine Koordinaten transformation überführbar. Insbesondere wird in zumindest einem Verfahrens schritt zu einer Abstandsberechnung zumindest eine Darstellung eines Mess punktes in ein zu einem anderen Messpunkt gehörendes Koordinatensystem transformiert. Bevorzugt wird die Koordinatentransformation anhand zumindest einer weiteren Erfassung von Daten ermittelt. Vorzugsweise wird eine absolute und/oder relative Lage, eine zeitliche Änderung einer Lage und/oder einer Bewe gung der Abstandsbestimmungseinheit zur Ermittlung der Koordinatentransfor mation direkt und/oder indirekt erfasst. Es ist auch denkbar, dass auf eine relative Lage der Abstandsbestimmungseinheit aufgrund von übereinstimmenden Struk turen auf mit bildgebenden Verfahren, insbesondere in der Startlage und der Endlage, erstellten zusätzlichen Daten geschlossen wird.
Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft eine indirekte Abstandsmessung besonders bedienerfreundlich gestaltet werden. Ins besondere erlaubt das Verfahren zu einer Lageveränderung während des Anvi sierens der Messpunkte eine Führung einer Abstandsbestimmungseinheit durch einen Bediener auf einer beliebigen Bahn im Raum.
Weiter wird vorgeschlagen, dass in zumindest einem Verfahrensschritt eine La geveränderung der Abstandsbestimmungseinheit mittels eines, insbesondere gemessenen oder geschätzten, Translationsvektors und/oder einer, insbesonde re gemessenen oder geschätzten, Rotationsmatrix angepasst wird. Vorzugswei se ist eine Überführung einer Startlage der Abstandsbestimmungseinheit in eine Endlage der Abstandsbestimmungseinheit durch eine Translation und/oder Rota tion beschreibbar, insbesondere unabhängig von der tatsächlich ausgeführten Bewegung. Insbesondere wird in zumindest einem Verfahrensschritt ein Transla tionsvektor und/oder eine Rotationsmatrix ermittelt, um einen Vektor, insbeson dere ein auf einen Messpunkt zeigender Vektor, von einem Koordinatensystem der Startlage in ein Koordinatensystem der Endlage zu transformieren. Vorzugs weise werden/wird der Translationsvektor und/oder die Rotationsmatrix gemes sen. Insbesondere soll darunter, dass„der Translationsvektor und/oder die Rota tionsmatrix gemessen werden/wird“ verstanden werden, dass eine Ermittlung des Translationsvektors und/oder der Rotationsmatrix auf Sensordaten basiert, wel che insbesondere eine Bewegungskenngröße, beispielsweise eine Neigung, eine Translationsgeschwindigkeit und/oder eine Drehbeschleunigung, messen. Alter nativ oder zusätzlich werden/wird der Translationsvektor und/oder die Rotations matrix geschätzt. Unter einer„Schätzung“ soll insbesondere eine mathematische Rechenmethode, insbesondere ein stochastische Parameterschätzverfahren, verstanden werden, die eine genäherte, insbesondere anhand eines zuvor fest gelegten Kriteriums beste, Lösung zu einem Problem findet. Insbesondere erfolgt eine Schätzung des Translationsvektors und/oder der Rotationsmatrix aufgrund von lageabhängigen Sensordaten, welche insbesondere lageabhängigen Umge bungskenngrößen erfassen, insbesondere Bilddaten von sich in der Umgebung befindlicher Objekte. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft zuverlässig und einfach eine die Lageveränderung beschreiben de Koordinatentransformation zu einer Abstandbestimmung durchgeführt wer den.
Ferner wird in zumindest einem Verfahrensschritt aus einer Perspektive zumin dest vor und nach der Lageveränderung zumindest je ein, insbesondere opti sches, Bild erstellt, welches zumindest den ersten und den zweiten Messpunkt enthält. Unter„ein Bild erstellen“ soll insbesondere verstanden werden, dass ein bildgebendes und/oder bildverarbeitendes Verfahren angewandt wird. Vorzugs weise wird ein Bild, das zumindest den ersten und den zweiten Messpunkt ent hält, mit einem einzelnen Durchlauf des bildgebenden Verfahrens erstellt. Es ist jedoch auch denkbar, dass ein Bild, das zumindest den ersten und den zweiten Messpunkt enthält, aus Daten mehrerer Durchläufe des bildgebenden Verfahrens und/oder aus Daten mehrerer bildgebender Vorrichtungen, insbesondere zumin dest zweier voneinander beabstandeten Kameras, zusammengestellt wird. Vor zugsweise wird das Bild mittels einer optischen Kamera erstellt. Es ist jedoch auch denkbar, dass zum Erstellen des Bildes eine Wärmebildkamera und/oder eine andere dem Fachmann als sinnvoll erscheinende bildgebende Vorrichtung verwendet wird. Unter einer„Perspektive“ soll insbesondere eine, insbesondere lageabhängige, Sichtrichtung der Abstandsbestimmungseinheit auf das mit der Laserentfernungsmesseinheit anvisiertem Objekt verstanden werden. Vorzugs weise wird zumindest ein Bild, das zumindest den ersten und den zweiten Mess punkt enthält, aus einer Perspektive vor der Lageveränderung erstellt. Vorzugs weise wird zumindest ein Bild, das zumindest den ersten und den zweiten Mess punkt enthält, aus einer Perspektive nach der Lageveränderung erstellt. Bevor zugt wird ein Erstellen eines Bildes jeweils durch das Messen einer Entfernung eines Messpunktes ausgelöst. Es ist auch denkbar, dass weitere Bilder, insbe sondere während der Lageveränderung, insbesondere zu einer Auswertung be züglich der Lageveränderung, erstellt werden. Insbesondere ist auch der Einsatz einer Laufbildkamera vorstellbar. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft ein Vergleich der Anordnung der Messpunkte aus verschiedenen Perspektiven ermöglicht werden. Vorteilhaft können zusätzliche geometrische Bedingungen der relativen Anordnung der Messpunkte zueinander zu einer Bestimmung des Abstands der Messpunkte voneinander abgeleitet wer den.
Weiterhin wird vorgeschlagen, dass in zumindest einem Verfahrensschritt den Messpunkten zumindest je eine Bildpunktkorrespondenz zugeordnet wird. Unter einer„Bildpunktkorrespondenz“ soll insbesondere eine Zuordnung eines Punktes eines Bildes von einem Objekt zu einem Punkt eines weiteren Bildes desselben Objekts, insbesondere aus einer anderen Perspektive, verstanden werden. Ins besondere ordnet eine Bildpunktkorrespondenz zwei Punkte zu einander zu, wel che dieselbe Stelle des Objekts darstellen. Bevorzugt wird eine Bildpunktkorres pondenz automatisch, insbesondere mittels einer Recheneinheit, erstellt. Vor zugsweise wird zumindest eine Bildpunktkorrespondenz zumindest zwischen einem in der Startlage erstelltem Bild und einem in der Endlage erstelltem Bild ermittelt. Insbesondere wird einem Messpunkt in der Startlage ein Punkt eines in der Endlage erstellten Bildes zugeordnet. Insbesondere wird einem Messpunkt in der Endlage ein Punkt eines in der Startlage erstellten Bildes zugeordnet. Vor zugsweise wird eine Bildpunktkorrespondenz durch einen Vektor in einem zu einer Lage gehörendem Koordinatensystem repräsentiert. Insbesondere zeigt ein Bildpunktkorrespondenz repräsentierender Vektor von einem Ursprung eines Koordinatensystems einer Lage, auf einen in einer anderen Lage aufgenomme nen Messpunkt. Bevorzugt werden für jeden über den ersten hinausgehenden Messpunkt zumindest zwei Bildpunktkorrespondenzen ermittelt. Insbesondere wird eine Bildpunktkorrespondenz ermittelt, um einen weiteren Messpunkt im Koordinatensystem eines vorausgehenden Messpunkts darzustellen und eine Bildpunktkorrespondenz um einen vorausgehenden Messpunkt in dem Koordina tensystem eines folgenden Messpunkts darzustellen. Insbesondere kann in einer Reihe von Messpunkten ein weiterer Messpunkt mit Bildpunktkorrespondenzen mit dem unmittelbar zuletzt aufgenommen Messpunkt verknüpft werden und/oder mit einem Referenzpunkt, insbesondere dem ersten Messpunkt. In einer weiteren Ausgestaltung ist es auch denkbar, dass in einer Messreihe mit mehreren Mess punkten jedem Messpunkt je eine Bildpunktkorrespondenz zu jedem anderen Koordinatensystem zugeordnet wird. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft eine Verknüpfung der Bilddaten mit der Koordina tentransformation erstellt werden. Es kann mit vorteilhaft wenigen Bildpunktkor respondenzen gearbeitet werden. Vorteilhaft kann die Rechenkomplexität gering gehalten werden.
Des Weiteren wird vorgeschlagen, dass in zumindest einem Verfahrensschritt die erstellten Bilder ausgegeben werden, insbesondere um eine manuelle Erstellung und/oder eine Korrektur einer automatisch erstellten Bildpunktkorrespondenz zu ermöglichen. Vorzugsweise wird in einem ausgegebenen Bild ein Messpunkt eingezeichnet, der mit derselben Lage der Abstandsbestimmungseinheit aufge nommen wurde, in welcher das Bild erstellt wurde. Bevorzugt wird in einem aus gegebenen Bild ein Messpunkt eingezeichnet, der mit einer anderen Lage der Abstandsbestimmungseinheit aufgenommen wurde als das Bild selbst. Vorzugs weise kann ein Benutzer die Position des Messpunktes, der mit einer anderen Lage der Abstandsbestimmungseinheit aufgenommen wurde als das Bild selbst, auf dem Bild erstmals markieren und/oder eine bereits vorhandene Markierung verschieben, insbesondere um eine Bildpunktkorrespondenz einzustellen und/oder zu korrigieren. Vorzugsweise werden zumindest zwei Bilder unter schiedlicher Lagen einander gegenübergestellt. Alternativ kann zwischen den Bildern hin und her gewechselt werden. Bevorzugt wird eine Bildpunktkorrespon denz sichtbar gemacht, beispielsweise mit einer form- und/oder farbcodierten Markierung der korrespondierenden Punkte und/oder mit einer Verbindungslinie zwischen den korrespondierenden Punkten. Durch die erfindungsgemäße Aus gestaltung des Verfahrens kann vorteilhaft eine hohe Zuverlässigkeit der Zuord- nung der Messpunkte zu den korrespondierenden Punkten in den Bildern erreicht werden. Vorteilhaft kann eine hohe Zuverlässigkeit der Abstandsbestimmung erzielt werden.
Darüber hinaus wird vorgeschlagen, dass in zumindest einem Verfahrensschritt die Koordinatentransformation, insbesondere eine Rotation, basierend auf Iner- tialsensordaten ermittelt wird. Vorzugsweise werden in zumindest einem Verfah rensschritt über eine mit der Laserentfernungsmesseinheit verbundene Sen soreinheit Ineritalsensordaten erfasst. Insbesondere werden während einer La geveränderung Inertialsensordaten erfasst, insbesondere zu einer Bestimmung der Lageveränderung. Vorzugsweise werden Inertialsensordaten entlang dreier räumlicher Achsen erfasst, die jeweils paarweise im Wesentlichen senkrecht auf einander stehen. Der Ausdruck„im Wesentlichen senkrecht“ soll hier insbeson dere eine Ausrichtung einer Richtung relativ zu einer Bezugsrichtung definieren, wobei die Richtung und die Bezugsrichtung, insbesondere in einer Ebene be trachtet, einen Winkel von 90° einschließen und der Winkel eine maximale Ab weichung von insbesondere kleiner als 8°, vorteilhaft kleiner als 5° und beson ders vorteilhaft kleiner als 2° aufweist. Bevorzugt wird aus den Inertialsensorda ten eine Koordinatentransformation ermittelt, welche einen Vektor des Koordina tensystems der Startlage in einen entsprechenden Vektor des Koordinatensys tems der Endlage überführt und/oder umgekehrt. Insbesondere wird in zumindest einem Verfahrensschritt eine Rotationsgeschwindigkeit der Abstandsbestim mungseinheit während einer Lageveränderung mittels Inertialsensoren, insbe sondere Drehratensensoren, erfasst. Vorzugsweise wird aus dem zeitlichen Ver lauf der Rotationsgeschwindigkeit eine Rotationsmatrix berechnet. Vorzugweise überführt die berechnete Rotationsmatrix bis auf eine Translation einen Vektor des Koordinatensystems der Startlage in einen entsprechenden Vektor des Ko ordinatensystems der Endlage und/oder umgekehrt. In einer weiteren Ausgestal tung der Erfindung wäre es auch denkbar, dass Inertialsensordaten zu einem Erfassen der Translation ausgewertet werden. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft genau eine Koordinatentransfor mation, insbesondere eine Rotationsmatrix, zu einer Abstandsmessung bestimmt werden. Weiter wird vorgeschlagen, dass in zumindest einem Verfahrensschritt die Koor dinatentransformation, insbesondere eine Rotation, unter Berücksichtigung weite rer Sensordaten, insbesondere Beschleunigungs- und Magnetfeldsensordaten, ermittelt wird. Vorzugsweise werden zu einer Erhöhung der Genauigkeit, mit wel che die Koordinatentransformation bestimmt wird, weitere Sensordaten herange zogen. Insbesondere werden Beschleunigungssensordaten erfasst. Insbesonde re wird in zumindest einem Verfahrensschritt die Drehrate der Abstandsbestim mungseinheit entlang dreier räumlicher Achsen, die jeweils paarweise im We sentlichen senkrecht aufeinander stehen, während einer Lageveränderung, ins besondere mittels Inertialsensoren, erfasst. Vorzugsweise geht der zeitliche Ver lauf der Drehrate in die Berechnung der Rotationsmatrix mit ein. Vorzugweise werden Magnetfeldsensordaten erfasst um eine Rotationsmatrix zu korrigieren. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft eine Genauigkeit einer Koordinatentransformation, insbesondere eine Rotations matrix, zu einer Abstandsmessung erhöht werden.
Ferner wird vorgeschlagen, dass in zumindest einem Verfahrensschritt eine Ab standbestimmung auf einem geschlossenen Vektorzug basiert, der je einen Messpunkt mit zumindest je zwei Lagen der Abstandsbestimmungseinheit ver bindet. Vorzugsweise werden durch eine Entfernungsmessung zwei Punkte defi niert. Insbesondere werden durch eine Entfernungsmessung ein Messpunkt und ein Ursprung des fest mit der Abstandsbestimmungseinheit verbundenen Koordi natensystems definiert. Vorzugsweise wird der Ursprung des Koordinatensys tems mit der räumlichen Position der Abstandsbestimmungseinheit gleichgesetzt. Vorzugsweise wird bei einer Entfernungsmessung ein Messpunktvektor ermittelt, der von dem Ursprung auf den Messpunkt zeigt und dessen Betrag gerade die Entfernung des Messpunkts von der Abstandsbestimmungseinheit ist. Insbeson dere werden bei einer Messung eines Abstands zweier Messpunkte zumindest zwei Messpunkte aus je einer unterschiedlichen Lage der Abstandsbestim mungseinheit bestimmt. Vorzugsweise definiert eine Abstandsmessung zumin dest vier Punkte, insbesondere zwei Messpunkte und zwei Ursprünge. Vorzugs weise liegen die definierten Punkte auf einem geschlossenen Vektorzug, der von den Messpunktvektoren und den entsprechenden Bildpunktkorrespondenzen gebildet wird. Insbesondere wird zumindest ein Messpunktvektor und zumindest eine Bildpunktkorrespondenz mittels einer Koordinatentransformation, insbeson- dere mittels einer Rotationsmatrix, in das Koordinatensystem eines anderen Messpunkts überführt. Unter einem„geschlossenen Vektorzug“ soll insbesondere verstanden werden, dass die Vektorsumme, der am Vektorzug beteiligten Vektoren, gerade Null ergibt. Vorzugsweise bilden in einem aus dem geschlossenen Vektorzug ergebendem Gleichungssystem, die Beträge der Bildpunktkorrespondenzen die Unbekannten. Vorzugsweise ist das Gleichungssystem überbestimmt. Insbesondere kann aus einer Lösung des Gleichungssystems die relative Position der beteiligten Messpunkte zueinander berechnet werden. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft eine Zwangsbedingung für die den Abstand aufweisende Geometrie mit einfach zu ermittelnden Größen formuliert werden.
Weiterhin wird vorgeschlagen, dass in zumindest einem Verfahrensschritt ein Abstand mittels der, insbesondere gewichteten, Kleinste-Quadrate-Methode, insbesondere unter Zwangsbedingungen, ermittelt wird. Insbesondere wird das sich aus dem geschlossenen Vektorzug ergebende Gleichungssystem mittels der, insbesondere gewichteten, Kleinste-Quadrate-Methode gelöst. Insbesondere liefert die Kleinste-Quadrate-Methode eine eindeutige Lösung, des sich aus dem geschlossenen Vektorzug ergebenden Gleichungssystems. Insbesondere wird mittels der Kleinste-Quadrate-Methode eine Entfernung eines Messpunkts, welcher in einer Lage der Abstandsbestimmungseinheit erfasst wurde, von der Abstandsbestimmungseinheit in einer anderen Lage ermittelt. Bevorzugt wird aus der Lösung der Abstand zwischen den Messpunkten errechnet. Insbesondere ist eine Bestimmung des Translationsvektors aus der Lösung bestimmbar. Es ist denkbar, dass der mit der Lösung des Gleichungssystems bestimmte Translationsvektor zu einer Plausibilitätsprüfung mit weiteren Sensordaten, insbesondere Inertial-Sensordaten, verglichen wird. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft eine indirekte Abstandsmessung besonders präzise durchgeführt werden, insbesondere auch bei fehlerbehafteten Messdaten.
Des Weiteren wird vorgeschlagen, dass in zumindest einem Verfahrensschritt ein Bild erstellt wird mit einer Bilddiagonalen, die größer ist als eine Brennweite der verwendeten Abbildungsoptik. Insbesondere wird zu einem Erstellen eines Bildes, das zumindest den ersten und den zweiten Messpunkt enthält, ein Weitwin- kelobjektiv, ein Fischaugenobjektiv, eine F-Theta Optik und/oder eine andere dem Fachmann als sinnvoll erscheinende Optik verwendet. Zusätzlich oder alter nativ können mehrere Einzelbilder zu einem Bild, das zumindest den ersten und den zweiten Messpunkt enthält, zusammengesetzt werden. Es ist insbesondere auch denkbar, dass in zumindest einem Verfahrensschritt eine Messpunktreihe aufgenommen wird, so dass zumindest je zwei Messpunkte auf je zwei Bildern abgebildet werden. Ein Gesamtabstand zwischen einem ersten und einem letz ten Messpunkt, kann durch eine, insbesondere vektorielle, Addition der aus den Einzelmessungen ergebenden Relativpositionen der Messpunkte untereinander ermittelt werden. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann vorteilhaft einfach gewährleistet werden, dass ein gesamter zu messender Abstand, insbesondere die den Abstand definierenden Messpunkte, in einem einzigen Bild erfasst werden. Insbesondere kann ein erhöhter Benutzerkomfort und eine zuverlässigere Auswertung der Bilddaten erreicht werden.
Ferner wird vorgeschlagen, dass in zumindest einem Verfahrensschritt zu einer Aufnahme eines Bildes zumindest zwei Bereiche einer Bilderfassungseinheit zeit lich versetzt beleuchtet werden. Insbesondere wird ein Belichtungsbereich zur Aufnahme eines Bildes der Bilderfassungseinheit spalten- und/oder zeilenweise beleuchtet. Vorzugsweise wird ein Bild spalten- und/oder zeilenweise aufge nommen. Beispielsweise wird ein Bild in zumindest in einem Verfahrensschritt mit zumindest einer Rolling-Shutter- Kamera der Bilderfassungseinheit erfasst. Vor zugsweise wird mittels einer Recheneinheit der Bilderfassungseinheit das aufge nommene Bild mittels der Inertialsensordaten korrigiert, insbesondere bezüglich einer Lageänderung der Bilderfassungseinheit während der Aufnahme des Bil des. Durch die erfindungsgemäße Ausgestaltung des Verfahrens kann eine hohe Präzision bei einer indirekten Abstandsmessung mit kostengünstigen Bauteilen implementiert werden.
Weiterhin wird ein Messgerät, insbesondere handgehaltenes Messgerät, vorge schlagen mit einer Abstandsbestimmungseinheit und einer Recheneinheit zu einer Durchführung eines Verfahrens nach einem der vorherigen Ansprüche. Bevorzugt ist das Messgerät als handgehaltenes Messgerät ausgebildet. Insbe sondere kann das Messgerät ohne Zuhilfenahme einer Transportmaschine und/oder einer Haltevorrichtung, insbesondere einem Stativ, mit den Händen, insbesondere mit einer Hand, transportiert und insbesondere während eines Messvorgangs bedient werden. Insbesondere beträgt die Masse der Ausrichtvor richtung weniger als 10 kg, bevorzugt weniger als 5 kg und besonders bevorzugt weniger als 1 kg. Unter einer„Recheneinheit“ soll insbesondere eine Einheit mit einem Informationseingang, einer Informationsverarbeitung und einer Informati onsausgabe verstanden werden. Vorteilhaft weist die Recheneinheit zumindest einen Prozessor, einen Speicher, Ein- und Ausgabemittel, weitere elektrische Bauteile, ein Betriebsprogramm, Regelroutinen, Steuerroutinen und/oder Be rechnungsroutinen auf. Vorzugsweise sind die Bauteile der Recheneinheit auf einer gemeinsamen Platine angeordnet und/oder vorteilhaft in einem gemeinsa men Gehäuse angeordnet. Vorzugsweise weist das Messgerät zumindest eine Sensoreinheit, insbesondere mit zumindest einem Inertialsensorelement auf. Bevorzugt weist das Messgerät zumindest eine Bilderfassungseinheit mit einer Abbildungsoptik auf. Vorzugsweise sind die Abstandsbestimmungseinheit, die Sensoreinheit und die Bilderfassungseinheit unmittelbar und/oder mittelbar, bei spielsweise über ein Gehäuse, starr miteinander verbunden. Dass„zwei oder mehr Einheiten miteinander starr verbunden“ sind, soll insbesondere bedeuten, dass eine relative Position der Einheiten zueinander um weniger als 0,5 mm und eine relative Orientierung um weniger als 1° zerstörungsfrei veränderbar ist. In einer alternativen Ausgestaltung wäre es auch denkbar, dass die Bilderfassungs einheit und/oder die Abstandsbestimmungseinheit über eine Bewegungseinheit mit einem Gehäuse des Messgeräts verbunden sind, insbesondere um eine rela tive Orientierung zwischen Bilderfassungseinheit und Abstandsbestimmungsein heit anzupassen, beispielsweise um einen Messpunkt in einem Randbereich des aufgenommenen Bildes zu positionieren. Vorzugsweise umfasst die Bewegungs einheit eine Messeinheit zu einer Erfassung der relativen Lage, insbesondere die relative Orientierung, der Bilderfassungseinheit und der Abstandsbewegungsein heit. Durch die erfindungsgemäße Ausgestaltung des Messgeräts kann vorteilhaft eine indirekte Abstandsmessung besonders bedienerfreundlich gestaltet werden. Insbesondere erlaubt das Messgerät zu einer Lageveränderung während des Anvisierens der Messpunkte eine Führung des Messgeräts durch einen Bediener auf einer beliebigen Bahn.
Das erfindungsgemäße Verfahren und/oder das erfindungsgemäße Messgerät sollen/soll hierbei nicht auf die oben beschriebene Anwendung und Ausführungs- form beschränkt sein. Insbesondere kann das erfindungsgemäße Verfahren und/oder das erfindungsgemäße Messgerät zu einer Erfüllung einer hierin be schriebenen Funktionsweise eine von einer hierin genannten Anzahl von einzel nen Elementen, Bauteilen und Einheiten sowie Verfahrensschritten abweichende Anzahl aufweisen. Zudem sollen bei den in dieser Offenbarung angegebenen Wertebereichen auch innerhalb der genannten Grenzen liegende Werte als of fenbart und als beliebig einsetzbar gelten.
Zeichnungen
Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In den Zeichnungen ist ein Ausführungsbeispiel der Erfindung dargestellt. Die Zeichnungen, die Beschreibung und die Ansprüche enthalten zahlreiche Merk male in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammen fassen.
Es zeigen:
Fig. 1 eine schematische Darstellung eines erfindungsgemäßen
Messgeräts sowie eine Veranschaulichung eines Messprinzips eines erfindungsgemäßen Verfahrens, das mittels des erfin dungsgemäßen Messgeräts durchführbar ist und Fig. 2 ein Flussdiagramm des erfindungsgemäßen Verfahrens in einer schematischen Darstellung.
Beschreibung des Ausführungsbeispiels
Figur 1 zeigt eine schematische Darstellung eines Messgeräts 10, insbesondere eines handgehaltenen Messgeräts 10. Das Messgerät 10 weist eine Abstands bestimmungseinheit 16 und eine Recheneinheit 40 auf. Vorzugsweise umfasst das Messgerät 10 ein Gehäuse 42, in welchem zumindest die Abstandsbestim mungseinheit 16 und die Recheneinheit 40 angeordnet sind. Bevorzugt ist die Abstandsbestimmungseinheit 16 dazu vorgesehen, einen Abstand 34 zweier Messpunkte 12, 14 an einem Objekt (hier skizzenhaft durch die Objektstruktur 48 dargestellt) zu messen. Vorzugsweise umfasst die Abstandsbestimmungseinheit 16 eine Laserentfernungsmesseinheit 18. Vorzugsweise sendet die Laserentfer nungsmesseinheit 18 einen Laserstrahl 51, 53 zu einer Messung einer Entfer nung eines Messpunkts 12, 14 an dem Objekt, insbesondere der Objektstruktur 48, von der Laserentfernungsmesseinheit 18, insbesondere in verschiedenen Lagen 30, 32 der Abstandsbestimmungseinheit 16, aus. Vorzugsweise umfasst das Messgerät 10 eine Bilderfassungseinheit 38 und eine Abbildungsoptik 36, zu einer Erstellung eines Bildes 20, 22, welches zumindest zwei Messpunkte 12, 14 abbildet. Bevorzugt ist die Abbildungsoptik 36 in die Bilderfassungseinheit 38 integriert. In einer alternativen Ausgestaltung könnte die Abbildungsoptik 36 auch, insbesondere werkzeuglos, austauschbar an der Bilderfassungseinheit 38 angeordnet sein. Vorzugsweise erlaubt die Abbildungsoptik 36, die Aufnahme eines Bildes 20, 22 mit einer Bilddiagonalen, die zumindest größer ist als eine Brennweite der Abbildungsoptik 36. Bevorzugt umfasst die Bilderfassungseinheit 38 einen CMOS-Bildsensor zu einer Aufnahme eines Bildes 20, 22. Alternativ umfasst die Bilderfassungseinheit 38 ein CCD-Bildsensor. Vorzugsweise weist das Messgerät 10 eine Benutzerschnittstelle 44 auf. Vorzugsweise umfasst die Benutzerschnittstelle 44 ein Display zumindest zu einer Anzeige des indirekt ge messenen Abstandes 34. Vorzugsweise ist die Benutzerschnittstelle 44, insbe sondere das Display, zu einer Anzeige der aufgenommenen Bilder 20, 22 vorge sehen. Vorzugsweise ist die Benutzerschnittstelle 44, insbesondere das Display, dazu vorgesehen zumindest zwei Bilder 20, 22, welche insbesondere aus einer unterschiedlichen Perspektive, insbesondere aus den Lagen 30, 32, aufgenom men wurden, zu einem Vergleich einander gegenüber zu stellen. Bevorzugt ist das Display als Touchscreen ausgebildet um eine direkte Bearbeitung der Bilder 20, 22 zu erlauben. Alternativ oder zusätzlich kann die Benutzerschnittstelle 44 weitere Bedienelemente und/oder Anzeigeelemente umfassen. Vorzugsweise weist das Messgerät 10 zumindest eine Sensoreinheit 46 auf. Vorzugsweise ist die Sensoreinheit 46 dazu vorgesehen eine Lageveränderung des Messgeräts 10, insbesondere der Laserentfernungsmesseinheit 18, von einer Lage 30 zu einer anderen Lage 32 zu erfassen. Vorzugsweise ist die Sensoreinheit 46 zu mindest dazu vorgesehen um einen Rotationsanteil einer Lageveränderung des Messgeräts 10, insbesondere der Laserentfernungsmesseinheit 18, von einer Lage 30 zu einer anderen Lage 32 zu erfassen. Bevorzugt umfasst die Sen soreinheit 46 zumindest drei Inertialsensorelemente, insbesondere Drehraten messer, zu einer Messung einer Drehgeschwindigkeit des Messgeräts 10, insbe sondere der Laserentfernungsmesseinheit 18, entlang dreier räumlicher Achsen, die jeweils paarweise im Wesentlichen senkrecht aufeinander stehen.
Figur 2 zeigt ein Flussdiagramm eines Verfahrens zu einer indirekten Abstands messung zweier Messpunkte 12, 14 voneinander mittels der Abstandsbestim mungseinheit 16, welche die Laserentfernungsmesseinheit 18 zu einer Entfer nungsmessung von jeweils einem ersten und einem zweiten Messpunkt 12, 14 zur Abstandsbestimmungseinheit 16 aufweist. In einem ersten Verfahrensschritt erfolgt ein Anvisieren 60 einer Stelle des Objekts, insbesondere durch einen Be nutzer, mittels eines Laserstrahls 53 der Laserentfernungsmesseinheit 18. Vor zugsweise wird während des Anvisierens 60 zumindest ein Bild 20 durch die Bil derfassungseinheit 38 erstellt und in der Benutzerschnittstelle 44 ausgegeben. Vorzugsweise wird eine aktuelle Position eines Auftreffens des Laserstrahls 53 auf dem Objekt in dem Bild 20 dargestellt, insbesondere markiert. Vorzugsweise wird ein neues Bild 20 in regelmäßigen Zeitabständen und/oder ausgelöst durch eine Veränderung der aktuellen Lage 30 des Messgeräts 10 aufgenommen. Vor zugsweise endet der Verfahrensschritt mit einer Bestätigung, insbesondere mit tels eines Bedienelements, dass ein aktueller Laserauftreffpunkt als ein erster Messpunkt 12 verwendet wird.
In einem weiteren Verfahrensschritt erfolgt eine Messung 62. Insbesondere misst die Laserentfernungsmesseinheit 18 eine Entfernung des Messpunkts 12 von der Abstandsbestimmungseinheit 16, insbesondere bezüglich eines Ursprungs 59 eines Koordinatensystems. Vorzugsweise ist das Koordinatensystem fest mit dem Messgerät 10 verbunden und abhängig von der Lage 30 des Messgeräts 10. Bevorzugt ist eine Achse des Koordinatensystem entlang des Laserstrahls 53 angeordnet. Vorzugsweise wird eine Darstellung des Messpunkts 12 in dem Ko ordinatensystem mit einem Messpunktvektor 52 ermittelt, welcher insbesondere vom Ursprung 59 auf dem Messpunkt 12 zeigt und als Betrag die gemessene Entfernung aufweist. Vorzugsweise löst die Bestätigung des aktuellen Laserauf treffpunkts als Messpunkt 12 das Erstellen eine Bildes 20 aus. Insbesondere wird das Bild 20 in ein Speicherelement der Recheneinheit 40 und/oder der Bilderfas- sungseinheit 38 hinterlegt. Vorzugsweise wird das Bild 20 in der Benutzerschnitt stelle 44 ausgegeben, insbesondere mit einer Markierung des Messpunkts 12. Vorzugsweise endet eine automatische Aktualisierung des Bildes 20 mit der Messung 62. In zumindest einem Verfahrensschritt wird das Bild 20 mit einer Bilddiagonalen erstellt, die größer ist als eine Brennweite der verwendeten Abbil dungsoptik 36. Vorzugsweise enthält das Bild 20 ein Abbild des Messpunkts 12 und ein Abbild einer Stelle an dem Objekt, auf welches der zweite Messpunkt 14 gesetzt werden soll. In einer alternativen Ausgestaltung könnte das Bild 20 auch aus mehreren Einzelaufnahmen zusammengestellt werden, falls die Stelle für den zweiten Messpunkt 14 mit einer einzelnen Aufnahme der Bilderfassungsein heit 38 in der Lage 30 nicht darstellbar ist. In zumindest einem Verfahrensschritt werden zu einer Aufnahme eines Bildes 20 zumindest zwei Bereiche einer Bilder fassungseinheit 38 zeitlich versetzt beleuchtet. Vorzugsweise löst die Bestäti gung des aktuellen Laserauftreffpunkts als Messpunkt 12 eine Aufzeichnung ei nes zeitlichen Verlaufs von Sensordaten, insbesondere von Inertialsensordaten, der Sensoreinheit 46 aus. Vorzugsweise wird der zeitliche Verlauf der Sensorda ten, insbesondere der Inertialsensordaten, in einem späteren Verfahrensschritt zu einer Erfassung einer Abweichung einer späteren Lage 32 des Messgeräts 10 von der aktuellen Lage 30, in welcher der Messpunkt 12 definiert wurde, ausge wertet. Alternativ zu einer Aufzeichnung des zeitlichen Verlaufs der Sensordaten, kann auch eine unmittelbare Verarbeitung, insbesondere eine schrittweise In tegration und/oder Aufsummierung, der Sensordaten erfolgen.
In einem weiteren Verfahrensschritt erfolgt das Anvisieren 64 einer weiteren Stel le, insbesondere einer von dem Messpunkt 12 verschiedenen Stelle, des Ob jekts, insbesondere durch einen Benutzer, mittels eines Laserstrahls 51 der La serentfernungsmesseinheit 18. Zu einem Anvisieren 64 einer weiteren Stelle, wird eine aktuelle Lage 30 des Messgeräts 10, insbesondere der Laserentfer nungsmesseinheit 18, verändert, insbesondere gedreht und/oder verschoben. In zumindest einem Verfahrensschritt erfolgt eine Lageveränderung der Abstands bestimmungseinheit 16 zu einer Abstandsberechnung mittels einer Koordinaten transformation. Vorzugsweise wird während des Anvisierens 64 zumindest ein Bild 22 durch die Bilderfassungseinheit 38 erstellt und in der Benutzerschnittstelle 44 ausgegeben. Vorzugsweise wird eine aktuelle Position eines Auftreffens des Laserstrahls 51 auf dem Objekt in dem Bild 22 dargestellt, insbesondere mar- kiert. Vorzugsweise wird ein neues Bild 22 in regelmäßigen Zeitabständen und/oder ausgelöst durch eine Veränderung der aktuellen Lage 32 des Messge räts 10 aufgenommen. Vorzugsweise endet der Verfahrensschritt mit einer Be stätigung, insbesondere mittels eines Bedienelements, dass ein aktueller Laser auftreffpunkt als ein weiterer, insbesondere zweiter, Messpunkt 14 verwendet wird.
In einem weiteren Verfahrensschritt erfolgt eine Messung 66. Analog zur Mes sung 62 wird eine Entfernung des Messpunkts 14 zu einem von der neuen Lage 32 abhängigen Ursprung 58 gemessen und ein Messpunktvektor 50 ermittelt. Analog zur Messung 62 löst die Bestätigung des aktuellen Laserauftreffpunkts als Messpunkt 14 das Erstellen und Anzeigen eines Bildes 22 aus. Das Verfahren umfasst zumindest einen Verfahrensschritt, in welchem aus einer Perspektive zumindest vor und nach der Lageveränderung zumindest je ein, insbesondere optisches, Bild 20, 22 erstellt wird, welches zumindest den ersten und den zwei ten Messpunkt 12, 14 enthält. Vorzugsweise definiert die Bestätigung des aktuel len Laserauftreffpunkts als weiteren, insbesondere zweiten, Messpunkt 14 einen Endpunkt in der Aufzeichnung des zeitlichen Verlaufs und/oder der unmittelbaren Verarbeitung der Sensordaten, insbesondere der Inertialsensordaten, der Sen soreinheit 46. In zumindest einem Verfahrensschritt wird eine Koordinatentrans formation, insbesondere eine Rotation, basierend auf Inertialsensordaten ermit telt. In zumindest einem Verfahrensschritt wird die Koordinatentransformation, insbesondere eine Rotation, unter Berücksichtigung weiterer Sensordaten, ins besondere Beschleunigungs- und Magnetfeldsensordaten, ermittelt. Insbesonde re wird der zeitliche Verlauf der Sensordaten, insbesondere der Inertialsensorda ten, von einem Zeitpunkt der Bestätigung des Messpunkts 12 bis zu einem Zeit punkt der Bestätigung des Messpunkts 14 ausgewertet. Insbesondere wird aus dem zeitlichen Verlauf die Lageveränderung des Messgeräts 10 von einer ersten Lage 30 zu einer weiteren Lage 32 ermittelt. Insbesondere wird eine Koordina tentransformation ermittelt, zu einer Transformation eines Vektors aus dem zur Lage 30 gehörenden Koordinatensystems in ein zur Lage 32 gehörendes Koordi natensystem und/oder umgekehrt. Vorzugsweise wird zumindest ein Rotations anteil der Koordinatentransformation ermittelt. Insbesondere wird eine Rotati onsmatrix ermittelt. Insbesondere können die Verfahrensschritte des Anvisierens 64 und der Messung 66 wiederholt werden um mehr als zwei Messpunkte zu definieren.
In einem weiteren Verfahrensschritt erfolgt eine Korrespondenzermittlung 68 von Bildpunktkorrespondenzen 24, 26. Insbesondere wird mittels der Recheneinheit 40 die Bilder 20, 22 miteinander verglichen. Zumindest in dem Verfahrensschritt wird den Messpunkten 12, 14 zumindest je eine Bildpunktkorrespondenz 24, 26 zugeordnet. Insbesondere wird dem Messpunkt 12 ein korrespondierender Punkt im Bild 22 und Messpunkt 14 ein korrespondierender Punkt im Bild 20, insbeson dere automatisch, zugewiesen. Insbesondere lässt sich die Bildpunktkorrespon denz 24 durch einen Sichtlinie des Ursprungs 59 der früheren Lage 30 zu dem Messpunkt 14 der späteren Lage 32 darstellen. Insbesondere lässt sich die Bild punktkorrespondenz 26 durch einen Sichtlinie des Ursprungs 58 der späteren Lage 32 zu dem Messpunkt 12 der früheren Lage 30 darstellen. Insbesondere wird in der Korrespondenzermittlung 68 durch einen Bildvergleich je ein Einheits vektor 54, 56 ermittelt, der von dem jeweiligen Ursprung 58, 59 auf den jeweils in der anderen Lage 30, 32 definierten Messpunkt 12, 14 zeigt.
Vorzugsweise werden die Bilder 20, 22 in einem weiteren Verfahrensschritt zu sammen mit einer Markierung der Messpunkte 12, 14 und/oder einer Markierung der korrespondierenden Punkte in dem jeweils anderen Bild 22, 20 ausgegeben. Bevorzugt werden die Bilder 20, 22 mit den markierten Punkten in der Benutzer schnittstelle 44 einander gegenübergestellt. Vorzugsweise wird in einer Abfrage 70 eine Annahme, insbesondere durch einen Benutzer, der ermittelten Bildpunkt korrespondenzen 24, 26 abgefragt. Der Verfahrensschritt der Abfrage 70 könnte in einer weiteren Ausgestaltung des Verfahrens auch dazu genutzt werden, ins besondere bei einer Messreihe mit mehreren Messpunkten, eine Auswahl an aufgenommenen Messpunkten und/oder Strecken zwischen den Messpunkten, deren Abstand und/oder deren Länge gemessen werden soll, zu ermöglichen. Insbesondere könnten durch ein manuelles Verbinden der Messpunkte mittels der Benutzerschnittstelle 44 zu berechnende Flächen und/oder Körper definiert werden.
Das Verfahren weist zumindest einen Verfahrensschritt auf, in welchem die er stellten Bilder 20, 22 ausgegeben werden, insbesondere um eine manuelle Er- Stellung und/oder eine Korrektur einer automatisch erstellten Bildpunktkorres pondenz 24, 26 zu ermöglichen. Vorzugsweise lassen sich in einem Korrektur schritt 72 die korrespondierenden Punkte in den dargestellten Bildern 20, 22 ver schieben, löschen und/oder neu erstellen. Vorzugsweise werden aufgrund der Änderung an den korrespondierenden Punkten neue Einheitsvektoren 54, 56 ermittelt.
Vorzugsweise erfolgt nach der Annahme der Bildpunktkorrespondenzen 24, 26 ein Auswertungsschritt 74 zu einer Abstandsberechnung des Abstandes 34 zwi schen dem Messpunkt 12 und dem Messpunkt 14. In zumindest einem Verfah rensschritt wird eine Lageveränderung der Abstandsbestimmungseinheit 16 mit tels eines, insbesondere gemessenen oder geschätzten, Translationsvektors und/oder einer, insbesondere gemessenen oder geschätzten, Rotationsmatrix angepasst. Insbesondere wird ein Messpunktvektor 50, 52 und ein Einheitsvektor 54, 56 entlang einer Bildpunktkorrespondenz 26, 24 mittels der Koordinatentrans formation in dem Koordinatensystem der jeweils anderen Lage 30, 32 dargestellt. Beispielsweise wird der Messpunktvektor 52 und der Einheitsvektor 56 mittels der Koordinatentransformation in dem Koordinatensystem mit dem Ursprung 58 dargestellt. Beispielsweise wird der Messpunktvektor 50 und der Einheitsvektor 54 mittels der, insbesondere inversen, Koordinatentransformation in dem Koordi natensystem mit dem Ursprung 59 dargestellt. In zumindest einem Verfahrens schritt basiert eine Abstandsbestimmung auf einem geschlossenen Vektorzug 28, der je einen Messpunkt 12, 14 mit zumindest je zwei Lagen 30, 32 der Abstands bestimmungseinheit 16 verbindet. Insbesondere besteht der Vektorzug 28 aus dem Messpunktvektor 50 von Ursprung 58 zu Messpunkt 14, dem skalierten Ein heitsvektor 56 von Messpunkt 14 zu Ursprung 59, dem Messpunktvektor 52 von Ursprung 59 zu Messpunkt 12 und dem skalierten Einheitsvektor 54 von Mess punkt 12 zu Ursprung 58. Vorzugsweise ist in der Summe der Vektoren eine Kenntnis der Rotationsmatrix ausreichend um eine Koordinatentransformation durchzuführen, insbesondere negiert sich ein Translationsvektor in dem ge schlossenen Vektorzug 28 selbst. Vorzugsweise sind in einem Gleichungssys tem, das aus dem Vektorzug 28 hervorgeht, nur die Skalierungsfaktoren der Ein heitsvektoren 54, 56 unbekannt. In zumindest einem Verfahrensschritt wird ein Abstand 34 mittels der, insbesondere gewichtete, Kleinste-Quadrate- Methode, insbesondere unter Zwangsbedingungen, ermittelt. Insbesondere wird die , ins- besondere gewichteten, Kleinste-Quadrate-Methode verwendet um das Glei chungssystem, das aus dem Vektorzug 28 hervorgeht zu lösen, insbesondere um zumindest einen Skalierungsfaktor der Einheitsvektoren 54, 56 zu ermitteln. Beispielsweise kann Messpunkt 12 durch den skalierten Einheitsvektor 54 in dem Koordinatensystem mit dem Ursprung 58 eindeutig dargestellt werden. Insbe sondere kann der Abstand 34 aus der Norm der Differenz des skalierten Ein heitsvektors 54 und des Messpunktvektors 50 bestimmt werden.

Claims

Ansprüche
1. Verfahren zu einer indirekten Abstandsmessung zweier Messpunkte (12, 14) voneinander mittels einer Abstandsbestimmungseinheit (16), welche eine Laserentfernungsmesseinheit (18) zu einer Entfernungsmessung von zumindest einem ersten und einem zweiten Messpunkt (12, 14) relativ zur Abstandsbestimmungseinheit (16) aufweist, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt eine Lageveränderung der Ab standsbestimmungseinheit (16) zu einer Abstandsberechnung mittels einer Koordinatentransformation erfolgt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt eine Lageveränderung der Abstandsbestim mungseinheit (16) mittels eines, insbesondere gemessenen oder geschätz ten, Translationsvektors und/oder einer, insbesondere gemessenen oder geschätzten, Rotationsmatrix angepasst wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt aus einer Perspektive zumindest vor und nach der Lageveränderung zumindest je ein, insbesondere optisches, Bild (20, 22) erstellt wird, welches zumindest den ersten und den zweiten Messpunkt (12, 14) enthält.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt den Messpunkten (12, 14) zumindest je eine Bild punktkorrespondenz (24, 26) zugeordnet wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt die erstellten Bilder (20, 22) ausgege ben werden, insbesondere um eine manuelle Erstellung und/oder eine Kor- rektur einer automatisch erstellten Bildpunktkorrespondenz (24, 26) zu er möglichen.
6. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt die Koordinatentransforma tion, insbesondere eine Rotation, basierend auf Inertialsensordaten ermit telt wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt die Koordinatentransformation, insbesondere eine Rotation, unter Berücksichtigung weiterer Sensordaten, insbesondere Be- schleunigungs- und Magnetfeldsensordaten, ermittelt wird.
8. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt eine Abstandsbestimmung auf einem geschlossenen Vektorzug (28) basiert, der je einen Messpunkt (12, 14) mit zumindest je zwei Lagen (30, 32) der Abstandsbestimmungs einheit (16) verbindet.
9. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt ein Abstand (34) mittels der, insbesondere gewichteten, Kleinste-Quadrate-Methode, insbesondere unter Zwangsbedingungen, ermittelt wird.
10. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt ein Bild (20, 22) erstellt wird mit einer Bilddiagonalen, die größer ist als eine Brennweite der ver wendeten Abbildungsoptik (36).
11. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass in zumindest einem Verfahrensschritt zu einer Aufnahme eines Bildes (20, 22) zumindest zwei Bereiche einer Bilderfassungseinheit (38) zeitlich versetzt beleuchtet werden.
12. Messgerät, insbesondere handgehaltenes Messgerät, mit einer Abstands bestimmungseinheit (16) und einer Recheneinheit (40) zu einer Durchfüh rung eines Verfahrens nach einem der vorherigen Ansprüche.
PCT/EP2019/051616 2018-02-05 2019-01-23 Verfahren zu einer indirekten abstandsmessung WO2019149594A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP19701818.7A EP3749978A1 (de) 2018-02-05 2019-01-23 Verfahren zu einer indirekten abstandsmessung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018201692.5 2018-02-05
DE102018201692.5A DE102018201692A1 (de) 2018-02-05 2018-02-05 Verfahren zu einer indirekten Abstandsmessung

Publications (1)

Publication Number Publication Date
WO2019149594A1 true WO2019149594A1 (de) 2019-08-08

Family

ID=65234552

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/051616 WO2019149594A1 (de) 2018-02-05 2019-01-23 Verfahren zu einer indirekten abstandsmessung

Country Status (3)

Country Link
EP (1) EP3749978A1 (de)
DE (1) DE102018201692A1 (de)
WO (1) WO2019149594A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109001715A (zh) * 2017-06-06 2018-12-14 华东交通大学 一种非接触式站台界限单激光测距法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019210580A1 (de) 2019-07-18 2021-01-21 Robert Bosch Gmbh Verfahren zum Ermitteln einer Position eines ersten Bildbereichs in einem Korrespondenz-Bild, SoC und Steuervorrichtung und System zur Durchführung des Verfahrens, sowie Computerprogramm
DE102020208409A1 (de) 2020-07-06 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer relativen Position P sowie System
DE102020208410A1 (de) 2020-07-06 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer relativen Position P sowie System
DE102020208412A1 (de) 2020-07-06 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer relativen Position P sowie System
DE102020208411A1 (de) 2020-07-06 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer relativen Position P sowie System

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2669707A1 (de) 2012-05-29 2013-12-04 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
US20150130928A1 (en) * 2013-11-12 2015-05-14 Trimble Navigation Limited Point-to-point measurements using a handheld device
DE102016211742A1 (de) * 2016-06-29 2018-01-04 Robert Bosch Gmbh Verfahren zum Betrieb eines Laserentfernungsmessgeräts

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1669776A1 (de) * 2004-12-11 2006-06-14 Leica Geosystems AG Handhaltbares Vermessungsgerät und Vermessungsverfahren für ein solches Vermessungsgerät
DE102007061384A1 (de) * 2007-12-19 2009-06-25 Robert Bosch Gmbh Entfernungsmessvorrichtung sowie System
DE102010064480B3 (de) * 2009-05-29 2017-03-23 Kurt Wolfert Vorrichtung zur automatisierten Erfassung von Objekten mittels eines sich bewegenden Fahrzeugs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2669707A1 (de) 2012-05-29 2013-12-04 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
US20150109407A1 (en) * 2012-05-29 2015-04-23 Leica Geosystems Ag Method and handheld distance measurement device for indirect distance measurement by means of image-assisted angle determination function
US20150130928A1 (en) * 2013-11-12 2015-05-14 Trimble Navigation Limited Point-to-point measurements using a handheld device
DE102016211742A1 (de) * 2016-06-29 2018-01-04 Robert Bosch Gmbh Verfahren zum Betrieb eines Laserentfernungsmessgeräts

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109001715A (zh) * 2017-06-06 2018-12-14 华东交通大学 一种非接触式站台界限单激光测距法

Also Published As

Publication number Publication date
EP3749978A1 (de) 2020-12-16
DE102018201692A1 (de) 2019-08-08

Similar Documents

Publication Publication Date Title
WO2019149594A1 (de) Verfahren zu einer indirekten abstandsmessung
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE10219054B4 (de) Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
EP1820046B1 (de) Handhaltbares vermessungsgerät und vermessungsverfahren für ein solches vermessungsgerät
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE112014001470T5 (de) Diagnostizierung einer Mehrwegestörung und Entfernung einer Mehrwegestörung bei 3D-Scannern durch angeleitete Sondenuntersuchung
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP3479141B1 (de) Verfahren zum betrieb eines laserentfernungsmessgeräts
DE102006054324A1 (de) Verfahren zur bildbasierten Vermessung
EP3080551A1 (de) Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE102015109612A1 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
EP3385916A1 (de) Messgerät und korrespondierendes messverfahren
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE10159574B4 (de) Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
DE102019110729A1 (de) Verfahren zur Ausrichtung mindestens eines Kalibrierkörpers und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten
DE102019113799A1 (de) Messsystem zum Vermessen eines Messobjekts
DE10025741C2 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
DE102005043070B4 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken
DE102013208466B4 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19701818

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019701818

Country of ref document: EP

Effective date: 20200907