WO2005026767A1 - Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt - Google Patents

Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt Download PDF

Info

Publication number
WO2005026767A1
WO2005026767A1 PCT/EP2004/010157 EP2004010157W WO2005026767A1 WO 2005026767 A1 WO2005026767 A1 WO 2005026767A1 EP 2004010157 W EP2004010157 W EP 2004010157W WO 2005026767 A1 WO2005026767 A1 WO 2005026767A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
sensor
pixels
subsampling
Prior art date
Application number
PCT/EP2004/010157
Other languages
English (en)
French (fr)
Inventor
Holger Kirschner
Roland Graf
Original Assignee
Leica Geosystems Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems Ag filed Critical Leica Geosystems Ag
Priority to CA2538728A priority Critical patent/CA2538728C/en
Priority to JP2006525778A priority patent/JP2007505304A/ja
Priority to EP04765082A priority patent/EP1687656B1/de
Priority to CN200480026103XA priority patent/CN1849524B/zh
Priority to US10/571,208 priority patent/US7842911B2/en
Priority to AT04765082T priority patent/ATE438867T1/de
Priority to AU2004272727A priority patent/AU2004272727B2/en
Priority to DE502004009863T priority patent/DE502004009863D1/de
Publication of WO2005026767A1 publication Critical patent/WO2005026767A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors

Definitions

  • the invention relates to a method for determining the direction of an object to be measured according to the preamble of claim 1 and a computer program product and a computer data signal.
  • the direction to an object point should be determined from a detection point, e.g. the azimuth and elevation angle to another reference point or the compass direction.
  • a detection point e.g. the azimuth and elevation angle to another reference point or the compass direction.
  • this object point is distinguished from other points in space, e.g. by actively emitting radiation from it.
  • object point marking is to increase the directional reflectivity in the object point, for example by attaching one or more reflectors, e.g. a corner cube with its inversion center on the point or in a defined area around the point.
  • one or more reflectors e.g. a corner cube with its inversion center on the point or in a defined area around the point.
  • Another example of the marking of an object point is its definition as a position relative to a known object shape, such as a target plate or with regard to the edge / corner / center / center of gravity of an object.
  • a defined solid angle element or detector field of view which contains or is to contain the object point, is detected and recorded by a sensor, so that monitoring is possible. If the object point is within the monitored solid angle element, the object point marking leads to a pattern on the sensor by means of an image. This pattern, which is specific to the object, is imaged on the detector in a direction-dependent manner with a specific position. This position of the pattern on the sensor enables the direction of the object point to be calculated relative to the detection point, additional information possibly also being included.
  • An example of such an image that can be used for determining the direction is the focused image of the object point and its defined surroundings on a position-sensitive device (PSD) or image sensor using a lens or diffractive optics.
  • PSD position-sensitive device
  • Another example is the image with focus infinite, which directly receives received object beams a direction-dependent position on the sensor.
  • the divergent radiation emanating from an object point is imaged on the sensor in an approximately circular-symmetrical pattern.
  • the position of the pattern is determined by the sensor or evaluation electronics and converted in the direction of the object point in relation to the detection point, additional information about object properties, object distance and detector properties being able to be used if necessary.
  • a suitable sensor that enables the position to be determined can be, for example, a PSD as an individual sensor or an image sensor as a matrix of individual sensors, so-called pixels or pixels. The latter has the advantage that any interfering extraneous light is distributed to the individual sensors or image points of the image sensor, and the utilization of the dynamics of the sensor and the signal / background ratio are therefore more favorable than when using only one individual sensor.
  • a disadvantage when using image sensors is, however, the considerably increased time required for reading out and evaluating the image points in comparison to using only a single sensor.
  • a VGA image sensor with 640x480 pixels requires 307200 times more time in. Comparison to using a single sensor.
  • the determination of the direction can be divided into two tasks:
  • Static measurement task Here the object point is immobile or has a negligible change in the direction to the detector with regard to the target accuracy and measurement frequency of the direction determination.
  • Dynamic measurement task The change in direction from the object point to the detector is not negligible. Problems arise with the dynamic measurement task if the change in the direction to the object point during the measurement evaluation is so great that the object point gets outside the detector field of view during the subsequent measurement. If several measurements follow one another, the direction from the object point to the detector can change in the course of the measurements, for example by an arbitrary or involuntary movement of the object point. Such, possibly repeated, changes lead to problems when determining the direction when the object point leaves the field of view of the detector.
  • Measurement accuracies that are greater than or equal to the detector field of view angle.
  • the measuring task now consists only in the decision or verification, that the object point is within the sensor field of view. This is sufficient for tracking the object point, for example.
  • a - if necessary adjusted - high measuring frequency leads to a higher tolerance of the control against rapid changes of direction and is therefore also advantageous in this special case.
  • High measurement frequencies are also favorable for the static measurement task, since with the fast measurement several individual measurements can be averaged within the time determined by the application, thus increasing the measurement accuracy.
  • the measurement is disturbed by turbulent air currents (thermal streaks), there are short-term strong disturbances, which can be eliminated with rapid measurement.
  • An object of the present invention is to provide a method which stabilizes directional measurements with respect to changes in direction while maintaining the required measuring accuracy.
  • Another object of the present invention is to enable tracking based on a direction measurement, even with larger angular speeds or angular accelerations of objects to be detected.
  • the invention relates to a method for determining the direction of an object point, an image sensor or an array of individual sensors being used for reasons of ambient light stability.
  • image sensors such as CMOS image sensors
  • image sensors it is possible to directly access individual pixels or pixels.
  • image sensors on the one hand allow the limitation of - e.g. square - evaluated image field of the sensor in the form of a so-called "subwindowing".
  • subwindowing Linked to the reduction in the number of pixels read out is a shorter time when reading out and postprocessing the pixel data.
  • such sensors can also save time by so-called “subsampling”. This involves, for example, reading out only every 2nd (3rd, 4th, ...) column and / or only every 2nd (3rd, 4th, ...) Line of the image sensor array.
  • the stability of the direction determination against changes in the direction is optimized by selecting the optimal combination of subsampling and subwindowing in this sense on the basis of the required measurement accuracy and on the basis of the sensor timing.
  • information about the required measurement accuracy as well as about the time behavior of the image sensor is used.
  • the optimization can of course also take place under the specification of one or more secondary conditions, e.g. Limits for the measurement frequency.
  • Subsampling and subwindowing are combined, so that within a sub-area of the detector a set of pixels is selected so that no pixels are taken into account outside the partial area.
  • the parameters z ⁇ _ ⁇ r selection of the partial area and the parameters for the selection of the pixels within the partial area are optimized while maintaining the necessary measurement accuracy.
  • the method according to the invention has advantages over pure subwindowing or pure subsampling, since the optimization of subwindowing in terms of time, i.e. to achieve a high measurement frequency, a maximum reduction of the detection area would mean.
  • pure subsampling is significantly larger than a method according to the invention due to the evaluation of the entire detection area with regard to the minimum number of pixels to be evaluated, so that either lower measuring frequencies with the same measuring accuracy or lower measuring accuracies follow with the same measuring frequency.
  • N-fold column subsampling N-fa.ch row subsampling
  • a subset of the image information recorded via the image sensor is used. In the simplest case, this consists of selecting a subset of the pixels whose content is read out. However, aggregates of a plurality of pixels can also be formed, for example in the form of the combination of superstructures of pixels.
  • the conditions or parameters of the image recording and image evaluation can be defined. It is decided on the basis of object size, object distance and / or desired measurement accuracy whether / and which column subsampling and / / and which line subsampling can be carried out. The position of the pattern, which allows the calculation of the direction to the object point, should be able to be determined with sufficient accuracy even with subsampling.
  • the pattern is generated by a focused image of a complex object point environment.
  • the position of the image of a measuring mark on the sensor can only be extracted with sufficient accuracy if this image contains a larger number of pixels, depending on the complexity of the marking.
  • An example of an estimation of the measurement accuracy for simple patterns is outlined below, the representation only being made for the line direction of the sensor. The procedure for column direction is the same.
  • the pattern contains positions recognizable in the horizontal (line) direction of the sensor N r . These are typically light-dark or dark-light transitions. Furthermore, the recognizable positions are mostly on the edge of the pattern, ie the recognizable positions are often not
  • the size of the pattern on the sensor can be calculated from the object size and object distance. If the recognizable positions of the pattern are not based on the pixel grid, which is hardly a restriction for practical applications, the number of pixels on its edge can be estimated and N ⁇ determined. For the mistake of Position determination E p of the pattern gives the following proportionality relationship:
  • G specifies the insensitive gap between two pixels.
  • the error resulting from the signal noise must also be taken into account.
  • G is the distance between the sensitive areas of neighboring pixels, which results in a fill factor ⁇ 1 for G> 0.
  • the area of the unread pixels between the read pixels is added to this pixel spacing, with the subsampling also reducing N ⁇ .
  • the proportionality factor in equation (1) can be derived theoretically for simple patterns or determined using measurements.
  • the ⁇ -fold subsampling can thus be determined with the maximum ⁇ , which still guarantees the desired measurement accuracy of the direction measurement.
  • the previously selected selection of subsampling must also be taken into account. It may also be advantageous to include the size of the pattern in the optimization, e.g. can also be estimated from the object distance.
  • the field of view size is set so that a maximum angular acceleration of the object point occurs between two direction measurements, can be tolerated, ie the field of view size is selected so that despite the angular acceleration the object point is still in the field of view of the detector during the second measurement.
  • geodetic surveying or “geodetic application” is generally used to generally refer to measurements that include the determination or verification of data with spatial reference.
  • all applications are to be understood here, which take place in connection with the use of a geodetic instrument or geodetic measuring device. This affects above all theodolites and total stations as tachymeters with electronic angle measurement and electro-optical range finders.
  • the invention is suitable for use in specialized devices with similar functionality, e.g. in military control circles or in industrial building or process monitoring or machine positioning or control.
  • Fig.l the representation of a possible application of the method for measurement
  • 2 shows the representation of the recording of an image with a pattern by means of an image sensor; 3 shows a selection of image information by subwindowing;
  • FIG. 5 shows a selection of image information according to the invention by a combination of subwindowing and subsampling
  • FIG. 7 shows a transformation model for deriving directional information from the position of a pattern.
  • FIG. 1 shows a possible application of the method according to the invention for measurement.
  • Reference points are measured on a construction site by a total station as a geodetic measuring device 1.
  • Plumbing stick with reflector can be identified as object 2.
  • the image sensor la integrated into the measuring device 1 has a sensor field of view 3 in which the object 2 to be measured is to be located. The direction of this object 2 is determined.
  • the sensor field of view 3 is shown in this figure purely by way of example as a rectangle, but it can also be designed in other shapes.
  • FIG. 2 shows the recording of an image 4 with a pattern 6 by means of an image sensor.
  • Image 4 captured by the image sensor captures the one to be measured Object 2.
  • this image 4 is recorded by an array 5 of image points 5a and converted into electronically evaluable signals.
  • a pattern 6 on the array 5 corresponds to the object 2 to be measured.
  • This pattern 6 and the pixels assigned to it can be identified, for example, on the basis of the transition from light to dark. However, reading out all the pixels 5a of the array 5 takes a certain time, which determines the achievable frequency of the image processing. To determine the direction of the object 2, however, it is sufficient to know the position of the pattern 6 in the image 4 or on the array 5, so that not all pixels 5a of the array 5 are required in full.
  • the individual image point 5a can be selectively read out in the case of other types of construction, such as, for example, CMOS cameras, so that use which is coordinated with the image content required for determining the direction can be implemented.
  • Image information through subwindowing The pattern 6 of the object captured in image 4 is recorded by a coherent subset of the pixels of the image sensor, this subset defining a window as subarea 7a of image 4. This means that only a part of the image defined by the sensor field of view is evaluated, the evaluation, however, using all available pixels in the subarea 7a under consideration.
  • the reduction of the pixels used can already be done on the recording side by using only a part of the pixels for recording at all - for example due to hardware measures - or at Determination of the position of the pattern by reading out only part of the basically available image information.
  • pixels 5a are excluded from use according to a certain scheme, so that only the content of a subset of pixels 5a is used. In this example, only every second pixel 5a is used in each line and, in addition, the content of every second line is completely ignored. In addition, the pixels 5a used are offset from one another line by line.
  • the pattern 6 of the object captured in image 4 is recorded by a subset of the pixels 5a of the image sensor, this subset covering the entire image 4 defined by the sensor field of view.
  • the pixels 5a that are available in principle are not fully used.
  • the picture is a picture with a coarser grid, which corresponds to an image sensor with a reduced fill factor.
  • the selection of pixels 5a shown is only an example. According to the invention, an abundance of further schemes can be used. In particular, selection methods without line-by-line offset (columns and / or line subsampling) or selection methods with non-periodic sequences or aggregates of pixels 5a can also be used.
  • FIG. 5 shows a selection of image information according to the invention by a combination of subwindowing and subsampling.
  • this selection the approaches shown in FIGS. 3 and 4 are combined, so that only a partial area 7b of the image 4 for determining the Position of the pattern 6 is used.
  • this sub-area 7b not all the pixels that are generally available for evaluation are actually used, but a selection of the pixels is made according to a scheme.
  • This selection of image information thus follows a two-stage approach. For one thing, only a partial area 7b of the image is used at all. On the other hand, not all available pixels are evaluated within this partial area 7b.
  • other combinations of subwindowing and subsampling can also be used in addition to this example.
  • several sub-areas with different internal selections can also be used, whereby these sub-areas can also overlap.
  • Flg. 6 illustrates the calculation of the optimal image resolution using the example of a sensor with square image points - as in FIGS. 2 to Fig. 5 shown - and the same speed requirement in both sensor directions.
  • the procedure can be easily applied to rectangular pixels and / or different ones
  • T M C 2 N P 2 + C X N P + C Q (2)
  • Pattern 6 is located on a sensor area with N p x N p pixels. In this example, its boundaries are shown as Circle with radius R M assumed. If you like one during the measurement task? Ensure continuous direction measurement, pattern 6 must not leave the sensitive area during the measurement time T M. So the maximum speed of pattern 6 on the sensor is:
  • N P Opt provides the highest possible speed of the pattern on the sensor, which still allows successive measurements. If the pattern 6 has moved the distance D on the sensor during the measurement time, then with the pattern 6 initially in a central position, a measurement can be carried out before the field of view of the detector has to be tracked for the next measurement. If the value of N p) pt exceeds
  • This transformation model basically allows the position or the direction of an object point to be derived from the position of the pattern.
  • any object point Q within the sensor field of view can be determined on the basis of its position in the pattern or the image 4, which is captured by the image sensor, and thus on the basis of its image coordinate, a mathematical description of the image in the sensor field of view must be provided Object as a pattern - or an object point Q as a corresponding point q in the pattern - be known in Figure 4.
  • the transformation of points in the image coordinate system x, y, z into the object coordinate system X, Y, Z will be described below with reference to FIG. 7.
  • the axis Z points in the direction of the zenith and represents, for example, the standing axis of a geodetic measuring device, the axis X is formed, for example, by the tilting axis.
  • the projection center 81 of the mapping of the objects detected within the sensor field of view onto the image sensor lies at the intersection of the standing axis and the tilt axis.
  • the tilt axis is perpendicular to the standing axis.
  • the optical axis 82 and the theodolite axis 83 intersect in the projection center 81.
  • the optical axis 82 is defined as the axis through an optical unit and thus essentially the axis that passes through the centers of the lenses.
  • the theodolite axis 83 is defined as the axis with respect to which the angles of rotation about the standing axis and the tilt axis are measured. This means that the intersection of the theodolite axis 83 with the image sensor points exactly at the object point Q of the object to be measured in a two-layer measurement. This corresponds to the target axis with respect to the crosshairs in optical theodolites.
  • the calculations are limited to the mapping of an object point Q in a superordinate coordinate system, which is horizontal and whose origin is in the projection center 81, into the image plane of the image 4.
  • a transfer to any coordinate system can be carried out by means of displacement and rotation using the known Hel ⁇ nert Transformation with a scale of one.
  • the transformation model for transforming an image coordinate into an object coordinate is as follows: r q - ⁇ p + T 0 • I - • T Hz V ⁇ R lnc ⁇ r Q
  • the x and y components are determined by the image coordinate 9.
  • the z component corresponds to the chamber constant c, which is defined as the distance of the image sensor and thus of the image 4 from the projection center 81.
  • the chamber constant changes with the position of a focus lens of the optical unit and thus with the focused object distance.
  • r P image origin vector which describes the point of intersection p from the optical axis 82 with the image plane 4. m scale.
  • R / nc rotation matrix that relates tilted theodolite plane and horizontal plane.
  • T Hzy transformation matrix which describes the orientation of the theodolite axis 83 based on the horizontal angle H, the vertical angle V and the corrections of the axis errors.
  • T 0 matrix for modeling the optical distortions.
  • Fig. 7 outlines the above transformation of the object point r Q from the superordinate coordinate system X, Y, Z into the image coordinate system x, y, z.
  • the measured inclination angle, the horizontal angle H, the Vertical angle V and the axis corrections it is possible to map the object point vector r Q into the system of the image sensor.
  • the deviation of the optical axis 82 from the theodolite axis 83 and the optical distortions are corrected by means of suitable transformations and calibrations.
  • Another example of a conversion of the position of the pattern on the image sensor into direction information is the focus-infinity arrangement.
  • the image sensor is attached to the focal plane of a lens. If a beam of rays emanating from the object point is of sufficiently low divergence, the position of the resulting - often circular - pattern corresponds directly to the direction with respect to the front main point of the objective.
  • the dots which are only shown as exemplary dots, also represent more complex structures or a larger number of dots in an image sensor.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Zum Zweck der Richtungsmessung zu einem Objekt, dessen weitere Vermessung erfolgen soll, wird durch einen Bildsensor ein Bild (4) mit einem Muster (6) des Objekts aufgenommen. Um hierbei eine optimale Stabilität gegenüber schnellen Veränderungen der Objektposition zu erreichen, wird die Möglichkeit moderner Bildsensoren ausgenutzt, nur Teile der zur Verfügung stehenden Pixel auszuwerten bzw. auszulesen. Eine in diesem Sinne optimierte Auswahl der ausgewerteten Bildinformation verwendet Informationen über die geforderte Messgenauigkeit und über das Zeitverhalten des Bildsensors. Eine solche Einschränkung der ausgelesenen Bildinformation kann erfindungsgemäss durch die Auswahl nur eines Teilbereichs (7b) des Bildes (4) durch die Kombination eines Subsamplings mit einem Subwindowing erfolgen. Dabei wird innerhalb des Teilbereichs (7b) des Bildes (4) eine Auswahl auszulesender Bildpunkte durch eine gezielte Auslassung getroffen werden.

Description

Verfahren zur Richtung-sbestimmung zu einem zu vermessenden Objekt
Die Erfindung betrifft ein Verfahren zur Richtungsbestimmung zu eineτn zu vermessenden Objekt nach dem Oberbegriff des Anspruchs 1 sowie ein Computerprogrammprodukt und ein Computer-Daten-Signal .
In vielen geodätischen Aufgabenstellungen bzw. Anwendungen soll von einem Detektionspu.nkt aus die Richtung zu einem Objektpunkt bestimmt werden, wie z.B. der Azimut- und Elevationswinkel zu einem weiteren Referenzpunkt oder der Kompassrichtung. Solche Problemstellungen sind klassische Aufgaben der Geodäsie.
Um einen Objektpunkt bzw. ein zu vermessendes Objekt erfassbar und vermessbar zu gestalten, wird dieser Objektpunkt gegenüber anderen Punkten des Raumes ausgezeichnet, z.B. indem von diesem aktiv Strahlung ausgesendet wird.
Eine andere Möglichkeit der Objektpunktauszeichnung ist die Erhöhung der gerichteten Reflektivität im Objektpunkt beispielsweise durch Anbringen eines oder mehrerer Reflektoren, z.B. einem Cornercube mit dessen InversionsZentrum auf dem Punkt oder in definierter Umgebung des Punktes .
Ein weiteres Beispiel für die Auszeichnung eines Objektpunktes ist seine Definition als Position relativ zu einer bekannten Objektform, wie z.B. einer Zieltafel oder bzgl. von Kante/Ecke/Mitte/Schwerpunkt eines Objekts. Vom Detektionspunkt aus wird ein definiertes Raumwinkelelement bzw. Detektorgesichtsfeld, welches den Objektpunkt enthält oder enthalten soll, von einem Sensor erfasst und aufgenommen, so dass eine Überwachung möglich ist. Befindet sich der Objektpunkt innerhalb des überwachten Raumwinkelelements, so führt die Objektpunktauszeichnung vermöge einer Abbildung zu einem Muster auf dem Sensor. Dieses für das Objekt spezifische Muster wird auf dem Detektor in richtungsabhängiger Weise mit einer bestimmten Lage oder Position abgebildet. Diese Position des Musters auf dem Sensor ermöglicht eine Berechnung der Richtung des Objektpunktes relativ zum Detektionspunkt, wobei ggf. noch Zusatzinformationen einbezogen werden können.
Ein Beispiel für eine solche, zur Richtungsbestimmung verwendbare Abbildung ist die fokussierte Abbildung des Objektpunktes und seiner definierten Umgebung auf einen Position-Sensitive-Device (PSD) oder Bildsensor unter Verwendung eines Objektivs oder einer diffraktiven Optik. Ein anderes Beispiel ist die Abbildung mit Fokus unendlich, welche empfangenen Objektstrahlen direkt eine richtungsabhängige Position auf dem Sensor zuordnet . In diesem Beispiel wird die von einem Objektpunkt ausgehende divergente Strahlung zu einem näherungsweise zirkularsymmetrischen Muster auf dem Sensor abgebildet.
Die Position des Musters wird vom Sensor bzw. einer Auswerteelektronik bestimmt und in die gesuchte Richtung des Objektpunktes relativ zum Detektionspunkt umgerechnet, wobei ggf. Zusatzinformationen über Objekteigenschaften, Objektabstand und Detektoreigenschaften verwendet werden können . Als ein geeigneter Sensor, welcher die Positionsbestimmung ermöglicht, kann zum Beispiel ein PSD als Einzelsensor oder ein Bildsensor als Matrix von Einzelsensoren, sog. Pixel oder Bildpunkten, verwendet werden. Letzterer hat den Vorteil, dass sich eventuell störendes Fremdlicht auf die Einzelsensoren bzw. Bildpunkte des Bildsensors verteilt und damit die Auslastung der Dynamik des Sensors sowie das Signal/Hintergrund Verhältnis günstiger ist als bei der Verwendung nur eines Einzelsensors.
Ein Nachteil bei der Verwendung von Bildsensoren ist jedoch der erheblich erhöhte Zeitbedarf zum Auslesen und Auswerten der Bildpunkte im Vergleich zur Verwendung nur eines Einzelsensors. Zum Beispiel benötigt ein VGA Bildsensor mit 640x480 Bildpunkten einen 307200-mal höheren Zeitbedarf im. Vergleich zur Verwendung eines Einzelsensors.
Bei der Richtungsbestimmung zu einem Objekt oder einem. Objektpunkt ergeben sich bei der - aus Gründen der-
Stabilität gegenüber Stδrstrahlung vorteilhaften Verwendung von Flächensensoren Probleme aufgrund des erhöhten Zeitbedarfs zum Auslesen und Verarbeiten des Sensorsignals, so dass eine vergleichsweise geringe Messfrequenz der Richtungsbestimmung resultiert.
Dabei kann die Richtungsbestimmung je nach Anwendung in zwei Aufgabenstellungen unterteilt werden:
Statische Messaufgabe - Hierbei ist der Objektpunkt unbeweglich oder hat eine bezüglich Sollgenauigkeit uncl Messfrequenz der Richtungsbestimmung vernachlässigbares Veränderung der Richtung zum Detektor. Dynamische Messaufgabe - Hierbei ist die Veränderung der Richtung vom Objektpunkt zum Detektor nicht vernachlässigbar. Bei der dynamischen Messaufgabe kommt es zu Problemen wenn die Veränderung der Richtung zum Objektpunkt während der Messauswertung so groß ist, dass der Objektpunkt bei der darauffolgenden Messung ausserhalb des Detektorgesichtsfeldes gerät. Folgen mehrere Messungen aufeinander so kann sich die Richtung vom Objektpunkt zum Detektor im Verlauf der Messungen ändern, z.B. durch eine willkürliche oder unwillkürliche Bewegung des Objektpunktes. Durch solche, ggf. wiederholte Veränderungen kommt es bei der Richtungsbestimmung zu Problemen, wenn der Objektpunkt das Gesichtsfeld des Detektors verlässt.
In diesem Fall wird eine, evtl. auch automatisch durchgeführte Nachführung des Gesichtsfeldes, z.B. zur Zielverfolgung, erschwert. Unter ungünstigen Umständen kann eine auf der Richtungsmessung basierende Nachführung mit dem Ziel einer erneuten Erfassung des Objektpunktes nicht mehr durchgeführt werden, so dass die Messung unter Umständen abgebrochen werden muss.
Eine Optimierung der Stabilität der Richtungsmessung gegenüber schnellen Veränderungen der Richtung ist daher von Vorteil. Dabei darf allerdings eine vorgegebene Messgenauigkeit der Richtungsmessung nicht unterschritten werden.
Ein Spezialfall der Richtungsmessung betrachtet
Messgenauigkeiten, welche größer oder gleich dem Detektorgesichtsfeldwinkel sind. Damit besteht die Messaufgabe nur mehr in der Entscheidung bzw. Verifikation, dass der Objektpunkt innerhalb des Sensorgesichtfeldes ist. Dies ist beispielsweise für die Verfolgung des Objektpunktes ausreichend.
Eine - ggf. angepasst - hohe Messfrequenz führt zu einer höheren Toleranz der Regelung gegenüber schnellen Richtungsänderungen und ist damit auch in diesem Spezialfall von Vorteil.
Hohe Messfrequenzen sind auch bei der statischen Messaufgabe günstig, da bei der schnellen Messung innerhalb der von der Anwendung bestimmten Zeit mehrere Einzelmessungen gemittelt werden können und damit eine Erhöhung der Messgenauigkeit möglich wird. Ausserdem kommt es bei einer Störung der Messung durch turbulente Luftströmungen (Wärmeschlieren) zu kurzzeitigen starken Störungen, welche bei schneller Messung eliminiert werden können .
Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren bereitzustellen, das Richtungsmessungen unter Einhaltung der erforderlichen Messgenauigkeit gegenüber Änderungen der Richtung stabilisiert.
Eine weitere Aufgabe der vorliegenden Erfindung liegt in der Ermöglichung einer auf einer Richtungsmessung basierenden Nachführung auch bei grösseren Winkelgeschwindigkeiten bzw. Winkelbeschleunigungen von zu erfassenden Objekten.
Diese Aufgaben werden erfindungsgemass durch Merkmale des Anspruchs 1 oder durch Merkmale der Unteransprüche gelöst bzw. weitergebildet. Die Erfindung betrifft ein Verfahren zur Richtungsbestimmung zu einem Objektpunkt, wobei aus Gründen der FremdlichtStabilität ein Bildsensor bzw. ein Array von Einzelsensoren verwendet wird.
Bei speziellen Typen von Bildsensoren, wie z.B. CMOS- Bildsensoren, ist es möglich, auf einzelne Bildpunkte oder Pixel direkt zuzugreifen. Solche Bildsensoren erlauben einerseits die Einschränkung des - z.B. quadratischen - ausgewerteten Bildfeldes des Sensors in Form eines sog. „Subwindowings" . Verbunden mit der Verringerung der Zahl von ausgelesenen Pixeln ist eine kürzere Zeit beim Auslesen und Nachverarbeiten der Pixeldaten.
Zum anderen kann ein Zeitgewinn bei solchen Sensoren auch durch ein sogenanntes „Subsampling" erreicht werden. Es handelt sich dabei um das Auslesen von beispielsweise nur jeder 2. (3. ,4., ...) Spalte und/oder nur jeder 2. (3., 4., ...) Zeile des Bild-Sensorarrays .
Erfindungsgemass erfolgt eine Optimierung der Stabilität der Richtungsbestimmung gegenüber Änderungen in der Richtung durch Wahl der in diesem Sinne optimalen Kombination von Subsampling und Subwindowing anhand der geforderten Messgenauigkeit und anhand des Sensortimings . Dazu wird sowohl Information über die erforderliche Messgenauigkeit als auch über das Zeitverhalten des Bildsensors verwendet. Die Optimierung kann natürlich auch unter Vorgabe einer oder mehrerer Nebenbedingungen erfolgen, z.B. Limits für die Messfrequenz.
Dabei werden Subsampling und Subwindowing zusammengefasst , so dass innerhalb eines Teilbereichs des vom Detektor erfassten Bildes eine Menge von Bildpunkten ausgewählt wird, so dass ausserhalb des Teilbereichs keine Bildpunkte berücksichtigt werden. Dabei werden die Parameter zι_αr Auswahl des Teilbereichs und die Parameter zur Auswahl der Bildpunkte innerhalb des Teilbereichs unter Einhaltung der notwendigen Messgenauigkeit optimiert .
Gegenüber einem reinen Subwindowing oder einem reinen Subsampling besitzt das erfindungsgemässe Verfahren Vorteile, da die Optimierung des Subwindowing in zeitlicher Hinsicht, d.h. zur Erzielung einer hohen Messfrequenz, eine maximale Verkleinerung des Erfassungsbereichs bedeuten würde. Auf der anderen Seite ist ein reines Subsampling aufgrund der Auswertung des gesamten Erfassungsbereichs hinsichtlich der minimalen Zahl von auszuwertenden Bildpunkten deutlich grösser als ein erfindungsgemässes Verfahren, so dass entweder bei gleicher Messgenauigkedt geringere Messfrequenzen oder aber bei gleicher Messfrequenz geringere Messgenauigkeiten folgen.
Im Folgenden wird das Auslesen von nur jeder N-ten SpaLte (bzw. N-ten Zeile) als N-fach Spaltensubsampling (N-fa.ch Zeilensubsampling) bezeichnet.
In beiden Fällen wird von der über den Bildsensor aufgenommenen Bildinformation nur eine Teilmenge verwendet. Diese besteht im einfachsten Fall aus der Auswahl einer Teilmenge der Bildpunkte, deren Inhalt ausgelesen wird. Es können jedoch auch Aggregate mehrerer Bildpunkte, z.B. in Form der Zusammenfassung zu Überstrukturen von Pixeln gebildet werden. In einem der eigentlichen Richtungsmessung vorgeschalteten Schritt können die Bedingungen bzw. Parameter der Bildaufnahme und Bildauswertung festgelegt werden. Dabei wird anhand von Objektgröße, Objektabstand und/oder gewünschter Messgenauigkeit entschieden ob/und welches Spaltensubsampling und ob/und welches Zeilensubsampling durchgeführt werden kann. Hierbei soll die Position des Musters, welche die Berechnung der Richtung zum Objektpunkt erlaubt, auch mit Subsampling hinreichend genau bestimmbar sein. Dies gilt insbesondere, wenn das Muster durch eine fokussierte Abbildung einer komplexen Objektpunktumgebung generiert wird. Die Position des Bildes einer Messmarke auf dem Sensor ist nur hinreichend genau zu extrahieren, wenn dieses Bild eine - abhängig von der Komplexität der Markierung - größere Anzahl von Pixel beinhaltet. Ein Beispiel für eine Abschätzung der Messgenauigkeit für einfache Muster ist im Folgenden skizziert, wobei die Darstellung nur für die Zeilenrichtung des Sensors erfolgt. Die Vorgehensweise bei Spaltenrichtung erfolgt analog.
Das Muster enthält in horizontaler (Zeilen-) Richtung des Sensors Nr erkennbare Positionen. Dies sind typischerweise Hell -Dunkel- oder Dunkel-Hell-Übergänge . Weiterhin liegen die erkennbaren Positionen zumeist auf dem Rand des Musters, d.h. die erkennbaren Positionen sind häufig nicht
Teil der Textur des Musters.
Aus Objektgröße und Objektabstand lässt sich die Größe des Musters auf dem Sensor berechnen. Sind die erkennbaren Positionen des Musters nicht am Pixelraster orientiert, was für praktische Anwendungen kaum eine Einschränkung ist, lässt sich damit die Anzahl der Pixel auf dessen Rand abschätzen und somit Nτ bestimmen. Für den Fehler der Positionsbestimmung Ep des Musters ergibt sich folgende Proportionalitätsbeziehung :
G
Ep oc- (1)
wobei G die insensitive Lücke zwischen zwei Pixeln spezifiziert. Dazu muss noch der Fehler berücksichtigt werden, welcher aus dem Signalrauschen resultiert.
Ohne ein Subsampling ist G der Abstand zwischen den sensitiven Flächen benachbarter Pixel, woraus für G>0 ein Füllfaktor <1 resultiert. Mit einem Subsampling kommt zu diesem Bildpunktabstand noch die Fläche der nicht ausgelesenen Pixel zwischen den ausgelesenen Bildpunkten hinzu, wobei das Subsampling auch Nτ reduziert.
Der Proportionalitätsfaktor in Gleichung (1) lässt sich für einfache Muster theoretisch herleiten oder anhand von Messungen bestimmen.
Damit lässt sich das Ν-fach Subsampling mit dem maximalen Ν bestimmen, welches die gewünschte Messgenauigkeit der Richtungsmessung noch gewährleistet.
Bei der idealen Wahl des Subwindowings muss die zuvor getroffene Auswahl des Subsamplings berücksichtigt werden Zudem kann es vorteilhaft sein, die Größe des Musters in die Optimierung einfließen zu lassen, wobei diese z.B. auch aus der Objektdistanz geschätzt werden kann.
Dabei wird die Gesichtsfeldgrδsse so eingestellt, dass eine maximale Winkelbeschleunigung des Objektpunktes, welche zwischen zwei Richtungsmessungen auftritt, toleriert werden kann, d.h. die Gesichtsfeldgrösse wird so gewählt, dass sich trotz der Winkelbeschleunigung der Objektpunkt bei der zweiten Messung noch im Gesichtsfeld des Detektors befindet .
Unter dem Begriff der „geodätischen Vermessung" oder „geodätischen Anwendung" soll verallgemeinernd stets Messungen bezeichnet werden, die eine Bestimmung oder Überprüfung von Daten mit räumlichem Bezug beinhalten. Insbesondere sollen hier auch alle Anwendungen verstanden werde, die in Zusammenhang mit der Verwendung eines geodätischen Instruments bzw. geodätischen Messgerätes erfolgen. Dies betrifft vor allem Theodoliten und Totalstationen als Tachymeter mit elektronischer Winkelmessung und elektrooptischem Entfernungsmesser. Gleichermassen ist die Erfindung zur Verwendung in spezialisierten Vorrichtungen mit ähnlicher Funktionalität geeignet, z.B. in militärischen Richtkreisen oder in der industriellen Bauwerks- oder Prozessüberwachung bzw. Maschinenpositionierung oder -führung.
Das erfindungsgemässe Verfahren wird nachfolgend anhand von in der Zeichnung schematisch dargestellten Ausführungsbeispielen rein beispielhaft näher beschrieben. Im einzelnen zeigen
Fig.l die Darstellung einer möglichen Anwendung des Verfahrens zur Vermessung;
Fig.2 die Darstellung der Aufnahme eines Bildes mit einem Muster vermittels eines Bildsensors; Fig.3 die Darstellung einer Auswahl von Bildinformationen durch ein Subwindowing;
Fig.4 die Darstellung einer Auswahl von Bildinformationen durch ein Subsampling;
Fig.5 die Darstellung einer erfindungsgemässen Auswahl von Bildinformationen durch eine Kombination von Subwindowing und Subsampling;
Fig.6 die Darstellung der Bedingungen bei einer dynamischen Messaufgabe und
Fig.7 die Darstellung eines Transformationsmodells zur Ableitung einer RichtungsInformation aus der Position eines Musters.
In Fig.l wird eine mögliche Anwendung des erfindungsgemässen Verfahrens zur Vermessung dargestellt. Durch eine Totalstation als geodätisches Messgerät 1 werden auf einer Baustelle Referenzpunkte vermessen, die durch einen. Lotstock mit Reflektor als Objekt 2 erkennbar gekennzeichnet werden. Dabei besitzt der in das Messgerät 1 integrierte Bildsensor la ein Sensorgesichtsfeld 3, in dem sich das zu vermessende Objekt 2 befinden soll. Zu diesem Objekt 2 wird die Richtung bestimmt. Das Sensorgesichtsfeld 3 wird in dieser Figur zwar rein beispielhaft rechteckig dargestellt, es kann jedoch auch in anderen Formen ausgebildet sein.
In Fig.2 erfolgt die Darstellung der Aufnahme eines Bildes 4 mit einem Muster 6 vermittels eines Bildsensors. Das vom Bildsensor aufgenommene Bild 4 erfasst das zu vermessende Objekt 2. Sensorseitig wird dieses Bild 4 durch ein Array 5 aus Bildpunkten 5a aufgenommen und in elektronisch auswertbare Signale umgesetzt. Dem zu vermessenden Objekt 2 entspricht dabei ein Muster 6 auf dem Array 5. Dieses Muster 6 und die diesem zugeordneten Bildpunkte können beispielsweise anhand des Übergangs von Hell zu Dunkel identifiziert werden. Allerdings benötigt das Auslesen aller Bildpunkte 5a des Arrays 5 eine gewisse Zeit, welche die erzielbare Frequenz der Bildverarbeitung bestimmt. Zur Bestimmung der Richtung des Objekts 2 genügt es jedoch, die Lage des Musters 6 im Bild 4 bzw. auf dem Array 5 zu kennen, so dass nicht alle Bildpunkte 5a des Arrays 5 in vollem Umfang benötigt werden. Während bei CCD-Kameras stets ein vollständiges Auslesen erfolgt, kann bei anderen Bautypen, wie z.B. CMOS-Kameras, der einzelne Bildpunkt 5a selektiv ausgelesen werden, so dass eine auf den zur Richtungsbestimmung benötigten Bildinhalt abgestimmte Nutzung realisierbar ist.
Fig.3 zeigt die Darstellung einer Auswahl von
Bildinformationen durch ein Subwindowing. Das Muster 6 des im Bild 4 erfassten Objekts wird durch eine zusammenhängende Teilmenge der Bildpunkte des Bildsensors aufgenommen, wobei diese Teilmenge ein Fenster als Teilbereich 7a des Bildes 4 definiert. Dies bedeutet, dass nur ein Teil des durch das Sensorgesichtsfeld definierten Bildes ausgewertet wird, wobei die Auswertung allerdings im betrachteten Teilbereich 7a alle zur Verfügung stehenden Bildpunkte nutzt. Die Reduktion der genutzten Bildpunkte kann bereits aufnahmeseitig erfolgen, indem nur ein Teil der Bildpunkte überhaupt zur Aufnahme genutzt wird - z.B. aufgrund hardwareseitiger Massnahmen - oder aber bei der Bestimmung der Position des Musters, indem nur ein Teil der grundsätzlich verfügbaren Bildinformation ausgelesen wird.
Fig.4 zeigt die Darstellung einer Auswahl von Bildinformationen durch ein Subsampling. Hier werden Bildpunkte 5a nach einem bestimmten Schema von der Nutzung ausgeschlossen, so dass nur der Inhalt einer Teilmenge von Bildpunkten 5a verwendet wird. In diesem Beispiel wird in jeder Zeile nur jeder zweite Bildpunkt 5a genutzt und zusätzlich wird der Inhalt jeder zweiten Zeile vollständig unberücksichtigt gelassen. Ausserdem werden die genutzten Bildpunkte 5a zeilenweise gegeneinander versetzt. Das Muster 6 des im Bild 4 erfassten Objekts wird durch eine Teilmenge der Bildpunkte 5a des Bildsensors aufgenommen, wobei diese Teilmenge das gesamte durch das Sensorgesichtsfeld definierte Bild 4 abdeckt. Dabei werden die prinzipiell zur Verfügung stehenden Bildpunkte 5a nicht vollständig genutzt. Im Vergleich zur Nutzung aller Bildpunkte 5a handelt es sich um eine Aufnahme mit gröberem Raster, das einem Bildsensor mit verringertem Füllfaktor entspricht. Die dargestellte Auswahl von Bildpunkten 5a ist nur ein Beispiel. Es ist erfindungsgemass eine Fülle weiterer Schemata verwendbar. Insbesondere können auch Auswahlverfahren ohne zeilenweise Versetzung (Spalten und/oder Zeilensubsampling) oder Auswahlverfahren mit nicht periodischen Folgen oder auch Aggregate von Bildpunkten 5a verwendet werden .
In Fig.5 erfolgt die Darstellung einer erfindungsgemässen Auswahl von Bildinformationen durch eine Kombination von Subwindowing und Subsampling. Bei dieser Auswahl werden die in Fig.3 und Fig.4 dargestellten Ansätze kombiniert, so dass nur ein Teilbereich 7b des Bildes 4 zur Bestimmung der Position des Musters 6 genutzt wird. In diesem Teilbereich 7b werden nicht alle grundsätzlich für eine Auswertung zur Verfügung stehenden Bildpunkte tatsächlich genutzt, sondern es wird nach einem Schema eine Auswahl der Bildpunkte vorgenommen. Diese Auswahl von Bildinformationen verfolgt somit einen zweistufigen Ansatz. Zum einen wird nur ein Teilbereich 7b des Bildes überhaupt genutzt. Zum anderen werden innerhalb dieses Teilbereichs 7b nicht alle verfügbaren Bildpunkte ausgewertet . Erfindungsgemass können über dieses Beispiel hinaus auch andere Kombinationen von Subwindowing und Subsampling verwendet werden. Insbesondere können auch mehrere Teilbereiche mit unterschiedlicher interner Auswahl genutzt werden, wobei diese Teilbereiche auch überlappen können.
Flg . 6 veranschaulicht die Berechnung der optimalen B ildauflösung am Beispiel eines Sensors mit quadratischen B ildpunkten - wie in den Fig . 2 bis Fig . 5 dargestellt - und gleicher Geschwindigkeitsanforderung in beiden Sensorrichtungen . Die Vorgehensweise lässt sich leicht auf rechteckige Bildpunkte und/oder verschiedene
Geschwindigkeitsanforderungen verallgemeinern .
Gegeben sei eine Bildauflösung von Np x Np Pixeln . Der Zeitbedarf TM der Richtungsmessung ergibt sich aus der
B ildauflösung typischerweise als Polynom 2 . Grades mit den Koeff izienten C„ :
TM = C2NP 2 + CXNP + CQ ( 2 )
Auf einem Sensorbereich mit Np x Np Pixeln befindet sich das Muster 6. Dessen Grenzen werden in diesem Beispiel als Kreis mit Radius RM angenommen. Möchte man während der Messaufgabe eine . kontinuierliche Richtungsmessung gewährleisten, so darf das Muster 6 während der Messzeit TM den sensitiven Bereich nicht verlassen. Somit ist die maximale Geschwindigkeit des Musters 6 auf dem Sensor:
D R>
V 2 -"-Λ/ Max ( 3 ) LM C2NP 2 + CXNP + C0
Das optimale Subwindowing maximiert diese Geschwindigkeit
Figure imgf000017_0001
Wählt man die Bildauflösung NP Opt NP Opt so liefert dies die größtmögliche Geschwindigkeit des Musters auf dem Sensor welche noch aufeinanderfolgende Messungen zulässt. Hat sich das Muster 6 während der Messzeit die Strecke D auf dem Sensor bewegt, so kann bei anfänglich zentraler Lage des Musters 6 noch eine Messung durchgeführt werden, bevor das Gesichtsfeld des Detektors für die nächste Messung nachgeführt werden muss. Übersteigt der Wert von Np )pt die
Anzahl von Bildpunkten in einer Sensorrichtung, z.B. NP>0pt >
Anzahl von Bildpunkten in der Zeile unter Berücksichtigung von evtl. Subsampling, so muss der Sensor in dieser Richtung ohne Subwindowing nachgeführt werden. In diesem Beispiel bedeutet das, dass von Zeilen, die das evtl. Zeilensubsampling vorsieht, alle Bildpunkte, die das evtl. Spaltensubsampling vorsieht, ausgewertet werden. Dies wäre auch die Vorgehensweise für den Fall von C2=0. Soll nur eine kontinuierliche Nachführung des Gesichtsfeldes erfolgen, so ist es oft auch möglich die Position des Musters 6 vergleichsweise grob, z.B. mit einem zulässigen Messfehler entsprechend dem halben Detektorgesichtsfeld, zu bestimmen, wenn nur die Mitte des Musters im Gesichtsfeld des Sensors ist. Dies bedeutet nur ein Teil der Fläche des Musters 6 ist auf dem ausgewerteten Sensorbereich. Bei dieser Aufgabenstellung ist die maximal zulässige Geschwindigkeit des Musters 6 auf dem Sensor
V ' M Maaxx = - „2.- ( 5 ) T M,
und damit die optimale Auflösung NPi0pt y. NP Opt des ausgewerteten Bildbereichs :
Figure imgf000018_0001
Wiederum werden, wenn Np<0pt größer ist als die Anzahl der - unter Berücksichtigung des Subsamplings - auswertbaren Bildpunkte in einer Sensorrichtung alle diese Bildpunkte ausgewertet. Das gleiche gilt für beide Sensorrichtungen, wenn C2 = 0 ist .
In den folgenden Figuren wird exemplarisch eine Möglichkeit skizziert, aus der Position des Musters auf dem Bildsensor die gewünschte Richtungsinformation zu errechnen.
Fig. 7 zeigt das Transformationsmodell zur Transformation einer Bild-Koordinate eines Punkts q des Musters in Polarwinkel eines erfassten Objekts mit einem Objektpunkt Q. Durch dieses Transformationsmodell kann grundsätzlich die Position bzw. die Richtung eines Objektpunktes aus der Position des Musters abgeleitet werden.
Damit die Polarwinkel eines beliebigen Objektpunktes Q innerhalb des Sensorgesichtsfeldes anhand seiner Position im Muster bzw. dem Bild 4, das von dem Bildsensor erf sst wird, und somit anhand seiner Bild-Koordinate bestimmt werden können, muss eine mathematische Beschreibung der Abbildung des im Sensorgesichtsfeld befindlichen Objektes als Muster - bzw. eines Objektpunkts Q als entsprechender Punkt q im Muster - im Bild 4 bekannt sein. Im Folgenden soll die Transformation von Punkten im Bild- Koordinatensystem x, y, z in das Objektkoordinatensystem X, Y, Z anhand der Fig. 7 beschrieben werden. Die Achse Z weist in Richtung des Zenits und stellt bspw. die Stehachse eines geodätischen Messgerätes dar, die Achse X wird bspw. von der Kippachse gebildet .
Für eine vereinfachte Transformation mit beschränkter
Genauigkeit können folgende Annahmen gemacht werden, wobei exemplarisch von einem geodätischen Messgerät ausgegangen wird, das bezüglich seiner Achssysteme und seines prinzipiellen Aufbaus einem Theodoliten entspricht:
• Das ProjektionsZentrum 81 der Abbildung der innerhalb des Sensorgesichtsfelds erfassten Objekte auf den Bildsensor liegt im Schnittpunkt von Stehachse und Kippachse.
• Die Kippachse ist senkrecht zur Stehachse. • Die optische Achse 82 und die Theodolitenachse 83 schneiden sich im ProjektionsZentrum 81. Hierbei ist die optische Achse 82 definiert als die Achse durch eine Optikeinheit und somit im wesentlichen diejenige Achse, welche durch die Zentren der Linsen geht. Die Theodolitenachse 83 ist definiert als diejenige Achse, bezüglich welcher die Verdrehwinkel um die Stehachse und die Kippachse gemessen werden. Das bedeutet, dass der Schnittpunkt der Theodolitenachse 83 mit dem Bildsensor bei einer Zweilagenmessung exakt auf den zu vermessenden Objektpunkt Q des Objekts zeigt. Dies entspricht der Zielachse bezüglich des Fadenkreuzes bei optischen Theodoliten.
Es ist jedoch auch möglich, nicht von diesen Annahmen auszugehen, sondern die Transformation entsprechend zu erweitern, wobei beispielsweise Achsfehler - insbesondere ein Achsversatz oder eine Achsschiefe - in die Transformation mit einbezogen werden. Dies sorgt für eine weitere Erhöhung der Genauigkeit der Transformation und biete sich daher besonders bei geodätischen Messgeräten höchster Präzisionsklasse an.
Die Berechnungen beschränken sich auf die Abbildung eines Obj ktpunktes Q in einem übergeordneten Koordinatensystem, welches horizontal ist und dessen Ursprung im Projektionszentrum 81 liegt, in die Bildebene des Bildes 4. Eine Überführung in ein beliebiges Koordinatensystem kann mittels Verschiebung und Rotation über die bekannte Helτnert-Transformation mit Massstab gleich eins durchgeführt werden.
Das Transformationsmodell zur Transformation einer Aufnahmebild-Koordinate in eine Objekt-Koordinate lautet wie folgt : rq - γp + T0 • I — • THz V ■ Rlnc ■ rQ
mit rQ Objektvektor 84 des Punktes Q im System (X,Y,Z) rq Vektor eines Punkts q des Musters, also des Abbildes des Objektpunkts Q auf dem Bild 4, gemessen im Bild-Koordinatensystem x, y, z. Die x- und y-Komponenten wird durch die Aufnahmebild-Koordinate 9 bestimmt. Die z- Komponente entspricht der Kammerkonstante c, die definiert ist als der Abstand des Bildsensors und somit des Bildes 4 vom ProjektionsZentrum 81. Die Kammerkonstante ändert sich mit der Stellung einer Fokuslinse der Optikeinheit und damit mit der fokussierten Objektdistanz. rP Bildursprungsvektor, welcher den Schnittpunkt p von der optischen Achse 82 mit der Bildebene 4 beschreibt . m Abbildungsmassstab. R/nc Rotationsmatrix, die verkippte Theodolitenebene und Horizontalebene in Zusammenhang setzt. THzy Transformationsmatrix welche die Orientierung der Theodolitenachse 83 basierend auf dem Horizontalwinkel H, dem Vertikalwinkeln V und den Korrekturen der Achsenfehler beschreibt. T0 Matrix zur Modellierung der optischen Verzerrungen .
Fig.7 skizziert die obige Transformation des Objektpunktes rQ vom übergeordneten Koordinatensystem X, Y, Z in das Bildkoordinatensystem x, y, z. Mittels der gemessenen Neigungswinkel, des Horizontalwinkels H, des Vertikalwinkels V und der Achsenkorrekturen ist es möglich, den Objektpunktvektor rQ in das System des Bildsensors abzubilden. Die Abweichung der optischen Achse 82 von der Theodolitenachse 83 und die optischen Verzerrungen werden mittels geeigneter Transformationen und Kalibrierungen korrigiert .
Es eignen sich hier Ansätze aus der Photogrammetrie, wie zum Beispiel die aus dem Stand der Technik bekannte Modellierung nach Brown oder Bayer. Bei schmalwinkligen Systemen kann die Korrektur durch eine einfache Affintransformation modelliert werden.
Ein weiteres Beispiel für eine Umrechnung der Position des Musters auf dem Bildsensor in eine Richtungsinformation ist die Fokus-Unendlich Anordnung. Hierbei wird der Bildsensor in der Brennebene eines Objektivs angebracht. Geht vom Objektpunkt ein Strahlenbündel von hinreichend geringer Divergenz aus, so entspricht der Position des daraus resultierenden - oft kreisförmigen - Musters direkt die Richtung bezüglich des vorderen Hauptpunkts des Objektivs.
In den Figuren sind die Verfahrensschritte, Gebäude und verwendeten Instrumente rein schematisch dargestellt. Insbesondere können aus den Darstellungen keine
Grössenverhältnisse oder Details der Bildaufnahme bzw. Bildverarbeitung entnommen werden. Die nur exemplarisch als Bildpunkte dargestellten Punkte stehen stellvertretend auch für komplexere Strukturen bzw. eine grössere Anzahl von Bildpunkten in einem Bildsensor.

Claims

Patentansprüche
1. Verfahren zur Richtungsbestimmung zu einem zu vermessenden Objekt (2) , unter Verwendung eines geodätischen Messgeräts (1) mit einem Bildsensor (la) , wobei dessen Sensorgesichtsfeld (3) zumindest einen Teil des zu vermessenden Objekts (2) erfasst, mit den Schritten • Aufnehmen eines Bildes (4) mit Bildinformationen durch den Bildsensor (la) , wobei das Bild (4) ein dem Objekt (2) zuordenbares Muster (6) aufweist, dessen Position innerhalb des Bildes (4) eine Bestimmung der Richtung zum Objekt (2) ermöglicht, • Bestimmen der Position des Musters (6) innerhalb des Bildes (4) , und • Ableiten einer dem Objekt (2) zugeordneten Richtungsinformation aus der Position des Musters (6) , wobei die Richtung von einem dem Bildsensor (la) zugeordneten Detektionspunkt zum Objekt (2) bestimmt wird. wobei nur eine Teilmenge der Bildinformationen zur Richtungsbestimmung ausgewählt und verwendet wird, dadurch gekennzeichnet, dass die Teilmenge der Bildinformationen hinsichtlich einer vorgegebenen Messgenauigkeit optimiert ausgewählt wird.
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch eine periodische Auslassung von Bildpunkten, wobei die Periodizität so gewählt wird, dass die örtliche Auflösbarkeit der Position des Musters (6) die Bestimmung der Richtung zum Objekt (2) mit der vorgegebenen Messgenauigkeit erlaubt .
3. Verfahren nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass beim Aufnehmen eines Bildes (4) ein Subwindowing als Auswahl eines Teilbereichs (7b) des Bildsensors (la) und ein Subsampling als gezieltes Auslassen von Bildpunkten (5a) innerhalb des Teilbereichs (7b) erfolgt .
4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Ableiten der Richtungsinformation eine Verifikation erfolgt, dass das Objekt (2) zumindest teilweise innerhalb des Sensorgesichtsfelds (3) positioniert ist.
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Festlegen von Subsampling-Parametern vor einem Festlegen der Subwindowing-Parameter erfolgt.
6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Subwindowing die Auswahl des Teilbereichs (7b) anhand wenigstens einer der folgenden Grossen erfolgt Objektgrösse, - Objektdistanz, Gewünschte Messgenauigkeit - Ausdehnung des Musters (6) , erwartete oder gemessene maximale Winkelbeschleunigung .
7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Subsampling eine Auswahl auszulassender Bildpτj.nkte (5a) anhand wenigstens einer der folgenden Grossen erfolgt - Objektgrösse, Objektdistanz, Gewünschte Messgenauigkeit - Ausdehnung des Musters (6) , erwartete oder gemessene maximale Winkelbeschleunigung.
8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Subsampling Spalten und/oder Zeilen des Bildsensors (la) , insbesondere in Form eines rechteckigen Teilbereichs (7b) des Bildsensors (la), ausgelassen werden.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Subsampling Bildpunkte (5a) in regelmässiger oder stochastischer Folge ausgelassen werden.
10. Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9.
1. Analoges oder digitales Computer-Daten-Signal , verkörpert durch eine elektromagnetische Welle, mit einem Programmcode-Segment zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9.
PCT/EP2004/010157 2003-09-12 2004-09-10 Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt WO2005026767A1 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CA2538728A CA2538728C (en) 2003-09-12 2004-09-10 Method for determination of the direction to an object for surveying
JP2006525778A JP2007505304A (ja) 2003-09-12 2004-09-10 調査する目標物の方向の測定方法
EP04765082A EP1687656B1 (de) 2003-09-12 2004-09-10 Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt
CN200480026103XA CN1849524B (zh) 2003-09-12 2004-09-10 用于确定到待勘测目标的方向的方法
US10/571,208 US7842911B2 (en) 2003-09-12 2004-09-10 Method for determination of the direction to an object to be surveyed by selecting only a portion of image information depicting the object for such direction determination
AT04765082T ATE438867T1 (de) 2003-09-12 2004-09-10 Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt
AU2004272727A AU2004272727B2 (en) 2003-09-12 2004-09-10 Method for determination of the direction to an object for surveying
DE502004009863T DE502004009863D1 (de) 2003-09-12 2004-09-10 Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03020734A EP1515152A1 (de) 2003-09-12 2003-09-12 Verfahren zur Richtungsbestimmung zu einem zu vermessenden Objekt
EP03020734.4 2003-09-12

Publications (1)

Publication Number Publication Date
WO2005026767A1 true WO2005026767A1 (de) 2005-03-24

Family

ID=34130195

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/010157 WO2005026767A1 (de) 2003-09-12 2004-09-10 Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt

Country Status (9)

Country Link
US (1) US7842911B2 (de)
EP (2) EP1515152A1 (de)
JP (1) JP2007505304A (de)
CN (1) CN1849524B (de)
AT (1) ATE438867T1 (de)
AU (1) AU2004272727B2 (de)
CA (1) CA2538728C (de)
DE (1) DE502004009863D1 (de)
WO (1) WO2005026767A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2405236A1 (de) 2010-07-07 2012-01-11 Leica Geosystems AG Geodätisches Vermessungsgerät mit automatischer hochpräziser Zielpunkt-Anzielfunktionalität
EP2543960A1 (de) 2011-07-05 2013-01-09 Hexagon Technology Center GmbH Verfahren zum Bereitstellen von Zielpunktkandidaten zur Auswahl eines Zielpunkts
EP2835613A1 (de) 2013-08-08 2015-02-11 Hexagon Technology Center GmbH Geodätisches Vermessungsgerät mit Mikrolinsenarray

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2097716B1 (de) * 2006-12-27 2013-07-31 Trimble AB Vermessungsinstrument und vermessungsverfahren
CN102119343B (zh) * 2008-08-08 2013-04-03 松下电器产业株式会社 对象检测装置和对象检测方法
EP2338062B1 (de) * 2008-10-15 2017-11-29 Siemens AG Österreich Verfahren und system zur ermittlung einer fahrzeuggeschwindigkeit
EP2557391A1 (de) * 2011-08-12 2013-02-13 Leica Geosystems AG Messgerät zur Bestimmung der räumlichen Lage eines Messhilfsinstruments
US9222771B2 (en) 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
DE102012217282B4 (de) * 2012-09-25 2023-03-02 Trimble Jena Gmbh Verfahren und Vorrichtung zur Zuordnung von Messpunkten zu einem Satz von Festpunkten
US20140267772A1 (en) * 2013-03-15 2014-09-18 Novatel Inc. Robotic total station with image-based target re-acquisition
CN104848852B (zh) * 2015-06-10 2017-08-25 刘述亮 一种环形传感阵列的定位系统和方法
JP6966184B2 (ja) * 2016-06-15 2021-11-10 株式会社トプコン 測量システム
CN108955626A (zh) * 2018-04-24 2018-12-07 西安电子科技大学 亚微米量级的高精度探测系统及位置角度探测方法
US20200090501A1 (en) * 2018-09-19 2020-03-19 International Business Machines Corporation Accident avoidance system for pedestrians
EP3640590B1 (de) 2018-10-17 2021-12-01 Trimble Jena GmbH Vermessungsvorrichtung zur vermessung eines objekts
EP3640678B1 (de) * 2018-10-17 2022-11-09 Trimble Jena GmbH Verfolger, vermessungsvorrichtung und verfahren zur verfolgung eines ziels
EP3640677B1 (de) 2018-10-17 2023-08-02 Trimble Jena GmbH Verfolger einer vermessungsvorrichtung zur verfolgung eines ziels
EP3696498A1 (de) 2019-02-15 2020-08-19 Trimble Jena GmbH Vermessungsinstrument und verfahren zur kalibrierung eines vermessungsinstruments
CN109978055B (zh) * 2019-03-26 2021-04-23 京东方科技集团股份有限公司 多传感器系统的信息融合方法及系统、计算机设备及介质
US20210004948A1 (en) * 2019-09-14 2021-01-07 Ron Zass Verifying purported capturing parameters of images of construction sites

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0474307A2 (de) * 1990-09-07 1992-03-11 Philips Electronics Uk Limited Verfolgung eines sich bewegenden Objektes
EP0661519A1 (de) * 1993-12-28 1995-07-05 Kabushiki Kaisha Topcon Geodätisches Instrument
WO2002069268A2 (en) * 2001-02-26 2002-09-06 Elop Electro-Optics Industries Ltd. Method and system for tracking an object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094671A1 (de) * 1999-10-19 2001-04-25 Deutsche Thomson-Brandt Gmbh Bewegungsschätzung für digitale Bildsignale
EP1460377A3 (de) * 2003-03-21 2004-09-29 Leica Geosystems AG Verfahren und Vorrichtung zur Bildverarbeitung in einem geodätischen Messgerät

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0474307A2 (de) * 1990-09-07 1992-03-11 Philips Electronics Uk Limited Verfolgung eines sich bewegenden Objektes
EP0661519A1 (de) * 1993-12-28 1995-07-05 Kabushiki Kaisha Topcon Geodätisches Instrument
WO2002069268A2 (en) * 2001-02-26 2002-09-06 Elop Electro-Optics Industries Ltd. Method and system for tracking an object

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2405236A1 (de) 2010-07-07 2012-01-11 Leica Geosystems AG Geodätisches Vermessungsgerät mit automatischer hochpräziser Zielpunkt-Anzielfunktionalität
WO2012004341A1 (de) 2010-07-07 2012-01-12 Leica Geosystems Ag Geodätisches vermessungsgerät mit automatischer hochpräziser zielpunkt-anzielfunktionalität
US9846035B2 (en) 2010-07-07 2017-12-19 Hexagon Technology Center Gmbh Geodetic surveying device having automatic high-precision target point sighting functionality
EP2543960A1 (de) 2011-07-05 2013-01-09 Hexagon Technology Center GmbH Verfahren zum Bereitstellen von Zielpunktkandidaten zur Auswahl eines Zielpunkts
WO2013004700A1 (de) 2011-07-05 2013-01-10 Hexagon Technology Center Gmbh Verfahren zum bereitstellen von zielpunktkandidaten zur auswahl eines zielpunkts
US9047536B2 (en) 2011-07-05 2015-06-02 Hexagon Technology Center Gmbh Method for providing target point candidates for selecting a target point
EP2835613A1 (de) 2013-08-08 2015-02-11 Hexagon Technology Center GmbH Geodätisches Vermessungsgerät mit Mikrolinsenarray
US10107624B2 (en) 2013-08-08 2018-10-23 Hexagon Technology Center Gmbh Geodetic surveying device with a microlens array

Also Published As

Publication number Publication date
AU2004272727A1 (en) 2005-03-24
CA2538728C (en) 2012-05-15
EP1687656A1 (de) 2006-08-09
US7842911B2 (en) 2010-11-30
CA2538728A1 (en) 2005-03-24
CN1849524A (zh) 2006-10-18
ATE438867T1 (de) 2009-08-15
CN1849524B (zh) 2010-07-21
EP1687656B1 (de) 2009-08-05
EP1515152A1 (de) 2005-03-16
US20080116354A1 (en) 2008-05-22
DE502004009863D1 (de) 2009-09-17
JP2007505304A (ja) 2007-03-08
AU2004272727B2 (en) 2009-09-10

Similar Documents

Publication Publication Date Title
EP1687656B1 (de) Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
EP2993450B1 (de) Verfahren und anordnung zur erfassung von akustischen und optischen informationen sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
EP2044573B1 (de) Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera
DE19528465C2 (de) Verfahren und Vorrichtung zur schnellen Erfassung der Lage einer Zielmarke
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE102004033114A1 (de) Verfahren zur Kalibrierung eines Abstandsbildsensors
EP2201326B1 (de) Verfahren zur abstandsbestimmung
EP0314721B1 (de) Ausrichtverfahren für eine feuerleiteinrichtung und feuerleiteinrichtung zur durchführung des verfahrens
DE102006059431B4 (de) Vorrichtung und Verfahren zum Bestimmen der Position einer Struktur auf einem Träger relativ zu einem Referenzpunkt des Trägers
EP3034995A1 (de) Verfahren zum Bestimmen eines Position- und Orientierungsversatzes eines geodätischen Vermessungsgeräts und ebensolches Vermessungsgerät
EP1606581A1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEOD&amp;Auml;TISCHEN MESSGER T
EP2806248A1 (de) Verfahren zur Kalibrierung einer Erfassungseinrichtung und Erfassungseinrichtung
DE102019201526A1 (de) Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils
DE102016115636A1 (de) Bewegliche Vorrichtungen
DE112019004963T5 (de) Optikbasiertes mehrdimensionales Ziel- und Mehrfachobjekterkennungs- und verfolgungsverfahren
DE102019216548A1 (de) Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE102017126495B4 (de) Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
EP2789971A1 (de) Verfahren zur Kalibrierung einer Erfassungseinrichtung und Erfassungseinrichtung
DE10130623C1 (de) Verfahren zur Bestimmung der Zustandsgrößen eines starren Körpers im Raum mittels eines Videometers
DE69934472T2 (de) Bestimmung der Position der optischen Achse einer Kamera
EP3739291A1 (de) Vollautomatisches positions- und orientierungsbestimmungsverfahren für einen terrestrischen laserscanner
DE102008008499A1 (de) Verfahren zur rechnergestützten Berechnung der Bewegung eines Objekts aus Sensordaten

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480026103.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GM HR HU ID IL IN IS JP KE KG KP KZ LC LK LR LS LT LU LV MA MD MK MN MW MX MZ NA NI NO NZ PG PH PL PT RO RU SC SD SE SG SK SY TJ TM TN TR TT TZ UA UG US UZ VN YU ZA ZM

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SZ TZ UG ZM ZW AM AZ BY KG MD RU TJ TM AT BE BG CH CY DE DK EE ES FI FR GB GR HU IE IT MC NL PL PT RO SE SI SK TR BF CF CG CI CM GA GN GQ GW ML MR SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004765082

Country of ref document: EP

Ref document number: 2004272727

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2538728

Country of ref document: CA

Ref document number: 2006525778

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2004272727

Country of ref document: AU

Date of ref document: 20040910

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 2004272727

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 2004765082

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10571208

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10571208

Country of ref document: US