DE102013202393B4 - Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung - Google Patents

Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung Download PDF

Info

Publication number
DE102013202393B4
DE102013202393B4 DE102013202393.6A DE102013202393A DE102013202393B4 DE 102013202393 B4 DE102013202393 B4 DE 102013202393B4 DE 102013202393 A DE102013202393 A DE 102013202393A DE 102013202393 B4 DE102013202393 B4 DE 102013202393B4
Authority
DE
Germany
Prior art keywords
surveying
imaging device
instrument
location
surveying instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013202393.6A
Other languages
English (en)
Other versions
DE102013202393A1 (de
Inventor
Omar Pierre Soubra
Martin Holgren
James M. Janky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Inc
Original Assignee
Trimble Navigation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Navigation Ltd filed Critical Trimble Navigation Ltd
Publication of DE102013202393A1 publication Critical patent/DE102013202393A1/de
Application granted granted Critical
Publication of DE102013202393B4 publication Critical patent/DE102013202393B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/72Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using ultrasonic, sonic or infrasonic waves
    • G01S1/725Marker, boundary, call-sign or like beacons transmitting signals not carrying directional information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Vermessungsinstrument, das Folgendes umfasst:ein Vermessungsgerät, das konfiguriert ist, um Vermessungen vorzunehmen, wobei die Vermessungen Standortinformationen beinhalten;ein bildgebendes Gerät, das mit dem Vermessungsgerät gekoppelt ist und eine bekannte räumliche Beziehung mit dem Vermessungsgerät aufweist, wobei das bildgebende Gerät konfiguriert ist, um Bildinformationen zu erhalten;ein Abstandsmessgerät, das konfiguriert ist, um einen Abstand zu einem Punkt von Interesse zu bestimmen; undeinen Prozessor, der mit dem bildgebenden Gerät in elektrischer Kommunikation steht, wobei der Prozessor konfiguriert ist, um:Standortinformationen von dem Vermessungsgerät zu empfangen;die Bildinformationen vom bildgebenden Gerät zu empfangen;die Bildinformationen zu verarbeiten, um eine Stellung des bildgebenden Gerätes zu bestimmen;einen Neigungswinkel des Vermessungsinstrumentes und eine Neigungsrichtung des Vermessungsinstrumentes in einem Bezugssystem zu bestimmen, wobei der Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden, undunter Verwendung der Standortinformationen, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und des Abstandes zum Punkt von Interesse einen Standort des Punktes von Interesse zu bestimmen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anwendung beansprucht Priorität gegenüber US-Patentanmeldung Nr. 13/397,445 , angemeldet am 15. Februar 2012, deren Offenbarung hiermit durch Bezugnahme in ihrer Gesamtheit für alle Zwecke eingeschlossen ist.
  • GEBIET DER ERFINDUNG
  • Ausführungsformen der vorliegenden Erfindung betreffen allgemein Verfahren und Instrumente zum Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitungstechniken. Die Verfahren und Instrumente können in Vermessungsanwendungen wie dem Bestimmen der Standorte von Punkten verwendet werden.
  • ALLGEMEINER STAND DER TECHNIK
  • Das Kontrollieren der Neigung eines Vermessungsinstrumentes ist eine der Hauptaufgaben eines Vermessungstechnikers. Es wird sehr viel Zeit und Mühe aufgewendet, um sicherzustellen, dass ein Vermessungsinstrument nivelliert ist. Herkömmliche Verfahren der Nivellierung eines Vermessungsinstrumentes beinhalten das Ausrichten des Vermessungsinstrumentes an einem lokalen Gravitationsvektor unter Verwendung einer Wasserwaage. Typische Vermessungsprozeduren beinhalten das Nivellieren eines Vermessungsinstrumentes vor dem Durchführen von Messungen, sodass die Daten fast frei von Neigungsfehlern sind.
  • Heutige Vermessungsinstrumente umfassen häufig ein optisches System und ein globales Navigationssatellitensystem (GNSS), das auch als globales Positionsbestimmungssystem (GPS) bezeichnet wird. Ein herkömmliches GNSS-Vermessungsinstrument beinhaltet typischerweise ein Standortmessgerät, das mit einem Ende eines Nivellierstabes verbunden ist, wobei ein herkömmliches optisches Vermessungsinstrument (z. B. ein optisches Tachymeter) typischerweise ein dreibeiniges Ständersystem verwendet. Da sie leicht tragbar sind, werden GNSS-Vermessungsinstrumente verwendet, um Standorte von Punkten von Interesse, die sich typischerweise auf dem Boden befinden, zu bestimmen, wenn viele Datenpunkte erfasst werden sollen. Ein unteres Ende oder eine Spitze des Nivellierstabs wird am Punkt von Interesse platziert, in einer laut der Wasserwaage vertikalen Position gehalten und es wird eine Standortmessung durchgeführt. Die Nivellierung stellt sicher, dass das Messungszentrum (z. B. das Antennenphasenzentrum) des Standortmessgerätes so direkt wie möglich über dem Punkt von Interesse liegt. Dies ist wichtig, da es zu Fehlern kommt, wenn das Messungszentrum nicht direkt über dem Punkt von Interesse liegt. Wenn ein zwei Meter langer Nivellierstab zum Beispiel um zwei Grad vertikal geneigt ist, kann dies bereits zu einem Messfehler von bis zu zwei Zentimetern führen. Das bedeutet, dass das Messungszentrum des Standortmessgerätes bis zu zwei Zentimeter auf einer Seite des Punktes von Interesse liegen kann.
  • WO 2011/163454 A1 beschreibt ein Verfahren und eine Vorrichtung zur bildbasierten Positionierung. Das Verfahren umfasst ein Erfassen eines ersten Bildes, wobei das erste Bild mindestens ein Objekt enthält, sowie Bewegen der Vorrichtung und ein Erfassen eines zweiten Bildes, das auch das Objekt enthält. Ferner wird ein Bild einer Oberfläche im ersten Bild und ein zweites Bild der Oberfläche im zweiten Bild aufgenommen. Die Bilder des Objekts und der Oberfläche werden dann verarbeitet.
  • WO 2010/080950 A1 betrifft eine Vorrichtung zur Bestimmung des Azimuts eines Zielpunktes. Die Vorrichtung umfasst eine Stützstruktur und eine Abbildungsvorrichtung, die mit der Stützstruktur gekoppelt und so konfiguriert ist, dass sie Bilddaten liefert. Die Vorrichtung umfasst auch eine Positionsmesseinrichtung, die mit der Stützstruktur gekoppelt und so konfiguriert ist, dass sie Positionsinformationen bestimmt, sowie einen Prozessor in elektrischer Kommunikation mit der Abbildungseinrichtung und der Positionsmesseinrichtung. Der Prozessor ist so konfiguriert, dass er die Bilddaten von der Abbildungsvorrichtung empfängt, die Positionsinformationen von der Positionsmessvorrichtung empfängt, eine Grundlinie zwischen einer ersten Position und einer zweiten Position bestimmt, eine Orientierung zwischen überlappenden Bildern bestimmt und den Azimut des Zielpunktes relativ zur Grundlinie berechnet.
  • DE 197 21 903 C1 betrifft ein Verfahren zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten eines zu vermessenden Objektes (Messobjekt) in einem photogrammetrischen Onlinesystem, wobei ein jeweils zu vermessender Oberflächenpunkt (Messpunkt) mit einer Tasterspitze eines Tasters mechanisch angetastet, dann die räumliche 3D-Lage der Tasterspitze im Antastzeitpunkt in Bezug auf ein Referenzsystem unter Verwendung zumindest einer elektronischen Kamera ermittelt und ermittelte 3D-Raumkoordinaten datenmäßig festgehalten werden.
  • Wenn die Zeit, die erforderlich ist, um ein Vermessungsinstrument zu nivellieren, verringert oder eliminiert werden könnte, könnte ein Vermessungstechniker produktiver sein, da er während eines jeweiligen Zeitraumes mehr Messungen vornehmen könnte. Demnach sind verbesserte Verfahren und Instrumente stets wünschenswert, um die für die Nivellierung eines Vermessungsinstrumentes erforderliche Zeit und den Aufwand zu verringern. Dies betrifft GNSS-Vermessungsinstrumente, optische Vermessungsinstrumente, tragbare Vermessungsinstrumente und andere Arten von Vermessungsinstrumenten, die Nivellierungsprozesse verwenden.
  • Dies wird durch die Merkmale der unabhängigen Ansprüche erreicht.
  • KURZDARSTELLUNG
  • Ausführungsformen der vorliegenden Erfindung stellen verbesserte Verfahren und Instrumente zum Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitungstechniken bereit. Der Neigungswinkel und die Neigungsrichtung können in Vermessungsanwendungen verwendet werden, um Standorte von Punkten zu bestimmen. Zum Beispiel wird in einigen Ausführungsformen unter Verwendung von Matchmoving-Bildverarbeitungstechniken eine Stellung eines mit einem Vermessungsgerät gekoppelten bildgebenden Gerätes bestimmt. Wie hierin verwendet, bezieht sich die Bezeichnung Matchmoving allgemein auf Software-Anwendungen, die verwendet werden können, um Informationen (wie eine Kamerastellung) aus einem oder mehreren Bild(ern) zu extrahieren. Die Stellung des bildgebenden Gerätes kann verwendet werden, um einen Neigungswinkel und eine Neigungsrichtung des Vermessungsgerätes zu bestimmen. Ferner kann das Vermessungsgerät ein Standortmessgerät beinhalten und der gemessene Standort kann zusammen mit dem Neigungswinkel und der Neigungsrichtung verwendet werden, um einen Standort eines Punktes von Interesse (z. B. eines Punktes an einer Spitze eines Nivellierstabs, eines Punktes, der anhand eines Laserpointers eines tragbaren Vermessungsinstrumentes identifiziert wurde, oder dergleichen) zu bestimmen. Einzelheiten dieser und anderer Ausführungsformen sind nachstehend beschrieben.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung beinhaltet ein Vermessungsinstrument einen Trägerstab, der ein erstes Ende und ein zweites Ende aufweist, und einen GNSS-Empfänger, der mit dem ersten Ende des Trägerstabes verbunden ist und eine bekannte räumliche Beziehung zum zweiten Ende des Trägerstabes aufweist. Der GNSS-Empfänger kann konfiguriert sein, um einen Standort eines Antennenphasenzentrums des GNSS-Empfängers in einem Bezugssystem zu bestimmen. Das Vermessungsinstrument beinhaltet außerdem ein bildgebendes Gerät, das mit dem Trägerstab gekoppelt ist. Das bildgebende Gerät kann konfiguriert sein, um Bildinformationen zu erhalten. Das Vermessungsinstrument beinhaltet außerdem einen Prozessor, der mit dem GNSS-Empfänger und dem bildgebenden Gerät in elektrischer Kommunikation steht. Der Prozessor kann konfiguriert sein, um den Standort des Antennenphasenzentrums vom GNSS-Empfänger zu empfangen, die Bildinformationen vom bildgebenden Gerät zu empfangen, unter Verwendung der Bildinformationen eine Stellung des bildgebenden Gerätes zu bestimmen und einen Neigungswinkel des Trägerstabes und eine Neigungsrichtung des Trägerstabes im Bezugssystem zu bestimmen. Der Neigungswinkel und die Neigungsrichtung des Trägerstabes können unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden. Der Prozessor kann außerdem konfiguriert sein, um einen Standort des zweiten Endes des Trägerstabes im Bezugssystem zu bestimmen. Der Standort kann unter Verwendung des Standortes des Antennenphasenzentrums des GNSS-Empfängers und des Neigungswinkels und der Neigungsrichtung des Trägerstabes bestimmt werden.
  • In einer Ausführungsform beinhalten die Bildinformationen ein erstes Bild, das an einem ersten Standort mit dem Trägerstab im Wesentlichen parallel zu einem lokalen Gravitationsvektor aufgenommen wurde, und ein zweites Bild, das an einem zweiten Standort aufgenommen wurde. Die Stellung des bildgebenden Gerätes kann basierend auf Merkmalen im ersten Bild verglichen mit den Merkmalen im zweiten Bild bestimmt werden.
  • In einer anderen Ausführungsform wird der Neigungswinkel des Trägerstabes in Bezug auf einen lokalen Gravitationsvektor bestimmt.
  • In einer anderen Ausführungsform beinhalten die Bildinformationen eine Mehrzahl an Bildern, die jeweils Merkmale aufnehmen, die sie mit einem anderen der Mehrzahl an Bildern gemeinsam haben. Wenigstens eins der Mehrzahl an Bildern kann aufgenommen werden, während der Trägerstab im Wesentlichen parallel zu einem lokalen Gravitationsvektor liegt. Der Prozessor kann konfiguriert sein, um die Bildinformationen unter Verwendung von Übereinstimmungen zwischen der Mehrzahl an Bildern zu verarbeiten.
  • In einer anderen Ausführungsform ist der Prozessor konfiguriert, um die Bildinformationen unter Verwendung eines Merkmalsidentifizierungsprozesses zu verarbeiten. Die Bildinformationen können wenigstens ein Bild beinhalten, in dem Merkmale aufgenommen sind, die bekannte Standorte im Bezugssystem aufweisen.
  • In einer anderen Ausführungsform sind das bildgebende Gerät und das Antennenphasenzentrum des GNSS-Empfängers in einer bekannten räumlichen Beziehung angeordnet.
  • In einer weiteren anderen Ausführungsform liegt eine Eintrittspupille des bildgebenden Gerätes im Wesentlichen koaxial mit dem Antennenphasenzentrum des GNSS-Empfängers und dem zweiten Ende des Trägerstabes.
  • Gemäß einer anderen Ausführungsform der vorliegenden Erfindung beinhaltet ein Vermessungsinstrument ein Vermessungsgerät, das konfiguriert ist, um Vermessungen durchzuführen, und ein bildgebendes Gerät, das mit dem Vermessungsgerät gekoppelt ist und eine bekannte räumliche Beziehung mit dem Vermessungsgerät aufweist. Das bildgebende Gerät kann konfiguriert sein, um Bildinformationen zu erhalten. Das Vermessungsinstrument beinhaltet außerdem einen Prozessor, der mit dem bildgebenden Gerät in elektrischer Kommunikation steht. Der Prozessor kann konfiguriert sein, um die Bildinformationen vom bildgebenden Gerät zu empfangen, die Bildinformationen zu verarbeiten, um eine Stellung des bildgebenden Gerätes zu bestimmen, und einen Neigungswinkel des Vermessungsinstrumentes und eine Neigungsrichtung des Vermessungsinstrumentes in einem Bezugssystem zu bestimmen. Der Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes können unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden.
  • In einer Ausführungsform beinhalten die Bildinformationen wenigstens ein Bild und die Stellung des bildgebenden Gerätes wird basierend auf Merkmalen in dem Bild, die bekannte Standorte im Bezugssystem aufweisen, bestimmt.
  • In einer anderen Ausführungsform ist der Prozessor in einem Handgerät angeordnet, das vom Vermessungsgerät und dem bildgebenden Gerät getrennt ist. Die Bildinformationen können unter Verwendung einer kabellosen Kommunikationsverbindung vom bildgebenden Gerät empfangen werden.
  • In einer anderen Ausführungsform umfasst das Vermessungsgerät einen GNSS-Empfänger und die vom Vermessungsgerät durchgeführten Vermessungen beinhalten Standortmessungen.
  • In einer anderen Ausführungsform beinhaltet das Vermessungsinstrument außerdem einen Trägerstab. Ein erstes Ende des Trägerstabes kann mit dem Vermessungsgerät gekoppelt sein und ein zweites Ende des Trägerstabes kann konfiguriert sein, um an einem Punkt von Interesse platziert zu werden. In einigen Ausführungsformen kann das bildgebende Gerät mit dem Trägerstab gekoppelt sein und eine bekannte räumliche Beziehung mit dem zweiten Ende des Trägerstabes aufweisen. Der Prozessor kann ferner konfiguriert sein, um die Bildinformationen zu verarbeiten, um einen Standort des bildgebenden Gerätes im Bezugssystem zu bestimmen, und konfiguriert sein, um unter Verwendung des Standortes des bildgebenden Gerätes, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und der bekannten räumlichen Beziehung zwischen dem bildgebenden Gerät und dem zweiten Ende des Trägerstabes einen Standort des zweiten Endes des Trägerstabes im Bezugssystem zu bestimmen. In anderen Ausführungsformen kann das Vermessungsgerät mit einem ersten Ende des Trägerstabes gekoppelt sein und einen GNSS-Empfänger umfassen, der konfiguriert ist, um Standortinformationen zu bestimmen. Der GNSS-Empfänger kann eine bekannte räumliche Beziehung mit dem zweiten Ende des Trägerstabes aufweisen. Der Prozessor kann ferner konfiguriert sein, um unter Verwendung der Standortinformationen vom GNSS-Empfänger, dem Neigungswinkel und der Neigungsrichtung des Vermessungsinstrumentes und der bekannten räumlichen Beziehung zwischen dem GNSS-Empfänger und dem zweiten Ende des Trägerstabes einen Standort des zweiten Endes des Trägerstabes zu bestimmen.
  • In einer anderen Ausführungsform sind das bildgebende Gerät und das Vermessungsgerät in einer bekannten räumlichen Beziehung angeordnet.
  • In einer anderen Ausführungsform beinhalten die vom Vermessungsgerät durchgeführten Vermessungen Standortmessungen, die einem Messungszentrum des Vermessungsgerätes entsprechen. Eine Eintrittspupille des bildgebenden Gerätes kann im Wesentlichen koaxial zum Messungszentrum des Vermessungsgerätes und dem ersten und zweiten Endes des Trägerstabes liegen.
  • In einer anderen Ausführungsform umfasst das Vermessungsgerät ein optisches Vermessungsinstrument, das konfiguriert ist, um optische Vermessungen durchzuführen, und ein Abstandsmessgerät, das konfiguriert ist, um einen Abstand zu einem Punkt von Interesse zu bestimmen. Das Vermessungsinstrument kann ferner einen dreibeinigen Ständer umfassen, der mit dem Vermessungsgerät und dem bildgebenden Gerät gekoppelt ist. Das Vermessungsgerät kann einen GNSS-Empfänger umfassen, der konfiguriert ist, um Standortinformationen zu bestimmen, und der Prozessor kann ferner konfiguriert sein, um unter Verwendung der Standortinformationen, der optischen Vermessungen, des Abstandes und des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes einen Standort des Punktes von Interesse zu bestimmen.
  • In einer weiteren anderen Ausführungsform sind das Vermessungsgerät und das bildgebende Gerät in ein Handgerät integriert. Das Handgerät kann einen Laserpointer zum Ausrichten des Handgerätes mit einem Punkt von Interesse und ein Abstandsmessgerät zum Bestimmen eines Abstandes zum Punkt von Interesse umfassen. Die vom Vermessungsgerät durchgeführten Vermessungen können Standortinformationen beinhalten. Der Prozessor kann ferner konfiguriert sein, um unter Verwendung der Standortinformationen, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und des Abstandes zum Punkt von Interesse einen Standort des Punktes von Interesse zu bestimmen. In einigen Ausführungsformen bestimmt das Abstandsmessgerät den Abstand zu einem Punkt von Interesse unter Verwendung von Schallmessungen. In anderen Ausführungsformen ist das Abstandsmessgerät ein elektronisches Abstandsmessgerät. In weiteren anderen Ausführungsformen verwendet das Abstandsmessgerät den Laser, um den Abstand zum Punkt von Interesse zu bestimmen.
  • Gemäß einer anderen Ausführungsform der vorliegenden Erfindung beinhaltet ein Verfahren zum Bestimmen eines Standortes eines Punktes von Interesse unter Verwendung eines Vermessungsinstrumentes das Empfangen eines Standortes eines Antennenphasenzentrums von einem GNSS-Empfänger, das Empfangen von Bildinformationen von einem bildgebenden Gerät, das Bestimmen einer Stellung des bildgebenden Gerätes unter Verwendung der Bildinformationen und das Bestimmen eines Neigungswinkels des Vermessungsinstrumentes und einer Neigungsrichtung des Vermessungsinstrumentes in einem Bezugssystem. Der Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes können unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden. Das Verfahren beinhaltet außerdem das Bestimmen des Standortes des Punktes von Interesse unter Verwendung des Standortes des Antennenphasenzentrums und des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes.
  • In einer Ausführungsform beinhaltet das Verfahren außerdem das Bereitstellen eines Benutzerhinweises, dass zusätzliche Bildinformationen erfasst werden sollten. Der Benutzerhinweis kann basierend auf wenigstens einem von (1) einem Abstand von einer Vergleichsmessstation, (2) einer Anzahl von Übereinstimmungen zwischen Bildern verglichen mit einem Grenzwert oder (3) einem Fehler in der Stellung des bildgebenden Gerätes verglichen mit einem Grenzwert aktiviert werden.
  • Gemäß einer weiteren anderen Ausführungsform der vorliegenden Erfindung beinhaltet das Verfahren des Bestimmens eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes das Ausrichten des Vermessungsinstrumentes mit einem lokalen Gravitationsvektor an einer ersten Station und das Erhalten eines ersten Bildes an einer ersten Station unter Verwendung eines bildgebenden Gerätes. Das erste Bild kann eine Mehrzahl an Merkmalen erfassen. Das Verfahren beinhaltet außerdem das Positionieren des Vermessungsinstrumentes an einer zweiten Station, die sich von der ersten Station unterscheidet, und das Aufnehmen eines zweiten Bildes an der zweiten Station unter Verwendung des bildgebenden Gerätes. Das zweite Bild kann wenigstens einen Teil der Mehrzahl an im ersten Bild erfassten Merkmalen erfassen. Das Verfahren beinhaltet außerdem das Verarbeiten des ersten Bildes und des zweiten Bildes, um eine Stellung des bildgebenden Gerätes an der zweiten Station zu bestimmen, und den Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes an der zweiten Station zu bestimmen. Der Neigungswinkel und die Neigungsrichtung können unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden.
  • In einer Ausführungsform beinhaltet das Verfahren außerdem das Bestimmen eines Standortes des Vermessungsinstrumentes im Bezugssystem an der zweiten Station und das Bestimmen eines Standortes eines Punktes von Interesse unter Verwendung des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes an der zweiten Station und des Standortes des Vermessungsinstrumentes an der zweiten Station.
  • In einer anderen Ausführungsform beinhaltet das Verfahren außerdem das Bereitstellen eines Benutzerhinweises darüber, dass der Neigungswinkel an der zweiten Station größer ist als ein Grenzwert für den Neigungswinkel.
  • Unter Verwendung von Ausführungsformen der vorliegenden Erfindung werden im Vergleich zu herkömmlichen Techniken zahlreiche Vorteile erreicht. Zum Beispiel stellen einige Ausführungsformen Verfahren zum Bestimmen eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes unter Verwendung einer Stellung eines bildgebenden Gerätes bereit. Da die Stellung bestimmt werden kann, können auch mit einem nicht nivellierten Vermessungsinstrument Vermessungen durchgeführt werden. Das Durchführen von Messungen unter Verwendung eines nicht nivellierten Vermessungsinstrumentes kann die Effizienz der Messungen erhöhen, indem die Zeit und der Aufwand verringert werden, die normalerweise erforderlich sind, um das Vermessungsinstrument zu nivellieren. Die erhöhte Effizienz kann die für die Messungen erforderliche Zeit verringern und die Messkosten senken. Abhängig von der Ausführungsform kann/können einer oder mehrere dieser Vorteile bestehen. Diese und andere Vorteile sind in der Beschreibung und nachstehend ausführlicher beschrieben.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
    • 1A-1C vereinfachte Diagramme, die ein Verfahren zum Bestimmen einer Stellung eines bildgebenden Gerätes darstellen, das verwendet werden kann, um gemäß einer Ausführungsform der Erfindung einen Neigungswinkel und eine Neigungsrichtung eines Vermessungsinstrumentes zu bestimmen;
    • 2 ein vereinfachtes Diagramm eines Objektes, das verwendet werden kann, um eine Stellung eines bildgebenden Gerätes zu bestimmen, gemäß einer Ausführungsform der Erfindung;
    • 3A-3B vereinfachte Diagramme, die ein Verfahren zum Bestimmen einer Stellung eines bildgebenden Gerätes darstellen, das verwendet werden kann, um gemäß einer anderen Ausführungsform der Erfindung einen Neigungswinkel und eine Neigungsrichtung eines Vermessungsinstrumentes zu bestimmen;
    • 4A-4B vereinfachte Diagramme, die eine Veränderung der Stellung eines bildgebenden Gerätes zwischen einem ersten Bild und einem zweiten Bild darstellen;
    • 5 ein vereinfachtes Diagramm eines kugelförmigen Koordinatensystems, überlagert mit einem herkömmlichen kartesischen Koordinatensystem;
    • 6 ein vereinfachtes Diagramm eines bildgebenden Gerätes und eines CAHV-Bezugssystems;
    • 7 ein vereinfachtes Diagramm eines bildgebenden Gerätes und eines X, Y', Z'-Kamerabezugssystems;
    • 8 ein vereinfachtes Diagramm, das ein X', Y', Z'-Kamerabezugssystem darstellt, das mit einem Vermessungsinstrument geneigt ist, während ein reales X, Y, Z Koordinatensystem mit einem lokalen Gravitationsvektor ausgerichtet bleibt;
    • 9A-9B vereinfachte Diagramme, die ein Vermessungsinstrument in einem kugelförmigen Koordinatensystem zeigen, gemäß einer Ausführungsform der Erfindung;
    • 10A-10C vereinfachte Diagramme von Vermessungsinstrumenten, die verwendet werden können, um Neigungswinkel und Neigungsrichtung zu bestimmen, gemäß einigen Ausführungsformen der Erfindung;
    • 11A-11B vereinfachte Diagramme von Vermessungsinstrumenten, die verwendet werden können, um Neigungswinkel und Neigungsrichtung zu bestimmen, gemäß anderen Ausführungsformen der Erfindung;
    • 12 ein Ablaufdiagramm, das ein Verfahren zum Bestimmen eines Standortes eines Punktes von Interesse bereitstellt, gemäß einer Ausführungsform der Erfindung; und
    • 13 ein Ablaufdiagramm, das ein Verfahren zum Bestimmen eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes bereitstellt, gemäß einer Ausführungsform der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Erfindung betreffen allgemein verbesserte Verfahren und Instrumente zum Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitungstechniken. Wie sie hierin verwendet wird, bezieht sich die Bezeichnung Neigungswinkel auf einen Winkel zwischen einer realen vertikalen Achse (z. B. einem lokalen Gravitationsvektor) und einer vertikalen Achse eines bildgebenden Gerätes. Neigungsrichtung bezieht sich auf die Ausrichtung (oder Drehung um die vertikale Achse) im Verhältnis zu einem Bezugspunkt, wie dem geographischen Nordpol, magnetischen Nordpol oder einem anderen Bezugspunkt. Die Bildverarbeitungstechniken können das Verwenden einer oder mehrerer Matchmoving-Techniken zum Bestimmen einer Stellung eines bildgebenden Gerätes beinhalten. Die Stellung kann einen Standort und eine Drehung des bildgebenden Gerätes im Verhältnis zu einem Bezugspunkt beinhalten. In einigen Ausführungsformen wird der Bezugspunkt durch Merkmale in einem Bild, in dem sich die Merkmale an bekannten Standorten in einem Bezugssystem befinden, bereitgestellt. In anderen Ausführungsformen wird der Bezugspunkt durch Übereinstimmungen zwischen Merkmalen in Bildern bereitgestellt, wobei wenigstens eins der Bilder so aufgenommen wird, dass sich das bildgebende Gerät in einer bekannten (z. B. nivellierten) Position befindet. Die Stellung des bildgebenden Gerätes kann verwendet werden, um einen Neigungswinkel und eine Neigungsrichtung des Vermessungsgerätes, mit dem das bildgebende Gerät gekoppelt ist, zu bestimmen. Der Neigungswinkel und die Neigungsrichtung können zusammen mit einem gemessenen Standort eines Vermessungsinstrumentes verwendet werden, um einen Standort eines Punktes von Interesse zu bestimmen. Beispielsweise kann das Vermessungsinstrument in einigen Ausführungsformen einen Trägerstab (z. B. einen Nivellierstab) beinhalten und der Neigungswinkel und die Neigungsrichtung können verwendet werden, um den Standort eines Punktes an einer Spitze des Trägerstabes zu bestimmen.
  • Wie sie hierin verwendet wird, bezieht sich die Bezeichnung Stellung auf die äußerliche (oder extrinsische) Ausrichtung eines bildgebenden Gerätes. Dabei handelt es sich um die Ausrichtung des bildgebenden Gerätes im Verhältnis zu umgebenden Objekten in einem Sichtfeld. Die Ausrichtung wird allgemein durch eine Rotationsmatrix R und einen Translationsvektor V definiert, die ein Koordinatensystem des bildgebenden Gerätes mit einem realen Koordinatensystem in Beziehung stellen. Der Prozess des Bestimmens der Stellung kann als extrinsische Kalibrierung bezeichnet werden. Diese steht im Gegensatz zu intrinsischer Kalibrierung, die verwendet werden kann, um interne Parameter, wie die Brennweite, das Abbildungsverhältnis, die effektive Pixelanzahl, den Bildmittelpunkt und dergleichen, zu bestimmen.
  • Bestimmen der Stellung unter Verwendung von Merkmalen an bekannten Standorten
  • 1A-1C sind vereinfachte Diagramme, die ein Verfahren zum Bestimmen einer Stellung eines bildgebenden Gerätes darstellen. Die Stellung kann verwendet werden, um Neigungswinkel und Neigungsrichtung eines Vermessungsinstrumentes gemäß einer Ausführungsform der Erfindung zu bestimmen. In diesem Beispiel wird die Stellung unter Verwendung von Merkmalen in einem Bild bestimmt, wobei sich die Merkmale (d. h. Bezugspunkte 114 auf dem Würfel 112) an bekannten Standorten in einem Bezugssystem, wie einem realen Koordinatensystem, befinden.
  • 1A zeigt ein Vermessungsinstrument 102, das an einem Punkt von Interesse 110 positioniert ist. Das Vermessungsinstrument 102 beinhaltet ein Standortmessgerät, wie einen globalen Navigationssatellitensystem-(GNSS)-Empfänger 106 und ein bildgebendes Gerät, wie eine Kamera 104 (z. B. eine Digitalkamera, eine digitale Videokamera oder dergleichen). Es gilt zu beachten, dass gemäß Ausführungsformen der Erfindung praktisch jede Art von Standortmessgerät oder bildgebendem Gerät verwendet werden kann. Zum Beispiel kann das bildgebende Gerät mehrere Kameras, die konfiguriert sind, um Bilder zu erfassen, die eine Panoramaansicht einer Umgebung beinhalten können, Kameras, die konfiguriert sind, um Bilder zu erfassen, die entweder bestimmte oder überlappende Ansichten beinhalten können, oder eine einzelne Kamera umfassen.
  • 1A zeigt außerdem einen Würfel 112 mit Bezugspunkten 114 auf Seiten des Würfels 112. Die Bezugspunkte 114 befinden sich an bekannten Standorten in einem Bezugssystem und stellen Merkmale zum Bestimmen der Stellung der Kamera 104 bereit. Die Bezugspunkte 114 können als Kontrollpunkte bezeichnet werden. Es gilt zu beachten, dass jeder beliebige Punkt, jede beliebige Linie oder jeder beliebige Bereich oder dergleichen als Bezugspunkt verwendet werden kann und dass es nicht erforderlich ist, dass sich die Bezugspunkte 114 auf demselben Objekt befinden. Zum Beispiel können sich die Bezugspunkte 114 auf einer oder mehreren bestehenden Struktur(en) befinden, die in einem Sichtfeld der Kamera 104 sichtbar ist/sind. Außerdem kann jedes beliebige einzelne Objekt verwendet werden, wie eine horizontale Stange oder ein Stab. Der Würfel 112 und die Bezugspunkte 114 werden lediglich als Beispiel verwendet. Während außerdem jedes beliebige Bezugssystem mit Ausführungsformen der Erfindung verwendet werden kann, ist das Bezugssystem in diesem Beispiel ein reales Koordinatensystem, das eine Y-Achse, die von Norden nach Süden verläuft (+ ist Norden und - ist Süden), eine X-Achse, die von Osten nach Westen verläuft (+ ist Osten und - ist Westen), und eine Z-Achse, die koaxial zum lokalen Gravitationsvektor liegt, beinhaltet.
  • 1B-1C zeigen, dass das Vermessungsinstrument 102 in diesem Beispiel in Bezug auf das Bezugssystem nicht nivelliert ist. 1B ist eine Seitenansicht, die zeigt, dass das Vermessungsinstrument 102 in östlicher Richtung vom Würfel 112 weg geneigt ist und 1C ist eine Draufsicht, die zeigt, dass das Vermessungsgerät 102 in nord-östlicher Richtung vom Würfel 112 weg geneigt ist.
  • Die Stellung der Kamera 104 kann in diesem Beispiel unter Verwendung von mit der Kamera 104 erhaltenen Bildinformationen und den Standorten der Bezugspunkte 114 im Bezugssystem bestimmt werden. Die Bildinformationen werden durch Aufnehmen eines oder mehrerer Bildes/Bilder des Würfels 112, das/die die Bezugspunkte 114 beinhaltet/beinhalten, erhalten. Die Standorte der Bezugspunkte 114 können unter Verwendung des Vermessungsinstrumentes 102 und herkömmlicher Vermessungen (z. B. durch Messen der Standorte der Bezugspunkte 114) bestimmt werden. Alternativ können die Standorte der Bezugspunkte 114 bereitgestellt (z. B. vorab bestimmt) werden. Die Standorte beinhalten Koordinaten eines oder mehrerer der Bezugspunkte 114 im Bezugssystem (oder in jedem beliebigen anderen Bezugssystem mit einer bekannten Beziehung, sodass Koordinaten in ein gemeinsames Bezugssystem umgewandelt werden können).
  • Statt die Standorte aller der Bezugspunkte 114 bereitzustellen, können Informationen über die Ausrichtung des Würfels 112 im Bezugssystem sowie eine räumliche Beziehung zwischen den Bezugspunkten 114 bekannt sein. Zum Beispiel kann der Würfel 112 „rechts und ordnungsgemäß“ mit einem lokalen Gravitationsvektor ausgerichtet sein und Abstände zwischen den Bezugspunkten 114 (z. B. in x-, y-, z-Koordinaten) können bereits bereitgestellt sein. In diesem Fall ist der Standort lediglich eines der Bezugspunkte 114 erforderlich, um die Standorte der anderen Bezugspunkte 114 zu bestimmen.
  • 2 stellt ein Beispiel eines Würfels bereit, der mit demselben Bezugssystem ausgerichtet ist, das in 1A-1C verwendet wird, und der einen Bezugspunkten auf einer oberen Oberfläche aufweist, der sich an einem bekannten Standort im Bezugssystem befindet. Wenn davon ausgegangen wird, dass dieser Bezugspunkt die Koordinaten (0, 0, 0) aufweist, stellt TABELLE 1 unten eine räumliche Beziehung (und in diesem Beispiel Koordinaten) zwischen dem Bezugspunkt und jedem der anderen Punkte bereit. In diesem Beispiel sind die Einheiten in Meter und der Würfel misst einen Meter an der Seite, um die Erläuterung möglichst einfach zu halten. Es gilt zu beachten, dass Objekte mit jeder beliebigen Größe oder Form mit Ausführungsformen der Erfindung verwendet werden können. TABELLE 1
    Bezugspunkt Nr. Räumliche Beziehung (Koordinaten)
    1 (0, 0, 0)
    2 (0,5, -0,25, -0,25)
    3 (0,5, 0, -0,5)
    4 (0,5, -0,25, -0,75)
    5 (0,5, +0,25, -0,25)
    6 (0, +0,5, -0,5)
    7 (0,5, +0,25, -0,75)
  • Unter Verwendung der Bildinformationen und der Standorte der Bezugspunkte 114 kann die Stellung der Kamera 104 durch bekannte Matchmoving-Techniken bestimmt werden. In dieser Ausführungsform nutzen die Matchmoving-Techniken Merkmalsidentifikationsprozesse, um die Bezugspunkte 114 in dem einen oder den mehreren mit der Kamera 104 erfassten Bild(ern) zu identifizieren. Der Würfel 112 kann einen Vermessungsreflektor mit einem Ziel beinhalten, um die Merkmalsidentifikationsprozesse zu verbessern. Die Stellung der Kamera 104 im Verhältnis zu den Bezugspunkten 114 wird basierend auf der Position der Bezugspunkte 114 in dem einen oder den mehreren Bild(ern) und den bekannten Standorten der Bezugspunkte 114 im Bezugssystem bestimmt. Die meisten Matchmoving-Techniken können die Stellung der Kamera 104 von einem einzigen Bild, das wenigstens vier der Bezugspunkte 114 beinhaltet, bestimmen.
  • Beispiele für Matchmoving-Software-Anwendungen, die mit einigen Ausführungsformen verwendet werden können, beinhalten Voodoo Camera Tracker von Digilab, 3D-Equalizer von Science.D.Visions, Boujou von 2d3, MatchMover von Autodesk, PFTrack von The Pixel Farm, SynthEyes von Andersson Technologies und VooCAT von Scenespector Systems.
  • Es folgt eine Liste von Quellenangaben, die zusätzliche Einzelheiten über verschiedene Matchmoving-Techniken bereitstellen. Jede dieser Quellenangaben ist hierin durch Bezugnahme in ihrer Gesamtheit eingeschlossen.
    • • C. Wähler, „3D Computer Vision: Efficient Methods and Applications,“ Guildford: Springer London, 2009.
    • • F-E Ababsa, M. Mallem, „Robust camera pose estimation using 2d fiducials tracking for real-time augmented reality systems“ Association for Computing Machinery (ACM), 2004.
    • • F. Shi, X. Zhang, Y. Liu, „A new method of camera pose estimation using 2D-3D corner correspondence,“ Pattern Recognition Letters, 2004.
    • • G. Simon, A. Fitzgibbon und A. Zisserman, „Markerless tracking using planar structures in the scene,“ International Symposium on Augmented Reality (ISAR), 2000.
    • • J.M. Frahm, K. Koser und R. Koch, „Pose Estimation for Multi-Camera Systems,“ Deutsche Arbeitsgemeinschaft für Mustererkennung (DAGM), 2004.
    • • J-S Park und B-J Lee, „Vision-based real-time camera match moving using a known marker,“ Optical Engineering (Feb. 2006).
    • • M-A Ameller, B. Triggs und L. Quan, „Camera Pose Revisited: New Linear Algorithms,“ European Conference on Computer Vision (ECCV), 2000.
  • Einige der Matchmoving-Techniken, auf die oben verwiesen wurde, können die Stellung der Kamera 104 in Echtzeit bestimmen, während andere im Speicher gespeicherte Daten nachträglich verarbeiten. Wenngleich die Genauigkeit abhängig von der jeweiligen Technik variiert, liefern viele Techniken Sub-Pixel-Genauigkeit.
  • Bestimmen der Stellung unter Verwendung von Übereinstimmungen zwischen Bildern
  • 3A-3B sind vereinfachte Diagramme, die ein Verfahren zum Bestimmen einer Stellung eines bildgebenden Gerätes darstellen. Die Stellung kann verwendet werden, um Neigungswinkel und Neigungsrichtung eines Vermessungsinstrumentes gemäß einer anderen Ausführungsform der Erfindung zu bestimmen. In diesem Beispiel wird die Stellung unter Verwendung von Übereinstimmungen zwischen Bildern bereitgestellt, wobei wenigstens eins der Bilder so aufgenommen wird, dass sich das bildgebende Gerät in einer bekannten (z. B. nivellierten) Position befindet. Das mit dem bildgebenden Gerät in einer bekannten Position aufgenommene Bild dient als Vergleichswert dafür, welche Veränderungen der Stellung in anderen Bildern erkannt werden können.
  • 3A zeigt ein Vermessungsinstrument 302, das an einem Ausgangspunkt 316 positioniert ist. Wie das in 1 gezeigte Vermessungsinstrument 102, beinhaltet das Vermessungsinstrument 302 ein Standortmessgerät, wie einen GNSS-Empfänger 306, und ein bildgebendes Gerät, wie eine Kamera 304. 3A zeigt außerdem mehrere Merkmale 318a, 318b, 318c, 318d, die das Vermessungsinstrument 302 umgeben und sich im Sichtfeld der Kamera 304 befinden können. Es gilt zu beachten, dass die Merkmale 318a, 318b, 318c, 318d Punkte, Linien, Bereiche, Konturen, Oberflächen, Strukturbereiche und dergleichen beinhalten können, die unter Verwendung von bekannten Merkmalsidentifikationsprozessen in einem Bild erkannt werden können. Wenngleich nur vier derartige Merkmale identifiziert sind, beinhaltet die Abbildung wahrscheinlich viele hunderte Merkmale, die unter Verwendung von Merkmalsidentifikationsprozessen identifiziert werden könnten.
  • In diesem Beispiel ist es nicht erforderlich, dass sich die Merkmale 318a, 318b, 318c, 318d an bekannten Standorten in einem Bezugssystem befinden, um die Stellung der Kamera 304 zu bestimmen. Stattdessen befindet sich das Vermessungsinstrument 302 in diesem Beispiel in einer nivellierten Position. Das Vermessungsinstrument 302 kann gemäß bekannten Verfahren nivelliert sein, die die Verwendung einer Wasserwaage einschließen können und anzeigen, wenn das Vermessungsinstrument innerhalb einer Genauigkeit der Wasserwaage nivelliert ist. Unter Verwendung der Kamera 304 wird in einer nivellierten Position ein Bild aufgenommen. Das Bild beinhaltet einige der Merkmale 318a, 318b, 318c, 318d, die das Vermessungsinstrument 302 umgeben. Diese Merkmale dienen als Bezugspunkte, gegen die wenigstens ein Teil der gleichen Merkmale in anderen Beispielen verglichen werden und somit eine Veränderung der Stellung bestimmt werden kann.
  • Nivelliert bezieht sich in diesem Beispiel auf die Ausrichtung mit einem Bezugswert (z. B. vertikale Ausrichtung mit einem lokalen Gravitationsvektor). Wenngleich jedes beliebige Bezugssystem mit Ausführungsformen der Erfindung verwendet werden kann, handelt es sich bei dem Bezugssystem in diesem Beispiel um ein reales Koordinatensystem, wie das aus 1, das eine Y-Achse, die von Norden nach Süden verläuft (+ ist Norden und - ist Süden), eine X-Achse, die von Osten nach Westen verläuft (+ ist Osten und - ist Westen), und eine Z-Achse, die koaxial zum lokalen Gravitationsvektor liegt, beinhaltet.
  • 3B zeigt ein Vermessungsinstrument 302 an einem anderen als dem in 3A gezeigten Standort. Das Vermessungsinstrument 302 befindet sich an einem Punkt von Interesse 310. Die Abbildung zeigt außerdem, dass das Vermessungsinstrument 302 im Verhältnis zum Bezugssystem nicht nivelliert ist. Das Vermessungsinstrument 302 weist einen unbekannten Neigungswinkel in scheinbar nördlicher Richtung auf. Ähnlich wie in 3A wird ein Bild aufgenommen, das wenigstens einige derselben Merkmale 318a, 318b, 318c, 318d, die das Vermessungsinstrument 302 umgeben, beinhaltet.
  • Unter Verwendung des mit dem Vermessungsinstrument 302 an der Ausgangsposition 316 erhaltenen Bildes und des mit dem Vermessungsinstrument 302 am Punkt von Interesse 310 erhaltenen Bildes kann anhand bekannter Matchmoving-Techniken die Stellung der Kamera am Punkt von Interesse 310 bestimmt werden. In dieser Ausführungsform verwenden die Matchmoving-Techniken Übereinstimmungen zwischen den Bildern. Die Stellung wird im Verhältnis zu der Stellung in der Ausgangsposition 316 in einer nivellierten Position bestimmt.
  • Die meisten der oben aufgeführten Matchmoving-Software-Anwendungen und Quellenangaben können ebenfalls verwendet werden, um die Stellung unter Verwendung von Übereinstimmungen zwischen Bildern zu bestimmen. US-Patentanmeldung Nr. 13/167,733 , angemeldet am 24. Juni 2011, stellt zusätzliche Einzelheiten über Matchmoving-Techniken unter Verwendung von Übereinstimmungen zwischen Bildern bereit. Die Stellung der Kamera wird basierend auf den Positionen der Merkmale 318a, 318b, 318c, 318d im mit dem Vermessungsinstrument 302 in einer bekannten Position (nivelliert) erfassten Bild und den Positionen der Merkmale 318a, 318b, 318c, 318d im mit dem Vermessungsinstrument 302 in einer unbekannten Position (nicht nivelliert) erfassten Bild bestimmt.
  • Die Positionen der Merkmale 318a, 318b, 318c, 318d werden sich in den zwei Bildern unterscheiden. Dies ist in 4A-4B aus Sicht einer Kamera dargestellt. 4A zeigt ein Bild eines Gebäudes mit einer Kamera in einer Ausgangsstellung (Nivellierung wird angenommen). 4B zeigt ein Bild des Gebäudes mit der Kamera in einer leicht anderen Stellung (Nivellierung wird nicht angenommen). Die Fadenkreuze identifizieren ungefähr den gleichen Bildstandort und helfen bei der Darstellung der Drehung der Kamera zwischen den Bildern. Die Kamera wurde zwischen den Bildern um X- und Z-Achsen gegen den Uhrzeigersinn gedreht. Die Veränderungen der Stellung zwischen den Bildern können bestimmt werden, wenn die Kamera wie in 4A-4B gezeigt gedreht wird oder wenn die Kamera an einen neuen Standort (und in eine neue Drehung) bewegt wird, wie in 3A-3B dargestellt.
  • Die meisten Matchmoving-Techniken sind konfiguriert, um Merkmale in Bildern zu identifizieren und zu verfolgen. Diese Merkmale beinhalten häufig beliebige Punkte, die sich an beliebigen Standorten befinden. Häufig können viele hunderte derartige Merkmale identifiziert und zwischen Bildern verfolgt werden. Viele Matchmoving-Techniken können ebenflächige Strukturen (z. B. den Boden oder Gebäudefassaden), Oberflächen, Kanten, Ecken von Objekten und dergleichen verwenden, um basierend auf Übereinstimmungen zwischen nur einem oder zwei derartigen Merkmalen die Stellung zu bestimmen. Einige Matchmoving-Techniken erkennen automatisch Merkmale in Bildern, analysieren Übereinstimmungen, eliminieren Ausreißer und schätzen und verfeinern schrittweise Kameraparameter. Matchmoving-Software-Anwendungen nutzen häufig ein Menüformat und können unter Verwendung von Menüs wie ,Ansicht → Kameraparameter' oder dergleichen Standort- und Ausrichtungsinformationen bereitstellen.
  • Wenngleich in den in 3A-3B und 4A-4B dargestellten Beispielen nur zwei Bilder verwendet werden, gilt zu beachten, dass Veränderungen der Stellung zwischen jeder beliebigen Anzahl an Bildern bestimmt werden können, vorausgesetzt, dass eine ausreichende Anzahl an Übereinstimmungen zwischen Bildern identifiziert werden kann. Außerdem ist es nicht erforderlich, dass gemeinsame Übereinstimmungen zwischen allen Bildern in einer Reihe bestehen, solange jedes Bild eine ausreichende Anzahl an Übereinstimmungen mit einem anderen Bild aufweist, sodass Veränderungen der Stellung auf das Vergleichsbild zurückgeführt werden können.
  • Die Anzahl der zwischen zwei beliebigen Bildern erforderlichen Übereinstimmungen hängt von der jeweiligen Matchmoving-Technik ab. In einer Ausführungsform kann die Anzahl der erforderlichen Übereinstimmungen verwendet werden, um ein Warnsignal (z. B. einen visuellen und/oder hörbaren Hinweis) umzusetzen, sollte sich die Anzahl an Übereinstimmungen einem erforderlichen Grenzwert nähern oder diesen unterschreiten. Wenn zum Beispiel mehr als die Hälfte der Ausgangsbezugspunkte nach der Bewegung von einem ursprünglichen Punkt von Interesse zu einem neuen Punkt von Interesse verloren gehen, kann über ein hörbares oder visuelles Signal auf einem Datensammler oder einer Steuerung ein Hinweis an einen Benutzer bereitgestellt werden. Bei Erhalt einer derartigen Warnung kann die Ausrichtung des Vermessungsinstrumentes angepasst werden, um ein Bild mit mehr Merkmalen, die sie mit anderen Bildern gemeinsam haben, aufzunehmen. Alternativ kann das Vermessungsinstrument neu nivelliert und ein neuer Bezugswert etabliert werden. In anderen Ausführungsformen können andere Hinweise für den Verlust der Gesamtgenauigkeit verwendet werden, um ein Warnsignal auszulösen, wie verringerte Genauigkeit der Kamerastellung, wie sie durch interne Matchmoving-Kamerametriken oder einen Abstand von einer Referenzmessungsstation bestimmt wurde.
  • Bestimmen der Stellung unter Verwendung von Merkmalen an bekannten Standorten & Übereinstimmungen zwischen Bildern
  • In einigen Ausführungsformen können Kombinationen der oben stehenden Verfahren verwendet werden, um die Stellung einer Kamera zu bestimmen. Zum Beispiel kann die Stellung mit einem Bild bestimmt werden, das wie oben beschrieben Merkmale an bekannten Standorten aufweist. Unter Verwendung dieser Stellung als Bezugswert kann/können ein oder mehrere zusätzliche(s) Bild(er) aufgenommen und Veränderungen der Stellung anhand von Übereinstimmungen zwischen den Bildern wie ebenfalls oben beschrieben bestimmt werden. In diesen Ausführungsformen ist es nicht erforderlich, das Vermessungsinstrument zu nivellieren, um ein Vergleichsbild zu erhalten. Stattdessen kann das Bild mit Merkmalen an bekannten Standorten als Vergleichsbild verwendet werden.
  • Verwendung der Stellung, um Neigungswinkel und Neigungsrichtung zu bestimmen
  • Es folgt ein Beispiel einiger der Schritte und Berechnungen, die verwendet werden können, um anhand einer Stellung einer Kamera und gemäß einer Ausführungsform der Erfindung Neigungswinkel und Neigungsrichtung eines Vermessungsinstrumentes zu bestimmen. Es gilt zu beachten, dass die hierin beschriebenen Schritte und Berechnungen beispielhafter Natur sind und dass Fachleute angesichts der vorliegenden Offenbarung zahlreiche Variationen, Modifikationen und Alternativen erkennen würden.
  • Matchmoving-Software-Anwendungen geben üblicherweise Stellungsdaten in CAHV-Format (einer Konvention, die typischerweise in maschinellem Sehen verwendet wird), wobei das Bezugs-(oder Koordinaten-)-System, das für Vermessungsanwendungen von Interesse ist, kugelförmig ist. Kugelförmige Koordinaten stellen einen Neigungswinkel (allgemein als Theta bezeichnet) im Verhältnis zu einer vertikalen Achse, wie einem Gravitationsvektor, und eine Neigungsrichtung (allgemein als Phi bezeichnet) im Verhältnis zu einem Bezugswert, wie dem geographischen oder magnetischen Nordpol bereit. Der Neigungswinkel und die Neigungsrichtung bestimmen einen Vektor r, der von einem Null-Bezugspunkt ausgeht und zu einem imaginären Punkt auf einer Kugel verläuft. Dies ist in 5 dargestellt, in der ein kugelförmiges Koordinatensystem mit einem herkömmlichen kartesischen Koordinatensystem als Vergleich überlagert ist. Es können eine oder mehrere Koordinatenumwandlungen unter Verwendung von bekannten Techniken verwendet werden, um die Daten vom CAHV-Format in kugelförmige Koordinaten umzuwandeln.
  • Im CAHV-Format stellt C einen Abstand von einem Merkmal in einem Sichtfeld zu einem Perspektivenzentrum (oder einer Eintrittspupille) eines bildgebenden Gerätes bereit. Das Perspektivenzentrum liegt allgemein auf einer Achse, die durch eine Linse des bildgebenden Gerätes verläuft. Wie in 6 dargestellt, sind die Achsen A, H und V orthogonale Koordinatenachsen, wobei +V nach unten verläuft und +A nach innen entlang einer Linsenachse verläuft.
  • Eine Koordinatenumwandlung kann verwendet werden, um die Daten vom CAHV-Format in ein zwischenzeitliches X', Y', Z'-Kamerabezugssystem, wie das in 7 dargestellte, umzuwandeln. In diesem zwischenzeitlichen Bezugssystem liegen X' und Y' entlang einer Bildebene, die in der Nähe eines Endes der Kamera liegen kann, und Z' verläuft nach außen entlang einer Linsenachse. Die Koordinatenumwandlung ist ausführlich in der Veröffentlichung Di, K. und Li, R., „CAHVOR camera model and its photogrammetric conversion for planetary applications“, J. Geophys. Res., 2004 beschrieben, die hierin durch Bezugnahme in ihrer Gesamtheit eingeschlossen ist.
  • Eine zweite Koordinatenumwandlung anhand bekannter Techniken kann verwendet werden, um die Daten vom X', Y', Z'-Kamerabezugssystem in ein reales (z. B. GNSS oder GPS)-Koordinatensystem umzuwandeln. Im realen Koordinatensystem verläuft Z in einer vertikalen Richtung parallel zu einem Gravitationsvektor und X und Y verlaufen entlang einer horizontalen Ebene. Dies ist in 8 dargestellt, in der sich das X', Y', Z'-Kamerabezugssystem mit dem bildgebenden Gerät neigt, wenn das Vermessungsgerät von einer nivellierten Position links in eine nicht nivellierte Position rechts geneigt wird. Das reale Koordinatensystem neigt sich nicht mit dem bildgebenden Gerät. Dies ist oben in 8 dargestellt, in der die X, Y, Z-Achsen des realen Koordinatensystems mit einem lokalen Gravitationsvektor ausgerichtet bleiben, wenn sich die X', Y', Z'-Achsen des Kamerabezugssystems um die Z'-Achse neigen.
  • Die Daten können unter Verwendung von bekannten Umwandlungen vom realen Koordinatensystem in kugelförmige Koordinaten umgewandelt werden. Der Vektor r kann unter Verwendung folgender Gleichung bestimmt werden: r = [ X 2 + Y 2 + Z 2 ] 1 / 2
    Figure DE102013202393B4_0001
  • Wie in 9A-9B dargestellt, kann der Vektor r einen Abstand von einem Antennenphasenzentrum eines GNSS-Empfängers zu einem in realen Koordinaten (X1, Y1, Z1) befindlichen Punkt von Interesse darstellen. In Ausführungsformen, in denen das Vermessungsinstrument einen Trägerstab beinhaltet, ist dies der Abstand vom Antennenphasenzentrum zu einer Spitze des Trägerstabes (üblicherweise ungefähr 2 Meter). 9A ist eine perspektivische Ansicht, die ein Vermessungsinstrument mit einem Neigungswinkel (Theta) von einer vertikalen Achse Z in nordwestlicher Neigungsrichtung (Phi) zeigt. Die Neigungsrichtung (Phi) ist leichter in der Draufsicht in 9B (Blick nach unten entlang der Z-Achse) zu sehen.
  • Anhand der realen Koordinaten X, Y, Z können unter Verwendung der nachstehenden Gleichungen der Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes bestimmt werden: Neigungswinkel ( Theta ) = arcos ( Z/ r )
    Figure DE102013202393B4_0002
    Neigungsrichtung ( Phi ) = arctan ( Y/X )
    Figure DE102013202393B4_0003
  • Bestimmen des Standortes eines Punktes von Interesse
  • Ein Standort eines Punktes von Interesse kann unter Verwendung eines Standortes eines Vermessungsinstrumentes und eines Neigungswinkels und einer Neigungsrichtung des Vermessungsinstrumentes bestimmt werden. Mit Bezugnahme auf das Beispiel aus 1 kann ein Vermessungsinstrument 102 ein Standortmessgerät, wie einen GNSS-(oder GPS-)-Empfänger 106, beinhalten. Ein Abstand entlang einer vertikalen Achse von einem Antennenphasenzentrum zu einem Punkt von Interesse ist bekannt, wenn ein Vermessungsinstrument nivelliert ist, wie links in 8 gezeigt. Die Verwendung eines nicht nivellierten Vermessungsinstrumentes, wie rechts in 8 gezeigt, bringt jedoch Höhenabweichungen und Bodenabweichungen mit sich. Eine vertikale Höhe des Antennenphasenzentrums über dem Boden ist aufgrund der Höhenabweichung unbekannt und ein horizontaler Abstand von einem Antennenphasenzentrum zum Punkt von Interesse ist aufgrund der Bodenabweichung unbekannt. Die Bodenabweichung kann X- und Y-Komponenten in einem realen Koordinatensystem beinhalten.
  • Die nachstehenden Gleichungen können verwendet werden, um die X- und Y-Komponenten der Bodenabweichung und die Z-Komponente der Höhenabweichung zu bestimmen. X 1 = r *sin ( Theta ) *cos ( Phi )
    Figure DE102013202393B4_0004
    Y 1 = r *sin ( Theta ) *sin ( Phi )
    Figure DE102013202393B4_0005
    Z 1 = r *cos ( Theta )
    Figure DE102013202393B4_0006
  • Wobei r der Abstand vom Antennenphasenzentrum zu einer Spitze des Trägerstabes unter Verwendung des im Beispiel von 8 dargestellten Vermessungsinstrumentes ist.
  • Wenngleich Verfahren zum Durchführen von Vermessungen unter Verwendung eines nicht nivellierten Vermessungsinstrumentes beschrieben wurden, gilt zu beachten, dass die Messungsfehler mit größeren Neigungswinkeln weiter zunehmen. Demnach kann das Vermessungsinstrument in einigen Ausführungsformen konfiguriert sein, um eine Warnung (z. B. einen hörbaren oder visuellen Hinweis) bereitzustellen, wenn die Neigung einen festgelegten Winkel überschreitet. In einer derartigen Situation kann ein Vermesser eine Messung mit dem Vermessungsinstrument in einer vertikaleren Position wiederholen.
  • Beispielhafte Berechnung des Standortes eines Punktes von Interesse
  • Es folgt eine beispielhafte Berechnung des Standortes des in 1 dargestellten Punktes von Interesse 110, unter der Annahme, dass der Neigungswinkel als 10° von vertikal und die Neigungsrichtung als 30° von Norden bestimmt wurden. Diese Werte können unter Verwendung von Matchmoving-Techniken und den oben beschriebenen Koordinatenumwandlungen bestimmt werden. Die Koordinaten des Antennenphasenzentrums des GNSS-Empfängers 106 wurden als (10 m, 3 m, 0,97 m) im Verhältnis zum Bezugspunkt 114 auf der oberen Oberfläche des Würfels 112 (zugewiesene Koordinaten (0, 0, 0)) bestimmt, und der Vektor r weist eine Länge von 2 Metern auf. Unter Verwendung dieser Werte und der Gleichungen (4)-(6) liegt der Standort des Punktes von Interesse 110 vom Antennenphasenzentrum bei (-0,174 m, -0,301 m, -1,970 m). Demnach liegt der Punkt von Interesse 110 0,174 Meter westlich und 0,301 Meter südlich des Antennenphasenzentrums entlang der X- und Y-Achsen und 1,970 Meter unterhalb des Antennenphasenzentrums entlang der Z-Achse.
  • Konfiguration der Vermessungsinstrumente
  • 10A-10C sind vereinfachte Diagramme von Vermessungsinstrumenten, die verwendet werden können, um Neigungswinkel und Neigungsrichtung gemäß einigen Ausführungsformen der Erfindung zu bestimmen. Es gilt zu beachten, dass die hierin gezeigten Vermessungsinstrumente lediglich als Beispiele bereitgestellt sind und dass Ausführungsformen der vorliegenden Erfindung mit anderen Vermessungsinstrumenten verwendet werden können, die andere Merkmale und/oder Konfigurationen beinhalten.
  • 10A zeigt ein Vermessungsinstrument 1002, das ein Standortmessgerät, wie einen GNSS-(oder GPS-)-Empfänger 1006, und ein bildgebendes Gerät, wie eine Kamera 1004, beinhaltet. Der GNSS-Empfänger 1006 ist konfiguriert, um einen Standort eines Antennenphasenzentrums 1028 zu bestimmen, und die Kamera 1004 ist konfiguriert, um Bildinformationen zu erhalten. Der GNSS-Empfänger 1006 und die Kamera 1004 sind mit einem Trägerstab 1024 gekoppelt. In diesem Beispiel ist die Kamera 1004 in der Nähe eines Griffs 1022 des Trägerstabes 1024 mit dem Vermessungsinstrument 1002 gekoppelt, statt unterhalb des GNSS-Empfängers, wie im Beispiel aus 1 gezeigt.
  • Der GNSS-Empfänger 1006 und der Trägerstab 1024 sind derart angeordnet, dass das Antennenphasenzentrum 1028 des GNSS-Empfängers 1006 und eine Spitze 1026 des Trägerstabes 1024 eine bekannte räumliche Beziehung aufweisen (z. B. beide mit einer vertikalen Achse ausgerichtet sind und eine bekannte Länge d zwischen sich aufweisen). Die Kamera 1004 kann außerdem derart angeordnet sein, dass dieselbe vertikale Achse durch die Eintrittspupille der Kamera 1004 verläuft. In einigen Ausführungsformen kann außerdem ein Abstand zwischen dem Antennenphasenzentrum 1028 des GNSS-Empfängers 1006 und der Eintrittspupille der Kamera 1004 bekannt sein.
  • 10A zeigt außerdem eine Steuerung 1020, die mit dem GNSS-Empfänger 1006 und der Kamera 1004 in elektrischer Kommunikation steht. In diesem Beispiel ist die elektrische Kommunikation kabellos, wenngleich mit anderen Ausführungsformen auch andere Modi der Kommunikation verwendet werden können. Die Steuerung 1020 kann eine oder mehrere Eingabe(n) und eine oder mehrere Ausgabe(n) beinhalten, wie die/den in dieser Abbildung dargestellten Schaltflächen und Anzeigebildschirm. Die Steuerung 1020 kann außerdem konfiguriert sein, um Daten von/an andere(n) Geräte(n) zu senden und zu empfangen. Die Steuerung 1020 kann einen Prozessor beinhalten, der konfiguriert ist, um Standortinformationen vom GNSS-Empfänger 1006 zu empfangen und Bildinformationen von der Kamera 1004 zu empfangen. Der Prozessor kann außerdem konfiguriert sein, um unter Verwendung von Matchmoving-Techniken eine Stellung der Kamera 1004 zu bestimmen und wie bereits beschrieben einen Neigungswinkel und eine Neigungsrichtung des Vermessungsinstrumentes 1002 zu bestimmen. In einigen Ausführungsformen kann der Prozessor außerdem konfiguriert sein, um einen Standort einer Spitze 1026 des Trägerstabes 1024 (oder einen Standort eines Punktes von Interesse) zu bestimmen.
  • Die Steuerung 1020 kann einen Speicher zum Speichern der vom GNSS-Empfänger 1006 und der Kamera 1004 empfangenen Informationen beinhalten. Außerdem kann Computercode im Speicher gespeichert werden, zusammen mit durch den Prozessor ausführbaren Anweisungen, die Stellung der Kamera 1004, den Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes 1002 und den Standort der Spitze 1026 des Trägerstabes 1024 zu bestimmen.
  • Es gilt zu beachten, dass der Prozessor und der Speicher nicht begrenzt sind. Der Prozessor kann einen oder mehrere Allzweck-Mikroprozessoren oder anwendungsspezifische, integrierte Schaltungen (engl.: application specific integrated circuits, ASICs) beinhalten und wenigstens Teile der Anweisungen können als Software, Firmware und/oder Hardware ausgeführt sein. Der Speicher kann ein Betriebssystem und eine oder mehrere Software-Anwendungen zum Bestimmen der oben beschriebenen Aufgaben gemäß Ausführungsformen der Erfindung beinhalten. Der Speicher kann jede beliebige Art von nicht flüchtigen Medien beinhalten, einschließlich magnetischen Speichermedien, optischen Speichermedien, Flash-Speichern und dergleichen.
  • 10B zeigt ein Vermessungsinstrument 1002, das dem aus 10A ähnelt, abgesehen davon, dass in diesem Beispiel eine Steuerung 1030 mit dem Trägerstab 1024 gekoppelt ist. Die Steuerung 1030 kann auf ähnliche Weise wie die in 10A gezeigte Steuerung 1020 konfiguriert sein. Die Steuerung 1030 kann konfiguriert sein, um unter Verwendung von verkabelten oder kabellosen Verbindungen mit dem GNSS-Empfänger 1006 und der Kamera 1004 in elektrischer Kommunikation zu stehen. Die Steuerung 1030 kann außerdem konfiguriert sein, um Daten von/an andere(n) Geräte(n) zu senden und zu empfangen.
  • 10C zeigt ein Vermessungsinstrument 1002, das dem aus 10A-1 0B ähnelt, abgesehen davon, dass die Eintrittspupille der Kamera 1004 in diesem Beispiel nicht mit der durch das Antennenphasenzentrum 1028 und die Spitze des Trägerstabes 1024 verlaufenden vertikalen Achse ausgerichtet ist. Stattdessen ist die Eintrittspupille der Kamera 2004 in diesem Beispiel leicht von der vertikalen Achse und mit einem Abstand d1 unterhalb des Antennenphasenzentrums 1028 versetzt. Diese Konfiguration kann verwendet werden, um eine Stellung der Kamera 1004 und einen Neigungswinkel und eine Neigungsrichtung des Vermessungsinstrumentes 1002 auf ähnliche Weise wie die in 10A-10B gezeigten Konfigurationen zu bestimmen. Würde diese Konfiguration außerdem verwendet werden, um Koordinaten der Eintrittspupille der Kamera 1004 zu bestimmen, müsste jedoch eine räumliche Beziehung (z. B. ein Abstand d1 und eine Abweichung von der vertikalen Achse) zwischen dem Antennenphasenzentrum 1028 und der Eintrittspupille bestimmt werden.
  • 11A ist ein vereinfachtes Diagramm eines Handgerätes 1140, das verwendet werden kann, um einen Neigungswinkel und eine Neigungsrichtung gemäß einer Ausführungsform der Erfindung zu bestimmen. Das Handgerät 1140 kann ein Standortmessgerät, wie einen GNSS-(oder GPS-)-Empfänger 1106, und ein bildgebendes Gerät, wie eine Kamera 1104 beinhalten. In dem in 11A gezeigten Beispiel sind der GNSS-Empfänger 1106 und die Kamera 1104 im Handgerät 1140 integriert. Das Handgerät 1140 kann außerdem ein Abstandsmessgerät 1142 zum Bestimmen eines Abstandes r zwischen dem Handgerät 1140 und dem Punkt von Interesse 1110 beinhalten. Das Abstandsmessgerät 1142 kann ein herkömmliches elektronisches Abstandsmessgerät sein oder es kann den Abstand unter Verwendung von Schallmessungstechniken bestimmen. Das Handgerät 1140 kann außerdem ein Zeigegerät 1144, wie einen Laserpointer, zum Ausrichten des Handgerätes 1140 mit einem Punkt von Interesse 1110 beinhalten.
  • Eine Stellung des Handgerätes 1140 (oder des bildgebenden Gerätes) kann, wie oben beschrieben, unter Verwendung bekannter Matchmoving-Techniken bestimmt werden. Zum Beispiel kann die Stellung unter Verwendung von Merkmalen in einem Bild, in dem sich Merkmale an bekannten Standorten in einem Bezugssystem befinden, bestimmt werden. Die Stellung kann außerdem unter Verwendung von Übereinstimmungen zwischen Bildern bestimmt werden, wobei wenigstens eins der Bilder so aufgenommen ist, dass sich das bildgebende Gerät in einer bekannten (z. B. nivellierten) Position befindet. Ein Neigungswinkel (Theta) und eine Neigungsrichtung (Phi) können dann wie oben beschrieben unter Verwendung der Umwandlungen und Gleichungen (1)-(3) bestimmt werden. Die Gleichungen (4)-(6) können verwendet werden, um X- und Y-Komponenten einer Bodenabweichung und eine Z-Komponente einer Höhenabweichung zu bestimmen.
  • 11B ist ein vereinfachtes Diagramm eines mit einem dreibeinigen Ständer 1152 gekoppelten, optischen Vermessungsinstrumentes 1150 (wie eines optischen Tachymeters), das verwendet werden kann, um einen Neigungswinkel und eine Neigungsrichtung gemäß einer Ausführungsform der Erfindung zu bestimmen. Das optische Vermessungsinstrument 1150 kann ein Standortmessgerät, wie einen GNSS-(oder GPS-)-Empfänger 1106, und ein bildgebendes Gerät, wie eine Kamera 1104 beinhalten. Das optische Vermessungsinstrument 1150 beinhaltet außerdem ein Abstandsmessgerät 1142 zum Bestimmen eines Abstandes r zwischen dem optischen Vermessungsinstrument 1150 und einem Punkt von Interesse (nicht dargestellt). Das Abstandsmessgerät 1142 kann ein herkömmliches elektronisches Abstandsmessgerät sein oder den Abstand unter Verwendung bekannter Schallmessungstechniken bestimmen. Das optische Vermessungsinstrument 1150 kann außerdem eine Ausrichtungseinheit 1154, wie einen Theodoliten, zum Ausrichten des optischen Vermessungsinstrumentes 1150 mit einem Punkt von Interesse und zum Bestimmen eines Azimutes oder Rotationswinkels um eine vertikale Achse im Verhältnis zu einem Bezugspunkt, wie dem geographischen Nordpol, dem magnetischen Nordpol oder einem beliebigen anderen Bezugspunkt, beinhalten.
  • Eine Stellung der Kamera 1104 kann, wie oben beschrieben, unter Verwendung von bekannten Matchmoving-Techniken bestimmt werden. Zum Beispiel kann die Stellung unter Verwendung von Merkmalen in einem Bild, in dem sich Merkmale an bekannten Standorten in einem Bezugssystem befinden, bestimmt werden. Die Stellung kann außerdem unter Verwendung von Übereinstimmungen zwischen Bildern bestimmt werden, wobei wenigstens eins der Bilder so aufgenommen ist, dass sich das bildgebende Gerät in einer bekannten (z. B. nivellierten) Position befindet. Ein Neigungswinkel (Theta) und eine Neigungsrichtung (Phi) können dann, wie oben beschrieben, unter Verwendung der Umwandlungen und Gleichungen (1)-(3) bestimmt werden. Die Gleichungen (4)-(6) können verwendet werden, um, ähnlich wie in der in 11A dargestellten Weise, X- und Y-Komponenten einer Bodenabweichung und eine Z-Komponente einer Höhenabweichung zu bestimmen.
  • Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung
  • 12 ist ein Ablaufdiagramm, das ein Verfahren zum Bestimmen eines Standortes eines Punktes von Interesse gemäß einer Ausführungsform der Erfindung bereitstellt. Das Verfahren beinhaltet das Empfangen eines Standortes eines Antennenphasenzentrums von einem GNSS-Empfänger (1202) und das Empfangen von Bildinformationen von einem bildgebenden Gerät (1204). Das bildgebende Gerät kann eine Digitalkamera sein und die Bildinformationen können ein oder mehrere Bilder beinhalten, das/die Merkmale von einer das bildgebende Gerät umgebenden Szene beinhaltet/beinhalten. In einer Ausführungsform befinden sich die Merkmale an bekannten Standorten in einem Bezugssystem, wie einem realen Koordinatensystem. In einer anderen Ausführungsform können die Merkmale beliebige Punkte, Linien, Bereiche, Konturen, Oberflächen, Strukturbereiche und dergleichen beinhalten, die unter Verwendung von Merkmalsidentifikationsprozessen in einem Bild erkannt werden können.
  • Das Verfahren beinhaltet außerdem das Bestimmen einer Stellung des bildgebenden Gerätes unter Verwendung der Bildinformationen (1206). Die Stellung wird unter Verwendung bekannter Matchmoving-Techniken bestimmt. Das Verfahren beinhaltet außerdem das Bestimmen eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes, wobei der Neigungswinkel und die Neigungsrichtung unter Verwendung der Stellung des bildgebenden Gerätes (1208) bestimmt werden. Der Neigungswinkel und die Neigungsrichtung können unter Verwendung von Koordinatenumwandlungen anhand der Stellung bestimmt werden. Das Verfahren beinhaltet außerdem das Bestimmen eines Standortes des Punktes von Interesse unter Verwendung des Standortes des Antennenphasenzentrums und des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes (1210).
  • 13 ist ein Ablaufdiagramm, das ein Verfahren zum Bestimmen eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes gemäß einer Ausführungsform der Erfindung bereitstellt. Das Verfahren beinhaltet das Ausrichten des Vermessungsinstrumentes mit einem lokalen Gravitationsvektor an einer ersten Station (1302). Die erste Station kann ein Messstandort sein, von dem aus ein Vergleichsbild aufgenommen wird (oder eine Vergleichsmessstation). Das Vermessungsinstrument kann unter Verwendung von einer Wasserwaage, Neigungssensoren oder anderen Nivelliertechniken mit dem lokalen Gravitationsvektor ausgerichtet werden. Es versteht sich, dass die Ausrichtung als innerhalb einer von der jeweiligen Nivelliertechnik abhängigen Genauigkeit bestimmt wird. Das Verfahren beinhaltet außerdem das Aufnehmen eines ersten Bildes an einer ersten Station unter Verwendung eines bildgebenden Gerätes, wobei das erste Bild eine Mehrzahl an Merkmalen (1304) aufnimmt. Die Merkmale können beliebige Punkte, Linien, Bereiche, Konturen, Oberflächen, Strukturbereiche und dergleichen beinhalten, die unter Verwendung von bekannten Merkmalsidentifikationsprozessen in einem Bild erkannt werden können. Das Verfahren beinhaltet außerdem das Positionieren des Vermessungsinstrumentes an einer zweiten Station, die sich von der ersten Station (1306) unterscheidet, und das Erfassen eines zweiten Bildes an der zweiten Station unter Verwendung des bildgebenden Gerätes, wobei das zweite Bild wenigstens einen Teil der Mehrzahl an im ersten Bild (1308) aufgenommenen Merkmalen aufnimmt. Es ist nicht erforderlich, dass das Vermessungsinstrument an der zweiten Station mit dem lokalen Gravitationsvektor ausgerichtet ist. Das Verfahren beinhaltet außerdem das Verarbeiten des ersten Bildes und des zweiten Bildes, um eine Stellung des bildgebenden Gerätes an der zweiten Station (1310) zu bestimmen. Die Bilder werden unter Verwendung bekannter Matchmoving-Techniken anhand von Übereinstimmungen zwischen den Bildern verarbeitet. Das Verfahren beinhaltet außerdem das Bestimmen des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes an der zweiten Station, wobei der Neigungswinkel und die Neigungsrichtung unter Verwendung der Stellung des bildgebenden Gerätes (1312) bestimmt werden. Der Neigungswinkel und die Neigungsrichtung können unter Verwendung von Koordinatenumwandlungen aus der Stellung bestimmt werden.
  • Es gilt zu beachten, dass die spezifischen, in 12-13 dargestellten Schritte bestimmte Verfahren gemäß Ausführungsformen der vorliegenden Erfindung bereitstellen. Andere Schrittabfolgen können gemäß alternativen Ausführungsformen ebenfalls ausgeführt werden. Zum Beispiel können alternative Ausführungsformen die oben beschriebenen Schritte in einer anderen Reihenfolge ausführen. Des Weiteren können die einzelnen in 12-13 dargestellten Schritte mehrere Unterschritte beinhalten, die in verschiedenen Folgen ausgeführt werden können. Ferner können abhängig von der jeweiligen Anwendung zusätzliche Schritte hinzugefügt oder weggelassen werden.
  • Es gilt zu beachten, dass einige Ausführungsformen der vorliegenden Erfindung durch Hardware, Software, Firmware, Middleware, Mikroprogramme, Hardware-Beschreibungssprachen oder eine Kombination davon implementiert sein können. Wenn er/sie als Software, Firmware, Middleware oder Mikroprogramme implementiert ist/sind kann/können der Programmcode oder die Code-Segmente für die Durchführung der nötigen Aufgaben in einem computerlesbaren Medium, wie einem Speichermedium, gespeichert werden. Prozessoren können angepasst werden, um die erforderlichen Aufgaben durchzuführen. Die Bezeichnung „computerlesbares Medium“ beinhaltet, ist jedoch nicht beschränkt auf: tragbare oder stationäre Speichergeräte, optische Speichergeräte, kabellose Kanäle, Sim-Karten, andere Chip-Karten und verschiedene andere nicht-flüchtige Medien, die Anweisungen oder Daten speichern, enthalten oder übertragen können.
  • Wenngleich die vorliegende Erfindung in Bezug auf spezifische Ausführungsformen beschrieben wurde, ist für Fachleute leicht ersichtlich, dass der Umfang der vorliegenden Erfindung nicht auf die hierin beschriebenen Ausführungsformen beschränkt ist. Zum Beispiel können Merkmale einer oder mehrerer Ausführungsformen der Erfindung mit einem oder mehreren Merkmal(en) anderer Ausführungsformen kombiniert werden, ohne dabei vom Umfang der Erfindung abzuweichen. Die Beschreibung und Zeichnungen sind dementsprechend als beispielhaft und nicht als einschränkend auszulegen. Demnach sollte der Umfang der vorliegenden Erfindung nicht mit Bezug auf die vorstehende Beschreibung sondern mit Bezug auf die anhängigen Ansprüche sowie ihren gesamten Umfang an Entsprechungen bestimmt werden.

Claims (21)

  1. Vermessungsinstrument, das Folgendes umfasst: ein Vermessungsgerät, das konfiguriert ist, um Vermessungen vorzunehmen, wobei die Vermessungen Standortinformationen beinhalten; ein bildgebendes Gerät, das mit dem Vermessungsgerät gekoppelt ist und eine bekannte räumliche Beziehung mit dem Vermessungsgerät aufweist, wobei das bildgebende Gerät konfiguriert ist, um Bildinformationen zu erhalten; ein Abstandsmessgerät, das konfiguriert ist, um einen Abstand zu einem Punkt von Interesse zu bestimmen; und einen Prozessor, der mit dem bildgebenden Gerät in elektrischer Kommunikation steht, wobei der Prozessor konfiguriert ist, um: Standortinformationen von dem Vermessungsgerät zu empfangen; die Bildinformationen vom bildgebenden Gerät zu empfangen; die Bildinformationen zu verarbeiten, um eine Stellung des bildgebenden Gerätes zu bestimmen; einen Neigungswinkel des Vermessungsinstrumentes und eine Neigungsrichtung des Vermessungsinstrumentes in einem Bezugssystem zu bestimmen, wobei der Neigungswinkel und die Neigungsrichtung des Vermessungsinstrumentes unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden, und unter Verwendung der Standortinformationen, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und des Abstandes zum Punkt von Interesse einen Standort des Punktes von Interesse zu bestimmen.
  2. Vermessungsinstrument nach Anspruch 1, wobei der Prozessor konfiguriert ist, um die Bildinformationen unter Verwendung eines Merkmalsidentifikationsprozesses zu verarbeiten und die Bildinformationen wenigstens ein Bild beinhalten, das Merkmale umfasst, die bekannte Standorte im Bezugssystem aufweisen.
  3. Vermessungsinstrument nach Anspruch 1, wobei der Prozessor in einem Handgerät angeordnet ist, das vom Vermessungsgerät und dem bildgebenden Gerät getrennt ist, und die Bildinformationen unter Verwendung einer kabellosen Kommunikationsverbindung vom bildgebenden Gerät empfangen werden.
  4. Vermessungsinstrument nach Anspruch 1, wobei das Vermessungsgerät einen GNSS-Empfänger umfasst und die vom Vermessungsgerät durchgeführten Vermessungen die Standortinformationen beinhalten.
  5. Vermessungsinstrument nach Anspruch 1, das ferner einen Trägerstab umfasst, wobei ein erstes Ende des Trägerstabes mit dem Vermessungsgerät gekoppelt ist und ein zweites Ende des Trägerstabes konfiguriert ist, um an dem Punkt von Interesse platziert zu werden.
  6. Vermessungsinstrument nach Anspruch 1, das ferner einen Trägerstab umfasst, wobei das bildgebende Gerät mit dem Trägerstab gekoppelt ist und eine bekannte räumliche Beziehung mit der Spitze des Trägerstabes aufweist, die konfiguriert ist, um an dem Punkt von Interesse platziert zu werden, wobei der Prozessor ferner konfiguriert ist, um die Bildinformationen zu verarbeiten, um einen Standort des bildgebenden Gerätes im Bezugssystem zu bestimmen und konfiguriert ist, um unter Verwendung des Standortes des bildgebenden Gerätes, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und der bekannten räumlichen Beziehung zwischen dem bildgebenden Gerät und der Spitze des Trägerstabes einen Standort der Spitze des Trägerstabes im Bezugssystem zu bestimmen.
  7. Vermessungsinstrument nach Anspruch 1, das ferner einen Trägerstab umfasst, wobei das Vermessungsgerät mit einem ersten Ende des Trägerstabes gekoppelt ist und einen GNSS-Empfänger umfasst, der konfiguriert ist, um die Standortinformationen zu bestimmen, wobei der GNSS-Empfänger eine bekannte räumliche Beziehung mit einem zweiten Ende des Trägerstabes aufweist, wobei der Prozessor ferner konfiguriert ist, um unter Verwendung der Standortinformationen vom GNSS-Empfänger, des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes und der bekannten räumlichen Beziehung zwischen dem GNSS-Empfänger und dem zweiten Ende des Trägerstabes einen Standort des zweites Endes des Trägerstabes zu bestimmen.
  8. Vermessungsinstrument nach Anspruch 1, wobei das bildgebende Gerät und das Vermessungsgerät in einer bekannten räumlichen Beziehung angeordnet sind.
  9. Vermessungsinstrument nach Anspruch 1, wobei die vom Vermessungsgerät durchgeführten Vermessungen die Standortinformationen beinhalten, die einem Messungszentrum des Vermessungsgerätes entsprechen, und eine Eintrittspupille des bildgebenden Gerätes im Wesentlichen koaxial zum Messungszentrum des Vermessungsgerätes und einem ersten und zweiten Ende des Trägerstabes liegt.
  10. Vermessungsinstrument nach Anspruch 1, wobei das Vermessungsgerät ein optisches Vermessungsgerät, das konfiguriert ist, um optische Vermessungen durchzuführen, und das Abstandsmessgerät, das konfiguriert ist, um einen Abstand zu dem Punkt von Interesse zu bestimmen, umfasst, wobei das Vermessungsinstrument ferner einen dreibeinigen Ständer umfasst, der mit dem Vermessungsgerät und dem bildgebenden Gerät gekoppelt ist.
  11. Vermessungsinstrument nach Anspruch 1, wobei das Vermessungsgerät einen GNSS-Empfänger umfasst, der konfiguriert ist, um die Standortinformationen zu bestimmen, und der Prozessor ferner konfiguriert ist, um unter Verwendung der Standortinformationen, der optischen Vermessungen, des Abstandes und des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes den Standort des Punktes von Interesse zu bestimmen.
  12. Vermessungsinstrument nach Anspruch 1, wobei das Vermessungsgerät und das bildgebende Gerät in einem Handgerät integriert sind.
  13. Vermessungsinstrument nach Anspruch 1, wobei das Vermessungsgerät und das bildgebende Gerät in einem Handgerät integriert sind, wobei das Handgerät einen Laserpointer zum Ausrichten des Handgerätes mit dem Punkt von Interesse und das Abstandsmessgerät zum Bestimmen des Abstandes zum Punkt von Interesse umfasst.
  14. Vermessungsinstrument nach Anspruch 13, wobei das Abstandsmessgerät den Abstand zum Punkt von Interesse unter Verwendung von Schallmessungen bestimmt.
  15. Vermessungsinstrument nach Anspruch 13, wobei das Abstandsmessgerät ein elektronisches Abstandsmessgerät ist.
  16. Vermessungsinstrument nach Anspruch 13, wobei das Abstandsmessgerät den Laser verwendet, um den Abstand zum Punkt von Interesse zu bestimmen.
  17. Verfahren zum Bestimmen eines Neigungswinkels und einer Neigungsrichtung eines Vermessungsinstrumentes, wobei das Verfahren Folgendes umfasst: Ausrichten des Vermessungsinstrumentes mit einem lokalen Gravitationsvektor an einer ersten Station; Erfassen eines ersten Bildes an einer ersten Station unter Verwendung eines bildgebenden Gerätes, wobei das erste Bild eine Mehrzahl an Merkmalen aufnimmt; Positionieren des Vermessungsinstrumentes an einer zweiten Station, die sich von der ersten Station unterscheidet; Erfassen eines zweiten Bildes an der zweiten Station unter Verwendung des bildgebenden Gerätes, wobei das zweite Bild wenigstens einen Teil der Mehrzahl an im ersten Bild aufgenommenen Merkmalen aufnimmt; Verarbeiten des ersten Bildes und des zweiten Bildes, um eine Stellung des bildgebenden Gerätes an der zweiten Station zu bestimmen; und Bestimmen des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes an der zweiten Station, wobei der Neigungswinkel und die Neigungsrichtung unter Verwendung der Stellung des bildgebenden Gerätes bestimmt werden.
  18. Verfahren nach Anspruch 17, das ferner Folgendes umfasst: an der zweiten Station, Bestimmen eines Standortes des Vermessungsinstrumentes im Bezugssystem; und Bestimmen eines Standortes eines Punktes von Interesse unter Verwendung des Neigungswinkels und der Neigungsrichtung des Vermessungsinstrumentes an der zweiten Station und des Standortes des Vermessungsinstrumentes an der zweiten Station.
  19. Verfahren nach Anspruch 17, wobei das Vermessungsinstrument einen Trägerstab und einen GNSS-Empfänger umfasst und der GNSS-Empfänger mit einem ersten Ende des Trägerstabes gekoppelt ist und das bildgebende Gerät im Wesentlichen koaxial zwischen einem Antennenphasenzentrum des GNSS-Empfängers und einem zweiten Endes des Trägerstabes positioniert ist.
  20. Verfahren nach Anspruch 17, wobei das Vermessungsinstrument ein Handgerät ist, das das bildgebende Gerät und ein Vermessungsgerät, das konfiguriert ist, um Standortmessungen vorzunehmen, beinhaltet.
  21. Verfahren nach Anspruch 17, das ferner Folgendes umfasst: Bereitstellen eines Benutzerhinweises darüber, dass der Neigungswinkel an der zweiten Station größer ist als ein Grenzwert für den Neigungswinkel.
DE102013202393.6A 2012-02-15 2013-02-14 Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung Active DE102013202393B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/397,445 2012-02-15
US13/397,445 US9109889B2 (en) 2011-06-24 2012-02-15 Determining tilt angle and tilt direction using image processing

Publications (2)

Publication Number Publication Date
DE102013202393A1 DE102013202393A1 (de) 2013-08-22
DE102013202393B4 true DE102013202393B4 (de) 2024-02-08

Family

ID=47362636

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013202393.6A Active DE102013202393B4 (de) 2012-02-15 2013-02-14 Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung

Country Status (3)

Country Link
US (1) US9109889B2 (de)
CN (1) CN103256920B (de)
DE (1) DE102013202393B4 (de)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112011102132T5 (de) 2010-06-25 2013-05-23 Trimble Navigation Ltd. Verfahren und Vorrichtung für eine imagebasierte Positionierung
US9182229B2 (en) 2010-12-23 2015-11-10 Trimble Navigation Limited Enhanced position measurement systems and methods
US10168153B2 (en) 2010-12-23 2019-01-01 Trimble Inc. Enhanced position measurement systems and methods
US9879993B2 (en) 2010-12-23 2018-01-30 Trimble Inc. Enhanced bundle adjustment techniques
US9134127B2 (en) 2011-06-24 2015-09-15 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9093047B2 (en) 2012-04-15 2015-07-28 Trimble Navigation Limited Displaying arrays of image data
US8941752B2 (en) * 2012-04-30 2015-01-27 Hewlett-Packard Development Company, L.P. Determining a location using an image
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9639941B2 (en) 2012-12-28 2017-05-02 Trimble Inc. Scene documentation
US9910158B2 (en) 2012-12-28 2018-03-06 Trimble Inc. Position determination of a cellular device using carrier phase smoothing
US9544737B2 (en) 2012-12-28 2017-01-10 Trimble Inc. Performing data collection based on external raw observables using a mobile data collection platform
US10101465B2 (en) 2012-12-28 2018-10-16 Trimble Inc. Electronic tape measure on a cellphone
US9821999B2 (en) 2012-12-28 2017-11-21 Trimble Inc. External GNSS receiver module with motion sensor suite for contextual inference of user activity
US9645248B2 (en) 2012-12-28 2017-05-09 Trimble Inc. Vehicle-based global navigation satellite system receiver system with radio frequency hardware component
US9369843B2 (en) 2012-12-28 2016-06-14 Trimble Navigation Limited Extracting pseudorange information using a cellular device
US9488736B2 (en) 2012-12-28 2016-11-08 Trimble Navigation Limited Locally measured movement smoothing of GNSS position fixes
US9835729B2 (en) 2012-12-28 2017-12-05 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9429640B2 (en) 2012-12-28 2016-08-30 Trimble Navigation Limited Obtaining pseudorange information using a cellular device
US9903957B2 (en) 2012-12-28 2018-02-27 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9462446B2 (en) 2012-12-28 2016-10-04 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset
US9538336B2 (en) 2012-12-28 2017-01-03 Trimble Inc. Performing data collection based on internal raw observables using a mobile data collection platform
US9945959B2 (en) 2012-12-28 2018-04-17 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9612341B2 (en) 2012-12-28 2017-04-04 Trimble Inc. GNSS receiver positioning system
US9880286B2 (en) 2012-12-28 2018-01-30 Trimble Inc. Locally measured movement smoothing of position fixes based on extracted pseudoranges
US9743373B2 (en) 2012-12-28 2017-08-22 Trimble Inc. Concurrent dual processing of pseudoranges with corrections
US9456067B2 (en) 2012-12-28 2016-09-27 Trimble Navigation Limited External electronic distance measurement accessory for a mobile data collection platform
US9467814B2 (en) 2012-12-28 2016-10-11 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider
US20140227977A1 (en) * 2013-02-12 2014-08-14 Zary Segall Method, node, device, and computer program for interaction
US9247239B2 (en) 2013-06-20 2016-01-26 Trimble Navigation Limited Use of overlap areas to optimize bundle adjustment
US9367962B2 (en) * 2013-10-22 2016-06-14 Topcon Positioning Systems, Inc. Augmented image display using a camera and a position and orientation sensor
CN103557838B (zh) * 2013-11-08 2015-08-05 重庆师范大学 一种便携式耕地坡度测量装置及测量方法
US9470511B2 (en) 2013-11-12 2016-10-18 Trimble Navigation Limited Point-to-point measurements using a handheld device
WO2015169338A1 (en) * 2014-05-05 2015-11-12 Hexagon Technology Center Gmbh Surveying system
US10466050B2 (en) * 2014-06-06 2019-11-05 Carlson Software, Inc. Hybrid total station with electronic leveling
US11662470B2 (en) 2014-06-06 2023-05-30 Carlson Software, Inc. Survey range pole and data collector with electronic height detection, leveling and hands-free data collection
US11422270B2 (en) 2014-06-06 2022-08-23 Carlson Software, Inc. GNSS mobile base station and data collector with electronic leveling and hands-free data collection
US10101459B2 (en) 2014-06-06 2018-10-16 Carlson Software, Inc. GNSS mobile base station and data collector with electronic leveling
US9923626B2 (en) 2014-06-13 2018-03-20 Trimble Inc. Mobile ionospheric data capture system
CN106153004A (zh) * 2015-04-08 2016-11-23 广东中星电子有限公司 一种建筑物倾斜检测方法和装置
EP3093685A1 (de) * 2015-05-12 2016-11-16 Siemens AG Österreich Verfahren zum einmessen eines punktes in einem dreidimensionalen objekt
GB2542762B (en) 2015-09-21 2018-11-21 Imetrum Ltd Measuring device and method
EP3182066B1 (de) * 2015-12-17 2018-07-04 Leica Geosystems AG Vermessungsstab
US10962363B2 (en) 2016-01-25 2021-03-30 Topcon Positioning Systems, Inc. Method and apparatus for single camera optical measurements
CN110945318B (zh) * 2017-06-22 2022-01-04 昕诺飞控股有限公司 用于检测对象的倾斜的装置和方法
US10586349B2 (en) 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
NL2020405B1 (en) * 2018-02-08 2019-08-19 Fugro N V Method of and apparatus for analyzing images
CN108387215A (zh) * 2018-02-10 2018-08-10 杭州后博科技有限公司 一种基于卫星定位的铁塔倾斜角度计算方法及系统
TWI671740B (zh) * 2018-06-07 2019-09-11 光禾感知科技股份有限公司 基於地磁訊號結合電腦視覺的室內定位系統及方法
NL2021702B1 (en) * 2018-09-25 2020-05-07 Handicare Stairlifts B V Staircase measuring method and system for obtaining spatial information on a staircase and an environment of the staircase
CN109685762A (zh) 2018-11-09 2019-04-26 五邑大学 一种基于多尺度深度语义分割网络的天线下倾角测量方法
EP3660451B1 (de) * 2018-11-28 2022-04-27 Hexagon Technology Center GmbH Intelligentes stationierungs-modul
JP7183017B2 (ja) * 2018-12-11 2022-12-05 株式会社トプコン 測量装置及び写真測量方法
EP3827286A4 (de) * 2018-12-20 2021-10-27 SZ DJI Technology Co., Ltd. Positionsbestimmungsverfahren und -vorrichtung auf basis von haltungsdaten
JP7240961B2 (ja) * 2019-06-10 2023-03-16 株式会社トプコン 測量装置
JP7202261B2 (ja) 2019-06-10 2023-01-11 株式会社トプコン 測量装置
RU192273U1 (ru) * 2019-06-13 2019-09-11 Александр Александрович Федоровский Система наземной стереосъемки
CN110159495B (zh) * 2019-06-27 2020-06-26 三一重能有限公司 风机塔筒预警方法、装置及系统
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
CN110986879B (zh) * 2019-12-06 2021-03-12 中国地质大学(北京) 一种电力线塔倾斜实时监测方法及系统
CN111025330B (zh) * 2019-12-16 2022-04-26 奥比中光科技集团股份有限公司 一种基于深度图的目标倾斜角检测方法及设备
US11536857B2 (en) * 2019-12-19 2022-12-27 Trimble Inc. Surface tracking on a survey pole
FR3106403B1 (fr) 2020-01-16 2022-02-11 Agreenculture Procédé de géolocalisation d'un point cible
US11232595B1 (en) 2020-09-08 2022-01-25 Weta Digital Limited Three-dimensional assembly for motion capture calibration
US11282233B1 (en) * 2020-09-08 2022-03-22 Weta Digital Limited Motion capture calibration
US20220076451A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a three-dimensional assembly
US20220076452A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a wand
CN112284356B (zh) * 2020-09-29 2023-01-24 深圳冰河导航科技有限公司 一种基于rtk的墙角坐标自动测量方法
CN113670253B (zh) * 2021-08-25 2023-05-26 北京环境特性研究所 空间目标姿态反演方法、装置、计算设备及存储介质
CN117231201B (zh) * 2023-10-12 2024-03-29 广东省建设工程质量安全检测总站有限公司 一种桩基钻探孔测斜的误差消除方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721903C1 (de) 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
WO2010080950A1 (en) 2009-01-08 2010-07-15 Trimble Navigation Limited Methods and systems for determining angles and locations of points
WO2011163454A1 (en) 2010-06-25 2011-12-29 Trimble Navigation Ltd. Method and apparatus for image-based positioning

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195609B1 (en) 1993-09-07 2001-02-27 Harold Robert Pilley Method and system for the control and management of an airport
US5642285A (en) 1995-01-31 1997-06-24 Trimble Navigation Limited Outdoor movie camera GPS-position and time code data-logging for special effects production
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US6147598A (en) 1997-07-03 2000-11-14 Trimble Navigation Limited Vehicle theft system including a handheld computing device
DE10066379B4 (de) 2000-05-20 2008-07-10 Trimble Jena Gmbh Verfahren und Einrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
US7248285B2 (en) 2001-03-30 2007-07-24 Intel Corporation Method and apparatus for automatic photograph annotation
JP4004316B2 (ja) * 2002-03-20 2007-11-07 株式会社トプコン 測量装置及び測量装置を用いて画像データを取得する方法
US7272467B2 (en) 2002-12-17 2007-09-18 Evolution Robotics, Inc. Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7204596B2 (en) * 2003-09-19 2007-04-17 Nec Corporation Projector with tilt angle measuring device
JP4253239B2 (ja) 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
US20050209815A1 (en) 2004-03-02 2005-09-22 Russon Virgil K Method, system, and computer-readable medium for user-assignment of geographic data to an image file
US7650013B2 (en) 2004-11-15 2010-01-19 Mobilerobots Inc. System and method for map and position-determination enhancement
WO2006099059A2 (en) 2005-03-10 2006-09-21 Witten Technologies, Inc. Method for correcting a 3d location measured by a tracking system assuming a vertical offset
US7541974B2 (en) 2005-12-15 2009-06-02 Trimble Navigation Limited Managed traverse system and method to acquire accurate survey data in absence of precise GPS data
ATE504803T1 (de) 2005-09-12 2011-04-15 Trimble Jena Gmbh Vermessungsinstrument und verfahren zur bereitstellung von vermessungsdaten unter verwendung eines vermessungsinstruments
US8229166B2 (en) 2009-07-07 2012-07-24 Trimble Navigation, Ltd Image-based tracking
CN100451543C (zh) * 2006-08-22 2009-01-14 邓业灿 桩斜模拟直桩检测方法
CN101196395A (zh) * 2006-12-04 2008-06-11 李正才 微小倾角测量仪
US7719467B2 (en) 2007-03-08 2010-05-18 Trimble Navigation Limited Digital camera with GNSS picture location determination
EP1970005B1 (de) 2007-03-15 2012-10-03 Xsens Holding B.V. System und Verfahren zur Bewegungsnachverfolgung über eine Kalibriereinheit
JP2008261755A (ja) * 2007-04-12 2008-10-30 Canon Inc 情報処理装置、情報処理方法
US20090024325A1 (en) * 2007-07-19 2009-01-22 Scherzinger Bruno M AINS enhanced survey instrument
US20090093959A1 (en) 2007-10-04 2009-04-09 Trimble Navigation Limited Real-time high accuracy position and orientation system
US8345928B2 (en) 2008-02-12 2013-01-01 Trimble Ab Localizing a surveying instrument in relation to a ground mark
EP2240740B1 (de) 2008-02-12 2014-10-08 Trimble AB Lokalisierung eines vermessungsinstruments in bezug auf eine bodenmarkierung
CN101952690B (zh) 2008-02-22 2013-02-27 特里伯耶拿有限公司 角度测量设备和方法
CN101970985B (zh) 2008-02-29 2013-06-12 特林布尔公司 确定觇标相对于带有至少两台相机的测量仪的坐标
US20090262974A1 (en) 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
CN101567121A (zh) * 2008-04-24 2009-10-28 深圳富泰宏精密工业有限公司 手持行动电子装置遗失侦测系统及方法
US9857475B2 (en) 2008-09-09 2018-01-02 Geooptics, Inc. Cellular interferometer for continuous earth remote observation (CICERO)
US7991575B2 (en) 2009-01-08 2011-08-02 Trimble Navigation Limited Method and system for measuring angles based on 360 degree images
US8379929B2 (en) 2009-01-08 2013-02-19 Trimble Navigation Limited Methods and apparatus for performing angular measurements
TWI418210B (zh) * 2010-04-23 2013-12-01 Alpha Imaging Technology Corp 避免快門延遲之影像擷取模組及影像擷取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19721903C1 (de) 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
WO2010080950A1 (en) 2009-01-08 2010-07-15 Trimble Navigation Limited Methods and systems for determining angles and locations of points
WO2011163454A1 (en) 2010-06-25 2011-12-29 Trimble Navigation Ltd. Method and apparatus for image-based positioning

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
F. Ababsa, M. Mallem: Robust Camera Pose Estimation Using 2D Fiducials Tracking for Real-Time Augmented Reality Systems. In: Proceedings VRCAI 2004, ACM SIGGRAPH International Conference on Virtual Reality Continuum and its Applications in Industry, 2004
G. Simon, A. Fitzgibbon, A. Zisserman: Markerless Tracking using Planar Structures in the Scene. In: Proceedings International Symposium on Augmented Reality (ISAR), 2000
J-S. Park, B-J. Lee: Vision-based real-time camera match moving using a known marker. In: Optical Engineering 47(2), 2008, 027201-1 bis 027201-8
K. Di, R. Li: CAHVOR camera model and its photogrammetric conversion for planetary applications. In: J. Geophys. Res., Vol.109, 2004
M-A. Ameller, B. Triggs, L. Quan: Camera Pose Revisited - New Linear Algorithms. In: Proceedings European Conference on Computer Visison (ECCV), 2000

Also Published As

Publication number Publication date
CN103256920A (zh) 2013-08-21
US20120330601A1 (en) 2012-12-27
CN103256920B (zh) 2017-04-26
US9109889B2 (en) 2015-08-18
DE102013202393A1 (de) 2013-08-22

Similar Documents

Publication Publication Date Title
DE102013202393B4 (de) Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung
EP3034995B1 (de) Verfahren zum bestimmen eines position- und orientierungsversatzes eines geodätischen vermessungsgeräts und ebensolches vermessungsgerät
CN1712891B (zh) 立体图像的关联方法和三维数据作成装置
Agüera-Vega et al. Accuracy of digital surface models and orthophotos derived from unmanned aerial vehicle photogrammetry
Gerke et al. Accuracy analysis of photogrammetric UAV image blocks: Influence of onboard RTK-GNSS and cross flight patterns
EP2669707B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
US9322652B2 (en) Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera
DE19922321C2 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
EP2573512A2 (de) Verfahren und Anordnung zur Bestimmung der Lage eines Messpunktes im geometrischen Raum
DE112010000812T5 (de) Verfahren und Systeme zum Bestimmen von Winkeln und Orten von Punkten
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE112011102132T5 (de) Verfahren und Vorrichtung für eine imagebasierte Positionierung
DE112010002843T5 (de) Oberflächenverfolgung auf Bildbasis
DE10308525A1 (de) Vermessungssystem
AT509103A1 (de) Verfahren und vorrichtung zur stützung der messgenauigkeit von gps/imu-systemen
EP2191340A2 (de) Anordnung zum erfassen einer umgebung
US20160169662A1 (en) Location-based facility management system using mobile device
EP3539085B1 (de) 3d-referenzierung
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
Bakuła et al. Capabilities of a smartphone for georeferenced 3dmodel creation: An evaluation
Hrabar et al. PTZ camera pose estimation by tracking a 3D target
DE102016119150A1 (de) Registrierungsberechnung zwischen dreidimensionalen (3D) Abtastungen auf Basis zweidimensionaler (2D) Abtastungsdaten von einem 3D-Scanner
CN108731644B (zh) 基于铅直辅助线的倾斜摄影测图方法及其系统

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division