DE112007003284T5 - Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation - Google Patents

Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation Download PDF

Info

Publication number
DE112007003284T5
DE112007003284T5 DE112007003284T DE112007003284T DE112007003284T5 DE 112007003284 T5 DE112007003284 T5 DE 112007003284T5 DE 112007003284 T DE112007003284 T DE 112007003284T DE 112007003284 T DE112007003284 T DE 112007003284T DE 112007003284 T5 DE112007003284 T5 DE 112007003284T5
Authority
DE
Germany
Prior art keywords
positions
image
area
measuring
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112007003284T
Other languages
English (en)
Inventor
Torsten Kludas
Michael Dr. Vogel
Christian Dr. Gräßer
Set Svanholm
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Jena GmbH
Original Assignee
Trimble Jena GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Jena GmbH filed Critical Trimble Jena GmbH
Publication of DE112007003284T5 publication Critical patent/DE112007003284T5/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Optisches Instrument zum Erhalten von Abstands- und Bildinformation eines Objekts, umfassend
eine Linsenanordnung (110) zum Anvisieren des Objekts;
eine Kamera (120), angeordnet zu der optischen Achse der Linsenanordnung zum Erfassen eines Bildes von mindestens einem Teil des Objekts;
eine Abstandsmesseinheit (130) zum Messen eines Abstands zu dem Objekt entlang einer Messachse der Abstandsmesseinheit parallel zu der optischen Achse der Linsenanordnung;
eine Positionierungseinheit (140) zum Einstellen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse; und
eine Steuereinheit (150) mit
einem ersten Steuerelement (152), ausgebildet zum Definieren in dem Bild, eines zu scannenden Bereichs, zum Erhalten eines Objektmerkmals des Objekts in dem Bereich, und zum Definieren in dem Bereich einer Vielzahl von Messpixel entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit erhöhter Dichte der Messpixel bei dem Objektmerkmal, und
einem zweiten Steuerelement (154), ausgebildet zum Instruieren der Positionierungseinheit zum Einstellen der...

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein optisches Instrument und ein Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts.
  • HINTERGRUND
  • Optische Instrumente, insbesondere optische Instrumente, wie Videotachymeter oder Videototalstationen, umfassen eine komplexe Anordnung von optischen Elementen, wie zum Beispiel Linsen eines Teleskops, einer Kamera und Abstandsmessmittel zum Erhalten von Information hinsichtlich der Form und des Orts eines Objekts. Diese Information kann horizontale und vertikale Winkel enthalten, sowie einen Abstand zu dem Objekt und auch ein Bild des Objekts. Die Information kann dann verwendet werden zum Erzeugen einer dreidimensionalen Darstellung des Objekts.
  • Jedoch ist, nach einem Erfassen eines Bildes mit solch einem optischen Instrument, die Erfassung der dreidimensionalen Daten zeitaufwendig. Beispielsweise muss, zum Messen eines dreidimensionalen Koordinatennetzes, das Instrument sequentiell jede Position entsprechend zu einem Punkt in dem Koordinatennetz scannen bzw. abtasten und messen, was zeitaufwendig ist.
  • Andere optische Vermessungsinstrumente mit Bildgebungs-, Richtungs- und Abstandsmessfähigkeiten umfassen oft Scanmittel zum Erhalten von Bild-, Richtungs- und Abstandsinformation, wobei ein schnell rotierender Polygonspiegel für eine Laserstrahlreflexion verwendet wird. Speziell wird ein Laserstrahl eines Abstandsmessmittels über das Objekt gescant, während ein Abstand zu einer Position auf dem Objekt gemessen wird, und die Richtung, beispielsweise angezeigt durch horizontale und vertikale Winkel, zu der Position des Objekts mit Bezug auf den Ursprung oder Spiegelposition des Instruments wird aufgezeichnet.
  • Solche Instrumente sind in der Lage, Bilder des Objekts mit einer Videorate bereitzustellen, sowie Abstandsinformation von jeder gescannten bzw. abgetasteten Position auf dem Objekt. Deshalb können mehrere Datenpunkte entsprechend zu den gemessenen Positionen erhalten werden, wobei jeder Datenpunkt dreidimensionale Information umfasst. Natürlich müssen, je höher die Anforderungen hinsichtlich der Auslösung sind, mehr Datenpunkte erhalten werden, was zu einer großen Menge an Information führt, die verarbeitet werden muss, was oft nur offline möglich ist.
  • Während die oben diskutierten Instrumente dreidimensionale Darstellungen eines Objekts mit ausreichender Auflösung für viele Anwendungen erhalten können, benötigen manche Anwendungen eine noch höhere Auflösung. Über dies hinaus ist es nicht möglich, eine zweite Abstandsmessung der exakt gleichen Position zu erhalten, da es nicht möglich ist, die exakt gleiche Laserstrahlreflexion bzw. Reflexionen auf beispielsweise dem rotierenden Polygonspiegel zweimal zu erhalten. Ferner kann, da eine Verarbeitung der großen Menge an Daten normalerweise offline im Büro durchgeführt werden muss, der Benutzer nicht zurückkehren zu interessierenden Merkmalen auf der Stelle, wo gemessen wird. Obwohl eine ziemlich hohe Auflösung erhalten wird für das gesamte Scangebiet, wird dies daher zu einem Nachteil, falls Daten entsprechend zu wenigen Merkmalen, die von Interesse sind, in dem gescannten Bereich isoliert werden müssen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist deshalb wünschenswert, ein optisches Instrument und Verfahren bereitzustellen mit verbesserter Datenerfassung zum Verbessern einer Bilderfassung und der Genauigkeit und Geschwindigkeit der Abstandsmessungen.
  • Gemäß einer Ausführungsform umfasst ein optisches Instrument zum Erhalten von Abstands- und Bildinformation eines Objekts eine Linsenanordnung zum Anvisieren des Objekts, eine Kamera, angeordnet zu der optischen Achse der Linsenanordnung zum Erfassen eines Bildes von mindestens einem Teil des Objekts, eine Abstandsmesseinheit zum Messen eines Abstands zu dem Objekt entlang einer Messachse der Abstandsmesseinheit parallel zu der optischen Achse der Linsenanordnung, eine Positionierungseinheit zum Einstellen bzw. Justieren der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse, und eine Steuereinheit mit einem ersten Steuerelement, ausgebildet zum Definieren in dem Bild, eines zu scannenden Bereichs, zum Erhalten eines Objektmerkmals des Objekts in dem Bereich, und zum Definieren in dem Bereich einer Vielzahl von Messpixeln entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit erhöhter Dichte der Messpixel bei dem Objektmerkmal und einem zweiten Steuerelement, ausgebildet zum Instruieren der Positionierungseinheit zum Einstellen der optischen Achse der Linsenanordnung sequentiell auf die Vielzahl der Positionen auf dem Objekt und zum Instruieren der Abstandsmesseinheit zum Messen der Abstände zu dem Objekt bei der Vielzahl von Positionen. Demgemäß können die horizontalen und vertikalen Richtungen und Abstände einer Vielzahl von Positionen auf dem Objekt präzise und schnell gemessen werden, da die Positionierungseinheit verwendet wird zum Einstellen der optischen Achse der Linsenanordnung für jede Messung aufs neue, und da Abstandsinformation nur erhalten wird von einer begrenzten Anzahl von Messpixeln, die in dem Bild von Interesse sind, entsprechend zu einem Objektmerkmal. Datenerfassung ist daher begrenzt auf Bereiche und Objektmerkmale, die von Interesse sind, und Verarbeitungszeitersparnis und eine Begrenzung einer erfassten Menge an Daten wird möglich.
  • Gemäß einem vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Erhalten des Objektmerkmals durch einen Benutzer zum Auswählen des Objektmerkmals in dem Bereich oder durch Verarbeiten des Bereichs in dem Bild unter Verwendung eines Detektionsalgorithmus zum Detektieren des Objektmerkmals des Objekts in dem Bereich. Demgemäß wird, anstatt eines Erhaltens von Abstandsinformation von Positionen, die nicht von Interesse sind, ein interessierendes Objektmerkmal ausgewählt durch einen Benutzer oder der Bereich in dem Bild kann alternativ verarbeitet werden unter Verwendung eines Detektionsalgorithmus, so dass die Zeit, die für Positionsanpassungen und Abstandsmessungen gebraucht wird, verringert wird.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren des zu scannenden Bereichs durch einen Benutzer zum Auswählen des Bereichs in dem Bild oder durch Verarbeiten des Bildes unter Verwendung eines Detektionsalgorithmus zum Detektieren von mindestens dem Teil des Objekts. Demgemäß kann es vermieden werden, den Abstand für jede Position in dem Bild zu messen, ein Benutzer kann zuerst das Bild für interessierende Bereiche studieren oder kann einen automatischen Detektionsalgorithmus verwenden, wie zum Beispiel einen automatischen Bildverarbeitungsalgorithmus, um den zu scannenden Bereich zum Detektieren eines Objekts zu verringern.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren in dem zu scannenden Bereich von mindestens einer von einer Region mit einer hohen Messpixeldichte, einer Region mit einer niedrigen Messpixeldichte, und einer Region ohne Messpixel. Demgemäß können verschiedene Regionen in dem Bereich mit unterschiedlichen Prioritäten definiert werden, so dass die Zeit für Positionseinstellungen bzw. Positionsanpassungen und zum Messen von Abständen sowie die Menge an Daten verringert wird.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren der Regionen durch einen Benutzer zum Auswählen der Regionen in dem Bereich oder durch Verarbeiten des Bereichs unter Verwendung eines Detektionsalgorithmus zum Detektieren der Regionen in dem Bereich. Demgemäß kann ein Benutzer zuerst den zu scannenden Bereich studieren, um Regionen akkurat zu definieren, beispielsweise mit unterschiedlichen Prioritäten oder alternativ kann ein Detektionsalgorithmus automatisch eine schnelle Kategorisierung in dieser Hinsicht bereitstellen.
  • Gemäß einem anderen vorteilhaften Beispiel ist das zweite Steuerelement ausgebildet zum Scannen der Messpixel in dem Bereich in einer Sequenz bzw. Abfolge, so dass eine Anpassung bzw. Einstellung der optischen Achse der Linsenanordnung minimiert wird. Demgemäß kann, wenn beispielsweise ein ringförmiges Objekt gescant wird, ein herkömmlicher horizontaler Linienscan vermieden werden, und das Objekt kann beispielsweise um seinen Umfang herum gescant werden, so dass die Messpixel um die Ringform hintereinanderfolgend mit minimalen Anpassungen der optischen Achse der Linsenanordnung für jeden Schritt gescant werden, was die Messzeit verringert.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren in dem Bereich der Vielzahl der Messpixel durch Einführen einer zweidimensionalen Darstellung eines Profils in dem Bereich und durch Auswählen einer Vielzahl von Pixel an einer Kontur der zweidimensionalen Darstellung des Profils in dem Bereich als Messpixel. Demgemäß kann die Verteilung von Messpixeln in dem zu scannenden Bereich angepasst werden gemäß einem tatsächlichen Profil des zu messenden Objekts, wie zum Beispiel einem zylindrischen Profil, wenn Positionen in einem Tunnel gemessen werden.
  • Gemäß einem vorteilhaften Beispiel umfasst das Bild mindestens ein erstes und ein zweites Teilbild und die mindestens zwei Teilbilder umfassen die Vielzahl der Messpixel. Demgemäß kann das Bild zusammengesetzt werden aus mehreren Teilbildern mit Messpixeln in jedem Teilbild oder in nur einem Teilbild.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren anderer Positionen, die zu messen sind zwischen den Messpixeln des ersten Teilbildes und des zweiten Teilbildes. Demgemäß sind zu messende Positionen nicht begrenzt auf Positionen entsprechend zu den Messpixeln von einem Teilbild, aber Abstandsinformation ist auch erhaltbar von Positionen, die nicht gezeigt sind auf irgendeinem Teilbild.
  • Gemäß einem anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum Definieren der anderen zu messenden Positionen durch Verarbeiten von mindestens einem von dem ersten Teilbild und dem zweiten Teilbild durch Definieren der anderen Positionen entlang einer Linie, die mindestens zwei Messpixel verbindet oder unter Verwenden eines Extrapolationsalgorithmus zum Extrapolieren einer Kante oder eines anderen Objektmerkmals des Objekts in mindestens einem von dem ersten Teilbild und dem zweiten Teilbild, detektiert durch einen Detektionsalgorithmus. Demgemäß ist es möglich, die Abstände zu Positionen zu messen, die nicht gezeigt sind in irgendeinem der Teilbilder durch Analysieren von mindestens einem der Teilbilder, beispielsweise zum Erhalten einer Näherung eines Teils eines Objektmerkmals, das nicht gezeigt ist in einem der mindestens zwei Teilbilder.
  • Gemäß einem anderen vorteilhaften Beispiel ist die Positionierungseinheit ausgebildet zum Messen horizontaler und vertikaler Winkel zu der Vielzahl der Positionen auf dem Objekt mit Bezug zu einem Referenzachsensystem. Demgemäß ist es möglich, die Positionen auf dem Objekt in sphärischen Koordinaten zu erhalten.
  • Gemäß einem anderen vorteilhaften Beispiel umfasst das optische Instrument ferner eine Anzeigeeinheit zum Anzeigen des erfassten Bildes. Demgemäß kann ein Benutzer das erfasste Bild sofort draußen im Einsatz sehen.
  • Gemäß einem anderen vorteilhaften Beispiel ist die Anzeigeeinheit ausgebildet zum Anzeigen des erfassten Bildes und gemessener Positionen in überlappender Art und Weise (Superposition). Demgemäß kann die dreidimensionale Bildinformation auf einer zweidimensionalen Anzeige betrachtet werden.
  • Gemäß einem anderen vorteilhaften Beispiel ist die Anzeigeeinheit eine berührungsempfindliche Anzeigeeinheit für mindestens eines von einem Definieren in dem Bild des zu scannenden Bereichs durch einen Benutzer und Erhalten des Objektmerkmals durch einen Benutzer. Demgemäß kann ein Benutzer einfach den zu scannenden Bereich definieren durch beispielsweise Berühren der Anzeige und Definieren eines Objektmerkmals, was eine schnelle und akkurate Auswahl eines Bereichs und eines Objektmerkmals, das von Interesse ist, ermöglicht.
  • Gemäß einem anderen vorteilhaften Beispiel umfasst das optische Instrument ferner eine Umwandlungseinheit zum Umwandeln einer Vielzahl von Messpixeln in Koordinaten der zu messenden Positionen. Demgemäß ist es möglich für jedes Messpixel, Koordinaten der entsprechenden Positionen bereitzustellen, die von der Positionierungseinheit zum Einstellen der optischen Achse verwendet werden können.
  • Gemäß einem anderen vorteilhaften Beispiel wird die Umwandlung ausgeführt unter Verwendung eines Umwandlungsalgorithmus. Demgemäß können Koordinaten der Position schnell erhalten werden durch Bereitstellen der Messpixel bei dem Umwandlungsalgorithmus.
  • Gemäß einem anderen vorteilhaften Beispiel wird die Umwandlung ausgeführt unter Verwendung einer Umwandlungstabelle, die jedes Messpixel mit Koordinaten der zu messenden Positionen korreliert. Demgemäß können die Koordinaten einer Position entsprechend zu einem Messpixel schnell erhalten werden durch Bezugnehmen auf die Umwandlungstabelle ohne irgendeine Verzögerung aufgrund einer Verarbeitung von Daten.
  • Gemäß einem anderen vorteilhaften Beispiel stellen mindestens zwei der Vielzahl der Messpixel Kernpunktpixel dar, und das erste Steuerelement ist ausgebildet zum Umwandeln der Kernpunktpixel in eine Näherung von Koordinaten der Kernpositionen, die zu messen sind, unter Annahme eines Standardabstands zwischen den Kernpositionen und dem optischen Instrument, und das zweite Steuerelement ist ausgebildet zum Instruieren der Positionierungseinheit zum Anpassen bzw. Einstellen der optischen Achse der Linsenanordnung auf die zu messenden Kernpositionen, und zum Instruieren der Abstandsmesseinheit zum Messen der Abstände zu den Kernpositionen, wobei das erste Steuerelement ferner ausgebildet ist zum Neuberechnen der Koordinaten der Kernpositionen auf Grundlage der gemessenen Abstände. Demgemäß können die Koordinaten der Kernpositionen erhalten werden mit hoher Genauigkeit, da die Koordinaten iterativ erhalten werden, was Messfehler eliminiert aufgrund von Einstellungs-Offsets zwischen der Kamera und der Geometrieachsen des optischen Instruments oder der Abstandsmesseinheit.
  • Gemäß einem anderen vorteilhaften Beispiel umfasst das optische Instrument ferner mindestens einen Transceiver zum Empfangen von Steuerdaten und eine abnehmbare Fernsteuereinheit mit einer Betriebssteuereinheit, einer Anzeigeeinheit und einem Transceiver zum Fernsteuern des optischen Instruments. Demgemäß kann ein mit dem optischen Instrument arbeitender Benutzer sich frei in der Umgebung des optischen Instruments bewegen.
  • Gemäß einer anderen Ausführungsform umfasst ein Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts ein Anvisieren des Objekts mit einer Linsenanordnung, Erfassen eines Bildes von mindestens einem Teil des Objekts mit einer Kamera, angeordnet zu der optischen Achse der Linsenanordnung, Definieren in dem Bild eines Bereichs, der zu scannen ist, Erhalten eines Objektmerkmals des Objekts in dem Bereich, Definieren in dem Bereich einer Vielzahl von Messpixel entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit einer erhöhten Dichte der Messpixel bei dem Objektmerkmal, Anpassen bzw. Einstellen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse sequentiell auf die Vielzahl der Positionen des Objekts, und Messen der Abstände zu dem Objekt bei der Vielzahl von Positionen.
  • Gemäß einer anderen Ausführungsform kann ein Programm bereitgestellt werden, das Instruktionen enthält, ausgebildet zum Hervorrufen bei einem Datenverarbeitungsmittel, dass ein Verfahren mit den obigen Merkmalen ausgeführt wird.
  • Gemäß einer anderen Ausführungsform kann ein computerlesbares Medium bereitgestellt werden, in dem ein Programm verkörpert ist, wobei das Programm einen Computer dazu bringt, das Verfahren mit den obigen Merkmalen auszuführen.
  • Gemäß einer anderen Ausführungsform kann ein Computerprogrammprodukt bereitgestellt werden, das das computerlesbare Medium umfasst.
  • Weitere vorteilhafte Ausführungsformen der Erfindung sind in den Ansprüchen offenbart.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 stellt ein optisches Instrument gemäß einer Ausführungsform der Erfindung dar.
  • 2 stellt Schritte eines Verfahrens zum Erhalten von Abstands- und Bildinformation gemäß einer Ausführungsform der Erfindung dar.
  • 3 stellt ein Bild eines Gebäudes mit einem Riss dar zum Erklären der Schritte des in 2 gezeigten Verfahrens.
  • 4 stellt ein Bild einer Ecke eines Gebäudes dar zum detaillierteren Erklären der Schritte des Verfahrens von 2.
  • 5 stellt ein Bild einer Landschaft dar zum Erklären von Schritten eines Verfahrens gemäß einer anderen Ausführungsform der Erfindung.
  • 6 stellt Schritte einer Modifizierung des in 2 gezeigten Verfahrens dar.
  • 7 stellt Schritte einer Modifizierung des in 2 gezeigten Verfahrens dar.
  • 8 stellt einen Zylinder dar, der zu scannen ist, zum Erklären der Schritte eines Verfahrens gemäß einer anderen Ausführungsform der Erfindung.
  • 9 stellt Schritte einer Modifizierung des in 2 gezeigten Verfahrens dar.
  • 10 stellt eine Struktur dar mit überlagerten Teilbildern zum Erklären des Verfahrens, das in 9 gezeigt ist.
  • 11 stellt Schritte eines Verfahrens dar zum Erhalten von genauer Abstands- und Bildinformation gemäß einer Ausführungsform der Erfindung, insbesondere darstellend Vor-Scan-(Pre-Scan)-Schritte.
  • 12A bis 12C stellen ein Bild eines Polygons zum Erklären der Schritte des Verfahrens dar, das in 11 gezeigt ist.
  • 13 stellt Schritte einer Modifizierung des in 11 gezeigten Verfahrens dar.
  • 14 stellt Schritte eines Verfahrens dar zum Erhalten von genauer Abstands- und Bildinformation gemäß einer anderen Ausführungsform der Erfindung, kombinierend mehrere Aspekte der in 9 und 11 gezeigten Verfahren.
  • 15 stellt Elemente eines optischen Instruments gemäß einer Ausführungsform der Erfindung dar.
  • 16 stellt Elemente eines optischen Instruments gemäß einer Ausführungsform der Erfindung dar, insbesondere ein optisches Instrument mit Fernsteuerfähigkeiten.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Bevorzugte Ausführungsformen der Erfindung werden mit Bezug auf die Figuren beschrieben. Es wird bemerkt, dass die folgende Beschreibung nur Beispiele enthält und nicht als die Erfindung begrenzend ausgelegt werden sollte.
  • Ausführungsformen der Erfindung betreffen im Allgemeinen ein Erhalten von Abstands- und Bildinformation eines Objekts, und insbesondere ein Verbessern der Geschwindigkeit einer Datenerfassung durch intelligentes Auswählen von zu messenden Positionen und ein Verbessern der Genauigkeit der Datenerfassung durch Neuberechnen von Koordinaten von ausgewählten Positionen auf einem Objekt. Kurz gesagt kann ein Bild erfasst werden und ein zu scannender Gereicht und ein Objektmerkmal des Objekts können definiert werden, wobei Messpixel, die Positionen auf dem Objekt entsprechen, in dem Bereich definiert werden können mit erhöhter Dichte der Messpixel bei dem Objektmerkmal. Nachfolgend werden die Abstände zu dem Objekt bei den Positionen gemessen.
  • 1 stellt Elemente eines optischen Instruments 100 gemäß einer Ausführungsform der Erfindung dar, umfassend eine Steuereinheit 150 und eine Erfassungseinheit 160.
  • Die Steuereinheit 150 ist verbunden mit der Erfassungseinheit 160 zum Austauschen von Daten, beispielsweise kann die Steuereinheit die Erfassungseinheit 160 instruieren, Daten zu erfassen, und die erfassten Daten werden an die Steuereinheit 150 gesandt. Irgendeine Art für eine Datenübertragung ist denkbar, wie zum Beispiel durch feste Verdrahtung oder drahtlose Datenübertragung.
  • Die Steuereinheit 150 umfasst ein erstes Steuerelement 152 und ein zweites Steuerelement 154, die realisiert werden können durch eine Hardware-Anordnung, wie zum Beispiel durch festverdrahtete Schaltungen, ASICs (anwendungsspezifische integrierte Schaltungen) oder Software oder irgendeine passende Kombination der obigen. Die Funktionen, die durch das erste Steuerelement 152 und das zweite Steuerelement 154 ausgeführt werden, werden im Detail unten beschrieben.
  • Die Erfassungseinheit 160 umfasst eine Linsenanordnung 110, eine Kamera 120, eine Abstandsmesseinheit 130 und eine Positionierungseinheit 140, wobei die Schritte dieser Elemente gesteuert werden durch die Steuereinheit 150.
  • In einem Beispiel enthält die Linsenanordnung 110 eine Fokussierlinse, die bewegbar ist entlang eines mechanischen Pfads, um auf ein Objekt zu fokussieren, und bevorzugt mindestens zwei Linsen, die ein Teleskop bilden, wobei die Linsenanordnung zum Anvisieren des Objekts eine optische Achse definiert.
  • Die Kamera 120, die zu der optischen Achse der Linsenanordnung angeordnet ist, zum Erfassen eines Bilds von mindestens einem Teil des Objekts, und bevorzugt positioniert ist hinter der Linsenanordnung in der Bildebene, kann zusammengesetzt sein aus einem passenden Bildgebungsgerät, beispielsweise einem zweidimensionalen Array von Sensorelementen, die in der Lage sind, Bildinformation mit einer Anzahl von Pixeln zu erzeugen, die im Allgemeinen der Anzahl der Elemente des Arrays entsprechen, wie zum Beispiel eine CCD-(Charge Coupled Device)-Kamera oder komplementäre Metall-Oxid-Halbleiter (CMOS, Complementary Metal-Oxide Semiconductor)-Kamera. Solch ein Sensor-Array kann zusammengesetzt sein aus 1000 × 1000 Sensorelementen zum Erzeugen von digitalen Bildern mit 106 Bildpixeln. In einem optischen Instrument, wie zum Beispiel einem Videotachymeter oder Tacheometer, kann die tatsächliche Beobachtungsrichtung definiert werden durch eine Beobachtungsrichtung von einem Punkt auf oder einem der Elemente der zweidimensionalen Anordnung der Sensorelemente, beispielsweise nahe oder im Zentrum des Arrays, und durch die mindestens eine Linse.
  • Die Abstandsmesseinheit 130 der Erfassungseinheit 160 ist bereitgestellt zum Messen eines Abstands von dem optischen Instrument zu dem Objekt entlang einer Messachse der Abstandsmesseinheit parallel zu der optischen Achse der Linsenanordnung. Alternativ kann die Messachse auch mit der optischen Achse übereinstimmen.
  • Ferner stellt die Abstandsmesseinheit 130 einen entsprechenden Messwert der Steuereinheit 150 zur Verfügung. Beispielsweise enthält die Abstandsmesseinheit 130 eine kohärente Lichtquelle, wie zum Beispiel einen Infrarotlaser oder ein passendes Laserabstands-Messgerät, wie es in der Technik bekannt ist, und bevorzugt einen schnellen Reflektor-los arbeitenden EDM (fast reflectorless working EDM).
  • Die Positionierungseinheit 140 ist bereitgestellt zum Anpassen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse. Beispielsweise wird die Positionierungseinheit 140 realisiert durch eine elektromechanische Anordnung, die bevorzugt einen Magnetservoantrieb oder einen anderen schnellen Antrieb zum präzisen Positionieren der Erfassungseinheit 160 umfasst.
  • Es wird bemerkt, dass die Positionierungseinheit 140 in 1 als Teil der Erfassungseinheit 160 gezeigt ist, aber die Positionierungseinheit kann auch unabhängig in dem optischen Instrument bereitgestellt werden, da sie zum Bewegen der Linsenanordnung 110, der Kamera 120, der Abstandsmesseinheit 130 auf eine Position dient, die es ermöglicht, das Objekt anzuvisieren und optional eine Abstandsmessung bei dieser Position des Objekts durchzuführen.
  • Da die Positionierungseinheit 140 bewegbare Komponenten, wie zum Beispiel Antriebe bzw. Drives enthält, behalten Teile der Positionierungseinheit ihre Position im Raum, das heißt, ihre Position ist fest mit Bezug auf beispielsweise einen Tripod bzw. Stativ, auf dem das optische Instrument sich befindet, und Teile der Positionierungseinheit 140 bewegen sich im Raum mit Bezug auf ein festes Koordinatensystem, beispielsweise definiert durch einen Schnittpunkt von allen drei Achsen des optischen Instruments, der als Ursprung bezeichnet wird, und ihre Anordnung zu einer Basis, wie zum Beispiel einem Stativ, Ständer oder anderem Unterstützungselement (nicht gezeigt).
  • Während des in 1 gezeigten Betriebs der Anordnung, steuert die Steuereinheit 150 die Erfassungseinheit 160, wodurch das erste Steuerelement 152 in einem erfassten Bild einen zu scannenden Bereich definiert, ein Objektmerkmal des Objekts in dem Bereich enthält, und in dem Bereich eine Vielzahl von Messpixeln definiert, die einer Vielzahl von Positionen auf dem Objekt entsprechen mit einer erhöhten Dichte der Messpixel bei dem Objektmerkmal.
  • Nachdem die Messpixel definiert sind in dem Bereich des Bildes, werden die den Positionen entsprechende Richtungen erhalten und übertragen an das zweite Steuerelement 154. Nachfolgend instruiert das zweite Steuerelemente 154 die Positionierungseinheit, die optische Achse der Linsenanordnung sequentiell auf die Vielzahl der Positionen auf dem Objekt einzustellen, und instruiert die Abstandsmesseinheit, einen Abstand zu dem Objekt für jede Position zu messen.
  • Im Folgenden werden Betriebsschritte des optischen Instruments mit Bezug auf 2 beschrieben. 2 stellt ein Flussdiagramm von Schritten eines Verfahrens dar zum Erhalten von Abstands- und Bildinformation, wie zum Beispiel während einem Betrieb des in 1 gezeigten optischen Instruments.
  • Das optische Instrument kann zusammengesetzt sein aus einem Video-Vermessungsinstrument, wie zum Beispiel einem Video-Theodolit oder Video-Tacheometer, auch bekannt als ein Tachymeter oder Totalstation, oder irgendeiner anderen Art von optischem Instrument, das verwendet wird zum Bestimmen von einer Position eines Objekts und Erfassen eines Bildes des Objekts. Das optische Instrument wird bevorzugt auf Grundlage von Kalibrierungsmessungen an individuellen Positionen an einem bevorzugt bekannten Objekt im Vorhinein eingestellt, wie es später beschrieben wird, oder wie es durch irgendeine andere Kalibrierungstechnik gemacht werden kann.
  • In einem ersten Schritt 210 wird, wenn der Betrieb startet, ein Objekt mit einer Linsenanordnung anvisiert, beispielsweise der Linsenanordnung 110. Das Anvisieren des Objekts mit der Linsenanordnung 110 enthält bevorzugt ein Anpassen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse des optischen Instruments, so dass die optische Achse der Linsenanordnung in die Richtung des Objekts zeigt. In anderen Worten wird, wo immer es passt, die tatsächliche Beobachtungsrichtung, die durch die optische Achse dargestellt wird, zu dem Objekt eingestellt.
  • In einem nachfolgenden Schritt 220 wird ein Bild erfasst von mindestens einem Teil des Objekts mit der Kamera 120, die zu der optischen Achse der Linsenanordnung 110 angeordnet ist. Die Erfassung kann automatisch getriggert werden, beispielsweise nachdem eine gewisse Zeit abgelaufen ist, oder kann durch einen Benutzer getriggert werden. Es wird bemerkt, dass abhängig von der Größe und dem Abstand des Objekts, das Sichtfeld der Kamera nicht ausreichend sein kann zum Erfassen des gesamten Objekts, welches ein Gebäude sein kann, zwei Gebäude oder ein Gebäudeblock oder selbst Teile einer Stadt. In gewissen Anwendungen kann es daher notwendig sein, mehrere Bilder zu erfassen, was später zu beschreiben ist, und als Teilbilder bezeichnet wird, um ein Bild des gesamten Objekts zusammen zu bauen.
  • In einem Schritt 230 wird, nachdem das Objekt anvisiert ist, und ein Bild von mindestens einem Teil des Objekts gemäß der Schritte 210 und 220 erfasst ist, ein zu scannender interessierender Bereich definiert in dem erfassten Bild. Beispielsweise wird der zu scannende Bereich manuell definiert oder durch Verarbeiten des Bilds unter Verwendung eines Detektionsalgorithmus zum Detektieren des Objekts oder des mindestens einen Teil des Objekts. Dies kann durch einen passenden Bildverarbeitungsalgorithmus realisiert werden, der auf die Pixeldaten angewandt wird, die das Bild darstellen.
  • Unter Betrachtung einer Landschaft mit einem Gebäude im Zentrum kann beispielsweise der Detektionsalgorithmus zwischen dem Gebäude und den es umgebenden Regionen differenzieren, wie zum Beispiel Felder und Bäume, und kann daher ein Gebäude als interessierenden Bereich definieren, nämlich als zu scannenden Bereich.
  • Alternativ ist es auch denkbar, das Bild auf einer passenden Anzeigeeinheit anzuzeigen, und die Entscheidung hinsichtlich des zu scannenden Bereichs einem Benutzer zu überlassen, der beispielsweise mit einer Computermaus oder einem anderen Zeigegerät auf Pixel auf dem Bild klickt, um den zu scannenden Bereich zu definieren. Ferner kann es bevorzugt sein, das Bild auf einer berührungsempfindlichen Anzeigeeinheit anzuzeigen, wobei die Pixel nur durch den Benutzer berührt werden müssen zum Anzeigen des zu scannenden Bereichs.
  • In einem Schritt 240 wird ein Objektmerkmal des Objekts in dem Bereich erhalten, das heißt, dass der Bereich ein Teil des gesamten erfassten Bildes ist, und analysiert oder im Detail verarbeitet wird, um kleinere genauere Merkmale des Objekts zu erhalten, das in dem Bereich gezeigt ist. Solch ein Objektmerkmal kann erhalten werden durch Verarbeiten des Bereichs in dem Bild unter Verwendung eines Detektionsalgorithmus zum Detektieren des Objektmerkmals, zum Beispiel einer Ecke oder einem Fenster eines Gebäudes oder einem Riss in einer Gebäudewand.
  • Ein Detektionsalgorithmus kann irgendein passender Bildverarbeitungsalgorithmus sein, der im Stand der Technik bekannt ist, zum Detektieren von Ecken oder anderen unstetigen Variationen in einem Objekt. Alternativ ist es, wie oben beschrieben, auch denkbar, dass ein Benutzer Objektmerkmale direkt in einem angezeigten Bild hervorheben kann durch Klicken auf gewisse Pixel in dem Bild mit einer Computermaus oder durch Berühren einer berührungsempfindlichen Anzeigeeinheit mit einem Finger oder einem Stift.
  • In einem Schritt 250 werden eine Vielzahl von Messpixeln, die einer Vielzahl von Positionen auf dem Objekt entsprechen, in dem Bereich definiert, wobei eine erhöhte Dichte von Messpixeln definiert wird bei dem Objektmerkmal.
  • Im Einzelnen definiert, sobald der zu scannende Bereich definiert wird, und das Objektmerkmal erhalten wird, das erste Steuerelement 152 in dem Bereich eine Vielzahl von Messpixeln. Beispielsweise kann ein Benutzer das erste Steuerelement 152 voreinstellen, um jedes zehnte Pixel des Bereichs als ein Messpixel zu definieren, so dass Messdaten später erhalten werden für jede Position auf dem Objekt, entsprechend zu dem definierten Messpixel. Die Menge an Messpixel und der Abstand zwischen zwei Messpixeln kann abhängen von einer gewünschten Gitterdichte und benötigten Genauigkeit.
  • Es wird bemerkt, dass je dichter das Gitter ist und je höher die Genauigkeit ist, desto länger beträgt die benötigte Scanzeit. Deshalb ist es auch denkbar, eine Scanzeit einzustellen, und die maximal mögliche Gitterdichte und Genauigkeit für die voreingestellte Zeit zu berechnen. Ähnlich ist es bevorzugt, da Variationen an dem Objekt größer sind als bestimmte Objektmerkmale, die Dichte der Messpixel bei solchen Objektmerkmalen zu erhöhen. Beispielsweise kann bei einem detektierten Objektmerkmal jedes zweite Pixel des Bereichs definiert werden als Messpixel, so dass eine Auflösung fünfmal höher als in dem restlichen Bereich erhalten werden kann. Die gleichen Betrachtungen, wie oben beschrieben, mit Bezug auf eine Gitterdichte, Genauigkeit und Scanzeit, treffen auch für die Messpixel bei dem Objektmerkmal zu. Alternativ kann es auch möglich sein, dass der Benutzer individuelle Pixel definiert als Messpixel, was jedoch aufwendig sein kann und sehr zeitverbrauchend.
  • In einem Schritt 260 wird die optische Achse der Linsenanordnung sequentiell bzw. nacheinander angepasst auf die Vielzahl der Positionen, das heißt, das zweite Steuerelement 154 instruiert die Positionierungseinheit zum Anpassen der optischen Achse der Linsenanordnung, so dass die optische Achse sequentiell auf die zu messenden Positionen auf dem Objekt zeigt. Dadurch werden Koordinaten auf den Positionen mit Bezug auf jedes entsprechende Messpixel bereitgestellt, so dass es der Positionierungseinheit ermöglicht wird, die Linsenanordnung zu bewegen und speziell auch die Abstandsmesseinheit, auf einen neuen Ort zum Zeigen auf die Position.
  • Hier wird bemerkt, dass die Koordinaten nur Koordinaten darstellen können hinsichtlich der Richtung der Position, die zu messen ist, beispielsweise ein horizontaler und vertikaler Winkel, was leicht ableitbar ist von dem Ort des Pixels in dem Bild, wie es später beschrieben wird.
  • Letztendlich werden in Schritt 270 Abstände zu dem Objekt bei einer Vielzahl von Positionen gemessen.
  • Im Einzelnen wird in dem in 2 gezeigten Beispiel zuerst die optische Achse auf eine erste Position (Schritt 260) eingestellt und der Abstand zu dieser ersten Position wird gemessen (Schritt 270) und dann wird die optische Achse eingestellt bzw. justiert auf eine zweite Position (Schritt 260), und der Abstand zu dieser zweiten Position wird gemessen (Schritt 270) bis alle Abstände zu der Vielzahl der Position gemessen werden, wie es in Schritt 280 gekennzeichnet ist.
  • Für die Messung kann ein Pulsverfahren verwendet werden, in dem die Ausbreitungszeit eines Signals, beispielsweise eines optischen Pulses, gemessen wird, was direkt proportional ist zu dem Abstand, da die Lichtgeschwindigkeit und der Brechungsindex des Mediums, beispielsweise Luft, bekannt ist. Alternativ kann ein Verfahren verwendet werden, das als das Phasenverfahren bekannt ist, wobei die Phase einer übertragenen Welle von dem Instrument und die Phase einer zurückreflektierten Welle verglichen werden. Jedoch ist, da der Abstand gewöhnlich größer ist als die Wellenlänge, das Ergebnis mehrdeutig, was gelöst werden kann durch mehrere Übertragungsfrequenzen ähnliche einer heterodynen Phasendetektion.
  • Deshalb werden die Abstände zu dem Objekt bei der Vielzahl der Positionen mit hoher Genauigkeit gemessen durch Einstellen der optischen Achse der Linsenanordnung für jede Abstandsmessung aufs neue und Messen des Abstands für jede Position individuell mit einem kohärenten Lichtemittierenden Gerät, wie zum Beispiel einem Laser, das eines der oben beschriebenen Verfahren verwendet.
  • Es wird bemerkt, dass die Ausführungsform nicht begrenzt ist auf die oben beschriebene Zeitsequenz von Schritten, sondern auch andere Zeitsequenzen der Schritte vorgesehen sein können, die zu dem gleichen Ergebnis führen.
  • Im Folgenden werden mit Bezug auf 3 und 4 Beispiele der vorher beschriebenen Schritte im Einzelnen beschrieben.
  • 3 stellt insbesondere eine Situation dar, wo ein bestimmtes Objektmerkmal vorliegt, und die oben beschriebenen Schritte können ausgeführt werden.
  • Im Einzelnen stellt 3 ein Bild eines Gebäudes 330 dar, in dem ein Riss oder eine andere Unterbrechung 320 in der Wand des Gebäudes 330 beobachtet wird. Das Bild des Gebäudes kann erfasst werden durch das in 1 gezeigte optische Instrument. Hier wird nur das optische Instrument 310 für darstellende Zwecke zum Erklären des Scanverfahrens gezeigt, und es sollte verstanden werden, dass das optische Instrument nicht physikalisch den Bereich innerhalb des Bildes scant bzw. abtastet, aber die dreidimensionale Szene, die das Objekt in der Realität enthält. Das Bild ist auf einer Anzeige des optischen Instruments gezeigt, die bevorzugt abnehmbar von dem Instrument ist, um umher getragen zu werden.
  • Das in 3 gezeigte Bild umfasst mehrere Pixel und für darstellende Zwecke wird eine kleine Menge an Messpixeln als Punkte entlang des Risses 320 zwischen den gestrichelten Linien gezeigt. Beispielsweise kann der zu scannende Bereich definiert werden als das Gebäude 330 oder die Wand 340, und das Objektmerkmal ist der Riss an der Wand 340.
  • Keine Messpixel sind auf der Wand 340 gezeigt, außer in der Nähe des Risses, aber es ist klar aus der Beschreibung, dass auch Messpixel definiert werden können auf der Wand, jedoch kann, da es keine weiteren Veränderungen oder Variationen auf der Wand gibt, außer dem Riss, die Dichte der Messpixel auf der Wand viel kleiner sein als entlang des Risses. Der Riss 320, der beispielsweise das Objektmerkmal darstellt, kann in viel größeren Einzelheiten durch eine erhöhte Dichte an Messpixeln gemessen werden, die in vertikalen Linien vom Boden zu dem oberen Ende gescant werden.
  • Wie oben beschrieben, kann der zu scannende Bereich, beispielsweise das Gebäude 330 oder die Wand 340, definiert werden durch den Benutzer oder durch einen Detektionsalgorithmus, der das Gebäude 330 oder die Wand 340 in dem Bild detektiert. Sobald der Bereich ausgewählt ist, kann eine detailliertere Analyse des Bereichs durchgeführt werden, wobei das Objektmerkmal, beispielsweise der Riss 320, erhalten wird durch einen Benutzer oder einen Detektionsalgorithmus, der Irregularitäten auf der Wand 340 detektiert.
  • 4 stellt insbesondere eine Situation dar bei einem Scannen eines interessierenden Merkmals an einem Gebäude oder anderem Objekt. 4 stellt ein Bild eines Teils des Objekts dar, beispielsweise eine Ecke 420 eines Gebäudes 430, wobei der zu scannende Bereich definiert wird als die Seitenwände des Gebäudes 430, was definiert werden kann durch einen Benutzer oder durch einen Detektionsalgorithmus, wie oben beschrieben. Das optische Instrument 410 wird nur für darstellende Zwecke gezeigt, da in 4 wieder ein Bild gezeigt wird und nicht das reale Gebäude.
  • In diesem Beispiel kann die Ecke 420 des Gebäudes 430 das Objektmerkmal darstellen und kann erhalten werden durch entweder einen Benutzer, der das optische Instrument betreibt, oder durch einen Detektionsalgorithmus, der Variationen in dem Bereich, wie oben beschrieben, detektiert. Deshalb werden, wie in Schritt 250 erklärt, eine Vielzahl von Messpixeln, die eine Vielzahl von Positionen auf dem Objekt in der Realität entsprechen, definiert, und die Dichte der Messpixel erhöht sich bei der Ecke 420, das heißt, der in 4 gezeigte vertikale Scan zeigt eine erhöhte Dichte der Scanlinien um die Ecke 420, da dies eine unstetige Variation in dem zu scannenden Bereich darstellt, die genauer analysiert werden muss.
  • Nach der Definition der Messpixel in dem Bild kann das optische Instrument dann anfangen, die tatsächlichen Abstände zu dem Objekt bei der Vielzahl der Positionen, die der Vielzahl der Messpixel entsprechen, zu messen, dadurch wird die optische Achse der Linsenanordnung sequentiell auf die Vielzahl der Positionen justiert. Beispielsweise bewegt, beim Starten bei den Messpixeln unten links in der linken Ecke, die Positionierungseinheit 140 die Erfassungseinheit auf die Koordinaten der Position, die dem oberen linken Messpixel entspricht, und eine Messung wird durchgeführt. Nachfolgend ändert die Positionierungseinheit die Position auf die Position, die dem Messpixel entspricht, das sich eins unter dem oberen linken Messpixel befindet, und so weiter.
  • 5 stellt insbesondere mehrere Regionen dar, die den interessierenden Bereich bilden. Hier wird ein Bild gezeigt mit mehreren Regionen 510, 520 und 530.
  • In diesem Beispiel wird der zu scannende Bereich definiert durch die Regionen 510 und 520, wobei diese Regionen Regionen sind mit einer niedrigen Messpixeldichte bzw. einer hohen Messpixeldichte. Die Regionen können zugeordnet werden gemäß der Wichtigkeit, Auflösungsanforderungen und Genauigkeitsanforderungen, was die Möglichkeit eröffnet, verschiedene Scanzeiten innerhalb verschiedener Regionen zu verwenden. Die Regionen können zu einer Region mit einer geringen Messpixeldichte für Regionen mit kleinen Variationen in der Struktur zugeordnet werden, Regionen mit einer hohen Messpixeldichte für Regionen mit großen Variationen in der Struktur und Regionen ohne Messpixel für Regionen, die nicht von Interesse sind, beispielsweise der Himmel und die Bäume in 5.
  • Die Definition der getrennten Regionen kann ausgeführt werden durch einen Benutzer, der das Bild betrachtet, oder durch einen Algorithmus, der eine Bildanalyse ausführt, die Kontrast, Farbe, Muster und Kantendetektion enthält. Die Analyse wird Bereiche mit ähnlichen Eigenschaften detektieren und diese in Regionen kombinieren. Die erhaltenen Regionen können dann automatisch kategorisiert werden durch den Algorithmus oder den Benutzer hinsichtlich ihrer Eigenschaften oder Wichtigkeit.
  • Die Algorithmen zur Kategorisierung können verschiedene Profile für verschiedene Anwendungen aufweisen, beispielsweise Tunnel, Architektur, Forensik, etc. Ferner können Regionen definiert werden, die detaillierter zu analysieren sind, beispielsweise zum Detektieren eines Objektmerkmals, wie zum Beispiel einem Riss (nicht gezeigt) in der Wand des Gebäudes 510, in einer Art und Weise ähnlich zu der oben beschriebenen. Nach einer Auswahl und Analyse der Regionen kann ein erster grober Scan bzw. Abtastung ausgeführt werden unter Verwendung von nur einem Zehntel der Messpixel beispielsweise, die in dem Bereich definiert sind, zum Messen eines Abstands zu den entsprechenden Positionen zum Abschätzen einer Scanzeit des zu scannenden Bereichs, so dass der Benutzer entscheiden kann, den Bereich mit den vorher ausgewählten Regionen zu scannen oder unterschiedliche Messpixeldichten neu zu auswählen für die Regionen zum Beschleunigen des Scans. Es kann vorteilhaft sein, als groben Scan, einen Vor-Scan zu verwenden, wie unten beschrieben wird.
  • Deshalb kann die Scanzeit verringert werden, was zu einem verringerten Leistungsverbrauch und verringerten Bedarf an Wartung und Kalibrierung des optischen Instruments führt.
  • Im Folgenden wird eine weitere Ausführungsform mit Bezug auf 6 beschrieben, die insbesondere ein Scanverfahren darstellt. 6 beschreibt eine Modifizierung des Verfahrens, das vorher mit Bezug auf 2 diskutiert wurde. In diesem Verfahren von 6 sind die Schritte 210 bis 240 die gleichen, wie vorher mit Bezug auf 2 diskutiert. Ferner ist der Schritt 650, gezeigt in 6, der gleiche wie der Schritt 250, der mit Bezug auf 2 beschrieben wurde, und wird daher nicht detailliert erklärt, um eine unnötige Wiederholung zu vermeiden.
  • In einem Schritt 660 wird die optische Achse der Linsenanordnung wieder sequentiell auf die Vielzahl der Positionen auf dem Objekt justiert, aber nun wird die Anpassung bzw. Einstellung so ausgeführt, dass die Bewegung der Positionierungseinheit minimiert wird, wenn die Messpixel gescant werden. Dann werden in Schritt 670 die Abstände zu dem Objekt bei der Vielzahl der Positionen gemessen.
  • Im Einzelnen wird, wie mit Bezug auf 2 beschrieben, zuerst die optische Achse eingestellt auf eine erste Position (Schritt 660), die die kleinste Anpassung der Linsenanordnung benötigt, und der Abstand zu dieser ersten Position wird gemessen (Schritt 670), und dann wird die optische Achse eingestellt auf eine zweite Position, die die kleinste Anpassung mit Bezug auf die erste Position (Schritt 660) benötigt, und der Abstand zu dieser zweiten Position wird gemessen (Schritt 670). Die Schritte 660 und 670 werden wiederholt, bis alle Abstände zu der Vielzahl der Positionen gemessen sind, wie in Schritt 680 gekennzeichnet.
  • Die Schritte von 6 werden beschrieben, wie auf den vorherigen Beispielen angewandt.
  • 3 und 4 stellen einen horizontalen bzw. vertikalen Scan dar, aber es gibt gewisse Fälle, in denen ein Scannen der Messpixel und entsprechendes Anpassen der optischen Achse auf die entsprechenden Positionen, die unterschiedlich zu messen sind, passender sein kann, beispielsweise, wenn eine unterschiedliche Scanstrategie zu einem schnelleren Scan führt.
  • Beispielsweise kann es zeitaufwendig sein, bei Annahme eines ringförmigen Objekts, das Objekt mit einem vertikalen oder horizontalen Linienscan zu scannen, da die Messpixel, die von Interesse sind, nicht eine Linie oder gerade Geometrie bilden, und deshalb muss, wenn die Messungen der Positionen entsprechend der Messpixel auf der einen Seite des Objekts beendet werden, die optische Achse verstellt werden, um einen großen Winkel zum Messen des entsprechenden Teils des ringförmigen Objekts auf der anderen Seite, beispielsweise der rechten Seite, wenn auf der linken Seite mit einem horizontalen Scan begonnen wird.
  • Deshalb kann es bevorzugt sein, Abstandsmessungen entlang des Umfangs des ringförmigen Objekts durchzuführen, so dass die optische Achse eins nach dem anderen entlang des Umfangs des ringförmigen Objekts eingestellt wird, was die notwendige Anpassung von einer Messung zur nächsten Messung minimiert.
  • In gewissen Anwendungen kann es nützlich sein, in dem zu scannenden Bereich eine Vielzahl von Messpixeln entlang eines vorbestimmten Profils zu definieren. Solch ein Fall wird mit Bezug auf 7 diskutiert.
  • Im Folgenden wird eine weitere Ausführungsform der Erfindung mit Bezug auf 7 und 8 beschrieben, die insbesondere das Einfügen einer Projizierung eines beispielsweise 3D-Profils in das Bild in dem Prozess eines Definierens von Messpixeln darstellen. 7 zeigt eine andere Modifizierung des mit Bezug auf 2 diskutierten Verfahrens. Die ersten vier Schritte in 7 können die gleichen sein, wie die Schritte 210 bis 240, die mit Bezug auf 2 diskutiert wurden, und werden daher nicht weiter diskutiert, um unnötige Wiederholungen zu vermeiden.
  • In einem Schritt 750 wird eine Vielzahl von Messpixeln entsprechend einer Vielzahl von Positionen auf dem Objekt mit erhöhter Dichte der Messpixel bei dem Objektmerkmal definiert durch Einfügen einer zweidimensionalen Darstellung eines Profils in das Bild und durch Auswählen einer Vielzahl von Pixel bei einem Umriss bzw. Kontur der zweidimensionalen Darstellung des Profils als Messpixel. Die Schritte 770 und 780 entsprechen den Schritten 270 und 280.
  • In anderen Worten werden in dieser Ausführungsform die Messpixel definiert durch ein vorbestimmtes Profil oder Form, wie zum Beispiel zweidimensionale Geometrien, wie ein Quadrat, ein Dreieck, ein Kreis oder irgendeine Art von Polygon bzw. Mehreck, wie zum Beispiel dreidimensionale Geometrien, wie ein Zylinder, ein Kubus, ein Quader, eine Sphäre oder Teile dieser Geometrien.
  • Speziell wird in dem Fall eines dreidimensionalen Profils die zweidimensionale Darstellung dieses Profils in das Bild eingefügt, das heißt, dass die zweidimensionale Darstellung überlagert oder übereinander gelegt wird auf dem Bild, und eine Vielzahl von Pixel an der Kontur der zweidimensionalen Darstellung des Profils wird ausgewählt und definiert als Messpixel, für die Abstände zu entsprechenden Positionen gemessen werden müssen.
  • Beispielsweise kann solch eine Art eines Definierens der Messpixel nützlich sein in Anwendungen, in denen das Objekt, auf dem Positionen gemessen werden müssen, eine gewisse Form aufweist, ähnlich zu dem Profil. Ein Beispiel kann die Anwendung des optischen Instruments auf ein Messen von Positionen in einem Tunnel sein. Dabei ist es vorteilhaft, die zweidimensionale Darstellung des Profils eines Zylinders in das Bild zu projizieren, und anstatt eines Verwendens von X-, Y- und Z-Richtungen kann es passender sein, Abstände zu Positionen in einem Zylinderkoordinatensystem zu messen, da solch ein Zylinderkoordinatensystem näher an der tatsächlichen Form des Objekts ist.
  • Hier kann bemerkt werden, dass eine Position auf einem Objekt durch kartesische Koordinaten definiert werden kann, die mit Bezug auf ein kartesisches Koordinatensystem mit drei Achsen orthogonal zueinander definiert sind. Zum Messen von Positionen können jedoch sphärische Koordinaten in einigen Fällen besser sein.
  • Die Position eines Objekts kann demgemäß in sphärischen Koordinaten definiert werden durch seinen Abstand von einem Ursprung eines orthogonalen Koordinatensystems einem Winkel (Horizontalwinkel) zwischen einer der horizontalen Achsen des Koordinatensystems und einer Linie, die den Ursprung des Koordinatensystems mit einer Projektion der Position auf der horizontalen Ebene verbindet, und letztendlich einem vertikalen Winkel zwischen der Koordinatensystemachse orthogonal zu der horizontalen Ebene und einer Linie, die den Ursprung des Koordinatensystems und die Position verbindet. Kartesische Koordinaten können transformiert werden in sphärische Koordinaten und umgekehrt. Gewöhnlich wird der Ursprung des Koordinatensystems in das optische Instrument gesetzt, wobei er optimalerweise auch übereinstimmt mit dem Projektionszentrum der Kamera, wie später beschrieben wird.
  • Die Positionierungseinheit kann ausgebildet sein zum Messen horizontaler und vertikaler Winkel zu der Vielzahl von Positionen auf dem Objekt mit Bezug auf ein Referenzachsensystem, wie zum Beispiel das kartesische Koordinatensystem mit dem Ursprung in dem optischen Instrument.
  • Jedoch ist es auch möglich, wie in 8 beschrieben, den Ursprung des Koordinatensystems in dem Objekt zu platzieren, um ein Objektkoordinatensystem zu erhalten, was in dem Beispiel von 8 durch das Zylinderkoordinatensystem gegeben ist. Dann kann das optische Instrument Profile eines Zylinders 810 in dem Zylinderkoordinatensystem scannen bzw. abtasten, was in dem Fall von Messungen, die in einem Tunnel ausgeführt werden, passender sein kann.
  • Im Folgenden wird eine weitere Ausführungsform mit Bezug auf 9 und 10 beschrieben, die insbesondere mehrere Teilbilder darstellen zum Umrahmen eines Bereichs von Interesse. Speziell wird erklärt, dass Messungen auch durchgeführt werden können an Positionen, die nicht in einem Teilbild gezeigt sind.
  • 9 zeigt ein Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts hinsichtlich einer anderen Ausführungsform der Erfindung. Schritt 910 in 9 kann identisch sein zu Schritt 210 in 2, wobei ein Objekt anvisiert bzw. beobachtet wird mit einer Linsenanordnung, wie zum Beispiel der Linsenanordnung 110 des in 1 gezeigten optischen Instruments.
  • In einem Schritt 920 wird ein Bild von mindestens einem Teil des Objekts erfasst, wobei das Bild mindestens ein erstes und ein zweites Teilbild umfasst.
  • In anderen Worten ist, falls das Bild, das zu erfassen ist, größer ist als das Blickfeld der Kamera des optischen Instruments, beispielsweise, falls das Objekt sehr nahe oder sehr groß ist, werden mindestens zwei Teilbilder erfasst durch die Kamera durch Bewegen des Blickfelds der Kamera von der Position entsprechend zu einem ersten Teilbild zu einer zweiten Position entsprechend zu einem zweiten Teilbild und durch Erfassen der Teilbilder mit der Kamera. Dieses Prozedere wird auch in 10 dargestellt, die einen länglichen Quader und sechs Teilbilder zeigt, wobei ein erstes Teilbild 1010 beispielsweise aufgenommen wird bei einer ersten Position 1015 an einer Ecke des länglichen Quaders oder Blocks und ein zweites Teilbild 1020 erfasst wird bei einer unterschiedlichen Position 1025 an einer anderen Ecke des länglichen Quaders über der ersten.
  • Zurückkehrend zu 9 wird in Schritten 930 ein zu scannender Bereich in dem Bild definiert, ähnlich zu Schritt 230, gezeigt in 2. Jedoch wird in dem in 10 gezeigten Beispiel der zu scannende Bereich von mindestens einem von einem Teil des ersten und zweiten Teilbildes 1010 bzw. 1020 umfasst, und beispielsweise weiteren Teilbildern 1030, 1040, 1050 und 1060.
  • In einem Schritt 940 wird ein Objektmerkmal des Objekts in dem Bereich erhalten. Solch ein Objektmerkmal kann definiert werden durch einen Benutzer oder durch einen Detektionsalgorithmus, wie vorher beschrieben, in mindestens einem von dem ersten und zweiten Teilbild, und kann dargestellt werden in 10 durch die untere linke Ecke der Oberfläche 1080 des länglichen Quaders, erfasst in dem ersten Teilbild 1010. Das Objektmerkmal in Teilbild 1010 ist in dem Teilbild durch eine gestrichelte Linie dargestellt.
  • In einem Schritt 950 wird eine Vielzahl von Messpixeln entsprechend einer Vielzahl von Positionen auf dem Objekt definiert in dem Bereich mit einer erhöhten Dichte der Messpixel bei dem Objektmerkmal. In dem Beispiel von 10, unter Bezugnahme von nur dem ersten und zweiten Teilbild 1010 bzw. 1020, bedeutet dies, dass die zwei Teilbilder die Vielzahl der Messpixel umfassen. Diese Messpixel entsprechend Positionen auf dem Objekt auf der gestrichelten Linie, soweit die gestrichelte Linie gezeigt ist in dem ersten oder zweiten Teilbild.
  • In einem Schritt 955 werden andere Positionen, die zu messen sind zwischen den Messpixeln des ersten und zweiten Teilbildes definiert durch Verarbeiten von mindestens einem von dem ersten und zweiten Teilbild unter Verwendung eines Extrapolationsalgorithmus. Dieser Schritt zieht in Betracht, dass es Teile des Objekts geben kann, die nicht gezeigt sind, auf einem der Teilbilder, aber die interessierenden Merkmale dieser Teile können leicht abgeleitet werden von der Information, die gegeben wird in den erfassten Teilbildern.
  • Unter Bezugnahme auf das in 10 gezeigte Beispiel, das das erste und zweite Teilbild zeigt, kann leicht erkannt werden, dass der untere Teil der linken Ecke der Oberfläche 1080 sich weiter erstreckt in eine vertikale Richtung, und in dem zweiten Teilbild 1020 kann es leicht erkannt werden, dass der obere Teil der linken Ecke der Oberfläche 1080 sich nach unten erstreckt, und sich verbindet mit der unteren linken Ecke des ersten Teilbilds 1010.
  • Deshalb ist es leicht möglich, durch Verarbeiten der zwei Teilbilder, andere Positionen entlang einer Linie zu definieren, die die Objektmerkmale verbindet, die in den zwei Teilbildern gezeigt sind, oder durch Verwenden eines Extrapolationsalgorithmus zum Extrapolieren der unteren linken Ecke zu der oberen linken Ecke der Oberfläche 1080, wenn das Objektmerkmal detektiert wird durch einen Detektionsalgorithmus oder durch einen Benutzer, der das Objektmerkmal auswählt.
  • Deshalb können auch Positionen gemessen werden, die Messpixeln eines imaginären Teilbildes entsprechen, das zwischen dem ersten und zweiten Teilbild liegt.
  • Letztendlich wird in Schritten 960 und 970 die optische Achse der Linsenanordnung wieder sequentiell eingestellt auf die zu messenden Positionen, und wie in Schritt 270 werden die Abstände zu dem Objekt bei den Positionen gemessen für alle Abstände zu allen Positionen, wie durch Schritt 980 gekennzeichnet.
  • 9 wurde mit Bezug auf das in 10 gezeigte Beispiel erklärt, aber begrenzt auf nur zwei Teilbilder. Wie in 10 gezeigt, kann ein viel komplizierterer Betrieb betrachtet werden. Beispielsweise können vier Teilbilder 1010, 1020, 1030, 1040 von allen vier Ecken der Oberfläche 1080 erfasst werden und Positionen zwischen den Teilbildern können gemessen werden.
  • Es kann bemerkt werden, dass die sechs in 10 gezeigten Teilbilder und die gestrichelte Linie das Ausmaß eines zu scannenden Bereichs darstellen kann, nämlich ein Polygon, das durch die sechs Ecken eingerahmt wird, was durch die sechs kleinen Kreise in den sechs Teilbildern 1010, 1020, 1030, 1040, 1050 und 1060 gekennzeichnet ist.
  • Letztendlich kann bemerkt werden, dass auch die durch die Oberflächen 1080 und 1090 definierte Ecke ähnlich gemessen werden kann, obwohl keine gestrichelte Linie vorliegt. Dies bedeutet, dass die Ecke detektiert werden kann durch einen Detektionsalgorithmus oder ausgewählt werden kann durch einen Benutzer als ein Objektmerkmal, so dass eine erhöhte menge an Messpixeln definiert wird entlang der Ecke, und eine kleinere Menge definiert wird in dem polygonförmigen Bereich, der umrahmt wird durch die Teilbilder. Zusätzlich kann eine Vielzahl von Messpixeln definiert werden in dem Bereich, nämlich auf der Oberfläche 1080 und 1090, oder ein einfacher Linienscan mit vorbestimmter Schrittgröße kann ausgeführt werden.
  • 10 kann auch verwendet werden zum Erklären einer anderen Ausführungsform der Erfindung. Diese Ausführungsform kann als Kalibrierungs- oder Pre-Scan-Verfahren bezeichnet werden, in dem ausgewählte Positionen mit hoher Genauigkeit gemessen werden.
  • Hier wird angenommen, dass die Positionen auf dem Objekt in 10, die zwei kleinen Kreisen 1015 und 1025 in Teilbild 1010 und Teilbild 1020 entsprechen, Kernpunktpixel darstellen, das heißt, Messpixel, die Kernpositionen des des Objekts entsprechen, für die eine genaue Abstandsmessung erhalten werden sollte. Beispielsweise sind diese Positionen Positionen an den Ecken oder anderen unstetigen Variationen in dem Bereich oder von dem Objekt.
  • Diese Kernpunktpixel des Bildes werden umgewandelt in eine Näherung von Koordinaten der zu messenden Kernpositionen unter Annahme eines Standardabstands zu den Kernpositionen, wobei die Umwandlung im Detail unten beschrieben wird.
  • In dem nächsten Schritt wird die optische Achse der Linsenanordnung auf die Kernpositionen eingestellt, die zu messen sind durch die Positionierungseinheit 140, und die Abstände zu den ausgewählten Kernpositionen werden wie oben beschrieben gemessen.
  • Letztendlich werden die Koordinaten der Kernpositionen neu berechnet auf Grundlage der gemessenen Abstände, das bedeutet, dass die Kernpunktpixel wieder umgewandelt werden in Koordinaten der Kernpositionen, wobei jedoch die Umwandlung nun auf dem gemessenen Abstand basiert und nicht auf einem Standardabstand, so dass ein noch genaueres Ergebnis der Position hinsichtlich horizontaler und vertikaler Winkel und Abstand erreicht werden kann. Dieses Pre-Scan-Verfahren (Vor-Scan-Verfahren) wird im Detail unten mit Bezug auf 11 und 12A bis 12C beschrieben.
  • Es sollte bemerkt werden, dass das oben beschriebene Verfahren nicht begrenzt ist auf Kernpunktpixel, da tatsächlich jedes Messpixel ein Kernpunktpixel darstellen kann, falls ein sehr genaues Ergebnis erhalten werden soll. Jedoch wurde gezeigt, dass es oft genug ist, nur einige Positionen sehr genau zu berechnen, um mehr oder weniger den Bereich einzustellen, in dem Variationen erwartet werden können.
  • Im Folgenden wird der Umwandlungsbetrieb eines Umwandelns von Messpixeln in dem Bild zu Koordinaten von wirklichen bzw. realen Positionen auf dem Bild im Detail beschrieben.
  • Bei einem idealen optischen Instrument mit einer Kamera und einer Abstandsmesseinheit ist das Projektionszentrum einer Kamera identisch mit dem Schnittpunkt aller drei Achsen des optischen Instruments, und die Abstandsmessung wird durchgeführt von dem Schnittpunkt entlang einer Richtung orthogonal zu der Bildebene. Dann ist das Zentrum der Bildebene, beispielsweise ein Pixel, das exakte Abbild der Position, die von dem Laserlicht der Abstandsmesseinheit getroffen wird. Idealerweise ist es daher möglich, jeder Position im wirklichen Raum um das optische Instrument ein Pixel in der Bildebene zuzuordnen.
  • Da die Kamera um eine vertikale Achse zum Schwenken fest mit Bezug auf die Basis des Instruments drehbar ist, beispielsweise einem Tripod oder anderen Unterstützungselement, und drehbar ist um eine Kippachse, können Bilder einer Sphäre um das Instrument aufgenommen werden. Beispielsweise können Panoramabilder aufgenommen werden durch Zusammensetzen von einzelnen Bildern.
  • Ferner sollte die optische Achse einer idealen Kamera rechtwinklig sein zu der Bildebene und sollte übereinstimmen mit der optischen Achse eines optischen Systems, wie zum Beispiel dem Linsensystem 110 und das optische System sollte frei von Aberrationen oder Verzerrungen sein.
  • Jedoch stellt das obige nur eine Idealisierung eines optischen Instruments mit einer idealen Kamera dar, und solche idealen Bedingungen sollten nicht angenommen werden. Deshalb gibt es einen Bedarf zum Verbessern eines Abbildens zwischen Positionen im Raum und entsprechenden Pixeln in dem Bild, und die Kamera muss mit Bezug auf das Achsensystem des optischen Instruments mit einer bekannten inneren Kameraorientierung kalibriert werden. Beispielsweise wird solch ein Verfahren zur Kalibrierung in DE 103 59 415 A1 oder WO 2005/059473 A2 beschrieben, wo die innere und äußere Orientierung einer Kamera in einem optischen System genau definiert wurden.
  • Es wird bemerkt, dass der Fehler des Versatzes bzw. Offsets zwischen dem Projektionszentrum der Kamera und dem Ursprung des optischen Instruments, das heißt, dem Schnittpunkt der drei Achsen des optischen Instruments, abhängig ist von dem Abstand zu dem Objekt, und genauere Koordinaten einer Position auf dem Objekt erhalten werden können, je besser die Information über den Abstand zu der Position ist. Ferner kann es auch, wie oben beschrieben, ein Offset zwischen der Messachse und der optischen Achse geben. Jedoch ist dieser Offset ungefähr bekannt und kann nur signifikant sein in einem nahen Bereich.
  • Während die Schritte und Gerätmerkmale, wie sie mit Bezug auf die vorherigen Ausführungsformen dargelegt wurden, passend sind, um akzeptable Ergebnisse für viele Anwendungen bereitzustellen, beispielsweise durch Umwandeln der Bildkoordinaten eines Messpixels in eine Messposition im Raum mittels einer festen Umwandlungsoperation oder Umwandlungsfunktion unter Annahme eines Standardabstands des Objekts zu der Kamera, um die Genauigkeit der Messungen zu verbessern, können die oben bemerkten Offsets oder Fehler in Betracht gezogen werden und kompensiert werden, wie im Folgenden mit Bezug auf 11 und weitere Figuren unten dargelegt wird.
  • Zur Kompensierung der obigen Offsets kann ein Umwandlungsalgorithmus verwendet werden, wie zum Beispiel Algorithmen oder Umwandlungsfunktionen. Alternativ können Umwandlungstabellen definiert werden zum Nachschlagen einer spezifischen Position, die einem Pixel in dem Bild entspricht, wobei unterschiedliche Tabellen für unterschiedliche Abstände von dem Instrument zu dem zu messenden Objekt definiert werden.
  • In einem Beispiel kann Abstands- und Bildinformation eines Objekts erhalten werden durch zuerst Anvisieren des Objekts mit einer Linsenanordnung, dann Erfassen eines Bildes von mindestens einem Teil des Objekts mit einer Kamera, ausgerichtet zur optischen Achse der Linsenanordnung, Definieren in dem Bild eines zu scannenden Bereichs, Erhalten einer Vielzahl von Messpixel des Objekts innerhalb des Bereichs, Umwandeln der Vielzahl der Messpixel in eine Näherung von Koordinaten einer Vielzahl von zu messenden Positionen unter Annahme eines Standardabstands zu der Vielzahl der Positionen, Einstellen der optischen Achse der Linsenanordnung sequentiell auf die Vielzahl der zu messenden Positionen, Messen der Abstände zu der Vielzahl der Positionen und Neuberechnen der Koordinaten der Vielzahl der Positionen auf Grundlage der gemessenen Abstände.
  • Daher kann durch iteratives, in diesem Beispiel zweimal, Bestimmen der Messposition auf dem Objekt, die Genauigkeit der Umwandlung des Pixels in eine Messrichtung verbessert werden.
  • Das in 11 gezeigte Verfahren kann ausgeführt werden durch das optische Instrument, wie oben in einer der vorherigen Ausführungsformen beschrieben.
  • In einem Beispiel gemäß 1 umfasst das optische Instrument zum Erhalten von Abstands- und Bildinformation eines Objekts eine Linsenanordnung 110 zum Anvisieren des Objekts, eine Kamera 120, angeordnet zur optischen Achse der Linsenanordnung zum Erfassen eines Bildes von mindestens einem Teil des Objekts, eine Abstandsmesseinheit 130 zum Messen eines Abstands zu dem Objekt entlang einer Messachse der Abstandmesseinheit parallel zu der optischen Achse der Linsenanordnung, eine Positionierungseinheit 140 zum Einstellen der optischen Achse der Linsenanordnung relativ zu der mindestens einen Referenzachse und eine Steuereinheit 150 mit einem ersten Steuerelement 152, ausgebildet zum Definieren eines zu scannenden Bereichs in dem Bild, um eine Vielzahl von Messpixeln des Objekts innerhalb des Bereichs zu erhalten, und um die Vielzahl der Messpixel in eine Näherung von Koordinaten einer Vielzahl von Positionen, die zu messen sind, unter Annahme eines Standardabstands zwischen der Vielzahl der Positionen und dem optischen Instrument umzuwandeln, und einem zweiten Steuerelement 154, ausgebildet zum Instruieren der Positionierungseinheit, die optische Achse der Linsenanordnung sequentiell auf die Vielzahl der zu messenden Positionen einzustellen, und die Abstandsmesseinheit zu instruieren, die Abstände zu der Vielzahl der Positionen zu messen, wobei das erste Steuerelement ferner ausgebildet ist zum Neuberechnen der Koordinaten der Vielzahl der Positionen auf Grundlage der gemessenen Abstände.
  • Im Folgenden werden die Schritte von 11 im Einzelnen dargelegt, und nachfolgend wird ein Beispiel der Schritte mit Bezug auf 12 gegeben.
  • In einem Schritt 1110 wird das Objekt mit einer Linsenanordnung anvisiert, beispielsweise der Linsenanordnung 110 von 1, durch passendes Anpassen bzw. Justieren der optischen Achse des optischen Instruments. In einem Schritt 1115 wird ein Bild erfasst, das mindestens ein Teil des Objekts zeigt. In einem Beispiel wird das Bild erfasst durch einen Benutzer, der einen entsprechenden Befehl eingibt zum Erfassen eines gegenwärtig gezeigten Bildes, beispielsweise auf einer Anzeige des Instruments.
  • In einem Schritt 1120 wird ein zu scannender Bereich definiert in dem Bild. Der zu scannende Bereich kann definiert werden durch einen Benutzer, der das Bild betrachtet, wie vorher beschrieben mit Bezug auf 2, oder kann definiert werden durch einen Detektionsalgorithmus, der vorher mit Bezug auf 2 beschrieben wurde.
  • In einem Schritt 1125 wird eine Vielzahl von Messpixeln des Objekts innerhalb des Bereichs erhalten. Ein Benutzer, der das Bild betrachtet, klickt beispielsweise oder wählt anderweitig ein Pixel in dem Bild unter Verwendung einer Maus oder eines Stifts aus, wenn ein berührungsempfindlicher Bildschirm verwendet wird, um das Pixel als Messpixel zu definieren.
  • Die Schritte 1110 bis 1125 können die gleichen sein wie die Schritte 210 bis 240, die vorher mit Bezug auf 2 beschrieben wurden, und deshalb wird eine Beschreibung dieser Schritte 210 bis 240 auch anwendbar sein auf die Schritte 1110 bis 1125.
  • In einem Schritt 1130 wird die Vielzahl der Messpixel umgewandelt in eine Näherung der Koordinaten einer Vielzahl von zu messenden Positionen unter Annahme eines Standardabstands zu der Vielzahl der Positionen. Ein Umwandlungsalgorithmus oder Umwandlungstabelle, wie zum Beispiel die Nachschlagtabelle, die oben beschrieben wurde, kann nämlich verwendet werden zum Erhalten von Koordinaten der entsprechenden zu messenden Position für jedes Messpixel, während ein Standardabstand zu der Position angenommen wird, da die Umwandlung in einer nicht-idealen Situation abstandsabhängig ist.
  • Es sollte bemerkt werden, dass die Abweichung zwischen genäherten Koordinaten der Position und der exakten Koordinaten abnimmt mit einer Erhöhung im Abstand, da der Einfluss des oben beschriebenen Offsets zwischen Projektionszentrum und dem Ursprung des optischen Instruments abnimmt. Beispielsweise kann eine Umwandlung ausgeführt werden mit einem Startwert für den Standardabstand von 50 Metern. Jedoch ist es auch möglich, dass ein Benutzer einen unterschiedlichen Wert bei Beginn des Verfahrens abhängig von der benötigten Anwendung eingibt.
  • In einem Schritt 1135 wird die optische Achse der Linsenanordnung sequentiell eingestellt auf die Positionen, die zu messen sind. Dies kann durchgeführt werden gemäß der vorherigen Ausführungsformen durch Kippen und Schwenken der Erfassungseinheit 160 des optischen Instruments 100 durch die Positionierungseinheit 140, so dass die optische Achse der Linsenanordnung 110 auf die zu messende Position zeigt.
  • Ferner können, wie oben beschrieben, da die optische Achse der Linsenanordnung und Kamera normalerweise nicht mit der Messachse der Abstandsmesseinheit übereinstimmen, weitere Anpassungen ausgeführt werden, die auch integriert werden können in die Umwandlung, da die Offsets zwischen der optischen Achse und der Messachse bekannt sind und der Abstand angenommen wird.
  • In einem Schritt 1140 werden die Abstände zu der Vielzahl der Positionen gemessen. Die Messungen können ausgeführt werden durch Laserabstandsmessungen, die vorher beschrieben wurden oder im Stand der Technik bekannt sind.
  • Im Einzelnen wird in Schritt 1135 die optische Achse zuerst eingestellt auf eine erste zu messende Position, worauf die Messung der ersten Position in Schritt 1140 ausgeführt wird, und dann wird dieses Verfahren wiederholt, wie durch Schritt 1142 gekennzeichnet, die optische Achse wird nämlich eingestellt auf eine zweite Position, worauf die zweite Messung des Abstands zu der zweiten Position durchgeführt wird, und so weiter.
  • Letztendlich werden in Schritt 1145 die Koordinaten der Vielzahl der Positionen neu berechnet auf Grundlage der gemessenen Abstände, das heißt, dass da die Abstände zu der Vielzahl der Positionen, nach Schritt 1140 besser bekannt sind als in der vorherigen Annahme, diese gemessenen Abstände verwendet werden können in dem Umwandlungsschritt, um sehr präzise Koordinaten der Vielzahl der Positionen zu erhalten.
  • Es muss bemerkt werden, dass die Ausführungsform nicht begrenzt ist auf die oben beschriebene Sequenz, und dass andere Sequenzen der Schritte passender sein können für gewisse andere Fälle.
  • Beispielsweise kann es bevorzugt sein, Schritt 1125 vor Schritt 1120 auszuführen, wenn beispielsweise ein zu scannender Bereich definiert wird durch einen Benutzer, der eine Vielzahl von Messpixel kennzeichnet, die die Ecken des Bereichs bilden.
  • Beispielsweise werden vier Messpixel ausgewählt durch einen Benutzer oder durch einen Detektionsalgorithmus und ein Viereck, erhalten durch Verbinden der vier Messpixel, wird verwendet zum Definieren des zu scannenden Bereichs.
  • Das mit Bezug auf 11 beschriebene Verfahren kann als ein Pre-Scan-Verfahren bezeichnet werden zum Verbessern der Genauigkeit eines tatsächlichen Scans des Objekts, wie es im Einzelnen in 12A bis 12C beschrieben werden kann.
  • 12A stellt ein Fadenkreuz 1200 dar unter Bezugnahme auf die Messachse des optischen Instruments und ein Polygon bzw. Vieleck 1210. Das Polygon 1210 stellt den zu scannenden Bereich in dem Bild dar und kann entweder definiert werden durch einen Bildverarbeitungsalgorithmus oder durch einen Benutzer, der einen Stift 1220 auf einem berührungsempfindlichen Bildschirm oder eine Computermaus oder einen Track-Ball verwendet zum Kenzeichnen der Polygonpunktpositionen 1211 bis 1215. Die wirklichen Polygonpunktpositionen des Objekts, die den Messpixeln entsprechen, die in dem Bild definiert sind, sind ungefähr bekannt aufgrund der exzentrischen Kameraeinstellung mit Bezug auf die Messachse des optischen Instruments.
  • 12B stellt die Umwandlung der definierten Messpixel in Instrumentrichtungen dar unter Verwendung eines Standardabstands, beispielsweise des mittleren Messbereichs des optischen Instruments. Diese Umwandlung oder Transformation wird bevorzugt erhalten durch einen Umwandlungsalgorithmus, der den Abstand zu dem Objekt in Betracht zieht, wie der oben bezeichnete. Nach einem Einstellen der Positionierungseinheit auf die Koordinaten, die durch die Umwandlung erhalten werden, zeigt die Messachse des optischen Instruments auf die Polygonpunktposition 1212 und eine Abstandsmessung wird genommen.
  • Wie in 12B gesehen werden kann, überlappt das Fadenkreuz 1200, dass die umgewandelte oder berechnete Polygonpunktposition 1212 kennzeichnet, nicht vollständig mit der wirklichen Polygonpunktposition 1212 aufgrund kleiner Unzulänglichkeiten in der Anordnung der Elemente in dem optischen Instrument, die jedoch entfernt werden können durch das oben beschriebene Kalibrierungsverfahren, falls der Abstand zu dem Objekt bekannt ist. Deshalb wird die Abstandsmessung durchgeführt.
  • Da das Fadenkreuz 1200 und die Polygonpunktposition 1212 fast identisch sind, kann der bei der Position des Fadenkreuzes 1200 gemessene Abstand ungefähr der gleiche sein, wie der bei der Polygonpunktposition 1212 gemessene, so dass eine gute Näherung des Abstands erhalten wird, und die Koordinaten der Polygonpunktposition können neu berechnet werden.
  • In 12C überlappt das Fadenkreuz 1200 mit der Polygonpunktposition 1212 nachdem die Koordinaten der Position neu berechnet wurden. Diese Neuberechnung kann ausgeführt werden für alle Polygonpunktpositionen 1211, 1213, 1214 und 1215, so dass der exakte Abstand zu jeder der Positionen erhalten werden kann durch Einstellen der Messachse des optischen Instruments auf jede individuelle Position.
  • Letztendlich kann, nach einem genauen Umrahmen des Polygons, der durch das Polygon definierte Bereich in vordefinierten Schritten gescant werden durch Kippen oder Schwenken der Erfassungseinheit und der Messachse. Zusätzlich kann, falls es ein spezielles Objektmerkmal in dem durch das Polygon definierten Bereich gibt, dieses Objektmerkmal definiert und analysiert werden, wie oben beschrieben.
  • In gewissen Extremfällen kann es hilfreich sein, einen minimalen oder maximalen Abstandswert, beispielsweise 1 Meter oder 500 Meter einzustellen, im Fall, dass die Messachse auf ein nahes Hindernis zeigt oder in den Himmel zeigt.
  • 13 stellt Schritte eines Verfahrens gemäß einer anderen Ausführungsform dar, wobei die Schritte insbesondere Bezug nehmen auf ein Definieren des zu scannenden Bereichs durch Verbinden von Messpixeln, um ein Polygon zu bilden, was auch als Framing oder Umrahmen bezeichnet werden kann.
  • Das in 13 beschriebene Verfahren basiert auf in 11 beschriebenen Schritten. Jedoch wird es aus der folgenden Beschreibung ersichtlich, dass der vorher in 11 beschriebene Schritt 1120 modifiziert werden muss.
  • Das Verfahren nach 13 startet mit Schritt 1110, wobei ein Objekt anvisiert wird mit der Linsenanordnung. Nachfolgend in Schritt 1115 wird ein Bild von mindestens einem Teil des Objekts erfasst. Dann werden in Schritt 1125 eine Vielzahl von Messpixel des Objekts innerhalb des Bereichs erhalten. Ferner wird in Schritt 1130 die Vielzahl der Messpixel umgewandelt in eine Näherung der Koordinaten einer Vielzahl von zu messenden Positionen unter Annahme eines Standardabstands zu der Vielzahl der Positionen. Diese Schritte sind ähnlich zu den obigen Schritten und für Details wird auf die entsprechenden obigen Abschnitte verwiesen.
  • Dann wird, wie in Schritten 1135, 1140 und 1142 beschrieben, die optische Achse der Linsenanordnung eingestellt für die erste Position, und der Abstand zu der ersten Position wird gemessen, und dann wird die optische Achse eingestellt auf die zweite Position und die zweite Position wird gemessen, bis alle Abstände der Vielzahl der Positionen gemessen sind. Dann werden in Schritt 1145 die Koordinaten der Positionen neu berechnet auf Grundlage des gemessenen Abstands.
  • Nachfolgend wird in einem Schritt 1320 der zu scannende Bereich in dem Bild definiert durch Verbinden der Messpixel, so dass die Pixel Ecken eines Polygons darstellen. Dieser Schritt ist eine Modifizierung des vorherigen Schritts 1120 und kann auch ausgeführt werden zwischen einem der Schritte 1125 und 1360. Unter Betrachtung der Vielzahl der Messpixel innerhalb des durch einen Benutzer erhaltenen Bereichs kann das erste Steuerelement 152 der Steuereinheit 150 automatisch die Pixel verbinden, um ein Polygon, wie in 12A gezeigt, zu bilden.
  • In einem Schritt 1360 wird eine Vielzahl von Polygonpositionen, die zu messen sind, definiert in dem durch das Polygon definierten Bereich. In anderen Worten kann, nachdem der zu scannende Bereich definiert ist durch die Messpixel, die zu einem Polygon verbunden sind, eine Vielzahl von Polygonpositionen gemäß der benötigten Auflösung gemessen werden. 12C stellt beispielsweise ein konstantes Gitter von Messungen dar, die durchgeführt wurden in dem Bereich, der definiert ist durch das Polygon.
  • Dann wird die optische Achse der Linsenanordnung eingestellt auf die zu messenden Polygonpositionen sequentiell und für jede Einstellung und Position wird der Abstand zu der Polygonposition in Schritt 1380 gemessen. Die Schritte 1370 und 1380 werden wiederholt, bis eine Polygonposition gemessen wurde.
  • Das oben beschriebene Verfahren kann auch mit Bezug auf 10 verstanden werden. Unter Annahme, dass die kleinen Kreise in den Teilbildern 1010 bis 1060 Messpixel repräsentieren, kann der zu scannende Bereich in 10 definiert werden durch Verbinden dieser Messpixel zum Darstellen eines Polygons, wie gezeigt durch die gestrichelte Linie. Nachfolgend kann eine Vielzahl von zu messenden Polygonpositionen in dem Bereich definiert werden, nämlich auf den Oberflächen 1080 und 1090 oder es kann ein einfacher Linienscan mit vorbestimmter Schrittgröße ausgeführt werden.
  • Optional kann der zu scannende Bereich, beispielsweise die Oberflächen 1080 und 1090 von 10 oder das Polygon 1210 von 12C, weiter analysiert werden durch Erhalten eines Objektmerkmals in diesem Bereich, zum Beispiel ein Riss, wie in 3 gezeigt. Beispielsweise kann, wenn die Überschneidung der Oberflächen 1080 und 1090 von 10 detailliert analysiert werden soll, ein Scan mit erhöhter Dichte der Messpixel bei den Überschneidungen wie in 4 ausgeführt werden.
  • 14 stellt ein Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts mit hoher Genauigkeit gemäß einer anderen Ausführungsform der Erfindung dar. In dem mit Bezug auf 14 diskutierten Verfahren werden mehrere Aspekte der vorherigen Figuren, wie zum Beispiel 2, 9, 10, 11 und 12A bis 12C kombiniert. Das optische Instrument 100, beschrieben in 1, kann verwendet werden zum Ausführen des Verfahrens oder des in 15 und 16 dargestellten Instruments.
  • In Schritt 1410 wird das Objekt anvisiert mit einer Linsenanordnung. In einem Schritt 1415 wird ein Bild von mindestens einem Teil des Objekts erfasst, wobei das Bild mindestens ein erstes und zweites Teilbild umfassen kann, wie vorher mit Bezug auf Schritt 920 von 9 beschrieben.
  • In einem Schritt 1420 wird ein zu scannender Bereich in dem Bild definiert, und in Schritt 1425 wird eine Vielzahl von Messpixel des Objekts innerhalb des Bereichs erhalten. Die Schritte 1420 und 1425 wurden oben mehrere Male beschrieben und für Einzelheiten wird Bezug genommen auf diese Abschnitte. Alternativ kann die Reihenfolge dieser Schritte auch umgekehrt werden.
  • In einem Schritt 1430 wird die Vielzahl der Messpixel, erhalten in Schritt 1425, umgewandelt in eine Näherung der Koordinaten einer Vielzahl von zu messenden Positionen unter Annahme eines Standardabstands zu den Positionen.
  • Dieser Schritt ist ähnlich zu Schritt 1130, jedoch sind es in diesem Fall die mindestens zwei Teilbilder, die die Vielzahl der Messpixel umfassen, nämlich ein Teilbild kann alle Messpixel umfassen oder die Messpixel können zwischen den Teilbildern verteilt sein.
  • In einem Schritt 1435 wird die optische Achse der Linsenanordnung eingestellt auf die Vielzahl der zu messenden Positionen, und die Abstände zu der Vielzahl der Positionen werden in einem Schritt 1440 gemessen. Wie oben beschrieben, wird die optische Achse eingestellt auf eine Position und der Abstand zu dieser Position wird gemessen, und dann wird die optische Achse eingestellt auf die nächste Position und der Abstand zu der nächsten Position wird gemessen, bis die Abstände zu allen Positionen gemessen wurden.
  • In einem Schritt 1445 werden die Koordinaten der Vielzahl der Positionen neu berechnet auf Grundlage der gemessenen Abstände. Dieser Schritt ist ähnlich zu dem Schritt 1145, der im Detail mit Bezug auf 11 beschrieben wurde.
  • Hier sollte hinzugefügt werden, dass ein Neuberechnen der Koordinaten der Vielzahl der Positionen auch ausgeführt werden kann als ein iterativer Prozess, das heißt, nach dem Neuberechnungsschritt in 1445 kann die optische Achse wieder eingestellt werden auf die Positionen mit den neu erhaltenen Koordinaten und die Abstände können auf Neue erhalten werden, bis die Abstände zu den Positionen sich nicht mehr ändern. Jedoch wurde es beobachtet, dass eine Abstandsmessung gewöhnlicherweise genug ist, um Koordinaten einer Position mit hoher Genauigkeit zu erhalten.
  • In einem Schritt 1450 werden andere zu messende Positionen definiert zwischen dem ersten und zweiten Teilbild durch Verarbeiten von mindestens einem von dem ersten Teilbild und dem zweiten Teilbild durch Definieren der anderen Positionen entlang einer Linie, die mindestens zwei Messpixel verbindet oder durch verwenden eines Extrapolationsalgorithmus zum Extrapolieren einer Ecke oder einem anderen Objektmerkmal des Objekts in mindestens einem von dem ersten Teilbild und zweiten Teilbild, detektiert durch einen Detektionsalgorithmus. Dieser Schritt ist ähnlich zu dem Schritt 955 von 9, und um eine unnötige Wiederholung zu vermeiden, wird auf Schritt 955 für weitere Einzelheiten Bezug genommen.
  • In Schritt 1455 und 1460 wird die optische Achse der Linsenanordnung eingestellt auf die anderen Positionen und die Abstände zu den anderen Positionen werden gemessen. Im Einzelnen wird, wie oben beschrieben, die optische Achse eingestellt auf eine erste Position, und der Abstand zu der ersten Position wird gemessen, und nachfolgend wird die optische Achse eingestellt auf eine zweite Position, und der Abstand zu der zweiten Position wird gemessen, bis alle anderen Positionen gemessen sind. Eine detaillierte Beschreibung der Einstellung und Messung wurde oben gegeben.
  • In der oben beschriebenen Ausführungsform werden mindestens zwei Teilbilder erfasst durch die Kamera, da beispielsweise das Blickfeld der Kamera nicht groß genug ist zum Erfassen eines Bildes des gesamten Objekts auf einmal.
  • Solch eine Situation ist beispielsweise dargestellt in 10, wo sechs Teilbilder erfasst werden, um einen länglichen Quader zu definieren. Bei Kenntnis der Koordinaten von mindestens einer Position in jedem Teilbild, beispielsweise der Position, die dem kleinen Kreis in 10 entspricht, durch Aufzeichnen der horizontalen und vertikalen Winkel, wenn das Teilbild erfasst wird, kann die Größe des gesamten Objekts abgeleitet werden, und insbesondere ist es möglich, die Anzahl der Teilbilder zu berechnen, die gebraucht wird, um das zusammengesetzte Bild des gesamten Objekts zusammen zu bringen.
  • Da der Umriss bzw. Kontur des zusammengesetzten Bildes bekannt ist durch die Positionen, das heißt, die Koordinaten, bei denen die Teilbilder 1010 bis 1060 aufgenommen wurden, ist es dann auch möglich, die Positionen der übrigbleibenden Teilbilder zu berechnen, die notwendig sind zum Zusammenstellen des zusammengesetzten Bildes, und die optische Achse kann eingestellt werden auf eine solche Position, und die fehlenden Teilbilder können erfasst werden.
  • 15 und 16 stellen optische Instrumente 1500 und 1600 gemäß anderer Ausführungsformen dar, ähnlich zu dem optischen Instrument 100 von 1, und Instrumente 1500 und 1600 können auch verwendet werden zum Ausführen der oben beschriebenen Schritte.
  • Das optische Instrument in 15 umfasst eine Steuereinheit, eine Erfassungseinheit, eine Speichereinheit 1570 und eine Anzeigeeinheit 1560. Die Erfassungseinheit 160 mit einer Linsenanordnung 110, einer Kamera 120, einer Abstandsmesseinheit 130 und einer Positionierungseinheit 140 ist identisch zu der Erfassungseinheit, wie in 1 diskutiert wurde, und es wird auf 1 für weitere Details verwiesen.
  • Die Erfassungseinheit 160 ist wieder verbunden mit der Steuereinheit 150, enthaltend ein erstes Steuerelement 152 und ein zweites Steuerelement 154. Ferner wird das erste Steuerelement 152 bereitgestellt mit einer Umwandlungseinheit 1553 zum Umwandeln der Vielzahl der Messpixel in Koordinaten der Vielzahl der zu messenden Positionen.
  • Die Umwandlungseinheit 1553 kann in dem ersten Steuerelement 152 durch Hardware verkörpert werden, zum Beispiel durch eine festverdrahtete Schaltung oder eine ASIC oder Software oder eine passende Kombination von beidem.
  • Es sollte verstanden werden, dass die Steuereinheit 150 selbst durch einen Mikroprozessorcomputer oder integrierte Schaltung realisiert werden kann, darauf jedoch nicht begrenzt ist. Beispielsweise kann die Steuereinheit 150 ein Mikroprozessor sein, auf dem mehrere Softwareelemente ablaufen, beispielsweise Softwareelemente, die den Funktionen des ersten Steuerelements 152 und des zweiten Steuerelements 154 entsprechen, wobei die Umwandlungseinheit 1553 als Softwareprogramm verkörpert sein kann, das eine Schnittstelle bildet mit dem ersten Steuerelement 152.
  • Im Einzelnen kann die Umwandlungseinheit 1553 die Umwandlung ausführen unter Verwendung eines Umwandlungsalgorithmus auf Grundlage von Teilen der folgenden Information, dem Ort der Messpixel in dem Bild, der optischen Anordnung des Instruments, speziell dem Versatz des Projektionszentrums der Kamera und dem Ursprung des optischen Instruments, dem Offset der optischen Achse und der Messachse und dem Abstand zu dem Objekt.
  • Jedoch kann, wie oben beschrieben, die Umwandlung auch ausgeführt werden durch eine einfache Nachschlagtabelle zum Nachschlagen vorher aufgezeichneter Information hinsichtlich der Koordinaten einer Position, die einen Ort eines Messpixels in dem Bild entspricht. Für eine höhere Genauigkeit ist es auch denkbar, mehrere unterschiedliche Umwandlungstabellen für unterschiedliche Abstände bereitzustellen.
  • Diese Umwandlungstabelle, sowie die gemessenen Bilddaten und Abstandsdaten können in einer Speichereinheit 1570 gespeichert werden, die mit der Steuereinheit 150 verbunden ist, um die Daten zu speichern für eine Nachbearbeitung.
  • Die Speichereinheit 1570 kann irgendein gewünschtes oder passendes Speichergerät sein, und kann eine Kombination von mehreren der folgenden Komponenten sein, einem RAM, einem ROM, einer Festplatte, einem (E)EPROM, einer Disk, einem Flash-Speicher, etc. Ein Flash-Speicher kann nützlich sein zum Exportieren der Daten für eine Nachbearbeitung. Jedoch können andere Schnittstellen in Betracht gezogen werden für den Zweck eines Exportierens von Daten, wie zum Beispiel eine einfache I/O-Schnittstelle.
  • Die gespeicherten Bilder beziehen sich entweder auf ein lokales oder globales Koordinatensystem. Ferner ist die Position eines erfassten Bildes mit hoher Genauigkeit bekannt, und auf jedes Pixel wird genau Bezug genommen. Die gespeicherten Bilder können kombiniert werden mit gemessener dreidimensionaler Information in einer Datennachbearbeitung zum Erreichen von zusätzlicher Messinformation. Eine dreidimensionale Punktwolke ist nur dreidimensionale Information der Objektgeometrie ohne semantische Information, die hinzugefügt werden kann mit den gespeicherten Bildern, um die Verlässlichkeit der Bildverarbeitung zu erhöhen.
  • Das optische Instrument 1500 umfasst ferner eine Anzeigeeinheit 1560 zum Anzeigen des benötigten Bildes oder Teilbildes, die irgendeine Art von Anzeigeeinheit sein kann, wie zum Beispiel eine einfache Kathodenstrahlröhren-(CRT)-Anzeige oder Flüssigkristallanzeige (LCD, Liquid Crystal Display).
  • In einer bevorzugten Ausführungsform können dreidimensionale Punktdaten einer gemessenen Position überlagert werden auf einem Bild oder Teilbild. Die dreidimensionalen Punktdaten können als dreidimensionales Punktgitter, X-, Y-, Z-Koordinaten, horizontale und vertikale Winkel mit Abstandsinformation oder in einer anderen bekannten dreidimensionalen Darstellung gezeigt werden.
  • 16 stellt das optische Instrument 1600 gemäß einer anderen Ausführungsform dar, das ähnlich ist zum optischen Instrument 100 von 1.
  • Wie in 16 dargestellt, kann das optische Instrument 1600 die Steuereinheit 150, die Erfassungseinheit 160, die Speichereinheit 1570, einen Transceiver 1680 und eine abnehmbare Fernsteuereinheit 1660 umfassen. Die Steuereinheit 150 und die Speichereinheit 1570 wurden im Detail in den 1 und 15 beschrieben, und für eine detaillierte Beschreibung wird auf 1 und 15 verwiesen, um unnötige Wiederholungen zu vermeiden.
  • 16 stellt die Erfassungseinheit 160 von 1 und 15 im Detail dar. Die Linsenanordnung 110 in 16 umfasst zwei Linsen 1642 und 1644, die bevorzugt abnehmbar in einem Gehäuse 1640 platziert sind, um ein Gerät, ähnlich zu einem Teleskop zu bilden. Die optische Achse 1646 der Linsenanordnung ist rechtwinklig zu der Kamera gezeigt, und stimmt optimalerweise mit der optischen Achse der Kamera 120 überein.
  • Wie oben beschrieben, kann die Kamera 120 eine CCD oder CMOS-artige sein oder irgendein anderes passendes Bildgebungsgerät. Die Messachse 1658 der Abstandsmesseinheit 130 ist parallel zu der optischen Achse 1646 gezeigt, aber stimmt bevorzugt mit der optischen Achse 1646 überein.
  • Die Abstandsmesseinheit 130 wurde im Detail vorher mit Bezug auf 1 beschrieben. Die Positionierungseinheit 140 ist wieder in der Erfassungseinheit 160 dargestellt, aber wie vorher beschrieben, können Elemente der Positionierungseinheit auch außerhalb der Erfassungseinheit 160 sein.
  • Ferner ist die Steuereinheit 150 verbunden mit einem ersten Transceiver 1680 zum Übertragen und Empfangen von Daten, beispielsweise Übertragen von Erfassungsdaten, Bildern, an die abnehmbare Fernsteuereinheit 1660, um auf der Anzeigeeinheit 1610 angezeigt zu werden. Zusätzlich kann der erste Transceiver 1680 auch Steuerdaten empfangen von der abnehmbaren Fernsteuereinheit 1600, die die Steuereinheit 150 steuert, und insbesondere das erste und zweite Steuerelement.
  • Die abnehmbare Fernsteuereinheit 1660 kann verbunden sein mit der Steuereinheit 150, physikalisch durch feste Leitungen oder durch eine drahtlose Verbindung, wie zum Beispiel Funk, WLAN, beispielsweise IEEE 802.11 oder Bluetooth oder irgendeine andere passende drahtlose Verbindung. Wie gekennzeichnet durch die gestrichelte Linie, muss die abnehmbare Fernsteuereinheit 1660 nicht ein Teil des optischen Instruments 1600 bilden, kann aber von dem Benutzer herumgetragen werden zum Steuern des optischen Instruments von einem entfernten Ort.
  • Im Einzelnen umfasst die abnehmbare Fernsteuereinheit 1660 eine Anzeigeeinheit 1610, eine Betriebssteuereinheit 1620 und einen Transceiver 1630. Die Anzeigeeinheit 1610 kann eine LCD-Anzeige sein und bevorzugt eine berührungsempfindliche Anzeige, wie zum Beispiel ein berührungsempfindlicher Bildschirm, der als Mensch-Maschine-Schnittstelle dient. Die Betriebssteuereinheit 1620 kann eine Fokussteuerung, eine Trigger-Eingabe, ein alphanumerisches Eingabegerät, wie zum Beispiel ein Keyboard (Tastatur) und eine Zeigesteuerung enthalten, wie zum Beispiel eine Computermaus, ein Joystick, ein Track-Ball, ein Touch-Pad oder irgendein anderes passendes Gerät, was dem Benutzer erlaubt, manuell eine Bewegung des optischen Instruments zu befehlen. Der Transceiver 1630 kann Erfassungsdaten empfangen, die anzuzeigen sind auf einer Anzeigeeinheit 1610, oder Steuerdaten übertragen von der Betriebssteuereinheit 1620. Weitere Elemente können eine CPU und eine Batterie sein (nicht gezeigt).
  • Gemäß einer anderen Ausführungsform kann ein Programm bereitgestellt werden, das Befehle enthält, die ausgebildet sind zum Hervorrufen in einem Datenprozessor, der in der Steuereinheit oder der Steuereinheit 150 selbst enthalten sein kann, Kombinationen der obigen Schritte auszuführen.
  • Das Programm oder Elemente desselben können in einem Speicher gespeichert werden, wie zum Beispiel einer Speichereinheit 1570 des optischen Instruments, und von dem Prozessor zur Ausführung geholt werden.
  • Über dies hinaus kann ein computerlesbares Medium bereitgestellt werden, in dem das Programm verkörpert ist. Das computerlesbare Medium kann gegenständlich sein, wie zum Beispiel eine Disk oder eine andere Art von Datenträger, oder kann aus Signalen bestehen, die passend sind für eine elektronische, optische oder eine andere Art von Übertragung. Ein Computerprogrammprodukt kann das computerlesbare Medium umfassen.
  • Es sollte verstanden werden, dass die hierin beschriebenen Schritte sich nicht inhärent auf ein besonderes Instrument beziehen und implementiert werden können durch eine passende Kombination von Komponenten. Die optischen Instrumente, dargestellt in 1, 15 und 16, und oben im Detail beschrieben, stellen bevorzugte Ausführungsformen zum Ausführen der Schritte der beschriebenen Verfahren dar. Jedoch muss dies nicht auf diese begrenzt sein.
  • Es wird dem Fachmann ersichtlich, dass verschiedene Modifizierungen und Variierungen in den Instrumenten und Verfahren der Erfindung, sowie der Darstellung dieser Erfindung gemacht werden können, ohne den Umfang oder Geist der Erfindung zu verlassen.
  • Die Erfindung wurde mit Bezug auf spezielle Beispiele beschrieben, die in aller Hinsicht vorgesehen sind, darstellend zu sein und nicht beschränkend. Der Fachmann wird erkennen, dass viele verschiedene Kombinationen von Hardware, Software und Firmware passend sind zum Ausführen der vorliegenden Erfindung.
  • Über dies hinaus werden andere Implementierungen der Erfindung ersichtlich durch die Betrachtung der Beschreibung und das Ausführen der hierin offenbarten Erfindung. Es ist vorgesehen, dass die Beschreibung und die Beispiele als beispielhaft betrachtet werden. Daher sollte es verstanden werden, dass erfinderische Aspekte in weniger als allen Merkmalen einer einzelnen vorhergehenden offenbarten Implementierung oder Konfigurierung liegen. Daher wird der wahre Umfang und Geist der Erfindung durch die folgenden Ansprüche gekennzeichnet.
  • ZUSAMMENFASSUNG
  • Ein optisches Instrument und ein Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts wird offenbart zum Verbessern der Geschwindigkeit und Genauigkeit einer Datenerfassung. Das Instrument umfasst eine Kamera, Positionierungseinheit, Abstandsmesseinheit, Linsenanordnung und Steuereinheit. Die Kamera erfasst Bilder eines Objekts, und die Steuereinheit definiert eine Fläche, die zu scannen ist, sowie ein Objektmerkmal des Objekts, wobei Messpixel entsprechend zu Positionen auf dem Objekt in dem Bereich definiert werden können mit erhöhter Dichte von Messpixeln bei dem Objektmerkmal. Nachfolgend werden die Abstände zu dem Objekt bei den ausgewählten Positionen, die von Interesse sind, gemessen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 10359415 A1 [0138]
    • - WO 2005/059473 A2 [0138]

Claims (41)

  1. Optisches Instrument zum Erhalten von Abstands- und Bildinformation eines Objekts, umfassend eine Linsenanordnung (110) zum Anvisieren des Objekts; eine Kamera (120), angeordnet zu der optischen Achse der Linsenanordnung zum Erfassen eines Bildes von mindestens einem Teil des Objekts; eine Abstandsmesseinheit (130) zum Messen eines Abstands zu dem Objekt entlang einer Messachse der Abstandsmesseinheit parallel zu der optischen Achse der Linsenanordnung; eine Positionierungseinheit (140) zum Einstellen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse; und eine Steuereinheit (150) mit einem ersten Steuerelement (152), ausgebildet zum Definieren in dem Bild, eines zu scannenden Bereichs, zum Erhalten eines Objektmerkmals des Objekts in dem Bereich, und zum Definieren in dem Bereich einer Vielzahl von Messpixel entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit erhöhter Dichte der Messpixel bei dem Objektmerkmal, und einem zweiten Steuerelement (154), ausgebildet zum Instruieren der Positionierungseinheit zum Einstellen der optischen Achse der Linsenanordnung sequentiell auf die Vielzahl der Positionen auf dem Objekt und zum Instruieren der Abstandsmesseinheit zum Messen der Abstände zu dem Objekt bei der Vielzahl von Positionen.
  2. Das optische Instrument nach Anspruch 1, wobei das erste Steuerelement ausgebildet ist zum Erhalten des Objektmerkmals durch einen Benutzer zum Auswählen des Objektmerkmals in dem Bereich oder durch Verarbeiten des Bereichs in dem Bild unter Verwendung eines Detektionsalgorithmus zum Detektieren des Objektmerkmals des Objekts in dem Bereich.
  3. Das optische Instrument nach Anspruch 1 oder 2, wobei das erste Steuerelement ausgebildet ist zum Definieren des zu scannenden Bereichs durch einen Benutzer zum Auswählen des Bereichs in dem Bild oder durch Verarbeiten des Bildes unter Verwendung eines Detektionsalgorithmus zum Detektieren von mindestens dem Teil des Objekts.
  4. Das optische Instrument nach einem der Ansprüche 1 bis 3, wobei das erste Steuerelement ausgebildet ist zum Definieren in dem zu scannenden Bereich von mindestens einer von einer Region mit einer hohen Messpixeldichte, einer Region mit einer niedrigen Messpixeldichte, und einer Region ohne Messpixel.
  5. Das optische Instrument nach Anspruch 4, wobei das erste Steuerelement ausgebildet ist zum Definieren der Regionen durch einen Benutzer zum Auswahlen der Regionen in dem Bereich oder durch Verarbeiten des Bereichs unter Verwendung eines Detektionsalgorithmus zum Detektieren der Regionen in dem Bereich.
  6. Das optische Instrument nach einem der Ansprüche 1 bis 5, wobei das zweite Steuerelement ausgebildet ist zum Scannen der Messpixel in dem Bereich in einer Sequenz, so dass eine Anpassung der optischen Achse der Linsenanordnung minimiert wird.
  7. Das optische Instrument nach Anspruch 1 oder 2, wobei das erste Steuerelement ausgebildet ist zum Definieren in dem Bereich der Vielzahl der Messpixel durch Einführen einer zweidimensionalen Darstellung eines Profils in den Bereich und durch Auswählen einer Vielzahl von Pixel an einer Kontur der zweidimensionalen Darstellung des Profils in dem Bereich als Messpixel.
  8. Das optische Instrument nach einem der Ansprüche 1 bis 7, wobei das Bild mindestens ein erstes und ein zweites Teilbild umfasst und die mindestens zwei Teilbilder die Vielzahl der Messpixel umfassen.
  9. Das optische Instrument nach Anspruch 8, wobei das erste Steuerelement ausgebildet ist zum Definieren anderer Positionen, die zu messen sind zwischen den Messpixeln des ersten Teilbildes und des zweiten Teilbildes.
  10. Das optische Instrument nach Anspruch 9, wobei das erste Steuerelement ausgebildet ist zum Definieren der anderen zu messenden Positionen durch Verarbeiten von mindestens einem von dem ersten Teilbild und dem zweiten Teilbild durch Definieren der anderen Positionen entlang einer Linie, die mindestens zwei Messpixel verbindet oder unter Verwenden eines Extrapolationsalgorithmus zum Extrapolieren einer Kante oder eines anderen Objektmerkmals des Objekts in mindestens einem von dem ersten Teilbild und dem zweiten Teilbild, detektiert durch einen Detektionsalgorithmus.
  11. Das optische Instrument nach einem der Ansprüche 1 bis 10, wobei die Positionierungseinheit ausgebildet ist zum Messen horizontaler und vertikaler Winkel zu der Vielzahl der Positionen auf dem Objekt mit Bezug zu einem Referenzachsensystem.
  12. Das optische Instrument nach einem der Ansprüche 1 bis 11, ferner umfassend eine Anzeigeeinheit (1160) zum Anzeigen des erfassten Bildes.
  13. Das optische Instrument nach Anspruch 12, wobei die Anzeigeeinheit ausgebildet zum Anzeigen des erfassten Bildes und gemessener Positionen in überlappender Art und Weise.
  14. Das optische Instrument nach Anspruch 12 oder 13, wobei die Anzeigeeinheit eine berührungsempfindliche Anzeigeeinheit für mindestens eines umfasst von einem Definieren in dem Bild des zu scannenden Bereichs durch einen Benutzer und Erhalten des Objektmerkmals durch einen Benutzer.
  15. Das optische Instrument nach einem der Ansprüche 1 bis 14, ferner umfassend eine Umwandlungseinheit (1553) zum Umwandeln der Vielzahl von Messpixeln in Koordinaten der zu messenden Positionen.
  16. Das optische Instrument nach Anspruch 15, wobei die Umwandlung ausgeführt wird unter Verwendung eines Umwandlungsalgorithmus.
  17. Das optische Instrument nach Anspruch 15, wobei die Umwandlung ausgeführt wird unter Verwendung einer Umwandlungstabelle, die jedes Messpixel mit Koordinaten der zu messenden Positionen korreliert.
  18. Das optische Instrument nach einem der Ansprüche 1 bis 17, wobei mindestens zwei der Vielzahl der Messpixel Kernpunktpixel darstellen, und das erste Steuerelement (152) ausgebildet ist zum Umwandeln der Kernpunktpixel in eine Näherung von Koordinaten der Kernpositionen, die zu messen sind, unter Annahme eines Standardabstands zwischen den Kernpositionen und dem optischen Instrument, und das zweite Steuerelement (154) ausgebildet ist zum Instruieren der Positionierungseinheit zum Anpassen bzw. Einstellen der optischen Achse der Linsenanordnung auf die zu messenden Kernpositionen, und zum Instruieren der Abstandsmesseinheit zum Messen der Abstände zu den Kernpositionen, wobei das erste Steuerelement ferner ausgebildet ist zum Neuberechnen der Koordinaten der Kernpositionen auf Grundlage der gemessenen Abstände.
  19. Das optische Instrument nach einem der Ansprüche 1 bis 18, ferner umfassend mindestens einen Transceiver (1680) zum Empfangen von Steuerdaten und eine abnehmbare Fernsteuereinheit (1660) mit einer Betriebssteuereinheit (1620), einer Anzeigeeinheit (1610) und einem Transceiver (1630) zum Fernsteuern des optischen Instruments.
  20. Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts, umfassend Anvisieren des Objekts mit einer Linsenanordnung; Erfassen eines Bildes von mindestens einem Teil des Objekts mit einer Kamera, angeordnet zu der optischen Achse der Linsenanordnung; Definieren in dem Bild eines Bereichs, der zu scannen ist; Erhalten eines Objektmerkmals des Objekts in dem Bereich; Definieren in dem Bereich einer Vielzahl von Messpixel entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit einer erhöhten Dichte der Messpixel bei dem Objektmerkmal; Einstellen der optischen Achse der Linsenanordnung relativ zu mindestens einer Referenzachse sequentiell auf die Vielzahl der Positionen des Objekts; und Messen der Abstände zu dem Objekt bei der Vielzahl von Positionen.
  21. Das Verfahren nach Anspruch 20, wobei das Objektmerkmal erhalten wird durch einen Benutzer, der das Objektmerkmal in dem Bereich auswählt, oder durch Bearbeiten des Bereichs in dem Bild unter Verwendung eines Detektionsalgorithmus zum Detektieren des Objektmerkmals des Objekts in dem Bereich.
  22. Das Verfahren nach Anspruch 20 oder 21, wobei der zu scannende Bereich definiert wird durch einen Benutzer, der den Bereich in dem Bild auswählt oder durch Verarbeiten des Bildes unter Verwendung eines Detektionsalgorithmus zum Detektieren von mindestens dem Teil des Objekts.
  23. Das Verfahren nach mindestens einem der Ansprüche 20–22, ferner umfassend Definieren in dem zu scannenden Bereich von mindestens einer von einer Region mit einer hohen Messpixeldichte, einer Region mit einer niedrigen Messpixeldichte und einer Region ohne Messpixel.
  24. Das Verfahren nach Anspruch 23, wobei die Region definiert wird durch einen Benutzer, der die Regionen in dem Bereich auswählt, oder durch Verarbeiten des Bereichs unter Verwendung eines Detektionsalgorithmus zum Detektieren der Regionen in dem Bereich.
  25. Das Verfahren nach mindestens einem der Ansprüche 20–24, ferner umfassend ein Scannen der Messpixel in dem Bereich in einer Sequenz, so dass eine Anpassung der optischen Achse der Linsenanordnung minimiert wird.
  26. Das Verfahren nach Anspruch 20 oder 21, wobei die Vielzahl der Messpixel in dem Bereich definiert wird durch Einführen einer zweidimensionalen Darstellung eines Profils in dem Bereich und durch Auswählen einer Vielzahl von Pixel an einer Kontur der zweidimensionalen Darstellung des Profils in dem Bereich als Messpixel.
  27. Das Verfahren nach mindestens einem der Ansprüche 20–26, wobei das Bild mindestens ein erstes und ein zweites Teilbild umfasst, und die mindestens zwei Teilbilder die Vielzahl der Messpixel umfassen.
  28. Das Verfahren nach Anspruch 27, ferner umfassend Definieren anderer zu messender Positionen zwischen den Messpixeln des ersten Teilbildes und des zweiten Teilbildes.
  29. Das Verfahren nach Anspruch 28, wobei die anderen zu messenden Positionen definiert werden durch Verarbeiten von mindestens dem ersten Teilbild und dem zweiten Teilbild durch Definieren der anderen Positionen entlang einer Linie, die mindestens zwei Messpixel verbindet oder durch Verwenden eines Extrapolationsalgorithmus zum Extrapolieren einer Kante oder eines anderen Objektmerkmals des Objekts in mindestens einem von dem ersten Teilbild und dem zweiten Teilbild, detektiert durch einen Detektionsalgorithmus.
  30. Das Verfahren nach mindestens einem der Ansprüche 20–29, ferner umfassend Messen horizontaler und vertikaler Winkel zu der Vielzahl der Positionen auf dem Objekt mit Bezug zu einem Referenzachsensystem.
  31. Das Verfahren nach mindestens einem der Ansprüche 20–30, ferner umfassend Anzeigen des erfassten Bildes.
  32. Das Verfahren nach Anspruch 31, wobei das erfasste Bild und die gemessenen Positionen in überlappender Art und Weise angezeigt werden.
  33. Das Verfahren nach Anspruch 31 oder 32, ferner umfassend Definieren durch einen Benutzer auf einer berührungsempfindlichen Anzeigeeinheit den zu scannenden Bereich und/oder das Objektmerkmal.
  34. Das Verfahren nach einem der Ansprüche 20–33, ferner umfassend Umwandeln der Vielzahl von Messpixel in Koordinaten der zu messenden Position.
  35. Das Verfahren nach Anspruch 34, wobei die Umwandlung ausgeführt wird unter Verwendung eines Umwandlungsalgorithmus.
  36. Das Verfahren nach Anspruch 34, wobei die Umwandlung ausgeführt wird unter Verwendung einer Umwandlungstabelle, die jedes Messpixel mit Koordinaten der zu messenden Positionen korreliert.
  37. Das Verfahren nach mindestens einem der Ansprüche 20–36, ferner umfassend Empfangen von Steuerdaten zum Fernsteuern der Steuereinheit.
  38. Das Verfahren nach mindestens einem der Ansprüche 20–37, wobei mindestens zwei der Vielzahl der Messpixel Kernpunktpixel darstellen, und das Verfahren ferner umfasst Umwandeln der Kernpunktpixel in eine Näherung der Koordinaten der zu messenden Kernpositionen unter Annahme eines Standardabstands zu den Kernpositionen, Einstellen der optischen Achse der Linsenanordnung auf die zu messenden Kernpositionen, und Messen der Abstände zu den Kernpositionen, Neuberechnen der Koordinaten der Kernpositionen basierend auf den gemessenen Abständen.
  39. Ein Programm, enthaltend Instruktionen, ausgebildet zum Hervorrufen bei einem Datenverarbeitungsmittel, dass ein Verfahren nach mindestens einem der Ansprüche 20–38 ausgeführt wird.
  40. Ein computerlesbares Medium, in dem ein Programm verkörpert ist, wobei das Programm einen Computer dazu bringt, das Verfahren nach einem der Ansprüche 20–38 auszuführen.
  41. Ein Computerprogrammprodukt, umfassend das computerlesbare Medium nach Anspruch 40.
DE112007003284T 2007-01-26 2007-01-26 Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation Pending DE112007003284T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2007/000707 WO2008089792A1 (en) 2007-01-26 2007-01-26 Optical instrument and method for obtaining distance and image information

Publications (1)

Publication Number Publication Date
DE112007003284T5 true DE112007003284T5 (de) 2009-12-24

Family

ID=38523442

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007003284T Pending DE112007003284T5 (de) 2007-01-26 2007-01-26 Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation

Country Status (4)

Country Link
US (1) US8368875B2 (de)
CN (1) CN101636632B (de)
DE (1) DE112007003284T5 (de)
WO (1) WO2008089792A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2474810A1 (de) * 2011-01-11 2012-07-11 Leica Geosystems AG Vermessungsgerät mit einer dynamischen Anzielfunktionalität
DE102011012058A1 (de) * 2011-02-18 2012-08-23 Arnold Pugliese Zweidimensionale Entfernungsmess- und Aufzeichnungseinrichtung

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4493730B2 (ja) * 2008-07-31 2010-06-30 国立大学法人広島大学 3次元物体表示制御装置及びその方法
CN101668105B (zh) * 2009-09-12 2011-07-13 苏州佳世达电通有限公司 自动识别扫描区域边界的方法
CN101794316A (zh) * 2010-03-30 2010-08-04 高翔 基于gps定位和方向识别的实景咨信系统及坐标偏移方法
CN101865690B (zh) * 2010-04-12 2012-05-16 大连理工大学 三维地貌观测方法
US9952316B2 (en) * 2010-12-13 2018-04-24 Ikegps Group Limited Mobile measurement devices, instruments and methods
JP5770486B2 (ja) * 2011-02-21 2015-08-26 株式会社トプコン 全周画像計測装置
EP2541194A1 (de) * 2011-07-01 2013-01-02 Hexagon Technology Center GmbH Konstruktionsvermessungsgerät zum Verfolgen, Vermessen und Markieren von Kanten und Eckpunkten aneinandergrenzender Oberflächen
EP2557392A1 (de) * 2011-08-11 2013-02-13 Leica Geosystems AG Vermessungsgerät und Verfahren mit einer auf der Ausrichtung einer Fernbedieneinheit basierenden und skalierbaren Anzielfunktionalität
US9222771B2 (en) 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
TWI443446B (zh) * 2011-12-01 2014-07-01 Univ Nat Taiwan 植床的監測系統及影像重建方法
US20130162835A1 (en) * 2011-12-23 2013-06-27 Fluke Corporation Thermal imaging camera for infrared rephotography
CN102620660A (zh) * 2012-04-17 2012-08-01 南京工业大学 建筑物和构筑物裂缝超远程检测方法
US9074878B2 (en) 2012-09-06 2015-07-07 Faro Technologies, Inc. Laser scanner
GB2522142A (en) 2012-09-14 2015-07-15 Faro Tech Inc Laser scanner with dynamical adjustment of angular scan velocity
TW201418662A (zh) * 2012-11-15 2014-05-16 Nat Applied Res Laboratories 遠距離量測裂縫之方法及其裝置
US9880286B2 (en) 2012-12-28 2018-01-30 Trimble Inc. Locally measured movement smoothing of position fixes based on extracted pseudoranges
US9429640B2 (en) 2012-12-28 2016-08-30 Trimble Navigation Limited Obtaining pseudorange information using a cellular device
US9910158B2 (en) 2012-12-28 2018-03-06 Trimble Inc. Position determination of a cellular device using carrier phase smoothing
US9462446B2 (en) 2012-12-28 2016-10-04 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset
US9538336B2 (en) 2012-12-28 2017-01-03 Trimble Inc. Performing data collection based on internal raw observables using a mobile data collection platform
US9743373B2 (en) 2012-12-28 2017-08-22 Trimble Inc. Concurrent dual processing of pseudoranges with corrections
US9639941B2 (en) 2012-12-28 2017-05-02 Trimble Inc. Scene documentation
US9369843B2 (en) 2012-12-28 2016-06-14 Trimble Navigation Limited Extracting pseudorange information using a cellular device
US9903957B2 (en) 2012-12-28 2018-02-27 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9488736B2 (en) 2012-12-28 2016-11-08 Trimble Navigation Limited Locally measured movement smoothing of GNSS position fixes
US9645248B2 (en) 2012-12-28 2017-05-09 Trimble Inc. Vehicle-based global navigation satellite system receiver system with radio frequency hardware component
US9821999B2 (en) 2012-12-28 2017-11-21 Trimble Inc. External GNSS receiver module with motion sensor suite for contextual inference of user activity
US10101465B2 (en) 2012-12-28 2018-10-16 Trimble Inc. Electronic tape measure on a cellphone
US9456067B2 (en) 2012-12-28 2016-09-27 Trimble Navigation Limited External electronic distance measurement accessory for a mobile data collection platform
US9612341B2 (en) 2012-12-28 2017-04-04 Trimble Inc. GNSS receiver positioning system
US9467814B2 (en) 2012-12-28 2016-10-11 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider
US9544737B2 (en) 2012-12-28 2017-01-10 Trimble Inc. Performing data collection based on external raw observables using a mobile data collection platform
US9835729B2 (en) 2012-12-28 2017-12-05 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9945959B2 (en) 2012-12-28 2018-04-17 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US9923626B2 (en) 2014-06-13 2018-03-20 Trimble Inc. Mobile ionospheric data capture system
EP3037779A1 (de) * 2014-12-23 2016-06-29 HILTI Aktiengesellschaft Verfahren zum Übertragen eines Objektes auf eine Grenzfläche
EP3037780A1 (de) * 2014-12-23 2016-06-29 HILTI Aktiengesellschaft Verfahren zum Detektieren eines Messbereiches in einem Untergrund
CN105937913B (zh) * 2015-10-12 2018-12-14 北京林业大学 Ccd组合全站仪综合检测方法
CN105423916B (zh) * 2015-11-30 2018-10-30 中国联合网络通信集团有限公司 一种物体尺寸的测量方法和测量系统
EP3392612B1 (de) * 2015-12-14 2023-05-17 Nikon-Trimble Co., Ltd. Defekterkennungsvorrichtung und programm
CN105588551B (zh) * 2016-03-18 2017-12-15 北京建工集团有限责任公司 测定建筑物垂直度的360°旋转棱镜及其使用方法
CN106017422A (zh) * 2016-06-28 2016-10-12 上海华尔派建筑装饰工程有限公司 一种基于网格划分的既有建筑幕墙检测定位系统及方法
JP6684168B2 (ja) * 2016-06-28 2020-04-22 キヤノン株式会社 画像処理装置および画像処理方法
CN106382876A (zh) * 2016-11-24 2017-02-08 桂林理工大学 一种测量经纬仪仪器高度的简便方法
CN108803006B (zh) * 2017-09-18 2021-01-05 成都理想境界科技有限公司 光纤扫描成像系统、设备及其畸变检测与矫正系统
EP3489719B1 (de) 2017-11-23 2023-09-20 Trimble AB Verbesserter elektronischer entfernungsmesser
RU2677089C1 (ru) * 2018-04-24 2019-01-15 федеральное государственное бюджетное образовательное учреждение высшего образования "Санкт-Петербургский горный университет" Способ горизонтальной соединительной съемки подэтажных горизонтов
CN109859265B (zh) * 2018-12-28 2024-04-19 维沃移动通信有限公司 一种测量方法及移动终端
CN110487195B (zh) * 2019-08-06 2022-02-01 广州市奥特创通测控技术有限公司 基于方向线阵技术的车载隧道检测方法及装置
US11172112B2 (en) 2019-09-09 2021-11-09 Embedtek, LLC Imaging system including a non-linear reflector
CN111122588B (zh) * 2020-01-20 2020-10-20 海宁溪聚科技发展有限公司 一种基于智慧城市的工业建筑防冻裂检测方法
CN111739098B (zh) * 2020-06-30 2024-05-24 上海商汤智能科技有限公司 测速方法及装置、电子设备及存储介质
EP4279863A1 (de) * 2022-05-20 2023-11-22 Hexagon Technology Center GmbH Bildbasiertes verfahren zur definition eines abtastbereichs
EP4332621A1 (de) * 2022-09-01 2024-03-06 Leica Geosystems AG Laserscanner mit stereokamerasicht für verbesserte selektive merkmalabtastung

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059473A2 (en) 2003-12-16 2005-06-30 Trimble Jena Gmbh Calibration of a surveying instrument

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3215723B2 (ja) * 1992-09-11 2001-10-09 旭光学工業株式会社 レンズ駆動装置
US5642285A (en) * 1995-01-31 1997-06-24 Trimble Navigation Limited Outdoor movie camera GPS-position and time code data-logging for special effects production
US6282362B1 (en) * 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5815742A (en) * 1996-06-11 1998-09-29 Minolta Co., Ltd. Apparatus having a driven member and a drive controller therefor
US6147598A (en) * 1997-07-03 2000-11-14 Trimble Navigation Limited Vehicle theft system including a handheld computing device
US6034722A (en) * 1997-11-03 2000-03-07 Trimble Navigation Limited Remote control and viewing for a total station
AU6355799A (en) 1998-10-28 2000-05-15 Measurement Devices Limited Apparatus and method for obtaining 3d images
JP2000136827A (ja) 1998-11-02 2000-05-16 Shinshu Ceramics:Kk 摺動部材の製造方法及び摺動部材
EP1001251A1 (de) 1998-11-10 2000-05-17 Leica Geosystems AG Laser-Positionier-System
DE19922321C2 (de) 1999-05-14 2002-07-18 Zsp Geodaetische Sys Gmbh Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter
DE10025110C2 (de) 2000-05-20 2003-01-16 Zsp Geodaetische Sys Gmbh Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
JP4356050B2 (ja) * 2000-12-28 2009-11-04 株式会社トプコン 測量装置と電子的記憶媒体
EP1314959A1 (de) 2001-11-22 2003-05-28 Leica Geosystems AG Elektronische Anzeige- und Steuervorrichtung für ein Messgerät
JP2004093504A (ja) * 2002-09-03 2004-03-25 Topcon Corp 測量装置
JP4253239B2 (ja) * 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
JP2005249715A (ja) * 2004-03-08 2005-09-15 Topcon Corp 測量方法及び測量機
JP4522754B2 (ja) * 2004-06-14 2010-08-11 株式会社トプコン 測量機
EP1610091A1 (de) 2004-06-23 2005-12-28 Leica Geosystems AG Scannersystem und Verfahren zur Erfassung von Oberflächen
EP1681533A1 (de) * 2005-01-14 2006-07-19 Leica Geosystems AG Verfahren und geodätisches Gerät zur Vermessung wenigstens eines Zieles
US7541974B2 (en) * 2005-12-15 2009-06-02 Trimble Navigation Limited Managed traverse system and method to acquire accurate survey data in absence of precise GPS data
US8024144B2 (en) 2005-09-12 2011-09-20 Trimble Jena Gmbh Surveying instrument and method of providing survey data of a target region using a surveying instrument
US7719467B2 (en) * 2007-03-08 2010-05-18 Trimble Navigation Limited Digital camera with GNSS picture location determination
WO2009100774A1 (en) 2008-02-12 2009-08-20 Trimble Ab Localizing a surveying instrument in relation to a ground mark
WO2009103342A1 (en) 2008-02-22 2009-08-27 Trimble Jena Gmbh Angle measurement device and method
EP2247922B1 (de) 2008-02-29 2015-03-25 Trimble AB Bestimmung von koordinaten eines ziels in bezug auf ein vermessungsinstrument mit mindestens zwei kameras
US8897482B2 (en) * 2008-02-29 2014-11-25 Trimble Ab Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera
US20090262974A1 (en) * 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
US8379929B2 (en) * 2009-01-08 2013-02-19 Trimble Navigation Limited Methods and apparatus for performing angular measurements
WO2010080950A1 (en) 2009-01-08 2010-07-15 Trimble Navigation Limited Methods and systems for determining angles and locations of points
US7991575B2 (en) * 2009-01-08 2011-08-02 Trimble Navigation Limited Method and system for measuring angles based on 360 degree images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059473A2 (en) 2003-12-16 2005-06-30 Trimble Jena Gmbh Calibration of a surveying instrument
DE10359415A1 (de) 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2474810A1 (de) * 2011-01-11 2012-07-11 Leica Geosystems AG Vermessungsgerät mit einer dynamischen Anzielfunktionalität
WO2012095415A1 (de) * 2011-01-11 2012-07-19 Leica Geosystems Ag Vermessungsgerät mit einer dynamischen anzielfunktionalität und zugehöriges verfahren
AU2012206597B2 (en) * 2011-01-11 2014-07-31 Leica Geosystems Ag Measuring appliance comprising a dynamic sighting functionality and associated method
AU2012206597B9 (en) * 2011-01-11 2014-08-07 Leica Geosystems Ag Measuring appliance comprising a dynamic sighting functionality and associated method
US9829314B2 (en) 2011-01-11 2017-11-28 Leica Geosystems Ag Measuring appliance comprising a dynamic sighting functionality and associated method
DE102011012058A1 (de) * 2011-02-18 2012-08-23 Arnold Pugliese Zweidimensionale Entfernungsmess- und Aufzeichnungseinrichtung

Also Published As

Publication number Publication date
US20100030515A1 (en) 2010-02-04
CN101636632B (zh) 2012-05-30
WO2008089792A1 (en) 2008-07-31
US8368875B2 (en) 2013-02-05
CN101636632A (zh) 2010-01-27

Similar Documents

Publication Publication Date Title
DE112007003293B4 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE112007003284T5 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE69628956T2 (de) Abtastvorrichtung und -verfahren
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
DE112007003553B4 (de) Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen
DE602005003610T2 (de) Vorrichtung zum Bestimmen der dreidimensionalen Form eines Objekts
US6519359B1 (en) Range camera controller for acquiring 3D models
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP3005292B1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE112012005524B4 (de) Verfahren zur mechanischen Übermittlung eines Befehls zur Steuerung des Betriebs eines Lasertrackers
DE102017213779A1 (de) Dreidimensionale Messvorrichtung
DE19922321C2 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter
EP3623843B1 (de) Handgehaltenes laserdistanzmessgerät
DE10308525A1 (de) Vermessungssystem
EP1836455A1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
DE10328828A1 (de) Surveying System
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
DE102008002241A1 (de) Verfahren und Messsystem zur bildbasierten Vermessung eines Raumes
DE19815105A1 (de) Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse
DE10329341B4 (de) Vermessungssystem
EP3315907A1 (de) Verfahren zur visuellen darstellung von scandaten
EP1910999A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102020209725A1 (de) Dreidimensionale-form-messvorrichtung und dreidimensionale-form-messverfahren
DE102011089837A1 (de) Optisches System
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication