-
GEBIET DER ERFINDUNG
-
Die
vorliegende Erfindung betrifft ein optisches Instrument und ein
Verfahren zum Erhalten von Abstands- und Bildinformation eines Objekts.
-
HINTERGRUND
-
Optische
Instrumente, insbesondere optische Instrumente, wie Videotachymeter
oder Videototalstationen, umfassen eine komplexe Anordnung von optischen
Elementen, wie zum Beispiel Linsen eines Teleskops, einer Kamera
und Abstandsmessmittel zum Erhalten von Information hinsichtlich
der Form und des Orts eines Objekts. Diese Information kann horizontale
und vertikale Winkel enthalten, sowie einen Abstand zu dem Objekt
und auch ein Bild des Objekts. Die Information kann dann verwendet werden
zum Erzeugen einer dreidimensionalen Darstellung des Objekts.
-
Jedoch
ist, nach einem Erfassen eines Bildes mit solch einem optischen
Instrument, die Erfassung der dreidimensionalen Daten zeitaufwendig. Beispielsweise
muss, zum Messen eines dreidimensionalen Koordinatennetzes, das
Instrument sequentiell jede Position entsprechend zu einem Punkt
in dem Koordinatennetz scannen bzw. abtasten und messen, was zeitaufwendig
ist.
-
Andere
optische Vermessungsinstrumente mit Bildgebungs-, Richtungs- und
Abstandsmessfähigkeiten umfassen oft Scanmittel zum Erhalten
von Bild-, Richtungs- und Abstandsinformation, wobei ein schnell
rotierender Polygonspiegel für eine Laserstrahlreflexion
verwendet wird. Speziell wird ein Laserstrahl eines Abstandsmessmittels über
das Objekt gescant, während ein Abstand zu einer Position
auf dem Objekt gemessen wird, und die Richtung, beispielsweise angezeigt
durch horizontale und vertikale Winkel, zu der Position des Objekts
mit Bezug auf den Ursprung oder Spiegelposition des Instruments wird
aufgezeichnet.
-
Solche
Instrumente sind in der Lage, Bilder des Objekts mit einer Videorate
bereitzustellen, sowie Abstandsinformation von jeder gescannten
bzw. abgetasteten Position auf dem Objekt. Deshalb können
mehrere Datenpunkte entsprechend zu den gemessenen Positionen erhalten
werden, wobei jeder Datenpunkt dreidimensionale Information umfasst. Natürlich
müssen, je höher die Anforderungen hinsichtlich
der Auslösung sind, mehr Datenpunkte erhalten werden, was
zu einer großen Menge an Information führt, die
verarbeitet werden muss, was oft nur offline möglich ist.
-
Während
die oben diskutierten Instrumente dreidimensionale Darstellungen
eines Objekts mit ausreichender Auflösung für
viele Anwendungen erhalten können, benötigen manche
Anwendungen eine noch höhere Auflösung. Über
dies hinaus ist es nicht möglich, eine zweite Abstandsmessung
der exakt gleichen Position zu erhalten, da es nicht möglich ist,
die exakt gleiche Laserstrahlreflexion bzw. Reflexionen auf beispielsweise
dem rotierenden Polygonspiegel zweimal zu erhalten. Ferner kann,
da eine Verarbeitung der großen Menge an Daten normalerweise
offline im Büro durchgeführt werden muss, der Benutzer
nicht zurückkehren zu interessierenden Merkmalen auf der
Stelle, wo gemessen wird. Obwohl eine ziemlich hohe Auflösung
erhalten wird für das gesamte Scangebiet, wird dies daher
zu einem Nachteil, falls Daten entsprechend zu wenigen Merkmalen,
die von Interesse sind, in dem gescannten Bereich isoliert werden
müssen.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Es
ist deshalb wünschenswert, ein optisches Instrument und
Verfahren bereitzustellen mit verbesserter Datenerfassung zum Verbessern
einer Bilderfassung und der Genauigkeit und Geschwindigkeit der
Abstandsmessungen.
-
Gemäß einer
Ausführungsform umfasst ein optisches Instrument zum Erhalten
von Abstands- und Bildinformation eines Objekts eine Linsenanordnung
zum Anvisieren des Objekts, eine Kamera, angeordnet zu der optischen
Achse der Linsenanordnung zum Erfassen eines Bildes von mindestens
einem Teil des Objekts, eine Abstandsmesseinheit zum Messen eines
Abstands zu dem Objekt entlang einer Messachse der Abstandsmesseinheit
parallel zu der optischen Achse der Linsenanordnung, eine Positionierungseinheit
zum Einstellen bzw. Justieren der optischen Achse der Linsenanordnung
relativ zu mindestens einer Referenzachse, und eine Steuereinheit
mit einem ersten Steuerelement, ausgebildet zum Definieren in dem
Bild, eines zu scannenden Bereichs, zum Erhalten eines Objektmerkmals
des Objekts in dem Bereich, und zum Definieren in dem Bereich einer
Vielzahl von Messpixeln entsprechend zu einer Vielzahl von Positionen
auf dem Objekt mit erhöhter Dichte der Messpixel bei dem
Objektmerkmal und einem zweiten Steuerelement, ausgebildet zum Instruieren
der Positionierungseinheit zum Einstellen der optischen Achse der
Linsenanordnung sequentiell auf die Vielzahl der Positionen auf
dem Objekt und zum Instruieren der Abstandsmesseinheit zum Messen
der Abstände zu dem Objekt bei der Vielzahl von Positionen.
Demgemäß können die horizontalen und vertikalen
Richtungen und Abstände einer Vielzahl von Positionen auf
dem Objekt präzise und schnell gemessen werden, da die
Positionierungseinheit verwendet wird zum Einstellen der optischen
Achse der Linsenanordnung für jede Messung aufs neue, und da
Abstandsinformation nur erhalten wird von einer begrenzten Anzahl
von Messpixeln, die in dem Bild von Interesse sind, entsprechend
zu einem Objektmerkmal. Datenerfassung ist daher begrenzt auf Bereiche
und Objektmerkmale, die von Interesse sind, und Verarbeitungszeitersparnis
und eine Begrenzung einer erfassten Menge an Daten wird möglich.
-
Gemäß einem
vorteilhaften Beispiel ist das erste Steuerelement ausgebildet zum
Erhalten des Objektmerkmals durch einen Benutzer zum Auswählen
des Objektmerkmals in dem Bereich oder durch Verarbeiten des Bereichs
in dem Bild unter Verwendung eines Detektionsalgorithmus zum Detektieren des
Objektmerkmals des Objekts in dem Bereich. Demgemäß wird,
anstatt eines Erhaltens von Abstandsinformation von Positionen,
die nicht von Interesse sind, ein interessierendes Objektmerkmal
ausgewählt durch einen Benutzer oder der Bereich in dem
Bild kann alternativ verarbeitet werden unter Verwendung eines Detektionsalgorithmus,
so dass die Zeit, die für Positionsanpassungen und Abstandsmessungen
gebraucht wird, verringert wird.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren des zu scannenden Bereichs durch einen Benutzer zum
Auswählen des Bereichs in dem Bild oder durch Verarbeiten
des Bildes unter Verwendung eines Detektionsalgorithmus zum Detektieren
von mindestens dem Teil des Objekts. Demgemäß kann
es vermieden werden, den Abstand für jede Position in dem
Bild zu messen, ein Benutzer kann zuerst das Bild für interessierende
Bereiche studieren oder kann einen automatischen Detektionsalgorithmus
verwenden, wie zum Beispiel einen automatischen Bildverarbeitungsalgorithmus,
um den zu scannenden Bereich zum Detektieren eines Objekts zu verringern.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren in dem zu scannenden Bereich von mindestens einer
von einer Region mit einer hohen Messpixeldichte, einer Region mit
einer niedrigen Messpixeldichte, und einer Region ohne Messpixel.
Demgemäß können verschiedene Regionen
in dem Bereich mit unterschiedlichen Prioritäten definiert
werden, so dass die Zeit für Positionseinstellungen bzw.
Positionsanpassungen und zum Messen von Abständen sowie
die Menge an Daten verringert wird.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren der Regionen durch einen Benutzer zum Auswählen
der Regionen in dem Bereich oder durch Verarbeiten des Bereichs
unter Verwendung eines Detektionsalgorithmus zum Detektieren der
Regionen in dem Bereich. Demgemäß kann ein Benutzer
zuerst den zu scannenden Bereich studieren, um Regionen akkurat
zu definieren, beispielsweise mit unterschiedlichen Prioritäten
oder alternativ kann ein Detektionsalgorithmus automatisch eine
schnelle Kategorisierung in dieser Hinsicht bereitstellen.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das zweite Steuerelement ausgebildet
zum Scannen der Messpixel in dem Bereich in einer Sequenz bzw. Abfolge,
so dass eine Anpassung bzw. Einstellung der optischen Achse der
Linsenanordnung minimiert wird. Demgemäß kann,
wenn beispielsweise ein ringförmiges Objekt gescant wird,
ein herkömmlicher horizontaler Linienscan vermieden werden,
und das Objekt kann beispielsweise um seinen Umfang herum gescant
werden, so dass die Messpixel um die Ringform hintereinanderfolgend
mit minimalen Anpassungen der optischen Achse der Linsenanordnung
für jeden Schritt gescant werden, was die Messzeit verringert.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren in dem Bereich der Vielzahl der Messpixel durch Einführen
einer zweidimensionalen Darstellung eines Profils in dem Bereich
und durch Auswählen einer Vielzahl von Pixel an einer Kontur
der zweidimensionalen Darstellung des Profils in dem Bereich als
Messpixel. Demgemäß kann die Verteilung von Messpixeln
in dem zu scannenden Bereich angepasst werden gemäß einem
tatsächlichen Profil des zu messenden Objekts, wie zum
Beispiel einem zylindrischen Profil, wenn Positionen in einem Tunnel
gemessen werden.
-
Gemäß einem
vorteilhaften Beispiel umfasst das Bild mindestens ein erstes und
ein zweites Teilbild und die mindestens zwei Teilbilder umfassen
die Vielzahl der Messpixel. Demgemäß kann das
Bild zusammengesetzt werden aus mehreren Teilbildern mit Messpixeln
in jedem Teilbild oder in nur einem Teilbild.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren anderer Positionen, die zu messen sind zwischen den
Messpixeln des ersten Teilbildes und des zweiten Teilbildes. Demgemäß sind
zu messende Positionen nicht begrenzt auf Positionen entsprechend
zu den Messpixeln von einem Teilbild, aber Abstandsinformation ist
auch erhaltbar von Positionen, die nicht gezeigt sind auf irgendeinem
Teilbild.
-
Gemäß einem
anderen vorteilhaften Beispiel ist das erste Steuerelement ausgebildet
zum Definieren der anderen zu messenden Positionen durch Verarbeiten
von mindestens einem von dem ersten Teilbild und dem zweiten Teilbild
durch Definieren der anderen Positionen entlang einer Linie, die
mindestens zwei Messpixel verbindet oder unter Verwenden eines Extrapolationsalgorithmus
zum Extrapolieren einer Kante oder eines anderen Objektmerkmals
des Objekts in mindestens einem von dem ersten Teilbild und dem
zweiten Teilbild, detektiert durch einen Detektionsalgorithmus.
Demgemäß ist es möglich, die Abstände
zu Positionen zu messen, die nicht gezeigt sind in irgendeinem der
Teilbilder durch Analysieren von mindestens einem der Teilbilder,
beispielsweise zum Erhalten einer Näherung eines Teils
eines Objektmerkmals, das nicht gezeigt ist in einem der mindestens
zwei Teilbilder.
-
Gemäß einem
anderen vorteilhaften Beispiel ist die Positionierungseinheit ausgebildet
zum Messen horizontaler und vertikaler Winkel zu der Vielzahl der
Positionen auf dem Objekt mit Bezug zu einem Referenzachsensystem.
Demgemäß ist es möglich, die Positionen
auf dem Objekt in sphärischen Koordinaten zu erhalten.
-
Gemäß einem
anderen vorteilhaften Beispiel umfasst das optische Instrument ferner
eine Anzeigeeinheit zum Anzeigen des erfassten Bildes. Demgemäß kann
ein Benutzer das erfasste Bild sofort draußen im Einsatz
sehen.
-
Gemäß einem
anderen vorteilhaften Beispiel ist die Anzeigeeinheit ausgebildet
zum Anzeigen des erfassten Bildes und gemessener Positionen in überlappender
Art und Weise (Superposition). Demgemäß kann die
dreidimensionale Bildinformation auf einer zweidimensionalen Anzeige
betrachtet werden.
-
Gemäß einem
anderen vorteilhaften Beispiel ist die Anzeigeeinheit eine berührungsempfindliche Anzeigeeinheit
für mindestens eines von einem Definieren in dem Bild des
zu scannenden Bereichs durch einen Benutzer und Erhalten des Objektmerkmals
durch einen Benutzer. Demgemäß kann ein Benutzer
einfach den zu scannenden Bereich definieren durch beispielsweise
Berühren der Anzeige und Definieren eines Objektmerkmals,
was eine schnelle und akkurate Auswahl eines Bereichs und eines
Objektmerkmals, das von Interesse ist, ermöglicht.
-
Gemäß einem
anderen vorteilhaften Beispiel umfasst das optische Instrument ferner
eine Umwandlungseinheit zum Umwandeln einer Vielzahl von Messpixeln
in Koordinaten der zu messenden Positionen. Demgemäß ist
es möglich für jedes Messpixel, Koordinaten der
entsprechenden Positionen bereitzustellen, die von der Positionierungseinheit
zum Einstellen der optischen Achse verwendet werden können.
-
Gemäß einem
anderen vorteilhaften Beispiel wird die Umwandlung ausgeführt
unter Verwendung eines Umwandlungsalgorithmus. Demgemäß können
Koordinaten der Position schnell erhalten werden durch Bereitstellen
der Messpixel bei dem Umwandlungsalgorithmus.
-
Gemäß einem
anderen vorteilhaften Beispiel wird die Umwandlung ausgeführt
unter Verwendung einer Umwandlungstabelle, die jedes Messpixel mit Koordinaten
der zu messenden Positionen korreliert. Demgemäß können
die Koordinaten einer Position entsprechend zu einem Messpixel schnell
erhalten werden durch Bezugnehmen auf die Umwandlungstabelle ohne
irgendeine Verzögerung aufgrund einer Verarbeitung von
Daten.
-
Gemäß einem
anderen vorteilhaften Beispiel stellen mindestens zwei der Vielzahl
der Messpixel Kernpunktpixel dar, und das erste Steuerelement ist ausgebildet
zum Umwandeln der Kernpunktpixel in eine Näherung von Koordinaten
der Kernpositionen, die zu messen sind, unter Annahme eines Standardabstands
zwischen den Kernpositionen und dem optischen Instrument, und das
zweite Steuerelement ist ausgebildet zum Instruieren der Positionierungseinheit
zum Anpassen bzw. Einstellen der optischen Achse der Linsenanordnung
auf die zu messenden Kernpositionen, und zum Instruieren der Abstandsmesseinheit
zum Messen der Abstände zu den Kernpositionen, wobei das
erste Steuerelement ferner ausgebildet ist zum Neuberechnen der
Koordinaten der Kernpositionen auf Grundlage der gemessenen Abstände.
Demgemäß können die Koordinaten der Kernpositionen
erhalten werden mit hoher Genauigkeit, da die Koordinaten iterativ
erhalten werden, was Messfehler eliminiert aufgrund von Einstellungs-Offsets
zwischen der Kamera und der Geometrieachsen des optischen Instruments
oder der Abstandsmesseinheit.
-
Gemäß einem
anderen vorteilhaften Beispiel umfasst das optische Instrument ferner
mindestens einen Transceiver zum Empfangen von Steuerdaten und eine
abnehmbare Fernsteuereinheit mit einer Betriebssteuereinheit, einer
Anzeigeeinheit und einem Transceiver zum Fernsteuern des optischen
Instruments. Demgemäß kann ein mit dem optischen Instrument
arbeitender Benutzer sich frei in der Umgebung des optischen Instruments
bewegen.
-
Gemäß einer
anderen Ausführungsform umfasst ein Verfahren zum Erhalten
von Abstands- und Bildinformation eines Objekts ein Anvisieren des
Objekts mit einer Linsenanordnung, Erfassen eines Bildes von mindestens
einem Teil des Objekts mit einer Kamera, angeordnet zu der optischen
Achse der Linsenanordnung, Definieren in dem Bild eines Bereichs,
der zu scannen ist, Erhalten eines Objektmerkmals des Objekts in
dem Bereich, Definieren in dem Bereich einer Vielzahl von Messpixel
entsprechend zu einer Vielzahl von Positionen auf dem Objekt mit
einer erhöhten Dichte der Messpixel bei dem Objektmerkmal,
Anpassen bzw. Einstellen der optischen Achse der Linsenanordnung
relativ zu mindestens einer Referenzachse sequentiell auf die Vielzahl der
Positionen des Objekts, und Messen der Abstände zu dem
Objekt bei der Vielzahl von Positionen.
-
Gemäß einer
anderen Ausführungsform kann ein Programm bereitgestellt
werden, das Instruktionen enthält, ausgebildet zum Hervorrufen
bei einem Datenverarbeitungsmittel, dass ein Verfahren mit den obigen
Merkmalen ausgeführt wird.
-
Gemäß einer
anderen Ausführungsform kann ein computerlesbares Medium
bereitgestellt werden, in dem ein Programm verkörpert ist,
wobei das Programm einen Computer dazu bringt, das Verfahren mit
den obigen Merkmalen auszuführen.
-
Gemäß einer
anderen Ausführungsform kann ein Computerprogrammprodukt
bereitgestellt werden, das das computerlesbare Medium umfasst.
-
Weitere
vorteilhafte Ausführungsformen der Erfindung sind in den
Ansprüchen offenbart.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 stellt
ein optisches Instrument gemäß einer Ausführungsform
der Erfindung dar.
-
2 stellt
Schritte eines Verfahrens zum Erhalten von Abstands- und Bildinformation
gemäß einer Ausführungsform der Erfindung
dar.
-
3 stellt
ein Bild eines Gebäudes mit einem Riss dar zum Erklären
der Schritte des in 2 gezeigten Verfahrens.
-
4 stellt
ein Bild einer Ecke eines Gebäudes dar zum detaillierteren
Erklären der Schritte des Verfahrens von 2.
-
5 stellt
ein Bild einer Landschaft dar zum Erklären von Schritten
eines Verfahrens gemäß einer anderen Ausführungsform
der Erfindung.
-
6 stellt
Schritte einer Modifizierung des in 2 gezeigten
Verfahrens dar.
-
7 stellt
Schritte einer Modifizierung des in 2 gezeigten
Verfahrens dar.
-
8 stellt
einen Zylinder dar, der zu scannen ist, zum Erklären der
Schritte eines Verfahrens gemäß einer anderen
Ausführungsform der Erfindung.
-
9 stellt
Schritte einer Modifizierung des in 2 gezeigten
Verfahrens dar.
-
10 stellt
eine Struktur dar mit überlagerten Teilbildern zum Erklären
des Verfahrens, das in 9 gezeigt ist.
-
11 stellt
Schritte eines Verfahrens dar zum Erhalten von genauer Abstands-
und Bildinformation gemäß einer Ausführungsform
der Erfindung, insbesondere darstellend Vor-Scan-(Pre-Scan)-Schritte.
-
12A bis 12C stellen
ein Bild eines Polygons zum Erklären der Schritte des Verfahrens dar,
das in 11 gezeigt ist.
-
13 stellt
Schritte einer Modifizierung des in 11 gezeigten
Verfahrens dar.
-
14 stellt
Schritte eines Verfahrens dar zum Erhalten von genauer Abstands-
und Bildinformation gemäß einer anderen Ausführungsform
der Erfindung, kombinierend mehrere Aspekte der in 9 und 11 gezeigten
Verfahren.
-
15 stellt
Elemente eines optischen Instruments gemäß einer
Ausführungsform der Erfindung dar.
-
16 stellt
Elemente eines optischen Instruments gemäß einer
Ausführungsform der Erfindung dar, insbesondere ein optisches
Instrument mit Fernsteuerfähigkeiten.
-
DETAILLIERTE BESCHREIBUNG
DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
-
Bevorzugte
Ausführungsformen der Erfindung werden mit Bezug auf die
Figuren beschrieben. Es wird bemerkt, dass die folgende Beschreibung
nur Beispiele enthält und nicht als die Erfindung begrenzend
ausgelegt werden sollte.
-
Ausführungsformen
der Erfindung betreffen im Allgemeinen ein Erhalten von Abstands-
und Bildinformation eines Objekts, und insbesondere ein Verbessern
der Geschwindigkeit einer Datenerfassung durch intelligentes Auswählen
von zu messenden Positionen und ein Verbessern der Genauigkeit der Datenerfassung
durch Neuberechnen von Koordinaten von ausgewählten Positionen
auf einem Objekt. Kurz gesagt kann ein Bild erfasst werden und ein
zu scannender Gereicht und ein Objektmerkmal des Objekts können
definiert werden, wobei Messpixel, die Positionen auf dem Objekt
entsprechen, in dem Bereich definiert werden können mit
erhöhter Dichte der Messpixel bei dem Objektmerkmal. Nachfolgend werden
die Abstände zu dem Objekt bei den Positionen gemessen.
-
1 stellt
Elemente eines optischen Instruments 100 gemäß einer
Ausführungsform der Erfindung dar, umfassend eine Steuereinheit 150 und
eine Erfassungseinheit 160.
-
Die
Steuereinheit 150 ist verbunden mit der Erfassungseinheit 160 zum
Austauschen von Daten, beispielsweise kann die Steuereinheit die
Erfassungseinheit 160 instruieren, Daten zu erfassen, und die
erfassten Daten werden an die Steuereinheit 150 gesandt.
Irgendeine Art für eine Datenübertragung ist denkbar,
wie zum Beispiel durch feste Verdrahtung oder drahtlose Datenübertragung.
-
Die
Steuereinheit 150 umfasst ein erstes Steuerelement 152 und
ein zweites Steuerelement 154, die realisiert werden können
durch eine Hardware-Anordnung, wie zum Beispiel durch festverdrahtete
Schaltungen, ASICs (anwendungsspezifische integrierte Schaltungen)
oder Software oder irgendeine passende Kombination der obigen. Die Funktionen,
die durch das erste Steuerelement 152 und das zweite Steuerelement 154 ausgeführt
werden, werden im Detail unten beschrieben.
-
Die
Erfassungseinheit 160 umfasst eine Linsenanordnung 110,
eine Kamera 120, eine Abstandsmesseinheit 130 und
eine Positionierungseinheit 140, wobei die Schritte dieser
Elemente gesteuert werden durch die Steuereinheit 150.
-
In
einem Beispiel enthält die Linsenanordnung 110 eine
Fokussierlinse, die bewegbar ist entlang eines mechanischen Pfads,
um auf ein Objekt zu fokussieren, und bevorzugt mindestens zwei
Linsen, die ein Teleskop bilden, wobei die Linsenanordnung zum Anvisieren
des Objekts eine optische Achse definiert.
-
Die
Kamera 120, die zu der optischen Achse der Linsenanordnung
angeordnet ist, zum Erfassen eines Bilds von mindestens einem Teil
des Objekts, und bevorzugt positioniert ist hinter der Linsenanordnung
in der Bildebene, kann zusammengesetzt sein aus einem passenden
Bildgebungsgerät, beispielsweise einem zweidimensionalen
Array von Sensorelementen, die in der Lage sind, Bildinformation
mit einer Anzahl von Pixeln zu erzeugen, die im Allgemeinen der
Anzahl der Elemente des Arrays entsprechen, wie zum Beispiel eine
CCD-(Charge Coupled Device)-Kamera oder komplementäre Metall-Oxid-Halbleiter
(CMOS, Complementary Metal-Oxide Semiconductor)-Kamera. Solch ein
Sensor-Array kann zusammengesetzt sein aus 1000 × 1000
Sensorelementen zum Erzeugen von digitalen Bildern mit 106 Bildpixeln. In einem optischen Instrument,
wie zum Beispiel einem Videotachymeter oder Tacheometer, kann die
tatsächliche Beobachtungsrichtung definiert werden durch
eine Beobachtungsrichtung von einem Punkt auf oder einem der Elemente
der zweidimensionalen Anordnung der Sensorelemente, beispielsweise
nahe oder im Zentrum des Arrays, und durch die mindestens eine Linse.
-
Die
Abstandsmesseinheit 130 der Erfassungseinheit 160 ist
bereitgestellt zum Messen eines Abstands von dem optischen Instrument
zu dem Objekt entlang einer Messachse der Abstandsmesseinheit parallel
zu der optischen Achse der Linsenanordnung. Alternativ kann die
Messachse auch mit der optischen Achse übereinstimmen.
-
Ferner
stellt die Abstandsmesseinheit 130 einen entsprechenden
Messwert der Steuereinheit 150 zur Verfügung.
Beispielsweise enthält die Abstandsmesseinheit 130 eine
kohärente Lichtquelle, wie zum Beispiel einen Infrarotlaser
oder ein passendes Laserabstands-Messgerät, wie es in der
Technik bekannt ist, und bevorzugt einen schnellen Reflektor-los
arbeitenden EDM (fast reflectorless working EDM).
-
Die
Positionierungseinheit 140 ist bereitgestellt zum Anpassen
der optischen Achse der Linsenanordnung relativ zu mindestens einer
Referenzachse. Beispielsweise wird die Positionierungseinheit 140 realisiert
durch eine elektromechanische Anordnung, die bevorzugt einen Magnetservoantrieb
oder einen anderen schnellen Antrieb zum präzisen Positionieren
der Erfassungseinheit 160 umfasst.
-
Es
wird bemerkt, dass die Positionierungseinheit 140 in 1 als
Teil der Erfassungseinheit 160 gezeigt ist, aber die Positionierungseinheit
kann auch unabhängig in dem optischen Instrument bereitgestellt
werden, da sie zum Bewegen der Linsenanordnung 110, der
Kamera 120, der Abstandsmesseinheit 130 auf eine
Position dient, die es ermöglicht, das Objekt anzuvisieren
und optional eine Abstandsmessung bei dieser Position des Objekts
durchzuführen.
-
Da
die Positionierungseinheit 140 bewegbare Komponenten, wie
zum Beispiel Antriebe bzw. Drives enthält, behalten Teile
der Positionierungseinheit ihre Position im Raum, das heißt,
ihre Position ist fest mit Bezug auf beispielsweise einen Tripod
bzw. Stativ, auf dem das optische Instrument sich befindet, und
Teile der Positionierungseinheit 140 bewegen sich im Raum
mit Bezug auf ein festes Koordinatensystem, beispielsweise definiert
durch einen Schnittpunkt von allen drei Achsen des optischen Instruments,
der als Ursprung bezeichnet wird, und ihre Anordnung zu einer Basis,
wie zum Beispiel einem Stativ, Ständer oder anderem Unterstützungselement
(nicht gezeigt).
-
Während
des in 1 gezeigten Betriebs der Anordnung, steuert die
Steuereinheit 150 die Erfassungseinheit 160, wodurch
das erste Steuerelement 152 in einem erfassten Bild einen
zu scannenden Bereich definiert, ein Objektmerkmal des Objekts in
dem Bereich enthält, und in dem Bereich eine Vielzahl von
Messpixeln definiert, die einer Vielzahl von Positionen auf dem
Objekt entsprechen mit einer erhöhten Dichte der Messpixel
bei dem Objektmerkmal.
-
Nachdem
die Messpixel definiert sind in dem Bereich des Bildes, werden die
den Positionen entsprechende Richtungen erhalten und übertragen
an das zweite Steuerelement 154. Nachfolgend instruiert
das zweite Steuerelemente 154 die Positionierungseinheit,
die optische Achse der Linsenanordnung sequentiell auf die Vielzahl
der Positionen auf dem Objekt einzustellen, und instruiert die Abstandsmesseinheit,
einen Abstand zu dem Objekt für jede Position zu messen.
-
Im
Folgenden werden Betriebsschritte des optischen Instruments mit
Bezug auf 2 beschrieben. 2 stellt
ein Flussdiagramm von Schritten eines Verfahrens dar zum Erhalten
von Abstands- und Bildinformation, wie zum Beispiel während
einem Betrieb des in 1 gezeigten optischen Instruments.
-
Das
optische Instrument kann zusammengesetzt sein aus einem Video-Vermessungsinstrument, wie
zum Beispiel einem Video-Theodolit oder Video-Tacheometer, auch
bekannt als ein Tachymeter oder Totalstation, oder irgendeiner anderen
Art von optischem Instrument, das verwendet wird zum Bestimmen von
einer Position eines Objekts und Erfassen eines Bildes des Objekts.
Das optische Instrument wird bevorzugt auf Grundlage von Kalibrierungsmessungen
an individuellen Positionen an einem bevorzugt bekannten Objekt
im Vorhinein eingestellt, wie es später beschrieben wird,
oder wie es durch irgendeine andere Kalibrierungstechnik gemacht
werden kann.
-
In
einem ersten Schritt 210 wird, wenn der Betrieb startet,
ein Objekt mit einer Linsenanordnung anvisiert, beispielsweise der
Linsenanordnung 110. Das Anvisieren des Objekts mit der
Linsenanordnung 110 enthält bevorzugt ein Anpassen
der optischen Achse der Linsenanordnung relativ zu mindestens einer
Referenzachse des optischen Instruments, so dass die optische Achse
der Linsenanordnung in die Richtung des Objekts zeigt. In anderen
Worten wird, wo immer es passt, die tatsächliche Beobachtungsrichtung,
die durch die optische Achse dargestellt wird, zu dem Objekt eingestellt.
-
In
einem nachfolgenden Schritt 220 wird ein Bild erfasst von
mindestens einem Teil des Objekts mit der Kamera 120, die
zu der optischen Achse der Linsenanordnung 110 angeordnet
ist. Die Erfassung kann automatisch getriggert werden, beispielsweise nachdem
eine gewisse Zeit abgelaufen ist, oder kann durch einen Benutzer
getriggert werden. Es wird bemerkt, dass abhängig von der
Größe und dem Abstand des Objekts, das Sichtfeld
der Kamera nicht ausreichend sein kann zum Erfassen des gesamten Objekts,
welches ein Gebäude sein kann, zwei Gebäude oder
ein Gebäudeblock oder selbst Teile einer Stadt. In gewissen
Anwendungen kann es daher notwendig sein, mehrere Bilder zu erfassen,
was später zu beschreiben ist, und als Teilbilder bezeichnet
wird, um ein Bild des gesamten Objekts zusammen zu bauen.
-
In
einem Schritt 230 wird, nachdem das Objekt anvisiert ist,
und ein Bild von mindestens einem Teil des Objekts gemäß der
Schritte 210 und 220 erfasst ist, ein zu scannender
interessierender Bereich definiert in dem erfassten Bild. Beispielsweise
wird der zu scannende Bereich manuell definiert oder durch Verarbeiten
des Bilds unter Verwendung eines Detektionsalgorithmus zum Detektieren
des Objekts oder des mindestens einen Teil des Objekts. Dies kann
durch einen passenden Bildverarbeitungsalgorithmus realisiert werden,
der auf die Pixeldaten angewandt wird, die das Bild darstellen.
-
Unter
Betrachtung einer Landschaft mit einem Gebäude im Zentrum
kann beispielsweise der Detektionsalgorithmus zwischen dem Gebäude
und den es umgebenden Regionen differenzieren, wie zum Beispiel
Felder und Bäume, und kann daher ein Gebäude als
interessierenden Bereich definieren, nämlich als zu scannenden
Bereich.
-
Alternativ
ist es auch denkbar, das Bild auf einer passenden Anzeigeeinheit
anzuzeigen, und die Entscheidung hinsichtlich des zu scannenden
Bereichs einem Benutzer zu überlassen, der beispielsweise
mit einer Computermaus oder einem anderen Zeigegerät auf
Pixel auf dem Bild klickt, um den zu scannenden Bereich zu definieren.
Ferner kann es bevorzugt sein, das Bild auf einer berührungsempfindlichen
Anzeigeeinheit anzuzeigen, wobei die Pixel nur durch den Benutzer
berührt werden müssen zum Anzeigen des zu scannenden
Bereichs.
-
In
einem Schritt 240 wird ein Objektmerkmal des Objekts in
dem Bereich erhalten, das heißt, dass der Bereich ein Teil
des gesamten erfassten Bildes ist, und analysiert oder im Detail
verarbeitet wird, um kleinere genauere Merkmale des Objekts zu erhalten,
das in dem Bereich gezeigt ist. Solch ein Objektmerkmal kann erhalten
werden durch Verarbeiten des Bereichs in dem Bild unter Verwendung
eines Detektionsalgorithmus zum Detektieren des Objektmerkmals,
zum Beispiel einer Ecke oder einem Fenster eines Gebäudes
oder einem Riss in einer Gebäudewand.
-
Ein
Detektionsalgorithmus kann irgendein passender Bildverarbeitungsalgorithmus
sein, der im Stand der Technik bekannt ist, zum Detektieren von Ecken
oder anderen unstetigen Variationen in einem Objekt. Alternativ
ist es, wie oben beschrieben, auch denkbar, dass ein Benutzer Objektmerkmale
direkt in einem angezeigten Bild hervorheben kann durch Klicken
auf gewisse Pixel in dem Bild mit einer Computermaus oder durch
Berühren einer berührungsempfindlichen Anzeigeeinheit
mit einem Finger oder einem Stift.
-
In
einem Schritt 250 werden eine Vielzahl von Messpixeln,
die einer Vielzahl von Positionen auf dem Objekt entsprechen, in
dem Bereich definiert, wobei eine erhöhte Dichte von Messpixeln
definiert wird bei dem Objektmerkmal.
-
Im
Einzelnen definiert, sobald der zu scannende Bereich definiert wird,
und das Objektmerkmal erhalten wird, das erste Steuerelement 152 in
dem Bereich eine Vielzahl von Messpixeln. Beispielsweise kann ein
Benutzer das erste Steuerelement 152 voreinstellen, um
jedes zehnte Pixel des Bereichs als ein Messpixel zu definieren,
so dass Messdaten später erhalten werden für jede
Position auf dem Objekt, entsprechend zu dem definierten Messpixel.
Die Menge an Messpixel und der Abstand zwischen zwei Messpixeln
kann abhängen von einer gewünschten Gitterdichte
und benötigten Genauigkeit.
-
Es
wird bemerkt, dass je dichter das Gitter ist und je höher
die Genauigkeit ist, desto länger beträgt die benötigte
Scanzeit. Deshalb ist es auch denkbar, eine Scanzeit einzustellen,
und die maximal mögliche Gitterdichte und Genauigkeit für
die voreingestellte Zeit zu berechnen. Ähnlich ist es bevorzugt,
da Variationen an dem Objekt größer sind als bestimmte Objektmerkmale,
die Dichte der Messpixel bei solchen Objektmerkmalen zu erhöhen.
Beispielsweise kann bei einem detektierten Objektmerkmal jedes zweite
Pixel des Bereichs definiert werden als Messpixel, so dass eine
Auflösung fünfmal höher als in dem restlichen
Bereich erhalten werden kann. Die gleichen Betrachtungen, wie oben
beschrieben, mit Bezug auf eine Gitterdichte, Genauigkeit und Scanzeit,
treffen auch für die Messpixel bei dem Objektmerkmal zu.
Alternativ kann es auch möglich sein, dass der Benutzer
individuelle Pixel definiert als Messpixel, was jedoch aufwendig
sein kann und sehr zeitverbrauchend.
-
In
einem Schritt 260 wird die optische Achse der Linsenanordnung
sequentiell bzw. nacheinander angepasst auf die Vielzahl der Positionen,
das heißt, das zweite Steuerelement 154 instruiert
die Positionierungseinheit zum Anpassen der optischen Achse der
Linsenanordnung, so dass die optische Achse sequentiell auf die
zu messenden Positionen auf dem Objekt zeigt. Dadurch werden Koordinaten
auf den Positionen mit Bezug auf jedes entsprechende Messpixel bereitgestellt,
so dass es der Positionierungseinheit ermöglicht wird,
die Linsenanordnung zu bewegen und speziell auch die Abstandsmesseinheit, auf
einen neuen Ort zum Zeigen auf die Position.
-
Hier
wird bemerkt, dass die Koordinaten nur Koordinaten darstellen können
hinsichtlich der Richtung der Position, die zu messen ist, beispielsweise ein
horizontaler und vertikaler Winkel, was leicht ableitbar ist von
dem Ort des Pixels in dem Bild, wie es später beschrieben
wird.
-
Letztendlich
werden in Schritt 270 Abstände zu dem Objekt bei
einer Vielzahl von Positionen gemessen.
-
Im
Einzelnen wird in dem in 2 gezeigten Beispiel zuerst
die optische Achse auf eine erste Position (Schritt 260)
eingestellt und der Abstand zu dieser ersten Position wird gemessen
(Schritt 270) und dann wird die optische Achse eingestellt
bzw. justiert auf eine zweite Position (Schritt 260), und
der Abstand zu dieser zweiten Position wird gemessen (Schritt 270)
bis alle Abstände zu der Vielzahl der Position gemessen
werden, wie es in Schritt 280 gekennzeichnet ist.
-
Für
die Messung kann ein Pulsverfahren verwendet werden, in dem die
Ausbreitungszeit eines Signals, beispielsweise eines optischen Pulses,
gemessen wird, was direkt proportional ist zu dem Abstand, da die
Lichtgeschwindigkeit und der Brechungsindex des Mediums, beispielsweise
Luft, bekannt ist. Alternativ kann ein Verfahren verwendet werden,
das als das Phasenverfahren bekannt ist, wobei die Phase einer übertragenen
Welle von dem Instrument und die Phase einer zurückreflektierten Welle
verglichen werden. Jedoch ist, da der Abstand gewöhnlich
größer ist als die Wellenlänge, das Ergebnis
mehrdeutig, was gelöst werden kann durch mehrere Übertragungsfrequenzen ähnliche
einer heterodynen Phasendetektion.
-
Deshalb
werden die Abstände zu dem Objekt bei der Vielzahl der
Positionen mit hoher Genauigkeit gemessen durch Einstellen der optischen
Achse der Linsenanordnung für jede Abstandsmessung aufs neue
und Messen des Abstands für jede Position individuell mit
einem kohärenten Lichtemittierenden Gerät, wie
zum Beispiel einem Laser, das eines der oben beschriebenen Verfahren
verwendet.
-
Es
wird bemerkt, dass die Ausführungsform nicht begrenzt ist
auf die oben beschriebene Zeitsequenz von Schritten, sondern auch
andere Zeitsequenzen der Schritte vorgesehen sein können,
die zu dem gleichen Ergebnis führen.
-
Im
Folgenden werden mit Bezug auf 3 und 4 Beispiele
der vorher beschriebenen Schritte im Einzelnen beschrieben.
-
3 stellt
insbesondere eine Situation dar, wo ein bestimmtes Objektmerkmal
vorliegt, und die oben beschriebenen Schritte können ausgeführt
werden.
-
Im
Einzelnen stellt 3 ein Bild eines Gebäudes 330 dar,
in dem ein Riss oder eine andere Unterbrechung 320 in der
Wand des Gebäudes 330 beobachtet wird. Das Bild
des Gebäudes kann erfasst werden durch das in 1 gezeigte
optische Instrument. Hier wird nur das optische Instrument 310 für
darstellende Zwecke zum Erklären des Scanverfahrens gezeigt,
und es sollte verstanden werden, dass das optische Instrument nicht
physikalisch den Bereich innerhalb des Bildes scant bzw. abtastet, aber
die dreidimensionale Szene, die das Objekt in der Realität
enthält. Das Bild ist auf einer Anzeige des optischen Instruments
gezeigt, die bevorzugt abnehmbar von dem Instrument ist, um umher
getragen zu werden.
-
Das
in 3 gezeigte Bild umfasst mehrere Pixel und für
darstellende Zwecke wird eine kleine Menge an Messpixeln als Punkte
entlang des Risses 320 zwischen den gestrichelten Linien
gezeigt. Beispielsweise kann der zu scannende Bereich definiert werden
als das Gebäude 330 oder die Wand 340, und
das Objektmerkmal ist der Riss an der Wand 340.
-
Keine
Messpixel sind auf der Wand 340 gezeigt, außer
in der Nähe des Risses, aber es ist klar aus der Beschreibung, dass
auch Messpixel definiert werden können auf der Wand, jedoch
kann, da es keine weiteren Veränderungen oder Variationen
auf der Wand gibt, außer dem Riss, die Dichte der Messpixel
auf der Wand viel kleiner sein als entlang des Risses. Der Riss 320,
der beispielsweise das Objektmerkmal darstellt, kann in viel größeren
Einzelheiten durch eine erhöhte Dichte an Messpixeln gemessen werden,
die in vertikalen Linien vom Boden zu dem oberen Ende gescant werden.
-
Wie
oben beschrieben, kann der zu scannende Bereich, beispielsweise
das Gebäude 330 oder die Wand 340, definiert
werden durch den Benutzer oder durch einen Detektionsalgorithmus,
der das Gebäude 330 oder die Wand 340 in
dem Bild detektiert. Sobald der Bereich ausgewählt ist,
kann eine detailliertere Analyse des Bereichs durchgeführt
werden, wobei das Objektmerkmal, beispielsweise der Riss 320,
erhalten wird durch einen Benutzer oder einen Detektionsalgorithmus,
der Irregularitäten auf der Wand 340 detektiert.
-
4 stellt
insbesondere eine Situation dar bei einem Scannen eines interessierenden
Merkmals an einem Gebäude oder anderem Objekt. 4 stellt ein
Bild eines Teils des Objekts dar, beispielsweise eine Ecke 420 eines
Gebäudes 430, wobei der zu scannende Bereich definiert
wird als die Seitenwände des Gebäudes 430,
was definiert werden kann durch einen Benutzer oder durch einen
Detektionsalgorithmus, wie oben beschrieben. Das optische Instrument 410 wird
nur für darstellende Zwecke gezeigt, da in 4 wieder
ein Bild gezeigt wird und nicht das reale Gebäude.
-
In
diesem Beispiel kann die Ecke 420 des Gebäudes 430 das
Objektmerkmal darstellen und kann erhalten werden durch entweder
einen Benutzer, der das optische Instrument betreibt, oder durch einen
Detektionsalgorithmus, der Variationen in dem Bereich, wie oben
beschrieben, detektiert. Deshalb werden, wie in Schritt 250 erklärt,
eine Vielzahl von Messpixeln, die eine Vielzahl von Positionen auf
dem Objekt in der Realität entsprechen, definiert, und
die Dichte der Messpixel erhöht sich bei der Ecke 420, das
heißt, der in 4 gezeigte vertikale Scan zeigt eine
erhöhte Dichte der Scanlinien um die Ecke 420, da
dies eine unstetige Variation in dem zu scannenden Bereich darstellt,
die genauer analysiert werden muss.
-
Nach
der Definition der Messpixel in dem Bild kann das optische Instrument
dann anfangen, die tatsächlichen Abstände zu dem
Objekt bei der Vielzahl der Positionen, die der Vielzahl der Messpixel
entsprechen, zu messen, dadurch wird die optische Achse der Linsenanordnung
sequentiell auf die Vielzahl der Positionen justiert. Beispielsweise
bewegt, beim Starten bei den Messpixeln unten links in der linken
Ecke, die Positionierungseinheit 140 die Erfassungseinheit
auf die Koordinaten der Position, die dem oberen linken Messpixel
entspricht, und eine Messung wird durchgeführt. Nachfolgend ändert
die Positionierungseinheit die Position auf die Position, die dem
Messpixel entspricht, das sich eins unter dem oberen linken Messpixel
befindet, und so weiter.
-
5 stellt
insbesondere mehrere Regionen dar, die den interessierenden Bereich
bilden. Hier wird ein Bild gezeigt mit mehreren Regionen 510, 520 und 530.
-
In
diesem Beispiel wird der zu scannende Bereich definiert durch die
Regionen 510 und 520, wobei diese Regionen Regionen
sind mit einer niedrigen Messpixeldichte bzw. einer hohen Messpixeldichte.
Die Regionen können zugeordnet werden gemäß der
Wichtigkeit, Auflösungsanforderungen und Genauigkeitsanforderungen,
was die Möglichkeit eröffnet, verschiedene Scanzeiten
innerhalb verschiedener Regionen zu verwenden. Die Regionen können
zu einer Region mit einer geringen Messpixeldichte für
Regionen mit kleinen Variationen in der Struktur zugeordnet werden,
Regionen mit einer hohen Messpixeldichte für Regionen mit
großen Variationen in der Struktur und Regionen ohne Messpixel für
Regionen, die nicht von Interesse sind, beispielsweise der Himmel
und die Bäume in 5.
-
Die
Definition der getrennten Regionen kann ausgeführt werden
durch einen Benutzer, der das Bild betrachtet, oder durch einen
Algorithmus, der eine Bildanalyse ausführt, die Kontrast,
Farbe, Muster und Kantendetektion enthält. Die Analyse
wird Bereiche mit ähnlichen Eigenschaften detektieren und diese
in Regionen kombinieren. Die erhaltenen Regionen können
dann automatisch kategorisiert werden durch den Algorithmus oder
den Benutzer hinsichtlich ihrer Eigenschaften oder Wichtigkeit.
-
Die
Algorithmen zur Kategorisierung können verschiedene Profile
für verschiedene Anwendungen aufweisen, beispielsweise
Tunnel, Architektur, Forensik, etc. Ferner können Regionen
definiert werden, die detaillierter zu analysieren sind, beispielsweise
zum Detektieren eines Objektmerkmals, wie zum Beispiel einem Riss
(nicht gezeigt) in der Wand des Gebäudes 510,
in einer Art und Weise ähnlich zu der oben beschriebenen.
Nach einer Auswahl und Analyse der Regionen kann ein erster grober
Scan bzw. Abtastung ausgeführt werden unter Verwendung
von nur einem Zehntel der Messpixel beispielsweise, die in dem Bereich
definiert sind, zum Messen eines Abstands zu den entsprechenden
Positionen zum Abschätzen einer Scanzeit des zu scannenden Bereichs,
so dass der Benutzer entscheiden kann, den Bereich mit den vorher
ausgewählten Regionen zu scannen oder unterschiedliche
Messpixeldichten neu zu auswählen für die Regionen
zum Beschleunigen des Scans. Es kann vorteilhaft sein, als groben Scan,
einen Vor-Scan zu verwenden, wie unten beschrieben wird.
-
Deshalb
kann die Scanzeit verringert werden, was zu einem verringerten Leistungsverbrauch und
verringerten Bedarf an Wartung und Kalibrierung des optischen Instruments
führt.
-
Im
Folgenden wird eine weitere Ausführungsform mit Bezug auf 6 beschrieben,
die insbesondere ein Scanverfahren darstellt. 6 beschreibt
eine Modifizierung des Verfahrens, das vorher mit Bezug auf 2 diskutiert
wurde. In diesem Verfahren von 6 sind die
Schritte 210 bis 240 die gleichen, wie vorher
mit Bezug auf 2 diskutiert. Ferner ist der
Schritt 650, gezeigt in 6, der gleiche
wie der Schritt 250, der mit Bezug auf 2 beschrieben
wurde, und wird daher nicht detailliert erklärt, um eine
unnötige Wiederholung zu vermeiden.
-
In
einem Schritt 660 wird die optische Achse der Linsenanordnung
wieder sequentiell auf die Vielzahl der Positionen auf dem Objekt
justiert, aber nun wird die Anpassung bzw. Einstellung so ausgeführt, dass
die Bewegung der Positionierungseinheit minimiert wird, wenn die
Messpixel gescant werden. Dann werden in Schritt 670 die
Abstände zu dem Objekt bei der Vielzahl der Positionen
gemessen.
-
Im
Einzelnen wird, wie mit Bezug auf 2 beschrieben,
zuerst die optische Achse eingestellt auf eine erste Position (Schritt 660),
die die kleinste Anpassung der Linsenanordnung benötigt,
und der Abstand zu dieser ersten Position wird gemessen (Schritt 670),
und dann wird die optische Achse eingestellt auf eine zweite Position,
die die kleinste Anpassung mit Bezug auf die erste Position (Schritt 660)
benötigt, und der Abstand zu dieser zweiten Position wird
gemessen (Schritt 670). Die Schritte 660 und 670 werden
wiederholt, bis alle Abstände zu der Vielzahl der Positionen
gemessen sind, wie in Schritt 680 gekennzeichnet.
-
Die
Schritte von 6 werden beschrieben, wie auf
den vorherigen Beispielen angewandt.
-
3 und 4 stellen
einen horizontalen bzw. vertikalen Scan dar, aber es gibt gewisse
Fälle, in denen ein Scannen der Messpixel und entsprechendes
Anpassen der optischen Achse auf die entsprechenden Positionen,
die unterschiedlich zu messen sind, passender sein kann, beispielsweise,
wenn eine unterschiedliche Scanstrategie zu einem schnelleren Scan
führt.
-
Beispielsweise
kann es zeitaufwendig sein, bei Annahme eines ringförmigen
Objekts, das Objekt mit einem vertikalen oder horizontalen Linienscan
zu scannen, da die Messpixel, die von Interesse sind, nicht eine
Linie oder gerade Geometrie bilden, und deshalb muss, wenn die Messungen
der Positionen entsprechend der Messpixel auf der einen Seite des Objekts
beendet werden, die optische Achse verstellt werden, um einen großen
Winkel zum Messen des entsprechenden Teils des ringförmigen
Objekts auf der anderen Seite, beispielsweise der rechten Seite, wenn
auf der linken Seite mit einem horizontalen Scan begonnen wird.
-
Deshalb
kann es bevorzugt sein, Abstandsmessungen entlang des Umfangs des
ringförmigen Objekts durchzuführen, so dass die
optische Achse eins nach dem anderen entlang des Umfangs des ringförmigen
Objekts eingestellt wird, was die notwendige Anpassung von einer
Messung zur nächsten Messung minimiert.
-
In
gewissen Anwendungen kann es nützlich sein, in dem zu scannenden
Bereich eine Vielzahl von Messpixeln entlang eines vorbestimmten
Profils zu definieren. Solch ein Fall wird mit Bezug auf 7 diskutiert.
-
Im
Folgenden wird eine weitere Ausführungsform der Erfindung
mit Bezug auf 7 und 8 beschrieben,
die insbesondere das Einfügen einer Projizierung eines
beispielsweise 3D-Profils in das Bild in dem Prozess eines Definierens
von Messpixeln darstellen. 7 zeigt
eine andere Modifizierung des mit Bezug auf 2 diskutierten
Verfahrens. Die ersten vier Schritte in 7 können
die gleichen sein, wie die Schritte 210 bis 240,
die mit Bezug auf 2 diskutiert wurden, und werden
daher nicht weiter diskutiert, um unnötige Wiederholungen
zu vermeiden.
-
In
einem Schritt 750 wird eine Vielzahl von Messpixeln entsprechend
einer Vielzahl von Positionen auf dem Objekt mit erhöhter
Dichte der Messpixel bei dem Objektmerkmal definiert durch Einfügen einer
zweidimensionalen Darstellung eines Profils in das Bild und durch
Auswählen einer Vielzahl von Pixel bei einem Umriss bzw.
Kontur der zweidimensionalen Darstellung des Profils als Messpixel.
Die Schritte 770 und 780 entsprechen den Schritten 270 und 280.
-
In
anderen Worten werden in dieser Ausführungsform die Messpixel
definiert durch ein vorbestimmtes Profil oder Form, wie zum Beispiel
zweidimensionale Geometrien, wie ein Quadrat, ein Dreieck, ein Kreis
oder irgendeine Art von Polygon bzw. Mehreck, wie zum Beispiel dreidimensionale
Geometrien, wie ein Zylinder, ein Kubus, ein Quader, eine Sphäre
oder Teile dieser Geometrien.
-
Speziell
wird in dem Fall eines dreidimensionalen Profils die zweidimensionale
Darstellung dieses Profils in das Bild eingefügt, das heißt,
dass die zweidimensionale Darstellung überlagert oder übereinander
gelegt wird auf dem Bild, und eine Vielzahl von Pixel an der Kontur
der zweidimensionalen Darstellung des Profils wird ausgewählt
und definiert als Messpixel, für die Abstände
zu entsprechenden Positionen gemessen werden müssen.
-
Beispielsweise
kann solch eine Art eines Definierens der Messpixel nützlich
sein in Anwendungen, in denen das Objekt, auf dem Positionen gemessen
werden müssen, eine gewisse Form aufweist, ähnlich
zu dem Profil. Ein Beispiel kann die Anwendung des optischen Instruments
auf ein Messen von Positionen in einem Tunnel sein. Dabei ist es
vorteilhaft, die zweidimensionale Darstellung des Profils eines
Zylinders in das Bild zu projizieren, und anstatt eines Verwendens
von X-, Y- und Z-Richtungen kann es passender sein, Abstände
zu Positionen in einem Zylinderkoordinatensystem zu messen, da solch
ein Zylinderkoordinatensystem näher an der tatsächlichen
Form des Objekts ist.
-
Hier
kann bemerkt werden, dass eine Position auf einem Objekt durch kartesische
Koordinaten definiert werden kann, die mit Bezug auf ein kartesisches
Koordinatensystem mit drei Achsen orthogonal zueinander definiert
sind. Zum Messen von Positionen können jedoch sphärische
Koordinaten in einigen Fällen besser sein.
-
Die
Position eines Objekts kann demgemäß in sphärischen
Koordinaten definiert werden durch seinen Abstand von einem Ursprung
eines orthogonalen Koordinatensystems einem Winkel (Horizontalwinkel)
zwischen einer der horizontalen Achsen des Koordinatensystems und
einer Linie, die den Ursprung des Koordinatensystems mit einer Projektion der
Position auf der horizontalen Ebene verbindet, und letztendlich
einem vertikalen Winkel zwischen der Koordinatensystemachse orthogonal
zu der horizontalen Ebene und einer Linie, die den Ursprung des
Koordinatensystems und die Position verbindet. Kartesische Koordinaten
können transformiert werden in sphärische Koordinaten
und umgekehrt. Gewöhnlich wird der Ursprung des Koordinatensystems in
das optische Instrument gesetzt, wobei er optimalerweise auch übereinstimmt
mit dem Projektionszentrum der Kamera, wie später beschrieben
wird.
-
Die
Positionierungseinheit kann ausgebildet sein zum Messen horizontaler
und vertikaler Winkel zu der Vielzahl von Positionen auf dem Objekt
mit Bezug auf ein Referenzachsensystem, wie zum Beispiel das kartesische
Koordinatensystem mit dem Ursprung in dem optischen Instrument.
-
Jedoch
ist es auch möglich, wie in 8 beschrieben,
den Ursprung des Koordinatensystems in dem Objekt zu platzieren,
um ein Objektkoordinatensystem zu erhalten, was in dem Beispiel
von 8 durch das Zylinderkoordinatensystem gegeben
ist. Dann kann das optische Instrument Profile eines Zylinders 810 in
dem Zylinderkoordinatensystem scannen bzw. abtasten, was in dem
Fall von Messungen, die in einem Tunnel ausgeführt werden,
passender sein kann.
-
Im
Folgenden wird eine weitere Ausführungsform mit Bezug auf 9 und 10 beschrieben,
die insbesondere mehrere Teilbilder darstellen zum Umrahmen eines
Bereichs von Interesse. Speziell wird erklärt, dass Messungen
auch durchgeführt werden können an Positionen,
die nicht in einem Teilbild gezeigt sind.
-
9 zeigt
ein Verfahren zum Erhalten von Abstands- und Bildinformation eines
Objekts hinsichtlich einer anderen Ausführungsform der
Erfindung. Schritt 910 in 9 kann identisch
sein zu Schritt 210 in 2, wobei
ein Objekt anvisiert bzw. beobachtet wird mit einer Linsenanordnung, wie
zum Beispiel der Linsenanordnung 110 des in 1 gezeigten
optischen Instruments.
-
In
einem Schritt 920 wird ein Bild von mindestens einem Teil
des Objekts erfasst, wobei das Bild mindestens ein erstes und ein
zweites Teilbild umfasst.
-
In
anderen Worten ist, falls das Bild, das zu erfassen ist, größer
ist als das Blickfeld der Kamera des optischen Instruments, beispielsweise,
falls das Objekt sehr nahe oder sehr groß ist, werden mindestens
zwei Teilbilder erfasst durch die Kamera durch Bewegen des Blickfelds
der Kamera von der Position entsprechend zu einem ersten Teilbild
zu einer zweiten Position entsprechend zu einem zweiten Teilbild und
durch Erfassen der Teilbilder mit der Kamera. Dieses Prozedere wird
auch in 10 dargestellt, die einen länglichen
Quader und sechs Teilbilder zeigt, wobei ein erstes Teilbild 1010 beispielsweise aufgenommen
wird bei einer ersten Position 1015 an einer Ecke des länglichen
Quaders oder Blocks und ein zweites Teilbild 1020 erfasst
wird bei einer unterschiedlichen Position 1025 an einer
anderen Ecke des länglichen Quaders über der ersten.
-
Zurückkehrend
zu 9 wird in Schritten 930 ein zu scannender
Bereich in dem Bild definiert, ähnlich zu Schritt 230,
gezeigt in 2. Jedoch wird in dem in 10 gezeigten
Beispiel der zu scannende Bereich von mindestens einem von einem
Teil des ersten und zweiten Teilbildes 1010 bzw. 1020 umfasst,
und beispielsweise weiteren Teilbildern 1030, 1040, 1050 und 1060.
-
In
einem Schritt 940 wird ein Objektmerkmal des Objekts in
dem Bereich erhalten. Solch ein Objektmerkmal kann definiert werden
durch einen Benutzer oder durch einen Detektionsalgorithmus, wie vorher
beschrieben, in mindestens einem von dem ersten und zweiten Teilbild,
und kann dargestellt werden in 10 durch
die untere linke Ecke der Oberfläche 1080 des
länglichen Quaders, erfasst in dem ersten Teilbild 1010.
Das Objektmerkmal in Teilbild 1010 ist in dem Teilbild
durch eine gestrichelte Linie dargestellt.
-
In
einem Schritt 950 wird eine Vielzahl von Messpixeln entsprechend
einer Vielzahl von Positionen auf dem Objekt definiert in dem Bereich
mit einer erhöhten Dichte der Messpixel bei dem Objektmerkmal.
In dem Beispiel von 10, unter Bezugnahme von nur
dem ersten und zweiten Teilbild 1010 bzw. 1020,
bedeutet dies, dass die zwei Teilbilder die Vielzahl der Messpixel
umfassen. Diese Messpixel entsprechend Positionen auf dem Objekt
auf der gestrichelten Linie, soweit die gestrichelte Linie gezeigt
ist in dem ersten oder zweiten Teilbild.
-
In
einem Schritt 955 werden andere Positionen, die zu messen
sind zwischen den Messpixeln des ersten und zweiten Teilbildes definiert
durch Verarbeiten von mindestens einem von dem ersten und zweiten
Teilbild unter Verwendung eines Extrapolationsalgorithmus. Dieser
Schritt zieht in Betracht, dass es Teile des Objekts geben kann,
die nicht gezeigt sind, auf einem der Teilbilder, aber die interessierenden
Merkmale dieser Teile können leicht abgeleitet werden von
der Information, die gegeben wird in den erfassten Teilbildern.
-
Unter
Bezugnahme auf das in 10 gezeigte Beispiel, das das
erste und zweite Teilbild zeigt, kann leicht erkannt werden, dass
der untere Teil der linken Ecke der Oberfläche 1080 sich
weiter erstreckt in eine vertikale Richtung, und in dem zweiten
Teilbild 1020 kann es leicht erkannt werden, dass der obere
Teil der linken Ecke der Oberfläche 1080 sich
nach unten erstreckt, und sich verbindet mit der unteren linken
Ecke des ersten Teilbilds 1010.
-
Deshalb
ist es leicht möglich, durch Verarbeiten der zwei Teilbilder,
andere Positionen entlang einer Linie zu definieren, die die Objektmerkmale
verbindet, die in den zwei Teilbildern gezeigt sind, oder durch
Verwenden eines Extrapolationsalgorithmus zum Extrapolieren der
unteren linken Ecke zu der oberen linken Ecke der Oberfläche 1080,
wenn das Objektmerkmal detektiert wird durch einen Detektionsalgorithmus
oder durch einen Benutzer, der das Objektmerkmal auswählt.
-
Deshalb
können auch Positionen gemessen werden, die Messpixeln
eines imaginären Teilbildes entsprechen, das zwischen dem
ersten und zweiten Teilbild liegt.
-
Letztendlich
wird in Schritten 960 und 970 die optische Achse
der Linsenanordnung wieder sequentiell eingestellt auf die zu messenden
Positionen, und wie in Schritt 270 werden die Abstände
zu dem Objekt bei den Positionen gemessen für alle Abstände
zu allen Positionen, wie durch Schritt 980 gekennzeichnet.
-
9 wurde
mit Bezug auf das in 10 gezeigte Beispiel erklärt,
aber begrenzt auf nur zwei Teilbilder. Wie in 10 gezeigt,
kann ein viel komplizierterer Betrieb betrachtet werden. Beispielsweise können
vier Teilbilder 1010, 1020, 1030, 1040 von
allen vier Ecken der Oberfläche 1080 erfasst werden und
Positionen zwischen den Teilbildern können gemessen werden.
-
Es
kann bemerkt werden, dass die sechs in 10 gezeigten
Teilbilder und die gestrichelte Linie das Ausmaß eines
zu scannenden Bereichs darstellen kann, nämlich ein Polygon,
das durch die sechs Ecken eingerahmt wird, was durch die sechs kleinen Kreise
in den sechs Teilbildern 1010, 1020, 1030, 1040, 1050 und 1060 gekennzeichnet
ist.
-
Letztendlich
kann bemerkt werden, dass auch die durch die Oberflächen 1080 und 1090 definierte
Ecke ähnlich gemessen werden kann, obwohl keine gestrichelte
Linie vorliegt. Dies bedeutet, dass die Ecke detektiert werden kann
durch einen Detektionsalgorithmus oder ausgewählt werden
kann durch einen Benutzer als ein Objektmerkmal, so dass eine erhöhte
menge an Messpixeln definiert wird entlang der Ecke, und eine kleinere
Menge definiert wird in dem polygonförmigen Bereich, der
umrahmt wird durch die Teilbilder. Zusätzlich kann eine
Vielzahl von Messpixeln definiert werden in dem Bereich, nämlich auf
der Oberfläche 1080 und 1090, oder ein
einfacher Linienscan mit vorbestimmter Schrittgröße
kann ausgeführt werden.
-
10 kann
auch verwendet werden zum Erklären einer anderen Ausführungsform
der Erfindung. Diese Ausführungsform kann als Kalibrierungs-
oder Pre-Scan-Verfahren bezeichnet werden, in dem ausgewählte
Positionen mit hoher Genauigkeit gemessen werden.
-
Hier
wird angenommen, dass die Positionen auf dem Objekt in 10,
die zwei kleinen Kreisen 1015 und 1025 in Teilbild 1010 und
Teilbild 1020 entsprechen, Kernpunktpixel darstellen, das
heißt, Messpixel, die Kernpositionen des des Objekts entsprechen,
für die eine genaue Abstandsmessung erhalten werden sollte.
Beispielsweise sind diese Positionen Positionen an den Ecken oder
anderen unstetigen Variationen in dem Bereich oder von dem Objekt.
-
Diese
Kernpunktpixel des Bildes werden umgewandelt in eine Näherung
von Koordinaten der zu messenden Kernpositionen unter Annahme eines Standardabstands
zu den Kernpositionen, wobei die Umwandlung im Detail unten beschrieben
wird.
-
In
dem nächsten Schritt wird die optische Achse der Linsenanordnung
auf die Kernpositionen eingestellt, die zu messen sind durch die
Positionierungseinheit 140, und die Abstände zu
den ausgewählten Kernpositionen werden wie oben beschrieben
gemessen.
-
Letztendlich
werden die Koordinaten der Kernpositionen neu berechnet auf Grundlage
der gemessenen Abstände, das bedeutet, dass die Kernpunktpixel
wieder umgewandelt werden in Koordinaten der Kernpositionen, wobei
jedoch die Umwandlung nun auf dem gemessenen Abstand basiert und nicht
auf einem Standardabstand, so dass ein noch genaueres Ergebnis der
Position hinsichtlich horizontaler und vertikaler Winkel und Abstand
erreicht werden kann. Dieses Pre-Scan-Verfahren (Vor-Scan-Verfahren)
wird im Detail unten mit Bezug auf 11 und 12A bis 12C beschrieben.
-
Es
sollte bemerkt werden, dass das oben beschriebene Verfahren nicht
begrenzt ist auf Kernpunktpixel, da tatsächlich jedes Messpixel
ein Kernpunktpixel darstellen kann, falls ein sehr genaues Ergebnis
erhalten werden soll. Jedoch wurde gezeigt, dass es oft genug ist,
nur einige Positionen sehr genau zu berechnen, um mehr oder weniger
den Bereich einzustellen, in dem Variationen erwartet werden können.
-
Im
Folgenden wird der Umwandlungsbetrieb eines Umwandelns von Messpixeln
in dem Bild zu Koordinaten von wirklichen bzw. realen Positionen auf
dem Bild im Detail beschrieben.
-
Bei
einem idealen optischen Instrument mit einer Kamera und einer Abstandsmesseinheit
ist das Projektionszentrum einer Kamera identisch mit dem Schnittpunkt
aller drei Achsen des optischen Instruments, und die Abstandsmessung
wird durchgeführt von dem Schnittpunkt entlang einer Richtung orthogonal
zu der Bildebene. Dann ist das Zentrum der Bildebene, beispielsweise
ein Pixel, das exakte Abbild der Position, die von dem Laserlicht
der Abstandsmesseinheit getroffen wird. Idealerweise ist es daher möglich,
jeder Position im wirklichen Raum um das optische Instrument ein
Pixel in der Bildebene zuzuordnen.
-
Da
die Kamera um eine vertikale Achse zum Schwenken fest mit Bezug
auf die Basis des Instruments drehbar ist, beispielsweise einem
Tripod oder anderen Unterstützungselement, und drehbar
ist um eine Kippachse, können Bilder einer Sphäre
um das Instrument aufgenommen werden. Beispielsweise können
Panoramabilder aufgenommen werden durch Zusammensetzen von einzelnen
Bildern.
-
Ferner
sollte die optische Achse einer idealen Kamera rechtwinklig sein
zu der Bildebene und sollte übereinstimmen mit der optischen
Achse eines optischen Systems, wie zum Beispiel dem Linsensystem 110 und
das optische System sollte frei von Aberrationen oder Verzerrungen
sein.
-
Jedoch
stellt das obige nur eine Idealisierung eines optischen Instruments
mit einer idealen Kamera dar, und solche idealen Bedingungen sollten
nicht angenommen werden. Deshalb gibt es einen Bedarf zum Verbessern
eines Abbildens zwischen Positionen im Raum und entsprechenden Pixeln
in dem Bild, und die Kamera muss mit Bezug auf das Achsensystem
des optischen Instruments mit einer bekannten inneren Kameraorientierung
kalibriert werden. Beispielsweise wird solch ein Verfahren zur Kalibrierung
in
DE 103 59 415 A1 oder
WO 2005/059473 A2 beschrieben,
wo die innere und äußere Orientierung einer Kamera
in einem optischen System genau definiert wurden.
-
Es
wird bemerkt, dass der Fehler des Versatzes bzw. Offsets zwischen
dem Projektionszentrum der Kamera und dem Ursprung des optischen
Instruments, das heißt, dem Schnittpunkt der drei Achsen des
optischen Instruments, abhängig ist von dem Abstand zu
dem Objekt, und genauere Koordinaten einer Position auf dem Objekt
erhalten werden können, je besser die Information über
den Abstand zu der Position ist. Ferner kann es auch, wie oben beschrieben,
ein Offset zwischen der Messachse und der optischen Achse geben.
Jedoch ist dieser Offset ungefähr bekannt und kann nur
signifikant sein in einem nahen Bereich.
-
Während
die Schritte und Gerätmerkmale, wie sie mit Bezug auf die
vorherigen Ausführungsformen dargelegt wurden, passend
sind, um akzeptable Ergebnisse für viele Anwendungen bereitzustellen, beispielsweise
durch Umwandeln der Bildkoordinaten eines Messpixels in eine Messposition
im Raum mittels einer festen Umwandlungsoperation oder Umwandlungsfunktion
unter Annahme eines Standardabstands des Objekts zu der Kamera,
um die Genauigkeit der Messungen zu verbessern, können die
oben bemerkten Offsets oder Fehler in Betracht gezogen werden und
kompensiert werden, wie im Folgenden mit Bezug auf 11 und
weitere Figuren unten dargelegt wird.
-
Zur
Kompensierung der obigen Offsets kann ein Umwandlungsalgorithmus
verwendet werden, wie zum Beispiel Algorithmen oder Umwandlungsfunktionen.
Alternativ können Umwandlungstabellen definiert werden
zum Nachschlagen einer spezifischen Position, die einem Pixel in
dem Bild entspricht, wobei unterschiedliche Tabellen für
unterschiedliche Abstände von dem Instrument zu dem zu messenden
Objekt definiert werden.
-
In
einem Beispiel kann Abstands- und Bildinformation eines Objekts
erhalten werden durch zuerst Anvisieren des Objekts mit einer Linsenanordnung,
dann Erfassen eines Bildes von mindestens einem Teil des Objekts
mit einer Kamera, ausgerichtet zur optischen Achse der Linsenanordnung,
Definieren in dem Bild eines zu scannenden Bereichs, Erhalten einer
Vielzahl von Messpixel des Objekts innerhalb des Bereichs, Umwandeln
der Vielzahl der Messpixel in eine Näherung von Koordinaten
einer Vielzahl von zu messenden Positionen unter Annahme eines Standardabstands
zu der Vielzahl der Positionen, Einstellen der optischen Achse der
Linsenanordnung sequentiell auf die Vielzahl der zu messenden Positionen,
Messen der Abstände zu der Vielzahl der Positionen und
Neuberechnen der Koordinaten der Vielzahl der Positionen auf Grundlage
der gemessenen Abstände.
-
Daher
kann durch iteratives, in diesem Beispiel zweimal, Bestimmen der
Messposition auf dem Objekt, die Genauigkeit der Umwandlung des
Pixels in eine Messrichtung verbessert werden.
-
Das
in 11 gezeigte Verfahren kann ausgeführt
werden durch das optische Instrument, wie oben in einer der vorherigen
Ausführungsformen beschrieben.
-
In
einem Beispiel gemäß 1 umfasst
das optische Instrument zum Erhalten von Abstands- und Bildinformation
eines Objekts eine Linsenanordnung 110 zum Anvisieren des
Objekts, eine Kamera 120, angeordnet zur optischen Achse
der Linsenanordnung zum Erfassen eines Bildes von mindestens einem
Teil des Objekts, eine Abstandsmesseinheit 130 zum Messen
eines Abstands zu dem Objekt entlang einer Messachse der Abstandmesseinheit
parallel zu der optischen Achse der Linsenanordnung, eine Positionierungseinheit 140 zum
Einstellen der optischen Achse der Linsenanordnung relativ zu der
mindestens einen Referenzachse und eine Steuereinheit 150 mit
einem ersten Steuerelement 152, ausgebildet zum Definieren
eines zu scannenden Bereichs in dem Bild, um eine Vielzahl von Messpixeln
des Objekts innerhalb des Bereichs zu erhalten, und um die Vielzahl
der Messpixel in eine Näherung von Koordinaten einer Vielzahl
von Positionen, die zu messen sind, unter Annahme eines Standardabstands
zwischen der Vielzahl der Positionen und dem optischen Instrument
umzuwandeln, und einem zweiten Steuerelement 154, ausgebildet
zum Instruieren der Positionierungseinheit, die optische Achse der
Linsenanordnung sequentiell auf die Vielzahl der zu messenden Positionen
einzustellen, und die Abstandsmesseinheit zu instruieren, die Abstände
zu der Vielzahl der Positionen zu messen, wobei das erste Steuerelement
ferner ausgebildet ist zum Neuberechnen der Koordinaten der Vielzahl
der Positionen auf Grundlage der gemessenen Abstände.
-
Im
Folgenden werden die Schritte von 11 im
Einzelnen dargelegt, und nachfolgend wird ein Beispiel der Schritte
mit Bezug auf 12 gegeben.
-
In
einem Schritt 1110 wird das Objekt mit einer Linsenanordnung
anvisiert, beispielsweise der Linsenanordnung 110 von 1,
durch passendes Anpassen bzw. Justieren der optischen Achse des optischen
Instruments. In einem Schritt 1115 wird ein Bild erfasst,
das mindestens ein Teil des Objekts zeigt. In einem Beispiel wird
das Bild erfasst durch einen Benutzer, der einen entsprechenden
Befehl eingibt zum Erfassen eines gegenwärtig gezeigten
Bildes, beispielsweise auf einer Anzeige des Instruments.
-
In
einem Schritt 1120 wird ein zu scannender Bereich definiert
in dem Bild. Der zu scannende Bereich kann definiert werden durch
einen Benutzer, der das Bild betrachtet, wie vorher beschrieben
mit Bezug auf 2, oder kann definiert werden
durch einen Detektionsalgorithmus, der vorher mit Bezug auf 2 beschrieben
wurde.
-
In
einem Schritt 1125 wird eine Vielzahl von Messpixeln des
Objekts innerhalb des Bereichs erhalten. Ein Benutzer, der das Bild
betrachtet, klickt beispielsweise oder wählt anderweitig
ein Pixel in dem Bild unter Verwendung einer Maus oder eines Stifts
aus, wenn ein berührungsempfindlicher Bildschirm verwendet
wird, um das Pixel als Messpixel zu definieren.
-
Die
Schritte 1110 bis 1125 können die gleichen
sein wie die Schritte 210 bis 240, die vorher
mit Bezug auf 2 beschrieben wurden, und deshalb wird
eine Beschreibung dieser Schritte 210 bis 240 auch
anwendbar sein auf die Schritte 1110 bis 1125.
-
In
einem Schritt 1130 wird die Vielzahl der Messpixel umgewandelt
in eine Näherung der Koordinaten einer Vielzahl von zu
messenden Positionen unter Annahme eines Standardabstands zu der
Vielzahl der Positionen. Ein Umwandlungsalgorithmus oder Umwandlungstabelle,
wie zum Beispiel die Nachschlagtabelle, die oben beschrieben wurde, kann
nämlich verwendet werden zum Erhalten von Koordinaten der
entsprechenden zu messenden Position für jedes Messpixel,
während ein Standardabstand zu der Position angenommen
wird, da die Umwandlung in einer nicht-idealen Situation abstandsabhängig
ist.
-
Es
sollte bemerkt werden, dass die Abweichung zwischen genäherten
Koordinaten der Position und der exakten Koordinaten abnimmt mit
einer Erhöhung im Abstand, da der Einfluss des oben beschriebenen
Offsets zwischen Projektionszentrum und dem Ursprung des optischen
Instruments abnimmt. Beispielsweise kann eine Umwandlung ausgeführt
werden mit einem Startwert für den Standardabstand von
50 Metern. Jedoch ist es auch möglich, dass ein Benutzer
einen unterschiedlichen Wert bei Beginn des Verfahrens abhängig
von der benötigten Anwendung eingibt.
-
In
einem Schritt 1135 wird die optische Achse der Linsenanordnung
sequentiell eingestellt auf die Positionen, die zu messen sind.
Dies kann durchgeführt werden gemäß der
vorherigen Ausführungsformen durch Kippen und Schwenken
der Erfassungseinheit 160 des optischen Instruments 100 durch
die Positionierungseinheit 140, so dass die optische Achse
der Linsenanordnung 110 auf die zu messende Position zeigt.
-
Ferner
können, wie oben beschrieben, da die optische Achse der
Linsenanordnung und Kamera normalerweise nicht mit der Messachse
der Abstandsmesseinheit übereinstimmen, weitere Anpassungen
ausgeführt werden, die auch integriert werden können
in die Umwandlung, da die Offsets zwischen der optischen Achse und
der Messachse bekannt sind und der Abstand angenommen wird.
-
In
einem Schritt 1140 werden die Abstände zu der
Vielzahl der Positionen gemessen. Die Messungen können
ausgeführt werden durch Laserabstandsmessungen, die vorher
beschrieben wurden oder im Stand der Technik bekannt sind.
-
Im
Einzelnen wird in Schritt 1135 die optische Achse zuerst
eingestellt auf eine erste zu messende Position, worauf die Messung
der ersten Position in Schritt 1140 ausgeführt
wird, und dann wird dieses Verfahren wiederholt, wie durch Schritt 1142 gekennzeichnet,
die optische Achse wird nämlich eingestellt auf eine zweite
Position, worauf die zweite Messung des Abstands zu der zweiten
Position durchgeführt wird, und so weiter.
-
Letztendlich
werden in Schritt 1145 die Koordinaten der Vielzahl der
Positionen neu berechnet auf Grundlage der gemessenen Abstände,
das heißt, dass da die Abstände zu der Vielzahl
der Positionen, nach Schritt 1140 besser bekannt sind als
in der vorherigen Annahme, diese gemessenen Abstände verwendet
werden können in dem Umwandlungsschritt, um sehr präzise
Koordinaten der Vielzahl der Positionen zu erhalten.
-
Es
muss bemerkt werden, dass die Ausführungsform nicht begrenzt
ist auf die oben beschriebene Sequenz, und dass andere Sequenzen
der Schritte passender sein können für gewisse
andere Fälle.
-
Beispielsweise
kann es bevorzugt sein, Schritt 1125 vor Schritt 1120 auszuführen,
wenn beispielsweise ein zu scannender Bereich definiert wird durch
einen Benutzer, der eine Vielzahl von Messpixel kennzeichnet, die
die Ecken des Bereichs bilden.
-
Beispielsweise
werden vier Messpixel ausgewählt durch einen Benutzer oder
durch einen Detektionsalgorithmus und ein Viereck, erhalten durch Verbinden
der vier Messpixel, wird verwendet zum Definieren des zu scannenden
Bereichs.
-
Das
mit Bezug auf 11 beschriebene Verfahren kann
als ein Pre-Scan-Verfahren bezeichnet werden zum Verbessern der
Genauigkeit eines tatsächlichen Scans des Objekts, wie
es im Einzelnen in 12A bis 12C beschrieben
werden kann.
-
12A stellt ein Fadenkreuz 1200 dar unter
Bezugnahme auf die Messachse des optischen Instruments und ein Polygon
bzw. Vieleck 1210. Das Polygon 1210 stellt den
zu scannenden Bereich in dem Bild dar und kann entweder definiert
werden durch einen Bildverarbeitungsalgorithmus oder durch einen
Benutzer, der einen Stift 1220 auf einem berührungsempfindlichen
Bildschirm oder eine Computermaus oder einen Track-Ball verwendet
zum Kenzeichnen der Polygonpunktpositionen 1211 bis 1215. Die
wirklichen Polygonpunktpositionen des Objekts, die den Messpixeln
entsprechen, die in dem Bild definiert sind, sind ungefähr
bekannt aufgrund der exzentrischen Kameraeinstellung mit Bezug auf
die Messachse des optischen Instruments.
-
12B stellt die Umwandlung der definierten Messpixel
in Instrumentrichtungen dar unter Verwendung eines Standardabstands,
beispielsweise des mittleren Messbereichs des optischen Instruments.
Diese Umwandlung oder Transformation wird bevorzugt erhalten durch
einen Umwandlungsalgorithmus, der den Abstand zu dem Objekt in Betracht zieht,
wie der oben bezeichnete. Nach einem Einstellen der Positionierungseinheit
auf die Koordinaten, die durch die Umwandlung erhalten werden, zeigt
die Messachse des optischen Instruments auf die Polygonpunktposition 1212 und
eine Abstandsmessung wird genommen.
-
Wie
in 12B gesehen werden kann, überlappt das
Fadenkreuz 1200, dass die umgewandelte oder berechnete
Polygonpunktposition 1212 kennzeichnet, nicht vollständig
mit der wirklichen Polygonpunktposition 1212 aufgrund kleiner
Unzulänglichkeiten in der Anordnung der Elemente in dem
optischen Instrument, die jedoch entfernt werden können
durch das oben beschriebene Kalibrierungsverfahren, falls der Abstand
zu dem Objekt bekannt ist. Deshalb wird die Abstandsmessung durchgeführt.
-
Da
das Fadenkreuz 1200 und die Polygonpunktposition 1212 fast
identisch sind, kann der bei der Position des Fadenkreuzes 1200 gemessene
Abstand ungefähr der gleiche sein, wie der bei der Polygonpunktposition 1212 gemessene, so
dass eine gute Näherung des Abstands erhalten wird, und
die Koordinaten der Polygonpunktposition können neu berechnet
werden.
-
In 12C überlappt das Fadenkreuz 1200 mit
der Polygonpunktposition 1212 nachdem die Koordinaten der
Position neu berechnet wurden. Diese Neuberechnung kann ausgeführt
werden für alle Polygonpunktpositionen 1211, 1213, 1214 und 1215,
so dass der exakte Abstand zu jeder der Positionen erhalten werden
kann durch Einstellen der Messachse des optischen Instruments auf
jede individuelle Position.
-
Letztendlich
kann, nach einem genauen Umrahmen des Polygons, der durch das Polygon
definierte Bereich in vordefinierten Schritten gescant werden durch
Kippen oder Schwenken der Erfassungseinheit und der Messachse. Zusätzlich
kann, falls es ein spezielles Objektmerkmal in dem durch das Polygon
definierten Bereich gibt, dieses Objektmerkmal definiert und analysiert
werden, wie oben beschrieben.
-
In
gewissen Extremfällen kann es hilfreich sein, einen minimalen
oder maximalen Abstandswert, beispielsweise 1 Meter oder 500 Meter
einzustellen, im Fall, dass die Messachse auf ein nahes Hindernis
zeigt oder in den Himmel zeigt.
-
13 stellt
Schritte eines Verfahrens gemäß einer anderen
Ausführungsform dar, wobei die Schritte insbesondere Bezug
nehmen auf ein Definieren des zu scannenden Bereichs durch Verbinden von
Messpixeln, um ein Polygon zu bilden, was auch als Framing oder
Umrahmen bezeichnet werden kann.
-
Das
in 13 beschriebene Verfahren basiert auf in 11 beschriebenen
Schritten. Jedoch wird es aus der folgenden Beschreibung ersichtlich, dass
der vorher in 11 beschriebene Schritt 1120 modifiziert
werden muss.
-
Das
Verfahren nach 13 startet mit Schritt 1110,
wobei ein Objekt anvisiert wird mit der Linsenanordnung. Nachfolgend
in Schritt 1115 wird ein Bild von mindestens einem Teil
des Objekts erfasst. Dann werden in Schritt 1125 eine Vielzahl
von Messpixel des Objekts innerhalb des Bereichs erhalten. Ferner wird
in Schritt 1130 die Vielzahl der Messpixel umgewandelt
in eine Näherung der Koordinaten einer Vielzahl von zu
messenden Positionen unter Annahme eines Standardabstands zu der
Vielzahl der Positionen. Diese Schritte sind ähnlich zu
den obigen Schritten und für Details wird auf die entsprechenden
obigen Abschnitte verwiesen.
-
Dann
wird, wie in Schritten 1135, 1140 und 1142 beschrieben,
die optische Achse der Linsenanordnung eingestellt für
die erste Position, und der Abstand zu der ersten Position wird
gemessen, und dann wird die optische Achse eingestellt auf die zweite
Position und die zweite Position wird gemessen, bis alle Abstände
der Vielzahl der Positionen gemessen sind. Dann werden in Schritt 1145 die
Koordinaten der Positionen neu berechnet auf Grundlage des gemessenen
Abstands.
-
Nachfolgend
wird in einem Schritt 1320 der zu scannende Bereich in
dem Bild definiert durch Verbinden der Messpixel, so dass die Pixel
Ecken eines Polygons darstellen. Dieser Schritt ist eine Modifizierung
des vorherigen Schritts 1120 und kann auch ausgeführt
werden zwischen einem der Schritte 1125 und 1360.
Unter Betrachtung der Vielzahl der Messpixel innerhalb des durch
einen Benutzer erhaltenen Bereichs kann das erste Steuerelement 152 der Steuereinheit 150 automatisch
die Pixel verbinden, um ein Polygon, wie in 12A gezeigt,
zu bilden.
-
In
einem Schritt 1360 wird eine Vielzahl von Polygonpositionen,
die zu messen sind, definiert in dem durch das Polygon definierten
Bereich. In anderen Worten kann, nachdem der zu scannende Bereich
definiert ist durch die Messpixel, die zu einem Polygon verbunden
sind, eine Vielzahl von Polygonpositionen gemäß der
benötigten Auflösung gemessen werden. 12C stellt beispielsweise ein konstantes Gitter
von Messungen dar, die durchgeführt wurden in dem Bereich,
der definiert ist durch das Polygon.
-
Dann
wird die optische Achse der Linsenanordnung eingestellt auf die
zu messenden Polygonpositionen sequentiell und für jede
Einstellung und Position wird der Abstand zu der Polygonposition
in Schritt 1380 gemessen. Die Schritte 1370 und 1380 werden
wiederholt, bis eine Polygonposition gemessen wurde.
-
Das
oben beschriebene Verfahren kann auch mit Bezug auf 10 verstanden
werden. Unter Annahme, dass die kleinen Kreise in den Teilbildern 1010 bis 1060 Messpixel
repräsentieren, kann der zu scannende Bereich in 10 definiert
werden durch Verbinden dieser Messpixel zum Darstellen eines Polygons,
wie gezeigt durch die gestrichelte Linie. Nachfolgend kann eine
Vielzahl von zu messenden Polygonpositionen in dem Bereich definiert
werden, nämlich auf den Oberflächen 1080 und 1090 oder
es kann ein einfacher Linienscan mit vorbestimmter Schrittgröße
ausgeführt werden.
-
Optional
kann der zu scannende Bereich, beispielsweise die Oberflächen 1080 und 1090 von 10 oder
das Polygon 1210 von 12C,
weiter analysiert werden durch Erhalten eines Objektmerkmals in
diesem Bereich, zum Beispiel ein Riss, wie in 3 gezeigt.
Beispielsweise kann, wenn die Überschneidung der Oberflächen 1080 und 1090 von 10 detailliert
analysiert werden soll, ein Scan mit erhöhter Dichte der
Messpixel bei den Überschneidungen wie in 4 ausgeführt
werden.
-
14 stellt
ein Verfahren zum Erhalten von Abstands- und Bildinformation eines
Objekts mit hoher Genauigkeit gemäß einer anderen
Ausführungsform der Erfindung dar. In dem mit Bezug auf 14 diskutierten
Verfahren werden mehrere Aspekte der vorherigen Figuren, wie zum
Beispiel 2, 9, 10, 11 und 12A bis 12C kombiniert.
Das optische Instrument 100, beschrieben in 1,
kann verwendet werden zum Ausführen des Verfahrens oder
des in 15 und 16 dargestellten
Instruments.
-
In
Schritt 1410 wird das Objekt anvisiert mit einer Linsenanordnung.
In einem Schritt 1415 wird ein Bild von mindestens einem
Teil des Objekts erfasst, wobei das Bild mindestens ein erstes und
zweites Teilbild umfassen kann, wie vorher mit Bezug auf Schritt 920 von 9 beschrieben.
-
In
einem Schritt 1420 wird ein zu scannender Bereich in dem
Bild definiert, und in Schritt 1425 wird eine Vielzahl
von Messpixel des Objekts innerhalb des Bereichs erhalten. Die Schritte 1420 und 1425 wurden
oben mehrere Male beschrieben und für Einzelheiten wird
Bezug genommen auf diese Abschnitte. Alternativ kann die Reihenfolge
dieser Schritte auch umgekehrt werden.
-
In
einem Schritt 1430 wird die Vielzahl der Messpixel, erhalten
in Schritt 1425, umgewandelt in eine Näherung
der Koordinaten einer Vielzahl von zu messenden Positionen unter
Annahme eines Standardabstands zu den Positionen.
-
Dieser
Schritt ist ähnlich zu Schritt 1130, jedoch sind
es in diesem Fall die mindestens zwei Teilbilder, die die Vielzahl
der Messpixel umfassen, nämlich ein Teilbild kann alle
Messpixel umfassen oder die Messpixel können zwischen den
Teilbildern verteilt sein.
-
In
einem Schritt 1435 wird die optische Achse der Linsenanordnung
eingestellt auf die Vielzahl der zu messenden Positionen, und die
Abstände zu der Vielzahl der Positionen werden in einem
Schritt 1440 gemessen. Wie oben beschrieben, wird die optische
Achse eingestellt auf eine Position und der Abstand zu dieser Position
wird gemessen, und dann wird die optische Achse eingestellt auf
die nächste Position und der Abstand zu der nächsten
Position wird gemessen, bis die Abstände zu allen Positionen gemessen
wurden.
-
In
einem Schritt 1445 werden die Koordinaten der Vielzahl
der Positionen neu berechnet auf Grundlage der gemessenen Abstände.
Dieser Schritt ist ähnlich zu dem Schritt 1145,
der im Detail mit Bezug auf 11 beschrieben
wurde.
-
Hier
sollte hinzugefügt werden, dass ein Neuberechnen der Koordinaten
der Vielzahl der Positionen auch ausgeführt werden kann
als ein iterativer Prozess, das heißt, nach dem Neuberechnungsschritt
in 1445 kann die optische Achse wieder eingestellt werden
auf die Positionen mit den neu erhaltenen Koordinaten und die Abstände
können auf Neue erhalten werden, bis die Abstände
zu den Positionen sich nicht mehr ändern. Jedoch wurde
es beobachtet, dass eine Abstandsmessung gewöhnlicherweise
genug ist, um Koordinaten einer Position mit hoher Genauigkeit zu
erhalten.
-
In
einem Schritt 1450 werden andere zu messende Positionen
definiert zwischen dem ersten und zweiten Teilbild durch Verarbeiten
von mindestens einem von dem ersten Teilbild und dem zweiten Teilbild
durch Definieren der anderen Positionen entlang einer Linie, die
mindestens zwei Messpixel verbindet oder durch verwenden eines Extrapolationsalgorithmus
zum Extrapolieren einer Ecke oder einem anderen Objektmerkmal des
Objekts in mindestens einem von dem ersten Teilbild und zweiten
Teilbild, detektiert durch einen Detektionsalgorithmus. Dieser Schritt
ist ähnlich zu dem Schritt 955 von 9,
und um eine unnötige Wiederholung zu vermeiden, wird auf
Schritt 955 für weitere Einzelheiten Bezug genommen.
-
In
Schritt 1455 und 1460 wird die optische Achse
der Linsenanordnung eingestellt auf die anderen Positionen und die
Abstände zu den anderen Positionen werden gemessen. Im
Einzelnen wird, wie oben beschrieben, die optische Achse eingestellt
auf eine erste Position, und der Abstand zu der ersten Position
wird gemessen, und nachfolgend wird die optische Achse eingestellt
auf eine zweite Position, und der Abstand zu der zweiten Position
wird gemessen, bis alle anderen Positionen gemessen sind. Eine detaillierte
Beschreibung der Einstellung und Messung wurde oben gegeben.
-
In
der oben beschriebenen Ausführungsform werden mindestens
zwei Teilbilder erfasst durch die Kamera, da beispielsweise das
Blickfeld der Kamera nicht groß genug ist zum Erfassen
eines Bildes des gesamten Objekts auf einmal.
-
Solch
eine Situation ist beispielsweise dargestellt in 10,
wo sechs Teilbilder erfasst werden, um einen länglichen
Quader zu definieren. Bei Kenntnis der Koordinaten von mindestens
einer Position in jedem Teilbild, beispielsweise der Position, die
dem kleinen Kreis in 10 entspricht, durch Aufzeichnen
der horizontalen und vertikalen Winkel, wenn das Teilbild erfasst
wird, kann die Größe des gesamten Objekts abgeleitet
werden, und insbesondere ist es möglich, die Anzahl der
Teilbilder zu berechnen, die gebraucht wird, um das zusammengesetzte
Bild des gesamten Objekts zusammen zu bringen.
-
Da
der Umriss bzw. Kontur des zusammengesetzten Bildes bekannt ist
durch die Positionen, das heißt, die Koordinaten, bei denen
die Teilbilder 1010 bis 1060 aufgenommen wurden,
ist es dann auch möglich, die Positionen der übrigbleibenden Teilbilder
zu berechnen, die notwendig sind zum Zusammenstellen des zusammengesetzten
Bildes, und die optische Achse kann eingestellt werden auf eine solche
Position, und die fehlenden Teilbilder können erfasst werden.
-
15 und 16 stellen
optische Instrumente 1500 und 1600 gemäß anderer
Ausführungsformen dar, ähnlich zu dem optischen
Instrument 100 von 1, und Instrumente 1500 und 1600 können auch
verwendet werden zum Ausführen der oben beschriebenen Schritte.
-
Das
optische Instrument in 15 umfasst eine Steuereinheit,
eine Erfassungseinheit, eine Speichereinheit 1570 und eine
Anzeigeeinheit 1560. Die Erfassungseinheit 160 mit
einer Linsenanordnung 110, einer Kamera 120, einer
Abstandsmesseinheit 130 und einer Positionierungseinheit 140 ist identisch
zu der Erfassungseinheit, wie in 1 diskutiert
wurde, und es wird auf 1 für weitere Details
verwiesen.
-
Die
Erfassungseinheit 160 ist wieder verbunden mit der Steuereinheit 150,
enthaltend ein erstes Steuerelement 152 und ein zweites
Steuerelement 154. Ferner wird das erste Steuerelement 152 bereitgestellt
mit einer Umwandlungseinheit 1553 zum Umwandeln der Vielzahl
der Messpixel in Koordinaten der Vielzahl der zu messenden Positionen.
-
Die
Umwandlungseinheit 1553 kann in dem ersten Steuerelement 152 durch
Hardware verkörpert werden, zum Beispiel durch eine festverdrahtete Schaltung
oder eine ASIC oder Software oder eine passende Kombination von
beidem.
-
Es
sollte verstanden werden, dass die Steuereinheit 150 selbst
durch einen Mikroprozessorcomputer oder integrierte Schaltung realisiert
werden kann, darauf jedoch nicht begrenzt ist. Beispielsweise kann
die Steuereinheit 150 ein Mikroprozessor sein, auf dem
mehrere Softwareelemente ablaufen, beispielsweise Softwareelemente,
die den Funktionen des ersten Steuerelements 152 und des
zweiten Steuerelements 154 entsprechen, wobei die Umwandlungseinheit 1553 als
Softwareprogramm verkörpert sein kann, das eine Schnittstelle
bildet mit dem ersten Steuerelement 152.
-
Im
Einzelnen kann die Umwandlungseinheit 1553 die Umwandlung
ausführen unter Verwendung eines Umwandlungsalgorithmus
auf Grundlage von Teilen der folgenden Information, dem Ort der
Messpixel in dem Bild, der optischen Anordnung des Instruments,
speziell dem Versatz des Projektionszentrums der Kamera und dem
Ursprung des optischen Instruments, dem Offset der optischen Achse
und der Messachse und dem Abstand zu dem Objekt.
-
Jedoch
kann, wie oben beschrieben, die Umwandlung auch ausgeführt
werden durch eine einfache Nachschlagtabelle zum Nachschlagen vorher aufgezeichneter
Information hinsichtlich der Koordinaten einer Position, die einen
Ort eines Messpixels in dem Bild entspricht. Für eine höhere
Genauigkeit ist es auch denkbar, mehrere unterschiedliche Umwandlungstabellen
für unterschiedliche Abstände bereitzustellen.
-
Diese
Umwandlungstabelle, sowie die gemessenen Bilddaten und Abstandsdaten
können in einer Speichereinheit 1570 gespeichert
werden, die mit der Steuereinheit 150 verbunden ist, um
die Daten zu speichern für eine Nachbearbeitung.
-
Die
Speichereinheit 1570 kann irgendein gewünschtes
oder passendes Speichergerät sein, und kann eine Kombination
von mehreren der folgenden Komponenten sein, einem RAM, einem ROM,
einer Festplatte, einem (E)EPROM, einer Disk, einem Flash-Speicher,
etc. Ein Flash-Speicher kann nützlich sein zum Exportieren
der Daten für eine Nachbearbeitung. Jedoch können
andere Schnittstellen in Betracht gezogen werden für den
Zweck eines Exportierens von Daten, wie zum Beispiel eine einfache I/O-Schnittstelle.
-
Die
gespeicherten Bilder beziehen sich entweder auf ein lokales oder
globales Koordinatensystem. Ferner ist die Position eines erfassten
Bildes mit hoher Genauigkeit bekannt, und auf jedes Pixel wird genau
Bezug genommen. Die gespeicherten Bilder können kombiniert
werden mit gemessener dreidimensionaler Information in einer Datennachbearbeitung
zum Erreichen von zusätzlicher Messinformation. Eine dreidimensionale
Punktwolke ist nur dreidimensionale Information der Objektgeometrie
ohne semantische Information, die hinzugefügt werden kann
mit den gespeicherten Bildern, um die Verlässlichkeit der
Bildverarbeitung zu erhöhen.
-
Das
optische Instrument 1500 umfasst ferner eine Anzeigeeinheit 1560 zum
Anzeigen des benötigten Bildes oder Teilbildes, die irgendeine
Art von Anzeigeeinheit sein kann, wie zum Beispiel eine einfache
Kathodenstrahlröhren-(CRT)-Anzeige oder Flüssigkristallanzeige
(LCD, Liquid Crystal Display).
-
In
einer bevorzugten Ausführungsform können dreidimensionale
Punktdaten einer gemessenen Position überlagert werden
auf einem Bild oder Teilbild. Die dreidimensionalen Punktdaten können
als dreidimensionales Punktgitter, X-, Y-, Z-Koordinaten, horizontale
und vertikale Winkel mit Abstandsinformation oder in einer anderen
bekannten dreidimensionalen Darstellung gezeigt werden.
-
16 stellt
das optische Instrument 1600 gemäß einer
anderen Ausführungsform dar, das ähnlich ist zum
optischen Instrument 100 von 1.
-
Wie
in 16 dargestellt, kann das optische Instrument 1600 die
Steuereinheit 150, die Erfassungseinheit 160,
die Speichereinheit 1570, einen Transceiver 1680 und
eine abnehmbare Fernsteuereinheit 1660 umfassen. Die Steuereinheit 150 und die
Speichereinheit 1570 wurden im Detail in den 1 und 15 beschrieben,
und für eine detaillierte Beschreibung wird auf 1 und 15 verwiesen,
um unnötige Wiederholungen zu vermeiden.
-
16 stellt
die Erfassungseinheit 160 von 1 und 15 im
Detail dar. Die Linsenanordnung 110 in 16 umfasst
zwei Linsen 1642 und 1644, die bevorzugt abnehmbar
in einem Gehäuse 1640 platziert sind, um ein Gerät, ähnlich
zu einem Teleskop zu bilden. Die optische Achse 1646 der
Linsenanordnung ist rechtwinklig zu der Kamera gezeigt, und stimmt
optimalerweise mit der optischen Achse der Kamera 120 überein.
-
Wie
oben beschrieben, kann die Kamera 120 eine CCD oder CMOS-artige
sein oder irgendein anderes passendes Bildgebungsgerät.
Die Messachse 1658 der Abstandsmesseinheit 130 ist
parallel zu der optischen Achse 1646 gezeigt, aber stimmt
bevorzugt mit der optischen Achse 1646 überein.
-
Die
Abstandsmesseinheit 130 wurde im Detail vorher mit Bezug
auf 1 beschrieben. Die Positionierungseinheit 140 ist
wieder in der Erfassungseinheit 160 dargestellt, aber wie
vorher beschrieben, können Elemente der Positionierungseinheit
auch außerhalb der Erfassungseinheit 160 sein.
-
Ferner
ist die Steuereinheit 150 verbunden mit einem ersten Transceiver 1680 zum Übertragen und
Empfangen von Daten, beispielsweise Übertragen von Erfassungsdaten,
Bildern, an die abnehmbare Fernsteuereinheit 1660, um auf
der Anzeigeeinheit 1610 angezeigt zu werden. Zusätzlich
kann der erste Transceiver 1680 auch Steuerdaten empfangen
von der abnehmbaren Fernsteuereinheit 1600, die die Steuereinheit 150 steuert,
und insbesondere das erste und zweite Steuerelement.
-
Die
abnehmbare Fernsteuereinheit 1660 kann verbunden sein mit
der Steuereinheit 150, physikalisch durch feste Leitungen
oder durch eine drahtlose Verbindung, wie zum Beispiel Funk, WLAN,
beispielsweise IEEE 802.11 oder Bluetooth oder irgendeine andere
passende drahtlose Verbindung. Wie gekennzeichnet durch die gestrichelte
Linie, muss die abnehmbare Fernsteuereinheit 1660 nicht
ein Teil des optischen Instruments 1600 bilden, kann aber
von dem Benutzer herumgetragen werden zum Steuern des optischen
Instruments von einem entfernten Ort.
-
Im
Einzelnen umfasst die abnehmbare Fernsteuereinheit 1660 eine
Anzeigeeinheit 1610, eine Betriebssteuereinheit 1620 und
einen Transceiver 1630. Die Anzeigeeinheit 1610 kann
eine LCD-Anzeige sein und bevorzugt eine berührungsempfindliche
Anzeige, wie zum Beispiel ein berührungsempfindlicher Bildschirm,
der als Mensch-Maschine-Schnittstelle dient. Die Betriebssteuereinheit 1620 kann
eine Fokussteuerung, eine Trigger-Eingabe, ein alphanumerisches
Eingabegerät, wie zum Beispiel ein Keyboard (Tastatur)
und eine Zeigesteuerung enthalten, wie zum Beispiel eine Computermaus,
ein Joystick, ein Track-Ball, ein Touch-Pad oder irgendein anderes
passendes Gerät, was dem Benutzer erlaubt, manuell eine
Bewegung des optischen Instruments zu befehlen. Der Transceiver 1630 kann Erfassungsdaten
empfangen, die anzuzeigen sind auf einer Anzeigeeinheit 1610,
oder Steuerdaten übertragen von der Betriebssteuereinheit 1620.
Weitere Elemente können eine CPU und eine Batterie sein
(nicht gezeigt).
-
Gemäß einer
anderen Ausführungsform kann ein Programm bereitgestellt
werden, das Befehle enthält, die ausgebildet sind zum Hervorrufen
in einem Datenprozessor, der in der Steuereinheit oder der Steuereinheit 150 selbst
enthalten sein kann, Kombinationen der obigen Schritte auszuführen.
-
Das
Programm oder Elemente desselben können in einem Speicher
gespeichert werden, wie zum Beispiel einer Speichereinheit 1570 des
optischen Instruments, und von dem Prozessor zur Ausführung
geholt werden.
-
Über
dies hinaus kann ein computerlesbares Medium bereitgestellt werden,
in dem das Programm verkörpert ist. Das computerlesbare
Medium kann gegenständlich sein, wie zum Beispiel eine
Disk oder eine andere Art von Datenträger, oder kann aus
Signalen bestehen, die passend sind für eine elektronische,
optische oder eine andere Art von Übertragung. Ein Computerprogrammprodukt
kann das computerlesbare Medium umfassen.
-
Es
sollte verstanden werden, dass die hierin beschriebenen Schritte
sich nicht inhärent auf ein besonderes Instrument beziehen
und implementiert werden können durch eine passende Kombination von
Komponenten. Die optischen Instrumente, dargestellt in 1, 15 und 16,
und oben im Detail beschrieben, stellen bevorzugte Ausführungsformen
zum Ausführen der Schritte der beschriebenen Verfahren
dar. Jedoch muss dies nicht auf diese begrenzt sein.
-
Es
wird dem Fachmann ersichtlich, dass verschiedene Modifizierungen
und Variierungen in den Instrumenten und Verfahren der Erfindung,
sowie der Darstellung dieser Erfindung gemacht werden können,
ohne den Umfang oder Geist der Erfindung zu verlassen.
-
Die
Erfindung wurde mit Bezug auf spezielle Beispiele beschrieben, die
in aller Hinsicht vorgesehen sind, darstellend zu sein und nicht
beschränkend. Der Fachmann wird erkennen, dass viele verschiedene
Kombinationen von Hardware, Software und Firmware passend sind zum
Ausführen der vorliegenden Erfindung.
-
Über
dies hinaus werden andere Implementierungen der Erfindung ersichtlich
durch die Betrachtung der Beschreibung und das Ausführen
der hierin offenbarten Erfindung. Es ist vorgesehen, dass die Beschreibung
und die Beispiele als beispielhaft betrachtet werden. Daher sollte
es verstanden werden, dass erfinderische Aspekte in weniger als
allen Merkmalen einer einzelnen vorhergehenden offenbarten Implementierung
oder Konfigurierung liegen. Daher wird der wahre Umfang und Geist
der Erfindung durch die folgenden Ansprüche gekennzeichnet.
-
ZUSAMMENFASSUNG
-
Ein
optisches Instrument und ein Verfahren zum Erhalten von Abstands-
und Bildinformation eines Objekts wird offenbart zum Verbessern
der Geschwindigkeit und Genauigkeit einer Datenerfassung. Das Instrument
umfasst eine Kamera, Positionierungseinheit, Abstandsmesseinheit,
Linsenanordnung und Steuereinheit. Die Kamera erfasst Bilder eines
Objekts, und die Steuereinheit definiert eine Fläche, die
zu scannen ist, sowie ein Objektmerkmal des Objekts, wobei Messpixel
entsprechend zu Positionen auf dem Objekt in dem Bereich definiert
werden können mit erhöhter Dichte von Messpixeln
bei dem Objektmerkmal. Nachfolgend werden die Abstände zu
dem Objekt bei den ausgewählten Positionen, die von Interesse
sind, gemessen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - DE 10359415
A1 [0138]
- - WO 2005/059473 A2 [0138]