DE202010017899U1 - Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum - Google Patents

Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum Download PDF

Info

Publication number
DE202010017899U1
DE202010017899U1 DE202010017899U DE202010017899U DE202010017899U1 DE 202010017899 U1 DE202010017899 U1 DE 202010017899U1 DE 202010017899 U DE202010017899 U DE 202010017899U DE 202010017899 U DE202010017899 U DE 202010017899U DE 202010017899 U1 DE202010017899 U1 DE 202010017899U1
Authority
DE
Germany
Prior art keywords
recording
image
camera
line
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202010017899U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202010017899U priority Critical patent/DE202010017899U1/de
Publication of DE202010017899U1 publication Critical patent/DE202010017899U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Aufnahmeanordnung zur Gewinnung geometrischer und photometrischer Objektdaten mit einem Laserscanner, welcher wenigstens über zwei Drehachsen verfügt, um die eine Auslenkung dessen optischen Strahlenganges erfolgt, dadurch gekennzeichnet, dass der Laserscanner mit einer Zeilenkamera mechanisch so verbunden ist, dass diese wenigstens in einer dessen Drehachsen mit bewegt wird.

Description

  • Einsatzgebiet und technischer Hintergrund
  • Die Erfindung betrifft die Übernahme von Merkmalen realer Objekte und Szenen, wie deren Abbild und deren räumliche Abmessungen, in ein dreidimensionales Computermodell.
  • Die Notwendigkeit solcher Computermodelle entsteht unter anderem bei der Herstellung verformungsgerechter Aufmaße als Basis einer anschließenden Projektierung darauf aufbauender Rekonstruktionen oder Erweiterungen, aber auch in vielfältigen Simulationen der Wirklichkeit zu unterschiedlichsten Zwecken oder bei der Sicherung flüchtiger Situationen, wie z. B. nach Havarien oder Straftaten. Das Ziel besteht dabei in einer möglichst schnellen und genauen Gewinnung der Objektmerkmale in einer objektbezogenen Form, wobei sowohl Verfahren der Vermessungstechnik wie auch fotografischer Abbildungen zum Einsatz kommen sollen.
  • Stand der Technik
  • Die Erfindung bezieht sich auf den technischen Stand der Offenlegung DE 10 2010 011 528 und den dort angegebenen und fortgeschriebenen Stand der Technik. In dieser Schrift wird der Ansatz verfolgt, die Auswahl der Objektpunkte, deren Zuordnung zu Modellobjekten und die Bestimmung der Koordinaten bereits unmittelbar vor Ort auszuführen. Diese Arbeitsweise ermöglicht in der Summe der erforderlichen Arbeitszeit, wie auch im gerätetechnischen Aufwand, eine hohe Effizienz. Dabei verschiebt sich gegenüber anderen Anordnungen der Hauptteil des Arbeitsaufwands von der Offline-Nachbearbeitung auf die Aufnahmezeit vor Ort. Hierdurch ist aber die eigentliche Aufnahmezeit gegenüber bekannten Laserscanner-Aufnahmen länger, je nach Komplexität des entstehenden Modells unter Umständen sogar deutlich länger. Eine höhere Teilautomatisierung der interaktiven Tätigkeit des Bedieners ist deshalb erwünscht.
  • Es gibt in der Praxis auch Aufnahmesituationen, in denen eine äußerst kurze Aufnahmezeit gefordert wird, z. B. weil dazu Produktionsprozesse in einer Großanlage unterbrochen werden müssen. Hier wird trotz voranschreitender Automatisierung auch nach derzeitigem Stand weiterhin eine Laserscanner-Aufnahme zeitlich im Vorteil sein, auch wenn zunächst viel mehr Informationen gesammelt werden, als am Ende wirklich verarbeitet werden können und der Nachbearbeitungsaufwand nach dem Stand der Technik immer noch groß ist. Gefragt sind also andererseits auch Aufnahme- und Arbeitsmethoden, die den Nachbearbeitungsaufwand einer erhaltenen Punktewolken deutlich reduzieren.
  • Stellvertretend für eine Vielzahl von Vorschlägen zur Lösung des letztgenannten Problems sei die Schrift Schwermann, R., Effkemann, C.: Kombiniertes Monoplotting in Laserscanner- und Bilddaten mit PHIDIAS in Photogrammetrie und Laserscanning: Anwendung für As-built-Dokumentation und Facility Management/Thomas Luhmann (Hrsg.). – Wichmann, 2002, S. 57–70, genannt. Hier wird vorgeschlagen, zusätzlich zur Laserscanner-Aufnahme gleichzeitig auch einzelne Bildaufnahmen zu fertigen. Diese Einzelbilder werden photogrammetrisch über eine Bündelblockausgleichung orientiert und vorzugsweise zu Orthophotos für einzelne Objektbereiche entzerrt. Die so gewonnenen Objektansichten dienen dazu, die in der Punktewolke manifestierte Objektsituation besser zu interpretieren. Als eine Variante des so genannten Monoplottings werden die Ansichten von fotografischer Abbildung und Punktewolke in einer gemeinsamen Ansicht überlagert und damit ein visueller Bezug zwischen Bild- und Scannerdaten hergestellt. Dies gelingt jedoch nur bedingt, weil sich die Perspektiven der Bildaufnahmen von jener der Laserscanner-Aufnahme prinzipiell unterscheiden und deshalb auch nicht mittels Entzerrungsmaßnahmen vollständig in Übereinstimmung gebracht werden können. Laut der Autoren wird aus der bildlichen Darstellung das „Was” und aus den Scannerdaten das „Wo” entnommen. Die Bildinformationen sollen also nur zum besseren Verständnis des Bedieners bei der Nachbearbeitung der Punktewolke dienen, um sich in den Details des Objekts besser orientieren zu können. Im Übrigen ist der beschriebene manuelle Aufwand für die gesamte Auswertung, allein schon wegen der Bündelblockausgleichung und Entzerrung der Bilder, erheblich.
  • Auch weitere bekannte Lösungen erfordern einen hohen Arbeitsanteil für die Extraktion relevanter Modellobjekte aus der Punktewolke, bezogen auf den gesamten Arbeitsaufwand. Sind es doch immer wieder die aus der Photogrammetrie bekannten Arbeitsmethoden, die auf eine manuelle Auswahl und Referenzierung vieler Bezugspunkte angewiesen sind.
  • Einige Modelle von Laserscannern nutzen an- oder eingebaute Bildkameras. Hier sind unter anderem die Modelle VZ-400 des Herstellers RIEGL Laser Measurement Systems GmbH, Horn (Österreich), mit aufgesetzter Standard-Spiegelreflexkamera, oder HDS3000 des Herstellers Leica Geosystems AG, Heerbrugg (Schweiz), mit integrierter Farbkamera bekannt. In allen Fällen werden die Kameras laut Herstellerangaben dazu benutzt, den geometrischen Modellen, die aus den Punktewolken der Laserscanner entstehen, Texturen zu überlagern, um eine fotorealistische Darstellung zu erreichen. Hierzu dient auch die in Laserscannern der LS-Serie des Herstellers FARO Europe GmbH & Co. KG, Stuttgart, integrierte Bildaufnahme als Aufnahme des Reflexionsverhaltens in jedem der vermessenen Oberflächenpunkte für die Wellenlänge des verwendeten Laserlichts. Eine ähnliche Kombination wurde bereits in DE 199 16 305 beschrieben. Eine photogrammetrische Verknüpfung der Bilddaten mit den Scannerdaten zum Zwecke der geometrischen Objektmodellierung ist für keines der bekannten Systeme bekannt.
  • Technische Aufgabenstellung
  • Der Erfindung liegt die technische Aufgabe zugrunde, eine Aufnahmeanordnung zu entwerfen, die eine zeitsparende und exakte Übernahme realer Objekte in ein Computermodell ermöglicht. Dabei soll gegenüber bekannten Anordnungen der Zeitaufwand für die Aufnahme vor Ort auf ein Minimum reduziert werden. Der gesamte Arbeitsaufwand zur Aufnahme für ein Modellprojekt soll methodisch reduziert werden und in jedem Einzelfall vom Umfang, von der Komplexität und von den Genauigkeitsanforderungen des Projekts abhängen, so dass aus geringeren Anforderungen an die Modellkomplexität auch geringere Kosten für die Modellierung folgen.
  • Problemlösung, Beschreibung der Erfindung
  • Das Problem wird mit der in den Hauptansprüchen gekennzeichneten Erfindung gelöst. Vorteilhafte Ausgestaltungen sind in den weiteren Ansprüchen angegeben.
  • Folgende Begriffe werden in dieser Schrift verwendet:
    Als Laserscanner wird eine optomechanische Baugruppe bezeichnet, die eine Laser-Distanzmesser-Einheit – kurz Lasereinheit – enthält, deren sende- und empfangsseitige Strahlenbündel über rotierende oder oszillierende optische Umlenkeinrichtungen, bzw. auch durch Bewegung der Lasereinheit selbst, in vorgegebener zeitlicher Folge ausgelenkt werden. Über den determinierten zeitlichen Zusammenhang dieser Auslenkbewegungen kann jedem aufeinander folgenden Winkelschritt der Messwert einer zugehörigen punktuellen Entfernung zugeordnet werden. Allgemein verbreitet ist eine kontinuierliche oder sinusoidale Winkelgeschwindigkeit bei der Ablenkung. Ebenso ist aber auch das Anfahren vorgegebener Zielpositionen denkbar. Grundsätzlich weist ein Laserscanner einen zentralen Schnittpunkt aller objektseitig ausgelenkten Einzelstrahlen auf, der als Beobachtungszentrum bezeichnet werden soll und gleichzeitig der Koordinatenursprung des polaren Scanner-Koordinatensystems ist. Ferner unterscheidet man zwischen Kamera- und Panorama-Scannern, die aber grundsätzlich beide zum Einsatz in der Erfindung geeignet sind. Als Scannerdaten wird die Gesamtheit aller einzelnen Messpunkte bezeichnet, die jeweils aus den Koordinaten Horizontalwinkel, Vertikalwinkel und Abstand (Radius) bestehen. Die Scannerdaten formieren eine so genannte Punktewolke im Raum.
  • Als Kamera wird eine elektronische Abbildungsvorrichtung bezeichnet, die aus einem Objektiv und einer lichtempfindlichen Wandlermatrix, z. B. als CCD- oder CMOS-Array, besteht und ein elektronisches Bildsignal erzeugt. Unter dem Begriff Nodalpunkt wird, wie im Sprachgebrauch der Panorama-Bildaufnahmetechnik verbreitet, der angenommene Projektionsmittelpunkt auf der optischen Achse der Kamera verstanden, durch den alle Projektionsstrahlen annähernd verlaufen. Dieser Nodalpunkt ist somit auch das Beobachtungszentrum der Kamera. Er befindet sich bei vielen optischen Konstruktionen innerhalb des Objektives, kann aber auch davor oder dahinter liegen.
  • Unter dem Begriff Zeilenkamera wird eine elektronische Kamera nach obiger Definition verstanden, die anstelle des allgemein verbreiteten zweidimensionalen matrixartigen Bildaufnahme-Sensors einen eindimensionalen linien- oder zeilenförmigen Bildaufnahme-Sensor, auch Zeilensensor genannt, aufweist. Auch alle Sonderformen von Zeilensensoren, wie z. B. Mehrfarben- oder TDI(time delay and integration)-Sensoren werden hier in die Begriffsdefinition einbezogen. Unter einem Panoramabild wird die weitwinklige Abbildung der Umgebung eines Beobachtungspunktes bezeichnet, die nicht auf die Abbildungsgrenzen der planaren Zentralprojektion von 180° begrenzt sein muss, sondern prinzipiell den gesamten Definitionsbereich eines Polarkoordinatensystems von bis zu horizontal 0...360° und vertikal –90...+90° als gedachte Projektion auf eine Vollsphäre erreichen kann. Bedingung für ein Panoramabild ist, dass dieses aus einem einzigen Projektionszentrum als Beobachtungszentrum entstanden ist, welches sich im Koordinatenursprung eines polaren Bildkoordinatensystems befindet, so dass sich jeder einzelne Bildpunkt eindeutig einem Koordinatenpaar aus Horizontalwinkel und Vertikalwinkel zuordnen lässt. Als Bilddaten wird also die Gesamtheit aller einzelnen Bildpunkte des Panoramabildes bezeichnet, die jeweils aus den Koordinaten Horizontalwinkel, Vertikalwinkel und dem photometrischen Wert (Grauwert, Farbwert) bestehen. Die Bilddaten formieren das auf eine ebene oder gekrümmte Fläche projizierbare sichtbare Abbild der Objekte. Im Sonderfall, bei engeren Grenzen des interessierenden Sichtwinkelbereichs, kann ein Panoramabild auch mittels einer einzigen Aufnahme einer herkömmlichen Bildkamera entstehen, wenn die oben genannten Bedingungen erfüllt werden.
  • Unter einer Panoramakamera sei jede Kamera-Anordnung verstanden, die zur korrekten Aufnahme eines Panoramabildes geeignet ist. Insbesondere kann dies eine Zeilen- oder Bildkamera sein, die mit Hilfe eines Panoramakopfes aufeinander folgend in verschiedene Winkelpositionen gebracht wird, um aus diesen Positionen Einzelaufnahmen vorzunehmen, die dann anschließend zu kontinuierlichen Panoramabildern verrechnet werden. Als Panoramakopf wird dabei eine Schwenk-Neige-Einheit verstanden, auf der eine Kamera so befestigt ist, dass sich deren Nodalpunkt genau im Schnittpunkt der beiden Drehachsen befindet. Ein Panoramakopf kann aber auch nur eine Drehachse aufweisen. Hier kann der Nodalpunkt an beliebiger Stelle auf dieser Drehachse liegen. Für eingeschränkte Anforderungen an die maximalen Bildwinkel kann auch eine – vorzugsweise weitwinklig abbildende – flächig abbildende Einzelkamera als Panoramakamera zum Einsatz kommen. Auch die eingangs erwähnten bekannten Anordnungen, die ein Panoramabild durch aufeinander folgende punktuelle Erfassung mittels beweglicher Spiegel aufnehmen, werden hier dem Begriff Panoramakamera zugeordnet.
  • Unter einem Rechner wird eine elektronische Rechenvorrichtung verstanden, die zumindest aus einem Steuerwerk, einer arithmetisch-logischen Einheit, einem Programm- und Datenspeicher, sowie Datenein- und -ausgabeeinheiten, sowohl als Daten- wie auch als Nutzerinterface, besteht. Weiterhin wird in den Begriff Rechner nachfolgend auch dessen Betriebssystem und geeignete Anwendungs-Software mit impliziert. Der Rechner kann Teil der Steuereinheit des Aufnahme-Systems sein, diese vollständig mit umfassen oder mit einer externen Steuereinheit über Datenschnittstelle verbunden sein. Sofern es um die Datenerfassung nach der Aufnahme geht, muss der Rechner keinerlei Zusammenhang mit dem Aufnahmesystem aufweisen. Auch kann es sich hier um einen anderen Rechner handeln, als bei der Aufnahme.
  • Als ein Display wird jede Art einer elektronischen Bildanzeigevorrichtung, z. B. ein LCD-Bildschirm, verstanden, während als Pointer eine grafische Zeigevorrichtung, z. B. eine Computermaus, bezeichnet wird, die die punktgenaue Auswahl eines Koordinatenpaares in der Bildfläche ermöglicht. Als Tastatur wird jede Art von Eingabegeräten für alphanumerische Daten als Nutzerschnittstelle bezeichnet. So kann z. B. auch eine am Display dargestellte Tastatur, die mit einem Pointer bedient werden kann, die Rolle der Tastatur übernehmen.
  • Display, Pointer und Tastatur gehören im Allgemeinen zu den Datenein- und -ausgabeeinheiten des Rechners.
  • Der Begriff Objekt wird in zweierlei Bedeutung gebraucht: Zum Einen als Bezeichnung des Originals im tatsächlichen Raum. In diesem Zusammenhang werden vorzugsweise die Begriffe 'Objektraum', 'Oberflächenpunkte im Objektraum' usw. verwendet. Zum Anderen ist dieser Begriff der objektorientierten Klassifizierung entnommen und bezeichnet hier Modellobjekte als Elemente des Modellraumes mit festliegenden Eigenschaften, z. B. Flächen, Zylinder usw. Deshalb wird in diesem Zusammenhang vorzugsweise der Begriff 'Modellobjekt verwendet. Auch weitere in der Fachliteratur für objektorientierte Klassifizierung, bzw. Programmierung, eingeführte Begriffe, wie Klasse, Instanz und Eigenschaft, werden hier im gleichen gebräuchlichen Sinne verwendet.
  • Grundlage der Erfindung ist die Idee, das Computermodell objektorientiert, ähnlich wie mit einem 3D-CAD-Zeichenprogramm, zu konstruieren, dabei aber alle Informationen, die während der Aufnahme gewonnen werden können, als Zeichen- und Strukturierungs-Hilfsmittel so einzusetzen, dass ein maximaler Automatisierungsgrad erreicht wird.
  • Mit der erfindungsgemäßen Anordnung erfolgt zunächst die Aufnahme einer Punktewolke in bekannter Art und Weise mit Hilfe eines Laserscanners. Gleichzeitig oder zeitlich versetzt wird zusätzlich ein Panoramabild mit einem zum Beobachtungszentrum des Laserscanners identischen Beobachtungszentrum der Panoramakamera aufgenommen.
  • Im einfachsten Falle wird dies dadurch erreicht, dass nacheinander auf gleicher Aufstellposition ein Laserscanner und eine Panoramakamera zum Einsatz kommen. Von grundlegender Bedeutung ist dabei, dass
    • 1) die Koordinaten der Beobachtungszentren beider Systeme exakt übereinstimmen und
    • 2) die Horizontal- und Vertikalwinkel-Koordinaten beider Aufnahmesysteme so kalibriert sind, dass die Winkel-Koordinaten von Scanner- und Bilddaten eindeutig einander zugeordnet werden können.
  • Außerdem ist eine Horizontierung beider Aufnahmesysteme sehr zweckmäßig, damit eine gemeinsame Horizontalebene erreicht und eine aufwändige Koordinatentransformation vermieden wird.
  • Eine weitere Möglichkeit der Panoramabild-Gewinnung im Sinne des erfindungsgemäßen Verfahren ist dadurch gegeben, dass der Laserscanner neben der Gewinnung der Koordinaten-Informationen auch zur gleichzeitigen Aufnahme des Reflexionsverhaltens für Laser- oder natürliches Licht geeignet ist, so wie dies eingangs im Stand der Technik beschrieben wurde.
  • Eine spezielle erfindungsgemäße Anordnung, die beide Aufnahmefunktionen in einem gemeinsamen Gerät zweckmäßig vereint, wird weiter unten beschrieben.
  • Das erfindungsgemäße Verfahren sieht weiter vor, dass die während der Aufnahme gewonnenen polaren Koordinaten der Scanner- und Bilddaten, die beide aus einem gemeinsamen Beobachtungszentrum heraus aufgezeichnet wurden, zunächst in ein gemeinsames Koordinatensystem überführt werden, so dass ein beliebiger, mit dem Laserscanner vermessener, Oberflächenpunkt des Objektes die gleichen Winkelkoordinaten aufweist, wie die Abbildung dieses Punktes im Panoramabild.
  • Hierbei ist natürlich klar zu stellen, dass weder bei der fotografischen Abbildung, noch beim Laserscan-Prozess unendlich kleine Flächen im Sinne eines Punktes abgebildet werden. Statt dessen erfolgen flächenintegrierende Aufnahmen kleiner, etwa kreisförmiger und einander überlappender Flächen. Auch wird man in der Praxis für eine Bildaufnahme stets kleinere und dichter beieinander liegende „Punktflächen” erfassen können, als für den Laserscan. Es sei angenommen, dass die Aufnahmedichte der Bildpunkte grundsätzlich so groß ist, dass jedes relevante Teilobjekt in für die Aufgabenstellung ausreichender Auflösung im Panoramabild dargestellt wird. Allgemein betrachtet wird es also keine Übereinstimmung zwischen den Winkelkoordinaten von Scanner- und Bilddaten geben. Jedem Bildpunkt kann aber ein nächstliegender Scanpunkt zugeordnet werden oder umgekehrt.
  • Das gemeinsame Koordinatensystem der Wahl ist das Polarkoordinatensystem, weil es adäquat zu den Aufnahmeverfahren und den gewonnenen Daten ist. Wegen der genannten Aufstellungsvorschrift ist der Koordinatenursprung und vorteilhafter Weise auch die Horizontalebene beider Aufnahmen prinzipiell als einheitlich vorauszusetzen. Für die Transformation genügt dann ein einfacher Drehoperator als Offset für den Horizontalwinkel. Stimmen die Horizontalebenen nicht überein, oder sind noch technische Abweichungen zu korrigieren, so sind selbstverständlich auch weitere bekannte Koordinatentransformationen einsetzbar. Die Orientierungsparameter können hierzu in bekannter Weise den natürlichen oder künstlichen Objektpunkten entnommen werden. Ein gemeinsames Koordinatensystem bedeutet nicht zwangsläufig, dass alle Informationen technisch auch in einer gemeinsamen Datei gespeichert werden müssen. Dies wird im Allgemeinen auch wenig sinnvoll sein.
  • Das erfindungsgemäße Verfahren sieht nun weiter vor, wahlfreie Bildausschnitte des Panoramabildes im zweckmäßigen Maßstab auf einem Display darzustellen, so dass beliebige Koordinaten des Bildes mit einem Pointer ausgewählt werden können.
  • Im nächsten Schritt werden beliebige Objekte im Bild erkannt und in einzelne Modellobjekte überführt. Hierzu ordnet der Bediener gedanklich einem jeden abgebildeten und zu modellierenden Objekt eine abstrakte Modellklasse zu und deklariert mit Hilfe des Rechners eine neue Instanz dieser Objektklasse.
  • Hierzu sind im Anwendungsprogramm des Rechners alle erforderlichen Objektklassen hinterlegt, bzw. lassen sich über eine definierte Datenschnittstelle auch hinzuladen. Eine Objektklasse besitzt festgeschriebene Eigenschaften, zu denen auch eine eindeutige geometrische Beschreibung mit zugehörigen analytischen Zusammenhängen gehört. So besitzt ein regelmäßiger Zylinder als Objektklasse zwei gleichgroße kreisförmige ebene Stirnflächen und eine eindimensional und parallel zu den Stirnflächen gekrümmte Mantelfläche. Die Kanten werden als Schnittkanten dieser Teilflächen miteinander gebildet. Die Klassenbeschreibung ist also die Beschreibung eines allgemeinen Zylinders, wie sie aus der analytischen Geometrie bekannt ist und somit allgemeingültig. Dem Bediener ist es nun möglich, beliebige Instanzen bekannter Objektklassen anzulegen und in der Weise zu aktivieren, dass diesen Instanzen alle anschließend mit dem Pointer ausgewählten Bildkoordinaten als Oberflächenpunkte zugeordnet werden.
  • Viele Objektklassen benötigen eine Differenzierung von Teilbereichen ihrer Oberfläche. Für solche Objekte ist es vorgesehen, ihnen Subobjekte als Klassenelemente zuzuordnen, die, soweit zweckmäßig, auch in weitere Abstraktionsebenen zerlegt werden können. Wird nun vom Bediener ein bestimmtes Objekt instanziiert, so werden automatisch auch alle Subobjekte angelegt, das heißt, auch Objektinstanzen für Subobjekte gebildet.
  • Im Beispiel des Zylinders heißt das, dessen drei Teilflächen bilden Subobjekte mit einer definierten Beziehung zueinander und werden mit einem neu anzulegenden konkreten Modellobjekt, z. B. einer zylindrischen Säule, mit erzeugt.
  • Ebenso ist auch die Verwendung von Bauteilebibliotheken möglich, aus denen weitere Grundformen von Objekten entnommen werden können, z. B. Trägerprofile im Stahl- und Leichtmetallbau.
  • Nach dem Aktivieren einer Objektinstanz sucht der Bediener nun im Panoramabild dessen fotografische Abbildung und wählt den Bildausschnitt zweckentsprechend aus. Um jetzt Bildkoordinaten der Objektinstanz als Elemente zuzuordnen, kann er diese mittels Pointer in den abgebildeten Flächen auswählen, bzw. markieren. Im Beispiel des Zylinders gilt hier jetzt jede der drei Teilflächen allein als Objektinstanz. Sofern sie im Bild sichtbar sind, werden ihnen also getrennt voneinander vom Bediener Bildpunkte zugeordnet.
  • Nach dem Zuweisen eines jeden Bildpunktes wird nun vom Rechner automatisch in den Scannerdaten gesucht, welche vermessenen Koordinatenpunkte der Punktewolke als nächste Nachbarn hinsichtlich der Winkelkoordinaten in Frage kommen. Über variable Auswahlvorschriften, z. B. nach dem kleinsten Abstand, wird nun der optimale Nachbarpunkt ausgewählt, wonach die Koordinatenauswahl des Bedieners mit einer Art Fangfunktion auf den diesen Winkelkoordinaten am nächsten kommenden Bildpunkt korrigiert und vorteilhafter Weise im Panoramabild mit einem Marker dargestellt wird.
  • Um dem Bediener schon vorher anzuzeigen, wo im Bild sich vermessene Scankoordinaten befinden, können diese gleichzeitig mit dem Panoramabild als Punkte- oder Gitternetz angezeigt werden. Besonders dann, wenn die Dichte dieser Punkte klein gegenüber der Bildauflösung ist, gestaltet sich die Koordinatenauswahl dadurch zielsicherer.
  • Sollte der Bediener feststellen, dass nach dem „Fangen” einer Eingabe der Marker außerhalb der ausgewählten Objektfläche liegt, kann er diesen auf eine andere Position ziehen oder ganz löschen.
  • Im Ergebnis dieser Tätigkeit sind jedem Modellobjekt, oder Elementen davon, vermessene Raumkoordinatenpunkte aus Scannerdaten zugeordnet. Mit allgemein bekannten analytischen Methoden werden jetzt bei ausreichender Anzahl zugeordneter Punkte und entsprechender räumlicher Konstellation die Parameter der Modellobjekte berechnet und diese vollständig geometrisch beschrieben. Führt eine zu große Anzahl zugeordneter Messpunkte zur Überbestimmtheit, so ist diese in aller Regel mit bekannten statistischen Methoden, z. B. nach der Methode der kleinsten Fehlerquadrate, aufzulösen. Ebenso können einzelne Messpunkte aus der Berechnung ausgeschlossen werden, wenn deren Koordinateninformationen sich grundlegend von den übrigen unterscheiden.
  • Die bisherige Beschreibung der Zuordnung von vermessenen Objektpunkten bezieht sich darauf, dass die räumliche Form und Lage von Oberflächen von einer ausreichend großen Anzahl bekannter Punkte an beliebiger Stelle in diesen Oberflächen definiert ist. Die räumliche Begrenzung der Objekte ergibt sich oft aufgrund von Schnittlinien mit anderen Flächen oder aus der Gestalt des Objekts, z. B. bei einer Kugel. Nicht immer können die Objekte allein dadurch eindeutig beschrieben werden. Für solche Fälle ist auch die Vorgabe von Randkonturen vorgesehen: Nachdem die Fläche durch Oberflächenpunkte ausreichend beschrieben ist, werden deren begrenzende Konturen in einem speziellen Modus in die Darstellung des Panoramabildes eingetragen, indem die dort abgebildeten Konturen nachgezeichnet werden. Im internen Rechenprozess werden die Winkelkoordinaten dieser Konturen auf die Modelloberflächen abgebildet, wo sie dann begrenzend auf diese wirken.
  • Je nach Vollständigkeitsgrad der so bestimmten Objektpunkte werden vom Rechner entweder ganze Modellobjekte oder Teile davon mit ihren Abmessungen und ihrer Lage im Raum bestimmt. Dabei kann es auch vorkommen, dass die Informationen noch nicht zu einer vollständigen Bestimmung ausreichen. In diesem Fall wird das Modellobjekt zunächst soweit definiert, wie zum gegenwärtigen Informationsstand möglich.
  • Um den Bediener in seiner interaktiven Arbeit bestmöglich zu unterstützen, werden die Modellobjekte stets so weit wie bis dahin bekannt bildlich aus der Perspektive der Darstellung des Panoramabild-Ausschnitts auf dem Display dargestellt. So kann er auch schnell erkennen, welche Informationslücken noch bestehen und durch weitere Bildkoordinaten-Zuweisungen zu schließen sind. Darüber hinaus ist es zur Gewinnung einer besseren Übersicht auch vorgesehen, dass sich der Betrachter mit seiner Perspektive aus dem eigentlichen Beobachtungspunkt lösen und frei in der virtuellen Darstellung des Objektraumes bewegen kann.
  • Durch die Relation unterschiedlicher Objekte zueinander im Raum werden zusätzliche Informationen gewonnen. Wird z. B. eine Wandfläche zunächst nach den Methoden der analytischen Geometrie aus wenigstens drei Messpunkten als unendliche Fläche vermessen und beschrieben, so wird diese mit der nächsten, auf die gleiche Weise gewonnenen angrenzenden Wandfläche bereits einseitig begrenzt, wodurch als weiteres Modellobjekt eine Kante definiert wird.
  • Bereits hier ist der Vorteil gegenüber dem Versuch, diese Kante direkt als Linie zu bestimmen, sichtbar: Die Modellobjekte entstehen sofort aus den gemessenen Koordinaten im dreidimensionalen Objektraum, wobei die Abstandsmessungen grundsätzlich nicht für Eckpunkte oder Kanten, sondern für Flächenpunkte erfolgten. Dabei können größere Unsicherheiten bei der genauen Auswahl der Messpunkt-Koordinaten toleriert werden, solange sie sich nur innerhalb der deklarierten Oberflächenbereiche befinden.
  • Objekte, die zueinander in engerer geometrischer oder symantischer Beziehung stehen, können zu einem komplexen Objekt gruppiert werden. Um hier die Arbeit zu erleichtern, kann im Anwendungsprogramm ein strukturierter Objektbaum erstellt werden, der auch eine hierarchische Gruppierung von Modellobjekten erlaubt. Ebenso, wie die beschriebene Zerlegung in Klassenelemente nach „unten”, können also auch übergeordnete, zusammenfassende Klassen instanziiert werden, so dass am Ende ein Objektbaum mit einer beliebigen Anzahl von Abstraktionsebenen entsteht.
  • Weiterhin ist es vorteilhaft, Objekte und Gruppen bei der Darstellung einzeln ein- oder ausschalten zu können, um das Prinzip der Übersichtlichkeit und räumlichen Vorstellbarkeit zu wahren. Wichtig ist also, dass ein interaktiver und weitgehend intuitiver Arbeitsablauf entsteht, bei dem wechselweise neue Messpunkte im Panoramabild ausgewählt und Objekten zugeordnet, sofort die daraus gewonnenen neuen Informationen für die Erweiterung des dreidimensionalen Modells ausgewertet und die aktuellen Ergebnisse in Form der perspektivischen Darstellung angezeigt werden. Danach werden erneut weitere Messpunkte zugewiesen usw.
  • Die nachfolgend beschriebenen Ausgestaltungen des Verfahrens sind zusätzlich auch im Verfahren gemäß Hauptanmeldung DE 10 2010 011 528 anwendbar. Sie befassen sich mit einer Teilautomatisierung der Auswahl von Bildpunkten für die Zuordnung zu einer selektierten Objektinstanz. Dabei ist es nebensächlich, ob diese Arbeitsschritte erst nach der Aufnahme bei der Zuweisung von Bildpunkten zu einer bereits aufgenommenen Punktewolke oder, wie im Verfahren nach Hauptanmeldung, bereits während der Aufnahme bei der Auswahl der Winkelkoordinaten für die Abstandsmessung ausgeführt werden.
  • Für beide Varianten wurde erklärt, wie einzelne Punkte mittels Pointer im dargestellten Bildausschnitt ausgewählt werden. Zur weiteren Steigerung der Arbeitseffizienz des Bedieners werden die nachfolgenden Verfahrensschritte beschrieben, die einzeln oder in ihrer Gesamtheit anwendbar sind.
  • In der Hauptanmeldung wurde bereits darauf verwiesen, dass durch automatische Variation der Winkelkoordinaten Messpunkte in unmittelbarer Umgebung des ausgewählten Punktes zusätzlich bestimmt werden können, um eine höhere Messsicherheit zu erzielen oder um in kleinen Flächenbereichen deren Normalvektor zu bestimmen und dass bei großen Flächen automatisch Zwischenkoordinaten überprüft werden können. Dies alles ist auch im Zusammenhang mit dem erfindungsgemäßen Verfahren vorteilhaft. Durch zusätzliches Einbeziehen benachbarter Koordinatenpunkte der Punktewolke werden einerseits die durch Sensor-Rauschen verursachten Messunsicherheiten reduziert, andererseits aber auch die objektbedingten unregelmäßigen Maßabweichungen ausgeglichen. Voraussetzung ist dabei natürlich, dass die automatisch ausgewählten zusätzlichen Punkte tatsächlich noch zum jeweiligen Objekt gehören, also nicht außerhalb liegen oder von anderen Objekten oder Unstetigkeiten verfälscht sind. Hierzu wird eine Plausibilitätsprüfung eingeführt, die automatisch überprüft, ob solche Punkte innerhalb einer vorgegebenen Toleranzgrenze noch auf dem Objekt liegen können, oder nicht. Es wird also methodisch zwischen Punkten erster und zweiter Ordnung unterschieden, je nachdem, ob sie explizit vom Bediener oder automatisch definiert wurden.
  • Um einen ähnlichen Effekt bei strengerer Bindung an die Bedienervorgaben zu erreichen ist vorgesehen, in einem Flächenmodus mit dem Pointer keine punktgenauen Koordinaten, sondern eine Fläche anzugeben, in der eine ebenfalls vorwählbare Anzahl von Punkten oder eine Punktdichte automatisch verteilt wird oder einfach alle vorhandenen Punkte der Scannerdaten ausgewertet werden, die von dieser Fläche eingeschlossen sind. Dies wird vorteilhaft durch Aufziehen von Rechtecken oder Ellipsen in der Abbildung erreicht.
  • Weiterhin ist vorgesehen, bei der automatischen Punktezuordnung auch Bildmerkmale, wie z. B. Unstetigkeiten des Farbwertes, einzubeziehen und hieraus Flächengrenzen der Objekte zu extrahieren. Verarbeitungsvorschriften für die Extraktion solcher Merkmale sind aus der Fachliteratur hinreichend bekannt.
  • Über die beschriebene Benutzung des Panorama-Bildes als „Konstruktionsvorlage” hinaus ist es weiterhin vorgesehen, Bildmerkmale nach bekannten Methoden der Bildverarbeitung automatisch auszuwerten und diese wechselseitig mit den im Modellraum entstehenden Objekten abzugleichen, um selbstständig, also ohne direkten Eingriff des Bedieners, Unklarheiten oder Ungenauigkeiten abzuklären, Objektkanten nachzujustieren oder den Detailreichtum des Modells zu verbessern.
  • Es ist vorgesehen, einzelne Objekte nicht nur zu Gruppen zu verknüpfen, sondern auch voneinander zu subtrahieren, So ist es sehr vorteilhaft, Durchbrüche durch Flächen, wie z. B. Fenster und Türen in Wandflächen, oder Hohlräume, wie Bohrungen, Kanäle u. dgl., in solche Flächen- oder Volumenelemente einzufügen, nachdem das Objekt zunächst vereinfacht beschrieben wurde.
  • Für ein flüssiges Arbeiten sind Tastaturbefehle zum schnellen Umschalten von Darstellungs-Maßstäben und zum schnellen Ein- und Ausblenden des Bildes und der einzelnen Objekte oder Objektgruppen vorgesehen.
  • Werden im Arbeitsprozess Objekte modelliert, die auch in anderen Projekten wiederverwendbar sind, so können diese in einer Objekt-Datenbank gespeichert und vom Anwendungsprogramm als weiterer Objekttyp sofort abgerufen werden.
  • Es ist vorgesehen, bereits aufbereitete Modellobjekte oder komplexe Objektgruppen kopieren und im Raum verschieben, drehen oder spiegeln zu können. Diese Funktionen dienen einer schnelleren Modellierung von sich wiederholenden Elementen des Originals. Gehören z. B. zu einem zu modellierenden Gebäude mehrere ähnliche Säulen mit Sockeln und Stuckatur, so wird nur eine davon komplett modelliert, während die übrigen aus der ersten dupliziert und mit einigen zusätzlich zu verknüpfenden Koordinaten als Fangpunkte einjustiert werden. Auch hier sind Bildmerkmale verwendbar, um diesen Prozess zusätzlich zu automatisieren.
  • Dieses Multiplizieren von Objektmerkmalen wird auch dann verwendet, wenn eine Anzahl ähnlicher Objekte vorhanden, in keinem aber vollständig sichtbar sind. Als Beispiel sei eine Vielzahl gleichartiger Fenster in einer Fassade genannt, die für einen zentralen Beobachtungspunkt unterschiedlich perspektivisch abgeschattet werden. Hier werden die Merkmale jeder Einzelinstanz ähnlicher Objekte gesammelt und dann auf alle angewendet.
  • Es ist vorgesehen, global oder individuell gültige Toleranzgrenzen für die Abweichung von idealisierten Objekten durch Nutzereingabe vorzugeben, die dann über eine automatisch ablaufende Plausibilitätsprüfung die Zugehörigkeit von Oberflächenpunkten zum jeweiligen Objekt prüfen. Sind Form und Lage von Objekten aufgrund der Anzahl gemessener Oberflächenpunkte überbestimmt, so erfolgt dann, je nach Prüfergebnis, die Festlegung der Objektparameter nach dem kleinsten Fehlerquadrat oder das Objekt wird in Elemente zerlegt, die dann einzeln mit Hilfe von gemessenen Oberflächenpunkte weiter spezifiziert werden. Hierfür ist auch vorgesehen, nach hierdurch entstehendem zusätzlichen Informationsbedarf weitere Oberflächenpunkte automatisch mit Scannerdaten abzugleichen.
  • Die erfindungsgemäße Anordnung besteht aus der baulichen Kombination eines Laserscanners bekannter Ausführung, vorzugsweise als Panorama-Scanner, mit einer Zeilenkamera. Laserscanner lenken den Lichtstrahl-Verlauf der Laser-Messeinheit in zwei zueinander rechtwinklig angeordneten Drehachsen aus. Dabei ist es gebräuchlich, in einer ersten Drehachse mit einer hohen Drehzahl zu arbeiten und damit eine Zeilenauslenkung zu erzielen, während in der zweiten Drehachse die Bildauslenkung mit weit niedrigerer Drehzahl erfolgt. Für eine Einzelscan-Aufnahme ohne Zeilensprung berechnet sich die Anzahl der Zeilen als Quotient beider Drehzahlen.
  • Im Folgenden wird von der weit verbreiteten Laserscanner-Anordnung ausgegangen, bei der die langsamere Bildauslenkung entlang des Horizontalwinkels und die schnellere Zeilenauslenkung entlang des Vertikalwinkels erfolgt. Diese Anordnung stimmt mit dem allgemein gebräuchlichen Polarkoordinatensystem ebenso überein wie mit weit verbreiteten astronomischen und geodätischen Instrumenten und ist in den meisten Fällen besonders zweckmäßig. Die Stehachse, um welche die Horizontaldrehung erfolgt, werde als horizontale Achse und die Drehachse für die Vertikaldrehung als vertikale Achse bezeichnet. Diese allgemeine Lagezuordnung ist aber nicht festliegend sondern beliebig. Somit sind die nachfolgenden Bezüge auf horizontale oder vertikale Lagen ebenfalls auf anders orientierte Lagen der Vorrichtung sinngemäß übertragbar.
  • Erfindungsgemäß wird der Horizontalantrieb für die Bildauslenkung gleichzeitig dazu benutzt, eine Zeilenkamera um ihr Projektionszentrum zu drehen.
  • Zunächst sei dabei der Zeilensensor dieser Kamera parallel zur horizontalen Drehachse ausgerichtet. Wird nun der Horizontalantrieb schrittweise oder kontinuierlich gedreht und gleichzeitig in möglichst gleichen Winkelabständen das Signal des Zeilensensors ausgelesen und Zeile für Zeile zu einem Bild zusammengesetzt, so entsteht die zylindrische Abbildung oder Abwicklung des Umfeldes rund um den Beobachtungspunkt. Diese Abbildungsmethode ist von spezialisierten elektronischen Panorama-Kameras her bekannt. Auch hier wird also die vollständige Funktion einer Panoramakamera nachgebildet.
  • Mit bekannten Verfahren ist es möglich, jedes der linear angeordneten Sensorpixel des Zeilensensors auf einen genauen Einfallswinkel zu kalibrieren und diese Zuordnung dauerhaft als eindimensionalen Kalibrierdatensatz zu speichern. Technische Zeilensensoren weisen eine Pixel-Anzahl bis ca. 10.000 auf, so dass diese Aufgabe in der Praxis mit einer überschaubar kleinen Kalibrierdatei zu realisieren ist. Werden die Pixelpositionen mit der damit bekannten Zuordnung den Vertikalwinkel-Positionen zugeordnet, so wird aus der zylindrischen Abbildung die Abbildung eines Kugelring-Segments.
  • Damit wird erreicht, dass die Koordinatenzuordnung in vertikaler Richtung mit einer Genauigkeit erfolgt, die durch die Anzahl der Pixel pro Winkelbereich begrenzt ist. In technischen Systemen sind die Winkelschritte zwischen benachbarten Pixeln solcher Zeilensensoren in vergleichbarer Größenordnung zu den adressierbaren Winkelschritten des Horizontalantriebs, so dass sich ein etwa quadratisches Pixelraster erzielen lässt.
  • Prinzipiell ist es möglich, eine Zeilenkamera mit einem Aufnahmewinkelbereich entlang der Zeile von 180° zu fertigen und damit allein durch Horizontaldrehung eine vollständige Kugel abbilden zu können. Wegen vielfältiger technischer Gründe wird dies aber vermieden. Statt dessen ist es sinnvoll, einen kleineren Winkelbereich zu wählen und die Zeilenkamera mit einem zusätzlichen Neigemechanismus zu versehen, um mehrere Kugelring-Segmente übereinander aufzuzeichnen und danach zur vollständigen Kugel zu vereinen. Da alle Pixel der Zeilenkamera in Einfallswinkeln kalibriert sind, ist hierfür lediglich der Neigungswinkel als Offset hinzu zu addieren wodurch der Bearbeitungsaufwand klein bleibt.
  • Es ist leicht zu erkennen, dass die erfindungsgemäße Anordnung funktionell wie die Kombination aus einem Laserscanner und einer Panoramakamera im Sinne des erfindungsgemäßen Verfahrens zu betrachten ist.
  • Je näher man bei der Erhöhung des Vertikalwinkels in den Vertexbereich des Polarkoordinatensystems vordringt, desto dichter liegen die Horizontalwinkelschritte – vergleichbar mit den Längengraden im geografischen Gradnetz – beieinander. Deshalb ist es ohne eine Reduzierung der objektbezogenen Bildauflösung vorteilhaft, in diesem Bereich die Winkelschritte zwischen den Zeilenaufnahmen zu erhöhen, wodurch Redundanzen verringert werden und die Aufnahmezeit verkürzt wird.
  • Zeilensensoren für die Wiedergabe von Farben sind allgemein so ausgeführt, dass mehrere gleichartige Linien mit meist gleicher Anzahl von Pixeln, aber unterschiedlicher spektraler Empfindlichkeit, in einem kleinen Abstand parallel nebeneinander angeordnet sind, wodurch sich mehrere Farbkanäle, z. B. für Rot, Grün und Blau, aufbauen lassen. Wegen der nicht identischen Orte der verschiedenen Farbzeilen muss die Winkelzuordnung – nicht nur horizontal sondern auch vertikal – individuell für jede der Einzelzeilen erfolgen, was den Aufwand aber lediglich mit der Anzahl der Kanäle multipliziert.
  • Die Verwendung von Zeilenkameras zur Panorama-Bildaufnahme hat gegenüber der Aufnahme und Verschmelzung flächiger Einzelbilder generell zwei Nachteile:
    Einerseits führen eventuelle Bewegungen von Gegenständen im Objektraum während der Scanbewegung zu Bildartefakten. Für das hier vorgesehene Verfahren ist aber ohnehin, zumindest temporär, von unveränderlichen Lagen der Elemente im Objektraum auszugehen, weil anderenfalls auch die Koordinatenmessungen keinen Sinn hätten.
  • Andererseits ergibt sich eine längere Aufnahmezeit, weil in der gleichen Zeit, in der eine Matrixkamera tausende Zeilen gleichzeitig belichtet, hier nur eine Zeile belichtet werden kann. Der praktische Zeitaufwand zur Aufnahme entspricht aber bei weitem nicht diesem Verhältnis, weil weitere Zeit zum Speichern des Bildes und für die Bewegung der Kamera in die nächste Position zu berücksichtigen ist und weil der Rechenaufwand zum fehlerarmen Verschmelzen der Bilder nicht unerheblich ist. Im praktischen Einsatz ist der zeitliche Gesamtaufwand zur Herstellung des Panoramabildes für beide Aufnahmemethoden miteinander vergleichbar.
  • Eine besondere Betrachtung verdient die Beleuchtung des Bildaufnahme-Bereichs, sofern eine künstliche Beleuchtung erforderlich ist. Während bei der Einzelbild-Aufnahme im einfachsten Fall eine allgemein bekannte Foto-Blitzleuchte einsetzbar ist, gibt es für Aufnahmen mit Zeilenkameras keine energetisch angepasste Lösung. Hier ist eine mit der Zeilenaufnahme-Frequenz synchronisierte Blitzleuchte mit zeilenförmiger Fokussierung auf den Aufnahmebereich von Vorteil, die wegen ihrer kleinen Projektionsfläche auch mit einer vergleichsweise geringen Blitzleistung auskommt. Besonders Lichtemitter-Dioden mit annähernd punktförmiger Lichtaustrittsfläche, die linear angeordnet sind und mit einem in nur einer Richtung ausgebildeten Parabolreflektor oder einem Zylinderlinsen-System fokussiert werden, sind hierfür als Lichtquelle geeignet. Dabei können einzelne oder mehrere Lichtquellen mit einem Fokussier-System ausgestattet sein oder mehrere solcher Systeme, am besten beidseitig der Kamera, einander ergänzen.
  • Bei der Beschreibung des erfindungsgemäßen Verfahrens wurde bereits dargelegt, dass eine genaue Übereinstimmung der Beobachtungszentren von Laserscanner und Panoramakamera von prinzipieller Bedeutung ist. In gebräuchlichen Laserscannern befindet sich das Beobachtungszentrum genau auf der Spiegeloberfläche der Spiegeltrommel für die Zeilenauslenkung, so dass hier kein Platz für die Zeilenkamera ist.
  • Um das Beobachtungszentrum der Panoramakamera virtuell in diesen Punkt legen zu können, wird der Strahlengang des Aufnahmeobjektivs der Zeilenkamera optisch umgelenkt.
  • Für den Neigemechanismus, soweit vorhanden, ist zu beachten, dass auch dessen Drehmittelpunkt im Beobachtungszentrum liegen muss. Hierzu wird der Neigewinkel entlang einer Kreisbahn kontinuierlich oder in diskreten Schritten verstellt.
  • Damit die Bildaufnahme mit der Laserscanner-Aufnahme sinnvoll koordiniert werden kann, müssen die beschriebenen Baugruppen, also zumindest Laserscanner und Aufnahmekamera, mit einer gemeinsamen Steuerungseinheit funktionsgerecht verbunden sein.
  • Zur Durchführung des erfindungsgemäßen Verfahrens ist weiterhin ein Rechner mit Display, Pointer und Tastatur erforderlich. Hierfür ist insbesondere ein Personalcomputer, z. B. in der Ausführung als Laptop, Notebook oder Tablet-PC geeignet.
  • Es kann von Vorteil sein, wenn die Aufgabe der Steuerungseinheit ebenfalls vom gleichen Rechner übernommen wird, der auch zur Verarbeitung der Bild- und Messdaten dient. Andererseits kann es sich als vorteilhaft erweisen, weitere Mikrocontroller oder Mikrorechner zwischen den Rechner und genannte Baugruppen zu schalten, die dann Teilaufgaben, wie die Interpretation und Ausführung von Befehlen, eine Vorverarbeitung von Daten oder die Bündelung des Datenflusses für eine gemeinsame effektive Datenschnittstelle, übernehmen. Außerdem realisieren solche Subsysteme ohne Probleme die erforderliche Echtzeitfähigkeit von Teilfunktionen, wie z. B. der Bewegungssteuerung und der synchronisierten Datengewinnung.
  • Anhand von Ausführungsbeispielen soll die Erfindung nachstehend erläutert werden.
  • Das Ausführungsbeispiel nach 1 zeigt den schematisierten Gesamtaufbau einer erfindungsgemäßen Aufnahmeanordnung.
  • An einem Hauptrahmen 1 befinden sich ein auf vorgegebene Drehwinkel positionierbarer Horizontalantrieb 2 mit fest stehender Fußscheibe 3. Dieser Hauptrahmen trägt sowohl die Laser-Messeinheit 4 mit Objektiv 5, wie auch die Spiegeltrommel 6, die vom Servoantrieb 7 kontinuierlich und mit konstanter Winkelgeschwindigkeit gedreht wird und den Messstrahl kreisend auslenkt. Die Zeilenkamera 8 mit dem Zeilensensor 9 dem Objektiv 10 und dem Umlenkspiegel 11 bildet über den Hilfsrahmen 12 eine formstabile Einheit, die sich auf der Kreisbahn 13, deren Mittelpunkt durch das Beobachtungszentrum Z verläuft, neigen lässt. Der Kreisbogen 14 und die Hilfslinie 15 zeigen mit ihrem Schnittpunkt in Z, dass der Nodalpunkt N der Zeilenkamera optisch im Beobachtungszentrum liegt. Daran ändert sich auch bei der beschriebenen Neigebewegung nichts. Die Verbindung 16 soll zeigen, dass alle abgebildeten Funktionseinheiten mechanisch miteinander verbunden sind.
  • Der Aufnahmevorgang für Scanner- und Bilddaten kann gleichzeitig oder nacheinander erfolgen. Während die gesamte Anordnung vom Horizontalantrieb um die Fußscheibe gedreht wird, dreht sich die Spiegeltrommel mit sehr viel größerer Drehzahl, wodurch der in der Lasereinheit erzeugte Laserstrahl radial die Spiegeltrommel mit ständig wechselndem Vertikalwinkel verlässt. Auf dem gleichen Wege in umgekehrter Richtung gelangt das vom Objekt reflektierte Laserlicht zurück zur Lasereinheit. So wird die Umgebung in vertikaler Richtung zeilenförmig abgetastet. Weil sich gleichzeitig auch der Horizontalwinkel stetig verändert, entsteht ein Abbild der Abstandsdaten für den gesamten Umgebungsbereich.
  • Auch die Zeilenkamera nutzt die Horizontalbewegung, während die Bildinformation Zeile für Zeile eingelesen und zu einem Panoramabild zusammengesetzt wird. Im dargestellten Beispiel sind zwar die zu einem bestimmten Zeitpunkt von Laserscanner und Kamera erfassbaren Horizontalwinkel um 90 Grad gegeneinander versetzt, dies hat aber bei richtiger Zuordnung von Scanner- zu Bilddaten keine Bedeutung. Statt dessen wird eine Zeitersparnis erreicht, wenn die Prozesse gleichzeitig ablaufen können.
  • 2 beschreibt beispielhaft den erfindungsgemäßen Arbeitsablauf während der manuellen Nachbearbeitung einer Projektaufnahme, bestehend aus den Scannerdaten und den Bilddaten. Zunächst wird in 21 das zum Projekt gehörende Panoramabild in den Arbeitsspeicher geladen und auf dem Display dargestellt. Jede Pixelposition dieses Bildes korrespondiert dabei mit den polaren Winkelkoordinaten des mathematisch-geometrischen Koordinatensystems, welches der gesamten Vermessung zugrunde liegt, und in seiner Lage und Ausrichtung mit dem Laserscanner übereinstimmt. Hier wird also vorausgesetzt, dass beide Aufnahmen im gleichen Koordinatensystem erfolgten oder bereits aneinander angeglichen wurden. Gleichzeitig werden der Punktewolke aus den Scandaten alle Winkelkoordinaten-Paare entnommen und als Punkteraster der Darstellung des Panoramabildes überlagert.
  • In 22 wird vom Anwender ein Objekttyp, der das nächste im Messfeld zu erfassende reale Objekt in seiner Beschaffenheit geometrisch am besten beschreibt, aus einer Reihe vordefinierter Typen manuell ausgewählt, und somit dem virtuellen Modell eine Instanz dieses Typs hinzugefügt. Anschließend werden in 23 Punkte im Panoramabild definiert, die der Oberfläche der neuen Objektinstanz angehören. Jeder Punkt wird nach Auswahl eines zweckmäßigen Darstellungsmaßstabs mittels Pointer möglichst nah an einen der Rasterpunkte gesetzt, die die Koordinaten in der Punktewolke repräsentieren. In 24 wird nun der nächstliegende Scannerpunkt ausgewählt, wodurch die Koordinateneingabe des Bedieners von diesem „gefangen” und exakt an dessen Position markiert wird. Aus allen zu diesem Zeitpunkt der Objektinstanz zugeordneten Punkten werden jetzt in 25 die geometrischen Modellparameter so weit wie möglich berechnet. Ist die Vermessung vorläufig abgeschlossen, werden in 26 die errechneten Modellparameter mit den Toleranzvorgaben des Nutzers verglichen. Sind diese nicht hinreichend erfüllt, werden weitere Messpunkte den betreffenden Objektinstanzen hinzugefügt und die Objektinstanz neu berechnet. Wurden alle realen Objekte der Umgebung, welche für den Anwender von Interesse sind, geometrisch erfasst (27), und erfüllen alle die vom Anwender vorgegebenen Toleranzgrenzen, so wird in 28 die aufgezeichnete fotografische Abbildung nach bekannten Verfahren in Segmente anhand der Modellgeometrie zerlegt. Diese Segmente werden den jeweiligen Modelloberflächen als sog. Texturen, welche die Farbe einzelner Oberflächenpunkte der jeweiligen geometrisch definierten Modellfläche beschreiben, zugewiesen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010011528 A [0003]
    • DE 19916305 [0007]
    • DE 102010011528 [0045]
  • Zitierte Nicht-Patentliteratur
    • Schwermann, R., Effkemann, C.: Kombiniertes Monoplotting in Laserscanner- und Bilddaten mit PHIDIAS in Photogrammetrie und Laserscanning: Anwendung für As-built-Dokumentation und Facility Management/Thomas Luhmann (Hrsg.). – Wichmann, 2002, S. 57–70 [0005]

Claims (10)

  1. Aufnahmeanordnung zur Gewinnung geometrischer und photometrischer Objektdaten mit einem Laserscanner, welcher wenigstens über zwei Drehachsen verfügt, um die eine Auslenkung dessen optischen Strahlenganges erfolgt, dadurch gekennzeichnet, dass der Laserscanner mit einer Zeilenkamera mechanisch so verbunden ist, dass diese wenigstens in einer dessen Drehachsen mit bewegt wird.
  2. Aufnahmesystem nach Anspruch 1, dadurch gekennzeichnet, dass die optische Achse der Zeilenkamera den Schnittpunkt der Bewegungsachsen der Ablenkeinheit schneidet.
  3. Aufnahmesystem nach Anspruch 1, dadurch gekennzeichnet, dass die Zeilenkamera oder eine optische Umlenkeinrichtung im Strahlengang der Zeilenkamera so mit einer zusätzlichen Neigevorrichtung verbunden ist, dass eine winkelgenaue Neigung der optischen Achse der Zeilenkamera in einer weiteren Drehachse ermöglicht wird.
  4. Aufnahmesystem nach Anspruch 1, dadurch gekennzeichnet, dass das virtuelle optische Projektionszentrum der Zeilenkamera mit dem Schnittpunkt der Bewegungsachsen der Ablenkeinheit mittels optischer Umlenkvorrichtungen in Übereinstimmung gebracht wird.
  5. Aufnahmesystem nach Anspruch 1, dadurch gekennzeichnet, dass eine Lichtquelle mit Projektionsoptik, die ein linear und parallel zum Zeilensensor der Zeilenkamera ausgerichtetes Leuchtband erzeugt, so mit der Zeilenkamera verbunden ist, dass sie alle Schwenk- und Neigebewegungen der Kamera gemeinsam mit dieser ausführt und ihr Licht somit in den gleichen Objektbereich projiziert, der von der Zeilenkamera gerade abgebildet wird.
  6. Aufnahmeanordnung zur Aufnahme geometrischer Objektdaten im Raum mit einem Laserscanner, dadurch gekennzeichnet, dass vom gleichen Objekt und aus dem gleichen Beobachtungszentrum heraus sowohl eine Laserscanner-Aufnahme, wie auch eine Panoramabild-Aufnahme erfolgt.
  7. Aufnahmeanordnung nach Anspruch 6, dadurch gekennzeichnet, dass das aufgenommene Panoramabild oder wahlfreie Ausschnitte davon auf einem Display dargestellt werden, während einzelne Bildpunkte mit Hilfe eines Pointers ausgewählt und einem Modellobjekt zugewiesen werden, wonach aus den aufgenommenen Scannerdaten benachbarte Scanpunkte mit zu diesen Bildpunkten korrespondierenden Winkelkoordinaten ausgewählt und diesen Modellobjekten zugeordnet werden.
  8. Aufnahmeanordnung nach Ansprüchen 6 und 7, dadurch gekennzeichnet, dass photometrische Bildinformationen, wie Gradation, Unstetigkeiten und Kanten, zum automatischen Finden oder Kontrollieren von Objektmerkmalen genutzt werden, um eine automatisierte Dateneingabe, Modellkorrektur und/oder ein reduziertes Aufkommen erforderlicher Messdaten zu erreichen.
  9. Aufnahmeanordnung nach Anspruch 6, dadurch gekennzeichnet, dass die gewonnene Bildinformation zur maßgetreuen Texturierung und zur fotorealistischen Darstellung des räumlichen Modells verwendet wird.
  10. Aufnahmeanordnung nach Ansprüchen 6 und 7, dadurch gekennzeichnet, dass zueinander ähnliche räumliche Objekte im Aufnahmebereich durch Kopieren, ggf. auch Zwischenspeichern, und Anpassen an die Bildvorlage dupliziert und somit wiederverwendet werden.
DE202010017899U 2010-09-17 2010-09-17 Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum Expired - Lifetime DE202010017899U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202010017899U DE202010017899U1 (de) 2010-09-17 2010-09-17 Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010045634A DE102010045634A1 (de) 2010-09-17 2010-09-17 Anordnung und Verfahren zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE202010017899U DE202010017899U1 (de) 2010-09-17 2010-09-17 Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Publications (1)

Publication Number Publication Date
DE202010017899U1 true DE202010017899U1 (de) 2013-02-20

Family

ID=69143919

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102010045634A Ceased DE102010045634A1 (de) 2010-09-17 2010-09-17 Anordnung und Verfahren zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE202010017899U Expired - Lifetime DE202010017899U1 (de) 2010-09-17 2010-09-17 Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102010045634A Ceased DE102010045634A1 (de) 2010-09-17 2010-09-17 Anordnung und Verfahren zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Country Status (1)

Country Link
DE (2) DE102010045634A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108303117A (zh) * 2017-01-12 2018-07-20 中国农业大学 一种基于后方交会测量的云镜摄系统参数测量方法及系统
EP3425333A1 (de) * 2017-07-04 2019-01-09 Hexagon Technology Center GmbH Überwachungsinstrument zum abtasten eines objekts und bilderfassung des objekts
US11946761B2 (en) 2018-06-04 2024-04-02 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CZ2016581A3 (cs) * 2016-09-20 2017-06-14 Univerzita Tomáše Bati ve Zlíně Zařízení pro 3D skenování prostorových objektů, zejména chodidla a přilehlých částí lidské nohy
AT523547B1 (de) * 2020-02-28 2021-10-15 Ait Austrian Inst Tech Gmbh Anordnung zur Erstellung eines Modells einer Szene

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19916305A1 (de) 1999-04-12 2000-10-19 Ulrich Claus Anordnung zur räumlichen Bild- und Meßdatengewinnung
DE102010011528A1 (de) 2010-03-15 2011-09-15 Ulrich Clauss Anordnung und Verfahren zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19916305A1 (de) 1999-04-12 2000-10-19 Ulrich Claus Anordnung zur räumlichen Bild- und Meßdatengewinnung
DE102010011528A1 (de) 2010-03-15 2011-09-15 Ulrich Clauss Anordnung und Verfahren zur Aufnahme geometrischer und photometrischer Objektdaten im Raum

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Schwermann, R., Effkemann, C.: Kombiniertes Monoplotting in Laserscanner- und Bilddaten mit PHIDIAS in Photogrammetrie und Laserscanning: Anwendung für As-built-Dokumentation und Facility Management/Thomas Luhmann (Hrsg.). - Wichmann, 2002, S. 57-70

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108303117A (zh) * 2017-01-12 2018-07-20 中国农业大学 一种基于后方交会测量的云镜摄系统参数测量方法及系统
CN108303117B (zh) * 2017-01-12 2020-06-02 中国农业大学 一种基于后方交会测量的云镜摄系统参数测量方法及系统
EP3425333A1 (de) * 2017-07-04 2019-01-09 Hexagon Technology Center GmbH Überwachungsinstrument zum abtasten eines objekts und bilderfassung des objekts
US10830588B2 (en) 2017-07-04 2020-11-10 Hexagon Technology Center Gmbh Surveying instrument for scanning an object and image acquistion of the object
US11946761B2 (en) 2018-06-04 2024-04-02 The Research Foundation For The State University Of New York System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3D space based on mapping and navigation to a precise POI destination using a smart laser pointer device

Also Published As

Publication number Publication date
DE102010045634A1 (de) 2012-03-22

Similar Documents

Publication Publication Date Title
DE102010043136B4 (de) Messgerät und Verfahren für eine berührungslose Messung von Abständen bei einem Zielobjekt
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE60202198T2 (de) Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild
DE69826753T2 (de) Optischer Profilsensor
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE69907644T2 (de) Echtzeit system zur dreidimensionalen realistischen virtuellen-bildanzeige
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE102012108567A1 (de) Verfahren und Vorrichtung zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE112007003284T5 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE102012112321A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
EP3623843B1 (de) Handgehaltenes laserdistanzmessgerät
DE19815106B4 (de) Verfahren zum Messen von Kamera- und Linseneigenschaften zur Kameranachführung
WO2005101308A2 (de) Verfahren zur rotationskompensation sphärischer bilder
DE112007003553B4 (de) Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen
DE202010017899U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
EP0970392B1 (de) Messverfahren unter einbeziehung der lasertechnik für dreidimensionale objekte
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE10341822A1 (de) Verfahren und Anordnung zur photogrammetrischen Messbildaufnahme und -verarbeitung
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
WO2021180932A2 (de) Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes
DE102014106718B4 (de) System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20130411

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20130828

R157 Lapse of ip right after 6 years