DE10341822A1 - Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera - Google Patents

Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera Download PDF

Info

Publication number
DE10341822A1
DE10341822A1 DE2003141822 DE10341822A DE10341822A1 DE 10341822 A1 DE10341822 A1 DE 10341822A1 DE 2003141822 DE2003141822 DE 2003141822 DE 10341822 A DE10341822 A DE 10341822A DE 10341822 A1 DE10341822 A1 DE 10341822A1
Authority
DE
Germany
Prior art keywords
camera
image
projection
angle
arrangement according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2003141822
Other languages
German (de)
Inventor
Ulrich Claus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clauss Ulrich Dr-Ing
Original Assignee
Clauss Ulrich Dr-Ing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clauss Ulrich Dr-Ing filed Critical Clauss Ulrich Dr-Ing
Priority to DE2003141822 priority Critical patent/DE10341822A1/en
Priority to DE2003159361 priority patent/DE10359361A1/en
Publication of DE10341822A1 publication Critical patent/DE10341822A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Three dimensional object photogrammetry recording method involves storing extracted picture information in a polar coordinate system. The picture information allows eventual turning, tilting of a camera (2). An automatic extrapolation of geometrical primitive, e.g. surfaces, edges, and vertices, takes place during operating conditions. The information is corrected geometrically, such that the picture is free of distortion from the point of view. An independent claim is also included for an arrangement for photogrammetry recording, comprising an optoelectronic camera.

Description

Einsatzgebiet und technischer Hintergrundoperation area and technical background

Die Erfindung betrifft das Gebiet der maßgetreuen fotografischen Aufnahme dreidimensionaler Objekte im Raum und der automatischen Gewinnung deren räumlicher Koordinaten ohne verfahrensbedingte Bildwinkelgrenzen mit den Mitteln der rechentechnisch unterstützten elektronischen Bilderfassung und -verarbeitung. Stellvertretende Anwendungsgebiete sind alle Aufgaben der photogrammetrischen Datengewinnung, beispielsweise für bauliche Aufmaße, industrielle Anlagendokumentation, Facility Management oder geologische Vermessungen, aber auch die maßgetreue Übernahme realer Szenarien in Computer-Konstruktionssysteme, Modellierungs-, Simulations- und Visualisierungsaufgaben, sowie diverse multimediale Anwendungen.The This invention relates to the field of true-to-life photographing three-dimensional objects in space and the automatic extraction their spatial Coordinates without procedural image angle limits with the means the computationally supported electronic image acquisition and processing. Deputy Areas of application are all tasks of photogrammetric data acquisition, for example for structural allowances, industrial plant documentation, facility management or geological Surveying, but also the faithful takeover real scenarios in computer construction systems, modeling, Simulation and visualization tasks, as well as various multimedia Applications.

Die Erfindung tangiert unterschiedliche technische Themenbereiche, so dass der Stand der Technik nachfolgend für diese Einzelbereiche gesondert analysiert wird.The Invention affects different technical topics, so that the prior art separately for these individual areas separately is analyzed.

1) Photogrammetrische Aufnahmeverfahren1) Photogrammetric admission process

Photogrammetrische Aufnahmen erfolgen mit Hilfe von Aufnahmekameras, die zumindest aus einem Abbildungsobjektiv und einem in der Regel ebenen elektronischen Bildsensor, bzw. einem mechanischen Träger mit einer Fotoemulsion, bestehen.Photogrammetric Shooting takes place with the help of recording cameras, at least from an imaging lens and a generally planar electronic Image sensor, or a mechanical support with a photo emulsion, consist.

Die äußere Orientierung einer gemäß 1 auf eine Ebene (3) projizierenden Aufnahmekamera (1) wird bestimmt durch drei translatorische Raumkoordinaten x0, y0, z0 des Projektionszentrums im Objektiv (2) und drei rotatorische Lagekoordinaten (Schwenkung ϕ, Neigung ω, Kantung κ) des Bildkoordinatensystems (4) der Kamera. Auch wenn eine nachfolgende Korrektur über Verschiebung und Drehmatrix das Bild richtig in die Objektkoordinaten einord net, so werden doch 6 Freiheitsgrade bereits während der Bildaufnahme fixiert. Die Aufnahmerichtung, vorgegeben von der optischen Achse des Objektivs, bestimmt eine feste Vorzugsrichtung bei der Bildaufnahme. Wie in 2 dargestellt ist, baut sich die Bildgeometrie nach der Gleichung

Figure 00020001
als Tangensfunktion, also nichtlinear, zu dieser Vorzugsrichtung auf. Hierbei ist α der Abstand des abgebildeten Objektpunktes P' vom Bildhauptpunkt H' und α der Einfallswinkel des Objektpunktes P, während c als Kamerakonstante bekannt ist und bei Einstellung auf unendliche Objektentfernung annähernd mit der Objektivbrennweite übereinstimmt.The outer orientation of a according 1 on one level ( 3 ) projecting recording camera ( 1 ) is determined by three translational spatial coordinates x 0 , y 0 , z 0 of the projection center in the objective ( 2 ) and three rotational position coordinates (pivoting φ, inclination ω, cant κ) of the image coordinate system ( 4 ) the camera. Even if a subsequent correction via displacement and rotation matrix correctly arranges the image into the object coordinates, 6 degrees of freedom are already fixed during image acquisition. The recording direction, given by the optical axis of the lens, determines a fixed preferred direction during image acquisition. As in 2 is shown, the image geometry is based on the equation
Figure 00020001
as a tangent function, ie non-linear, to this preferred direction. Here, α is the distance of the imaged object point P 'from the main image point H' and α is the angle of incidence of the object point P, while c is known as the camera constant and when set to infinite object distance approximately coincides with the objective focal length.

Jede Lageänderung der Aufnahmeachse der Kamera führt bei planaren Abbildungen zur Veränderung der linearen Bildgeometrie. Diese Tatsache wird zum Beispiel beim erfolglosen Versuch deutlich, Weitwinkelpanoramen aus planar aufgenommenen Einzelbildern mit verschiedenen Verschwenkungswinkeln korrekt zusammenzusetzen.each change of position the recording axis of the camera leads in planar illustrations to change the linear image geometry. This fact becomes, for example, unsuccessful Try clearly, wide-angle panoramas of planar captured frames correctly assembled with different pivoting angles.

Bei der Abbildung von Ebenen im Objektraum kommt es immer dann zwangsläufig zu perspektivischen Verzeichnungen, wenn die optische Achse während der Aufnahme nicht senkrecht zu diesen Ebenen stand. Die Bedingung einer Senkrechtstellung ist in der Praxis aber beinahe nicht gewährleistbar. Die genannten Verzeichnungen werden durch nicht parallele Abbildung von im Original ansich parallelen Linien sichtbar. Für die perspektivische Entzerrung sind zahlreiche Methoden bekannt, die jedoch nur dann geometrisch korrekt sein können, wenn die ursprüngliche Orientierung der Kamera im Objektraum und die innere Orientierung der Kamera, einschließlich des Bildhauptpunktes, bekannt sind. Anderenfalls sind nur Näherungsergebnisse zu erwarten.at The mapping of planes in object space is always inevitable perspective distortions when the optical axis during the Recording was not perpendicular to these levels. The condition of a Vertical position is almost impossible to guarantee in practice. The named distortions are caused by non-parallel imaging visible from the original ansich parallel lines. For the perspective Equalization methods are known, but only then can be geometrically correct, if the original one Orientation of the camera in the object space and the inner orientation of the Camera, including of the image main point, are known. Otherwise, only approximate results are to expect.

Zu berücksichtigen ist weiterhin, dass alle technischen Objektive Abbildungsfehler erzeugen, die zu Abweichungen von der idealisierten Zentralprojektion führen. Wird, wie in 3, ein Rechteck abgebildet, so zeigen sich Abweichungen im Verhältnis der Seitenlängen zu den längeren Diagonalen zwischen Original und Bild, also

Figure 00020002
die von der radialen Verzeichnung verursacht werden und als Kissen- (a) oder Tonnenverzerrungen (b) bekannt sind.It must also be considered that all technical objectives produce aberrations that lead to deviations from the idealized central projection. Will, as in 3 , a rectangle shown, so show deviations in the ratio of the side lengths to the longer diagonal between the original and image, ie
Figure 00020002
which are caused by the radial distortion and as cushion (a) or barrel distortion (b) be are known.

Gerade die häufiger zu beobachtende Tonnenverzerrung führt dazu, dass die genannte Tangensfunktion linearisiert wird.Just the more common observed barrel distortion leads to the said Tangensfunktion is linearized.

Während in der Vergangenheit die Konstruktion der Messobjektive photogrammetrischer Messkammern auf kleinste Abbildungsfehler optimiert wurden, entspricht es jetzt dem gebräuchlichen Stand der Technik, Kameraausrüstungen mit allgemeiner fotografischer Zweckbestimmung zu verwenden, deren Objektive aber erhebliche Abbildungsfehler aufweisen. Für photogrammetrische Anwendungen werden diese Kameras mit Hilfe von Testmustern kalibriert, so dass das Ergebnis der Kalibrierung zur Korrektur aller Bildaufnahmen dient.While in the past the construction of the measuring lenses photogrammetric Measuring chambers were optimized to the smallest aberrations, corresponds it now the usual state technology, camera equipment to be used for general photographic purposes, the Objective but have significant aberrations. For photogrammetric Applications, these cameras are calibrated using test patterns, so that the result of the calibration is used to correct all image recordings.

Generell besteht der Nachteil aller planar abbildenden Aufnahmesysteme in einer Bildwinkelbegrenzung, die eine vollständige Erfassung der gesamten Situation im Objektraum rund um den Aufnahmestandort verhindert, und in der Fixierung der Kameraorientierung zum Aufnahmezeitpunkt, die eine universelle Weiterverarbeitbarkeit der Bilder stark einschränkt.As a general rule there is the disadvantage of all planar imaging systems in an angle limitation, which is a complete capture of the entire Situation in the object space around the shooting location prevents and in fixing the camera orientation at the time of recording, which severely restricts a universal reprocessibility of the images.

2) Panorama-Fotografie2) panoramic photography

Die sogenannte echte Panorama-Fotografie erfasst horizontal endlose Aufnahmen mit einem Bildwinkel von 360 Grad. Bestimmte Aufnahmeverfahren erlauben dabei auch eine Ausdehnung des vertikal erfassbaren Bildwinkels auf insgesamt 180 Grad.The so-called real panorama photography captures horizontally endless Shooting with a 360 degree angle. Certain admission procedures allow thereby also an extension of the vertically detectable angle of view to a total of 180 degrees.

Die Grundform der elektronischen scannenden Panoramakamera, bestehend aus einem Zeilensensor in der Bildebene eines Abbildungsobjektives – zusammenfassend als Zeilenkamera bezeichnet – und einem Drehantrieb ist aus DE 44 28 055 A1 bekannt. Dieser und weitere Lösungsvorschläge, z.B. in DE 199 21 734 C2 oder WO 01/80550 A3, erzeugen eine zylindrische Bildprojektion, das heißt, in vertikaler Richtung bleibt die zentralperspektivische Ebenenprojektion mit dem Nachteil der prinzipbedingten Bildwinkelbegrenzung erhalten. Um diese Begrenzung zu überwinden, werden in DE 299 18 951 U1 oder US 6,545,701 B2 Verfahren vorgeschlagen, bei denen die Zeilenkamera gegenüber der Drehachse geneigt wird, so dass sich faktisch eine Kegelstumpfprojektion ergibt. Solche Aufnahmen haben das Problem, dass kein universell weiter verwendbares Abbildungsmodell vorhanden ist, sondern für jeden Neigungswinkel eine eigene Entzerrungsvorschrift benötigt wird. US 2003/0128276 A1 beschreibt eine Korrekturvorschrift für Panoramaaufnahmen mit nicht senkrechter Stehachse. Ein Zusammenfügen zu vollständig präsentierbaren Panoramen ist auf diese Weise aber unmöglich. Bekannt ist der Einsatz von Fischaugenobjektiven mit scannenden Panoramakameras, die somit einen sehr großen vertikalen Bildwinkel, der auch 180 Grad erreichen kann, erfassen. Wegen der damit verbundenen Objektiveigenschaften ist keine hochauflösende Aufnahme mit genauer Koordinatenzuordnung erzielbar. Methoden zur geometrischen Kalibrierung solcher Kameras sind nicht bekannt. Auch sind keine Anordnungen bekannt, mit denen eine sowohl in horizontaler, wie in vertikaler Richtung vollständige Rundumansicht vollautomatisch durch eine scannende Zeilenkamera erzeugt wird.The basic form of the electronic scanning panoramic camera, consisting of a line sensor in the image plane of an imaging lens - collectively referred to as a line camera - and a rotary drive is off DE 44 28 055 A1 known. These and other solutions, eg in DE 199 21 734 C2 or WO 01/80550 A3, produce a cylindrical image projection, that is, in the vertical direction, the central perspective plane projection remains with the disadvantage of the principle image angle limitation. To overcome this limitation, be in DE 299 18 951 U1 or US 6,545,701 B2 Proposed method in which the line camera is inclined relative to the axis of rotation, so that in fact results in a truncated cone projection. Such recordings have the problem that no universally reusable imaging model is available, but for each angle of inclination a separate equalization rule is needed. US 2003/0128276 A1 describes a correction rule for panoramic images with non-vertical standing axis. However, merging into fully presentable panoramas is impossible in this way. The use of fisheye lenses with scanning panoramic cameras is well known, which thus captures a very large vertical angle of view, which can also reach 180 degrees. Because of the associated lens properties, no high resolution recording with accurate coordinate assignment is achievable. Methods for geometric calibration of such cameras are not known. Also, no arrangements are known with which a complete horizontal view in both the horizontal and in the vertical direction is generated automatically by a scanning line scan camera.

DE 197 46 319 A1 schlägt eine Vorrichtung vor, bei der eine punktförmige Projektion auf einen Sensor über zwei senkrecht zueinander rotierende Spiegel erfolgt, so dass im Ergebnis eine sphärische Abbildung erzielt wird. DE 199 16 305 A1 erweitert diese Anordnung um eine Laser-Entfernungsmesseinrichtung. Nachteil dieser Lösungen ist ein außergewöhnlich hoher mechanischer Fertigungsaufwand, um photogrammetrisch verwertbare Aufnahmen zu erzielen, und eine sehr lange Aufnahmezeit. DE 197 46 319 A1 proposes a device in which a point projection onto a sensor takes place via two mirrors rotating perpendicular to one another, so that, as a result, a spherical image is achieved. DE 199 16 305 A1 extends this arrangement by a laser distance measuring device. Disadvantage of these solutions is an exceptionally high mechanical manufacturing effort to achieve photogrammetrically useful recordings, and a very long recording time.

Eine Methode der simultanen, also gleichzeitig in allen Richtungen aufnehmenden, Panorama-Fotografie besteht darin, auf eine mit ihrer optischen Achse senkrecht nach oben gerichtete Flächenkamera eine ringförmige Darstellung der Umgebung zu projizieren, wofür in zahlreichen Veröffentlichungen, u.a. in WO 03/027766 A2, EP 908 053 A1 , US 6,028,719 , US 6,313,865 B1 , US 6,480,229 B1 konvexe asphärische Spiegel verwendet werden. DE 100 00 673 A1 beschreibt Lösungen, bei denen dieser Spiegel eine sphärische Gestalt hat. Eine interessante Aufnahme- und Verarbeitungsmethodik wird in EP 0 971 540 B1 vorgeschlagen, wo ein Fischaugenobjektiv zur Aufnahme eines halbkugelförmigen Gesichtsfeldes dient und eine stetige Abrufbarkeit wahlfreier und perspektivisch entzerrter Überwachungsbilder aus diesem Gesichtsfeld angeboten wird. Dabei wird eine Abbildungsgeometrie postuliert, die in Wirklichkeit nur annähernd zutrifft, weshalb auch die perspektivische Entzerrung nur näherungsweise gelingt. Um für die letztgenannten Methoden den Hauptnachteil der nur ungenügenden Auflösbarkeit des Bildes zu umgehen, integriert EP 816 891 A1 zusätzlich eine bewegliche, höher auflösende Periskopoptik in das Zentrum des Objektivstrahlengangs, verliert aber gleichzeitig den Vorteil der Universalität der Rundum-Abbildung.One method of simultaneous, ie simultaneously recording in all directions, panoramic photography is to project on an optical axis with their vertical upward surface area camera an annular representation of the environment, for which in numerous publications, including in WO 03/027766 A2, EP 908 053 A1 . US 6,028,719 . US 6,313,865 B1 . US Pat. No. 6,480,229 B1 convex aspheric mirrors are used. DE 100 00 673 A1 describes solutions in which this mirror has a spherical shape. An interesting recording and processing methodology is in EP 0 971 540 B1 proposed where a fisheye lens serves to accommodate a hemispherical field of view and a continuous retrieval of random and perspective equalized monitoring images is offered from this field of view. In this case, a mapping geometry is postulated, which in reality only approximately true, which is why the perspective equalization succeeds only approximately. In order to avoid the main drawback of the insufficient solubility of the image for the latter methods, integrated EP 816 891 A1 In addition, a movable, higher-resolution periscope optics in the center of the lens path, but at the same time loses the advantage of the universality of the all-round imaging.

Ein anderes Verfahren der simultanen Panorama-Fotografie besteht nach WO 03/038752 A1 oder auch nach DE 199 25 159 A1 in der Verwendung eines aus mehreren Flächenkameras bestehenden Arrays. In US 2002/0075258 A1 wird eine solche Kameraanordnung zusätzlich um eine höher auflösende Kamera mit einem beweglichen Ablenkspiegel ergänzt. Da die Projektionszentren der Einzelkameras in Kamera-Arrays nicht in einem gemeinsamen Punkt liegen können, ist die fehlerfreie Transformation in ein Universalbild nicht möglich. Diesen Nachteil vermeidet eine Vorrichtung nach US 6,560,413 B1 zumindest für einen eingeschränkten Vertikalwinkelbereich, indem Flachspiegel in den Strahlengang der Kameras ergänzt werden.Another method of simultaneous panoramic photography is according to WO 03/038752 A1 or after DE 199 25 159 A1 using an array consisting of multiple area cameras. In US 2002/0075258 A1, such a camera arrangement is additionally supplemented by a higher-resolution camera with a movable deflection mirror. Since the projection centers of the individual cameras in camera arrays can not lie in one common point, the error-free transformation into a universal image is not possible. This disadvantage avoids a device after US Pat. No. 6,560,413 B1 at least for a limited vertical angle range, by adding flat mirrors into the beam path of the cameras.

Weiterhin sind sogenannte Stitching-Methoden bekannt, bei denen eine Anzahl von mittels einer Flächenkamera nacheinander in unterschiedlichen Richtungen aufgezeichneten Bildern zu einem gemeinsamen Bild kombiniert wird. Die wohl verbreitetste Anwendung dieser Art ist vom Computer-Softwareprodukt Quick-Time VR der Firma Apple Computer, Inc., Cupertino, CA 95014-2084 bekannt. Dort erfolgt die Speicherung der Bildinformationen auf der Oberfläche eines virtuellen Würfels, was unterschiedliche partielle Auflösungen für verschiedene Betrachtungswinkel zur Folge hat. Weitere Vorschläge ähnlicher Lösungen finden sich in US 2001/803802 und WO 01/93199 A1. In US 2003/0128975 A1 wird ein Multifunktions-Stativkopf vorgestellt, der den Abgleich des Projektionszentrums der Einzelkamera auf die Drehachse erleichtert. Zur Vereinfachung der Anwendung der Methodik wird in WO 99/51027 die Ausstattung der Aufnahmekamera mit einem zusätzlichen Bewegungssensor vorgeschlagen. US 6,456,323 B1 gibt eine Lösung für die Farbanpassung der Einzelbilder bei der Vereinigung zum Panoramabild an. Problematisch für alle bekannten Stitching-Methoden ist der Umstand, dass generell keine korrekte und universelle Zuordnung zwischen den Original- und den gespeicherten Bildkoordinaten erfolgt und die Abbildungseigenschaften der Objektive bestenfalls abgeschätzt werden. So können auch die Übergangsbereiche zwischen benachbarten Einzelbildern nur angenähert werden.Furthermore, so-called stitching methods are known in which a number of images recorded by means of a surface camera one after the other in different directions are combined to form a common image. The most widely used application of this kind is known from the computer software product Quick-Time VR from Apple Computer, Inc., Cupertino, CA 95014-2084. There, the image information is stored on the surface of a virtual cube, resulting in different partial resolutions for different viewing angles. Further proposals of similar solutions can be found in US 2001/803802 and WO 01/93199 A1. In US 2003/0128975 A1 a multifunctional tripod head is presented, which facilitates the adjustment of the projection center of the single camera on the axis of rotation. To simplify the application of the method, the equipment of the recording camera with an additional motion sensor is proposed in WO 99/51027. US Pat. No. 6,456,323 B1 Specifies a solution for the color matching of the individual images when merging to the panoramic image. A problem for all known stitching methods is the fact that generally no correct and universal assignment between the original and the stored image coordinates takes place and the imaging properties of the lenses are estimated at best. Thus, the transition areas between adjacent frames can only be approximated.

Eine gewisse Verwandschaft mit Panoramakameras haben sogenannte Überwachungskameras, die fernsteuerbar auf einem Schwenk-Neige-Kopf montiert sind. Ein besonders ausgereiftes System einer solchen Steuerung wird in US 5,633,681 vorgestellt. Überwachungskameras sind aber wegen ihres Gesamtkonzeptes für die Panoramaaufnahme nicht geeignet.A certain relationship with panoramic cameras have so-called surveillance cameras, which are remotely mounted on a pan-tilt head. A particularly sophisticated system of such control is in US 5,633,681 presented. Surveillance cameras are not suitable because of their overall concept for panoramic shooting.

Zusammenfassend ist keine praktisch verwendbare Lösung für eine Panoramakamera mit einem zugehörigen Bildspeicherprinzip bekannt, womit ein photogrammetrisch auswertbares Bild ohne Bildwinkelbegrenzung automatisch aufgezeichnet werden kann.In summary is not a practical solution for a panoramic camera with a associated Image memory principle known, so a photogrammetrically evaluable Picture without angle limitation automatically recorded can.

3) Videotheodolite, Videotachymeter und Schwenk-Neige-Kameras3) Videotheodolite, video tachymeter and pan-tilt cameras

In DE 199 22 321 C2 und DE 199 22 341 C2 wird ein Videotachymeter nach fortschrittlichem Stand beschrieben, das so wie alle anderen bekannten Videotheodolite und -tachymeter das Fernrohrbild auskoppelt oder ein parallel dazu angeordnetes Objektiv verwendet, um auf einen elektronischen Kamerasensor abzubilden. Dieses Kamerabild dient zur Visualisierung des Zielbildes oder zur Zielmarkenfindung. Eine Bildspeicherung zur photogrammetrischen Auswertung ist bei solchen Geräten grundsätzlich nicht vorgesehen und mit der eingesetzten Kameratechnik nicht möglich. Aus den Publikationen der Deutschen Gesellschaft für Photogrammetrie und Fernerkundung, Band 2, Augsburg 1993, S. 61–70 ist eine Schwenk-Neige-Kamera bekannt, die zur Erfassung eines größeren Objektbereiches die Aufnahmekamera mittels eines servogesteuerten Schwenk-Neige-Systems reproduzierbar in ihrer Lage steuert und Einzelbilder aus den verschiedenen Positionen aufzeichnet. Eine Lösung zur Übernahme dieser Einzelbilder in ein universelles Bildsystem wird nicht angegeben.In DE 199 22 321 C2 and DE 199 22 341 C2 An advanced state-of-the-art video tachymeter is described which, like all other known video theorems and tachymeters, decouples the telescope image or uses a parallel lens to image onto an electronic camera sensor. This camera image is used to visualize the target image or targeting. An image storage for photogrammetric evaluation is basically not provided in such devices and not possible with the camera technology used. From the publications of the German Society for Photogrammetry and Remote Sensing, Volume 2, Augsburg 1993, pp 61-70 a pan-tilt camera is known, the recording camera by means of a servo-controlled pan-tilt system reproducible in their Lage controls and records frames from the various positions. A solution for the adoption of these frames in a universal image system is not specified.

4) Fotografische Gewinnung von Abstandsinformationen4) Photographic extraction distance information

Hier werden zunächst nur Verfahren ohne strukturiertes oder kollimiertes Licht, also bei diffuser Objektbeleuchtung, betrachtet. Basis für alle bekannten Verfahren bildet die Aufnahme des Objektraumes aus wenigstens zwei verschiedenen, eine Parallaxe verursachenden Kamerastandorten. Hierbei ist es zunächst ohne Bedeutung, in welchem Koordinatensystem die Bilddaten erfasst sind. Die Objektkoordinaten von Objektpunkten, die in wenigstens zwei Aufnahmen identifiziert und zugeordnet sind, können in bekannter Weise durch Triangulation und Bündelausgleichung berechnet werden.Here be first only methods without structured or collimated light, ie with diffuse object lighting, considered. Base for all known Method forms the inclusion of the object space of at least two different, a parallax causing camera locations. in this connection it is initially without Meaning in which coordinate system the image data are recorded. The object coordinates of object points that are in at least two Recordings are identified and assigned, in a known manner by Triangulation and bundle adjustment be calculated.

Ein Sonderfall solcher Verfahren ist die stereoskopische Aufnahme, die durch die Zuordnung homologer, in einer Kernlinie liegender Punkte charakterisiert ist und die Bildauswertung wegen zusätzlicher Randbedingungen erheblich vereinfacht. Die seit langem bekannten planar projizierenden Aufnahmekameras mit zwei Objektiven in einem Basisabstand zueinander sind für Aufnahmen ohne Bildwinkelbegrenzung nicht geeignet. Aus DE 44 28 054 C1 , DE 199 21 734 C2 und DE 101 32 399 C1 sind Anordnungen zur stereoskopischen Panoramaaufnahme mit horizontal ausgerichteter Basis bekannt, die mit bekannten Präsentationsmitteln, z.B. Anaglyphen- oder Polarisationsverfahren, eine unmittelbare stereoskopische Betrachtung solcher Bilder und deren Bearbeitung im dreidimensionalen Raum ermöglichen. In JP 11325895 A (Patent Abstracts of Japan) und DE 100 08 520 A1 werden Anordnungen mit vertikaler Basis vorgeschlagen, bei denen jedoch eine natürliche stereoskopische Betrachtung nicht zulassen. Das Hauptproblem bei der automatisierten Auswertung photogrammetrischer Mehrfach- oder Stereo-Aufnahmen besteht im Auffinden korrespondierender Bildpunkte – dem sogenannten Matching-Prozess. Bei diskreten Gegenständen, die vom Hintergrund losgelöst frei im Raum stehen, kommt es zu unstetigen Kantenübergängen, deren abgebildete Umgebung je nach Kameraposition unterschiedliche Inhalte aufweist. Verdecken sich Gegenstände im Raum gegenseitig, so sind die dabei entstehenden Abschattungen von der Perspektive abhängig. In zwei verschiedenen Abbildungen kommt es hierdurch zu Teilflächen, die jeweils nur in einer Abbildung sichtbar und somit nicht vermessbar sind. In solchen Szenarien sind also stets wenigstens drei Abbildungen nötig, um alle sichtbaren Bereiche vermessen zu können. In der Praxis werden oft noch wesentlich mehr Ansichten gebraucht. Die Übersicht über die Vollständigkeit geht dabei schnell verloren, weshalb gewisse Bildteile für die Vermessung nicht zur Verfügung stehen oder der Aufwand für die Auswertung unermesslich wird.A special case of such methods is the stereoscopic image, which is characterized by the assignment of homologous points lying in a core line and considerably simplifies the image analysis because of additional boundary conditions. The long-known planar projecting recording cameras with two lenses at a base distance from each other are not suitable for shooting without frame angle limitation. Out DE 44 28 054 C1 . DE 199 21 734 C2 and DE 101 32 399 C1 are arrangements for stereoscopic Panoramic image with horizontally oriented base known that allow with known presentation means, such as anaglyph or polarization method, a direct stereoscopic viewing of such images and their processing in three-dimensional space. In JP 11325895 A (Patent Abstracts of Japan) and DE 100 08 520 A1 For example, vertical-based arrangements are proposed which, however, do not allow natural stereoscopic viewing. The main problem in the automated evaluation of photogrammetric multiple or stereo recordings is in finding corresponding pixels - the so-called matching process. For discrete objects that are detached from the background, there are discontinuous edge transitions, whose imaged environment has different contents depending on the camera position. If objects obscure each other in space, the resulting shadowing depends on the perspective. In two different images, this results in partial areas, which are only visible in one image and thus can not be measured. In such scenarios, at least three images are always required to measure all visible areas. In practice, many more views are often needed. The overview of the completeness is lost quickly, which is why certain parts of the image for the measurement are not available or the effort for the evaluation is immeasurable.

Werden im Objekt leicht erkennbare oder gar optisch kodierte Marken angebracht, so kann eine zuverlässige automatische Auswertbarkeit erreicht werden. Dies setzt aber umfangreiche Markierarbeiten voraus, die die Wirtschaftlichkeit der Aufnahmen insgesamt relativieren. Auch ist das zu vermessende Objekt oft nicht in seiner gesamten Ausdehnung zugänglich.Become attached easily recognizable or even optically coded marks in the object, so can a reliable automatic readability can be achieved. This sets but extensive Marking ahead, the cost-effectiveness of shooting total relativize. Also, the object to be measured is often not accessible in its entire extent.

Ohne solche Markierungen oder andere vereinfachende Randbedingungen wird die automatische Vermessung in der Nahbereichsphotogrammetrie trotz zahlreicher Lösungsvorschläge für diese Problematik bisher nicht beherrscht. Ein weiteres Problem besteht auch darin, dass eine Objekt- oder Oberflächenzuordnung stattfinden muss, damit aus einer Menge von Punktkoordinaten letzten Endes räumliche Objekte werden können. Die Objektzuordnung bildlich erfasster Flächenelemente ist nur eingeschränkt automatisierbar und erfordert regelmäßig den Eingriff einer bedienenden Person.Without such markings or other simplifying boundary conditions the automatic measurement in the Nahbereichsphotogrammetrie despite numerous solutions for this Problem so far not mastered. Another problem exists also in that an object or Surface assignment take place must, so from a lot of point coordinates in the end spatial Objects can be. The object assignment of pictorially recorded surface elements can only be automated to a limited extent and requires the regular Intervention of a serving person.

5) Gewinnung von Abstandsinformationen mittels strukturierter Beleuchtung5) Obtaining distance information using structured lighting

Das immer wiederkehrende Funktionsprinzip besteht in der Projektion von Lichtmustern, -linien, -gittern oder -marken auf die Objektoberfläche, deren fotografischer Aufnahme und analytischer Auswertung des von der Objektoberfläche verformten Projektionsbildes aus einem oder mehreren Beobachtungspunkten.The Recurring principle of operation consists in the projection of light patterns, lines, grids or marks on the object surface whose Photographic image and analytical evaluation of the of object surface deformed projection image from one or more observation points.

Hier sind zunächst Verfahren bekannt, bei denen anstelle mechanisch anzubringender Zieltafeln optische Marken auf die Objektoberfläche projiziert werden. So sind auch unzugängliche Objektbereiche für die Messung erreichbar. Entsprechende Vorschläge zum Verwenden solcher Licht-Marken, die auch als flächige Raster- oder Gittermuster formiert werden, sind stellvertretend in DE 101 37 241 A1 , DE 10149 750 A1 , DE 195 02 459 A1 oder US 6,501,554 B1 enthalten. Als einschränkende Sonderform zur punktuellen Abstandsmessung könnte das Triangulationsverfahren bezeichnet werden, wie es beispielsweise in DE 197 21 688 A1 beschrieben ist. Anstelle der statischen Projektion von Mustern wird in US 6,529,627 B1 die Abtastung mit einer projizierten Lichtlinie bei gleichzeitiger Aufzeichnung als Bildfolge vorgeschlagen. Wegen ihrer Universalität sind Projektionsverfahren besonders zweckmäßig, bei denen umschaltbare, binär kodierte Lichtmuster verwendet werden. DE 198 10 495 A1 gibt hierfür ein Beispiel. Um eine noch höhere Auflösung zu erhalten und Abschattungen durch objekteigene Oberflächenprofile zu vermeiden, werden die Objekte innerhalb von Anordnungen aus Musterprojektor und Kamera zusätzlich bewegt. So befindet sich bei DE 198 52 149 C2 das Objekt auf einem Drehteller. Aufnahmen mit strukturierter Lichtprojektion erlauben prinzipiell eine gute Genauigkeit bei der Koordinatenbestimmung und die Anwendung effektiver Algorithmen zur automatischen Auswertung. Mit wachsender Objektausdehnung wird aber deren flächige Beleuchtung immer komplizierter, weil eine immer höhere Lichtleistung und ein immer komplexer werdender Aufbau benötigt wird. Dies gilt insbesondere auch für Weitwinkel- oder Panoramaaufnahmen.Here, methods are first of all known in which, instead of target plates to be mechanically attached, optical marks are projected onto the object surface. So also inaccessible object areas for the measurement can be reached. Corresponding proposals for using such light marks, which are also formed as a surface grid or grid pattern, are representative in DE 101 37 241 A1 . DE 10149 750 A1 . DE 195 02 459 A1 or US 6,501,554 B1 contain. As a limiting special form for punctual distance measurement, the triangulation method could be designated, as for example in DE 197 21 688 A1 is described. Instead of the static projection of patterns is in US 6,529,627 B1 proposed the scanning with a projected light line while recording as an image sequence. Because of their universality, projection methods that employ switchable, binary-coded light patterns are particularly useful. DE 198 10 495 A1 gives an example. In order to obtain an even higher resolution and avoid shading by object-own surface profiles, the objects are additionally moved within arrangements of pattern projector and camera. So is located at DE 198 52 149 C2 the object on a turntable. Photographs with structured light projection allow, in principle, good accuracy in coordinate determination and the application of effective algorithms for automatic evaluation. With increasing object expansion, however, their areal lighting becomes more and more complicated because an ever increasing light output and an ever more complex structure is required. This is especially true for wide-angle or panoramic shots.

6) Direkte Abstandsmessverfahren6) Direct distance measuring method

Es sind Verfahren zur polaren Abtastung der Objektoberfläche mit diskreten Messstrahlenbündeln unter bekannten Winkeln bei gleichzeitiger Bestimmung des jeweiligen Abstandes, z.B. durch Laufzeit-, Phasenvergleichs- oder Interferenzmessung bekannt. Solche Aufgaben werden von sogenannten Laserscannern erfüllt. Obwohl u.a. aus EP 0 999 429 A1 bereits Anordnungen bekannt sind, die eine Bildaufnahmevorrichtung mit solchen Laserscannern koppeln, sind sie selbst nicht zur Bildaufnahme geeignet, sondern erfassen nur Koordinatenwolken. Wegen ihres nach dem gegenwärtigen Stand der Technik sehr hohen Herstellungsaufwandes bei hohen Anforderungen an die Präzision bewegter Baugruppen haben solche Geräte außerdem einen hohen Preis.Methods are known for polar scanning of the object surface with discrete measurement beams at known angles while simultaneously determining the respective distance, for example by transit time, phase comparison or interference measurement. Such tasks are fulfilled by so-called laser scanners. Although among others EP 0 999 429 A1 Arrangements are already known which couple an image recording device with such laser scanners, they themselves are not suitable for image acquisition, but capture only coordinate clouds. Because of their very high manufacturing overhead in the current state of the art In addition, with high demands on the precision of moving assemblies, such devices also have a high price.

Technische AufgabenstellungTechnical task

Die der Erfindung zugrunde liegende Aufgabenstellung besteht darin, photogrammetrisch auswertbare fotografische Abbildungen aus einem Beobachtungsstandort mit folgenden Eigen schaften herzustellen:

  • – Es soll keine prinzipbedingte Bildwinkelbegrenzung auftreten.
  • – Alle Ansichten aus einem Beobachtungsstandort sollen in einem gemeinsamen, universellen Modellkoordinatensystem gespeichert werden können.
  • – Es soll ein hohes geometrisches Auflösungsvermögen erreichbar sein.
  • – Systematische Abbildungsfehler sollen im Rahmen der mechanisch realisierbaren Toleranzen vollständig korrigiert werden.
  • – Einzelansichten sollen nach der Aufnahme durch geometrisch korreke Messbildentzerrung in beliebige Flächen zentralperspektivisch entzerrt werden können.
The object underlying the invention is to produce photogrammetrically evaluable photographic images from an observation site with the following properties:
  • - There should be no principle limitation of the picture angle.
  • - All views from an observation site should be able to be stored in a common, universal model coordinate system.
  • - It should be achievable a high geometric resolution.
  • - Systematic aberrations should be completely corrected within the scope of the mechanically realizable tolerances.
  • - Single views should be able to be rectified in a central perspective after acquisition by geometrically correct image equalization.

Ferner soll bei bestimmter Ausgestaltung und unter bestimmten Einsatzbedingungen eine automatische Extrapolation von geometrischen Primitiven, z.B. Flächen, Kanten und Eckpunkten, erfolgen, so dass insbesondere auch eine wirtschaftliche Lösung zur schnellen und präzisen Aufmessung von Gebäuden und Innenräumen als Anwendungsbeispiel ableitbar ist.Further should in certain embodiment and under certain conditions of use an automatic extrapolation of geometric primitives, e.g. surfaces, Edges and vertices, done so that in particular a economical solution for fast and accurate Measurement of buildings and interiors as an application example is derivable.

Weiterhin soll ein Lösungsweg zur Kalibrierung der Aufnahmevorrichtung aufgezeigt werden.Farther should be a solution be shown for calibration of the recording device.

ProblemlösungTroubleshooting

Das Problem wird mit den in den Ansprüchen 1, 3 und 19 gekennzeichneten Verfahren und der in den Ansprüchen 22 und 25 gekennzeichneten Anordnung gelöst. Vorteilhafte Ausgestaltungen sind in den weiteren Ansprüchen angegeben.The Problem becomes with the characterized in the claims 1, 3 and 19 Method and in the claims 22 and 25 marked arrangement solved. Advantageous embodiments are in the further claims specified.

Die Erfindung verwendet grundsätzlich als Koordinatensystem für die Speicherung aller Bildinformationen das Polarkoordinatensystem. Gegenüber allen anderen Koordinatensystemen hat dieses den entscheidenden Vorteil, keinerlei Vorzugsrichtungen oder Bildhauptpunkte zu benötigen und somit zur Aufnahmezeit keine Vorbedingungen festzulegen, die eine nachfolgende Bearbeitung mit wahlfreien Projektionsrichtungen einschränken würde.The Invention basically uses as a coordinate system for storing all image information the polar coordinate system. Across from All other coordinate systems have this crucial Advantage, not to need any preferred directions or image main points and Thus, at the time of recording no preconditions to set, the one restrict subsequent processing with optional projection directions.

Gemäß 4 wird um den Mittelpunkt O, der mit dem Kamerastandort identisch ist und als Beobachtungspunkt bezeichnet wird, eine virtuelle Kugelfläche K gelegt. Der Kugelradius habe als Einheitsradius die Länge 1. Ein kartesisches Koordinatensystem (x, y, z) mit seinem Ursprung im Mittelpunkt O beschreibe eine willkürliche Richtungsorientierung. Ein überlagertes sphärisches Koordinatensystem (λ, ϕ) liege mit seiner Äquatorialebene E in der Ebene (x, y). Der Abbildungsstrahl von einem beliebigen Objektpunkt P zum Beobachtungspunkt O durchdringt die Kugelfläche in einem Bildpunkt P', dessen Koordinaten mit dem Horizontalwinkel λP und dem Vertikalwinkel ϕP eindeutig beschrieben sind. Alle vom Beobachtungspunkt O aus sichtbaren Objektpunkte werden also auf der gedachten Kugeloberfläche in homogener Weise abgebildet, ohne dass hierbei die Lage in Bezug auf die Orientierung der Koordinatensysteme eine Rolle spielt. Letztere dienen nur als Basis für die Zuweisung messbarer Koordinaten und werden willkürlich festgelegt. Weil das gesamte sphärische Abbild rund um einen Beobachtungspunkt auf das Koordinatensystem (x, y, z) mit seinen Winkelkoordinaten (λ, ϕ) bezogen ist, sei dieses nachfolgend im Unterschied zum Bildkoordinatensystem als Modellkoordinatensystem bezeichnet, auch wenn dieser Begriff noch in einem etwas anderen Zusammenhang gebräuchlich ist.According to 4 is placed around the center O, which is identical to the camera location and is referred to as an observation point, a virtual sphere K. The radius of the sphere has the length 1 as a unit radius. A Cartesian coordinate system (x, y, z) with its origin at the center O describes an arbitrary directional orientation. A superimposed spherical coordinate system (λ, φ) lies with its equatorial plane E in the plane (x, y). The imaging beam from an arbitrary object point P to the observation point O penetrates the spherical surface in a pixel P 'whose coordinates are unambiguously described by the horizontal angle λ P and the vertical angle φ P. All object points visible from the observation point O are thus imaged in a homogeneous manner on the imaginary spherical surface, without the position in relation to the orientation of the coordinate systems being of importance. The latter serve only as a basis for assigning measurable coordinates and are arbitrarily set. Because the entire spherical image is related to the coordinate system (x, y, z) with its angular coordinates (λ, φ) around an observation point, this is referred to below as a model coordinate system, in contrast to the image coordinate system, even though this term is still somewhat different Context is in use.

Die Gewinnung der Bilddaten, die auf die Kugelfläche abzubilden sind, geschieht erfindungsgemäß nicht zu einem einheitlichen Zeitpunkt für die gesamte Kugelfläche, sondern aus einer Kombination einzelner, nacheinander aufzuzeichnender Ausschnitte dieser Fläche. Die Aufnahmekamera, die jeweils nur ein im Bildwinkel begrenztes Fragment der Kugelfläche aufzeichnet, wird hierzu gemäß 5 um ihr Projektionszentrum mit bestimmtem Horizontalwinkel 0 ⩽ α < 2π geschwenkt und mit bestimmtem Vertikalwinkel

Figure 00100001
geneigt.The extraction of the image data which are to be imaged on the spherical surface, according to the invention does not happen at a single time for the entire spherical surface, but from a combination of individual, successively recorded sections of this surface. The recording camera, which records only a fragment of the spherical surface delimited in the angle of view, is adapted for this purpose 5 pivoted about its projection center with a given horizontal angle 0 ⩽ α <2π and with a certain vertical angle
Figure 00100001
inclined.

Ausgehend von einer mit einem Rechteck begrenzten Projektionsfläche B der Kamera wird in dieser Kameraposition die Bildinformation für ein Teilstück F der Kugelfläche gewonnen. Entsprechend 12 ist die Kamera K vorteilhaft in einer präzise ausgeführten kardanischen Aufhängung gelagert, die eine Verschwenkung um die senkrechte Stehachse VV und Neigung um die horizontale Kippachse HH, deren Schnittpunkt im Projektionszentrum der Kamera auf der optischen Achse ZZ liegt, ermöglicht.Starting from a limited projection area B of the camera, the image information for a section F of the spherical surface is obtained in this camera position. Corresponding 12 the camera K is advantageously mounted in a precisely executed gimbal suspension, which allows a pivoting about the vertical standing axis VV and inclination about the horizontal tilting axis HH whose intersection point in the projection center of the camera on the optical axis ZZ.

Ohne Einschränkung der Allgemeingültigkeit wird die z-Achse in die Schwenkachse der Kamera gelegt, während die x-Achse einen Anfangswinkel α=0 der Schwenkbewegung kennzeichnet. Eine solche Konstellation ermöglicht es, einen prinzipiell zu berücksichtigenden Kantungswinkel der Kamera um ihre optische Achse generell auf Null festzulegen, wodurch sich die analytischen Gleichungen erheblich vereinfachen.Without restriction of generality the z-axis is placed in the pivot axis of the camera, while the x-axis has an initial angle α = 0 the pivoting movement marks. Such a constellation makes it possible a principle to be considered Canting angle of the camera around its optical axis generally zero which makes the analytic equations significant simplify.

Eine Aufnahmekamera, die auf eine ebene Sensormatrix projiziert, erzeugt eine Abbildung mit diskreten rechtwinkligen Koordinaten. Bereits die Anschauung von 5 verdeutlicht aber, dass eine Zuordnung zwischen dem ebenen Kamerabild B und dem gewölbten Abschnitt der Kugeloberfläche F eine mathematische Umrechnungsvorschrift erfordern würde.A recording camera projecting onto a flat sensor matrix generates a picture with discrete rectangular coordinates. Already the view of 5 illustrates, however, that an association between the planar camera image B and the curved portion of the spherical surface F would require a mathematical conversion rule.

Diese Umrechnung ist zu umgehen, wenn die Pixelkoordinaten der Kamera nicht wie allgemein üblich in einem rechtwinkligen Koordinatensystem, sondern grundsätzlich in polaren Winkelkoordinaten kalibriert sind. Während eines Kalibriervorgangs wird deshalb jedem diskreten Bildelement des Sensors ein Wertepaar aus Horizontal- und Vertikalwinkel zugeordnet und in einer Korrekturmatrix abgelegt. 6 illustriert den geometrischen Zusammenhang. Ein Objektpunkt P mit bekannten Winkelkoordinaten (λ'P, ϕ'P) im Bildkoordinatensystem (x', y', z') wird auf der Bildfläche B mit den Pixelkoordinaten

Figure 00110001
abgebildet. Zur Vereinfachung wird bei dieser, wie auch allen weiteren Bildprojektionen die Bildfläche in der sogenannten Positivlage dargestellt. Selbstverständlich entstehen die Bilder physikalisch durch das Projektionszentrum hindurch in der Negativlage, haben aber dabei zur Positivlage völlig identische Maßbeziehungen.This conversion is to be avoided if the pixel coordinates of the camera are not calibrated as usual in a rectangular coordinate system, but basically in polar angle coordinates. During a calibration process, therefore, a value pair of horizontal and vertical angles is assigned to each discrete picture element of the sensor and stored in a correction matrix. 6 illustrates the geometric context. An object point P with known angular coordinates (λ ' P , φ' P ) in the image coordinate system (x ', y', z ') becomes on the image surface B with the pixel coordinates
Figure 00110001
displayed. To simplify this, as well as all other image projections, the image area is displayed in the so-called positive position. It goes without saying that the images physically emerge in the negative position through the projection center, but have absolutely identical dimensional relationships to the positive position.

Die genannte Kalibrierweise kommt auch der radialen Verzeichnung der meisten Objektive entgegen, bei denen die ansich zum Tangens proportionale Abbildungsfunktion in Richtung einer winkelproportionalen Abbildung linearisiert ist.The mentioned calibration also comes the radial distortion of the Most lenses, where the ansich to tangent proportional Mapping function in the direction of an angle-proportional image is linearized.

Üblicherweise liegen die Pixelkoordinaten in diskreter Form als Positionsnummer der zugehörigen Pixel vor. Die jedem Bildpixel zuzuordnenden radiometrischen Werte (Farbwert, Grauwert) können aber zwischen den diskreten Koordinatenschritten nach geeigneter Vorschrift zu einer stetigen Funktion interpoliert werden. Auf diese Weise ist es auch möglich, die Pixelkoordinaten der Messmarken, die zur Kamerakalibrierung abgebildet werden, in stetigen Koordinaten zu messen. Noch einfacher ist es, den diskreten Pixeln in stetigen Koordinaten gemessene Winkelpaare zuzuordnen, was zu einer Matrix der Form

Figure 00110002
führt. Die Ausdehnung G×H entspricht der Anzahl physikalischer Sensorelemente des Bildsensors. Diese Matrix wird als Ergebnis der Kamerakalibrierung als Korrekturmatrix in einer Datei abgelegt.Usually, the pixel coordinates are present in discrete form as the position number of the associated pixels. However, the radiometric values (color value, gray value) to be assigned to each image pixel can be interpolated between the discrete coordinate steps according to a suitable rule to a continuous function. In this way it is also possible to measure the pixel coordinates of the measuring marks, which are imaged for camera calibration, in continuous coordinates. It is even simpler to assign angular pairs measured in discrete coordinates to the discrete pixels, resulting in a matrix of the form
Figure 00110002
leads. The extent G × H corresponds to the number of physical sensor elements of the image sensor. This matrix is stored as a correction matrix in a file as a result of the camera calibration.

Ist die Kamera eine Zeilenkamera mit vertikal ausgerichtetem Zeilensensor, so verringert sich der Aufwand für Kalibrierung und Speicherung erheblich, weil nur noch eindimensional zu messen und in der Form ((ϕ')0 (ϕ')1 ... (ϕ')H)T zu speichern ist. Hier ist H die Anzahl physikalischer Sensorelemente, die in einer Reihe angeordnet sind.If the camera is a line scan camera with a vertically aligned line sensor, the effort for calibration and storage is reduced considerably because it only needs to measure one-dimensionally and in shape ((Φ ') 0 (Φ ') 1 ... (φ ') H ) T to save. Here, H is the number of physical sensor elements arranged in a row.

Um die Größe der Korrekturmatrix zu reduzieren, ist es unter Beachtung der in Kauf zu nehmenden Fehler selbstverständlich auch möglich, die Anzahl der Stützstellen für die Korrekturfunktion unter die Anzahl der Sensorelemente G×H oder H zu senken und die übrigen Koordinaten während der Korrektur geeignet zu interpolieren. Dies könnte auch so weit gehen, dass generell eine Funktion höherer Ordnung gefunden wird, die mit ausreichender Genauigkeit die geometrische Korrektur annähert. Da der wesentlichste Abbildungsfehler technischer Objektive von der radialen Verzeichnung verursacht wird, könnte für die flächige Abbildung auch eine vom Radius aus dem Bildhauptpunkt der Kamera abhängige eindimensionale Korrekturfunktion gefunden werden.In order to reduce the size of the correction matrix, it is of course also possible to reduce the number of support points for the correction function below the number of sensor elements G × H or H, and the remaining coordinates are suitable during correction, taking into account the errors to be accepted interpolate. This could go so far that in general a higher-order function is found which approximates the geometric correction with sufficient accuracy. Since the most essential aberration If technical objectives are caused by the radial distortion, it would also be possible to find a one-dimensional correction function dependent on the radius from the main image point of the camera for the two-dimensional imaging.

Die mit Hilfe der Kalibrierung ermittelten Winkelzuordnungen gelten für das Bildkoordinatensystem (x', y', z') und unter der Bedingung {α=0; β=0} auch für das Modellkoordinatensystem (x, y, z). Für den Normalfall ist eine Koordinatentransformation zwischen beiden Systemen mit gemeinsamem Ursprung durchzuführen.The apply with the help of calibration determined angle assignments for the Image coordinate system (x ', y', z ') and under the condition {Α = 0; β = 0} too for the Model coordinate system (x, y, z). For the normal case is a coordinate transformation between both systems of common origin.

7 zeigt die Transformationsaufgabe. Das Modellkoordinatensystem (λ, ϕ) ist in ein vordefiniertes Winkelraster mit den konstanten Winkelschritten (Δλ, Δϕ) diskretisiert. Soweit entsprechende Bilddaten zur Verfügung stehen, soll jeder Schnittpunkt dieses Winkelrasters mit einem radiometrischen Bildwert besetzt werden. Vom verfügbaren Einzelbild sind der Verschwenkungswinkel α und der Neigungswinkel β bekannt. Zur Berechnung des Winkelpaares (λ', ϕ') aus den Modellkoordinaten (λ, ϕ) dient der Operator T mit der für das kartesische Koordinatensystem herleitbaren Rotationsgleichung

Figure 00120001
7 shows the transformation task. The model coordinate system (λ, φ) is discretized into a predefined angle grid with the constant angular steps (Δλ, Δφ). As far as appropriate image data are available, each intersection of this angle grid should be occupied with a radiometric image value. From the available frame the Verschwenkungswinkel α and the inclination angle β are known. To calculate the angle pair (λ ', φ') from the model coordinates (λ, φ), the operator T is used with the rotation equation deducible for the Cartesian coordinate system
Figure 00120001

Mit der Polarkoordinaten-Substitution x = r·cosϕ·cosλ y = r·cosϕ·sinλ z = r·sinϕund der Randbedingung r=1 für den gemeinsamen Einheitsradius gelangt man zur Gleichung

Figure 00130001
With the polar coordinate substitution x = r · cosφ · cosλ y = r · cosφ · sinλ z = r · sinφ and the boundary condition r = 1 for the common unit radius leads to the equation
Figure 00130001

Die Lösung dieses Gleichungssystems führt zu

Figure 00130002
The solution of this equation system leads to
Figure 00130002

Im nächsten Schritt sind innerhalb der Korrekturmatrix die zum ermittelten Wertepaar (λ', ϕ') benachbarten Pixel (j, i), (j, i+1), (j+1, i) und (j+1, i+1) nach der Vorschrift Λji < λ' ≤ Λj(i+1) zu finden. Aus diesen vier Pixeln der Originalaufnahme wird nun im Operator I ein mittlerer Wert für die Zwischenkoordinaten durch gewichtete Interpolation, z.B. nach der Gleichung

Figure 00130003
mit c1 = λ' – Λji, c2 = λ' – Λj(i+1), c3 = ϕ' – Φji, c4 = ϕ' – Φ(j+1)i errechnet. Mit der vorherigen Koordinatentransformation (λ,ϕ) → (λ',ϕ') wurden somit die radiometrischen Werte für die Modellkoordinaten gefunden.In the next step, the pixels (j, i), (j, i + 1), (j + 1, i) and (j + 1, i + 1) adjacent to the determined value pair (λ ', φ') are within the correction matrix ) according to the regulation Λ ji <λ '≤ Λ j (i + 1) to find. From these four pixels of the original recording, a mean value for the intermediate coordinates is now calculated in operator I by weighted interpolation, eg according to the equation
Figure 00130003
With c 1 = λ '- Λ ji , c 2 = λ '- Λ j (i + 1) , c3 = φ '- Φ ji , c 4 = φ '- Φ (J + 1) i calculated. With the previous coordinate transformation (λ, φ) → (λ ', φ'), the radiometric values for the model coordinates were thus found.

Die vorgeschlagene radiometrische Berechnung hat auch dann Gültigkeit, wenn zwischen diskreten Pixeln im Originalbild eine größere Pixelzahl in den Modellkoordinaten entsteht, die geometrische Auflösung also zumindest partiell erhöht wird. Werden im anderen Fall weniger Pixel gesetzt, so dass Lücken zwischen den Originalkoordinaten entstehen, müssen weitere angrenzende Pixel in die Rechnung einbezogen werden, um Aliasing-Effekte zu vermeiden. Für den Sonderfall, dass die Kamera eine Zeilenkamera ist, vereinfacht sich das hergeleitete Formelwerk drastisch. Mit der resultierenden Bedingung λ'≡0 gilt einfach λ=α und damit ϕ' = ϕ – β. The proposed radiometric calculation is also valid if a larger number of pixels in the model coordinates arises between discrete pixels in the original image, the geometric resolution So at least partially increased. If, in the other case, fewer pixels are set, so that gaps are created between the original coordinates, further adjacent pixels must be included in the calculation in order to avoid aliasing effects. For the special case that the camera is a line scan camera, the deduced formula work is drastically simplified. With the resulting condition λ'≡0 simply λ = α and thus φ '= φ - β.

Würde mit der Kamera nur punktförmig mechanisch abgetastet, wäre weiterhin ϕ'≡0 und deshalb ϕ=β, was die Universalität des Modellkoordinatensystems unterstreicht.Would with the camera only punctiform mechanically scanned, would be furthermore φ'≡0 and therefore φ = β, which is the universality of the model coordinate system.

In der beschriebenen Art und Weise lassen beliebige Kamerabilder, die unter den genannten Bedingungen entstehen, in das sphärische Modellkoordinatensystem übernehmen. Besonders dann, wenn die Einzelbilder von Flächenkameras stammen, werden die Bildränder wegen der sphärischen Verzerrung gekrümmt, so dass beim Aneinanderfügen der Bilder ein Überlappungsbereich entsteht. Neben der Möglichkeit, die Ränder entlang des Gradnetzes im Modellsystem zu beschneiden und an den dann geraden Kanten zusammen zu setzen, kann ein weiches Überblenden innerhalb des Überlappungsbereiches vorteilhaft sein. Hierzu werden die nach Abstandskriterien normiert gewichteten radiometrischen Werte des einen Bildes mit denen des anderen Bildes kombiniert, was auch mit mehr als zwei einander überlappenden Bildern erfolgen kann.In the manner described let any camera images that arise under the conditions mentioned, in the spherical model coordinate system take over. Especially when the frames are taken by area cameras the edges of the picture because of the spherical Distortion curved, so that when joining together the pictures an overlap area arises. Besides the possibility the edges along the degree network in the model system to crop and on the then putting straight edges together can make a soft fading within the overlap area be beneficial. For this purpose, they are normalized according to distance criteria weighted radiometric values of one image with the other Picture combined, which also with more than two overlapping ones Pictures can be done.

Das beschriebene Grundkonzept erlaubt eine weitere wichtige Option: Erfolgt die mechanische Verschwenkung und Neigung mit solch kleinen Winkeln und einer so hohen Präzision, dass die resultierenden Verschiebungen im Bild kleiner als der Abstand zwischen zwei Pixeln sind, so ist die Vervielfachung der effektiven geometrischen Auflösung im Bild möglich. 8 erläutert das Prinzip an einem Beispiel. Eine Bildfläche A00 wird um drei weitere Bildflächen A01, A10, A11 ergänzt, die jeweils um einen halben Pixelabstand nach rechts, nach unten und nach unten rechts versetzt aufgezeichnet wurde. Das resultierende Bild A besitzt die doppelte lineare Auflösung. Solche künstlichen Erhöhungen des physikalischen Auflösungsvermögens der Sensormatrix sind ansonsten nur durch deren mechanisches Verschieben, z.B. mit Hilfe von Piezo-Aktoren, möglich und werden in der Literatur als Microscanning bezeichnet. Die hier vorgeschlagene Variation der Drehwinkel erspart aber nicht nur den zusätzlichen Einbau solcher Aktoren, sondern führt die Subpixelverschiebung vorteilhafter Weise bereits adäquat zum sphärischen Modellkoordinatensystem aus. Für den Fall der Verwendung eines Zeilensensors ist nur ein Neigen in Zeilenrichtung nötig.The basic concept described allows another important option: if the mechanical pivoting and tilting are done with such small angles and precision that the resulting displacements in the image are smaller than the distance between two pixels, then the multiplication of the effective geometric resolution in the image possible. 8th explains the principle with an example. An image area A 00 is supplemented by three further image areas A 01 , A 10 , A 11 , which were each recorded offset by half a pixel pitch to the right, down and to the bottom right. The resulting image A has twice the linear resolution. Such artificial increases in the physical resolution of the sensor matrix are otherwise possible only by their mechanical displacement, for example with the aid of piezo actuators, and are referred to in the literature as microscanning. However, the variation of the angles of rotation proposed here not only saves the additional installation of such actuators, but also advantageously performs the subpixel displacement adequately to the spherical model coordinate system. In the case of using a line sensor, only tilting in the row direction is necessary.

Neben der Verwendbarkeit eines kostengünstigeren Sensors mit kleinerer Anzahl von Sensorelementen besteht ein weiterer Vorteil der beschriebenen Auflösungserhöhung darin, dass in Anwendungsfällen mit kleinerer Anforderung an die geometrische Auflösung diese Subpixelverschiebung einfach weggelassen werden kann. Würden statt dessen Zwischenpixel einer höher aufgelösten Matrix weggelassen, wäre diese nicht mehr voll besetzt. Dies hätte wegen des dabei sinkenden Verhältnisses der geometrischer Abtastfrequenz zur räumlichen Integration einen Aliasing-Effekt zur Folge, der sich durch Moire-Muster im Bild äußern würde. Um dies zu verhindern, müssten benachbarte Pixel miteinander gemittelt werden, was den Zeitvorteil eines kleineren Bildpunkteaufkommens teilweise wieder nivelliert. Außerdem müssen alle Sensor-Arrays in CCD-Technologie seriell ausgelesen werden, so dass ohnehin alle physikalisch vorhandenen Sensorelemente einer Zeile oder Spalte zu erfassen wären.Next the usability of a cheaper Sensor with a smaller number of sensor elements is another Advantage of the described increase in resolution therein, that in use cases with a smaller geometric resolution requirement this Subpixel displacement can be easily omitted. Would take place its intermediate pixels of a higher-resolution matrix omitted, would be these are no longer fully occupied. This would have been because of the sinking ratio the geometric sampling frequency for spatial integration Aliasing effect, which would be expressed by Moire pattern in the picture. To this would have to prevent neighboring pixels are averaged together, giving the time advantage partially re-leveled a smaller number of pixels. Furthermore have to all sensor arrays be read serially in CCD technology, so that anyway physically present sensor elements of a row or column would be to capture.

Auch für die Kalibrierung der Kamera in sphärischen Koordinaten bietet das beschriebene Grundkonzept eine simple und dabei sehr genaue und effektive Lösungsmöglichkeit an. Dadurch, dass sowohl Neige-, wie auch Verschwenkwinkel der Kamera genauestens positionierbar sind, genügt das Aufstellen einer Punktmarke in Höhe des Projektionszentrums vor die Kamera und deren fortlaufende Aufnahme bei sich ändernden mechanischen Winkeln. Über die Abbildungskoordinaten der Marke ist der jeweils eingestellte Winkel, dabei jedoch mit entgegengesetztem Vorzeichen, zuzuordnen. Gestattet der Drehantrieb um die Kippachse gar eine vollständige Drehung, so muss nicht einmal die Höhe der Marke eingemessen werden, weil dann wie vom Theodolit her bekannt auf Durchschlag gemessen und die halbe Vertikalwinkeldifferenz als Winkeloffset korrigiert werden kann. Für den Horizontalwinkel ist keine Nullmarkendefinition erforderlich. Hier kann einfach von der bekannten oder vermuteten Lage des Bildhauptpunktes ausgegangen werden.Also for the Calibration of the camera in spherical Coordinates, the described basic concept offers a simple and Thereby very accurate and effective solution. As a result of that both tilt and tilt angle of the camera accurately are positionable, is sufficient the establishment of a point mark at the level of the projection center in front of the camera and their continuous recording with changing mechanical Angles. about the image co-ordinates of the brand is the respectively set Angle, but with opposite sign, assign. Allows the rotary drive to the tilting axis even a complete rotation, so not even the height of the brand, because then as known from the theodolite ago measured on breakdown and half the vertical angle difference as Angle offset can be corrected. For the horizontal angle is no zero mark definition required. Here can easily from the well-known or suspected location of the main image point are assumed.

Liegt nun also eine sphärische Abbildung vollständig oder fragmentweise in den Modellkoordinaten vor, so sind damit alle denkbaren photogrammetrischen Auswertungen optimal möglich. Beinahe alle Umformungen und Koordinatentransformationen, die ansonsten in der traditionellen Photogrammetrie üblich und erforderlich sind, entfallen hier wegen des universellen Koordinatensystems. Als Beispiel sei die bekannte Thematik der Messbildentzerrung von Ebenen, z.B. bei Fassaden, genannt. Notwendig und hinreichend für die korrekte Darstellung einer Ebene im Bild ist, wie nachfolgend beschrieben, die Ebenenprojektion mit einer virtuellen optischen Achse, die diese Ebene im Nadirpunkt schneidet. Kontrollieren lässt sich dies über die Parallelität der Abbildung von zueinander parallelen Linien in der Ebene des Originals.If, therefore, a spherical image exists completely or fragmentarily in the model coordinates, then all imaginable photogrammetric evaluations are optimally possible. Almost all transformations and coordinate transformations that are common and required in traditional photogrammetry are eliminated because of the universal coordinate system. As an example, the well-known topic of Messbildentzerrung of levels, eg in facades, called. Necessary and sufficient for the correct representation of a plane in the image is, as described below, the plane projection with a vir optical axis that intersects this plane at the nadir point. This can be controlled by the parallelism of the image of parallel lines in the plane of the original.

Auch das in der Vermessungstechnik sehr praktische und weit verbreitete Polarverfahren hat in diesem Modell volle Gültigkeit. Um mit photogrammetrisch gewonnenen Winkelkoordinaten ebenso arbeiten zu können, wie etwa mit solchen vom Theodolit, empfiehlt sich bereits bei der Aufnahme das Einmessen des Beobachtungspunktes und eine sorgfältige Horizontierung der Aufnahmevorrichtung.Also this is very practical and widespread in surveying technology Polar method has full validity in this model. To be with photogrammetric won angle coordinates to be able to work as well for example, with those of the theodolite, is already recommended when taking the calibration of the observation point and a careful leveling the cradle.

Um eine Fotografie in natürlicher Darstellung zu betrachten, ist eine zentralperspektivische Darstellung zu fordern, die natürlich nur dann sinnvoll ist, wenn der Betrachtungswinkel weniger als 180 Grad erfasst. Somit kann immer nur ein begrenzter Ausschnitt des sphärisch gespeicherten Gesamtbildes projiziert werden – dieser aber wahlfrei mit beliebiger Blickrichtung und mit beliebigem Bildwinkel innerhalb der genannten Grenzen. Es wird also eine virtuelle Kamera im Beobachtungspunkt definiert, die programmtechnisch geschwenkt und geneigt werden kann und damit eine wahlfreie Ausrichtung ihrer virtuellen optischen Achse erlaubt. Die freie Bildwinkelauswahl erscheint dabei als virtueller Zoom mit beliebigen Brennweiten.Around a photograph in natural Viewing representation is a central perspective view to demand, of course only makes sense if the viewing angle is less than 180 Degree recorded. Thus, only a limited section of the spherical stored overall image are projected - but this optional with any direction and with any angle within the limits mentioned. It will be a virtual camera in the observation point defined, the program can be tilted and tilted and thus an optional alignment of their virtual optical Axis allowed. The free angle selection appears as virtual Zoom with any focal length.

Zur Projektion des winkelbegrenzten Ausschnitts aus dem Modellkoordinatensystem auf eine ebene Fläche ist eine Transformation nach 9 erforderlich, die in zwei Schritten abläuft. Im ersten Schritt werden die Koordinaten (t, u, v) aus der Projektionsebene mit einer Maßstabskonstanten c in ein sphärisches Zwischensystem (x', y', z') mit den Winkelkoordinaten (λ', ϕ') transformiert (10). Die Projektionsebene Pr steht hierbei senkrecht zur x' – Achse. Der Koordinatenursprung von (t, u, v) befindet sich auf den Zwischenkoordinaten (c, 0, 0). Für die Verschiebetransformation T1 gilt einfach t = x' – c, u = y', v = z' To project the angle-limited section from the model coordinate system onto a flat surface, a transformation to 9 required, which expires in two steps. In the first step, the coordinates (t, u, v) from the projection plane with a scale constant c are transformed into a spherical intermediate system (x ', y', z ') with the angle coordinates (λ', φ ') ( 10 ). The projection plane Pr is perpendicular to the x 'axis. The origin of (t, u, v) is on the intermediate coordinates (c, 0, 0). For the displacement transformation T 1 is simple t = x '- c, u = y', v = z '

Das Zwischensystem wurde den Koordinaten im Projektionssystem (u, v) angepasst, ohne den Horizontal- und Vertikalwinkel (α, β) der virtuellen optischen Achse bei der Projektion zu beachten. Dies geschieht jetzt mit einer anschließenden Drehtransformation T2 in das Modellkoordinatensystem nach der Gleichung

Figure 00160001
The intermediate system was adapted to the coordinates in the projection system (u, v) without considering the horizontal and vertical angles (α, β) of the virtual optical axis during projection. This is done now with a subsequent rotation transformation T 2 in the model coordinate system according to the equation
Figure 00160001

Mit der Polarkoordinaten-Substitution x = r·cosϕ·cos(λ-α), y = r·cosϕ·sin(λ-α), z = r·sinϕ mit dem Radiusvektor r = √c²+ u²+ v² und mit der Ebenenbedingung t=0 vereinfacht sich daraus die Gleichung zu

Figure 00170001
With the polar coordinate substitution x = r · cosφ · cos (λ-α), y = r · cosφ · sin (λ-α), z = r · sinφ with the radius vector r = √ c² + u² + v² and with the plane condition t = 0, the equation becomes simpler
Figure 00170001

Die Lösung dieses Gleichungssystems führt zur allgemeingültigen Projektionsvorschrift

Figure 00170002
The solution of this system of equations leads to the general projection rule
Figure 00170002

Die Maßstabskonstanten c hat hierbei die gleiche Bedeutung wie eine Kamerakonstante oder Brennweite. Wie aus 10 zu ersehen ist, gelten die Beziehungen

Figure 00170003
The scale constant c has the same meaning as a camera constant or focal length. How out 10 can be seen, the relationships are valid
Figure 00170003

So ist diese Konstante mit

Figure 00170004
ein Proportionalitätsfaktor zwischen der Bildbreite und dem zugehörigen Bildwinkel-Tangens.So this is constant with
Figure 00170004
a proportionality factor between the image width and the associated image angle tangent.

Ist die Bildbreite statt in einem Längenmaß als Anzahl von Pixeln angegeben, so bekommt auch c diese Dimension. Um z.B. auf einem Bildschirm mit einer Breite von 1024 Pixeln einen Bildwinkel von 80 Grad anzuzeigen, müsste c also die Größe von

Figure 00170005
(Pixeln) zugewiesen bekommen.If the image width is given as a number of pixels instead of in a length measure, then c also gets this dimension. For example, to display a picture angle of 80 degrees on a screen with a width of 1024 pixels, c would have to be the size of
Figure 00170005
(Pixels) get assigned.

Zum errechneten Koordinatenpaar (λ,ϕ) sind im nächsten Schritt die nächstliegenden diskreten Winkel im Modellkoordinatensystem nach der Vorschrift Λji < λ ≤ Λj(i+1) Φji < ϕ ≤ Φ(j+1),i zu bestimmen. Aus diesen vier Pixeln der Originalaufnahme wird nun im Operator I ein mittlerer Wert für die Bildprojektion durch gewichtete Interpolation, z.B. nach der Gleichung

Figure 00170006
mit c1 = λ – Λji, c2 = λ – Λj(i+1), c3 = ϕ – Φji, c4 = ϕ – Φ(j+1)i errechnet. Mit der vorherigen Koordinatentransformation (u, v) → (λ,ϕ) wurden somit die radiometrischen Werte für die Bilddarstellung gefunden. Ähnlich wie bei der Transformation in das Modellkoordinatensystem muss auch hier bei Reduzierung der geometrischen Auflösung die Anzahl einzubeziehender Pixel erhöht werden, um Aliasing-Effekte auszuschließen. Die moderne Rechentechnik erlaubt die Anwendung der gefundenen Transformation für die Ebenenentzerrung in Echtzeit, so dass ein scheinbares Schwenken, Neigen und Zoomen ohne nennenswerte Verzögerungen unmittelbar aus dem Modellkoordinatensystem erfolgen kann. Zur Beschleunigung der Rechnungen werden Terme, die für mehrere Argumente gültig sind, einmalig berechnet und wieder verwendet, wiederkehrende Zwischenergebnisse in Zuordnungstabellen abgelegt und Schleifen nach ihrem Gesamtaufwand optimiert.For the calculated coordinate pair (λ, φ) in the next step, the nearest discrete angles in the model coordinate system according to the rule Λ ji <λ ≤ Λ j (i + 1) Φ ji <φ ≤ Φ (J + 1), i to determine. From these four pixels of the original image, a mean value for the image projection by weighted interpolation, for example according to the equation, is now given in the operator I
Figure 00170006
With c 1 = λ - Λ ji , c 2 = λ - Λ j (i + 1) , c3 = φ - Φ ji , c 4 = φ - Φ (J + 1) i calculated. With the previous coordinate transformation (u, v) → (λ, φ), the radiometric values for the image representation were thus found. Similar to the transformation into the model coordinate system, the number of pixels to be included has to be increased in order to avoid aliasing effects when reducing the geometric resolution. The modern computer technology allows the application of the found transformation for the plane equalization in real time, so that an apparent panning, tilting and zooming without significant delays can be done directly from the model coordinate system. To speed up the calculations, terms that apply to multiple arguments are calculated and used once, recurring intermediate results are stored in allocation tables, and loops are optimized according to their total effort.

Viele Messaufgaben spielen sich in einem Nahbereich ab, der im Verhältnis zu technisch realisierbaren Basisstrecken innerhalb der Aufnahmeanordnung eine direkte Abstandsmessung durch Punkttriangulation in geforderten Toleranzgrenzen zulässt. In diesem Nahbereich ist auch eine strukturierte Objektbeleuchtung, z.B. mit kollimiertem Laserlicht, problemlos möglich. 11 zeigt die mögliche Anordnung einer kollimierten Lichtquelle Lq, deren Strahlmittelpunkt sich im Basisabstand b vom Projektionszentrum des Aufnahmeobjektivs Ao befindet und in einem Winkel γ zur Aufnahmeachse steht. Die Lichtquelle Lq, sowie der von ihr ausgehende Strahl befinden sich in der Ebene u=0. Der auf die Oberfläche des Objekts Ob auftreffende Laserstrahl wird im Vertikalwinkel ϕ von der Aufnahmekamera auf dem Bildsensor B abgebildet. Der Abstand zwischen Projektionszentrum und Objektpunkt berechnet sich nach der einfachen Gleichung

Figure 00180001
Many measurement tasks take place in a close range, which allows a direct distance measurement by means of point triangulation in the required tolerance limits in relation to technically feasible base distances within the recording arrangement. In this close range, a structured object illumination, for example with collimated laser light, is possible without problems. 11 shows the possible arrangement of a collimated light source Lq whose beam center is located at the base distance b from the projection center of the taking lens Ao and is at an angle γ to the recording axis. The light source Lq and the beam emanating from it are in the plane u = 0. The incident on the surface of the object Ob laser beam is imaged in the vertical angle φ of the recording camera on the image sensor B. The distance between the projection center and the object point is calculated according to the simple equation
Figure 00180001

Werden also eine oder mehrere Quellen strukturierten Lichtes in bestimmten, genau justierten Abstrahlwinkeln mit der Aufnahmekamera starr verbunden und gemeinsam mit dieser geschwenkt oder geneigt, so ergibt sich für jede Bildaufnahme in veränderter Kameraposition auch eine Anzahl eigener Lichtmarken, deren Aufnahmewinkel einzeln vermessen werden kann, woraus punktuell der Objektabstand ermittelt werden kann.Thus, if one or more sources of structured light in certain, precisely adjusted beam angles with the recording camera rigidly connected and pivoted or tilted together with this, so results for each image recording in a different camera position also a number of own light brands, de can be measured individually, from which point the object distance can be determined.

Ist der Bildsensor ein vertikal orientierter Zeilensensor und sind die Lichtquellen kollimierte Laserlichtquellen, so erzeugt ein schrittweiser Kameraschwenk im resultierenden Bild so viele räumliche Lichtkurven, wie diskrete Laserlichtquellen vorhanden sind. Das Ergebnis für jede dieser Kurven ist in Aussehen und Auswertung mit dem bekannten Lichtschnittverfahren vergleichbar.is the image sensor is a vertically oriented line sensor and are the Light sources collimated laser light sources, thus producing a gradual Panning in the resulting image as many spatial light curves as discrete Laser light sources are available. The result for each of these curves is in Appearance and evaluation with the well-known light-section method comparable.

Selbstverständlich können aber auch flächige Bildsensoren und gleichzeitig mit einem Horizontal- und einem Vertikalwinkel strahlende strukturierte Lichtquellen vorteilhaft eingesetzt werden. Es kann weiterhin vorteilhaft sein, das Objekt mit Bildmusterprojektionen, z.B. von einem Diapositiv, einem LCD-Projektor oder ähnlichen Anordnungen, zu bestrahlen.Of course you can also flat Image sensors and at the same time with a horizontal and a vertical angle radiating structured light sources can be used advantageously. It may also be advantageous to use the object with image pattern projections, e.g. from a slide, an LCD projector or similar Arrangements to irradiate.

Außerdem kann es vorteilhaft sein, vorhandene Projektionseinrichtungen mit einer Verstellvorrichtung so zu versehen, dass eine gezielte Veränderung der Abstrahlwinkel gegenüber der optischen Kameraachse erfolgt.In addition, can it would be advantageous to have existing projection equipment with one Adjusting device to be provided so that a targeted change the angle of radiation opposite the optical camera axis takes place.

Um das projizierte strukturierte Licht bestmöglich vom Umgebungslicht unterscheiden zu können, ist der Einsatz von Farbfiltern vorteilhaft. Werden z.B. rot strahlende Laserdioden verwendet, so kommen schmalbandige, an deren Wellenlänge angepasste Rotfilter zum Einsatz.Around distinguish the projected structured light as well as possible from ambient light to be able to the use of color filters is advantageous. If e.g. red radiant Laser diodes used, so come narrow-band, adapted to the wavelength Red filter used.

Um die Objektprojektion des strukturierten Lichtes im Bild leichter aufzufinden, wird das Licht synchron mit der Bildaufnahme so moduliert, dass Aufnahmen aus der gleichen Kameraposition alternativ einmal mit und einmal ohne eingeschaltetes Licht erfolgen und die Differenz aus beiden Bildern berechnet wird. Ebenso kann verfahren werden, um unterschiedliche Lichtquellen voneinander zu unterscheiden.Around the object projection of the structured light in the image easier find the light is modulated synchronously with the image capture, that shots from the same camera position alternatively once with and once without the light switched on and the difference is calculated from both images. Likewise, it can be proceeded to distinguish different light sources from each other.

Zur Unterscheidung bestimmter Abstrahlwinkel der strukturierten Beleuchtung ist weiterhin deren Kodierung durch unterschiedliche Wellenlängen, bzw. Farben, möglich. Auch kann die strukturierte Beleuchtung oder Teile davon synchron zur Teilbildaufnahme moduliert werden, so dass sich im Gesamtbild z.B. Linien mit bestimmter Punkt-Strich-Kodierung zuordnen lassen.to Differentiation of certain beam angles of the structured illumination is further their coding by different wavelengths, or Colors, possible. Also, the structured lighting or parts of it can be synchronous be modulated for field recording, so that in the overall picture e.g. Assign lines with specific dot-dash coding.

Oft besteht eine Messaufgabe darin, Aufmessungen von Objekten durchzuführen, die sich größtenteils aus regelmäßigen geometrischen Körpern oder Flächen, z.B. Ebenen, zusammensetzen. Hierzu werden gefundene Objektpunkte, deren räumliche Koordinaten einschließlich ihres Abstands zum Projektionszentrum bestimmt wurden, auf ihre Zugehörigkeit zu gemeinsamen Flächen hin untersucht. Mit drei bekannten Punktkoordinaten ist nach dem Gleichungssystem axi + byi + czi= 1 bereits eine Fläche bestimmbar. Jeder weitere Punkt kann über seinen Abstand zur Ebene

Figure 00200001
auf seine Ebenenzugehörigkeit untersucht werden. Der Grenzwert ∊ berücksichtigt tolerierbare Unebenheiten in realen Objektflächen, die einer Ebene zugeordnet werden, oder auch Messtoleranzen. Gehört ein Punkt nach diesem Kriterium zu einer Ebene, so wird er zur Präzisierung deren Lage mit herangezogen. In einer iterativen Rechnung wird die resultierende Quadratsumme der Abstände aller erfassten Ebenenpunkte minimiert. Somit werden auch Messtoleranzen und Objektunebenheiten bestmöglich ausgeglichen und eine optimale Ebenenapproximation erreicht. Wird ein Punkt erkannt, der nicht zu einer bereits bekannten Ebene gehört, so liegt dieser unter Umständen auf einer neuen Ebene, was mit weiteren Punkten getestet wird.Often, a measurement task is to perform measurements of objects that are mostly composed of regular geometric bodies or surfaces, eg, planes. For this purpose, found object points whose spatial coordinates were determined including their distance to the projection center, examined for their affiliation to common areas. With three known point coordinates is after the equation system ax i + by i + cz i = 1 Already an area determinable. Each additional point can be over its distance to the plane
Figure 00200001
be examined for his level affiliation. The limit value ε takes into account tolerable unevennesses in real object surfaces, which are assigned to a plane, or also measurement tolerances. If a point according to this criterion belongs to a plane, it is used to specify its position. In an iterative calculation, the resulting sum of squares of the distances of all detected plane points is minimized. Thus, measurement tolerances and object unevenness are compensated in the best possible way and an optimal level approximation is achieved. If a point is detected that does not belong to a known level, it may be at a new level, which will be tested with additional points.

Nachdem alle bekannten Punkte verarbeitet und mehrere Ebenen erkannt wurden, werden alle Schnittgeraden zwischen diesen Ebenen bestimmt. Der Richtungsvektor dieser Schnittgeraden ist aus den Normalvektoren beider Ebenen nach

Figure 00200002
bestimmbar. Über einen beliebigen Punkt, der beide Ebenengleichungen erfüllt, ist damit die Lage der Schnittgerade im Raum definiert.After all known points have been processed and multiple levels detected, all intersection lines between these levels are determined. The direction vector of this intersection line is derived from the normal vectors of both planes
Figure 00200002
determinable. By means of an arbitrary point that satisfies both plane equations, the position of the intersection line in space is defined.

Eckpunkte können als Schnittpunkte gefundener Schnittgeraden durch angrenzende Flächen definiert werden.vertices can as intersections found cutting lines are defined by adjacent surfaces.

Mit den aufgezeigten Ansätzen ist insbesondere eine automatisierte Aufmessung von Innenräumen, z.B. zur genauen Bestandserfassung im Facility Management, realisierbar. Dafür genügt allgemein nur ein Standort der Aufnahmevorrichtung in jedem Raum, der in ein lokales oder globales Koordinatennetz eingebunden werden kann.With the approaches shown In particular, an automated measurement of interior spaces, e.g. for exact inventory in Facility Management, feasible. This is generally enough only one location of the cradle in each room, in one local or global coordinate network can be integrated.

Ausführungsbeispielembodiment

Anhand eines vorteilhaften Ausführungsbeispiels soll die Erfindung nachstehend erläutert werden.Based an advantageous embodiment the invention will be explained below.

12 zeigt den prinzipiellen mechanischen Grundaufbau einer Aufnahmeanordnung in erfindungsgemäßer Ausführung. In einem stabilen Rahmengestell (1) als Alhidade ist eine Kamerabaugruppe (2) mittels Präzisionsantrieb (3) drehbar so gelagert, dass eine Neigung um die horizontale Kippachse HH erfolgen kann. Das Rahmengestell wiederum ist an seiner Unterseite mit einem weiteren Präzisionsantrieb (4) verbunden, der eine Schwenkbewegung um die vertikale Stehachse VV ermöglicht. Dabei ruht dieser Schwenkantrieb auf einem standardisierten Steckzapfen (5) für Vermessungsgeräte für die Befestigung auf einem Dreifuß, der mit diesem zusammen den Limbus bildet. Schwenkantrieb und Steckzapfen besitzen eine Mittelbohrung, durch die eine darüber angebrachte Laserdiode mit Kollimator (6) ihren gebündelten Strahl senkrecht nach unten projiziert und somit eine optische Lot-Funktion ausführt. Hiermit ist das Eintaumeln der Aufnahmeanordnung auf eine Messmarke möglich. Am Rahmengestell befindet sich weiterhin eine justierte Röhrenlibelle (7) zur Horizontierung der Aufnahmeanordnung. Ein pultförmiges Gehäuse (8) nimmt einen Teil der Steuerelektronik, insbesondere das Bedienerinterface mit Tastatur und Display, auf. 12 shows the basic basic mechanical structure of a receiving arrangement according to the invention. In a stable frame ( 1 ) as Alhidade is a camera assembly ( 2 ) by means of precision drive ( 3 ) rotatably mounted so that an inclination can take place about the horizontal tilting axis HH. The frame in turn is on its underside with another precision drive ( 4 ), which allows a pivoting movement about the vertical standing axis VV. This rotary actuator rests on a standardized plug ( 5 ) for surveying equipment for mounting on a tripod, which together forms the limbus. Rotary actuator and pin have a central bore through which an overlying laser diode with collimator ( 6 ) projects its collimated beam vertically downwards and thus performs an optical solder function. This makes it possible to wobble the receiving arrangement onto a measuring mark. On the frame is still an adjusted tube level ( 7 ) for leveling the recording arrangement. A desk-shaped housing ( 8th ) takes up a part of the control electronics, in particular the user interface with keyboard and display.

13 erläutert den beispielhaften Aufbau der Kamerabaugruppe gemäß 12 (2). Das Objektiv (20) befindet sich mit seinem objektseitigen Hauptpunkt als Projektionsmittelpunkt genau im Drehzentrum, das in der horizontalen Drehachse VV gemäß 12 liegt. In der Projektionsebene des Objektivs ist der Bildsensor (21) angeordnet, der hier ein Zeilensensor mit drei parallel angeordneten Einzelzeilen für die drei Grundfarben Rot, Grün und Blau sei. Ein UV-Filter (22) im Strahlengang verhindert die Verfälschung der Bildaufnahme durch ultraviolette Strahlung. Symmetrisch zur Kameraachse sind zwei Gruppen aus je drei Laserdioden mit vorgesetzten Kollimatoren angeordnet, die alle in der gleichen Ebene mit dem Projektionszentrum und dem Zeilensensor liegen. Diese Laserdioden strahlen Licht in sechs unterschiedlichen Vertikalwinkeln ab, so dass gleichzeitig sechs Lichtkurven im Objekt erzeugt werden. 13 explains the exemplary construction of the camera assembly according to 12 ( 2 ). The objective ( 20 ) is located with its object-side main point as the center of projection exactly in the center of rotation, in the horizontal axis of rotation VV according to 12 lies. In the projection plane of the lens, the image sensor ( 21 ), which here is a line sensor with three parallel individual lines for the three primary colors red, green and blue. A UV filter ( 22 ) in the beam path prevents the falsification of image acquisition by ultraviolet radiation. Symmetrical to the camera axis are arranged two groups of three laser diodes with preset collimators, which are all in the same plane with the projection center and the line sensor. These laser diodes emit light in six different vertical angles, so that six light curves are simultaneously generated in the object.

In 14 ist die funktionelle Struktur des Ausführungsbeispiels in Form eines Blockschaltbildes dargestellt. Ein Mikroprozessorsystem (μP) ist mit einem Programmspeicher (ROM), einem Schreib-Lese-Speicher (RAM), einem Zähler/Zeitgeber (CTC), einem aus Display und Eingabetastatur bestehenden Benutzer-Interface (BI) und einer externen Datenschnittstelle (DI) verbunden. Das Mikroprozessorsystem steuert jeweils über eine Interface-Schaltung (I) den Präzisionsantrieb (M) in der vertikalen und horizontalen Drehachse. Über einen Encoder (E) wird der jeweils erreichte mechanische Drehwinkel vom Mikroprozessorsystem überwacht und an den Sollwert angeglichen. Das Kamera-Interface (KI) mit der Steuerung für den Bildsensor (B) und dem integrierten Analog-Digital-Umsetzer für das Bildsensor-Signal steuert die Bildaufnahme und überträgt alle Bildinformationen an das Prozessorsystem. Über einen Blendenstellmotor (BM) kann die Objektivblende verändert werden. Die Laserdioden (LD) sind über ein Interface als Modulator (IM) ebenfalls mit dem Mikroprozessorsystem verbunden, von dem sie programmabhängig ein- und ausgeschaltet werden.In 14 the functional structure of the embodiment is shown in the form of a block diagram. A microprocessor system (μP) is provided with a program memory (ROM), a random access memory (RAM), a counter / timer (CTC), a user interface (BI) consisting of a display and an input keyboard, and an external data interface (DI). connected. The microprocessor system controls in each case via an interface circuit (I) the precision drive (M) in the vertical and horizontal axis of rotation. An encoder (E) monitors the mechanical rotation angle achieved by the microprocessor system and adapts it to the setpoint. The camera interface (KI) with the image sensor control (B) and the integrated analog-to-digital converter for the image sensor signal controls the image acquisition and transmits all image information to the processor system. A diaphragm actuator (BM) can be used to change the lens aperture. The laser diodes (LD) are also connected via an interface as a modulator (IM) to the microprocessor system, from which they are switched on and off depending on the program.

Claims (48)

Verfahren zur photogrammetrischen Messbildaufnahme mit einer optoelektronischen Kamera mit ein- oder zweidimensionaler matrixförmiger, nach den Regeln eines linearen rechtwinkligen Koordinatensystems angeordneter Struktur des Bildsensors, dadurch gekennzeichnet, dass die Speicherung der gewonnenen Bildinformation in einem sphärischen Koordinatensystem erfolgt, das zur informationstechnischen Beschreibung der optischen Bildprojektion durch den zentralen Beobachtungspunkt im Raum auf eine virtuelle Kugeloberfläche mit einem Einheitsradius und dem Beobachtungspunkt in deren Zentrum dient und dass zu diesem Zweck eine Koordinatentransformation der bei der Bildaufnahme durch Zentralprojektion gewonnenen Bildelemente in diskrete Horizontal- und Vertikalwinkelschritte vorgenommen wird, wobei sowohl eine kameraspezifische Zuordnungsmatrix zwischen den diskreten Bildelementen im Bildraum und den entsprechenden Einfallswinkeln im Objektraum, wie auch eine eventuelle Verschwenkung, Neigung oder Kantung der Kamera, nach den aus der analytischen Geometrie bekannten Regeln berücksichtigt werden.Method for photogrammetric image acquisition with an opto-electronic camera with a or two-dimensional matrix-shaped, arranged according to the rules of a linear rectangular coordinate system structure of the image sensor, characterized in that the storage of image information obtained takes place in a spherical coordinate system, the information technical description of the optical image projection through the central observation point in space on a virtual sphere surface with a For this purpose, a coordinate transformation of the image elements obtained in the image acquisition by central projection in discrete horizontal and vertical angle steps is performed, both a camera-specific assignment matrix between the discrete picture elements in the image space and the corresponding angles of incidence in the object space, as well as any pivoting, tilting or tilting of the camera, according to the rules known from analytic geometry become. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Koordinatentransformation nicht sofort während der Aufnahme, sondern später anhand der zwischengespeicherten Einzelbilder erfolgt.Method according to claim 1, characterized in that that the coordinate transformation did not happen immediately during the Recording, but later based on the cached frames. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Erzeugung der kameraspezifischen Zuordnungsmatrix während eines einmaligen oder wiederholten Kalibriervorganges so erfolgt, dass die auf einem festen Beobachtungspunkt befindliche Kamera einen festen Zielpunkt abbildet und schrittweise so geschwenkt und/oder geneigt wird, dass für jedes Bildelement, auf das der Zielpunkt abgebildet wird, der zugehörige momentane Einfallswinkel zuzuordnen ist, oder die Zuordnung zwischen Bildelementekoordinaten und Einfallswinkel in anderer geeigneter Weise, z.B. als approximierte mathematische Funktion, erfolgt.Method according to claim 1, characterized in that that the generation of the camera-specific assignment matrix during a one or repeated calibration process is done so that the camera located on a fixed observation point fixed target point and gradually swung and / or is inclined for that each pixel onto which the target point is mapped, the associated instantaneous one Assignment angle is assigned, or the mapping between pixel coordinates and angle of incidence in another suitable manner, e.g. as approximated mathematical function, takes place. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Zuordnung der Grau- oder Farbwerte in die diskreten Koordinaten des sphärischen Zielsystems durch Interpolation der nächstliegenden benachbarten Winkelkoordinaten unter Berücksichtigung entfernungsabhängiger Wichtungsfaktoren erfolgt.Method according to claim 1, characterized in that that the mapping of the gray or color values into the discrete coordinates of the spherical Target system by interpolation of the nearest adjacent angle coordinates considering distance-based Weighting factors takes place. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch Verschwenken und/oder Neigen in definierten Winkelschritten um einen zentralen Beobachtungspunkt, wiederholte Bildaufnahme in jeder dieser diskreten Kamerapositionen und Ergänzung der als Teilbilder gewonnenen neuen Bildinformationen zum gemeinsamen sphärischen Koordinatensystem das Objektfeld rings um den Beobachtungspunkt schrittweise abgetastet wird.Method according to claim 1, characterized in that that by pivoting and / or tilting in defined angular steps around a central observation point, repeated image acquisition in each one of these discrete camera positions and supplementing those obtained as partial images new image information to the common spherical coordinate system the Object field gradually scanned around the observation point becomes. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass zum Zwecke der Vergrößerung des insgesamt erfassten Bildwinkels die Winkelschritte so groß gewählt werden, dass sich die erfassten Einzelbilder an ihren Rändern aneinanderfügen oder überlappen, wodurch eine lückenlose Projektion des gesamten Gesichtsfeld auf die ganze Kugelfläche möglich ist.Method according to claim 5, characterized in that that for the purpose of enlarging the total captured angle of view the angle increments are chosen to be so large that the captured frames merge or overlap at their edges, making a gapless Projection of the entire field of view on the whole sphere is possible. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass in Überlappungsbereichen zwischen den Teilbildern ein allmählicher Übergang von einem Teilbild zum anderen durch gewichtete Überlagerung der Bildinformationen hergestellt wird.Method according to claim 5, characterized in that that in overlapping areas between the partial images a gradual transition from a partial image on the other hand by weighted overlay the image information is produced. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der zentrale Beobachtungspunkt vor den Bildaufnahmen in ein lokales oder globales Koordinatensystem eingemessen wird.Method according to claim 5, characterized in that that the central observation point before taking pictures in a local or global coordinate system is measured. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass zur Vermeidung von Verkantungen eine Horizontierung der Aufnahmevorrichtung vorgenommen wird, bei der die Verschwenkungs- und Neigeachsen in vertikale, bzw. horizontale Lage gebracht werden.Method according to claim 5, characterized in that that to avoid tilting a leveling of the recording device is made, in which the pivoting and tilting axes in vertical, horizontal position. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass zum Zwecke der Erhöhung der effektiven Bildsensor-Auflösung die Winkelschritte so klein gewählt werden, dass sie kleiner als die den diskreten Bildelementen des Bildsensors zuzuordnenden Einfallswinkeldifferenzen sind, so dass neu erfasste Bildelemente zwischen bereits vorhandenen gespeichert werden.Method according to claim 5, characterized in that that for the purpose of raising the effective image sensor resolution the angle steps chosen so small that they are smaller than the discrete picture elements of the Imagine angle differences are assigned to image sensors, so that newly captured picture elements are stored between already existing ones become. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenigstens eine gerichtete Projektionseinrichtung, bestehend aus einer Lichtquelle mit strukturiertem oder kollimiertem Licht, mit einem zur optischen Achse der Kamera konstanten Abstrahlwinkel und mit einer in Bezug auf die eventuell schwenk-, neig- oder kantbare Kamera festen Position ein von der Kamera erfassbares Lichtmuster auf das Objekt projiziert und durch Auswertung der Abbildungskoordinaten ausgewählter Punkte dieses Lichtmusters bei Kenntnis von Parallaxe und Richtungswinkeln die Entfernung zu den untersuchten Objektpunkten nach den bekannten Regeln der Triangulation bestimmt wird.Method according to claim 1, characterized in that that at least one directional projection device, consisting from a light source with structured or collimated light, with a constant angle to the optical axis of the camera and with respect to the possibly pivotable, tiltable or cantilevered one Camera fixed position a detectable by the camera light pattern projected on the object and by evaluation of the image coordinates selected Points of this light pattern with knowledge of parallax and direction angles the distance to the examined object points according to the known ones Rules of triangulation is determined. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass zur Filterung des projizierten und abgebildeten Lichtmusters von übrigem Fremdlicht eine zweite Bildaufnahme in gleicher Kameraposition ohne projiziertes Lichtmuster erfolgt, und anschließend ein Differenzbild aus beiden Aufnahmen berechnet wird.Method according to claim 11, characterized in that that for filtering the projected and imaged light pattern from the rest Extraneous light a second image recording in the same camera position without projected light pattern, and then a difference image two recordings is calculated. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Differenzbild-Berechnung auch für Bilder mit partiell eingeschalteter Lichtmusterprojektion erfolgt, um verschiedene Abstrahlwinkel eindeutig zuzuordnen.Method according to claim 12, characterized in that that the difference image calculation also for images with partially turned on Light pattern projection is done to different angles of emission clearly assigned. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass das partielle Ein- und Ausschalten der Lichtmusterprojektion nach den Regeln der binären Codierung erfolgt.Method according to claim 13, characterized in that that the partial switching on and off of the light pattern projection according to the rules of the binary Coding is done. Verfahren nach Ansprüchen 5 und 11, dadurch gekennzeichnet, dass die Projektionseinrichtungen während der Aufnahme synchron zur Änderung der Kameraposition in ihren Intensitäten moduliert werden, so dass aus der Abbildung eine Codezuordnung zum entsprechenden Abstrahlwinkel erfolgen kann.Process according to claims 5 and 11, characterized that the projection devices synchronized during recording to change the camera position can be modulated in their intensities, so that from the figure a code assignment to the corresponding beam angle can be done. Verfahren nach Ansprüchen 5 und 11, dadurch gekennzeichnet, dass das Muster vorhandener elektrisch steuerbarer Projektionsoriginale der Projektionseinrichtungen während der Aufnahme synchron zur Änderung der Kameraposition verändert wird, so dass aus der Abbildung eine Musterzuordnung zum entsprechenden Abstrahlwinkel erfolgen kann.Process according to claims 5 and 11, characterized that the pattern of existing electrically controllable projection original the projection devices during recording in sync with the change changed the camera position so that from the figure a pattern mapping to the corresponding Beam angle can be done. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die Projektionseinrichtungen Licht unterschiedlicher, vom Abstrahlwinkel abhängiger Wellenlängenbereiche aussenden, so dass aus der Abbildung eine Farbzuordnung zum entsprechenden Abstrahlwinkel erfolgen kann.Method according to claim 11, characterized in that that the projection devices light different, from the beam angle dependent Wavelength ranges send out, so that from the picture a color assignment to the corresponding Beam angle can be done. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass Aufnahmen aus der gleichen Kameraposition sowohl mit, wie auch ohne, eingeschaltete Projektionseinrichtungen durchgeführt und getrennt gespeichert werden, um einerseits in räumlichen Koordinaten auswertbare Messbilder, andererseits aber auch Bildaufnahmen ohne überlagerte Lichtmarken mit den gleichen Abbildungsgeometrien zu erhalten, so dass die vermessenen und in ein 3D-Modell umgewandelten Objektprofile ohne weitere geometrische Korrekturen mit Texturen der natürlichen Ansichten überzogen werden können.Method according to claim 11, characterized in that that shots from the same camera position with both, as well without, turned on projection devices and performed stored separately, on the one hand evaluable in spatial coordinates Measurements, on the other hand, but also images without superimposed To obtain light marks with the same imaging geometries, so that the measured and converted into a 3D model object profiles without more geometric corrections with textures of the natural Views overdrawn can be. Verfahren zur photogrammetrischen Messbildverarbeitung, dadurch gekennzeichnet, dass die in Form digitalisierter Grau- oder Farbwerte in einer nach Horizontal- und Vertikalwinkel organisierten Matrix gespeicherte Abbildung nach wahlfreier Vorgabe eines Horizontal- und Vertikalwinkels für die optische Achse einer virtuellen Kamera, sowie deren Bildfeldwinkel, eine Transformation in die zugehörige zentralperspektivische Abbildung in Form eines rechtwinkligen zweidimensionalen Zielkoordinatensystem vorgenommen wird und dieses Zielkoordinatensystem entweder zur direkten Bildanzeige gelangt oder als zusätzliche Bilddatei einzeln gespeichert wird.Method for photogrammetric image processing, characterized in that in the form of digitized gray or Color values organized in a horizontal and vertical angle Matrix stored image after optional specification of a horizontal and vertical angle for the optical axis of a virtual camera, as well as its field angle, a transformation into the associated one central perspective illustration in the form of a right-angled two-dimensional Target coordinate system is made and this target coordinate system either comes to the direct image display or as additional Image file is saved individually. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass zur Gewinnung flächig entzerrter Messbilder, insbesondere für Grundrisse und Fassadenaufmaße, die optische Achse der virtuellen Kamera so gewählt wird, dass diese senkrecht zur zu entzerrenden Fläche steht, was zusätzlich über die abgebildete Parallelität von im Original parallelen Linien innerhalb dieser Fläche kontrolliert werden kann.Method according to claim 19, characterized that for the production of land equalized measurement images, in particular for floor plans and facade measurements, the optical axis of the virtual camera is chosen so that it is vertical to the area to be rectified what is additionally about the pictured parallelism controlled by original parallel lines within this area can be. Verfahren zur photogrammetrischen Messbildverarbeitung, dadurch gekennzeichnet, dass alle Punkte mit erfassten vollständigen Raumkoordinaten innerhalb einer projektspezifischen Toleranzgrenze auf ihre Gruppenzugehörigkeit zu gemeinsamen Flächen überprüft werden, aus der Gesamtheit aller erfassten Punkte innerhalb einer jeden Gruppe die zugehörige Flächendefinitionsgleichung nach den Regeln statistischer Mittelwerte, bzw. nach dem Kriterium der kleinsten Fehlerquadrate, gebildet werden, aus den somit bekannten Flächen deren Schnittgeraden und die zwischen den Schnittgeraden und den Flächen gebildeten Schnittpunkte als Knoten- oder Eckpunkte errechnet werden, so dass insbesondere für kürzere Distanzen eine automatische Bestimmung einfacher Körpergeometrien, z.B. als Raumaufmaß in Innenräumen, ermöglicht wird.Method for photogrammetric image processing, characterized in that all points with detected complete space coordinates within a project-specific tolerance limit on their group affiliation be checked to common areas from the totality of all recorded points within each Group the associated one Surface defining equation according to the rules of statistical averages, or according to the criterion the least squares are formed, from the thus known surfaces whose Line of intersection and the intersections formed between the intersection lines and the surfaces are calculated as node or corner points, so that in particular for shorter distances an automatic determination of simple body geometries, e.g. as an indoor space allowance, is made possible. Anordnung zur photogrammetrischen Messbildaufnahme, bestehend aus einer optoelektronischen Kamera mit matrixförmiger, nach den Regeln eines linearen rechtwinkligen Koordinatensystems angeordneter Struktur des Bildsensors, die kardanisch mit vorzugsweise durch ihr Projektionszentrum verlaufenden Drehachsen gelagert und mit elektrisch einzeln steuerbaren Antrieben für die Horizontal- und den Vertikalwinkeleinstellung versehen ist, dadurch gekennzeichnet, dass der das digitalisierte Bildsignal führende Kameraausgang, der Steuereingang der Kamera und die Steuerein- und Encoderausgänge der Antriebe mit einer zentralen Steuerung, vorzugsweise in Form eines Mikrorechners, verbunden sind, die weiterhin einen Datenspeicher zur Speicherung der gewonnenen Bildinformationen, sowie einen Programmspeicher aufweist, wobei dieser Steuerrechner auch die Funktion einer Synchronisiereinrichtung der Antriebe untereinander und gegenüber der Kamerasteuerung erfüllt, und dass sowohl die Drehlagerungen, wie auch die Antriebe mit geeigneten mechanischen Elementen, insbesondere mit Präzisionsgetrieben und Winkelencodern, versehen sind, die eine Positionierungsgenauigkeit gewährleisten, die besser als der auf den optischen Einfallswinkel der Kamera umgerechnete Abstand zweier benachbarter Bildelemente des Bildsensors in der jeweiligen Richtung ist.Arrangement for photogrammetric measurement image recording, consisting of an optoelectronic camera with matrix-shaped, arranged according to the rules of a linear rectangular coordinate system structure of the image sensor gimbal stored with preferably extending through their projection center axes of rotation and is provided with electrically individually controllable drives for the horizontal and vertical angle adjustment , characterized in that the camera output leading to the digitized image signal, the control input of the camera and the control inputs and outputs of the drives are connected to a central control, preferably in the form of a microcomputer, which further comprises a data memory for storing the image information obtained, as well as a program memory, said control computer also fulfilling the function of a synchronization of the drives with each other and with respect to the camera control, and that both the rotary bearings, as well as the drives with suitable mechanical elements, in particular with precision gears and Winkelencodern provided are that ensure a positioning accuracy that is better than the converted to the optical angle of incidence of the camera distance between two adjacent pixels of the image sensor in the respective direction. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass die kardanische Lagerung in der Art eines Theodolits so ausgeführt ist, dass ein feststehender Limbus eine senkrecht stehende Drehlagerung enthält, die eine im Horizontalwinkel drehbare Alhidade trägt, die wiederum eine waagerecht liegende Drehlagerung besitzt, an der die Kamera im Vertikalwinkel drehbar gelagert ist.Arrangement according to claim 22, characterized that the cardanic storage is carried out in the manner of a theodolite, that a fixed limbus a vertical pivot bearing contains which carries a horizontal angle rotatable Alhidade, the In turn, has a horizontal pivot bearing on which the Camera is rotatably mounted in the vertical angle. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass die Matrix des Bildsensors eindimensional, die Kamera also eine Zeilenkamera ist.Arrangement according to claim 22, characterized that the matrix of the image sensor is one-dimensional, so the camera a line camera is. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass wenigstens eine Projektionseinrichtung für strukturiertes oder kollimiertes Licht mechanisch starr mit der Kamera so verbunden ist, dass das Objekt innerhalb der von der Kamera abgebildeten Region beleuchtet wird und eine Parallaxe zwischen den Strahlengängen der Kamera und jeder Projektionseinrichtung vorhanden ist.Arrangement according to claim 22, characterized in that at least one structured or collimated projection device Light mechanically rigidly connected to the camera so that the Object illuminated within the region imaged by the camera and parallax between the beam paths of the camera and each projection device is available. Anordnung nach Ansprüchen 24 und 25, dadurch gekennzeichnet, dass der Hauptstrahlengang der Projektionseinrichtungen, das Abbildungszentrum der Zeilenkamera und die Mittellinie deren Zeilensensors in einer gemeinsamen Ebene liegen.Arrangement according to claims 24 and 25, characterized that the main beam path of the projection devices, the imaging center the line scan camera and the center line of their line sensor in one common plane. Anordnung nach Anspruch 25, dadurch gekennzeichnet, dass vorhandene Projektionseinrichtungen mit einzelnen oder gemeinsamen Verstellvorrichtungen versehen sind, so dass der Horizontal- und/oder Vertikalwinkel der Projektionseinrichtungen, oder von Teilen davon, gegenüber der Projektionsachse der Zeilenkamera veränderlich ist.Arrangement according to claim 25, characterized that existing projection devices with single or common Adjusting devices are provided so that the horizontal and / or Vertical angle of the projection devices, or parts thereof, across from the projection axis of the line camera is variable. Anordnung nach Anspruch 27, dadurch gekennzeichnet, dass wenigstens eine Verstellvorrichtung für die Projektionseinrichtungen diskrete Vorzugswinkel aufweist, zwischen denen eine schrittweise Umschaltung erfolgt.Arrangement according to claim 27, characterized that at least one adjusting device for the projection devices discrete preferential angle, between which a stepwise Switchover takes place. Anordnung nach Anspruch 27, dadurch gekennzeichnet, dass die Verstellvorrichtungen für die Projektionseinrichtungen mit elektrisch steuerbaren Antrieben versehen sind, die mit dem Steuerrechner verbunden sind.Arrangement according to claim 27, characterized that the adjusting devices for the projection devices with electrically controllable drives are provided, which are connected to the control computer. Anordnung nach Anspruch 25, dadurch gekennzeichnet, dass die Projektionseinrichtungen aus einer oder mehreren Laserlichtquellen mit Kollimatoren bestehen.Arrangement according to claim 25, characterized that the projection devices from one or more laser light sources consist of collimators. Anordnung nach Anspruch 30, dadurch gekennzeichnet, dass wenigstens 2 Laserlichtquellen einen gemeinsamen Kollimator besitzen.Arrangement according to claim 30, characterized that at least 2 laser light sources a common collimator have. Anordnung nach Anspruch 30, dadurch gekennzeichnet, dass die Laserlichtquellen mit Modulatoren verbunden sind, die eine Steuerung der Lichtintensität ermöglichen.Arrangement according to claim 30, characterized in that the laser light sources are connected to modulators having a Control of light intensity enable. Anordnung nach Anspruch 32, dadurch gekennzeichnet, dass die Modulatoren mit dem Steuerrechner verbunden sind.Arrangement according to claim 32, characterized that the modulators are connected to the control computer. Anordnung nach Anspruch 30, dadurch gekennzeichnet, dass vorhandene Laserlichtquellen unterschiedliche Wellenlängen aufweisen.Arrangement according to claim 30, characterized that existing laser light sources have different wavelengths. Anordnung nach Anspruch 25, dadurch gekennzeichnet, dass die Projektionseinrichtungen jeweils aus einer Lichtquelle mit Strahlformungseinrichtung, z.B. Kondensor, einem unveränderlichen Projektionsoriginal, beispielsweise in Form eines Diapositivs, sowie einem Projektionsobjektiv bestehen.Arrangement according to claim 25, characterized that the projection devices each consist of a light source with beam shaping means, e.g. Condenser, a steady Projection original, for example in the form of a slide, as well as consist of a projection lens. Anordnung nach Anspruch 35, dadurch gekennzeichnet, dass das Projektionsoriginal elektrisch steuerbar ist, insbesondere also ein Durchlicht-Flüssigkristalldisplay, ein Mikrospiegelarray oder ein vergleichbar wirkendes Element ist und dass der Steuereingang dieses Projektionsoriginals mit dem Steuerrechner verbunden ist.Arrangement according to claim 35, characterized that the projection original is electrically controllable, in particular ie a transmitted light liquid crystal display, a micromirror array or a comparably acting element and that the control input of this projection original with the control computer connected is. Anordnung nach Anspruch 35, dadurch gekennzeichnet, dass das Projektionsoriginal optische Bandfilter oder Strahlteiler enthält, so dass in der Projektionsfläche eine vom Abstrahlwinkel abhängige Wellenlängenverteilung stattfindet.Arrangement according to claim 35, characterized that the projection original optical band filter or beam splitter contains so that in the projection screen one dependent on the radiation angle Wavelength distribution takes place. Anordnung nach Ansprüchen 34 oder 37, dadurch gekennzeichnet, dass in den Strahlengang der Zeilenkamera wenigstens ein optisches Filter ständig oder zeitweise zwischengeschaltet ist, das auf die von der Projektionseinrichtung ausgestrahlten Wellenlängenbereiche abgestimmt ist, so dass eine bessere Trennschärfe zwischen der auf das Objekt projizierten Struktur oder Teilen davon und sonstigem Fremdlicht erreicht wird.Arrangement according to claims 34 or 37, characterized that in the beam path of the line camera at least one optical Filter constantly or temporarily interposed, that of the projection device radiated wavelength ranges is tuned, so that a better selectivity between the on the object projected structure or parts thereof and other extraneous light is reached. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass sie mit einer Horizontiereinrichtung, vorzugsweise einem aus der Vermessungstechnik bekannten Dreifuß oder Kugelfuß, verbunden ist oder einen standardisierten mechanischen Adapter, vorzugsweise einen Steckzapfen, aufweist, der mit marktüblichen Horizontiereinrichtungen verbunden werden kann.Arrangement according to claim 22, characterized that they are equipped with a leveling device, preferably one the surveying known Dreufuß or ball base, connected or a standardized mechanical adapter, preferably a spigot, having, with commercially available Horizontiereinrichtungen can be connected. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass sie für ihre Horizontierung wenigstens eine Kontrolleinrichtung, vorzugsweise eine Röhrenlibelle, aufweist.Arrangement according to claim 22, characterized that they are for their leveling at least one control device, preferably a tube dragonfly, having. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass sie für ihre Horizontierung eine automatische Horizontiereinrichtung in bekannter Bauart aufweist.Arrangement according to claim 22, characterized that they are for their leveling an automatic leveling in having known design. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass sie zum Eintaumeln auf eine Marke ein optisches Lot in bekannter Ausführung aufweist.Arrangement according to claim 22, characterized that they for staggering on a brand an optical solder in known execution having. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass sie zum Eintaumeln auf eine Marke eine senkrecht nach unten justierte Laserprojektionseinrichtung aufweist.Arrangement according to claim 22, characterized that they stagger down to a mark one vertically having aligned laser projection device. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass an ihren mechanischen Stütz- und Bewegungselementen wenigstens eine passive oder aktive Marke zur Selbstkalibrierung vorhanden ist, die bei bestimmten Vertikal- oder Horizontalwinkeln vom Strahlengang der Kamera erfassbar sind.Arrangement according to claim 22, characterized that on their mechanical support and movement elements at least one passive or active brand for self-calibration exists at certain vertical or horizontal angles can be detected by the beam path of the camera. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass die Kamera mit einer optischen Zielvorrichtung, vorzugsweise einem Diopter oder einem Sucherfernrohr, verbunden ist.Arrangement according to claim 22, characterized that the camera with a target optical device, preferably a diopter or a finderscope. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass diese in beliebiger Lage, insbesondere auch liegend, montiert ist, so dass die Stehachse vorzugsweise eine horizontale Lage einnimmt.Arrangement according to claim 22, characterized that these in any position, in particular lying, mounted is, so that the standing axis preferably assumes a horizontal position. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass diese auf einem Hochstativ montiert ist, um Luftbild ähnliche Aufnahmen fertigen zu können.Arrangement according to claim 22, characterized that this is mounted on a tripod to aerial view similar To be able to produce recordings. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass diese an einem Fesselballon montiert ist, um Luftbild ähnliche Aufnahmen fertigen zu können.Arrangement according to claim 22, characterized that this is mounted on a tethered balloon, similar to aerial photography To be able to produce recordings.
DE2003141822 2003-09-09 2003-09-09 Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera Withdrawn DE10341822A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE2003141822 DE10341822A1 (en) 2003-09-09 2003-09-09 Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera
DE2003159361 DE10359361A1 (en) 2003-09-09 2003-12-16 Obtaining high quality panorama photographs from camera with planar focusing geometry, by storing image in spherical coordinate system and performing coordinate transformation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2003141822 DE10341822A1 (en) 2003-09-09 2003-09-09 Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera

Publications (1)

Publication Number Publication Date
DE10341822A1 true DE10341822A1 (en) 2005-09-29

Family

ID=34894812

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003141822 Withdrawn DE10341822A1 (en) 2003-09-09 2003-09-09 Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera

Country Status (1)

Country Link
DE (1) DE10341822A1 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010011528A1 (en) * 2010-03-15 2011-09-15 Ulrich Clauss Receiving arrangement for extracting geometric and photometric object data of e.g. objects, in accident site, has slope unit roatably coordinating at angle and connected with line camera, so that slope unit is moved in rotational axes
WO2012134419A1 (en) 2010-04-13 2012-10-04 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
DE102012020922A1 (en) 2012-10-25 2014-04-30 Ulrich Clauss Laser scanner for panorama image pick-up application, has single-channels provided in optical receiving section, where spectral single sensitivities are adapted selectively to single-spectrums of laser light source
DE102010000122B4 (en) * 2009-01-20 2014-05-22 Ckd Corporation Device for three-dimensional measuring
US8896695B2 (en) 2002-08-28 2014-11-25 Visual Intelligence Lp Retinal concave array compound camera system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US9389298B2 (en) 2002-09-20 2016-07-12 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
DE102016001663A1 (en) 2016-02-15 2017-08-31 Ulrich Clauss Recording arrangement for photographic and geometric object data
CN108709566A (en) * 2018-04-10 2018-10-26 浙江大学 The device and method of digital close range photogrammetry parametric measurement and certificate authenticity
CN111415295A (en) * 2020-03-17 2020-07-14 东南数字经济发展研究院 Shooting resolution orthographic image generation method of oblique photography three-dimensional model
CN113720307A (en) * 2021-08-31 2021-11-30 中煤科工集团重庆研究院有限公司 Photographic geology compiling and recording method and system for stope face
CN113834425A (en) * 2020-06-23 2021-12-24 华晨宝马汽车有限公司 Method and device for three-dimensional measurement of objects in a central logistics repository
CN114199905A (en) * 2021-12-13 2022-03-18 中国航发南方工业有限公司 Space positioning method and system for internal defects of cartridge receiver
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
CN114700989A (en) * 2022-04-24 2022-07-05 安吉八塔机器人有限公司 Automatic leveling device for plane camera and control method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115445C2 (en) * 1990-07-05 1994-02-17 Reinhard Malz Method for recording a three-dimensional image of an object according to the active triangulation principle and device therefor
US5586231A (en) * 1993-12-29 1996-12-17 U.S. Philips Corporation Method and device for processing an image in order to construct from a source image a target image with charge of perspective
DE19534415A1 (en) * 1995-09-16 1997-03-20 Alain Piaget Method and device for detecting and measuring three-dimensional bodies or any surface
US5696848A (en) * 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
DE19757847A1 (en) * 1997-12-24 1999-07-15 Hipp Johann F Scanner for optical object detection arrangement, especially in immediate vicinity of motor vehicles
DE19852908A1 (en) * 1998-11-09 2000-05-18 Deutsch Zentr Luft & Raumfahrt Room floor and ceiling surface documentation method; involves using perspective transformation of data provided by CCD camera mounted on turntable
DE19922341C2 (en) * 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Method and arrangement for determining the spatial coordinates of at least one object point

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115445C2 (en) * 1990-07-05 1994-02-17 Reinhard Malz Method for recording a three-dimensional image of an object according to the active triangulation principle and device therefor
US5586231A (en) * 1993-12-29 1996-12-17 U.S. Philips Corporation Method and device for processing an image in order to construct from a source image a target image with charge of perspective
US5696848A (en) * 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
DE19534415A1 (en) * 1995-09-16 1997-03-20 Alain Piaget Method and device for detecting and measuring three-dimensional bodies or any surface
DE19757847A1 (en) * 1997-12-24 1999-07-15 Hipp Johann F Scanner for optical object detection arrangement, especially in immediate vicinity of motor vehicles
DE19852908A1 (en) * 1998-11-09 2000-05-18 Deutsch Zentr Luft & Raumfahrt Room floor and ceiling surface documentation method; involves using perspective transformation of data provided by CCD camera mounted on turntable
DE19922341C2 (en) * 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Method and arrangement for determining the spatial coordinates of at least one object point

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
OHLHOF, T. (1996): "Lokale, regionale und globale Punktbestimmung mit Dreizeilenbilddaten und Bahn- information der Mars 96-Mission", Deutsche Geodä- tische Kommission, Reihe C, Nr. 445, S. 35-37 *
SLAMA, C. et al. (1980): Manual of Photogrammetry, 4. Aufl., S. 792
SLAMA, C. et al. (1980): Manual of Photogrammetry,4. Aufl., S. 792 *
VOSSELMAN, G. (1999): "Building reconstruction using planar faces in very high density height data", in: International Archives of Photogramme- try and Remote Sensing, Vol. 32 Part 3-2W5, ISSN 0256-1840, S. 87-92 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8896695B2 (en) 2002-08-28 2014-11-25 Visual Intelligence Lp Retinal concave array compound camera system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
US9389298B2 (en) 2002-09-20 2016-07-12 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
US9797980B2 (en) 2002-09-20 2017-10-24 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
DE102010000122B4 (en) * 2009-01-20 2014-05-22 Ckd Corporation Device for three-dimensional measuring
DE102010011528A1 (en) * 2010-03-15 2011-09-15 Ulrich Clauss Receiving arrangement for extracting geometric and photometric object data of e.g. objects, in accident site, has slope unit roatably coordinating at angle and connected with line camera, so that slope unit is moved in rotational axes
WO2012134419A1 (en) 2010-04-13 2012-10-04 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
EP2558953A4 (en) * 2010-04-13 2014-08-06 Visual Intelligence Lp Self-calibrated, remote imaging and data processing system
CN103038761B (en) * 2010-04-13 2016-07-06 视觉智能有限合伙公司 Self-alignment long-range imaging and data handling system
CN103038761A (en) * 2010-04-13 2013-04-10 视觉智能有限合伙公司 Self-calibrated, remote imaging and data processing system
EP2558953A1 (en) * 2010-04-13 2013-02-20 Visual Intelligence LP Self-calibrated, remote imaging and data processing system
DE102012020922A1 (en) 2012-10-25 2014-04-30 Ulrich Clauss Laser scanner for panorama image pick-up application, has single-channels provided in optical receiving section, where spectral single sensitivities are adapted selectively to single-spectrums of laser light source
DE102016001663A1 (en) 2016-02-15 2017-08-31 Ulrich Clauss Recording arrangement for photographic and geometric object data
CN108709566A (en) * 2018-04-10 2018-10-26 浙江大学 The device and method of digital close range photogrammetry parametric measurement and certificate authenticity
CN111415295A (en) * 2020-03-17 2020-07-14 东南数字经济发展研究院 Shooting resolution orthographic image generation method of oblique photography three-dimensional model
CN111415295B (en) * 2020-03-17 2024-01-12 东南数字经济发展研究院 Shooting resolution orthogram generation method of oblique shooting three-dimensional model
CN113834425B (en) * 2020-06-23 2024-03-26 华晨宝马汽车有限公司 Method and device for three-dimensional measurement of objects in a central logistics repository
CN113834425A (en) * 2020-06-23 2021-12-24 华晨宝马汽车有限公司 Method and device for three-dimensional measurement of objects in a central logistics repository
CN113720307B (en) * 2021-08-31 2024-03-12 中煤科工集团重庆研究院有限公司 Stope face photography geological recording method and system
CN113720307A (en) * 2021-08-31 2021-11-30 中煤科工集团重庆研究院有限公司 Photographic geology compiling and recording method and system for stope face
CN114199905A (en) * 2021-12-13 2022-03-18 中国航发南方工业有限公司 Space positioning method and system for internal defects of cartridge receiver
CN114199905B (en) * 2021-12-13 2024-02-20 中国航发南方工业有限公司 Space positioning method and system for internal defects of casing
CN114700989A (en) * 2022-04-24 2022-07-05 安吉八塔机器人有限公司 Automatic leveling device for plane camera and control method thereof

Similar Documents

Publication Publication Date Title
EP2860550B1 (en) Scanner for spatial measurement
DE102015122842B4 (en) Method for calibrating a 3D measuring device by means of a calibration plate
CN106127745B (en) The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera
DE60202198T2 (en) DEVICE AND METHOD FOR GENERATING THREE-DIMENSIONAL POSITION DATA FROM A COLLECTED TWO-DIMENSIONAL IMAGE
DE112007003293B4 (en) Optical instrument and method for obtaining distance and image information
EP1759166B1 (en) Method for the measurement of objects with the aid of a conventional digital camera
DE102014019671B4 (en) Method for optically scanning and measuring an environment with a 3D measuring device and auto-calibration by means of a 2D camera
DE10341822A1 (en) Three dimensional object photogrammetry recording method, e.g. for use in geological survey, involves storing picture information in polar coordinate system, where information allows eventual turning or tilting of camera
US20020071038A1 (en) Method and system for complete 3D object and area digitizing
CN105308503A (en) System and method for calibrating a display system using a short throw camera
DE112007003284T5 (en) Optical instrument and method for obtaining distance and image information
DE10359415A1 (en) Method for calibrating a surveying device
CH695121A5 (en) Method and apparatus for performing geodetic measurements using video tachymeter.
EP2707745A1 (en) Calibration method for a device having a scan function
DE19815105B4 (en) Device and method for calibrating the camera or lens
DE112007003553B4 (en) Feature detection apparatus and method for measuring object distances
US20150178928A1 (en) Apparatus and method for determining the distinct location of an image-recording camera
DE102004047325A1 (en) Device and method for producing an image correspondence
DE202010017889U1 (en) Arrangement for recording geometric and photometric object data in space
CN104374374B (en) 3D environment dubbing system and 3D panoramas display method for drafting based on active panoramic vision
CN112907647B (en) Three-dimensional space size measurement method based on fixed monocular camera
DE102005061931B4 (en) Method and device for calibrating an optical device
DE102010045634A1 (en) Arrangement for recording data of e.g. geometric object from space for constructing three-dimensional computer model for e.g. simulation of accidents, has scanner connected with line camera such that line camera is moved in rotational axes
DE10359361A1 (en) Obtaining high quality panorama photographs from camera with planar focusing geometry, by storing image in spherical coordinate system and performing coordinate transformation
CN206460512U (en) A kind of multichannel fisheye camera caliberating device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal