DE102011089593A1 - Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor - Google Patents

Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor Download PDF

Info

Publication number
DE102011089593A1
DE102011089593A1 DE201110089593 DE102011089593A DE102011089593A1 DE 102011089593 A1 DE102011089593 A1 DE 102011089593A1 DE 201110089593 DE201110089593 DE 201110089593 DE 102011089593 A DE102011089593 A DE 102011089593A DE 102011089593 A1 DE102011089593 A1 DE 102011089593A1
Authority
DE
Germany
Prior art keywords
outer orientation
camera
camera system
objects
absolute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201110089593
Other languages
German (de)
Inventor
Karsten Kozempel
Ralf Prof. Dr. Reulke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE201110089593 priority Critical patent/DE102011089593A1/en
Publication of DE102011089593A1 publication Critical patent/DE102011089593A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects

Abstract

The method involves receiving an image (B) and extracting an image object with predetermined geographical position and size. The models of the objects from a database (DB) are projected by a camera model into a virtual recording unit (Bp). The rotation angle of a camera (1) is determined by the input algorithm (AA). The projected objects are overlapped with the extracted objects. The absolute outer orientation of camera system is determined based on the determined camera rotation angle and measured translation coordinates of a satellite-based position sensor (2). An independent claim is included for a camera system.

Description

Die Erfindung betrifft ein Verfahren und ein Kamerasystem zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems. The invention relates to a method and a camera system for determining the absolute outer orientation of a camera system.

Bei der Verwendung von flugzeuggetragenen Kamerasystemen müssen die erfassten Luftbilder in den meisten Fällen georeferenziert werden. Das heißt, dass die genaue Orientierung des Sensors bekannt sein muss, um aufgenommenes Bildmaterial in ein Weltkoordinatensystem einzuordnen. Es wird zwischen der inneren und äußeren Orientierung des Sensors unterschieden. Die innere Orientierung wird vorab im Labor bestimmt und beschreibt die Abbildungseigenschaften der Kamera. When using aircraft-borne camera systems, the captured aerial images must in most cases be georeferenced. This means that the exact orientation of the sensor must be known in order to arrange captured image material in a world coordinate system. It is distinguished between the inner and outer orientation of the sensor. The inner orientation is determined in advance in the laboratory and describes the imaging properties of the camera.

Um die äußere Orientierung eines Sensors oder auch Flugzeuges zu bestimmen, werden klassischerweise GNSS/IMU-Systeme (Global Navigation Satellite System / Inertial Measurement Unit) verwendet. Diese haben die Aufgabe, drei Koordinaten für die Position (GNSS) und drei Winkel (IMU) für die Rotation des Sensors zu erfassen. Diese Systeme haben jedoch den Nachteil, dass sie je nach Genauigkeit sehr kostspielig sein können. In order to determine the outer orientation of a sensor or aircraft, GNSS / Global Navigation Satellite System (ING) systems are conventionally used. These have the task of detecting three coordinates for the position (GNSS) and three angles (IMU) for the rotation of the sensor. However, these systems have the disadvantage that they can be very expensive depending on the accuracy.

Neben der erwähnten Verwendung von Inertialsystemen (Inertial Measurement Unit = IMU) zur Messung der äußeren Orientierung gibt es bereits eine Reihe von Ansätzen, Sensoren optisch zu orientieren. In addition to the aforementioned use of inertial measurement units (IMU) for measuring the outer orientation, there are already a number of approaches to optically orient sensors.

Die klassische Variante benutzt den so genannten räumlichen Rückwärtsschnitt. Dabei werden Passpunkte mit bekannten Weltkoordinaten (beispielsweise GPS) ihren Abbildungen im Bild zugeordnet. Jedoch müssen dafür die Passpunkte im Voraus vermessen werden. Auch die Zuordnung zu ihren Abbildungen geschieht manuell. The classic variant uses the so-called spatial reverse cut. In this case, control points with known world coordinates (for example GPS) are assigned to their images in the image. However, the control points must be measured in advance. The assignment to their pictures is done manually.

Des Weiteren sind verschiedene Ansätze bekannt, die Daten eines Inertialsystems zu stützen. Ein Ansatz kompensiert die ungenauen Daten eines Inertialsystems durch die Extraktion und Zuordnung von vorhandenen dreidimensionalen Gebäudemodellen zu ihren Abbildungen in der Aufnahme. Dadurch wird die Genauigkeit der äußeren Orientierung erhöht. Dies ist jedoch nur möglich, solange Gebäudemodelle der Umgebung existieren. Furthermore, various approaches are known to support the data of an inertial system. One approach compensates for the inaccurate data of an inertial system by extracting and mapping existing three-dimensional building models to their mappings in the image. This increases the accuracy of the outer orientation. However, this is only possible as long as building models of the environment exist.

Ein anderer Ansatz ermittelt den optischen Fluss aus aufeinanderfolgenden Aufnahmen. Durch automatische Festlegung und Verfolgung von Passpunkten werden die relativen äußeren Orientierungen zwischen den Aufnahmen errechnet und stützen somit die Daten des Inertialsystems. Ein Inertialsystem ist jedoch nach wie vor nötig, um die äußere Orientierung zu bestimmen. Another approach determines the optical flow from successive shots. By automatically setting and tracking the control points, the relative outer orientations between the images are calculated and thus support the data of the inertial system. However, an inertial system is still needed to determine the external orientation.

Der Erfindung liegt das technische Problem zugrunde, ein Verfahren und ein Kamerasystem zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems zu schaffen, die im Aufbau einfacher und kostengünstiger sind. The invention is based on the technical problem of providing a method and a camera system for determining the absolute outer orientation of a camera system, which are simpler and less expensive in construction.

Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Ansprüche 1 und 6. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen. The solution of the technical problem results from the objects with the features of claims 1 and 6. Further advantageous embodiments of the invention will become apparent from the dependent claims.

Hierzu umfasst das Verfahren zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems, mittels eines satellitengestützten Positionssensors und mindestens einer Recheneinheit, die folgenden Verfahrensschritte:

  • a) Aufnehmen eines Bildes, wobei in die Aufnahme Objekte mit bekannter geografischer Position und Größe extrahiert werden,
  • b) Projizieren von Modellen der Objekte aus einer Datenbasis (DB) mittels eines Kameramodells in eine virtuelle Aufnahme Bp,
  • c) Durchführen eines Ausgleichsalgorithmus, wobei durch den Ausgleichsalgorithmus die Rotationswinkel der Kamera bestimmt werden, bei denen die projizierten Objekte und die extrahierten Objekte eine maximale Überlappung aufweisen, wobei die bestimmten Rotationswinkel und die gemessenen Translationskoordinaten des satellitengestützten Positionssensors die absolute äußere Orientierung des Kamerasystems bilden.
For this purpose, the method for determining the absolute outer orientation of a camera system, by means of a satellite-supported position sensor and at least one arithmetic unit, comprises the following method steps:
  • a) taking an image, wherein objects of known geographic position and size are extracted into the image,
  • b) projecting models of the objects from a database (DB) by means of a camera model into a virtual recording B p ,
  • c) performing a compensation algorithm, wherein the compensation algorithm determines the rotation angles of the camera in which the projected objects and the extracted objects have a maximum overlap, the determined rotation angles and the measured translational coordinates of the satellite-based position sensor forming the absolute outer orientation of the camera system.

Hierdurch wird es möglich, vollständig auf ein Inertialsystem zu verzichten und ausschließlich mittels der gemessenen Positionsdaten die absolute äußere Orientierung zu bestimmen, wobei die zugehörigen Rotationswinkel aus dem Ausgleichsalgorithmus berechnet werden. Dies stellt eine extrem vereinfachte und kostengünstige Lösung für die Bestimmung der absoluten äußeren Orientierung dar. This makes it possible to completely dispense with an inertial system and to determine the absolute outer orientation exclusively by means of the measured position data, the associated rotation angles being calculated from the compensation algorithm. This represents an extremely simplified and cost-effective solution for the determination of the absolute outer orientation.

In einer weiteren Ausführungsform werden mindestens zwei Bilder aufgenommen, die sich überlappen, wobei im ersten Bild Passpunkte bestimmt werden, die im zweiten Bild mittels eines Bildmatching-Algorithmus wiedergefunden werden, wobei aus den Korrespondenzen der Passpunkte in den beiden Bildern eine relative äußere Orientierung der Bilder errechnet wird, wobei die absolute äußere Orientierung mit der relativen äußeren Orientierung zur Ermittlung einer robusten absoluten äußeren Orientierung fusioniert wird. Vorzugsweise werden die absolute äußere Orientierung und die relative äußere Orientierung durch ein Kalman-Filter fusioniert, wobei die relative äußere Orientierung als Prädiktion und die absolute äußere Orientierung als Innovationsschritt bzw. Messwert verwendet wird. Dabei kann sich die Fusion auf die Rotationswinkel beschränken, da die Positions- bzw. Translationswerte durch den satellitengestützten Positionssensor exakt bestimmt werden. Die Fusion aus beiden Messungen kann dabei Ausreißer der absoluten äußeren Orientierung (z.B. durch falsche Konvergenz in der Ausgleichsrechnung) erkennen und verwerfen. Gleichzeitig wird durch die absolute äußere Orientierung ein Abdriften der relativen äußeren Orientierung verhindert. Vorzugsweise ist das erste Bild die Aufnahme von einem vorangegangenen Messschnitt und das zweite Bilde das Bild, aus dem die Objekte extrahiert werden. In a further embodiment, at least two images are taken, which overlap, wherein in the first image control points are determined, which are found in the second image by means of a Bildmatching algorithm, wherein from the correspondences of the control points in the two images, a relative outer orientation of the images is calculated, wherein the absolute outer orientation is fused with the relative outer orientation to determine a robust absolute outer orientation. Preferably, the absolute outer orientation and the relative outer orientation are fused by a Kalman filter, using the relative outer orientation as the prediction and the absolute outer orientation as the innovation step. In this case, the fusion can be limited to the rotation angle, since the position or translation values be accurately determined by the satellite-based position sensor. The fusion of both measurements can detect outliers of the absolute outer orientation (eg due to incorrect convergence in the compensation calculation) and discard it. At the same time, drifting of the relative outer orientation is prevented by the absolute outer orientation. Preferably, the first image is the image of a previous measurement section and the second image is the image from which the objects are extracted.

In einer weiteren Ausführungsform werden als Objekte Straßensegmente gewählt. Diese sind einfach zu finden und deren Lage und Größe ist häufig bekannt. Da für die meisten Straßendatenbanken nur zweidimensionale Koordinaten verfügbar sind, müssen diese gegebenenfalls noch mit einer Höhenkoordinate versehen werden. Diese kann beispielsweise aus einem digitalen Oberflächenmodell abgeleitet werden. In a further embodiment, road segments are selected as objects. These are easy to find and their location and size is often known. Since only two-dimensional coordinates are available for most road databases, they must be provided with a height coordinate if necessary. This can be derived, for example, from a digital surface model.

Vorzugsweise wird in der Aufnahme die Straßenoberfläche auf Basis ihres Farbwertes und ihrer Sättigung extrahiert (HSV-Farbraum). Die Güte der Projektion wird durch die Konjunktion der projizierten und extrahierten Flächen bestimmt. Je mehr Fläche in der Aufnahme überlappt, desto genauer ist die Projektion der Straßenelemente. Der Ausgleichsalgorithmus ist beispielsweise ein Nelder-Mead-Algorithmus, der die drei Rotationswinkel optimiert. Preferably, in the photograph, the road surface is extracted based on its color value and its saturation (HSV color space). The quality of the projection is determined by the conjunction of the projected and extracted surfaces. The more area overlapped in the shot, the more accurate the projection of the road elements. The equalization algorithm is, for example, a Nelder-Mead algorithm that optimizes the three rotation angles.

Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die einzige Figur zeigt ein schematisches Flussdiagramm eines Verfahrens zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems. The invention will be explained in more detail below with reference to a preferred embodiment. The single FIGURE shows a schematic flow diagram of a method for determining the absolute outer orientation of a camera system.

Eine Kamera 1 macht eine Aufnahme bzw. ein Bild B der Umgebung, in der sich mindestens ein Objekt mit bekannter geografischer Position und Größe befindet. Die Informationen über das Objekt sind dabei in einer Datenbasis DB abgelegt. Zur Zeit der Aufnahme des Bildes B werden die drei Positionskoordinaten X, Y, Z der Kamera mittels eines satellitengestützten Positionssensors 2, beispielsweise eines GPS-Sensors, ermittelt. Des Weiteren werden Startwerte für die Rotationswinkel ω0, φ0, κ0 vorgegeben, die üblicherweise wie folgt angenommen werden:
Der Rollwinkel beträgt 0°, der Nickwinkel 90° (Kamera zeigt senkrecht nach unten), der Gier- oder Kurswinkel wird aus der Flugrichtung zwischen zwei aufeinanderfolgenden GPS-Positionen ermittelt. Somit existieren für das Bild B bzw. für die Ermittlung einer virtuellen Aufnahme Bp Startwerte für die absolute äußere Orientierung.
A camera 1 takes a picture or picture B of the environment in which there is at least one object with a known geographic position and size. The information about the object is stored in a database DB. At the time of taking the image B, the three position coordinates X, Y, Z of the camera are detected by means of a satellite-based position sensor 2 , For example, a GPS sensor determined. Furthermore, starting values for the rotation angles ω 0 , φ 0 , κ 0 are given, which are usually assumed as follows:
The roll angle is 0 °, the pitch angle 90 ° (camera points vertically downwards), the yaw or heading angle is determined from the direction of flight between two consecutive GPS positions. Thus, for the image B or for the determination of a virtual recording B p, there are start values for the absolute outer orientation.

In einem Verfahrensschritt S1 werden die Objekte bekannter Größe und Lage extrahiert und so ein Bild Be mit extrahierten Flächen der Objekte erzeugt. Die Objekte sind dabei vorzugsweise Straßensegmente. Die Extraktion der Straßensegmente erfolgt vorzugsweise auf Basis ihres Farbwertes und ihrer Sättigung (HSV-Farbraum). In a method step S1, the objects of known size and position are extracted, thus producing an image B e with extracted surfaces of the objects. The objects are preferably road segments. The extraction of the road segments preferably takes place on the basis of their color value and their saturation (HSV color space).

In einem weiteren Verfahrensschritt S2 werden die Modelle der Objekte aus der Datenbasis (DB) mittels eines virtuellen Kameramodells, welches dieselben Eigenschaften wie die reale Kamera hat, in eine virtuelle Aufnahme Bp projiziert. Da für die meisten Straßendatenbanken (DB) nur zweidimensionale Koordinaten verfügbar sind, müssen diese gegebenenfalls mit einer Höhenkoordinate versehen werden. Diese Höhenkoordinate kann beispielsweise aus einem digitalen Oberflächenmodell abgeleitet werden, was hier aber nicht dargestellt ist. In a further method step S2, the models of the objects from the database (DB) are projected into a virtual recording B p by means of a virtual camera model which has the same properties as the real camera. Since only two-dimensional coordinates are available for most road data bases (DB), they may need to be provided with a height coordinate. This height coordinate can be derived for example from a digital surface model, which is not shown here.

Die Güte der Projektion wird durch die Konjunktion der projizierten und extrahierten Flächen bestimmt. Je mehr Fläche in der bzw. den Aufnahmen Bp und Be überlappt, desto genauer ist die Projektion der Straßenelemente. The quality of the projection is determined by the conjunction of the projected and extracted surfaces. The more area in the images B p and B e overlaps, the more accurate the projection of the road elements.

Ein Ausgleichsalgorithmus AA, vorzugsweise ein Simplex-Ausgleichsalgorithmus (wie beispielsweise Nelder-Mead) optimiert die drei Rotationswinkel ω, φ, κ, bis sich die projizierten Straßenelemente optimal mit den extrahierten Straßenelementen decken. Diese Rotationswinkel ω, φ, κ sind die Winkel der absoluten äußeren Orientierung aOabs zum Zeitpunkt der Aufnahme B mit den Positionsdaten X, Y, Z, die mittels Positionssensor 2 bestimmt wurden. A balancing algorithm AA, preferably a simplex balancing algorithm (such as Nelder-Mead) optimizes the three rotation angles ω, φ, κ until the projected road elements optimally coincide with the extracted road elements. These rotation angles ω, φ, κ are the angles of the absolute outer orientation aOabs at the time of picking B with the position data X, Y, Z obtained by means of the position sensor 2 were determined.

Parallel werden zwei aufeinanderfolgende Bilder B1 und B2 durch die Kamera 1 aufgenommen, die sich teilweise überlappen. Dabei entspricht die Aufnahme B2 der aktuellen Aufnahme B und die Aufnahme B1 der Aufnahme B(t – 1) aus dem vorherigen Zeitschritt des Algorithmus. Mittels eines Passpunkt-Detektors (z.B. eines Fast-Hessian Detector) werden Interest Points bzw. Passpunkte P0..n in den beiden Aufnahmen B1, B2 festgelegt. Mittels eines Bildmatching-Algorithmus BA werden die jeweiligen Passpunktpaare P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n optimal zur Überdeckung gebracht. In parallel, two consecutive images B1 and B2 are passed through the camera 1 recorded partially overlapping. In this case, the recording B2 corresponds to the current recording B and the recording B1 corresponds to the recording B (t-1) from the previous time step of the algorithm. By means of a control point detector (eg a Fast-Hessian Detector), interest points or control points P 0..n are defined in the two recordings B1, B2. By means of a Bildmatching algorithm BA, the respective pairs of control points P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n optimally brought to cover.

Aus den Passpunktepaaren P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n der beiden Aufnahmen B1, B2 wird dann eine relative äußere Orientierung aOrel der Kamera 1 zwischen den beiden Aufnahmezeitpunkten errechnet. Dabei sei angemerkt, dass zu den detektierten Passpunkten P0..n eine Weltkoordinaten bekannt sein müssen, sondern dass ausschließlich die relative Verschiebung der Passpunkte P0..n von Interesse ist. From the pairs of control points P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n the two images B1, B2 then becomes a relative outer orientation aOrel of the camera 1 calculated between the two recording times. It should be noted that to the detected control points P 0..n a world coordinates must be known, but that only the relative displacement of the control points P 0..n is of interest.

In einem letzten Schritt werden die Ergebnisse der beiden Verfahren mittels eines Kalman-Filters KF fusioniert. Dabei wird die relative äußere Orientierung aOrel zusammen mit dem letzten Zustandswert ωt-1, φt-1, κt-1 als Prädiktion verwendet und die absolute äußere Orientierung aOabs als Innovationsschritt oder Messwert. Die Fusion aus beiden Messungen kann somit Ausreißer der absoluten äußeren Orientierung aOabs (X, Y, Z, ω, φ, κ) (z.B. durch falsche Konvergenz in der Ausgleichsrechnung) erkennen und verwerfen. Gleichzeitig wird durch die absolute äußere Orientierung aOabs (X, Y, Z, ω, φ, κ) ein Abdriften der relativen äußeren Orientierung aOrel verhindert. Dabei wird das Verfahren kontinuierlich wiederholt. Das Ergebnis des Kalman-Filters KF ist eine fusionierte robuste absolute äußere Orientierung aOfus, die ohne Verwendung eines Inertialsystems bestimmt wurde. In a last step, the results of the two methods are fused by means of a Kalman filter KF. In this case, the relative outer orientation aOrel is used together with the last state value ω t-1 , φ t-1 , κ t-1 as prediction and the absolute outer orientation aOabs as innovation step or measured value. The fusion of the two measurements can thus detect and reject outliers of the absolute outer orientation aOabs (X, Y, Z, ω, φ, κ) (eg due to incorrect convergence in the compensation calculation). At the same time, drifting of the relative outer orientation aOrel is prevented by the absolute outer orientation aOabs (X, Y, Z, ω, φ, κ). The process is repeated continuously. The result of the Kalman filter KF is a fused robust absolute outer orientation aOfus determined without using an inertial system.

Claims (6)

Verfahren zur Bestimmung der absoluten äußeren Orientierung eines Kamerasystems, mittels eines satellitengestützten Positionssensors (2) und mindestens einer Recheneinheit, umfassend folgende Verfahrensschritte: a) Aufnehmen eines Bildes (B), wobei in der Aufnahme Objekte mit bekannter geografischer Position und Größe extrahiert werden, b) Projizieren von Modellen der Objekte aus einer Datenbasis (DB) mittels eines Kameramodells in eine virtuelle Aufnahme Bp, c) Durchführen eines Ausgleichsalgorithmus (AA), wobei durch den Ausgleichsalgorithmus (AA) die Rotationswinkel (ω, φ, κ) der Kamera (1) bestimmt werden, bei denen die projizierten Objekte und die extrahierten Objekte eine maximale Überlappung aufweisen, wobei die bestimmten Rotationswinkel (ω, φ, κ) und die gemessenen Translationskoordinaten (X, Y, Z) des satellitengestützten Positionssensors (2) die absolute äußere Orientierung (aOabs) des Kamerasystems bilden. Method for determining the absolute outer orientation of a camera system, by means of a satellite-based position sensor ( 2 ) and at least one arithmetic unit, comprising the following method steps: a) taking an image (B), wherein objects of known geographic position and size are extracted in the image, b) projecting models of the objects from a database (DB) by means of a camera model in a virtual recording B p , c) carrying out a compensation algorithm (AA), wherein by the compensation algorithm (AA) the rotation angle (ω, φ, κ) of the camera ( 1 ), in which the projected objects and the extracted objects have a maximum overlap, wherein the determined rotation angles (ω, φ, κ) and the measured translation coordinates (X, Y, Z) of the satellite-based position sensor ( 2 ) form the absolute outer orientation (aOabs) of the camera system. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass mindestens zwei Bilder (B1, B2) aufgenommen werden, die sich überlappen, wobei im ersten Bild (B1) Passpunkte (P B1 / 0..n) bestimmt werden, die im zweiten Bild (B2) mittels eines Bildmatching-Algorithmus (BA) wiedergefunden werden, wobei aus den Korrespondenzen der Passpunkte (P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n) eine relative äußere Orientierung (aOrel) der Kamera zwischen den Bildern (B1, B2) errechnet wird, wobei die absolute äußere Orientierung (aOabs; X, Y, Z, ω, φ, κ) mit der relativen äußeren Orientierung (aOrel) zur Ermittlung einer robusten absoluten äußeren Orientierung (aOfus) fusioniert wird. A method according to claim 1, characterized in that at least two images (B1, B2) are recorded, which overlap, wherein in the first image (B1) control points (P B1 / 0..n) are determined, which are found in the second image (B2) by means of a Bildmatching algorithm (BA), wherein from the correspondences of the control points (P B1 / 0 ↔ P B2 / 0 .. P B1 / n ↔ P B2 / n) a relative outer orientation (aOrel) of the camera between the images (B1, B2) is calculated, wherein the absolute outer orientation (aOabs, X, Y, Z, ω, φ, κ) with the relative outer orientation (aOrel) for the determination a robust absolute outer orientation (aOfus) is fused. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die absolute äußere Orientierung (aOabs) und die relative äußere Orientierung (aOrel) durch ein Kalman-Filter (KF) fusioniert werden, wobei die relative äußere Orientierung (aOrel) als Prädiktion und die absolute äußere Orientierung (aOabs) als Innovationsschritt bzw. Messwert verwendet werden. A method according to claim 2, characterized in that the absolute outer orientation (aOabs) and the relative outer orientation (aOrel) are fused by a Kalman filter (KF), the relative outer orientation (aOrel) being prediction and the absolute outer orientation (aOabs) can be used as an innovation step or measured value. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Objekte als Straßensegmente gewählt werden. Method according to one of the preceding claims, characterized in that the objects are selected as road segments. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Straßensegmente auf Basis ihres Farbwertes und ihrer Sättigung bestimmt werden. A method according to claim 4, characterized in that the road segments are determined on the basis of their color value and their saturation. Kamerasystem, umfassend einen satellitengestützten Positionssensor (2) und eine Recheneinheit, dadurch gekennzeichnet, dass die Recheneinheit derart programmiert ist, dass zur Bestimmung der Elemente (X, Y, Z, α, β, γ) der absoluten äußeren Orientierung (aOabs) des Kamerasystems ein Verfahren mit den Merkmalen des Anspruchs 1 durchführbar ist. A camera system comprising a satellite-based position sensor ( 2 ) and a computing unit, characterized in that the arithmetic unit is programmed such that for determining the elements (X, Y, Z, α, β, γ) of the absolute outer orientation (aOabs) of the camera system, a method having the features of claim 1 is feasible.
DE201110089593 2011-12-22 2011-12-22 Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor Ceased DE102011089593A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201110089593 DE102011089593A1 (en) 2011-12-22 2011-12-22 Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201110089593 DE102011089593A1 (en) 2011-12-22 2011-12-22 Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor

Publications (1)

Publication Number Publication Date
DE102011089593A1 true DE102011089593A1 (en) 2013-05-29

Family

ID=48287810

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201110089593 Ceased DE102011089593A1 (en) 2011-12-22 2011-12-22 Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor

Country Status (1)

Country Link
DE (1) DE102011089593A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105651260A (en) * 2015-12-30 2016-06-08 航天恒星科技有限公司 Geometric positioning method and geometric positioning system for remote sensing satellite
CN115164905A (en) * 2022-08-15 2022-10-11 宁波市天一测绘设计研究有限公司 Aerial survey precision determining method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000034803A2 (en) * 1998-11-20 2000-06-15 Geometrix, Inc. Vision-assisted camera pose determination

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000034803A2 (en) * 1998-11-20 2000-06-15 Geometrix, Inc. Vision-assisted camera pose determination

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CONTE, C. und DOHERTY, P.: A Visual Navigation System for UAS Based on Geo-referenced imagery. In: UAV-g 2011, Conference on Unmanned Aerial Vehicle in Geomatics, Zürich, Schweiz, 14.-16. September 2011. *
HEIPKE, C.: Automation of interior, relative, and absolute orientation. ISPRS Journal of Photogrammetry & Remote Sensing 52 (1997), 1-19. *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105651260A (en) * 2015-12-30 2016-06-08 航天恒星科技有限公司 Geometric positioning method and geometric positioning system for remote sensing satellite
CN115164905A (en) * 2022-08-15 2022-10-11 宁波市天一测绘设计研究有限公司 Aerial survey precision determining method and system
CN115164905B (en) * 2022-08-15 2023-09-05 宁波市天一测绘设计研究有限公司 Aerial survey precision determination method and system

Similar Documents

Publication Publication Date Title
DE102013216892B4 (en) Positioning of an object using visual data
US10203692B2 (en) Structure from motion (SfM) processing for unmanned aerial vehicle (UAV)
EP2918972B1 (en) Method and handheld distance measuring device for generating a spatial model
EP2060873B1 (en) Method of supporting the inertial navigation of an aircraft
EP3005292B1 (en) 3d recording device, method for producing a 3d image, and method for setting up a 3d recording device
DE10326943A1 (en) Autonomous vehicle and associated method and device for motion determination, motion control and object detection
DE102016209625A1 (en) Method for evaluating image data of a vehicle camera
EP1673589A1 (en) Method and device for determining the actual position of a geodetic instrument
DE102008002241A1 (en) Method for image-based measurement of room or partial area of room for e.g. craftsman to install windows, involves modeling virtual three-dimensional models of room by using image processing process with respect to distances
EP2573512A2 (en) Method and assembly for determining the position of a measurement point in geometric space
DE102007043534A1 (en) Arrangement for detecting an environment
DE102009040468A1 (en) Portable mobile detection device for three-dimensional geometric detection of environment, has receiving device attached to sensor device, where sensor device has inertial measurement system and laser scanner
AT511460B1 (en) METHOD FOR DETERMINING THE POSITION OF AN AIRCRAFT
DE102011089593A1 (en) Method for determining absolute outer orientation of camera system used in airplane, involves determining absolute outer orientation of camera system based on camera rotation angle and translation coordinates of position sensor
EP3539085B1 (en) 3d localization
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102014115046B4 (en) Method and assistance system for determining a flight parameter of a flying object during the flight
DE102005043753A1 (en) Test sample surface point spatial coordinates determining method, involves computing spatial coordinates as projective reconstruction for all reference points, and converting coordinates of points into metric coordinates of surface points
DE102016109919A1 (en) Device for measuring objects
DE102019209117A1 (en) Method for locating a vehicle
DE102014108255A1 (en) Georeferencing of image data
DE102016105405B4 (en) Method and device arrangement for high-precision, (semi-) automatic in-situ calibration and registration of a projector-camera system to a component
DE102018010252A1 (en) Method and system for dynamic structural analysis
DE102007055252A1 (en) To determine the gaps of a given object within a complex structure, e.g. an automobile production line, images are taken from different positions for the images to be processed with a database
DE102007044314A1 (en) Digital line scan camera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130719