DE10354752A1 - Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern - Google Patents

Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern Download PDF

Info

Publication number
DE10354752A1
DE10354752A1 DE10354752A DE10354752A DE10354752A1 DE 10354752 A1 DE10354752 A1 DE 10354752A1 DE 10354752 A DE10354752 A DE 10354752A DE 10354752 A DE10354752 A DE 10354752A DE 10354752 A1 DE10354752 A1 DE 10354752A1
Authority
DE
Germany
Prior art keywords
image
objects
mapping function
control point
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10354752A
Other languages
English (en)
Other versions
DE10354752B4 (de
Inventor
Adolf Günther
Erik Borg
Bernd Fichtelmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE10354752A priority Critical patent/DE10354752B4/de
Publication of DE10354752A1 publication Critical patent/DE10354752A1/de
Application granted granted Critical
Publication of DE10354752B4 publication Critical patent/DE10354752B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/80

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Entzerrung von Bildern, wobei mindestens ein Bild durch eine Abbildungsfunktion auf ein Referenzbild entzerrt wird und Parameter der Abbildungsfunktion mindestens teilweise unbekannt sind, umfassend mindestens eine Extraktion von mindestens drei Objekten (O1-O3) aus dem Bild (O), eine Ermittlung von mindestens drei Passpunkten in dem Bild, wobei charakteristische Objektpunkte der extrahierten Objekte als Passpunkte ermittelt werden, eine Zuordnung der Objekte (O1-O3) zu Objekten (O1'-O3') im Referenzbild, wobei eine Zuordnung von Objekten in beiden Bildern aufgrund einer Ähnlichkeit von Objekten und/oder eines Vektornetzes erfolgt und das Vektornetz durch eine Verbindung charakteristischer Objektpunkte gebildet wird, und eine Auswahl einer geeigneten Abbildungsfunktion und/oder eine Anpassung der Parameter der Abbildungsfunktion, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart verändert wird, dass ein Fehlersummenminimum in Positionsdifferenzen zwischen projizierten Passpunkten und entsprechenden Punkten im Referenzbild erreicht wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern, wobei ein Bild auf ein Referenzbild ohne genaue Kenntnis der Abbildungsfunktion entzerrt wird.
  • Eine ungenaue und/oder unzureichende Kenntnis der Abbildungsfunktion liegt insbesondere dann vor, wenn Bilder mit bewegten Aufnahmesystemen und/oder einem bewegten Bildfeld erfasst werden und die Orientierung des Aufnahmesystems gegenüber dem Bildfeld nicht oder nur unter großem Aufwand eindeutig bestimmbar ist. So sind beispielsweise Abbildungsfunktion zur Entzerrung von Satellitenbildern für eine Landvermessung nicht oder nur in Grenzen bekannt. Es ist auch denkbar, dass eine Verzerrung des Referenzbildes nicht oder nur in Grenzen bekannt ist.
  • Die Bilder werden durch ein Aufnahmegerät erfasst und liegen für die Weiterverarbeitung als einkanalige Bilder, beispielsweise Grauwertbilder, oder mehrkanalige Bilder, beispielsweise Farbbilder, vor.
  • Bilder zur Aufnahme und Abbildung der Erdoberfläche werden von bewegten Aufnahmesystemen aufgenommen. Die Aufnahmesysteme befinden sich beispielsweise auf Satelliten oder Flugzeugen. Bekannte Verfahren zur Aufnahme und Abbildung der Erdoberfläche sind sogenannte photogrammetrische Verfahren, wobei die aufgenommenen Bilder für eine Übertragung in eine zu erstellende Karte entzerrt werden. Die notwendige Transformation eines aufgenommenen Bildes in eine gewünschte Darstellung wird als Abbildungsvorgang bezeichnet. Für die Entzerrung wird der Abbildungsvorgang als kollineare Gleichung modelliert. Es existiert bereits eine Reihe grundlegender Verfahren zur Georeferenzierung von Fernerkundungsdaten, die entweder auf dem Prinzip der Positionsberechnung mit Hilfe eines Modells des Abbildungsvorgangs (Abbildungsmodells) oder auf dem Passpunktprinzip mit Hilfe eines Referenzbildes beruhen. Auch eine Verkopplung beider Methoden ist möglich.
  • Für die Entzerrung unter Verwendung eines Abbildungsmodells wird der Abbildungsvorgang als kollineare Gleichung beschrieben oder mittels einfacherer Modelle genähert. Sind alle Parameter des Abbildungsvorgangs bekannt, so sind sehr präzise Bilder erzeugbar. In der Praxis sind jedoch nicht alle Parameter, die bei der Bildentstehung eine Rolle spielen, wie z.B. Ort und Lage des Satelliten, ausreichend genau bekannt. Ursächlich hierfür ist eine Beschränkung der Messgenauigkeit sowie die Tatsache, dass nicht alle Parameter zeitlich stabil sind. Die zeitliche Instabilität ergibt sich beispielsweise aus Schwankungen der Satellitenbahn. Weiter erfolgt eine Vermessung der Satellitenbahn diskret, wobei die Interpolation zwischen diesen Zeitpunkten zusätzliche Fehler ergibt.
  • Daneben ist es bekannt, bei unvollständigen oder ungenauen Abbildungsparametern eine Entzerrung mit Hilfe von Passpunkten durchzuführen. Das Verfahren wird insbesondere dann eingesetzt, wenn das zu entzerrende Bild, beispielsweise ein Satellitenbild, nicht auf eine definierte Geometrie, beispielsweise eine Karte, sondern auf ein Referenzbild mit unbekannter Verzerrung abgebildet wird. Passpunkte sind kontrastreiche Bildstrukturen, welche zeitlich stabil sind und eine Ortsbestimmung mittels Korrelation ermöglichen. Die Interpolation zwischen den Passpunkten wird in der Regel mit zweidimensionalen Polynomfunktionen vorgenommen. Eine Fehlerquelle bei der Passpunktentzerrung ist die Unähnlichkeit der Passpunktstrukturen in den verschiedenen Bildern, die hervorgerufen werden durch unterschiedliche Aufnahmegeometrien, einen unterschiedlichen Zustand der Objekte, welche die Passpunktstruktur bilden, oder durch Mittelung unterschiedlicher Objekte oder Objektteile. Eine weitere Fehlerquelle ist die für die Interpolation eingesetzte Polynomfunktion, durch welche in der Regel der Abbildungsvorgang nicht ausreichend genau modellierbar ist. Dies gilt insbesondere bei großen Flächen. Je weiter ein Punkt von einem Passpunkt entfernt liegt, desto größer sind die Auswirkungen aufgrund von Ungenauigkeiten in der Polynomfunktion. Dieser Effekt zeigt sich vor allem bei Polynomen höheren Grades.
  • Außerdem ist es bekannt, die beiden Methoden, die parametrische Entzerrung und die Entzerrung mittels Polynomfunktionen zu verknüpfen.
  • Ein Nachteil der bekannten Verfahren liegt in einer schlechten Automatisierbarkeit, insbesondere bei einem geringen Kenntnisstand des Abbildungsvorgangs. Eine Anpassung aller Abbildungsparameter an eine aktuelle Situation ist hierbei meistens zu aufwendig, so dass eine reine Polynomentzerrung eingesetzt wird. Die notwendigen Passpunkte werden dabei einer Datenbank entnommen. Die bisher bekannten Verfahren weisen Restfehler in der Positionsbestimmung der Passpunkte des zu bearbeitenden Datensatzes auf. Dieser Restfehler lässt sich nicht oder nur sehr aufwendig analytisch beschreiben, so dass auch eine entsprechende Anpassung durch Korrektur des Abbildungsmodells nicht möglich ist.
  • Der Erfindung liegt daher das technische Problem zugrunde, ein Verfahren und eine Vorrichtung zur automatischen Entzerrung von Bildern zu schaffen, durch welche ohne genaue Kenntnis des Abbildungsmodells ein verbleibender Restfehler verringert wird.
  • Die Lösung des Problems ergibt sich durch ein Verfahren mit den Merkmalen der Ansprüche 1 und 9. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Zur automatischen Entzerrung eines Bild auf ein Referenzbild, wobei Parameter einer Abbildungsfunktion der Entzerrung mindestens teilweise unbekannt sind, werden aus dem Bild mindestens drei Objekte extrahiert und mindestens drei Passpunkte ermittelt, wobei charakteristische Objektpunkte der extrahierten Objekte als Passpunkte ermittelt werden. Die extrahierten Objekte werden Objekten im Referenzbild zugeordnet, wobei eine Zuordnung von Objekten in beiden Bildern aufgrund einer Ähnlichkeit von Objekten und/oder eines Vektornetzes erfolgt und das Vektornetz durch eine Verbindung charakteristischer Objektpunkte gebildet wird. Anhand der Passpunkte sowie den entsprechenden Punkten im Referenzbild werden die Parameter der Abbildungsfunktion angepasst und/oder es wird eine geeignete bekannte Abbildungsfunktion ermittelt. Die Anpassung und/oder Ermittlung erfolgt derart, dass ein Fehlersummenminimum in Positionsdifferenzen zwischen projizierten Passpunkten und entsprechenden Passpunkten im Referenzbild erreicht wird. Abbildungsfunktionen mit festen Parametersätzen sind beispielsweise in einer Datenbank abgelegt. Eine derartige Anpassung ist von Interesse, wenn vielfach gleiche Abbildungsvorgänge vorliegen. Für eine Wahl geeigneter Objekte ist vorteilhaft, wenn die Objekte markante und einmalige Formen aufweisen, so dass grobe Fehler ausgeschlossen werden. Das Referenzbild kann dabei entweder in einer bekannten Kartenprojektion abgebildet sein oder eine unbekannte Abbildungsgrundlage aufweisen. Ist die Abbildungsgrundlage bekannt, so ist die Abbildungsfunktion aus einem Abbildungsmodell gegeben. Bei einer unbekannten Abbildungsgrundlage des Referenzbildes ist die Abbildungsfunktion eine affine Transformation. Durch die Anpassung der Parameter unter Berechnung eines Fehlersummenminimums ist eine Anpassung der Abbildungsfunktion ohne genaue Kenntnis des Abbildungsmodells und/oder im Falle der fehlenden Abbildungsgrundlage ohne Abbildungsmodell möglich.
  • In einer bevorzugten Ausführungsform werden in einem weiteren Verarbeitungsschritt die für eine Anpassung der Abbildungsfunktion verwendeten Passpunkte gewichtet. Hierfür werden zunächst um einen möglichen Passpunkt des zu entzerrenden Bildes und/oder des Referenzbildes Flächen gebildet, sogenannte Passpunktstrukturen. Die Flächen sind in der Regel quadratisch mit N·N Pixel, wobei N eine beliebige natürliche Zahl ist. Die Passpunktstrukturen werden in das jeweils andere Bild mittels der Abbildungsfunktion projiziert, wobei eine Qualität der Passpunktstruktur mindestens durch Veränderlichkeit, Richtungskontrast und/oder Ähnlichkeit beschrieben ist. Die Veränderlichkeit wird aus der bereits bestimmten Klassenzugehörigkeit abgeleitet. Klassen mit geringer Veränderlichkeit, beispielsweise Wasser, erzeugen eine hohe Qualität. Objekte mit starker Veränderlichkeit, beispielsweise Vegetationen, haben hingegen eine geringe Qualität. Die Werte für eine derartige Qualitätsbewertung lassen sich vorab bestimmen und in Tabellen ablegen. Ein weiteres Kriterium für die Qualität eines Passpunktes ist der Richtungskontrast. Für eine exakte Bestimmung von Positionen der Passpunkte ist ein großer Kontrast innerhalb der Passpunktstruktur erforderlich. Strukturen mit großen Kontrasten in horizontaler (X-) Richtung und vertikaler (Y-) Richtung der Bildebene haben somit eine hohe Qualität. Der Kontrast wird aus maximalen Grauwertdifferenzen in den Zeilen oder Spalten errechnet. Grauwerte werden auf einem oder mehreren Kanälen erfasst, beispielsweise auf drei Kanälen als so genannte Farbwerte. Bei einer Betrachtung der Grauwertdifferenzen auf einem Kanal kann entweder der Kontrast aus dem Bild oder bevorzugt aus dem Bild sowie dem zugehörigen Referenzbild in das Qualitätsmaß eingehen. Zudem ist die Ähnlichkeit Kriterium für das Qualitätsmaß. Die Ähnlichkeit wird aus einem Vergleich der Form des Grauwertverlaufes in X- und Y-Richtung innerhalb der Passpunktstrukturen des Grauwertbildes und des Referenzbildes abgeleitet. Während Veränderlichkeit und Richtungskontrast im zu entzerrenden Bild und/oder im Referenzbild festgelegt sind, lässt sich die Ähnlichkeit durch eine Anpassung verbessern. Die einzelnen Qualitätsmaße werden zu einer gemeinsamen Qualitätsbewertung verknüpft. Für eine derartige Verknüpfung ist eine Vielzahl an Methoden denkbar, wobei die einzelnen Qualitätsmaße je nach Aufgabestellung unterschiedlich gewichtet werden können. Aufgrund der gemeinsamen Qualitätsbewertung wird jedem Passpunkt eine Wichtung zugeordnet, mit welcher dieser in eine Anpassung der Parameter für eine Bestimmung der Abbildungsfunktion eingeht. Passpunkte, welche ein sehr niedriges Qualitätsmaß aufweisen, sind für eine weitere Bearbeitung zu verwerfen.
  • In einer weiteren Ausführungsform erfolgt eine genauere Bestimmung der Position der ermittelten Passpunkte im zu entzerrenden Bild durch einen Vergleich der Passpunktstrukturen. Dabei ist sowohl eine Projektion von Teilen der Passpunktstruktur des Bildes in das Referenzbild, als auch umgekehrt denkbar. Bevorzugt werden für beide Bildausschnitte Bildschärfen berechnet und der unschärfere Bildausschnitt in den schärferen projiziert. Zunächst erfolgt eine Anpassung der Grauwertverteilung oder der Grauwertverteilungen der projizierten Bildstruktur an die zugehörige Passpunktstruktur im zu entzerrenden Bild und/oder im Referenzbild. Dadurch lassen sich Unterschiede ausgleichen, welche beispielsweise aufgrund unterschiedlicher Belichtungsverhältnisse bei der Aufnahme des jeweiligen Bildes vorliegen. Anschließend werden die Grauwerte der einzelnen Pixel in der Passpunktstruktur oder der Bildstruktur bestimmt und die Differenz zwischen benachbarten Pixel gebildet. Diese Differenz wird mit der Differenz der korrespondierenden Pixel in der anderen Struktur verglichen und daraus ein Fehler abgeleitet. Anschließend wird die Passpunktstruktur im zu entzerrenden Bild in X- und/oder Y-Richtung versetzt und erneut ein Fehler ermittelt. Durch schrittweisen Versatz der Passpunktstruktur in X- und Y-Richtung wird eine Fehlermatrix erzeugt. Die Schrittgröße ist dabei geringer als die Ausdehnung der Passpunktstruktur. Als am besten angepasste Position wird die Position der Passpunktstruktur identifiziert, welche den geringsten Fehler aufweist. Positionen, welche auf diese Art ermittelt wurden, weisen eine hohe Positionsgenauigkeit auf. Dadurch kann eine Anpassung der Abbildungsparameter verbessert werden.
  • In einer bevorzugten Ausführungsform wird eine Anpassung der Parameter der Abbildungsfunktion durchgeführt, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart veränderbar ist, dass ein Fehlersummenminimum in den Positionsdifferenzen zwischen Passpunkten und zugehörigen projizierten Bildpunkten unter Berücksichtigung der Wichtung der Passpunkte minimiert wird. Durch eine zweistufige Anpassung der Abbildungsparameter erfolgt zunächst eine grobe Entzerrung des Bildes, welche in einem weiteren Schritt verfeinert wird. Es ist jedoch auch denkbar, dass Passpunkte bereits in Grenzen bekannt sind und so auf eine erste Anpassung verzichtet werden kann.
  • In einer weiteren bevorzugten Ausführungsform wird eine Ausgleichsrechnung durchgeführt, wobei der Restfehler in der Positionsbestimmung weiter verringert wird. Hierbei wird für jeden Passpunkt mindestens ein vertikaler und/oder ein horizontaler Korrekturwert bestimmt, welcher die Abweichung des Wertes der Abbildungsfunktion vom Wert der Ausgleichsfunktion am Ort des zugehörigen Bildpunktes bei einer Projektion mit der am besten angepassten Abbildungsfunktion wiedergibt. Die derart ermittelten Korrekturwerte lassen sich in einer Korrekturtabelle speichern und für eine Weiterverarbeitung nutzen. Es wird die am besten angepasste Abbildungsfunktion ermittelt. In vielen Fällen ist jedoch ein Restfehler der am besten angepassten Abbildungsfunktion gegenüber einer dem Abbildungsvorgang tatsächlich zugrunde liegenden Funktion unvermeidbar und/oder nur mit einem sehr hohen Aufwand vermeidbar. Mit Hilfe der aus der Korrekturtabelle abgeleiteten Korrekturfunktion ist eine Entzerrung mit hoher Qualität auch dann möglich, wenn eine am besten angepasste Abbildungsfunktion einen Restfehler aufweist.
  • In einer weiteren Ausführungsform werden die Eckkoordinaten projizierter Bildelemente ermittelt. Eine Bildposition der Eckkoordinaten ergibt sich aus einer Projektion mit der ermittelten Abbildungsfunktion und der Korrekturwerte. Durch Interpolation der Korrekturwerte der Passpunkte lässt sich Korrekturfunktion aufstellen. Somit können die Korrekturwerte an den Eckkoordinaten ermittelt werden.
  • In einer weiteren Ausführungsform wird ein Resampling derart durchgeführt, dass die Eckkoordinaten ein Vieleck, bevorzugt ein Viereck, aufspannen und die Grauwerte aller in dem Vieleck liegenden Bildelemente entsprechend ihrer Größe gewichtet gemittelt werden.
  • In einer weiteren bevorzugten Ausführungsform werden Objekte durch eine Klassifikation und/oder eine geometrische Strukturanalyse extrahiert. In der Klassifikation werden die Eigenschaften des Bildes analysiert und Objekte und/oder Flächen gleicher Klassenzugehörigkeit gebildet. Als Objekte und/oder Flächen gleicher Klassenzugehörigkeit werden Bildteile bezeichnet, deren Elemente (Pixel) jeweils einer Klasse angehören. Die Klassifikation stützt sich auf Bildeigenschaften. Diese Eigenschaften können sich auf einzelne Pixel beziehen. Eine Eigenschaft, die sich auf ein Pixel bezieht, ist beispielsweise ein Grauwert in einem Kanal, der durch das Reflexionsverhalten der dem Pixel entsprechenden Oberfläche in einem festgelegten Wellenlängenbereich bestimmt wird. Weiter können Eigenschaften sich auch auf mehrere Pixel beziehen, bei denen die räumliche Anordnung einzelner Grauwerte eine Rolle spielt, beispielsweise bei der Textur. Eine weitere Eigenschaft ergibt sich aus dem Reflexionsverhalten der Oberfläche in verschiedenen Wellenlängenbereichen (spektrale Eigenschaft). Ausgehend von bestimmten Eigenschaften lassen sich Objekte in Klassen einteilen, beispielsweise in Landnutzungsklassen wie Ackerbau, Nadelwald, etc. Insbesondere werden damit Wolken und Gebiete mit stabilem Reflexionsverhalten, beispielsweise Wasser oder Nadelwälder, erkannt. Mittels einer Maske lassen sich die Bildobjekte, welche als Wolken erkannt wurden, kennzeichnen. Wolkengebiete werden für die weitere Bearbeitung ausgeschlossen oder bei Bedarf einer gesonderten Bearbeitung unterworfen. Liegen multispektrale Fernerkundungsdaten vor, so werden Objekte vorzugsweise gemäß einem aus der Patentschrift DE 199 39 732 C2 bekannten Verfahren zur Klassifikation detektiert und identifiziert.
  • Die Anhand ihrer Eigenschaften klassifizierten Objekte sind durch eine daran anschließende geometrische Strukturanalyse genauer klassifizierbar. Die geometrische Strukturanalyse umfasst beispielsweise eine Analyse der Objekte selbst, wobei deren Größe, Form und/oder Homogenität betrachtet werden. Vorzugsweise werden Informationen über benachbarte Objekte einbezogen. So lassen sich beispielsweise Bildelemente in Übergangsbereichen einem Objekt zuordnen.
  • Hierzu werden im ersten Schritt die Randverläufe der geeigneten klassifizierten Flächen ermittelt, wobei zusätzlich eine numerische Charakterisierung dieser Objekte durch ein geeignetes Strukturmaß erfolgt. Dabei lassen sich die Objekte, welche an Wolken angrenzen, gesondert kennzeichnen. Diese Objekte werden dann mit entsprechenden Objekten des Referenzbildes korreliert, so dass als Ergebnis die Objekte vorab extrahiert und identifiziert sind.
  • Aus den extrahierten Objekten werden die Positionen der jeweiligen abgeleiteten charakteristischen Objektpunkte, vorzugsweise Objektmittelpunkte, berechnet. Gegebenenfalls wird bei teilweise durch Wolken abgedeckten Objekten nach charakteristischen Randverläufen gesucht.
  • Die Bilder werden durch ein beliebiges Aufnahmegerät erzeugt, welches einkanalige oder mehrkanalige Bilder produziert. Ein geeignetes Aufnahmegerät ist beispielsweise eine Pushbroom-Camera. Das Aufnahmegerät ist an einem beliebigen Objekt angebracht, welches gegenüber einer aufzunehmenden Oberfläche eine Relativbewegung durchführt. Dabei ist es auch denkbar, dass die Oberfläche relativ zum Aufnahmegerät bewegt wird.
  • Die erfindungsgemäße Vorrichtung umfasst einzelne Module. Die einzelnen Module der können entweder auf einem gemeinsamen Rechenmittel oder auf getrennten Rechenmitteln integriert werden. Geeignete Rechenmittel sind beispielsweise ein PC, eine Workstation und/oder ein Rechnercluster. Die Verfahrensschritte können teilweise parallel bearbeitet werden.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
  • 1: den Ablauf bei einer automatischen Entzerrung eines Satellitenbildes,
  • 2: eine schematische Darstellung der Generierung von Objekträndern durch Klassifikation und geometrische Strukturanalyse,
  • 3: schematisch einen Ausschnitt aus einem Bild sowie einem Referenzbild,
  • 4: eine schematisch Illustration zur Ermittlung einer Abbildungsfunktion anhand geometrische Beziehungen,
  • 5: eine schematisch Illustration zur Ermittlung einer verbesserten Abbildungsfunktion anhand geometrische Beziehungen,
  • 6: eine schematische Darstellung von Korrekturwerten für eine Abbildungsfunktion und
  • 7: eine schematische Darstellung einer Entzerrung anhand einer Abbildungsfunktion.
  • 1 zeigt schematisch den Ablauf bei einer automatischen Entzerrung eines einkanaligen oder mehrkanaligen Bildes auf ein Referenzbild. Das Verfahren ist modular durch die Module 1 bis 10 aufgebaut. Alle für eine Entzerrung notwendigen Informationen sind aus Daten des Bildes und/oder eines Referenzbildes extrahierbar. Die Entzerrung auf das Referenzbild ist somit ohne Kenntnis der Abbildungsfunktion möglich. Liegen zusätzliche Informationen vor, so können diese im Verfahren verwendet werden. Für eine Entzerrung ist es ausreichend, dass das Bild und das Referenzbild als einkanaliges Grauwertbild vorliegen. In den Modulen 1 bis 4 wird mit Hilfe von klassifizierten Objekten und deren Beziehungen zueinander eine Grobzuordnung zwischen Bild und Referenzbild erreicht. Auf der Grundlage der Grobzuordnung wird in Modul 5 ein grob angepasster virtueller Abbildungsvorgang ermittelt. In den Modulen 6 bis 8 erfolgt eine Feinanpassung des virtuellen Abbildungsvorganges. Als Ergebnis der Module 6 bis 8 liegt eine endgültige Abbildungsfunktion mit Korrekturtabelle vor. Die Zuordnung von Grauwertanteilen zu einer Fläche (Pixel) findet in den Schritten 9 und 10 statt.
  • Das Verfahren ist am Beispiel der Entzerrung eines Satellitenbildes S illustriert. Das Satellitenbild S wird beispielsweise durch eine Pushbroom-Camera aufgenommen. Die Pushbroom-camera besteht aus einer Sensorzeile. Durch eine Vorwärtsbewegung des Satelliten oder eines anderen bewegten Objekts beispielsweise eines Flugzeugs entsteht das Satellitenbild durch Aneinanderreihung der einzelnen Zeilen.
  • Im Modul 1 wird zunächst das Satellitenbild S auf bestimmte Bildeigenschaften untersucht. Eigenschaften sind beispielsweise der Albedo-Wert, d.h. das Verhältnis von reflektierter Strahlung zu Einstrahlung, Farb- oder Grauwerte und/oder texturelle Eigenschaften einer aufgenommenen Oberfläche. Ausgehend von Eigenschaften lassen sich Bildobjekte in Klassen einteilen, beispielsweise in Landnutzungsklassen wie Ackerbau, Nadelwald, etc. Bildanteile werden somit im nächsten Schritt gemäß ihrer Eigenschaften klassifiziert und Flächen gleicher Klassenzugehörigkeit gebildet. Für die Klassifikation wird ein geeigneter Klassifizierungsalgorithmus verwendet, durch welchen beispielsweise Gebiete mit stabilem Reflexionsverhalten, wie Wasserflächen, identifizierbar sind.
  • In Modul 2 erfolgt eine Identifikation von Objekten, wobei Objektränder Randverläufe der gebildeten Flächen sind und beispielsweise unter Verwendung eines Strukturanalysemodells eine numerische Charakterisierung eines Objekts aufgrund seines Strukturmaßes erfolgt. Die Objektrandverläufe ermöglichen eine Formbeschreibung der einzelnen Objekte. Die verschiedenen Objektformen sind eine Voraussetzung, um gleiche Objekte in Referenzbild und Satellitenbild zu ermitteln.
  • 2 illustriert schematisch, wie durch Klassifikation und geometrische Strukturanalyse ein Bild O ermittelt wird, dem einzelne Objektränder entnehmbar sind.
  • In Modul 3 werden für die aufgefundenen Objektränder Objektmittelpunkte berechnet, welche Position der Objekte wiedergeben. Das Satellitenbild S wird durch eine nicht oder nur teilweise bekannte Abbildungsfunktion auf ein Referenzbild entzerrt. Die Objektmittelpunkte sowie weitere markante Punkte der Objektgeometrie sind Passpunkte für eine Anpassung der Abbildungsfunktion.
  • In dem Modul 4 werden markante extrahierte Objekte gemäß Bild O jeweils einem Objekt des Referenzbildes R zugeordnet und/oder extrahierte Objekte identifiziert. Dabei ist zu beachten, dass Objekte verzerrt dargestellt sind und daher eine Zuordnung aufgrund von Objektflächenformen nur bedingt möglich ist. Die Zuordnung und/oder Identifikation erfolgt daher erfindungsgemäß zusätzlich durch Vektornetze, durch welche Objekte im Bild O sowie im Referenzbild R verknüpft werden. Zum Erzeugen eines Vektornetzes sind mindestens drei markante Objekte notwendig. Durch eine Analyse der geometrischen Ähnlichkeit der Vektornetze werden Objekte räumlich zugeordnet und/oder identifiziert.
  • 3 zeigt schematisch einen Ausschnitt aus einem Bild O sowie einem Referenzbild R. In dem Bild O sowie im Referenzbild R sind jeweils drei markante Objekten O1, O2, O3 und O1', O2', O3' aufgefunden, ihre Mittelpunkte als markante Objektpunkte identifiziert und als Passpunkte gewählt. Die Passpunkte sind jeweils über ein Vektornetz verbunden. Die Objekte O1, O2, O3 und das Vektornetz des Bildes O sind gegenüber dem Referenzbild verzerrt. Die Objekte O1, O2, O3 sind daher nicht direkt den Objekten O1', O2', O3' zuordenbar und somit identifizierbar. Durch eine Analyse der geometrischen Ähnlichkeit der Vektornetze werden Objekte O1, O2, O3 räumlich den Objekten O1', O2', O3' zugeordnet und dadurch identifiziert.
  • In Modul 5 wird zunächst eine Anpassung der nicht oder nur teilweise bekannten Abbildungsfunktion an die in den Modulen 1 bis 4 ermittelten Passpunkte durchgeführt. Der Anfangsparametersatz wird dabei aus den geometrischen Beziehungen der Objekte zueinander berechnet. Die Anpassung erfolgt durch eine Änderung der Parameter der Abbildungsfunktion.
  • 4 illustriert eine Bestimmung einer Abbildungsfunktion anhand geometrische Beziehungen. Bilder von der Erdoberfläche 22 werden mittels eines Satelliten 20 aufgenommen. Gesucht wird eine Abbildungsfunktion, durch welche die geometrischen Beziehungen von Objekten O1–O4 der Erdoberfläche zueinander möglichst exakt beibehalten werden
  • In Modul 6 werden weitere Passpunkte für eine Anpassung der Abbildungsfunktion generiert. Prinzipiell ist jeder Punkt, welcher sich in beiden Bildern eindeutig identifizieren lässt, als Passpunkt geeignet. Die potentiellen Passpunkte sind jedoch hinsichtlich ihrer Eignung unterschiedlich zu bewerten. Hierfür werden in Modul 6 Qualitätskennzahlen von Passpunktstrukturen ermittelt. Passpunktstrukturen sind Flächen mit N·N Pixel, welche um einen potentiellen Passpunkt liegen. Die Größe der Passpunktstrukturen ist ein Kompromiss zwischen dem idealen, dimensionslosen Pass-„Punkt" und einer wiedererkennbaren Bildstruktur. Geeignete Passpunktstrukturen sind beispielsweise 3×3 oder 5×5 Pixel. Die Qualitätskennzahlen ergeben sich aus Veränderlichkeit, Richtungskontrast und Ähnlichkeit. Die Veränderlichkeit einer Passpunktstruktur wird aus ihrer Klassenzugehörigkeit entsprechend Modul 1 abgeleitet. Eine hohe Veränderlichkeit wirkt sich dabei negativ auf die Qualitätsbewertung des Passpunktes aus. Um in einem nachfolgenden Verfahrensschritt die Position des Passpunktes mit einer hohen Genauigkeit zu ermitteln, ist ein großer Kontrast innerhalb der Passpunktstruktur von Vorteil. Einer Struktur mit großen Richtungskontrasten wird daher ein hohes Qualitätsmaß zugeordnet. Die Ähnlichkeit zwischen zwei Strukturen ist für einen Vergleich des projizierten Bildes mit dem Referenzbild sehr wichtig, da bei ungenügender Ähnlichkeit eine Positioniergenauigkeit stark absinkt. Das Qualitätsmaß ist daher proportional zur Ähnlichkeit. Jedem Passpunkt wird entsprechend seiner Qualitätskennzahl eine Wichtung zugeordnet. Passpunktstrukturen und dazugehörige Qualitätskennzahlen werden in einer Passpunkttabelle abgelegt.
  • Mit der größeren Passpunktzahl und deren Wichtung wird in Modul 7 erneut eine Anpassung der Parameter der Abbildungsfunktion durchgeführt, wodurch die Genauigkeit der Abbildungsfunktion verbessert wird.
  • 5 illustriert eine Wirkung der Anpassung von Parametern für eine verbesserte Bestimmung der Abbildungsfunktion. Die Abbildungsfunktion wird durch eine Vielzahl an Gegebenheiten zum Zeitpunkt einer Aufnahme bestimmt. So hat beispielsweise eine Ausrichtung des Satelliten 20 eine Auswirkung auf eine Abbildung der Erdoberfläche 22. Die Ausrichtung des Satelliten 20 sowie andere Gegebenheiten sind jedoch im Regelfall nur in Grenzen bekannt. Die Abbildungsfunktion wird durch eine Variation mindestens eines Parameters so angepasst, dass die Positionsfehler im Bild minimiert werden. Die Anpassung erfolgt, ohne dass die Ausrichtung des Satelliten 20 und/oder andere Gegebenheiten zum Zeitpunkt der Aufnahme bekannt sind.
  • Positionsrestfehlern, welche durch die verbesserte Abbildungsfunktion nicht vollständig vermieden werden, wird mit einer Ausgleichsrechnung in Modul 8 begegnet. Dabei wird angenommen, dass die Positionsrestfehler über kurze Distanzen keine starke Änderung aufweisen. Die Ausgleichsrechnung wird daher unter Einbeziehung der näheren Umgebung durchgeführt. Als Ergebnis der Ausgleichsrechnung wird in Modul 8 eine Fehlerkorrekturtabelle erstellt. Durch Interpolation der Fehlerkorrekturtabelle ist eine Fehlerkorrekturfunktion ermittelbar.
  • 6 verdeutlicht die Korrekturtabelle. Die Korrekturwerte sind durch Pfeile dargestellt. Einzelnen Objekten O6–O8 sind unterschiedliche Korrekturwerte zugeordnet, was durch unterschiedliche Pfeillänge illustriert wird.
  • In Modul 9 werden Eckkoordinaten der projizierten Bildelemente berechnet. Die Berechnung erfolgt unter Verwendung der ermittelten Abbildungsfunktion und der Fehlerkorrekturfunktion. Zum Schluss findet in Modul 10 ein Resampling mit den vorher berechneten projizierten Positionen statt.
  • 7 illustriert eine Entzerrung des Bildes anhand der ermittelten Abbildungsfunktion mit Fehlerkorrektur, wobei eine Bildstruktur B1 auf eine Referenzstruktur R1 projiziert wird.

Claims (16)

  1. Verfahren zur automatischen Entzerrung von Bildern, wobei mindestens ein Bild durch eine Abbildungsfunktion auf ein Referenzbild (R) entzerrt wird und Parameter der Abbildungsfunktion mindestens teilweise unbekannt sind, umfassend mindestens – eine Extraktion von mindestens drei Objekten (O1–O3) aus dem Bild (O), – eine Ermittlung von mindestens drei Passpunkten in dem Bild, wobei charakteristische Objektpunkte der extrahierten Objekte als Passpunkte ermittelt werden, – eine Zuordnung der Objekte (O1–O3) zu Objekten (O1'–O3') im Referenzbild, wobei eine Zuordnung von Objekten in beiden Bildern aufgrund einer Ähnlichkeit von Objekten und/oder eines Vektornetzes erfolgt und das Vektornetz durch eine Verbindung charakteristischer Objektpunkte gebildet wird, und – eine Auswahl einer geeigneten Abbildungsfunktion und/oder eine Anpassung der Parameter der Abbildungsfunktion, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart verändert wird, dass ein Fehlersummenminimum in Positionsdifferenzen zwischen projizierten Passpunkten und entsprechenden Punkten im Referenzbild erreicht wird.
  2. Verfahren nach Anspruch 1, umfassend eine Generierung von gewichteten Passpunkten, wobei um einen Passpunkt des Bildes und/oder des Referenzbildes eine Passpunktstruktur umfassend eine begrenzte Anzahl an Pixeln gebildet wird, die Passpunktstruktur durch die Abbildungsfunktion auf das jeweils andere Bild als Bildstruktur projiziert wird, um zu erkennen, ob auch dort eine entsprechende Bildstruktur ausreichender Qualität vorhanden ist, wobei eine Qualität der Passpunktstruktur mindestens durch Veränderlichkeit, Richtungskontrast und/oder Ähnlichkeit beschrieben ist und aufgrund der Qualität eine Wichtung der Passpunkte ermittelt wird.
  3. Verfahren nach Anspruch 2, umfassend eine Anpassung der Position des Passpunktes im Bild und/oder im Referenzbild, wobei für mindestens einen Kanal die Form einer Grauwertverteilung der Passpunktstruktur im Referenzbild und die Form einer Grauwertverteilung der Bildstruktur im Bild aufeinander abgestimmt werden, im Bild und/oder im Referenzbild mindestens eine Differenz zwischen Grauwerten zweier benachbarter Pixel der Passpunktstruktur und mindestens eine Differenz zwischen Grauwerten der entsprechenden Pixel der Bildstruktur gebildet wird und aus einem Unterschied der Differenzen ein Fehler abgeleitet wird, das unscharfe Strukturteil in das scharfe Strukturteil abgebildet wird, die Passpunktstruktur im Bild und/oder im Referenzbild in vertikaler und/oder horizontaler Richtung verschoben wird und für die neue Position der Fehler ermittelt wird.
  4. Verfahren nach Anspruch 2 oder 3, umfassend eine Anpassung der Parameter der Abbildungsfunktion und/oder eine Auswahl einer geeigneten Abbildungsfunktion, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart verändert wird, dass ein Fehlersummenminimum in Positionsdifferenzen zwischen projizierten Passpunkten und entsprechenden Passpunkten im Referenzbild unter Berücksichtigung der Wichtung der Passpunkte erreicht wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, umfassend eine Ausgleichsrechnung mittels einer Korrekturfunktion, wobei für mindestens zwei Passpunkte mindestens ein vertikaler und/oder ein horizontaler Korrekturwert bestimmt werden, welche die Positionsdifferenz zwischen dem projizierten Passpunkt und dem entsprechenden Passpunkt im Referenzbild angeben, und die Korrekturfunktion in Abhängigkeit der Korrekturwerte bestimmt wird.
  6. Verfahren nach Anspruch 5, umfassend eine Projektion von Eckkoordinaten eines Bildelementes auf Bildpositionen, wobei die Bildpositionen der Eckkoordinaten aufgrund der Abbildungsfunktion und der Korrekturfunktion ermittelt werden.
  7. Verfahren nach Anspruch 6, umfassend ein Resampling, wobei die Eckkoordinaten ein Vieleck, bevorzugt ein Viereck, aufspannen und die Grauwerte entsprechend der Flächenanteile aller in dem Vieleck liegenden Bildelemente in den resultierenden Grauwert eingehen.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Extraktion eine Klassifikation und/oder eine geometrische Strukturanalyse umfasst, wobei – in der Klassifikation die Eigenschaften des Bildes analysiert werden und Objekte und/oder Flächen gleicher Klassenzugehörigkeit gebildet werden und – in der geometrischen Strukturanalyse ein Randverlauf eines Objekts aus einem Randverlauf einer Fläche ermittelt wird und/oder eine numerische Charakterisierung der Objekte durch ein Strukturmaß erfolgt.
  9. Vorrichtung zur automatischen Entzerrung von Bildern, wobei mindestens ein Bild durch eine Abbildungsfunktion auf ein Referenzbild (R) entzerrbar ist und Parameter der Abbildungsfunktion mindestens teilweise unbekannt sind, umfassend mindestens – ein Modul (1, 2) für eine Extraktion von mindestens drei Objekten (O1– O3) aus dem Bild (O), – ein Modul (3) für eine Ermittlung von mindestens drei Passpunkten in dem Bild, wobei charakteristische Objektpunkte der extrahierten Objekte als Passpunkte ermittelbar sind, – ein Modul (4) für eine Zuordnung der Objekte (O1–O3) zu Objekten (O1'–O3') im Referenzbild, wobei eine Zuordnung von Objekten in beiden Bildern aufgrund einer Ähnlichkeit von Objekten und/oder eines Vektornetzes erfolgt und das Vektornetz durch eine Verbindung charakteristischer Objektpunkte bildbar ist, und – eine Auswahl einer geeigneten Abbildungsfunktion und/oder eine Anpassung der Parameter der Abbildungsfunktion, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart verändert wird, dass ein Fehlersummenminimum in Positionsdifferenzen zwischen projizierten Passpunkten und entsprechenden Punkten im Referenzbild erreicht wird.
  10. Vorrichtung nach Anspruch 9, umfassend ein Modul (6) für eine Generierung gewichteter Passpunkte, durch welches um einen Passpunkt des Bildes und/oder des Referenzbildes eine Passpunktstruktur umfassend eine begrenzte Anzahl an Pixel bildbar ist, die Passpunktstruktur durch die Abbildungsfunktion auf das jeweils andere Bild als Bildstruktur abbildbar ist, wobei eine Qualität der Passpunktstruktur mindestens durch Veränderlichkeit, Richtungskontrast und/oder Ähnlichkeit beschreibbar ist und aufgrund der Qualität eine Wichtung der Passpunkte ermittelbar ist.
  11. Vorrichtung nach Anspruch 10, umfassend ein Modul, durch welches eine Position des Passpunktes im Bild und/oder im Referenzbild anpassbar ist, wobei auf mindestens einem Kanal die Form einer Grauwertverteilung der Passpunktstruktur und der Bildstruktur aufeinander abstimmbar sind, mindestens eine Differenz zwischen Grauwerten zweier benachbarter Pixel der Passpunktstruktur und mindestens eine Differenz zwischen Grauwerten der entsprechenden Pixel der Bildstruktur bildbar ist und aus einem Unterschied der Differenzen ein Fehler ableitbar ist, wobei das unscharfe Strukturteil in das scharfe Strukturteil abgebildet wird, die Passpunktstruktur im Bild und/oder im Referenzbild in vertikaler und/oder horizontaler Richtung verschiebbar ist und für die neue Position der Fehler ermittelbar ist.
  12. Vorrichtung nach Anspruch 10 oder 11, umfassend ein Modul (7), durch welches die Parameter der Abbildungsfunktion anpassbar sind, wobei die Abbildungsfunktion durch eine Änderung der Parameter derart veränderbar ist, dass ein Fehlersummenminimum in den Positionsdifferenzen zwischen Passpunkten und zugehörigen projizierten Bildpunkten unter Berücksichtigung der Wichtung der Passpunkte minimiert wird.
  13. Vorrichtung nach einem der Ansprüche 9 bis 12, umfassend ein Modul (8), durch welches eine Ausgleichsrechnung durchführbar ist, wobei für jeden Passpunkt mindestens ein vertikaler und/oder ein horizontaler Korrekturwert bestimmbar ist, welcher die Abweichung des Wertes der Abbildungsfunktion vom Wert der Ausgleichsfunktion am Ort des Passpunktes wiedergibt.
  14. Vorrichtung nach einem der Ansprüche 9 bis 13, umfassend ein Modul (9), durch welches Eckkoordinaten eines Bildelementes auf Bildpositionen abbildbar sind, wobei die Bildpositionen der Eckkoordinaten aufgrund der Abbildungsfunktion und der Korrekturfunktion ermittelbar sind.
  15. Vorrichtung nach einem der Ansprüche 9 bis 14, umfassend ein Modul (10), durch welches ein Resampling durchführbar ist, wobei die Eckkoordinaten ein Vieleck, bevorzugt ein Viereck, aufspannen und die Grauwerte entsprechend der Flächenanteile aller in dem Vieleck liegenden Bildelemente den resultierenden Grauwert bestimmen.
  16. Vorrichtung nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass die Extraktion ein Modul (1) für eine Klassifikation und/oder ein Modul (2) für eine geometrische Strukturanalyse umfasst, wobei – in der Klassifikation die Eigenschaften des Bildes analysierbar sind und Objekte und/oder Flächen gleicher Klassenzugehörigkeit bildbar und – in der geometrischen Strukturanalyse ein Randverlauf eines Objekts aus einem Randverlauf einer Fläche ermittelbar ist und/oder eine numerische Charakterisierung eines Objekts durch ein Strukturmaß erfolgt.
DE10354752A 2002-11-25 2003-11-21 Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern Expired - Fee Related DE10354752B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10354752A DE10354752B4 (de) 2002-11-25 2003-11-21 Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10255557 2002-11-25
DE10255557.5 2002-11-25
DE10354752A DE10354752B4 (de) 2002-11-25 2003-11-21 Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern

Publications (2)

Publication Number Publication Date
DE10354752A1 true DE10354752A1 (de) 2004-08-19
DE10354752B4 DE10354752B4 (de) 2006-10-26

Family

ID=32730537

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10354752A Expired - Fee Related DE10354752B4 (de) 2002-11-25 2003-11-21 Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern

Country Status (2)

Country Link
US (1) US7356201B2 (de)
DE (1) DE10354752B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1637838A2 (de) 2004-09-15 2006-03-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verarbeitung von Fernerkundungsdaten
EP2418846A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
EP2418845A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmerlskörpern

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2424269A (en) * 2004-04-01 2006-09-20 Robert Michael Lipman Control apparatus
US8253797B1 (en) * 2007-03-05 2012-08-28 PureTech Systems Inc. Camera image georeferencing systems
IL181889A (en) 2007-03-13 2010-11-30 Israel Aerospace Ind Ltd Method and system for providing a known reference point for an airborne imaging platform
US8538195B2 (en) * 2007-09-17 2013-09-17 Raytheon Company Hyperspectral image dimension reduction system and method
US8260006B1 (en) * 2008-03-14 2012-09-04 Google Inc. System and method of aligning images
US20090268953A1 (en) * 2008-04-24 2009-10-29 Apteryx, Inc. Method for the automatic adjustment of image parameter settings in an imaging system
US8594375B1 (en) * 2010-05-20 2013-11-26 Digitalglobe, Inc. Advanced cloud cover assessment
US9031354B2 (en) 2011-03-31 2015-05-12 Raytheon Company System and method for post-detection artifact reduction and removal from images
US9064308B2 (en) 2011-04-13 2015-06-23 Raytheon Company System and method for residual analysis of images
US8675989B2 (en) 2011-04-13 2014-03-18 Raytheon Company Optimized orthonormal system and method for reducing dimensionality of hyperspectral images
US8842937B2 (en) * 2011-11-22 2014-09-23 Raytheon Company Spectral image dimensionality reduction system and method
US9035745B2 (en) 2012-02-01 2015-05-19 International Business Machines Corporation Biometric authentication
US8655091B2 (en) 2012-02-24 2014-02-18 Raytheon Company Basis vector spectral image compression
US9147265B2 (en) 2012-06-04 2015-09-29 Raytheon Company System and method for rapid cluster analysis of hyperspectral images
US8660360B1 (en) 2012-08-03 2014-02-25 Raytheon Company System and method for reduced incremental spectral clustering
US8805115B2 (en) 2012-11-02 2014-08-12 Raytheon Company Correction of variable offsets relying upon scene
US9552532B2 (en) * 2013-04-01 2017-01-24 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi System and method for describing image outlines
CN103604417B (zh) * 2013-11-15 2015-08-05 南京师范大学 物方信息约束的多视影像双向匹配策略
CN104318566B (zh) * 2014-10-24 2017-04-05 南京师范大学 可返回多个高程值的新型多视影像铅垂线轨迹匹配方法
CN105352481A (zh) * 2015-10-23 2016-02-24 武汉苍穹电子仪器有限公司 高精度无人机影像无控制点测绘成图方法及系统
US10192295B2 (en) * 2016-11-09 2019-01-29 AI Analysis, Inc. Methods and systems for normalizing images
EP3682193A4 (de) * 2017-09-13 2021-06-02 Project Concern International System und verfahren zur identifizierung und bewertung topografischer merkmale unter verwendung von satellitendaten
CN108022217B (zh) * 2017-11-26 2021-07-30 合肥赛为智能有限公司 一种空中拍摄形变调整方法
CN108428220B (zh) * 2018-03-05 2020-12-01 武汉大学 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
CN111780725B (zh) * 2020-05-29 2022-05-13 武汉理工大学 一种应用于机械结构摄影测量的同名点匹配方法
CN112053425B (zh) * 2020-09-29 2022-05-10 广州极飞科技股份有限公司 多光谱图像处理方法、装置及电子设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IE61778B1 (en) * 1989-01-04 1994-11-30 Emyville Enterprises Image processing
JPH03196372A (ja) * 1989-12-26 1991-08-27 Toshiba Corp 画像の位置合わせ装置
US5550937A (en) * 1992-11-23 1996-08-27 Harris Corporation Mechanism for registering digital images obtained from multiple sensors having diverse image collection geometries
CA2114986A1 (en) * 1993-02-08 1994-08-09 Robert T. Frankot Automatic subarea selection for image registration
US5631970A (en) * 1993-05-21 1997-05-20 Hsu; Shin-Yi Process for identifying simple and complex objects from fused images and map data
US5719949A (en) * 1994-10-31 1998-02-17 Earth Satellite Corporation Process and apparatus for cross-correlating digital imagery
JP3622094B2 (ja) * 1995-10-05 2005-02-23 株式会社日立製作所 地図更新支援装置および地図情報の編集方法
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6064760A (en) * 1997-05-14 2000-05-16 The United States Corps Of Engineers As Represented By The Secretary Of The Army Method for rigorous reshaping of stereo imagery with digital photogrammetric workstation
US6445399B1 (en) * 1998-01-20 2002-09-03 Rafael - Armament Development Authority Ltd. System and method of visual orientation
US6681056B1 (en) * 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1637838A2 (de) 2004-09-15 2006-03-22 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verarbeitung von Fernerkundungsdaten
US7246040B2 (en) 2004-09-15 2007-07-17 Deutsches Zentrum für Luft- und Raumfahrt e.V. Process of remote sensing data
EP2418846A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
EP2418845A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmerlskörpern
DE102010034319A1 (de) 2010-08-12 2012-02-16 Jena-Optronik Gmbh Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
DE102010034318A1 (de) 2010-08-12 2012-02-16 Jena-Optronik Gmbh Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
US8860951B2 (en) 2010-08-12 2014-10-14 Jena-Optronik Gmbh Method and apparatus for the radiometric measurement of object points on surfaces of astronomical bodies
US8886484B2 (en) 2010-08-12 2014-11-11 Jena-Optronik Gmbh Method and apparatus for the corrected radiometric measurement of object points on surfaces of astronomical bodies

Also Published As

Publication number Publication date
US7356201B2 (en) 2008-04-08
US20040208396A1 (en) 2004-10-21
DE10354752B4 (de) 2006-10-26

Similar Documents

Publication Publication Date Title
DE10354752B4 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
DE60023447T2 (de) Verfahren zur berechnung der lage und ausrichtung eines objektes im dreidimensionalen raum
DE69530367T2 (de) Kontrolle eines Mikroskopprobenträgers
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE69915901T2 (de) Bildverarbeitungsgerät
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
DE112016004540T5 (de) Kamerakalibrierung unter Verwendung von synthetischen Bildern
DE102009023896A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
EP1637838A2 (de) Verarbeitung von Fernerkundungsdaten
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE102004049676A1 (de) Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
DE19924077A1 (de) Bildregistrierungs-Verfahren, Bildregistrierungs-Vorrichtung und Aufzeichnungsmedium
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE69829091T2 (de) Messungsgerät
DE69818584T2 (de) Methode zur Gewinnung radialer Verzerrungsparameter aus einem einzigen Kamerabild
DE102019133685A1 (de) Informationsverarbeitungssystem und -verfahren
DE19902401A1 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE19951146A1 (de) Verfahren zum Reduzieren des Rauschens in einem durch Abbildung erhaltenen Signal
DE102020126610A1 (de) Mikroskopiesystem und verfahren zum erzeugen von trainingsdaten
DE102014219423B4 (de) Dynamisches Modell zur Kompensation von Verzeichnungen einer Windschutzscheibe
DE102019105293A1 (de) Schätzung der Bewegung einer Bildposition

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

8127 New person/name/address of the applicant

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee