DE102008030727A1 - Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente - Google Patents

Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente Download PDF

Info

Publication number
DE102008030727A1
DE102008030727A1 DE102008030727A DE102008030727A DE102008030727A1 DE 102008030727 A1 DE102008030727 A1 DE 102008030727A1 DE 102008030727 A DE102008030727 A DE 102008030727A DE 102008030727 A DE102008030727 A DE 102008030727A DE 102008030727 A1 DE102008030727 A1 DE 102008030727A1
Authority
DE
Germany
Prior art keywords
sensor
image
pixels
celestial body
sensor elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008030727A
Other languages
English (en)
Inventor
Holger Dr. Fritsch
Burkart Prof. Dr. Voss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jena Optronik GmbH
Original Assignee
Jena Optronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jena Optronik GmbH filed Critical Jena Optronik GmbH
Priority to DE102008030727A priority Critical patent/DE102008030727A1/de
Priority to EP09163811.4A priority patent/EP2139223A3/de
Publication of DE102008030727A1 publication Critical patent/DE102008030727A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Aufnahme mehrerer verschiedener oder gleichartiger optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern. Die Aufgabe, eine neue Möglichkeit zur Aufnahme mehrerer verschiedener oder gleichartiger optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern zu finden, die einen hohen Grad der Übereinstimmung der Modulationsübertragungsfunktion der optischen Kanäle (Co-Registrierung) ohne digitale Bildnachbearbeitung gestattet, wird erfindungsgemäß gelöst, indem Abbildungsverzerrungen infolge der Oberflächenkrümmung, der Rotationsbewegung des Himmelskörpers und/oder der Flugbewegung des beobachtenden Instruments bereits im Prozess der Bildaufnahme minimiert werden. Dabei können sowohl statische Effekte infolge der Erdkrümmung als auch dynamische Effekte infolge der Rotation des Himmelskörpers sowie der Flugbewegung des Instruments besonders flexibel durch dynamisch angepasstes Zusammenfassen von hinreichend kleinen Sensorelementen zu unterschiedlichen effektiven Pixeln (sog. Binning) für die Co-Registrierung in einem Schritt minimiert werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente, bei dem ein Bildsensor eine Vielzahl von Bildpunkten aus einem zweidimensionalen Abtastbereiches beim Überfliegen der Oberfläche des Himmelskörpers aufnimmt und durch wiederholte Abtastung derselben Objektpixel, die durch die Flugbewegung sukzessive auf verschiedenen Sensorelementen zu liegen kommen, eine Bildanalyse nach Überlagerung unterschiedlicher Pixeldaten für gleiche von der Oberfläche des Himmelskörpers aufgenommene Objektpixel ermöglicht. Das Verfahren ist insbesondere für den Einsatz in sogenannten Pushbroom-Scannern konzipiert, bietet sich jedoch auch für die Anwendung bei Whiskbroom-Scannern an.
  • Viele Aufgaben der Fernerkundung von Himmelskörpern lassen sich nur lösen, indem ein- und dasselbe Objektpixel in mehreren Spektralkanälen und gegebenenfalls bei unterschiedlicher Polarisationsrichtung aufgenommen wird. Dabei ist es essenziell wichtig, dass die in unterschiedlichen Wellenlängen und gegebenenfalls bei unterschiedlicher Polarisationsrichtung aufgenommenen Pixel vor der weiteren Verarbeitung exakt übereinander gelegt werden. Ziel ist es also, die Punkt-Verwaschungs-Funktionen (PSF – Point Spread Functions) der einzelnen Aufnahmen zu einem möglichst großen Prozentsatz zur Deckung zu bringen. Die Überlagerung wird als Co-Registrierung bezeichnet, die eine bestimmte Güte der Überdeckung der PSFs von einzelnen Aufnahmen ein- und desselben Zielbereiches aufweisen muss.
  • Werden die einzelnen aufzunehmenden Wellenlängen bzw. gegebenenfalls unterschiedlichen Polarisationsrichtungen nicht über Strahlteiler oder dispersive Elemente spektral getrennt, sondern durch einzelne direkt den Detektoren (z. B. Sensorelementen eines Sensorarrays) vorgelagerte Filter, so erfolgen die Aufnahmen ein- und desselben Objektpixels zeitlich versetzt. Dadurch führen Bildaufnahmen in verschiedenen optischen Kanälen (z. B. mit unterschiedlichen Wellenlängen oder Polarisationsrichtungen) zu Aufnahmen unter verschiedenen Blickwinkeln, die räumlich überlagert werden müssen.
  • Durch unterschiedliche Blickwinkel treten bei der Beobachtung von Himmelskörpern Verzerrungseffekte auf. Diese Verzerrungseffekte sind bei Pushbroom- und Whiskbroom-Scannern unterschiedlicher Natur und Ausprägung, wie z. B. von Floyd F. SABINS in: Remote Sensing: Principles and Interpretations. W. H. Freeman, 1996 beschrieben. Die Verzerrungseffekte führen bei konstanter Größe der Sensorelemente in der Sensorebene zu unterschiedlich großen Objektpixeln, die bei der Projektion von der Oberfläche des Himmelskörpers erfasst werden, und damit zu unterschiedlichen PSFs. Bereits durch die unterschiedliche Größe der PSFs ergibt sich zwangsläufig eine schlechte Co-Registrierung der einzelnen zu überlagernden Aufnahmen. Diese Unterschiede der PSFs erzeugen eine Missregistrierung, die mit der Größe des Abtastfeldes des Sensorarrays ansteigt.
  • Erfolgt die Bildaufnahme in äquidistanten Zeitschritten, ergibt sich durch die Aufsummierung der vergrößerten Pixel zum Rand des Gesichtsfeldes des Abtastbereiches des Sensorarrys hin zusätzlich eine zunehmende Verschiebung der Zentralpunkte der PSFs. Dadurch verschlechtert sich die Qualität der Co-Registrierung infolge der verschieden großen Aufnahmen ein und desselben Objektpixels. Dieser Effekt ist schematisch in 2 am Beispiel der gekrümmten Erdoberfläche und des Abtastfeldes eines Sensorarrays innerhalb eines Erdbeobachtungsinstrumentes mit Pushbroom-Scanner (in Flugrichtung) skizziert.
  • Aufgrund der beschriebenen Verzerrungseffekte werden die Objektpixel zum Rand des Gesichtsfeldes des optischen Instruments hin größer. Das ist ein bislang übliches Phänomen bei Erdbeobachtungsinstrumenten mit großer Abtastweite quer und/oder längs zur Flugrichtung (Schadweite), wie von F. F. SABINS (a. a. O) festgestellt.
  • Unabhängig davon gibt es als weiteren Grund für eine schlechte Co-Registrierung die relative Bewegung zwischen Bildsensormatrix und Zielbereich der Abtastung während der Gesamtzeit der mehrkanaligen Bildaufnahme aufgrund der Erdrotation. Diese zusätzliche Relativbewegung kann durch äquidistantes Abtasten nicht ausgeglichen werden. Sie ist abhängig vom gewählten Orbit sowie von der Position des Beobachtungsinstrumentes auf dem Orbit und somit in der Regel zeitlich variabel.
  • Einen ähnlich negativen Effekt hat bei Pushbroom-Scannern eine fehlerhafte Ausrichtung der Sensormatrix, bei der die Spalten nicht parallel zur Satellitenbewegung (Flugrichtung) sind. Bei Wiskbroom-Scannern trifft dies auf eine fehlerhafte Ausrichtung der durch rotatorischen Scanbewegung erzeugten Zeilen zu. Diese Fehlausrichtungen führen wiederum zu einer Relativbewegung zwischen den einzelnen Sensorelementen, die nicht durch äquidistantes Abtasten ausgeglichen werden kann.
  • Um die Aufnahmeprobleme (Probleme der Co-Registrierung) zu umgehen, ist im Stand der Technik eine digitale Bildnachbearbeitung vor der Co-Registrierung zum Beispiel durch sogenanntes Resampling (siehe z. B. A. THEILER et al.: „Automated Coregistration of MTI Spectral Bands", Proc. SPIE 4725, (2002) oder E. GALBRAITH et al.: "Resampling methods for the MTI coregistration product", Proceedings of SPIE Vol. 5093) bekannt geworden. Ferner sind die Verwendung von Wiener-Filtern (Y. YITZHAKY, et al.: „Direct method for restoration of motion-blurred images", J. Opt. Soc. Am. A, Vol. 15, No. 6, June 1998) oder die Anwendung der Newton-Raphson-Methode (J. MATAS et al., „Learning Efficient Linear Predictors for Motion Estimation", Proceedings of 5th Indian Conference an Computer Vision, Graphics and Image Processing Madurai, India, 2006, Springer-Verlag, pp. 445–456, ISBN: 978-3-540-68301-8) bekannt geworden. Diese Techniken verbessern jedoch nur unzureichend die Qualität der dann co-registrierten Abbildung.
  • Der Erfindung liegt die Aufgabe zugrunde, eine neue Möglichkeit zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente für eine Bildanalyse nach Überlagerung der sukzessive von der Oberfläche des Himmelskörpers aufgenommene Objektpixel zu finden, die einen hohen Grad der Übereinstimmung der Co-Registrierung der Aufnahmen von gleichen, mittels unterschiedlicher Sensorpixel aufgenommener Objektpixel ohne digitale Bildnachbearbeitung erzielt.
  • Erfindungsgemäß wird die Aufgabe bei einem Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente, bei dem ein Bildsensor eine Vielzahl von Bildpunkten (Objektpixeln) aus einem zweidimensionalen Abtastbereiches beim Überfliegen der Oberfläche des Himmelskörpers aufnimmt und durch wiederholte Abtastung derselben Objektpixel, die durch die Flugbewegung sukzessive auf verschiedenen Sensorelementen zu liegen kommen, eine Bildanalyse nach Überlagerung unterschiedlicher Pixeldaten für gleiche von der Oberfläche des Himmelskörpers aufgenommene Objektpixel ermöglicht, dadurch gelöst, dass Abbildungsverzerrungen infolge der Oberflächenkrümmung, der Rotationsbewegung des Himmelskörpers und/oder der Flugbewegung des beobachtenden Instruments bereits im Prozess der Bildaufnahme minimiert werden.
  • Vorteilhaft wird eine statische Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch eine von der Mitte zum Randbereich des auf den Bildsensor projizierten Abtastbereiches hin verkleinerte Pixelfläche der Sensorpixel mit radial gestauchter Pixelfläche korrigiert.
  • Zweckmäßig werden dabei die Bilddaten mittels eines Bildsensors aufgenommen, der von der Mitte zum Randbereich hin abnehmende sensitive Flächengrößen der Sensorelemente aufweist.
  • Als eine weitere Möglichkeit können die Bilddaten mittels eines hochauflösenden Bildsensors, der gleichgroße sensitive Flächen der Sensorelemente aufweist, derart aufgenommen werden, dass die Sensorelemente zu unterschiedlich großen effektiven Sensorpixeln zusammengefasst werden, wobei zur Erzeugung der effektiven Sensorpixel von der Mitte zum Randbereich des Bildsensors hin weniger Sensorelemente zusammengefasst werden.
  • Dazu können die effektiven Sensorpixel vorteilhaft als unterschiedlich große Sensorelementbereiche durch hardwaregestütztes Zusammenfassen von benachbarten Sensorelementen gebildet werden, wobei die Korrektur einer statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch Zusammenschaltung der Signalausgänge einer geringeren Anzahl von Sensorelementen im Randbereich des auf den Bildsensor projizierten Abtastbereiches gegenüber der Anzahl von Sensorelementen in der Mitte des Bildsensors zu kleineren effektiven Sensorpixeln mit radial gestauchter Pixelfläche erreicht wird.
  • Die effektiven Sensorpixel können aber auch als unterschiedlich große Sensorelementbereiche durch softwaregestütztes Zusammenfassen von benachbarten Sensorelementen gebildet werden, wobei die Korrektur einer statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch Zusammenfassen der Signaldaten einer geringeren Anzahl von Sensorelementen im Randbereich des auf den Bildsensor projizierten Abtastbereiches gegenüber der Anzahl von Sensorelementen in der Mitte des Bildsensors zu kleineren effektiven Sensorpixeln mit radial gestauchter Pixelfläche erreicht wird.
  • Eine statische Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers kann aber auch einfach durch optische Entzerrung mittels einer Optik mit entgegengesetzt zur Objektfeldkrümmung verzerrter Abbildung korrigiert werden, wobei der Bildsensor gleichgroße metrische Sensorelemente aufweist.
  • Zusätzlich zu einer auf beliebige Art korrigierten statischen Abbildungsverzerrung erfolgt eine Korrektur von dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers vorzugsweise durch softwaregestütztes zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln derart, dass die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  • Die zusätzliche Korrektur von dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers kann aber auch hardwaregestützt durch zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln derart erfolgen, dass die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  • In beiden vorgenannten Fällen werden dynamische Verzerrungseffekte infolge einer der Flugbewegung überlagerten Rotationsbewegung des um seine Achse rotierenden Himmelskörpers durch zeitlich veränderliches Zusammenfassen der effektiven Sensorpixel berücksichtigt werden, wobei das zeitlich veränderliche Zusammenfassen von benachbarten Sensorelementen in Abhängigkeit vom Abstand des Beobachtungsfeldes auf der Oberfläche des Himmelskörpers zur Drehachse desselben erfolgt.
  • Dynamische Verzerrungseffekte infolge der Flugbewegung des Beobachtungsinstruments über der Oberfläche des Himmelskörpers werden vorteilhaft durch eine zeitlich variable Abtastrate der effektiven Sensorpixel berücksichtigt, wobei die zeitlich veränderliche Abtastrate in Abhängigkeit vom Abstand des Beobachtungsfeldes des Himmelskörpers zur Rotationsachse desselben erfolgt.
  • Es erweist sich als besonders vorteilhaft, dass sowohl die Korrektur der statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche als auch der dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers durch zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln erfolgen, wobei die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  • Dabei können dynamische Abbildungsverzerrungen aufgrund der Flugbewegung des Beobachtungsinstruments gegenüber der Oberfläche des Himmelskörpers zusätzlich durch eine zeitlich variable Abtastrate der effektiven Sensorpixel berücksichtigt werden, wobei die zeitlich veränderliche Abtastrate in Abhängigkeit vom Abstand des Beobachtungsfeldes des Himmelskörpers zur Drehachse desselben erfolgt.
  • Die vorstehend beschriebenen Abläufe des erfindungsgemäßen Verfahrens werden vorteilhaft zur Bildaufnahme spektral oder polarisationsoptisch unterschiedlicher optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern verwendet, wobei der Bildsensor eine Vielzahl von Objektpunkten aus einem zweidimensionalen Abtastfeld der Oberfläche des Himmelskörpers durch wiederholte Abtastung derselben Objektpunkte infolge der Flugbewegung sukzessive mit Sensorelementen von verschiedenen optischen Kanälen aufnimmt und ohne weitere Korrektur eine Überlagerung der Bilddaten unterschiedlicher optischer Kanäle zur mehrkanaligen Bildanalyse ermöglicht.
  • Die oben beschriebenen Verfahrensschritte können aber auch zweckmäßig zur Bildaufnahme gleichartiger optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern verwendet werden, wobei der Bildsensor eine Vielzahl von Objektpunkten aus einem zweidimensionalen Abtastfeld der Oberfläche des Himmelskörpers durch wiederholte Abtastung derselben Objektpunkte infolge der Flugbewegung sukzessive mit Sensorelementen von gleichartigen optischen Kanälen aufnimmt und ohne weitere Korrektur eine Überlagerung der Bilddaten zur Bilddatenverbesserung nach dem TDI-Verfahren (Time-Delay-Integration-Verfahren) ermöglicht.
  • Die grundlegende Idee der Erfindung basiert auf der Überlegung, dass digitale Bildnachbearbeitungen (Georeferenzierung, Resampling, Auflösungsanpassung) die bekannten Abtastfehler zwar teilweise kompensieren kann, jedoch prinzipbedingt gleichzeitig zu Verfälschungen der Bildinformationen führt. Deshalb verfolgt die Erfindung den Weg der Verminderung von Abtastfehlern bereits bei der Bildaufnahme durch den Scanner.
  • Eine erste Möglichkeit, die oben beschriebenen statischen Effekte der fehlerhaften Abtastung infolge der Erdkrümmung bei der Co-Registrierung zu berücksichtigen, ist die Anpassung der effektiven Größe der Sensorelemente an die statische Abbildungsverzerrung. Das kann zum einen durch unterschiedlich große Sensorelemente als adaptierte Sensorhardware realisiert werden (siehe 3) oder zum anderen durch softwaregestütztes Zusammenfassen von unterschiedlichen, hinreichend kleinen Sensorelementen. Letztere softwaregestützte Zusammenschaltung von Sensorelementen zu größeren effektiven Sensorpixeln ist z. B. in der Astronomie für Sternaufnahmen unter dem Begriff „Binning” bekannt geworden, um eine Anpassung der Sensorauflösung an die Teleskopauflösung zu erreichen.
  • Für die vorliegende Erfindung wird davon in neuem Sinne Gebrauch gemacht, indem kleine Sensorelemente als Subpixel zu adaptierten größeren effektiven Sensorpixeln zusammengefasst werden, so dass einheitliche abbildungs- und bewegungskonforme Objektpixel auf der Oberfläche des Himmelskörpers (siehe 2) auch bei unterschiedlichen Blickwinkeln entstehen. Damit werden die PSFs örtlich oder zeitlich auseinanderliegender Objektpixel bereits bei der Abtastung in Übereinstimmung gebracht. (direkte Co-Registrierung). Eine fehlerhafte Ausrichtung der Sensormatrix kann somit durch entsprechende Berücksichtigung der Pixelgrößen und -lagen durch adaptives Binning ausgeglichen werden.
  • Eine zweite Möglichkeit, die oben beschriebenen Fehlereffekte bei der Co-Registrierung zu korrigieren, sind Anpassungen der Optik dergestalt, dass eine verzerrt abbildende Optik in Abhängigkeit vom Blickwinkel gerade die Verzerrung aufgrund des Abtastprinzips und der Form des Himmelskörpers unter demselben Blickwinkel aufhebt. Dies ist besonders vorteilhaft bei Pushbroom-Scannern, da sich hier durch Anpassung einer alleinigen und feststehenden Optik das gesamte Gesichtsfeld des Sensorarrays erfindungsgemäß korrigieren lässt (siehe 4). Im Ergebnis einer solchen Korrektur ergibt sich ein Bild mit konstanter Pixelgröße unabhängig vom Blickwinkel schon bei der Aufnahme, so dass die direkte Co-Registrierung unter Vernachlässigung der Effekte der Erdrotation ermöglicht wird.
  • Eine dritte erfindungsgemäße Möglichkeit ergibt sich durch Anwendung eines dynamischen (adaptierten) Binnings auf zeitlich variabel auftretende dynamische Verzerrungseffekte infolge der Erdrotation. Diese können durch ein dynamisch angepasstes Zusammenfassen von hinreichend kleinen Sensorelementen (Subpixeln) zu effektiven Sensorpixeln erreicht werden. Die zeitliche Variabilität ergibt sich aus der räumlichen Variation der Rotationskomponente, gesehen aus dem Orbit des Satelliten, der das Beobachtungsinstrument trägt.
  • Mit der erfindungsgemäßen Lösung ist es möglich, eine Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente für eine Bildanalyse nach Überlagerung der sukzessive von der Oberfläche des Himmelskörpers aufgenommene Objektpixel zu realisieren, die einen hohen Grad der Übereinstimmung der Co-Registrierung der Aufnahmen von gleichen, mittels unterschiedlicher Sensorpixel aufgenommener Objektpixel ohne digitale Bildnachbearbeitung erzielt. Damit wird die Aufnahme mehrerer verschiedener oder gleichartiger optischer Kanäle derart ermöglicht, dass die PSFs der optischen Kanäle (Co-Registrierung) in hohem Grade in Übereinstimmung gebracht werden, ohne dass eine digitale Bildnachbearbeitung erforderlich wird. Damit können die Probleme und Fehlerquellen eines nachträglichen Resamplings von vornherein ausgeschlossen werden.
  • Die Erfindung soll nachstehend anhand von Ausführungsbeispielen näher erläutert werden. Die Zeichnungen zeigen:
  • 1: eine Prinzipansicht der erfindungsgemäßen Zusammenfassung von Sensorelementen zu effektiven Sensorpixeln (Binning zur Kompensation statischer örtlicher Verzerrung der Objektabbildung),
  • 2: eine Prinzipdarstellung der räumlichen Verzerrung der optischen Abbildung infolge der gekrümmten Oberfläche eines Himmelskörpers beim Überfliegen mit einem Beobachtungsinstrument auf einer Umlaufbahn,
  • 3: eine Prinzipdarstellung des Pixelrasters der Sensorpixel zur Kompensation der statischen Verzerrung,
  • 4: ein Korrekturschema für die Kompensation der statischen Verzerrung der optischen Abbildung durch Einsatz einer entzerrenden Optik,
  • 5: eine Veranschaulichung der Missregistrierungseffekte bei 90°-Inklination der Orbitalebene des Satelliten zum Äquator und Berücksichtigung der Erdrotation beim Überfliegen des Äquators mit Darstellungen von zwei effektiven Pixeln mit unterschiedlicher spektraler Empfindlichkeit über dem Äquator a) zum Zeitpunkt t0 und b) zum Zeitpunkt t1 ohne Korrektur und c) zum Zeitpunkt t1 mit Korrektur,
  • 6 eine Veranschaulichung des dynamischen Binnings für einen Sechserblock von spektral unterschiedlichen effektiven Pixeln beim Überfliegen des Äquators in nördlicher Richtung mit Darstellung der adaptierten Änderung der dynamischen Binning-Restriktionen je nach Breitengrad (d. h. je nach Rotationsgeschwindigkeit des beobachteten Bodenpunktes auf der Erdoberfläche).
  • Das Verfahren gemäß der Erfindung macht von einem Zusammenfassen von benachbarten, hinreichend kleinen Sensorelementen 11 Gebrauch, um statische Abbildungsfehler (Verzerrungen) infolge der Oberflächenkrümmung eines beobachteten Himmelskörpers (z. B. eines Planeten, wie der Erde) gleich bei der Bildaufnahme zu kompensieren. Die Zusammenschaltung von Sensorelementen 11 eines hochauflösenden Sensorarrays 1 zu größeren Pixeln wird nachfolgend als „Binning” bezeichnet, wobei einzelne Sensorelemente 11 die Subpixel von den zur Verzerrungskorrektur zusammengefassten effektiven Sensorpixel 12 unter dem Gesichtspunkt der Schaffung von real und äquidistant abgetasteten Objektpixeln auf der Oberfläche 3 des beobachteten Himmelskörpers darstellen.
  • Eine räumliche Aufteilung der zusammengefassten effektiven Sensorpixel 12 zeigt 1. Dabei werden die Flächen der effektiven Sensorpixel 12 zum Rand des Gesichtsfeldes Sensorarrays 1 (sensor field of view) hin kleiner (d. h. gestaucht). Das kann zum einen durch unterschiedlich große Sensorbereiche als adaptierte Sensorhardware des Sensorarrays 1 realisiert werden, wie sie als größenadaptierte Pixelstruktur auf der Sensorfläche in 3 schematisch dargestellt ist.
  • Für die vorliegende Erfindung wird vom an sich bekannten Binning in dem Sinne Gebrauch gemacht, dass möglichst kleine Sensorelemente 11 als Subpixel in adaptierten größeren effektiven Sensorpixeln 12 derart zusammengefasst werden, dass abbildungs- und bewegungskonform einheitliche Objektpixel auf der Oberfläche des Himmelskörpers auch bei unterschiedlichen Blickwinkeln (siehe 2) abgetastet werden, um damit die Punkt-Verwaschungs-Funktionen (PSFs) räumlich oder zeitlich auseinanderliegender Objektpixel bereits bei der Abtastung in Übereinstimmung zu bringen (direkte Co-Registrierung). Eine fehlerhafte Ausrichtung des Sensorarrays 1 kann somit durch entsprechende Berücksichtigung der Pixelgrößen und -lagen gemäß 1 sowie durch adaptives Binning zum Ausgleich überlagerter Bewegungen (Fluggeschwindigkeit vfl und Rotationsgeschwindigkeit vrot) gemäß 5a–c und 6 ausgeglichen werden.
  • Eine zweite Möglichkeit, die oben beschriebenen statischen Fehlereffekte bei der Co-Registrierung zu korrigieren, sind Anpassungen der Optik dergestalt, dass eine verzerrt abbildende Optik in Abhängigkeit vom Blickwinkel gerade die Verzerrung aufgrund des Abtastprinzips und der Form des Himmelskörpers aufhebt. Dies ist besonders vorteilhaft bei Pushbroom-Scannern, da sich hier durch Anpassung einer einzigen und in der Regel feststehenden Optik das gesamte Gesichtsfeld des optischen Instruments erfindungsgemäß korrigieren lässt. Der Zusammenhang zwischen den einzelnen Korrekturfunktionen ist in 4 schematisch skizziert. Die Korrekturen müssen dazu führen, dass die abbildende Optik die Objektpixel auf der gekrümmten Oberfläche des Himmelskörpers im Randbereich in analoger Weise zur Pixeldarstellung von 3 komprimiert.
  • In 4 sind die für die relative Größenänderung eines Objektpixels (auf der Oberfläche des Himmelskörpers) innerhalb der Abtastweite des Instruments (Schwadweite) relevanten Einflussfaktoren skizziert. Zum einen ist dies der Einfluss der Erdkrümmung der zu einer Vergrößerung der tatsächlichen Bodenpixel führt (effect introduced by earth curvature). Unabhängig davon führen die Verzerrungseigenschaften der eingesetzten Optik zu einer diesen Verzerrungseigenschaften entsprechenden relativen Größenänderung (effect introduced by optics distortion). Beide Effekte überlagern sich. Erfindungsgemäßes Ziel ist es, eine Aufhebung der Überlagerung beider Effekte herbeizuführen, so dass im Ergebnis keine relative Größenänderung innerhalb der Schwadweite auftritt (Sum of counteracting effects).
  • Eine dritte Möglichkeit ergibt sich durch Anwendung eines Binnings auf dynamische Verzerrungseffekte infolge der Rotation des beobachteten Himmelskörpers. Hier soll im Folgenden – ohne Beschränkung der Allgemeinheit – zur Vereinfachung von der Erdrotation gesprochen werden.
  • Die dynamischen Verzerrungseffekte können durch ein dynamisches Binning (angepasstes, zeitlich variierendes Zusammenfassen) von hinreichend kleinen Sensorelementen (Subpixeln) zu in Rotationsrichtung versetzten Anordnungen von effektiven Sensorpixeln erreicht werden. Die zeitliche Variabilität ergibt sich aus der räumlichen Variation der Rotationskomponente, wie in 6 dargestellt und betrachtet aus dem Orbit des Satelliten, der das Beobachtungsinstrument 2 (nur in 2 gezeichnet) trägt.
  • Grundsätzlich ergäbe sich dadurch die Möglichkeit, allein durch zeitlich variables Binning das Problem der Co-Registrierung vollständig zu lösen. In der Praxis sind jedoch die dahingehenden Möglichkeiten durch die endliche Größe der Subpixel (Sensorelemente) begrenzt.
  • Bei einem beispielhaft gewählten Orbit von 90°-Inklination (Satellit fliegt genau von Süden nach Norden über den Äquator) und einem Pushbroom-Scanner gibt es folgende Bewegungsvektoren:
    Die Flugbewegung des Satelliten und damit eine projizierte Bewegung des abzubildenden Objektes über der Sensorebene. Die Geschwindigkeit vfl dieser projizierten Bewegung kann in erster Näherung als konstant angenommen werden. Die maximal möglichen Integrationszeiten werden durch diese Geschwindigkeit vorgegeben.
  • Bei dem beispielhaft gewählten Orbit mit 90°-Inklination ist die projizierte Bewegung aufgrund der Erdrotation orthogonal zur Geschwindigkeit vfl. Die Geschwindigkeit vrot der projizierten Erdrotation ist nicht konstant, da die Oberflächengeschwindigkeit eines mit konstanter Winkelgeschwindigkeit rotierenden Himmelskörpers von dem Abstand der Oberfläche zur Rotationsachse abhängt. Am Äquator ist diese Geschwindigkeit am größten, in Polnähe am kleinsten.
  • Für eine fehlerfreie Co-Registrierung müssen beide Bewegungen berücksichtigt werden:
    Die für einen Orbit nahezu konstante Flugbewegung mit der Geschwindigkeit vfl wird durch die Wahl des Abtastzeitpunktes berücksichtigt, indem die Zeit zwischen zwei Abtastzeitpunkten beispielsweise so gewählt wird, das sich in dieser Zeit ein Satellitenpunkt um genau einen Pixel weiterbewegt hat (siehe 5a–c).
  • Die nicht konstante Bewegung mit der Geschwindigkeit vrot wird durch ein dem Orbit angepasstes dynamisches Binning korrigiert, indem das effektive Objektpixel der zweiten Aufnahme, das mit einem effektiven Objektpixel einer vorhergehenden Aufnahme überlagert werden soll, entsprechend verschoben auf der Sensormatrix definiert wird. Der Betrag dieser Verschiebung ist abhängig von der Rotationsgeschwindigkeit vrot des Oberflächenpunktes des Himmelskörpers und damit vom Breitengrad des beobachteten Gebietes.
  • 5a bis 5c erläutern das bis jetzt gesagte für ein effektives Pixel 12, das in Äquatornähe erfasst wurde. Zum Zeitpunkt t0 sollen zwei Pixel 14 und 15 mit unterschiedlicher spektraler Empfindlichkeit (unterschiedlicher zugeordneter Wellenlängenlängenbereich λ1 und λ2) aufgenommen worden sein.
  • Zum Zeitpunkt t1 (nach einer ersten Integrationszeit, der Satellit ist um die Länge eines effektiven Pixels 12 weitergeflogen) würde sich der Zustand gemäß 5b ergeben. Das effektive Pixel 14 der Wellenlänge λ1, das zum Zeitpunkt t0 aufgenommen wurde, ist infolge der Rotationsbewegung der Erde zu den effektiven Pixeln 16 und 17 der Wellenlängen λ1 und λ2 um den Bruchteil einer Pixellänge in östlicher Richtung vorangekommen, so dass das effektive Pixel 17 der Wellenlänge λ2 infolge der Flugbewegung des Satelliten (90°-Richtung zum Äquator und betragsmäßig eine Kantenlänge eines effektiven Pixels 12) zum eigentlichen Zweck der Co-Registrierung nicht optimal zur Deckung mit dem früher abgetasteten effektiven Pixel 14 der Wellenlänge λ1 kommt. Es kommt während des Zeitintervalls (t1–t0) zu einer Verschiebung der zu überlagernden effektiven Pixel 14 (der Wellenlängen λ1) und 15 (der Wellenlänge λ2) um beispielsweise 1/10 der Länge eines effektiven Sensorpixels 12, weil sich der Himmelskörper zwischen den zwei Sensoraufnahmen in den Zeitpunkten t0 und t1 unter dem Satelliten weggedreht hat.
  • Diese Bewegung (mit der am Äquator angenommenen Geschwindigkeit vrot) wird erfindungsgemäß durch dynamisches Binning ausgeglichen, indem das effektive Sensorpixel 12 zur Aufnahme der Wellenlänge λ2 zum Zeitpunkt t1 um den entsprechenden Betrag auf dem Sensorarray 1 nach rechts verschoben definiert wird, wie es 5c zeigt.
  • Die Strecke, um die die effektiven Sensorpixel 12 dynamisch „verschoben” (d. h. lagemäßig umdefiniert) werden müssen, hängt von der Position des aufzunehmenden Gebietes ab, da die Bewegungsgeschwindigkeit vrot des aufzunehmenden Gebietes von dessen Abstand zur Rotationsachse abhängt. Folglich ist die zu verschiebende Strecke am Äquator am größten und in Pol-Nähe am kleinsten.
  • Werden Aufnahmen bei in Flugrichtung variierenden Blickwinkeln benötigt (und somit ein sehr großes Gesichtsfeld in Flugrichtung abgetastet), so werden mit einer einzigen Sensorabtastung (Frame) verschiedene Breitengrade gleichzeitig aufgenommen. Soll dieser Abtastung eine nachfolgende Abtastung überlagert werden, die später (mit in Flugrichtung überlappenden Frames) aufgenommen wurde, müssen die effektiven Sensorpixel 12 wie oben beschrieben verschoben werden. Da der Grad der Verschiebung vom überflogenen Breitengrad abhängt, ist die notwendige Verschiebung für den gesamten Frame nicht konstant. Das ist in den Abbildungen in 6 illustriert, bei denen sechs verschiedene Pixel überlagert werden sollen, die mit A–F nummeriert sind.
  • Das beobachtende Instrument 2 hat in diesem Beispiel eine sehr große Abtastweite in Flugrichtung, die 20 Breitengraden entspricht. Es werden drei Ansichten (Views) aufgenommen: Vorwärts, Nadir und Rückwärts.
  • Mit dem ersten Bild, das einer ersten Wellenlänge λ1 entspricht, werden die mit A gekennzeichneten Pixel aufgenommen. Mit dem zweiten Bild, das einer anderen Wellenlänge λ2 entspricht und das nach einer Zeit t1 aufgenommen wird, in der der Satellit bezüglich der abgebildeten Szene um ein Pixel weitergeflogen ist, werden die mit B gekennzeichneten Pixel aufgenommen. Mit dem dritten Bild werden die mit C gekennzeichneten Pixel aufgenommen usw. Alle einem Breitengrad zugeordneten sechs Pixel sollen nacheinander ein- und dasselbe Objektpixel abbilden und somit zu einer fehlerfreien Überlagerung des führen. Die aufgrund der Erdrotation notwendige Verschiebung der effektiven Sensorpixel 12 ist für unterschiedliche Breitengrade unterschiedlich.
  • Wegen der endlichen Anzahl der für ein effektives Sensorpixel 12 zur Verfügung stehenden Sensorelemente kommt es zu einer Stufung der notwendigen Verschiebung, wie in 6 gezeigt.
  • Da bei bekanntem Orbit zu jedem Zeitpunkt bekannt ist, welches Pixel welchen Breitengrad abbildet, kann die notwendige Verschiebung der effektiven Sensorpixel 12 berechnet werden.
  • Die Steuerung der Verschiebung der effektiven Pixel kann durch eine Hardwaresteuerung, wie einen endlichen Automaten erfolgen, der in digitaler Logik implementiert ist (siehe z. B. Carsten Gremzow: High-Level-Synthese aus flachen Kontroll-/Datenflussgraphen, Dissertation der Fakultät IV – Elektrotechnik und Informatik der Technischen Universität Berlin, Berlin 2004).
  • Weiterhin ist es möglich, die notwendigen Daten vorher zu berechnen und in einem Speicher zu hinterlegen. Nach Auslesen dieses Speichers und gesteuert durch den Speicherinhalt kann dann eine entsprechende Verschiebung durchgeführt werden. Eine weitere Möglichkeit besteht in der Berechnung der Verschiebungskoordinaten in Echtzeit.
  • Natürlich können auch Kombinationen der oben beschriebenen Möglichkeiten sinnvoll sein. So kann beispielsweise ein Teil der Verschiebungsparameter vorberechnet im Speicher hinterlegt sein und ein anderer Teil in Echtzeit berechnet werden oder es können einige Parameter durch einen endlichen Automaten gesteuert werden, während ein anderer Teil durch einen Prozessor variabler berechnet wird, auf dem eine Software läuft.
  • Neben dem beispielhaft beschriebenen Orbit mit 90°-Inklination kann selbstverständlich auch bei einem Orbit mit einer anderen Inklination ein dynamisches Binning von Vorteil sein, die Verschiebungen der effektiven Pixel müssen dann entsprechend in Flugrichtung und quer zur Flugrichtung erfolgen.
  • Die Pixelverschiebung in Flugrichtung kann erfindungsgemäß ebenfalls durch eine dynamische Anpassung des Abtast-Zeitpunktes erfolgen, da die projizierte Bewegung aufgrund der Satellitenbewegung sich mit der projizierten Bewegung aufgrund der Rotation des zu beobachtenden Himmelskörpers teilweise überlagert und damit die resultierende Geschwindigkeit nicht mehr konstant ist.
  • Abschließend sei noch auf die Vorteile verwiesen, die sich durch die gemäß der Erfindung bereits bei der Bildaufnahme möglichst hohe Güte der Überlagerung (Co-Registrierung) von mehreren optischen Kanälen ergeben:
    • 1. Werden Daten unterschiedlicher optischer Kanäle mit einem hohen Grad an Co-Registrierung zusammengefasst (z. B.: verschiedene Spektralkanäle, verschiedene Polarisationskanäle), so wird die Generierung abgeleiteter Fernerkundungsprodukte ohne vorheriges verlustbehaftestes Resampling auf ein einheitliches und damit perfekt co-registriertes Gitter ermöglicht. Damit steigt die Qualität dieser Fernerkundungsprodukte. Im technischen Sinne sinkt die MTF (Modulations-Transfer-Funktion) der abgeleiteten Fernerkundungsprodukte nicht gegenüber der der Rohdaten ab.
    • 2. Ähnliche Vorteile stellen sich bei Zusammenfassung gleichartiger optischer Kanäle mit einem hohen Grad an Co-Registrierung (z. B.: TDI – Time Delay Integration) ein. Eine mangelhafte Co-Registrierung würde hier (TDI) zu einer direkten Verschlechterung der MTF der zusammengefassten Bildaufnahme führen. Somit steigt auch hier die Qualität der gewonnenen Bilddatensätze.
  • 1
    Sensorarray
    11
    Sensorelemente (Subpixel der effektiven Sensorpixel)
    12
    effektive Sensorpixel (aus zusammengefassten Sensorelementen)
    13
    Beobachtungsfeld
    14
    effektives Sensorpixel einer ersten Wellenlänge λ1 zum Zeitpunkt t0
    15
    effektives Sensorpixel einer zweiten Wellenlänge λ2 zum Zeitpunkt t0
    16
    effektives Sensorpixel der Wellenlänge λ1 bei t1 ohne dynamisches Binning
    17
    effektives Sensorpixel der Wellenlänge λ2 bei t1 ohne dynamisches Binning
    18
    effektives Sensorpixel der Wellenlänge λ1 bei t1 mit dynamischem Binning
    19
    effektives Sensorpixel der Wellenlänge λ2 bei t1 mit dynamischem Binning
    2
    Beobachtungsinstrument
    21
    Blickwinkel
    3
    (gekrümmte) Erdoberfläche
    31
    gleich großer Abstand der Zielpixel (auf der Oberfläche des Himmelskörpers)
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • - Floyd F. SABINS in: Remote Sensing: Principles and Interpretations. W. H. Freeman, 1996 [0004]
    • - F. F. SABINS (a. a. O) [0006]
    • - A. THEILER et al.: „Automated Coregistration of MTI Spectral Bands”, Proc. SPIE 4725, (2002) [0009]
    • - E. GALBRAITH et al.: ”Resampling methods for the MTI coregistration product”, Proceedings of SPIE Vol. 5093 [0009]
    • - Y. YITZHAKY, et al.: „Direct method for restoration of motion-blurred images”, J. Opt. Soc. Am. A, Vol. 15, No. 6, June 1998 [0009]
    • - J. MATAS et al., „Learning Efficient Linear Predictors for Motion Estimation”, Proceedings of 5th Indian Conference an Computer Vision, Graphics and Image Processing Madurai, India, 2006, Springer-Verlag, pp. 445–456, ISBN: 978-3-540-68301-8 [0009]
    • - Carsten Gremzow: High-Level-Synthese aus flachen Kontroll-/Datenflussgraphen, Dissertation der Fakultät IV – Elektrotechnik und Informatik der Technischen Universität Berlin, Berlin 2004 [0060]

Claims (15)

  1. Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente, bei dem ein Bildsensor eine Vielzahl von Bildpunkten (Objektpixeln) aus einem zweidimensionalen Abtastbereiches beim Überfliegen der Oberfläche des Himmelskörpers aufnimmt und durch wiederholte Abtastung derselben Objektpixel, die durch die Flugbewegung sukzessive auf verschiedenen Sensorelementen zu liegen kommen, eine Bildanalyse nach Überlagerung unterschiedlicher Pixeldaten für gleiche von der Oberfläche des Himmelskörpers aufgenommene Objektpixel ermöglicht, dadurch gekennzeichnet, dass Abbildungsverzerrungen infolge der Oberflächenkrümmung, der Rotationsbewegung des Himmelskörpers oder der Flugbewegung des beobachtenden Instruments bereits im Prozess der Bildaufnahme minimiert werden.
  2. Verfahren nach Anspruch 1 dadurch gekennzeichnet, dass eine statische Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch eine von der Mitte zum Randbereich des auf den Bildsensor projizierten Abtastbereiches hin verkleinerte Pixelfläche der Sensorpixel mit radial gestauchter Pixelfläche korrigiert wird.
  3. Verfahren nach Anspruch 2 dadurch gekennzeichnet, dass die Bilddaten mittels eines Bildsensors, der von der Mitte zum Randbereich hin abnehmende sensitive Flächengrößen der Sensorelemente aufweist, aufgenommen werden.
  4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Bilddaten mittels eines hochauflösenden Bildsensors, der gleichgroße sensitive Flächen der Sensorelemente aufweist, derart aufgenommen werden, dass die Sensorelemente zu unterschiedlich großen effektiven Sensorpixeln zusammengefasst werden, wobei zur Erzeugung der effektiven Sensorpixel von der Mitte zum Randbereich des Bildsensors hin weniger Sensorelemente zusammengefasst werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die effektiven Sensorpixel als unterschiedlich große Sensorelementbereiche durch hardwaregestütztes Zusammenfassen von benachbarten Sensorelementen gebildet werden, wobei die Korrektur einer statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch Zusammenschaltung der Signalausgänge einer geringeren Anzahl von Sensorelementen im Randbereich des auf den Bildsensor projizierten Abtastbereiches gegenüber der Anzahl von Sensorelementen in der Mitte des Bildsensors zu kleineren effektiven Sensorpixeln mit radial gestauchter Pixelfläche erreicht wird.
  6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die effektiven Sensorpixel als unterschiedlich große Sensorelementbereiche durch softwaregestütztes Zusammenfassen von benachbarten Sensorelementen gebildet werden, wobei die Korrektur einer statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch Zusammenfassen der Signaldaten einer geringeren Anzahl von Sensorelementen im Randbereich des auf den Bildsensor projizierten Abtastbereiches gegenüber der Anzahl von Sensorelementen in der Mitte des Bildsensors zu kleineren effektiven Sensorpixeln mit radial gestauchter Pixelfläche erreicht wird.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine statische Abbildungsverzerrung aufgrund der gekrümmten Oberfläche des beobachteten Himmelskörpers durch optische Entzerrung mittels einer Optik mit entgegengesetzt zur Objektfeldkrümmung verzerrter Abbildung korrigiert wird, wobei der Bildsensor gleichgroße metrische Sensorelemente aufweist.
  8. Verfahren nach einem der Ansprüche 1, dadurch gekennzeichnet, dass zusätzlich zu einer auf beliebige Art korrigierten statischen Abbildungsverzerrung eine Korrektur von dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers durch softwaregestütztes zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln derart erfolgt, dass die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  9. Verfahren nach einem der Ansprüche 1, dadurch gekennzeichnet, dass zusätzlich zu einer auf beliebige Art korrigierten statischen Abbildungsverzerrung eine Korrektur von dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers durch hardwaregestütztes zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln derart erfolgt, dass die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass dynamische Verzerrungseffekte infolge einer der Flugbewegung überlagerten Rotationsbewegung des um seine Achse rotierenden Himmelskörpers durch zeitlich veränderliches Zusammenfassen der effektiven Sensorpixel berücksichtigt werden, wobei das zeitlich veränderliche Zusammenfassen von benachbarten Sensorelementen in Abhängigkeit vom Abstand des Beobachtungsfeldes auf der Oberfläche des Himmelskörpers zur Drehachse desselben erfolgt
  11. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass dynamische Verzerrungseffekte infolge der Flugbewegung des Beobachtungsinstruments über der Oberfläche des Himmelskörpers durch eine zeitlich variable Abtastrate der effektiven Sensorpixel berücksichtigt werden, wobei die zeitlich veränderliche Abtastrate in Abhängigkeit vom Abstand des Beobachtungsfeldes des Himmelskörpers zur Drehachse desselben erfolgt.
  12. Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass sowohl die Korrektur der statischen Abbildungsverzerrung aufgrund der gekrümmten Oberfläche als auch der dynamischen Abbildungsverzerrungen aufgrund der Bewegung des Beobachtungsinstruments gegenüber der Oberfläche des um seine Achse rotierenden Himmelskörpers durch zeitlich veränderliches Zusammenfassen von Sensorelementen zu effektiven Sensorpixeln erfolgen, wobei die unterschiedlich zusammengefassten Sensorelemente der effektiven Sensorpixel im Laufe der wiederholten Abtastung des auf den Bildsensor projizierten Abtastfeldes dynamisch entsprechend der Abbildungsbewegung in ihrer Position auf dem Bildsensor verschoben werden.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass eine zusätzliche Korrektur der dynamischen Abbildungsverzerrungen aufgrund der Flugbewegung des Beobachtungsinstruments gegenüber der Oberfläche des Himmelskörpers durch eine zeitlich variable Abtastrate der effektiven Sensorpixel erfolgt, wobei die zeitlich veränderliche Abtastrate in Abhängigkeit vom Abstand des Beobachtungsfeldes des Himmelskörpers zur Drehachse desselben erfolgt.
  14. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 13 zur Bildaufnahme spektral oder polarisationsoptisch unterschiedlicher optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern, wobei der Bildsensor eine Vielzahl von Objektpunkten aus einem zweidimensionalen Abtastfeld der Oberfläche des Himmelskörpers durch wiederholte Abtastung derselben Objektpunkte infolge der Flugbewegung sukzessive mit Sensorelementen von verschiedenen optischen Kanälen aufnimmt und ohne weitere Korrektur eine Überlagerung der Bilddaten unterschiedlicher optischer Kanäle zur mehrkanaligen Bildanalyse ermöglicht.
  15. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 13 zur Bildaufnahme gleichartiger optischer Kanäle von satellitengestützten Instrumenten bei der Beobachtung von Himmelskörpern, wobei der Bildsensor eine Vielzahl von Objektpunkten aus einem zweidimensionalen Abtastfeld der Oberfläche des Himmelskörpers durch wiederholte Abtastung derselben Objektpunkte infolge der Flugbewegung sukzessive mit Sensorelementen von gleichartigen optischen Kanälen aufnimmt und ohne weitere Korrektur eine Überlagerung der Bilddaten zur Bilddatenverbesserung nach dem TDI-Verfahren ermöglicht.
DE102008030727A 2008-06-27 2008-06-27 Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente Ceased DE102008030727A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008030727A DE102008030727A1 (de) 2008-06-27 2008-06-27 Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente
EP09163811.4A EP2139223A3 (de) 2008-06-27 2009-06-25 Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008030727A DE102008030727A1 (de) 2008-06-27 2008-06-27 Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente

Publications (1)

Publication Number Publication Date
DE102008030727A1 true DE102008030727A1 (de) 2009-12-31

Family

ID=40875219

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008030727A Ceased DE102008030727A1 (de) 2008-06-27 2008-06-27 Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente

Country Status (2)

Country Link
EP (1) EP2139223A3 (de)
DE (1) DE102008030727A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008058311A1 (de) 2008-11-18 2010-07-22 Jena-Optronik Gmbh Anordnung zur flugkörpergestützten Bilddatenaufnahme von der Oberfläche eines Himmelskörpers
EP2418846A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
EP2418845A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmerlskörpern

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110631499B (zh) * 2019-09-11 2020-11-10 北京大学 基于无网格方法的数字图像变形测量方法及电子设备
CN113465581B (zh) * 2021-05-21 2023-06-06 北京控制工程研究所 一种卫星所使用的面区域扫描观测方法
CN114964677B (zh) * 2022-05-27 2023-05-02 中国科学院西安光学精密机械研究所 气流扰动和环境振动引起mtf测试误差的校正装置及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3230195A1 (de) * 1981-08-14 1983-03-03 Olympus Optical Co., Ltd., Tokyo Bildaufnahmevorrichtung
DE3829300A1 (de) * 1987-09-22 1989-03-30 Messerschmitt Boelkow Blohm Verfahren und vorrichtung zur abtastung eines objektes
US4989086A (en) * 1988-06-02 1991-01-29 Westinghouse Electric Corp. Ultra wide field-of-regard multispectral imaging radiometer
EP0503103A1 (de) * 1989-02-06 1992-09-16 Honeywell Ag Elektronischer Zoom für Zeilenabtaster mit breitem Sichtwinkel
EP0786814A1 (de) * 1996-01-26 1997-07-30 Hewlett-Packard Company Photodetektor-Matrix mit Kompensation von Abbildungsfehlern und ungleichmässiger Beleuchtung
WO2003106917A2 (en) * 2002-04-08 2003-12-24 Recon/Optical, Inc. Multispectral or hyperspectral imaging system and method for tactical reconnaissance
US20080088719A1 (en) * 2005-04-29 2008-04-17 Eliezer Jacob Digital camera with non-uniform image resolution

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080024618A1 (en) * 2006-07-31 2008-01-31 Suk Hwan Lim Adaptive binning method and apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3230195A1 (de) * 1981-08-14 1983-03-03 Olympus Optical Co., Ltd., Tokyo Bildaufnahmevorrichtung
DE3829300A1 (de) * 1987-09-22 1989-03-30 Messerschmitt Boelkow Blohm Verfahren und vorrichtung zur abtastung eines objektes
US4989086A (en) * 1988-06-02 1991-01-29 Westinghouse Electric Corp. Ultra wide field-of-regard multispectral imaging radiometer
EP0503103A1 (de) * 1989-02-06 1992-09-16 Honeywell Ag Elektronischer Zoom für Zeilenabtaster mit breitem Sichtwinkel
EP0786814A1 (de) * 1996-01-26 1997-07-30 Hewlett-Packard Company Photodetektor-Matrix mit Kompensation von Abbildungsfehlern und ungleichmässiger Beleuchtung
WO2003106917A2 (en) * 2002-04-08 2003-12-24 Recon/Optical, Inc. Multispectral or hyperspectral imaging system and method for tactical reconnaissance
US20080088719A1 (en) * 2005-04-29 2008-04-17 Eliezer Jacob Digital camera with non-uniform image resolution

Non-Patent Citations (20)

* Cited by examiner, † Cited by third party
Title
A. THEILER et al.: "Automated Coregistration of MTI Spectral Bands", Proc. SPIE 4725, (2002)
BARBE,David F.: Imaging Devices Using the Charge-Coupled Concept. Proceedings of the IEEE, Vol.63, No.1, January 1975, pp. 38-67 *
Carsten Gremzow: High-Level-Synthese aus flachen Kontroll-/Datenflussgraphen, Dissertation der Fakultät IV - Elektrotechnik und Informatik der Technischen Universität Berlin, Berlin 2004
E. GALBRAITH et al.: "Resampling methods for the MTI coregistration product", Proceedings of SPIE Vol. 5093
F. F. SABINS (a. a. O)
Floyd F. SABINS in: Remote Sensing: Principles and Interpretations. W. H. Freeman, 1996
GALBRAITH,Amy, THEILER,James, BENDER,Steve: Resampling Methods for the MTI Coregistration Product. Proc. SPIE, Vol.5093 (2003), pp. 283-293 *
GREMZOW,Carsten: High-Level-Synthese aus flachen Kontroll-/Datenflussgraphen. Dissertation, Fakultät IV - Elektrotechnik und Informatik, Technische Universität Berlin, Berlin 2004. Seiten v-vii, 3-11, 39-59, 103-106 *
HOFFMAN,James W., CASHMAN,Ken, GRUSH,Ronald C., et.al.: ISIR (Infrared Spectral Imaging Radiometer) flight results from shuttle mission STS-85. Proc. SPIE, Vol.3437 (1998), pp. 228-239 *
J. MATAS et al., "Learning Efficient Linear Predictors for Motion Estimation", Proceedings of 5th Indian Conference an Computer Vision, Graphics and Image Processing Madurai, India, 2006, Springer-Verlag, pp. 445-456, ISBN: 978-3-540-68301-8
JACOBSEN,Karsten: Geometric Aspects of the Handling of Space Images. ISPRS Commission I Symposium, Denver, CO, 10-15 November, 2002. Conference Proceedings, pp. 89-93 *
Lepage,Gérald, Dantès,Didier, Diels,Wim: CMOS long linear array for space application. Proc. SPIE, Vol.6068 (2006), pp. 61-68 *
MATAS,Jiri, ZIMMERMANN,Karel, SVOBODA,Tomás, et.al.: Learning Efficient Linear Predictors for Motion Estimation. In: Kalra,Prem Shmuel,Peleg [Eds.]: Computer Vision, Graphics and Image Processing, ICVGIP 2006, Proceedings, ISBN 978-3540683018. Berlin Heidelberg: Springer, 2006. pp. 445-456 *
Pasetti,A., Habinc,S., Creasey,R.C.: Dynamical Binning for High Angular Rate Star Tracking. 4th ESA Internat. Conf. on Spacecraft Guidance, Navigation and Control Systems. ESTEC, Noordwijk, The Netherlands, 18-21 October, 1999. Conference Proceedings: Schürmann, B. [Ed.]: ESA SP-425. Paris: European Space Agency, February 2000. pp. 255-266 *
SABINS,Floyd F.: Remote Sensing. Principles and Interpretations. 3rd Edition. ISBN 0716724421. W.H.Freeman, 1996 *
THEILER,James, GALBRAITH,Amy, POPE,Paul, et.al.: Automated Coregistration of MTI Spectral Bands. Proc. SPIE, Vol.4725 (2002) pp. 314-327 *
WONG,Hon-Sum, YAO,Ying L., SCHLIG,Eugene S.: TDI charge-coupled devices: Design and applications. IBM J. Res. Develop., Vol.36, No.1, Jan. 1992, pp.83-106 *
WONG,Hon-Sum, YAO,Ying L., SCHLIG,Eugene S.: TDI charge-coupled devices: Design and applications. IBM J. Res. Develop., Vol.36, No.1, Jan. 1992, pp.83-106 BARBE,David F.: Imaging Devices Using the Charge-Coupled Concept. Proceedings of the IEEE, Vol.63, No.1, January 1975, pp. 38-67 HOFFMAN,James W., CASHMAN,Ken, GRUSH,Ronald C., et.al.: ISIR (Infrared Spectral Imaging Radiometer) flight results from shuttle mission STS-85. Proc. SPIE, Vol.3437 (1998), pp. 228-239 JACOBSEN,Karsten: Geometric Aspects of the Handling of Space Images. ISPRS Commission I Symposium, Denver, CO, 10-15 November, 2002. Conference Proceedings, pp. 89-93 Lepage,Gérald, Dantès,Didier, Diels,Wim: CMOS long linear array for space application. Proc. SPIE, Vol.6068 (2006), pp. 61-68 Pasetti,A., Habinc,S., Creasey,R.C.: Dynamical Binning for High Angular Rate Star Tracking. 4th ESA Internat. Conf. on Spacecraft Guidance, Navigation and Control Systems. ESTEC, Noordwijk, The Netherlands, 18-21 October, 1999. Conference
Y. YITZHAKY, et al.: "Direct method for restoration of motion-blurred images", J. Opt. Soc. Am. A, Vol. 15, No. 6, June 1998
YITZHAKY,Y., MOR,I., LANTZMAN,A., et.al.: Direct method for restoration of motion-blurred images. J. Opt. Soc. Am. A, Vol.15, No.6, June 1998, pp. 1512-1519 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008058311A1 (de) 2008-11-18 2010-07-22 Jena-Optronik Gmbh Anordnung zur flugkörpergestützten Bilddatenaufnahme von der Oberfläche eines Himmelskörpers
EP2418846A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
EP2418845A2 (de) 2010-08-12 2012-02-15 Jena-Optronik GmbH Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmerlskörpern
DE102010034318A1 (de) 2010-08-12 2012-02-16 Jena-Optronik Gmbh Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
DE102010034319A1 (de) 2010-08-12 2012-02-16 Jena-Optronik Gmbh Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
DE102010034318B4 (de) * 2010-08-12 2012-02-23 Jena-Optronik Gmbh Verfahren und Vorrichtung zur korrigierten radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
DE102010034319B4 (de) * 2010-08-12 2012-04-19 Jena-Optronik Gmbh Verfahren und Vorrichtung zur radiometrischen Messung von Objektpunkten auf Oberflächen von Himmelskörpern
US8860951B2 (en) 2010-08-12 2014-10-14 Jena-Optronik Gmbh Method and apparatus for the radiometric measurement of object points on surfaces of astronomical bodies
US8886484B2 (en) 2010-08-12 2014-11-11 Jena-Optronik Gmbh Method and apparatus for the corrected radiometric measurement of object points on surfaces of astronomical bodies

Also Published As

Publication number Publication date
EP2139223A3 (de) 2015-03-18
EP2139223A2 (de) 2009-12-30

Similar Documents

Publication Publication Date Title
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102013226789B4 (de) Mehrkanaloptik-Bildaufnahmevorrichtung und Mehrkanaloptik-Bildaufnahmeverfahren
DE102012106584B4 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
DE102008034979B4 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
DE102008030727A1 (de) Verfahren zur Bilddatenaufnahme bei der Beobachtung von Himmelskörpern durch satellitengestützte Instrumente
DE112017006107T5 (de) Digitale Korrektur von optischen Systemaberrationen
DE102010031535A1 (de) Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
EP3610637B1 (de) Vorrichtungen zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtungen und verfahren zum bereitstellen derselben
EP3482370B1 (de) Schnelles bildkorrekturverfahren für eine vereinfachte adaptive optik
DE102007045525A1 (de) Bildsensor
DE102010053458B4 (de) Verfahren zur Aufbereitung von IR-Bildern und korrespondierende Wärmebildkamera
DE102014112648A1 (de) Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme
EP2791896B1 (de) Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung
DE60215223T2 (de) Satellitengestütztes optisches beobachtungsinstrument mit zwei teleskopen
EP3424215B1 (de) Verfahren zum kalibrieren einer projektionsvorrichtung und verfahren zum betreiben einer so kalibrierten projektionsvorrichtung
DE102019008472B4 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
DE102014224638A1 (de) Digitales Bilderfassungssystem und Verfahren zur Fehlerkorrektur in einem solchen System
DE4037739C1 (de)
DE102006006835B4 (de) Verfahren und Vorrichtung zum Scannen von Bildern
DE19803064C1 (de) Optisches Aufklärungssystem
DE102008024732A1 (de) Medizinisch optisches Beobachtungsgerät und Verfahren zum Erstellen einer stereoskopischen Zwischenperspektive in einem derartigen Gerät
DE102006036845B4 (de) Verfahren und Vorrichtung zum Scannen einer Vorlage mittels einer Zeilenkamera
DE102017112484A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
AT520839B1 (de) Verfahren zur Erstellung einer Bildstapel-Datenstruktur
DE102019101324B4 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final