DE102012022045A1 - Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen - Google Patents

Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen Download PDF

Info

Publication number
DE102012022045A1
DE102012022045A1 DE102012022045.6A DE102012022045A DE102012022045A1 DE 102012022045 A1 DE102012022045 A1 DE 102012022045A1 DE 102012022045 A DE102012022045 A DE 102012022045A DE 102012022045 A1 DE102012022045 A1 DE 102012022045A1
Authority
DE
Germany
Prior art keywords
image
raster
image information
image processing
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012022045.6A
Other languages
English (en)
Inventor
Dipl.-Ing. Pongratz Hans Wolfgang
Manfred Hiebl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Priority to DE102012022045.6A priority Critical patent/DE102012022045A1/de
Priority to EP13794796.6A priority patent/EP2907105A2/de
Priority to KR1020157012406A priority patent/KR20150072423A/ko
Priority to PCT/DE2013/000569 priority patent/WO2014056473A2/de
Priority to JP2015535987A priority patent/JP6285940B2/ja
Priority to US14/435,020 priority patent/US9300866B2/en
Publication of DE102012022045A1 publication Critical patent/DE102012022045A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Ein Verfahren zur Bildaufbereitung mit folgenden Schritten: a) Erfassen von Bildinformation einer Szene als elektromagnetische Strahlung mittels einer optischen Einrichtung (1, 101); b) Aufbereiten der in Schritt a) erhaltenen Bildinformation mittels einer Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch-Verhältnisses der Bildinformation, wobei die Aufbereitung in folgenden Teilschritten durchgeführt wird: b1) Unterteilen eines die Bildinformation aufweisenden Rohbildes in Zeilen und Spalten zur Schaffung eines Rasterbildes; b2) Überlagern eines Rasterbildelements mit einem zentralen Rasterfilterelement (22'', 122'') eines eine ungerade Anzahl von Zeilen und eine ungerade Anzahl von Spalten aufweisenden Rasterfilters (22, 122); b3) Bestimmen der Helligkeitswerte eines jeden der vom Rasterfilter (22, 122) überdeckten Rasterbildelemente, wobei außer dem zentralen Rasterfilterelement (22'', 122'') jedes andere Rasterfilterelement (22', 122') eine individuelle Lichtdämpfungseigenschaft aufweist; b4) Aufsummieren der in Schritt b3) bestimmten Helligkeitswerte zu einem Summen-Helligkeitswert und Zuordnen dieses Summen-Helligkeitswerts zu dem vom zentralen Rasterfilterelement (22'', 122'') überdeckten Rasterbildelement; b5) Wiederholen der Schritte b2) bis b4) für alle verbleibenden Rasterbildelemente; c) Erzeugen eines Ergebnisbildes mit derselben Rasterung wie das Rohbild aus den einzelnen im Schritt b) erhaltenen Summen-Helligkeitswerten der Rasterbildelemente. Verfahren zur Bahnverfolgung startender Raketen mit brennenden Triebwerken mit stark erhöhter Genauigkeit gegenüber dem Stand der Technik, mit folgenden Kennzeichen: a. Wahl eines Beobachtungsortes seitlich unter dem Ziel mit besonders vorteilhaften Beobachtungsbedingungen b. Bahnverfolgung über das Temperaturbild des Kerntriebwerksstrahles, gemessen durch eine schmalbandige Multispektralkamera mit mindestens 3 Bändern.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren zur Bildaufbereitung gemäß dem Oberbegriff des Patentanspruchs 1. Sie betrifft weiterhin ein Verfahren zur automatischen Objekterkennung nach dem Oberbegriff des Patentanspruchs 4 und Beobachtungsvorrichtungen gemäß Anspruch 6 und Anspruch 7.
  • HINTERGRUND DER ERFINDUNG
  • Bei der Fernbeobachtung von Objekten, insbesondere im Zuge der militärischen Aufklärung, kommt es darauf an, bewegte Objekte, zum Beispiel startende Raketen mit brennenden Triebwerken, über eine große Entfernung von bis zu 1500 km und Raketen nach Brennschluss bei ausreichender, gegebenenfalls künstlicher, Beleuchtung über eine Entfernung von bis zu 1000 km zunächst zu erfassen, entlang ihrer Bewegungsbahn zu verfolgen und zu identifizieren. Selbst dann, wenn zur Beobachtung optische Beobachtungsvorrichtungen mit langbrennweitigen Objektiven und Bildsensoren von hoher Auflösung verwendet werden, sind bei einer Objektentfernung von über 500 km bis hin zu 1500 km keine das Triebwerksfeuerstrahlobjekt scharf wiedergebenden Abbildungen mit hoher Auflösung im Bereich von einigen Metern möglich, da die Helligkeitsverteilung innerhalb des Feuerstrahls in einem Bereich von bis zu 100 m in alle Richtungen mit hoher Frequenz fluktuiert. Trotz einer derartigen reduzierten Abbildungsleistung muss es jedoch möglich sein, feststellen zu können, ob es sich bei dem erfassten Objekt um eine miltitärische oder zivile Trägerrakete oder um einen Täuschkörper handelt. Weiterhin muss die Objekterfassung über einen ausreichenden Zeitraum mit zuverlässigem Ergebnis mit einer Genauigkeit von einigen Metern erfolgen können, um daraus die Flugbahn des Objekts (zum Beispiel einer Rakete) so genau vermessen zu können, dass eine stabile Nachführung der Beobachtungsvorrichtung möglich ist und dass gegebenenfalls eine Bekämpfung des fliegenden Objekts auf seiner Flugbahn erfolgen kann.
  • STAND DER TECHNIK
  • Aus dem allgemeinen Stand der Technik sind für derartige Zielverfolgungszwecke große X-Band-Radaranlagen bekannt, die entlang einer erwarteten Raketenflugroute dicht genug stationiert sein müssen, so dass sie eine fliegende Rakete stets im Blickfeld über dem Horizont haben. Dies erfordert nicht nur einen sehr großen Aufwand, sondern ist häufig auch aus politischen Gründen nicht ausreichend möglich. Zudem können derartige Radarstationen nur die Position von Zielobjekten bei einer Entfernung von 1000 km quer zur Sichtrichtung mit einer Genauigkeit von mehreren Kilometern bestimmen und deren Radarrückstrahlquerschnitt messen, aber keine genaue Identifikation vornehmen. Insbesondere Tauschkörper sind üblicherweise durch Radar nicht von echten Sprengköpfen zu unterscheiden, was große Probleme verursacht. Aus dem Stand der Technik sind weiterhin Satelliten in geostationären Umlaufbahnen bekannt, die startende Raketen im mittleren Infrarotbereich mit Teleskopen entdecken können. Da die Entdeckung von oben gegen den warmen Erdhintergrund mit einer Vielzahl von schwer erkennbaren Falschzielen erfolgen muss, haben diese Systeme mit einer vergleichbar geringen Empfindlichkeit zu kämpfen. Auf Grund der Beobachtung von oben sieht der Sensor auch nur den weniger hellen und stark fluktuierenden Teil des Triebwerksstrahles. Dadurch wird seine Messgenauigkeit auf einige hundert Meter begrenzt, und kann systembedingt nicht wesentlich vernbessert werden.
  • Aus der nicht vorveröffentlichten DE 10 2011 010 337 ist ein Kamerasystem zur Erfassung und Bahnverfolgung von in großer Entfernung befindlichen bewegten Objekten von einem hochfliegenden Fluggerät aus, das über der dichten Atmosphäre fliegt, bekannt. Dieses System hat den großen Vorteil, die startenden Raketen praktisch ausserhalb der Atmosphäre von unten gegen den Hintergrund des kalten Weltraums beobachten zu können, und ausser Sternen und nahen Himmelskörpern, deren Position genau bekannt ist, keine weiteren Falschziele unterdrücken muss, um Fehlalarme zu vermeiden. Ein weiterer großer Vorteil der Beobachtung von unten und von seitlich der Flugbahn aus ist, das von dort die Blickrichtung auf den über 2000°K heißen Kernbereich des Triebwerksstrahls direkt am Düsenaustritt frei ist. Dieser Kernbereich des Strahles hat eine hunderfach höhere Leuchtdichte als der weiter entfernte Strahl und ist fest am Düsenaustritt fixiert, führt also keinerlei Fluktuation aus. Damit steht für die Bahnverfolgung eine ideale extrem helle (1 Megawatt/m2) Punktlichtquelle mit wenigen Metern Durchmesser zur Verfügung, die genau und stetig die Flugbahn der Rakete ausführt. Aufgabe der Erfindung ist es, einen Sensor anzugeben, der diese Punktlichtquelle über eine Entfernung von bis zu 1500 km mit einer Genauigkeit von wenigen Metern orten und verfolgen kann. Dazu wird das folgende Multispektralkamerasystem für den Nahinfrarotbereich vorgeschlagen. Die Multispektralkamera kann mit Hilfe eines Motor getriebenen Filterrades mit mindestens 3 schmalbandigen (z. B. 20 nm) Transmissionsfiltern sequentiell Multispektralbilder (z. B. bei 700 nm, 800 nm, und 950 nm) einer Szene aufnehmen. Daraus kann durch Umrechnung nach den Schwarzkörperstrahlungsgesetzen ein Temperaturbild der Szene mit einer Auflösung von z. B. 50°K errechnet werden. Bei dieser Auflösung lässt sich erfindungsgemäss der ungefähr 2300°K heiße Kernbereich einer Feststoffrakete und dessen charakteristische Form eindeutig von dem 2100°K heissen Kernbereich einer Flüssigkeitsrakete und einer abweichenden Form unterscheiden, und bei genügender optischer Auflösung der Kamera von 1 m bis 2 m in 1000 km Entfernung auch die Größe des Kernbereiches und seine Temperaturverteilung messen. Mit diesen Daten können militärische Feststoffraketen von zivilen Flüssigkeitsraketen und verschiedene Raketentypen durch die Größe, Zahl und Anordnung der Triebwerke unterschieden werden.
  • Dieses Kamerasystem weist eine mit einer langbrennweitigen Kameraoptik versehene Kamera auf, die auf einer lagestabilisierten Plattform angeordnet ist. Diese Kamera ist mit einem Hochgeschwindigkeitsverschluss sowie einem ersten und einem zweiten Bildsensor versehen. Die von der Kameraoptik eingefangene Lichtstrahlung kann wahlweise auf den ersten oder den zweiten Bildsensor geführt werden, wobei einem der Bildsensoren eine weitere Tele-Optik zugeordnet ist. Die Kameraoptik weist weiter einen schwenkbaren Spiegel auf, mit welchem es möglich ist, durch Verschwenken des Spiegels ein Gebiet zeilenweise abzuscannen, wobei das eingefangene Bildsignal einem der Bildsensoren zugeführt wird. Wird bei diesem Scanvorgang ein Zielobjekt erkannt, so wird der Lichtstrahl auf den anderen Bildsensor umgelenkt, der dann zur Objektidentifizierung und gegebenenfalls zur Zielverfolgung eingesetzt wird.
  • DARSTELLUNG DER ERFINDUNG
  • Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Bildaufbereitung anzugeben, mit welchem es möglich ist, auch über große Entfernung, beispielsweise von mehreren hundert Kilometern, insbesondere auf eine Entfernung von 100 km bis 500 km, erfasste Bildinformation so aufzubereiten, dass es möglich ist, mittels dieser aufbereiteten Bildinformation ein in der erfassten Szene enthaltenes Objekt mittels der aufbereiteten Bildinformation zu erkennen. Eine weitere Aufgabe besteht darin, unter Anwendung dieses Verfahrens zur Bildaufbereitung eine automatische Objekterkennung durchführen zu können. Schließlich sind auch Beobachtungsvorrichtungen anzugeben, mit denen diese Verfahren realisierbar sind.
  • Der auf das Verfahren zur Bildaufbereitung gerichtete Teil der Aufgabe wird gelöst mit den im Patentanspruch 1 angegebenen Verfahrensschritten.
  • Das so ausgestaltete erfindungsgemäße Verfahren weist die folgenden Verfahrensschritte auf:
    • a) Erfassen von Bildinformation einer Szene als elektromagnetische Strahlung, wie beispielsweise Licht im sichtbaren Spektrum, im infraroten Spektrum oder im ultravioletten Spektrum, mittels einer optischen Einrichtung;
    • b) Aufbereiten der in Schritt a) erhaltenen Bildinformation mittels einer Bildaufbereitungseinrichtung zur Verbesserung des Signal-Rausch-Verhältnisses der Bildinformation, wobei die Aufbereitung in folgenden Teilschritten durchgeführt wird:
    • b1) Unterteilen eines die Bildinformation aufweisenden Rohbildes in Zeilen und Spalten zur Schaffung eines Rasterbildes;
    • b2) Überlagern eines Rasterbildelements mit einem zentralen Rasterfilterelement eines eine ungerade Anzahl von Zeilen und eine ungerade Anzahl von Spalten aufweisenden Rasterfilters;
    • b3) Bestimmen der Helligkeitswerte eines jeden der vom Rasterfilter überdeckten Rasterbildelemente, wobei außer dem zentralen Rasterfilterelement jedes andere Rasterfilterelement eine individuelle Lichtdämpfungseigenschaft aufweist;
    • b4) Aufsummieren der in Schritt b3) bestimmten Helligkeitswerte zu einem Summen-Helligkeitswert und Zuordnen dieses Summen-Helligkeitswerts zu dem vom zentralen Rasterfilterelement überdeckten Rasterbildelement;
    • b5) Wiederholen der Schritte b2) bis b4) für alle verbleibenden Rasterbildelemente;
    • c) Erzeugen eines Ergebnisbildes mit derselben Rasterung wie das Rohbild aus den einzelnen im Schritt b) erhaltenen Summen-Helligkeitswerten der Rasterbildelemente.
  • VORTEILE
  • Durch dieses erfindungsgemäße Bildaufbereitungsverfahren wird das Signal-zu-Rausch-Verhältnis des aufgenommenen Rohbildes verbessert, indem der Helligkeitsverlauf des Rohbildes geglättet wird. Weiterhin werden Rauschpixel, die aus dem Hintergrund des Rohbildes hervortreten, entfernt und somit ebenfalls das Bild geglättet. Der Helligkeitsverlauf im erhaltenen Ergebnisbild ist gegenüber dem Rohbild stetig und differenzierbar und der Bildkontrast ist verbessert, so dass ein im Rohbild enthaltenes Objekt im Ergebnisbild deutlicher und klarer erkennbar hervortritt.
  • Eine bevorzugte Weiterbildung dieses erfindungsgemäßen Verfahrens zur Bildaufbereitung zeichnet sich dadurch aus, dass im Schritt a) die Bildinformation der Szene in mehr als einem elektromagnetischen Wellenlängenbereich erfasst wird, um so Rohbilder der Szene in unterschiedlichen Spektralbereichen zu erhalten; dass die Schritte b) und c) für alle Rohbilder der Szene durchgeführt werden, um Ergebnisbilder unterschiedlicher Spektralbereiche zu erhalten, und dass die Ergebnisbilder der unterschiedlichen Spektralbereiche durch Überlagerung zu einem Multispektral-Ergebnisbild zusammengefasst werden.
  • Das Erfassen der Szene in unterschiedlichen Spektralbereichen durch sequentielle Aufnahme von Bildern mit schmalbandigen (z. B. 20 nm) Filtern und das Zusammensetzen der jeweils erfindungsgemäß aufbereiteten Rohbilder dieser unterschiedlichen Spektralbereiche zu einem Multispektral-Ergebnisbild verbessert die Aussagekraft des erhaltenen Bildergebnisses. Dies ist insbesondere dann der Fall, wenn die einzelnen Ergebnisbilder unterschiedlicher Spektralbereiche jeweils monochrom in unterschiedlichen Farben eingefärbt zum Multispektral-Ergebnisbild zusammengefasst werden. Ein Multispektralbild mit passend zu der Temperatur des beobachteten Körpers (z. B. 2300°K) auf der kurzwelligen Flanke der Schwarzkörperstrahlungskurve gewählten Filtern kann zur Umrechnung des Multispektralfarbbildes in ein Temperaturbild benutzt werden. Dieses Temperaturbild ermöglicht es, einen kleinen stabilen Kerntemperaturbereich innerhalb eines wesentlich größeren, möglicherweise örtlich auch helleren, stark fluktuirenden, Hintergrundhelligkeitsfeldes, wie z. B. eines Raketenfeuerschweifes zu finden und zu verfolgen.
  • Vorteilhaft ist dabei, wenn das Erfassen der Bildinformation der Szene in den unterschiedlichen Spektralbereichen unter Verwendung unterschiedlicher Spektralbereichsfilter in kurzer zeitlicher Aufeinanderfolge mittels einer Hochgeschwindigkeitskamera erfolgt. Dadurch wird es möglich, im Vergleich zur Bewegung des beobachteten Objekts quasi-zeitsynchrone Rohbilder der Szene in unterschiedlichen Spektralbereichen aufzunehmen, die sich aufgrund der äußerst kurzen zeitlichen Aufeinanderfolge der jeweiligen Aufnahmen nur unwesentlich bezüglich der Position des Objekts im Bild unterscheiden, so dass diese Aufnahmen problemlos durch Überlagerung zu dem Multispektral-Ergebnisbild zusammengefasst werden können.
  • Der auf das Verfahren zur automatischen Objekterkennung gerichtete Teil der Aufgabe wird gelöst durch das Verfahren mit den Merkmalen des Patentanspruchs 4. Dabei werden unter Anwendung des erfindungsgemäßen Verfahrens zur Bildaufbereitung folgende Verfahrensschritte durchgeführt:
    • – das Erfassen des Szene im Schritt a) wird in unterschiedlichen Drehwinkeln um die optische Achse der optischen Einrichtung durchgeführt;
    • – zu jedem Drehwinkel wird ein Ergebnisbild gemäß den Schritten des erfindungsgemäßen Verfahrens zur Bildaufbereitung erzeugt;
    • – die einzelnen Ergebnisbilder werden mit in einer Objekte-Datenbank gespeicherten Musterbildern einzelner Objekte verglichen; und
    • – jenes Musterbild mit der geringsten Abweichung von einem oder mehreren der Ergebnisbilder identifiziert das in der Szene enthaltene Objekt und bestimmt die Position des Objekts im Ergebnisbild.
  • Mittels dieses automatischen Objekterkennungsverfahrens wird unter Anwendung des erfindungsgemäßen Bildaufbereitungsverfahrens eine automatische Objektidentifikation ermöglicht. Des Weiteren kann mittels dieses automatischen Objekterkennungsverfahrens die Position des Objekts im Ergebnisbild bestimmt werden und damit kann bereits bei einer einzigen erfassten und analysierten Szene. ein Richtungsvektor der Bewegung des Objekts (beispielsweise einer Rakete) mit größere Genauigkeit als nach dem Stand der Technik vorhergesagt werden.
  • Eine bevorzugte Weiterbildung dieses Objekterkennungsverfahrens gemäß der Erfindung zeichnet sich dadurch aus, dass die Bestimmung der Position des Objekts im Ergebnisbild durch die Bestimmung der übereinstimmenden Rasterelemente des Ergebnisbildes mit entsprechenden Rasterelementen des Musterbildes erfolgt.
  • Der auf die Beobachtungsvorrichtung gerichtete Teil der Aufgabe wird gelöst durch die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 6 und auch durch die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 7.
  • Während die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 6 ausgebildet ist, um das erfindungsgemäße Verfahren zur Bildaufbereitung zu realisieren, ist die Beobachtungsvorrichtung gemäß Anspruch 7 dazu ausgebildet, unter Anwendung des erfindungsgemäßen Verfahrens zur Bildaufbereitung das erfindungsgemäße Verfahren zur automatischen Objekterkennung durchzuführen.
  • Vorteilhaft ist bei beiden erfindungsgemäßen Beobachtungsvorrichtungen eine Ausführungsform, bei der die Bildaufbereitungseinrichtung ein Bildrasterungsmodul und ein Rasterfiltermodul aufweist.
  • In einer ersten Variante der erfindungsgemäßen Beobachtungsvorrichtung weist das Bildrasterungsmodul eine matrixartige Anordnung von Lichtleitelementen auf, die zwischen der optischen Einrichtung und einem für die erfasste Strahlung empfindlichen Sensor angeordnet sind. Dabei ist zumindest einem Teil der Lichtleitelemente jeweils ein helligkeitsreduzierendes Rasterfilterelement des Rasterfiltermoduls zugeordnet. Die optische Einrichtung ist so ausgestaltet, dass sie die erfasste Bildinformation in einer Eintrittsebene des Bildrastungsmoduls als Rohbild abbildet, und sie ist weiterhin so ausgestaltet, dass das Rohbild bezüglich der Eintrittsebene des Bildrastungsmoduls auf der Eintrittebene verschiebbar ist. Zudem ist eine Rechnereinheit vorgesehen, die vom Sensor ein Helligkeitssignal erhält und auf der eine Software abläuft, die den Verfahrensschritt c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert. Diese vorteilhafte Ausführungsform der Beobachtungsvorrichtung setzt die erfindungsgemäßen Verfahrenschritte in optisch-mechanischer Weise um.
  • Wenn in diesem Dokument von ”Helligkeit” gesprochen wird, so ist dieser Begriff nicht auf das Spektrum des sichtbaren Lichts beschränkt, sondern er umfasst auch die Intensität der Strahlung in einem nicht-sichtbaren Spektrum wie beispielsweise im Infrarotspektrum oder im Ultraviolettspektrum, ohne jedoch darauf beschränkt zu sein.
  • Alternativ können die erfindungsgemäßen Verfahrensschritte auch in Software implementiert sein, wozu sich die dazu geeignete Beobachtungsvorrichtung dadurch auszeichnet, dass der optischen Einrichtung ein Bildsensor nachgeordnet ist, dass die optische Einrichtung so ausgestaltet ist, dass sie die erfasste Bildinformation in einer Sensorebene des Bildsensors abbildet, dass eine Rechnereinheit vorgesehen ist, die vom Bildsensor ein Bildsignal erhält, und dass in der Rechnereinheit eine Software abläuft, die die Verfahrensschritte b) und c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert, wobei das Bildrasterungsmodul und das Rasterfiltermodul als Subroutine der Software ausgebildet sind.
  • Diese vorteilhafte Ausführungsform der Beobachtungsvorrichtung setzt die erfindungsgemäßen Verfahrensschritte in optisch-elektronischer Weise um.
  • Die zusammengesetzten Multispektralbilder werden erst nach der Aufbereitung der Roheinzelbilder aus einer größeren Zahl von überlagerten aufbereiteten Einzelbildern, die in verschiedenen Spektralfarben aufgenommen worden sind, in der Rechnereinheit rechnerisch zusammengesetzt. Das zusammengesetzte Multispektralbild besitzt dann bei einer ausreichenden Zahl von überlagerten Einzelbildern durch die Mittelung über die vielen Einzelbilder ein viel besseres Signal-zu-Stör-Verhältnis als die Rohbilder von vorzugsweise über 100.
  • Die zusammengesetzten Multispektralbilder werden bevorzugt mit einem Multispektral-Bildauswertungs- und Identifizierungsverfahren nach 3 oder 4 in der Bildauswerteeinrichtung 25, 125 ausgewertet. Dabei wird vorzugsweise zuerst eine Beobachtung des Zielverhaltens vorgenommen und insbesondere die Anzahl und die Bahnkurven der sichtbaren Objekte werden bestimmt. Dann wird eine Datei aller Flugobjekte und ihrer Flugbahnen angelegt, die eine sichere Wiedererkennung aller Objekte bei Folgemessungen gestattet und eine Extrapolation ihrer Flugbahnen in die Zukunft erlaubt, insbesondere der Berechnung möglicher Einschlagpunkte des Flugobjekts am Ende der Flugbahn. Aus den zusammengesetzten Multispektralbildern kann außerdem das Verhalten der Objekte (Abtrennung einer Raketen-Oberstufe, Ausstoßen von Täuschkörpern, Flugmanöver eines Sprengkopfes) im zeitlichen Verlauf beobachtet und analysiert werden.
  • Die zusammengesetzten Multispektralbilder werden weiterhin in einer multispektralen Zielbilderkennung nach 3 oder 4 einem Vergleich mit einer mitgeführten und in der Speichereinrichtung 29, 129 abgelegten Referenzzielbilddatenbank unterzogen. Die Ziel bilderkennung kann so abgebildete Ziele als Zielobjekte eines bestimmten Typs wiedererkennen und folglich identifizieren. Die Zielbilderkennung kann zuverlässiger und trennschärfer arbeiten wenn die aufaddierten Multispektralbilder vor der Bearbeitung einer Aufbereitung in mehreren Stufen unterzogen werden.
  • Dazu werden die zusammengesetzten Multispektralbilder zunächst erfindungsgemäß in eine normierte Form überführt, indem zunächst für jedes Pixel die orthogonal vektoriell addierte Gesamthelligkeit als Helligkeitswert gebildet wird, und anschließend alle Farbkomponenten mit der Gesamthelligkeit normiert werden. Der gesamte Farbvektor besteht dann aus der Helligkeit und den normierten Farbwerten. Damit kann ein Farbkoordinatensystem mit beliebig vielen Spektralkomponenten definiert werden und in diesem System können alle Farboperationen multispektral ausgeführt werden, die im RGB System nur in drei Farben definiert sind.
  • Für alle Farbkomponenten und die Helligkeit jedes Bildpixels führt die Bildaufbereitung auf digitaler Basis nach 2 eine Operation aus, bei der das Bild gleichzeitig geglättet und differenzierbar gemacht wird, bei der nach der Mittelung über mehrere Bilder noch vorhandene Störpixel entfernt und geglättet werden, und bei der Helligkeitsübergänge und Kanten akzentuiert werden, so dass das Ergebnisbild schärfer, kontrastreicher und klarer in den Farben wird und zuverlässiger ausgewertet werden kann. Dies wird durch Transformation aller Farbkomponenten und der Helligkeitskomponente des normierten Bildes mit der im gezeigten Beispiel 5×5 Pixel großen Filtermatrix des Rasterfilters 122 in der Vorrichtung zur Aufbereitung von Bildern mit schlechtem Signal-zu-Stör-Verhältnis auf digitaler Basis nach 2 erreicht.
  • Vorzugsweise wird das Bild auch einer affinen Farbtransformation unterzogen, bei der das Ziel charakterisierende Spektralkomponenten gedehnt und damit besser auswertbar werden und untypische Spektralkomponenten gestaucht werden. Das ermöglicht bei der Korrelation der Ergebnisbilder mit den in den Bildern versteckten echten Zielobjekten in der Zielbilderkennung eine höhere Trennschärfe zwischen Echtzielen und Falschzielen, die mit Echtzielen verwechselt werden könnten, als ohne diese Bildaufbereitung.
  • Die Multispektrale Bilderkennung kann entweder mit der Vorrichtung zur Multispektralen Bilderkennung auf optischer Basis nach 3 oder mit höherer Genauigkeit mit der Vorrichtung zur Multispektralen Bilderkennung auf digitaler Basis nach 4 ausgeführt werden.
  • Bei der Vorrichtung auf optischer Basis (gemäß 3) erzeugt das Teleskop 110 über den Umlenkspiegel 112 ein reales 25×25 Pixel großes Zielbild eines entfernten Zieles in der Ebene 121 der Frontfläche des optischen 5×5 Lichtleiterbündels der Bilderfassungseinrichtung 120, das dieselbe Fläche einnimmt wie 5×5 Pixel des realen Zielbildes. Der Scanspiegel 112 lenkt das Zielbild horizontal und vertikal so ab, dass jedes Mittelpixel jedes 5×5 Pixelblockes sequentiell über das mittlere Lichtleitelement des 5×5 optischen Lichtleiterbündels streicht. Die fünfundzwanzig Werte für die 5×5 Pixelblöcke jedes 25×25 Pixel großen Bildes werden für alle Spektralbereiche in der Rechnereinheit 126 abgespeichert. Dies wird für zwölf Drehlagen über 360° des 25×25 Pixelbildes wiederholt. Suchbereiche aus 15×15 Pixelblöcken aus den Zielbildern werden für den Wert jedes Mittelpixels jedes 5×5 Pixelblockes mit den gesuchten 15×15 Pixel großen Referenzbildern verglichen, wobei die Differenzen der jeweils neun Koeffizientenwerte von Eingangsbildsuchbereich und aktuellem Referenzbild gebildet werden. Die Position und die Drehlage bei der die kleinste Differenzsumme auftritt und bei der diese einen bestimmten Minimalwert unterschreitet wird als Position und Drehlage eines gefundenen Zieles der aktuellen Referenzbildklasse registriert. Bildteile, die aus dem Bildfeld ragen werden nicht berücksichtigt. Die Positionsauflösung der Bilderkennung beträgt dabei fünf Pixel horizontal und vertikal.
  • Bei der Vorrichtung auf digitaler Basis (4) erzeugt das Teleskop 110 über den Umlenkspiegel 112 ein reales 25×25 Pixel großes Zielbild eines entfernten beleuchteten Zieles in der Bildebene der beispielsweise eine NIR-(Nahinfrarot)-Kamera aufweisenden Bilderfassungseinrichtung 120. Die Kamera setzt das Lichtsignal um in ein digitales Multispektralbild mit hoher Auflösung. Für die multispektrale Bilderkennung werden in dem Suchbild (25×25 Pixel groß) für jede Suchpixelposition Kennwerte einer erfindungsgemäßen Bewertungsfunktion berechnet, wie oben beschrieben worden ist. Durch die beschriebene Ausbildung der Bewertungsfunktion kann die Anzahl der zu untersuchenden Drehlagen ohne Verlust an Trennschärfe auf zwölf begrenzt werden.
  • Mit einem Nahinfrarot-Sensorsystem, das nach einem der vorgenannten Beispiel ausgestaltet ist, können in besonders vorteilhafter Weise eine Zielauffassung, eine Flugbahnverfolgung, eine Flugbahnvermessung und eine Zielbeobachtung und Zielidentifizierung von startenden Raketen auch nach Triebwerksbrennschluss auf Entfernungen bis zu 500 km durchgeführt werden.
  • Bevorzugte Ausführungsbeispiele der Erfindung mit zusätzlichen Ausgestaltungsdetails und weiteren Vorteilen sind nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben und erläutert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1 eine schematische Darstellung einer ersten Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen Bildaufbereitungsverfahrens;
  • 1A eine Rasterfiltermatrix der Beobachtungsvorrichtung gemäß 1;
  • 2 eine zweite Ausführungsform einer Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen Bildaufbereitungsverfahrens;
  • 2A eine Rasterfiltermatrix der Beobachtungsvorrichtung gemäß 2;
  • 3 eine erste Ausführungsform einer Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen automatischen Objekterkennungsverfahrens; und
  • 4 eine zweite Ausführungsform einer Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen automatischen Objekterkennungsverfahrens.
  • DARSTELLUNG VON BEVORZUGTEN AUSFÜHRUNGSBEISPIELEN
  • 1 zeigt eine erfindungsgemäße Beobachtungsvorrichtung mit einer optischen Einrichtung 1 und einer Bildaufbereitungseinrichtung 2. Die optische Einrichtung 1 weist eine Teleskopeinheit 10 mit einem langbrennweitigen Objektiv auf, die in der Figur nur schematisch dargestellt ist. Die Teleskopeinheit 10 fängt elektromagnetische Strahlung S einer beobachteten Szene im sichtbaren Spektrum des Lichts und außerhalb des sichtbaren Spektrums des Lichts (beispielsweise Infrarot- und/oder Ultraviolett-Strahlung) ein.
  • Die vom Teleskop 10 eingefangene Strahlung S wird auf einen bewegbaren Umlenkspiegel 12 geleitet, der von einem in 1 nur schematisch dargestellten Antrieb 14 zur Durchführung einer zweidimensionalen Scan-Bewegung antreibbar ist. Die vertikale Auslenkung des Umlenkspiegels 12 erfolgt in einem Winkelbereich, der in 1 beispielhaft durch die obere Grenzlinie a eines Mittelstrahls SM und durch die unter Grenzlinie a' sowie durch eine erste seitliche Grenzlinie b und eine zweite seitliche Grenzlinie b' des Mittelstrahls SM definiert ist. In diesem von den Grenzlinien a, a' und b, b' aufgespannten Bereich Z führt der Umlenkspiegel 12 eine zeilenweise Abtastung der vom Teleskop 10 eingefangenen Strahlung S durch und projiziert dabei jeweils einen Teil des durch den Bereich Z bestimmten Zielbilds Z' auf eine Eintrittsebene E eines Bildrasterungsmoduls 20 der Bildaufbereitungseinrichtung 2.
  • Das Bildrasterungsmodul 20 weist eine matrixartige Anordnung von in 1 nicht im Detail dargestellten Lichtleitelementen auf, die mit ihrem einen Ende in der Eingangsebene E münden. Am anderen Ende der Lichtleitelemente ist ein ebenfalls matrixartiges Rasterfilter 22 vorgesehen, das in 1 nur schematisch dargestellt ist und das im Querschnitt in 1A als Filtermatrix wiedergegeben ist. Dieses Rasterfilter 22 enthält ein zentrales Rasterfilterelement 22'' und eine Mehrzahl von dieses umgebenden weiteren einzelnen Rasterfilterelementen 22', die jeweils einem der das zentrale Lichtleitelement umgebenden weiteren Lichtleitelemente zugeordnet sind. Im gezeigten Beispiel besteht das Bildrasterungsmodul 20 somit aus fünf mal fünf (also fünfundzwanzig) Lichtleitelementen, denen jeweils ein Rasterfilterelement 22', 22'' zugeordnet ist.
  • In 1A sind einem jeweiligen weiteren Rasterfilterelement 22' Faktoren zugeordnet, die die Lichtdurchlässigkeit des einzelnen Rasterfilterelements wiedergeben. Demnach besitzt das zentrale Rasterfilterelement 22'', welches dem zentralen Lichtleitelement zugeordnet ist, eine Lichtdurchlässigkeit von 1,00, was 100% entspricht. Das durch das zentrale Lichtleitelement geführte Licht wird also vom Rasterfilter 22 nicht gedämpft. Im Gegensatz dazu werden die um das zentrale Lichtleitelement herum angeordneten weiteren Lichtleitelemente mit einer lichtdämpfenden Filterwirkung beaufschlagt, wobei die in 1A angegebenen Faktoren folgende Bedeutung haben:
    0,03 entspricht 3% Lichtdurchlässigkeit,
    0,06 entspricht 6% Lichtdurchlässigkeit,
    0,09 entspricht 9% Lichtdurchlässigkeit,
    0,12 entspricht 12% Lichtdurchlässigkeit,
    0,15 entspricht 15% Lichtdurchlässigkeit,
    0,21 entspricht 21% Lichtdurchlässigkeit.
  • Das von den einzelnen Lichtleitelementen des Bildrasterungsmoduls 20 durch das Rasterfilter 22 abgegebene Licht trifft auf einen Sensor 24, der beispielsweise von einer Fotolichtverstärkerröhre gebildet ist und welcher das Summensignal der durch die einzelnen Rasterfilterelemente austretenden Lichtstrahlung bildet. Dieses Helligkeits- oder Strahlungsintensitäts-Summensignal SS wird vom Sensor 24 an eine Rechnereinheit 26 der Bildaufbereitungseinrichtung 2 weitergeleitet.
  • Durch die Scanbewegung des Umlenkspiegels 12 wird somit die einfallende Strahlung S pixelweise vom Sensor 24 erfasst und der Rechnereinheit 26 als Strahlungsintensitäts-Summensignal SS zugeführt. Dabei wird zu jedem Zielbildpixel die Summe der mit den Filterfaktoren gewichteten Strahlungsintensitäten der Nachbarpixel der in 1A gezeigten Matrix vom Sensor 24 erfasst, wobei das jeweilige Zielbildpixel das zentrale Element der Matrix bildet. Dabei entspricht ein Zielbildpixel einem Rasterelement des Rasters der Lichtleitelemente beziehungsweise des Rasterfilters. Jedem Zielbildpixel werden somit die entsprechend der in 1A gezeigten Helligkeitsdämpfungsmatrix gewichteten Helligkeiten der das zentrale Pixelelement (Zielbildpixel) umgebenden Pixel entsprechend der Matrix summarisch zugeordnet, so dass hierdurch eine entsprechend den Dämpfungsfaktoren der Matrix gewichtete Lichtverstärkung für das Zielbildpixel erfolgt.
  • In der Rechnereinheit 26 werden nach einem vollständig durchgeführten Scan des Umlenkspiegels 12 alle gespeicherten Summen-Helligkeitswerte der einzelnen Zielbildpixel wieder zu einem Ergebnisbild zusammengefasst, das dann über eine Ausgabeschnittstelle 27 beispielsweise an einer Anzeigeeinrichtung 28 ausgegeben wird. Die Bildung des Ergebnisbildes aus den gespeicherten Summen-Helligkeitswerten der einzelnen Zielbildpixel erfolgt derart, dass der gespeicherte Summen-Helligkeitswert eines Zielbildpixels derselben Position im Ergebnisbild zugewiesen wird, den das Zielbildpixel im Zielbild eingenommen hat.
  • Dieses ausgegebene Ergebnisbild ist durch die beschriebene Lichtverstärkung nicht nur heller als das ursprünglich auf die Eingangsebene E projizierte Zielbild Z', sondern aufgrund der unterschiedlichen Gewichtung der jeweiligen Nachbarpixel gemäß der Matrix aus 1A ist dieses Ergebnisbild auch geglättet und enthält keine Rauschpixel mehr, die aus dem Hintergrund hervortreten. Dadurch ist der Helligkeitsverlauf des Ergebnisbildes stetig, so dass das Ergebnisbild differenzierbar ist. Der Bildkontrast ist zudem durch das beschriebene Verfahren verbessert.
  • Zwar ist im gezeigten Beispiel die Helligkeitsfiltermatrix (Rasterfilter 22) mit 5×5 Rasterfilterelementen angegeben und das von dem Scanbereich aufgespannte Zielbild Z' ist mit 25×25 Pixeln angenommen, doch kann die Erfindung auch für alle anderen Auflösungen des Zielbildes und für alle anderen Auflösungen der Helligkeitsfiltermatrix beziehungsweise der Matrix aus Lichtleitelementen realisiert werden.
  • In 2 ist eine abgewandelte Variante der in 1 gezeigten Beobachtungsvorrichtung dargestellt. Die von der zu beobachtenden Szene empfangene Strahlung S wird von der Teleskopeinheit 110 der optischen Einrichtung 101 eingefangen und mittels eines – im Gegensatz zu 1 nicht bewegbaren – Umlenkspiegels 112 auf einen Bildsensor 121 (beispielsweise auf einen CCD-Sensor) einer Bilderfassungseinrichtung 120, die Bestandteil der Bildaufbereitungseinrichtung 102 ist, geleitet, wobei das Zielbild Z' der beobachteten Szene vollständig auf dem Bildsensor 121 abgebildet wird.
  • Die Bilderfassungseinrichtung 120 setzt das auf den Bildsensor 121 projizierte optische Zielbild Z' in ein digitales Bild um, das in Form einer Bilddatei an eine Rechnereinheit 126 weitergeleitet wird.
  • In der Rechnereinheit 126 läuft eine Software ab, die analog dem in Verbindung mit 1 beschriebenen optischen Bildaufbereitungsverfahren das erhaltene digitale Bild aufbereitet. Dabei wird das aufgenommene Zielbild Z' in ein Rasterbild gewandelt und rasterelementweise beziehungsweise pixelweise bearbeitet, wobei der Helligkeitswert eines jeden Zielbildpixels bestimmt und entsprechend der in 2A gezeigten Filtermatrix, die ein Rasterfilter 122 mit den Rasterfilterelementen 122', 122'' als Software Subroutine bildet, mit den gefilterten Pixeln der das aktuelle Zielbildpixel umgebenden Pixel des Zielbildes zu einem Summen-Helligkeitswert aufaddiert. Diese Bildung eines Summen-Helligkeitswerts wird für jedes Zielbildpixel durchgeführt und aus den einzelnen erhaltenen Summen-Helligkeitswerten dieser elektronisch gerasteten Zielbildpixel oder Zielbildelemente wird ein Ergebnisbild auf analoge Weise erzeugt wie dies in Verbindung mit der 1 beschrieben worden ist. Das Ergebnisbild wird über die Ausgabeschnittstelle 127 an eine Anzeigeeinrichtung 128 ausgegeben.
  • Obwohl die hier beschriebenen Beispiele auf das sichtbare Lichtspektrum bezogen sind, sind sie nicht darauf beschränkt. Zusätzlich zu der beschriebenen Bildaufbereitung von im sichtbaren Lichtspektrum aufgenommenen Szenen werden die Szenen auch in anderen Spektren, beispielsweise im Infrarotspektrum und im Ultraviolettspektrum aufgenommen und auf dieselbe Weise aufbereitet wie dies in Bezug auf die 1 und 2 beschrieben worden ist. Die so erhaltenen Ergebnisbilder unterschiedlicher Spektralbereiche werden in der Rechnereinheit 26, 126 zu einem Multispektralbild überlagert, das über die Ausgabeschnittstelle 27, 127 ausgegeben wird.
  • 3 zeigt eine Beobachtungsvorrichtung, wie sie unter Bezugnahme auf 1 bereits beschrieben worden ist. Die Bezugszeichen entsprechen daher denen aus 1. Ein wesentlicher Unterschied zur Ausführungsform der 1 besteht darin, dass das die Lichtleitelemente aufweisende Bildrasterungsmodul 20 um eine parallel zur Längsrichtung der Lichtleitelemente verlaufende Rotationsachse X in vorgegebenen Winkelschritten (beispielsweise 12 Winkelschritte über 360°) drehbar ist wie durch den Pfeil 23 symbolisch dargestellt ist.
  • Das Teleskop 10 erzeugt über den Umlenkspiegel 12 ein beispielsweise 25×25 Pixel großes Zielbild Z', das in 3 als Matrix mit 5×5 Feldern dargestellt ist, wobei jedes Feld die Größe von 5×5 Pixeln oder Rasterelementen aufweist und damit dieselbe Größe und dieselbe Anzahl von Rasterelementen besitzt, wie das Rasterfilter 22.
  • Der Umlenkspiegel 12 lenkt die vom Teleskop 10 eingefangene Strahlung horizontal und vertikal so ab, dass jedes Mittelpixel eines jeden 5×5 Pixelblocks (= Zielbildelement zi) sequentiell über das zentrale Lichtleitelement des Bildrasterungsmoduls 20 geführt wird. Die sich entsprechend der in Verbindung mit 1 beschriebenen Bildverarbeitung ergebenden Helligkeitswerte für die fünfundzwanzig Zielbildelemente zi werden in der Rechnereinheit 26 abgespeichert. Dabei erfolgt die Bildaufbereitung vorzugsweise nicht nur im Bereich des sichtbaren Lichts, sondern analog auch für andere Spektralbereiche. Auch die Ergebniswerte für die anderen Spektralbereiche werden in der Rechnereinheit 26 abgespeichert.
  • Daraufhin wird das Bildrasterungsmodul 20 um einen Winkelschritt weiter gedreht und die beschriebenen Bildaufbereitungsschritte werden wiederholt. Wird dieses Prozedere für alle Winkelschritte, also für eine vollständige Umdrehung des Bildrasterungsmoduls 20 um die Achse X, durchgeführt, so wird eine der Anzahl der Winkelschritte entsprechende Anzahl von Ergebnisbildern in unterschiedlichen Drehlagen erhalten.
  • Die neun inneren 5×5 Pixelblöcke zm des Zielbilds Z' werden jetzt als Suchbildbereich definiert und das auf diese Elemente zm reduzierte Zielbild wird mit in einer Speichereinrichtung 29 gespeicherten Referenzbildern gleicher Größe und gleicher Auflösung verglichen. Die Position und die Drehlage bei der die kleinste Differenz zwischen dem Suchbild und dem gespeicherten Referenzbild auftritt, wird als Position und Drehlage eines in der überwachten Szene enthaltenen Zieles einer Referenzbildklasse registriert.
  • Auf diese Weise ist ein Verfahren zur automatischen Objekterkennung unter Anwendung des in Verbindung mit 1 beschriebenen Bildaufbereitungsverfahrens geschaffen.
  • Die 4 zeigt eine weitere Variante einer erfindungsgemäßen Beobachtungsvorrichtung zur automatischen Objekterkennung. Die Beobachtungsvorrichtung entspricht in ihrem Aufbau der in Verbindung mit 2 beschriebenen Beobachtungsvorrichtung, so dass die Bezugszeichen in 4 dieselben Bezugszeichen sind wie in 2 und somit dieselben Bauteile bezeichnen. In Abweichung zur Ausführungsform der 2 weist die Ausführungsform der 4 einen Referenzbildspeicher in der Speichereinrichtung 129 auf, der mit der Rechnereinheit 126 zum Datenaustausch in Verbindung steht.
  • Die Rechnereinheit 26, 126 und die Speichereinrichtung 29, 129 bilden innerhalb der Bildaufbereitungseinrichtung 2 eine Bildauswerteeinrichtung 25.
  • Auch mit dieser Vorrichtung wird ein Verfahren zur Objekterkennung ähnlich dem in Verbindung mit 3 beschriebenen Verfahren durchgeführt, wobei in der Ausführungsform der 4 jedoch die Drehung des Zielbildes Z' virtuell mittels der in der Rechnereinrichtung 126 laufenden Software durchgeführt wird.
  • Für die, bevorzugterweise multispektrale, Bilderkennung werden in dem Zielbild Z' (25×25 Pixel) für jede Suchpixelposition PZ folgende Kennwerte berechnet:
    • 1) Der nach der Matrix des Rasterfilters 122 gewichtete Mittelwert der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit wird für jeden einzelnen der neun markierten 5×5 Pixelblöcke zm und für alle vier zentralen Pixel 123 der Eck-Pixelblöcke im Zentralbereich aus neuen Pixelblöcken berechnet und es wird jeweils der Durchschnittswert der Mittelwerte für die jeweils acht in einem Ring angeordneten 5×5 Pixelblöcke zR, die einen jeweiligen Eck-Pixelblock umgeben, berechnet.
    • 2) Die Standardabweichung der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit wird für jeden der neun markierten 5×5 Pixelblöcke zm und für alle vier zentralen Pixel 123 berechnet und es wird jeweils der Durchschnittswert der Standardabweichungen für die jeweils acht in einem Ring angeordneten 5×5 Pixelblöcke zR berechnet.
    • 3) Die Werte nach 1) und 2) werden in zwölf über 360° verteilten Drehlagen berechnet.
    • 4) Jeder Wertesatz wird in jeder Drehlage zu einem Suchpixel durch Differenzbildung mit den Werten für das gesuchte Referenzzielbild verglichen und der Wertesatz mit dem kleinsten Absolutbetrag der Differenzsumme wird als Repräsentant für dieses Suchpixel registriert.
    • 5) Das Zielbild wird nun in kleinere Teilbereiche zerlegt und das Suchpixel mit der kleinsten Differenzsumme in jedem Teilbereich wird gesucht. Der Wertesatz des Suchpixels mit der kleinsten Differenzsumme wird als erkanntes Zielbild interpretiert und an der betrachteten Suchpixelposition mit einem Pixel Auflösung und der Drehlage als entdecktes Ziel des Referenzzieltyps registriert.
  • Bezugszeichen in den Ansprüchen, der Beschreibung und den Zeichnungen dienen lediglich dem besseren Verständnis der Erfindung und sollen den Schutzumfang nicht einschränken.
  • Bezugszeichenliste
  • 1
    optische Einrichtung
    2
    Bildaufbereitungseinrichtung
    10
    Teleskopeinheit
    12
    Umlenkspiegel
    14
    Antrieb
    18
    Anzeigeeinrichtung
    20
    Bildrasterungsmodul
    22
    Rasterfilter
    22'
    Rasterfilterelement
    22''
    Rasterfilterelement
    24
    Sensor
    25
    Bildauswerteeinrichtung
    26
    Rechnereinheit
    27
    Ausgabeschnittstelle
    28
    Anzeigeeinrichtung
    29
    Speichereinrichtung
    101
    optische Einrichtung
    102
    Bildaufbereitungseinrichtung
    110
    Teleskopeinheit
    112
    Umlenkspiegel
    120
    Bilderfassungseinrichtung
    121
    Bildsensor
    122
    Rasterfilter
    122'
    Rasterfilterelement
    122''
    Rasterfilterelement
    125
    Bildauswerteeinrichtung
    126
    Rechnereinheit
    127
    Ausgabeschnittstelle
    128
    Anzeigeeinrichtung
    129
    Referenzbildspeicher
    a
    Grenzlinie
    a'
    Grenzlinie
    b
    Grenzlinie
    b'
    Grenzlinie
    E
    Eingangsebene
    PZ
    Suchpixelposition
    S
    elektromagnetische Strahlung
    SM
    Mittelstrahl
    SS
    Summensignal
    X
    optische Achse
    Z
    aufgespannter Bereich
    Z'
    Zielbild
    zi
    Zielbildelement
    zm
    Pixelblock
    zR
    Pixelblock
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102011010337 [0004]

Claims (11)

  1. Verfahren zur Bildaufbereitung mit folgenden Schritten: a) Erfassen von Bildinformation einer Szene als elektromagnetische Strahlung mittels einer optischen Einrichtung (1, 101); b) Aufbereiten der in Schritt a) erhaltenen Bildinformation mittels einer Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch-Verhältnisses der Bildinformation, wobei die Aufbereitung in folgenden Teilschritten durchgeführt wird: b1) Unterteilen eines die Bildinformation aufweisenden Rohbildes in Zeilen und Spalten zur Schaffung eines Rasterbildes; b2) Überlagern eines Rasterbildelements mit einem zentralen Rasterfilterelement (22'', 122'') eines eine ungerade Anzahl von Zeilen und eine ungerade Anzahl von Spalten aufweisenden Rasterfilters (22, 122); b3) Bestimmen der Helligkeitswerte eines jeden der vom Rasterfilter (22, 122) überdeckten Rasterbildelemente, wobei außer dem zentralen Rasterfilterelement (22'', 122'') jedes andere Rasterfilterelement (22', 122') eine individuelle Lichtdämpfungseigenschaft aufweist; b4) Aufsummieren der in Schritt b3) bestimmten Helligkeitswerte zu einem Summen-Helligkeitswert und Zuordnen dieses Summen-Helligkeitswerts zu dem vom zentralen Rasterfilterelement (22'', 122'') überdeckten Rasterbildelement; b5) Wiederholen der Schritte b2) bis b4) für alle verbleibenden Rasterbildelemente; c) Erzeugen eines Ergebnisbildes mit derselben Rasterung wie das Rohbild aus den einzelnen im Schritt b) erhaltenen Summen-Helligkeitswerten der Rasterbildelemente.
  2. Verfahren zur Bildaufbereitung nach Anspruch 1, dadurch gekennzeichnet, – dass im Schritt a) die Bildinformation der Szene in mehr als einem elektromagnetischen Wellenlängenbereich erfasst wird, um so Rohbilder der Szene in unterschiedlichen Spektralbereichen zu erhalten; – dass die Schritte b) und c) für alle Rohbilder der Szene durchgeführt werden, um Ergebnisbilder unterschiedlicher Spektralbereiche zu erhalten, und – dass die Ergebnisbilder der unterschiedlichen Spektralbereiche durch Überlagerung zu einem Multispektral-Ergebnisbild zusammengefasst werden.
  3. Verfahren zur Bildaufbereitung nach Anspruch 2, dadurch gekennzeichnet, dass das Erfassen der Bildinformation der Szene in den unterschiedlichen Spektralbereichen unter Verwendung unterschiedlicher Spektralbereichsfilter in kurzer zeitlicher Aufeinanderfolge mittels einer Hochgeschwindigkeitskamera erfolgt.
  4. Verfahren zur automatischen Objekterkennung unter Anwendung des Verfahrens zur Bildaufbereitung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, – dass das Erfassen der Szene im Schritt a) in unterschiedlichen Drehwinkeln um die optische Achse (X) der optischen Einrichtung durchgeführt wird; – dass zu jedem Drehwinkel ein Ergebnisbild gemäß den Schritten des Verfahrens zur Bildaufbereitung erzeugt wird; – dass die einzelnen Ergebnisbilder mit in einer Objekte-Datenbank gespeicherten Musterbildern einzelner Objekte verglichen werden und – dass das Musterbild mit der geringsten Abweichung von einem oder mehreren der Ergebnisbilder das in der Szene enthaltene Objekt identifiziert und die Position des Objekts im Ergebnisbild bestimmt.
  5. Verfahren zur automatischen Objekterkennung nach Anspruch 4, dadurch gekennzeichnet, dass die Bestimmung der Position des Objekts im Ergebnisbild durch die Bestimmung der übereinstimmenden Rasterelemente des Ergebnisbildes mit entsprechenden Rasterelementen des Musterbildes erfolgt.
  6. Beobachtungsvorrichtung mit einer optischen Einrichtung (1, 101) zum Erfassen von Bildinformation einer Szene sowie mit einer Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch-Verhältnisses der erfassten Bildinformation, dadurch gekennzeichnet, dass die Beobachtungsvorrichtung zur Durchführung der Verfahrensschritte des Bildaufbereitungsverfahrens nach einem der Ansprüche 1 bis 3 ausgebildet ist.
  7. Beobachtungsvorrichtung mit einer optischen Einrichtung (1, 101) zum Erfassen von Bildinformation einer Szene sowie mit einer Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch-Verhältnisses der erfassten Bildinformation und einer Bildauswerteeinrichtung (25, 125) dadurch gekennzeichnet, dass die Beobachtungsvorrichtung zur Durchführung der Verfahrensschritte des Objekterkennungsverfahrens nach Anspruch 4 oder 5 ausgebildet ist.
  8. Beobachtungsvorrichtung nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die Bildaufbereitungseinrichtung (2, 102) ein Bildrasterungsmodul (20) und ein Rasterfiltermodul (22, 122) aufweist.
  9. Beobachtungsvorrichtung nach Anspruch 8, dadurch gekennzeichnet, – dass das Bildrasterungsmodul (20) eine matrixartige Anordnung von Lichtleitelementen aufweist, die zwischen der optischen Einrichtung (1) und einem für die erfasste Strahlung empfindlichen Sensor (24) angeordnet sind; – dass zumindest einem Teil der Lichtleitelemente jeweils ein helligkeitsreduzierendes Rasterfilterelement (22') des Rasterfiltermoduls (22) zugeordnet ist; – dass die optische Einrichtung (1) so ausgestaltet ist, dass sie die erfasste Bildinformation in einer Eintrittsebene (E) des Bildrasterungsmoduls (2) als Rohbild abbildet; – dass die optische Einrichtung so ausgestaltet ist, dass das Rohbild bezüglich der Eintrittsebene (E) des Bildrasterungsmoduls (20) auf der Eintrittsebene (E) verschiebbar ist; – dass eine Rechnereinheit (26) vorgesehen ist, die vom Sensor (24) ein Helligkeitssignal erhält, und – dass in der Rechnereinheit (26) eine Software abläuft, die den Verfahrensschritt c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert.
  10. Beobachtungsvorrichtung nach Anspruch 8, dadurch gekennzeichnet, – dass der optischen Einrichtung (101) ein Bildsensor (121) nachgeordnet ist; – dass die optische Einrichtung (101) so ausgestaltet ist, dass sie die erfasste Bildinformation in einer Sensorebene des Bildsensors (121) abbildet; – dass eine Rechnereinheit (126) vorgesehen ist, die vom Bildsensor (121) ein Bildsignal erhält, und – dass in der Rechnereinheit (126) eine Software abläuft, die die Verfahrensschritte b) und c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert, wobei das Bildrasterungsmodul und das Rasterfiltermodul (122) als Subroutine der Software ausgebildet sind.
  11. Verfahren zur Bahnverfolgung startender Raketen mit brennenden Triebwerken mit stark erhöhter Genauigkeit gegenüber dem Stand der Technik, dadurch gekennzeichnet, – dass die Beobachtung von einem hoch über der dichten Atmosphäre fliegenden Fluggerät nach oben mit dem kalten Weltraum als Hintergrund erfolgt und dadurch die Empfindlichkeit des Systems wesentlich erhöht und die Störanfälligkeit verringert wird. – dass die Beobachtung von der Seite und von unten erfolgt, so dass die Sichtlinie auf den heissen Kernbereich des Triebwerksstrahles weder durch den Rumpf der Rakete noch durch den Rauch und Abgasstrahl hinter der Rakete verdeckt wird. – dass schmalbandige Multispektralbilder des Feuerstrahls der Rakete in mindestens 3 Bändern aufgenommen werden, deren Spektralbereiche so auf die Temperatur des beobachteten Zieles abgestimmt sind, dass sich die Temperaturverteilung in dem Zielbild sehr genau, z. B. auf 50°K genau berechnen lässt. – dass zur Bahnverfolgung der Rakete der Hochtemperaturbereich des Kernstrahles verwendet wird, der fest an die Triebwerksdüse gebunden ist und keinen Fluktuationen unterworfen ist, die die Messgenauigkeit beeinträchtigen könnten. – dass die optische Auflösung in der Größe des Düsendurchmessers der Rakete gewählt wird, um die Größe, die Zahl, und die Anordnung der Raketentriebwerke an der Rakete bestimmen zu können, und die Rakete damit nach ihrem Typ klassifizieren zu können.
DE102012022045.6A 2012-10-12 2012-11-09 Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen Withdrawn DE102012022045A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102012022045.6A DE102012022045A1 (de) 2012-10-12 2012-11-09 Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen
EP13794796.6A EP2907105A2 (de) 2012-10-12 2013-10-08 Verfahren zur bildaufbereitung und verfahren zur bahnverfolgung von raketen
KR1020157012406A KR20150072423A (ko) 2012-10-12 2013-10-08 이미지 프로세싱 방법 및 발사된 로켓의 경로를 추적하는 방법
PCT/DE2013/000569 WO2014056473A2 (de) 2012-10-12 2013-10-08 Verfahren zur bildaufbereitung und damit durchführbares verfahren zur automatischen objekterkennung sowie beobachtungsvorrichtung und verfahren zur hochgenauen bahnverfolgung startender raketen auf grosse entfernungen
JP2015535987A JP6285940B2 (ja) 2012-10-12 2013-10-08 画像処理方法、該画像処理方法と共に実行される対象物自動検出方法、観測装置、及び、発射されたロケットの飛翔経路を遠距離から高精度で追跡する方法
US14/435,020 US9300866B2 (en) 2012-10-12 2013-10-08 Method for image processing and method that can be performed therewith for the automatic detection of objects, observation device and method for high-precision tracking of the course followed by launched rockets over large distances

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012020104.4 2012-10-12
DE102012020104 2012-10-12
DE102012022045.6A DE102012022045A1 (de) 2012-10-12 2012-11-09 Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen

Publications (1)

Publication Number Publication Date
DE102012022045A1 true DE102012022045A1 (de) 2014-04-17

Family

ID=50383016

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012022045.6A Withdrawn DE102012022045A1 (de) 2012-10-12 2012-11-09 Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen

Country Status (6)

Country Link
US (1) US9300866B2 (de)
EP (1) EP2907105A2 (de)
JP (1) JP6285940B2 (de)
KR (1) KR20150072423A (de)
DE (1) DE102012022045A1 (de)
WO (1) WO2014056473A2 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105359185B (zh) * 2013-08-08 2018-02-06 株式会社岛津制作所 图像处理装置
CN111797872B (zh) * 2019-04-09 2023-08-01 深圳市家家分类科技有限公司 控制方法、电子装置、计算机可读存储介质及降解设备
US11587323B2 (en) * 2019-06-28 2023-02-21 Raytheon Company Target model broker
CN115147313B (zh) * 2022-09-01 2022-12-30 中国科学院空天信息创新研究院 椭圆轨道遥感图像的几何校正方法、装置、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011010337A1 (de) 2011-02-04 2012-08-09 Eads Deutschland Gmbh Kamerasystem zur Erfassung und Bahnverfolgung von in großer Entfernung befindlichen bewegten Objekten

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4686646A (en) 1985-05-01 1987-08-11 Westinghouse Electric Corp. Binary space-integrating acousto-optic processor for vector-matrix multiplication
JPH04164275A (ja) * 1990-10-26 1992-06-09 Hamamatsu Photonics Kk 遠隔位置の光学観測装置
US5299275A (en) * 1993-03-31 1994-03-29 Eastman Kodak Company Optical fiber filter for reducing artifacts in imaging apparatus
US6965685B1 (en) 2001-09-04 2005-11-15 Hewlett-Packard Development Company, Lp. Biometric sensor
DE102011010339A1 (de) 2011-02-04 2012-08-09 Eads Deutschland Gmbh Luftraumüberwachungssystem zur Erfassung von innnerhalb eines zu überwachenden Gebiets startenden Raketen sowie Verfahren zu Luftraumüberwachung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011010337A1 (de) 2011-02-04 2012-08-09 Eads Deutschland Gmbh Kamerasystem zur Erfassung und Bahnverfolgung von in großer Entfernung befindlichen bewegten Objekten

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
D.W. Paglieroni, G.E. Ford, E.M. Tsujimoto: "The Position-Orientation Masking Approach to Parametric Search for Template Matching," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 16, no. 7, pp. 740-747, July, 1994 *
Michael A. Soel ; Stanley Rudman ; Robert Ryan ; Nils J. Fonneland ; Steve J. Milano: "Multiview: a novel multispectral IR imaging camera" Proc. SPIE 3063, Infrared Imaging Systems: Design, Analysis, Modeling, and Testing VIII, 239 (June 16, 1997); Doi:10.1117/12.276074 *
Wikipedia-Artikel "Gaussian blur" vom 29.09.2012, http://en.wikipedia.org/w/index.php?title=Gaussian_blur&oldid=515201488 *
Wikipedia-Artikel „Gaussian blur" vom 29.09.2012, http://en.wikipedia.org/w/index.php?title=Gaussian_blur&oldid=515201488

Also Published As

Publication number Publication date
US9300866B2 (en) 2016-03-29
WO2014056473A3 (de) 2014-07-17
EP2907105A2 (de) 2015-08-19
KR20150072423A (ko) 2015-06-29
US20150281572A1 (en) 2015-10-01
JP2015537290A (ja) 2015-12-24
WO2014056473A2 (de) 2014-04-17
JP6285940B2 (ja) 2018-02-28

Similar Documents

Publication Publication Date Title
DE102004018813A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
WO2002103385A1 (de) Verfahren zur bereitstellung von bildinformationen
DE102012112322A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE202012013411U1 (de) Systeme für Overhead-Bild- und Videoanzeige
EP2944930A2 (de) Räumlich und spektral auflösende Hyperspektralkamera und Verfahren
DE3905591A1 (de) Vorrichtung zur gewinnung kontrastreicher bilder
EP1953568A1 (de) Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
DE102012022045A1 (de) Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahn-Verfolgung startender Raketen auf große Entfernungen
DE102012002321B4 (de) Verfahren zur Erkennung eines vorgegebenen Musters in einem Bilddatensatz
EP1460454A2 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102018108936A1 (de) Formmesssystem und Formmessverfahren
DE102012020093A1 (de) Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke
DE102005055919B4 (de) Verfahren zum Detektieren und Diskriminieren von Tieren in landwirtschaftlich genutzten Wiesenflächen
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
DE102006060612B4 (de) Verfahren zur Überwachung von Zielobjekten und Multispektralkamera dazu
DE10001282C2 (de) Verfahren zur autonomen Detektion von Hubschraubern
DE102016102610A1 (de) Laserscanner
EP3200149B1 (de) Verfahren zum erkennen eines objekts in einem suchbild
DE102012020922A1 (de) Laserscanner
DE102017006877A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugkörpern mit einem Stereokamerasystem und einem Hochfrequenzscanner
DE102021203812B4 (de) Optische Messvorrichtung und Verfahren zum Bestimmen eines mehrdimensionalen Oberflächenmodells

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0003782000

Ipc: G06T0007000000

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE

Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE

Effective date: 20140814

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee