DE102018008864A1 - Verfahren zum Auffassen eines Ziels - Google Patents

Verfahren zum Auffassen eines Ziels Download PDF

Info

Publication number
DE102018008864A1
DE102018008864A1 DE102018008864.3A DE102018008864A DE102018008864A1 DE 102018008864 A1 DE102018008864 A1 DE 102018008864A1 DE 102018008864 A DE102018008864 A DE 102018008864A DE 102018008864 A1 DE102018008864 A1 DE 102018008864A1
Authority
DE
Germany
Prior art keywords
target
classifiers
image
recognition unit
missile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018008864.3A
Other languages
English (en)
Inventor
Andre Selz
Marc-Oliver Kühn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Defence GmbH and Co KG
Original Assignee
Diehl Defence GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Defence GmbH and Co KG filed Critical Diehl Defence GmbH and Co KG
Priority to DE102018008864.3A priority Critical patent/DE102018008864A1/de
Priority to EP19801266.8A priority patent/EP3877722A1/de
Priority to PCT/EP2019/080336 priority patent/WO2020094691A1/de
Publication of DE102018008864A1 publication Critical patent/DE102018008864A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

Die Erfindung geht aus von einem Verfahren zum Auffassen eines Ziels (36), bei dem ein das Ziel (36) abbildendes Bild (28) vorgegeben wird und eine Zielerkennungseinheit (18) aus Bildmerkmalen des Bilds (28) und vorgegebenen Klassifikatoren (56) das abgebildete Ziel (36) als solches erkennt.Um eine zuverlässige Zielauffassung zu erreichen, wird vorgeschlagen, dass die Zielerkennungseinheit (18) anhand der Kenntnis des Ziels (36) neue Klassifikatoren (66) aus dem Bild (28) ermittelt, mit denen das Ziel (36) mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren (56) als solches erkennbar ist.

Description

  • Die Erfindung betrifft ein Verfahren zum Auffassen eines Ziels, bei dem ein das Ziel abbildendes Bild vorgegeben wird und eine Zielerkennungseinheit aus Bildmerkmalen des Bilds und vorgegebenen Klassifikatoren das abgebildete Ziel als solches erkennt.
  • Zum Anfliegen von Boden- oder Luftzielen werden Flugkörper mit einem Suchkopf verwendet, der das Ziel als solches erkennt und verfolgen kann. Der Flugkörper kann das Ziel selbstständig verfolgen und zu diesem hinfliegen. Der Flugkörper umfasst hierfür eine Kamera, die das Ziel im visuellen und/oder infraroten Spektralbereich aufnimmt. Mittels bildverarbeitender Methoden wird das Ziel aus einem oder mehreren aufgenommenen Bildern erkannt und die Lage des Ziels im Bild und gegebenenfalls eine Ausrichtung einer verschwenkbaren Optik der Kamera wird hinzugezogen, um die Lage des Ziels relativ zur Flugrichtung beziehungsweise zur Längsachse des Flugkörpers zu ermitteln.
  • Je nach das Ziel umgebender Szenerie kann es schwierig sein, das Ziel als solches zu erkennen und somit von anderen Objekten der Szenerie zuverlässig zu unterscheiden. Hierzu untersucht eine Bildverarbeitungssoftware ein das Ziel abbildendes Bild auf Bildmerkmale anhand sogenannter Klassifikatoren, die typische Bildmerkmale eines oder mehrerer Ziele beschreiben. Die Zuverlässigkeit der Auffassung des Ziels ist insofern auch abhängig von der Güte der zur Zielauffassung verwendeten Klassifikatoren.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein zuverlässiges Verfahren zum Auffassen eines Ziels anzugeben.
  • Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß die Zielerkennungseinheit anhand der Kenntnis des Ziels neue Klassifikatoren aus dem Bild ermittelt, mit denen das Ziel mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren als solches erkennbar ist.
  • Die Erfindung geht von der Überlegung aus, dass das Ermitteln von Klassifikatoren, mit denen Flugkörperziele zuverlässig als solche erkannt werden können, mit einem hohen Aufwand verbunden ist. Klassifikatoren können ermittelt werden, indem aus einer Vielzahl von Bildern, die jeweils ein Ziel abbilden, Bildmerkmale des Ziels extrahiert werden und aus diesen Klassifikatoren gebildet werden, die jeweils ihr Bildmerkmal erkennen. Mit diesen so gefundenen Klassifikatoren können die gleichen und/oder andere Bilder, die jeweils ein Ziel zeigen, untersucht werden mit der Aufgabe, dass die Bildverarbeitungssoftware anhand der Klassifikatoren das Ziel in den Bildern alleine wieder findet. Anhand einer Erkennungsgüte, die Ergebnis des Erkennungsprozesses ist, kann überprüft werden, wie zuverlässig das Erkennen des Ziels im jeweiligen Bild ist.
  • Zum Bilden oder Verbessern von Klassifikatoren zur Zielerkennung werden Bilder benötigt, in denen jeweils zumindest ein zu erkennendes Ziel abgebildet ist. Bei militärischen Zielen werden solche Bilder häufig bei Trainingseinsätzen aufgenommen, bei denen das Ziel und/oder ein Ziel verfolgender Flugkörper einen Einsatz fliegt. Da solche Bilder nicht selten sensible Daten enthalten, werden sie häufig unter Verschluss gehalten und sind somit nicht zu einer Verbesserung der Klassifikatoren zugänglich.
  • Diese Schwierigkeit kann durch die Erfindung gelöst werden. Die Zielerkennungseinheit kann einem Zielbilder aufnehmenden Nutzer zur Verfügung gestellt werden, beispielsweise einem Übungen fliegendem Militär. Aus Bildern, die ein Ziel darstellen, können noch beim Nutzer mit der Zielerkennungseinheit neue Klassifikatoren ermitteln werden, ohne dass die Zielbilder an sich herausgegeben werden müssen. Die Klassifikatoren, die üblicherweise frei von sensiblen Daten sind, können nun dem Hersteller der Zielerkennungseinheit zur Verfügung gestellt werden, sodass die Zielerkennungseinheit unter Verwendung der neuen Klassifikatoren weiter verbessert werden kann. Mit verhältnismäßig geringem Aufwand kann so die Zuverlässigkeit der Zielauffassung erheblich gesteigert werden.
  • Um Zielbilder, also Bilder, die jeweils ein oder mehrere Ziele abbilden, in einem eng begrenzten Bereich zu belassen und nicht weit zu verteilen, ist es sinnvoll, wenn die Zielerkennungseinheit in einem Flugkörper oder einer Plattform eingebunden ist, beispielsweise einem Flugzeug. Die Plattform trägt zweckmäßigerweise einen Flugkörper. Der Flugkörper kann ein unbemannter Flugkörper sein, insbesondere ein Flugkörper mit einem Raketenmotor. Bereits während eines Einsatzes der Plattform beziehungsweise des Flugkörpers können die neuen Klassifikatoren von der Zielerkennungseinheit ermittelt werden. Die neuen Klassifikatoren können sogar ermittelt werden, während ein fliegendes Ziel verfolgt wird oder die Plattform beziehungsweise der Flugkörper selber fliegt. Die Bilder müssen nicht mehr an einen bodengebundenen Standort verschickt werden.
  • Das Auffassen eines Ziels kann das Erkennen des Ziels als solches anhand von Bildmerkmalen in einem oder mehreren Bildern beinhalten. Das Erkennen eines Ziels kann eine Klassifikation beinhalten, dass ein Bildteil als Zielabbildung klassifiziert.
  • Die Zielerkennungseinheit umfasst zweckmäßigerweise Bildverarbeitungssoftware zur Analyse von einem oder mehreren Bildern anhand von Bildmerkmalen. Die Klassifikatoren beschreiben zweckmäßigerweise jeweils ein oder mehrere Bildmerkmale. Methoden zur Bildung von Klassifikatoren, auch Deskriptoren genannt, sind beispielsweise das SIFT-Verfahren (Scale Invariant Feature Transform), das SURF-Verfahren (Speded Up Robust Features), und/oder das ORB-Verfahren (Oriented Fast and Rotated Brief) oder Weiterentwicklungen eines dieser Verfahren. Ein weitere bekanntes Verfahren für eine Merkmalsfindung und einen automatischen Merkmalsvergleich sind beispielsweise Laplacian of Gaussian (LoG) sowie Normalized Cross-Correlation Funtion (NCCF). Es können aber auch andere Verfahren verwendet werden, die zur Erstellung von Deskriptoren beziehungsweise Klassifikatoren geeignet erscheinen.
  • Der Zielerkennungseinheit wird ein das Ziel abbildendes Bild vorgegeben. Zweckmäßigerweise wird der Zielerkennungseinheit ein Teilbereich des Bilds, der das Ziel abbildet, im Folgenden auch Zielbereich genannt, vorgegeben. Durch die Kenntnis, dass im Bild beziehungsweise Zielbereich ein Ziel abgebildet ist, kann die Zielerkennungseinheit mittels überwachtem Lernen die neuen Klassifikatoren aus dem Bild beziehungsweise Zielbereich ermitteln. Das Ziel ist also bereits erkannt, bevor die neuen Klassifikatoren ermittelt werden.
  • Durch die Kenntnis des Ziels als solchem sind die Bildmerkmale des Ziels im Bild bekannt. Aus diesen Bildmerkmalen können die neuen Klassifikatoren ermittelt werden, zweckmäßigerweise unter Verwendung der vorgegeben, also bekannten Klassifikatoren. Es können neue Klassifikatoren ermittelt werden oder die bekannten Klassifikatoren werden verändert, was im Folgenden der Ermittlung neuer Klassifikatoren gleichgesetzt wird. Mit den neuen Klassifikatoren kann nun ein gleichartiges Ziel mit einer höheren Erkennungsgüte als solches erkannt werden, als mit den zur Erkennung verwendeten vorgegebenen Klassifikatoren. Denn die neuen Klassifikatoren wurden unter Verwendung der Bildmerkmale des abgebildeten Ziels ermittelt, sind also auf solche Bildmerkmale speziell zugeschnitten. Tauchen solche oder ähnliche Merkmale in einem anderen Bild auf, so werden sie durch die neuen Klassifikatoren zuverlässig erkannt, sodass die Zielauffassung besonders zuverlässig ist.
  • Die neuen Klassifikatoren können mittels maschinellen Lernens bestimmt werden. Zusätzlich zur reinen Erkennung des Ziels als solchem ist zweckmäßigerweise auch eine feinere Klassifikation des Ziels anhand der Klassifikatoren möglich, sodass das Ziel einer von mehreren Zielkategorien zugeteilt werden kann. Hierdurch kann eine Art des erkannten Ziels bestimmt werden, was beispielsweise für eine Freund-Feind-Erkennung oder einer Auswahl einer von mehreren Anflugs- oder Bekämpfungsmöglichkeiten von Vorteil ist. Entsprechend sind zweckmäßigerweise auch die Klassifikatoren in die Zielkategorien eingeteilt.
  • Zur Erkennung des Ziels besteht die Möglichkeit, dass die Zielerkennungseinheit das Bild als Ganzes untersucht und anhand der vorgegebenen Klassifikatoren das abgebildete Ziel als solches erkennt. Eine bessere Zuverlässigkeit bei der Zielauffassung kann jedoch erreicht werden, wenn aus dem Zielbild ein Teilbereich ausgewählt wird, in dem das Ziel abgebildet ist, also ein Zielbereich. Die Suche der Zielerkennungseinheit nach dem Ziel anhand der vorgegebenen Klassifikatoren kann auf den Zielbereich beschränkt werden, wodurch die Gefahr von Fehlfindungen verringert wird. Der Zielbereich kann von einem Bediener ausgewählt werden, beispielsweise einem Piloten einer fliegenden Plattform. Der Bediener kann das Ziel aus einem Bild erkennen und den Zielbereich im Bild markieren. Die Zielerkennungseinheit kann das Ziel im Zielbereich als solches erkennen und beispielsweise in einer Abfolge von hintereinander aufgenommenen Bildern verfolgen.
  • In einer vorteilhaften Ausführungsform der Erfindung wird das Bild durch eine Kamera aufgenommen und einem Bediener angezeigt. Der Bediener kann nun das Ziel als solches erkennen. Weiter kann der Bediener Eingaben in ein Eingabesystem machen und hierdurch den Flugkörper, beziehungsweise dessen Zielerkennungseinheit, auf das Ziel einweisen. Dieses Einweisen kann geschehen, indem der Bediener einen Zielbereich, also einen Bildteilbereich, in dem das Ziel abgebildet ist, auswählt und diese Auswahl der Zielerkennungseinheit übergibt. Eine weitere Möglichkeit besteht darin, dass ein Pilot zum Ziel blickt - entweder in einer realen Szene oder auf einem Bild - und die Blickrichtungsdaten werden an die Zielerkennungseinheit übertragen, die mit diesen Daten auf das Ziel eingewiesen wird. Die Zielerkennungseinheit kann das Ziel nun mit den vorgegebenen Klassifikatoren ausschließlich im Zielbereich suchen.
  • Der Bediener ist bei seiner Zielerkennung vorteilhafterweise in einer fliegenden Plattform. Die Kamera ist zweckmäßigerweise Teil eines Suchkopfs des Flugkörpers, der an der Plattform befestigt ist.
  • Der Zielbereich kann beispielsweise unter Verwendung einer Zielbereichsauswahl eines Bedieners während eines Flugs des Flugkörpers markiert werden. Ein Besatzungsmitglied eines Luftfahrzeugs, im Folgenden vereinfacht Pilot genannt, auch wenn dieser Bediener keine Steuertätigkeit ausüben muss, kann den Flugkörper auf das Ziel einweisen, indem er den Zielbereich beispielsweise manuell markiert. Das Bild wurde dem Bediener zweckmäßigerweise vom Flugkörper übermittelt.
  • Es besteht auch die Möglichkeit, dass ein Zielbereich in einem Fremdbild ausgewählt wird, das vom Boden oder einem anderen Luftfahrzeug aufgenommen wurde, z.B. durch einen Einweiser am Boden. Das Fremdbild wird mit zumindest einem von der Plattform - insbesondere mit dem Flugkörper - aufgenommenen Bild verglichen und Bildbereiche werden einander zugeordnet, sodass die Auswahl des Zielbereichs auf das Bild übertragen wird. Alternativ kann die Zielbereichsauswahl automatisiert durch Daten einer Voreinweisung erfolgen, z.B. aus Radarbilddaten oder IRNIS-Bilddaten.
  • In einer weiteren vorteilhaften Ausführungsform der Erfindung ist die Zielerkennungseinheit Teil einer fliegenden Plattform, insbesondere Teil eines an einer fliegenden Plattform befestigten Flugkörpers. Hierbei ist es besonders vorteilhaft, wenn der Flugkörper einen Suchkopf umfasst, der das Bild aufnimmt. Das Bild kann an einen Bediener der fliegenden Plattform übermittelt werden, der das Ziel aus dem Bild erkennt und einen Teilbereich des Bilds als Zielbereich markiert. Der Zielbereich des Bilds kann nun der Zielerkennungseinheit übergeben werden, die das Ziel anhand der vorgegebenen Klassifikatoren als solches erkennt. Noch während des Flugs des Flugkörpers kann die Zielerkennungseinheit anhand des erkannten Ziels die neuen Klassifikatoren ermitteln.
  • Wie erwähnt, ist ein zweistufiger Erkennungsprozess vorteilhaft. Zunächst wird das Ziel in einem Bild erkannt, beispielsweise durch einen Bediener manuell, also per Auge, oder durch eine andere Erkennungseinheit automatisiert. Diese kann Teil der Plattform und beispielsweise eine sehr umfangreiche Software beinhalten, deren Ablauf hohe Rechenkapazitäten erfordert. Im zweiten Schritt wird das bereits erkannte Ziel durch die Zielerkennungseinheit erkannt. Hierfür wird das Ziel beziehungsweise ein Zielbereich des Zielbilds der Zielerkennungseinheit übergeben. Als dritter Schritt können nun die neuen Klassifikatoren ermittelt werden. Dies kann bereits während des Flugs erfolgen oder später am Boden.
  • In einer weiteren vorteilhaften Ausführungsform der Erfindung werden mehrere Bilder des Ziels hintereinander aufgenommen, sodass die Bilder eine Bildreihe des Ziels sind. In dieser Bildreihe wird das Ziel beispielsweise von Bild zu Bild immer besser sichtbar. Je nach Szenerie ist es häufig so, dass eine Zielerkennungseinheit mit guten Klassifikatoren ein Ziel wesentlich schneller findet als ein Bediener, der das Bild anschaut. Wird ein Ziel in einer Bildreihe beispielsweise immer besser sichtbar, so könnte eine eingewiesene Zielerkennungseinheit das Ziel in einem früher aufgenommenen Bild erkennen, als ein Bediener, der die Bildreihe anschaut, beispielsweise als ein Film. Erkennt der Bediener das Ziel und markiert einen Zielbereich, so wird das Ziel vermutlich schon recht gut zu erkennen sein. Auch die Zieleinheit wird das Ziel anhand der vorgegeben Klassifikatoren mit einer hohen Erkennungsgüte erkennen. Besonders gut sind die Klassifikatoren jedoch dann, wenn sie das Ziel auch in vorhergehenden Bildern erkennen.
  • Es ist daher sinnvoll, wenn das Bild Teil einer Bildreihe ist, deren Bilder das Ziel abbilden, und die neuen Klassifikatoren aus zumindest einem anderen Bild der Bildreihe ermittelt werden. Hierbei ist es besonders vorteilhaft, wenn das Ziel im anderen Bild schlechter erkennbar ist, als in dem Bild, in dem es zuvor mit den vorgegebenen Klassifikatoren erkannt wurde. Die Klassifikatoren können nun so erstellt oder verändert werden, dass das Ziel auch bereits in einem sehr frühen Stadium zuverlässig erkannt wird. In der Regel wird also das andere Bild vor dem Bild aufgenommen sein, in dem das Ziel durch die vorgegebenen Klassifikatoren durch die Zielerkennungseinheit gefunden wurde. Je nach Vorgang kann es natürlich auch sein, dass das andere Bild erst nach diesem Bild aufgenommen wurde, beispielsweise wenn das Ziel später schlechter zu erkennen ist oder sich die Zielszenerie geändert hat, zum Beispiels wenn Täuschkörper abgeworfen werden.
  • Nach einer Zielauffassung wird es in der Regel gewünscht sein, dass das Ziel verfolgt wird. In der Bildreihe, in der das Ziel abgebildet ist, wird die Zielerkennungseinheit daher versuchen, das Ziel in den nachfolgenden Bildern erneut oder sogar stets wiederzufinden. Dies kann mit den vorgegebenen Klassifikatoren geschehen. Je nach Geschwindigkeit der Erstellung der neuen Klassifikatoren kann es auch sinnvoll sein, dass das Ziel in nachfolgenden Bildern der Bildreihe mit den neuen Klassifikatoren aufgefasst wird. Die Zielerkennung kann hierdurch zuverlässiger erfolgen, sodass das Ziel zuverlässiger nachverfolgt werden kann.
  • In gleicher Weise kann es sinnvoll sein, dass die Klassifikatoren im Laufe der Zielauffassung durch die Bilder einer Bildreihe fortwährend neu ermittelt werden. Beispielsweise werden die Klassifikatoren mittels maschinellen Lernens verändert. Es stehen somit immer wieder neue Klassifikatoren zur Klassifikation eines einzigen Ziels zur Verfügung, sodass die Zielverfolgung immer zuverlässiger erfolgen kann.
  • Die Ermittlung der neuen Klassifikatoren erfolgt vorteilhafterweise durch maschinelles Lernen. Das maschinelle Lernen ist zweckmäßigerweise ein geführtes maschinelles Lernen, da das zu erkennende Ziel von einer anderen Instanz, beispielsweise den Bediener, vorgegeben sein und zweckmäßigerweise auch überprüft werden kann. Hierdurch kann eine Fehlerkennung, beispielsweise durch eine Fehlentwicklung des maschinellen Lernens, vermieden werden. Besonders vorteilhaft für diese Art des maschinellen Lernens ist das Verfahren der Support Vector Machine. Trainingsobjekte für die Erstellung der Support Vector Machine kann das Ziel in jedem Bild einer Bildreihe sein, zweckmäßigerweise mehrere Ziele in mehreren Bildreihen. Für die jeweils abgebildeten Ziele ist bekannt, welcher Klasse sie zugehören, also ob es ein Ziel ist oder kein Ziel. Jedes Objekt kann nun durch einen Vektor im Vektorraum der Support Vector Machine repräsentiert werden. Durch die Support Vector Machine kann nun eine Hyperebene erstellt werden, die die Klassen voneinander trennt.
  • Je höher die Dimensionierung einer solchen Hyperebene ist, desto sauberer können die Objektklassen voneinander getrennt werden. Es ist daher bei Anwendung der Support Vector Machine sinnvoll, einen Merkmalsraum mit einer hohen Dimensionierung zu verwenden. Speziell für diesen Fall ist es insofern vorteilhaft, wenn ein Merkmalsraum mit einer so hohen Dimensionierung verwendet wird, dass die Bildwerte der gesamten Pixelmatrix des Zielbereichs aus n x m Pixeln verwendet werden. Die Dimension kann hierbei insofern n x m sein. Auf ein Verfahren zum Zusammenfassen der Bildwerte oder einer anderen Verarbeitung der Bildwerte kann verzichtete werden, sodass auch ohne ein zuverlässiges Vorverfahren - das in der Regel vorher nicht bekannt ist - qualitativ hochwertige Klassifikatoren gebildet werden können.
  • Es kann durchaus sein, dass die Klassifikatoren von Einsatz zu Einsatz stark voneinander abweichen, insbesondere wenn in den Einsätzen unterschiedliche Ziele aufgefasst werden. Es ist daher vorteilhaft, wenn die neuen Klassifikatoren einem von mehreren Einsatzprofilen zugeordnet werden. Dieses kann beispielsweise in einer Trägerplattform abgespeichert werden, die einen Flugkörper mit der Zielerkennungseinheit trägt, beispielsweise ein Flugzeug. Bei zukünftigen Einsätzen kann jedem Einsatz ein Einsatzprofil zugeordnet werden, sodass auf die entsprechend zu diesem Einsatzprofil abgespeicherten Klassifikatoren zurückgegriffen wird. Hierdurch kann einer Fehlklassifizierung beziehungsweise Fehlerkennung entgegengewirkt werden. Das Einsatzprofil beinhaltet vorteilhafterweise eine bildunabhängige Beschreibung des Ziels, beispielsweise einen Zieltyp, und/oder eine Einsatzcharakterisierung.
  • Weiter ist es vorteilhaft, wenn die vorgegebenen Klassifikatoren zumindest teilweise mittels maschinellem Lernen während Flügen einer Trägerplattform bestimmt wurden, die zum Tragen einer Einheit mit der Zielerkennungseinheit bestimmt ist, beispielsweise zum Tragen eines Flugkörpers. Insbesondere bei ähnlichen Einsatzprofilen kann das Ziel auf diese Weise zuverlässig erkannt werden.
  • Nach langen Trainings werden eine Vielzahl von Klassifikatoren vorliegen, die jeweils einem Einsatzprofil zugeordnet sind. Bei einer neuen Mission kann nun entschieden werden, welches Einsatzprofil gewählt wird, um die günstigsten Klassifikatoren zu verwenden. Eine besonders vorteilhafte Auswahl an Klassifikatoren kann erreicht werden, wenn die vorgegebenen Klassifikatoren unterschiedlichen Einsatzprofilen zugeordnet sind. Zweckmäßigerweise werden die Einsatzprofile gewichtet und die Auswahl und/oder Wichtung der Klassifikatoren erfolgt unter Verwendung der Wichtung der Einsatzprofile. Erfolgt die Auswahl unter Verwendung der Wichtung der Einsatzprofile, so können von verschiedenen Einsatzprofilen Klassifikatoren ausgewählt und nun gemeinsam als vorgegebene Klassifikatoren verwendet werden. Möglich ist auch eine vorgegebene Auswahl der Klassifikatoren, wobei diese dann einzeln gewichtet werden, sodass diese Klassifikatoren mehr oder weniger stark zur Erkennung des Ziels herangezogen werden. Hierdurch kann eine sehr differenzierte Zielerkennung erreicht werden.
  • Besonders vorteilhaft ist es, wenn die Wichtung unter Verwendung von Bilddaten des Zielbereichs vorgenommen wird. Legen die Bilddaten des Zielbereichs beispielsweise nahe, dass der Zielbereich einen Wolkenbereich abbildet, so kann ein Einsatzprofil „Wolken“ zur Anwendung kommen, ohne dass ein Bediener dies manuell vorgeben muss. Das gleiche gilt auch für das Szenario, wenn ein Ziel beispielsweise vor dem Hintergrund von Wasser, von Wald oder einem urbanen Hintergrund abgebildet wird. Der Hintergrund kann automatisch erkannt und einem Einsatzprofil zugeordnet werden, sodass automatisch und zügig das richtige Einsatzprofil gewählt wird. Selbstverständlich können auch mehrere Einsatzprofile gemeinsam mit jeweils einer Wichtung verwendet werden, sodass die vorgegebenen Klassifikatoren unterschiedlichen Einsatzprofilen zugeordnet sein können und/oder verschieden gewichtet sind.
  • Doch nicht nur der Zielbereich kann Informationen enthalten, die zu einer vorteilhaften Auswahl von Klassifikatoren beitragen kann, sondern auch beispielsweise eine Zieleinweisung. Allgemein gesprochen ist es insofern vorteilhaft, wenn die Einsatzprofile gewichtet werden und die Wichtung unter Verwendung von bildunabhängigen Zielinformationen vorgenommen wird. Bildunabhängige Zielinformationen können eine Beschreibung des Ziels sein, eine Zieleinweisung und/oder Missionsdaten, die Informationen über das Ziel enthalten.
  • Ist eine Wichtung von Einsatzprofilen zu komplex oder aus anderen Gründen nicht zu empfehlen, kann ein einziges Einsatzprofil ausgewählt werden, zweckmäßigerweise das, mit den besten Klassifikatoren, beispielsweise für die aktuelle Mission. Dies ist auch ohne Missionsinformation möglich, beispielsweise mithilfe eines Durchprobierens der Klassifikatoren Einsatzprofil nach Einsatzprofil und Auswählen der Klassifikatoren, mit der das Ziel am zuverlässigsten erkennbar ist.
  • In einer weiteren Auswahlmethode können die Einsatzprofile in einer Baumstruktur angeordnet sein. Die Verästelung der Baumstruktur kann aus Einsatzcharakteristiken und/oder Zielcharakteristiken gebildet sein. So kann die Baumstruktur entsprechend der aktuellen Einsatzcharakteristiken und/oder Zielcharakteristiken abgefahren werden zur Zusammenstellung der vorgegeben Klassifikatoren.
  • Die Erfindung ist außerdem gerichtet, auf eine Vorrichtung zur Auffassen eines Ziels. Die Vorrichtung enthält zweckmäßigerweise eine Kamera, einen Selektor zum Auswählen eines Zielbereichs in zumindest einem Bild der Kamera und einen Flugkörper mit einem Suchkopf zum Verfolgen eines ausgewählten Ziels. Der Flugkörper enthält vorteilhafterweise eine Zielerkennungseinheit, die dazu vorbereitet ist, aus Bildmerkmalen des Zielbereichs und vorgegebenen Klassifikatoren das abgebildete Ziel zu erkennen und anhand der Kenntnis des Ziels neue Klassifikatoren zu ermitteln, mit denen das Ziel mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren als solches erkennbar ist. Der Selektor kann ein Bildschirm sein, auf dem ein Bediener den Zielbereich auswählt. Möglich ist auch eine Erkennungseinheit zur Automatisierten Erkennung des Ziels.
  • Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die teilweise in einigen abhängigen Ansprüchen zu mehreren zusammengefasst wiedergegeben sind. Die Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden, insbesondere bei Rückbezügen von Ansprüchen, sodass ein einzelnes Merkmal eines abhängigen Anspruchs mit einem einzelnen, mehreren oder allen Merkmalen eines anderen abhängigen Anspruchs kombinierbar ist. Außerdem sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination sowohl mit dem erfindungsgemäßen Verfahren als auch mit der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaften der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und funktionale Vorrichtungsmerkmale auch als entsprechende Verfahrensmerkmale.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich in Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und/oder mit einem beliebigen der Ansprüche kombiniert werden.
  • Es zeigen:
    • 1 einen Flugkörper mit einem Suchkopf, einer Kamera und einer Zielerkennungseinheit,
    • 2 ein von der Kamera des Flugkörpers aufgenommenes Bild mit einem dargestellten Ziel,
    • 3 ein Ablaufschema zum Auffassen eines Ziels mittels Klassifikatoren und zum Ermitteln neuer Klassifikatoren und
    • 4 einen einfachen Entscheidungsbaum zum Gewichten von Klassifikatoren in Abhängigkeit von einem Missionsauftrag.
  • 1 zeigt einen Flugkörper 2, der über eine Befestigung 4 an einer fliegenden Plattform 6 hängt, die in 1 nur schematisch angedeutet ist. Die fliegenden Plattform 6 ist beispielsweise ein Flugzeug, unter dessen Flügel der Flugkörper 2 hängt. Der Flugkörper 2 ist ein unbemannter Flugkörper 2 mit einem Raketenmotor 8 und einem Suchkopf 10, der eine Kamera 12 mit einer Optik 14 und einem Detektor 16 enthält. Die Optik 14 ist eine Infrarotoptik und der Detektor 16 ein Infrarotdetektor als bildgebender Detektor 16 in Form eines Matrixdetektors. Signaltechnisch mit dem Detektor 16 verbunden ist eine Zielerkennungseinheit 18 mit Bildverarbeitungssoftware zur Verarbeitung der Bildsignale beziehungsweise Pixelsignale des Detektors 16. Weiter verfügt der Suchkopf 10 über eine Steuereinheit 20 zum Steuern des Flugs des Flugkörpers 2 und einen Datenspeicher 22 zur Aufnahme von digitalen Daten von und für die Zielerkennungseinheit 18 und die Steuereinheit 20.
  • Der Flugkörper 2 verfügt außerdem über einen Wirkteil 24 mit beispielsweise einer Sprengladung und Lenkflügel mit Steuerflächen 26, mit denen der gelenkte Flug des Flugkopfs 2 gesteuert werden kann. Die Steuerung erfolgt durch die Steuereinheit 20 anhand von Daten der Zielerkennungseinheit 18.
  • 2 zeigt ein Bild 28, das von der Kamera 12 des Flugkörpers 2 aufgenommen wurde, während dieser fest mit der fliegenden Plattform 6 verbunden ist. Es ist zu sehen, dass die Plattform 6 über ein Meer 30 fliegt, Wolken 32 und Land 34 sind im Bild 28 sichtbar. Ebenfalls im Bild 28 dargestellt ist ein Ziel 36, das vom Flugkörper 2 angeflogen werden soll. In 2 ist angedeutet, dass das Ziel 36 zum Aufnahmezeitpunkt des Bilds 28 kaum erkennbar ist, da es entweder sehr klein oder sehr weit vom Flugkörper 2 beziehungsweise der Plattform 6 entfernt ist. Außerdem enthält das Bild 28 die Abbildung eines Flugzeugs 38 sowie weitere Bildregionen 40, die aufgrund der in ihnen abgebildeten Gegenstände in Bezug auf eine Bildverarbeitung und eine darauf basierende Bildanalyse sehr ähnlich mit der Abbildung des Ziels 36 sind. Im Meer 30 ist beispielsweise ein Segelboot und weiter hinten ein Schiff abgebildet, wobei sich beide diese Objekte deutlich und objekthaft vom umgebenden Bildhintergrund abheben. Auch Felsen einer vorgelagerten Insel oder ein Punkt in den Wolken 32 bilden solch eine objektauffällige Bildregion 40. Ebenso das Flugzeug 38, das im Bildaufnahmemoment zwar deutlich leichter erkennbar ist, als das Ziel 36, im Prinzip aber bildverarbeitungsmäßig auch sehr leicht mit einem Ziel 36 verwechselbar ist. Im infraroten Spektralbereich bilden Wärmestrahlerobjekte, die bildhaft leicht mit der Infrarotsignatur des Ziels 36 verwechselbar sind, ebenfalls leicht Scheinziele. Wird beispielsweise Sonnenlicht vom Meer 30 reflektiert, so werden Bildregionen 40 mit einer zielobjekthaften Bildsignatur auftreten können. Auch eine das Sonnenlicht spiegelnde Fensterscheibe an der Küste der Insel, das Flugzeug 38 und auch angeleuchtete Wolkenregionen können solche Bildregionen 40 bilden, die eine Bildverarbeitungseinheit mit einem Ziel 36 verwechseln könnte.
  • Ein Verfahren zum Auffassen des Ziels 36 wird im Folgenden anhand des Ablaufsschemas aus 3 erläutert.
  • 3 zeigt ein Ablaufschema eines Verfahrens zum Auffassen eines Ziels, bei dem die Bildelemente in der oberen Reihe der Figur Vorgängen in der fliegenden Plattform zugeordnet sind und Bildelemente in darunterliegenden Reihen im Flugkörper 2 stattfindenden Vorgängen zugeordnet sind.
  • Vor oder während eines Flugs der Plattform 6 erhält die Plattform 6 beziehungsweise ein die Plattform 6 bedienender Bediener einen Missionsauftrag 42, in dem beispielsweise beschrieben ist, welche Art von Ziel 36 aufgefasst, verfolgt und vom Flugkörper 2 angeflogen werden soll. Daten aus dem Missionsauftrag 42 legen wesentliche Charakteristika eines Flugs 44 fest, der durch die Plattform 6 durchgeführt wird. Hierbei wird der Flugkörper 2, der an der Plattform 6 befestigt ist, mitgenommen und vollzieht insofern den gleichen Flug 44.
  • Während des Flugs 44 nimmt die Kamera 12 des Flugkörpers 2 eine Reihe von Bildern 28 auf, die das Ziel 36 abbilden. Diese Bilder 28 werden der Plattform 6 übermittelt und der Reihe nach auf einer Anzeige der Plattform 6 dem Bediener dargestellt, beispielsweise in Form eines Films, der die Bilder 28 ansieht. Die Darstellung der Bilder 28 auf der Anzeige ist eine Echtzeitdarstellung, sodass der Bediener durch den Suchkopf 10 beziehungsweise die Kamera 12 des Flugkörpers 2 die abgebildete vordere Umgebung der fliegenden Plattform 6 sehen kann. Das Ziel 36 kann der Bediener hierbei beispielsweise noch nicht erkennen, auch wenn es bereits in den Bildern 28 dargestellt ist. Eventuell könnte die Zielerkennungseinheit 18 das Ziel 36 erkennen, doch da in den Bildern 28 so viele andere auffällige Bildregionen 38, 40 zu finden sind, kann es hierbei leicht zu einer Fehlauffassung eines vermeintlichen Ziels kommen. Insofern könnte die Zielerkennungseinheit 18 Vorschläge unterbreiten, indem sie beispielsweise alle auffälligen Bildregionen 36, 40 markiert. Der Bediener kann die Bilder anschauen 46 und das Ziel 36 selbständig erkennen oder - falls vorhanden - eine markierte Bildregion 36, 40 auswählen, wodurch das Ziel 36 jeweils als solches erkannt ist, was in 3 als Schritt 48 durch ein stilisiertes Fadenkreuz angedeutet ist. Die Anzeige, auf der der Bediener den Zielbereich wählt, oder eine Erkennungseinheit, die das Ziel 36 autonom erkennt und markiert, kann als Selektor bezeichnet werden, auf dessen Darstellung in 1 der Übersichtlichkeit halber verzichtet wurde.
  • Nach dem Erkennen 48 markiert der Bediener das Ziel im Verfahrensschritt 50, indem er beispielsweise das Ziel 36 mit dem Finger auf einem Touchscreen markiert oder mit einer Maus oder einem anderen Hilfsmittel die Markierung vornimmt. Die Markierung 50 des Ziels 36 geschieht, indem ein Zielbereich 52 vom Bediener ausgewählt wird. Dieser Zielbereich 52 ist ein Teil des Bilds 28, beispielsweise eines solchen Bilds 28, das aktuell auf der Anzeige dem Bediener angezeigt wird. Das Ziel 36 ist hierbei im Zielbereich 52 des Bilds 28 abgebildet, wie in 2 und 3 dargestellt ist.
  • Nachdem der Zielbereich 52 markiert wurde 50, wird der Zielbereich 52 beziehungsweise diesen charakterisierende Daten an den Flugkörper 2 übergegeben. In 3 ist dies dargestellt, indem der Zielbereich 52 nun in einer der tiefer liegenden Bildobjektreihen liegt, die Vorgänge im Flugkörper 2 wiedergeben. Das Ziel 36 ist im Bildbereich 52 zwar abgebildet, ist dem Flugkörper 2 beziehungsweise seiner Zielerkennungseinheit 18 jedoch noch nicht bekannt, wie durch die gepunktete Darstellung in 3 angedeutet ist.
  • In einer ersten Ausführungsform des Verfahrens erfolgt eine Erkennung 54 des Ziels 36 im Zielbereich 52 durch die Zielerkennungseinheit 18 des Flugkörpers 2. Hierfür werden in dem Datenspeicher 22 hinterlegte Klassifikatoren 56 in Schritt 58 ausgewählt und dann verwendet. Die Klassifikatoren 56 jeweils beschreiben Bildcharakteristika. Manche oder aller dieser Bildcharakteristika werden im Zielbereich 52 in der Weise aufgefunden, dass eine Erkennungsgüte des Ziels 36 eine Erkennungsschwelle übersteigt, sodass das Ziel 36 im Zielbereich 52 als erkannt beziehungsweise als aufgefasst gilt. In 3 ist das angedeutet, indem das Ziel 36 in der Zielerkennung 54 durchgezogen dargestellt ist, das Ziel 36 also als solches erkannt ist. Daten der Zielerkennung 54 können nun an die fliegenden Plattform 6 übergeben werden, sodass in einer Bildanzeige 60 den Bediener das Ziel 36 im Bild 28 markiert angezeigt werden kann. In 3 ist diese Markierung durch den gepunkteten Kreis um die Abbildung des Ziels 26 angedeutet. Der Bediener kann nun erkennen, dass das von ihm markierte Ziel 36 vom Flugkörper 2 aufgefasst wurde und nun vom Flugkörper 2 beziehungsweise dessen Suchkopf 10 optisch verfolgt werden kann.
  • Mit den nachfolgend von der Kamera 12 aufgenommenen Bildern 28 erfolgt eine Zielerkennung 62 nun direkt anhand der Klassifikatoren 56 aus dem Datenspeicher 22, wobei die Bilder 28 jeweils der Zielerkennungseinheit 18 zur Verfügung gestellt werden, die aus der Lage des Ziels 36 in einem der zuvor aufgenommenen Bilder 28 den Zielbereich 52 selbständig abschätzen und das Ziel 36 anhand der Klassifikatoren 56 unmittelbar und selbständig erkennen kann. Die Bilder 28 werden der fliegenden Plattform 6 übergeben, sodass hierdurch eine Zielverfolgung 64 des Ziels 36 im Laufe der Zeit, also über die Abfolge der Bilder 28 erfolgt. Dies ist in 3 beispielhaft angedeutet, indem das Ziel 36 bei der Zielverfolgung 64 durch die Bilder 28 wandert und insofern auf der Bildanzeige 60 der der Zielverfolgung 64 an einer anderen Stelle abgebildet ist, als bei der vorhergehenden Bildanzeige 60.
  • Durch die Zielerkennung 54 der Zielerkennungseinheit 18 sind der Zielerkennungseinheit 18 die Bildmerkmale des Ziels 36 im Zielbereich 52 beziehungsweise im Bild 28 bekannt. Hierbei wurde das Ziel 36 mit einer Erkennungsgüte erkannt, die von den Klassifikatoren 56 und der Abbildung des Ziels 36 abhängt. Je nach Abbildung des Ziels 36 kann eine Erkennungsgüte erhöht werden, wenn passendere Klassifikatoren 56 vorliegen.
  • Zum Ermitteln besserer Klassifikatoren 66, mit denen das Ziel 36 also mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren 56 als solches erkennbar ist, wird in der Zielerkennungseinheit 18 ein Prozess des maschinellen Lernens beziehungsweise Machine Learning angewendet. Im Speziellen wird für den Schritt 68 der Ermittlung der neuen Klassifikatoren 66 das Verfahren der Support Vector Machine verwendet. Da hierbei das durch die neuen Klassifikatoren 66 zu erkennende Ziel 36 bereits bekannt ist, ist dieser Prozess ein sogenanntes Supervised Learning oder geführtes Lernen. Zur Klassifikatorenermittlung 68 können auch eine Vielzahl von Abbildungen des Ziels 36 verwendet werden, um die Zahl der Objekte, die durch die Support Vector Machine voneinander getrennt werden, zu erhöhen. Durch dieses Machine Learning werden nun die neuen Klassifikatoren 66 so zusammengesetzt beziehungsweise ermittelt, dass die bekannte Zielabbildung mit ihnen mit der höheren Erkennungsgüte als durch die Klassifikatoren 56 erkennbar ist. Die neuen Klassifikatoren 66 werden in den Datenspeicher 22 hinterlegt.
  • Je nach Geschwindigkeit der Ermittlung der neuen Klassifikatoren 66 können diese bereits beim Schritt der Zielerkennung 62 der nachfolgenden Bilder 28 verwendet werden. Das gleiche Ziel 36, das durch die Bildreihe dargestellt wird, kann somit zuerst mit den vorgegebenen Klassifikatoren 56 und in späteren Bildern 28 mit den neu ermittelten Klassifikatoren 66 als solches bestimmt werden.
  • Die Klassifikatoren 56 aus dem Datenspeicher 22 sind vorgegeben Klassifikatoren 56, die als a priori Daten vorliegen, beispielsweise aus früheren Missionen oder als Grundlagendaten der Zielerkennungseinheit 18. Demgegenüber können die später ermittelten Klassifikatoren 66 dynamisch optimierte Klassifikatoren 66 sein, die durch die Zielauffassung dynamisch verbesserten werden und insbesondere im weiteren Verlauf der Zielverfolgung 64 fortwährend weiter verbessert oder sogar optimiert werden. Die neuen Klassifikatoren 66 können aus dem Datenspeicher 22 des Flugkörpers 2 in einen Datenspeicher 70 der fliegenden Plattform 6 übertragen werden, wie durch den Pfeil in 3 dargestellt ist. Wird der Flugkörper 2 beispielsweise später von der Plattform 6 gestartet, bleiben die von der Zielerkennungseinheit 18 ermittelten Daten insbesondere die neuen Klassifikatoren 66 erhalten und in der fliegenden Plattform 6 gespeichert, sodass sie später in einem Datenspeicher 22 eines anderen Flugkörper 2 übertragen werden können.
  • In einer weiteren Ausführungsform des Verfahrens werden Daten aus dem Missionsauftrag 42 dafür verwendet, die vorgegebenen Klassifikatoren 56 durch eine Selektion oder Wichtung aus einer Vielzahl vorgegebenen Klassifikatoren auszuwählen. Dies ist in 3 durch den Wichtungsschritt 72 dargestellt. Im Folgenden wird zwischen Wichtung und Selektion nicht weiter unterscheiden, da ein Aussortieren von nicht verwendeten Klassifikatoren als Null-Wichtung verstanden werden kann. In der nachfolgenden Beschreibung beschränkt sich die Beschreibung eines Ausführungsbeispiels im Wesentlichen auf die Unterschiede zum jeweils vorhergehenden Ausführungsbeispiel, auf das bezüglich gleich bleibender Merkmale und Funktionen verwiesen wird. Um nicht bereits Beschriebenes mehrfach ausführen zu müssen, sind generell alle Merkmale eines vorangegangenen Ausführungsbeispiels im jeweils folgenden Ausführungsbeispiel übernommen, ohne dass sie erneut beschrieben sind, es sei denn, Merkmale sind als Unterschiede zu den vorangegangenen Ausführungsbeispielen beschrieben.
  • Ist im Missionsauftrag 42 festgelegt, welche Art von Ziel 36 aufgefasst werden soll, so können solche Klassifikatoren 56 aufgewichtet werden, worunter im Folgenden auch ein Auswählen verstanden werden kann, die diesen Zieltyp zugeordnet sind. Auch andere Zieldaten, wie Fluggeschwindigkeit und Agilität des Ziels 36, können zur Wichtung von Klassifikatoren 56 verwendet werden. Anhand der erfolgten Wichtung werden die Klassifikatoren 56 aus den Datenspeicher 22 gewichtet ausgewählt und zur Zielerkennung 54 verwendet.
  • Eine weitere Wichtung 72 kann sich aus Bilddaten des Zielbereichs 52 ergeben. Je nach Charakteristikum des Zielbereichs 52, also ob er Wolken darstellt, Meer, Land, Wüste, helle Beleuchtung, dunkle Beleuchtung, Hitze, Kälte, Schneefeld oder andere Szenerien, können spezielle Klassifikatoren 56 zur Auswahl kommen, die speziell an eine solche Szenerie angepasst sind. Hierfür wird in Schritt 76 der Zielbereich 52 auf Bildcharakteristika ausgewertet und diese werden zur Wichtung 72 der in Datenspeicher 22 hinterlegten vorgegebenen Klassifikatoren 56 verwendet. Im Zielerkennungsprozess 54 werden die Klassifikatoren 56 entsprechend der vorgenommenen Wichtung 72 angewendet. Diese Wichtung kann alternativ und/oder zusätzlich zu der Wichtung aus den Missionsdaten vorgenommen werden.
  • Bei guten Klassifikatoren 56, 66 kann die Zielerkennungseinheit 18 das Ziel 36 deutlich eher in einem Bild 28 erkennen, als dies einem menschlichen Bediener möglich ist. In dem Bild 28, in dem der Bediener das Ziel 36 erkennt, ist dieses also schon bereits recht gut zu sehen. Gute Klassifikatoren 66 für eine frühzeitige Zielauffassung 54 können daher eventuell aus Bildern 28 ermittelt werden, die vor demjenigen Bild 28 liegen, in dem der menschliche Bediener das Ziel 36 manuell erkannt hat 48.
  • Daher werden in einer weiteren Ausführungsform der Erfindung solche vorhergehenden Bilder 28 - oder nur deren Zielbereiche 52, deren Lage aus der Lage des manuell ausgewählten Zielbereichs 52 bekannt ist - untersucht. In diesen Bildern 28 erfolgt wieder eine Zielerkennung 78, entweder mit den vorgegebenen Klassifikatoren 56 oder mit den bereits verbesserten Klassifikatoren 66. Ersteres ist in 3 beispielhaft dargestellt. Anhand dieser vorhergehenden Bilder 28 werden nun neue Klassifikatoren 66 im Schritt 80 ermittelt und im Datenspeicher 22 abgelegt. Dies kann beispielsweise für eine vorgegebene Anzahl von Bildern 28 rückwärts vom manuell markierten Bild 28 erfolgen oder so lange, bis die erreichbare Erkennungsgüte der neuen Klassifikatoren 66 unter eine Schwelle sinkt, das Ziel 28 also auch mit verbesserten Klassifikatoren 66 nicht mehr ausreichend gut erkennbar ist.
  • Je nach Missionsauftrag 42 und einem darin vorgegebenen Einsatzprofil 42 kann dieses Einsatzprofil 42 den in diesem Einsatz ermittelten Klassifikatoren 66 zugeordnet werden. Die in der Trägerplattform 6 abgespeicherten neuen Klassifikatoren 66 können hierdurch eindeutig einem oder mehreren Einsatzprofilen zugeordnet werden und entsprechend bei einem ähnlichen Einsatz durch Wichtung 72 vorselektiert werden. Ob hierbei die Einsatzprofile gewichtet oder die Klassifikatoren 56, 66 gewichtet werden, wird als gleichwertig angesehen. In gleicher Weise können die Klassifikatoren 56, 66 auch Szenerien beziehungsweise Szenerieprofilen zugeordnet werden, die aus Szeneriemerkmalen des Zielbereichs 52 ermittelt wurden und zur Wichtung 72 verwendet werden können.
  • 4 zeigt ein einfaches Beispiel einer Wichtung 72. Zum Eingang des Verfahrens, der durch den oberen Pfeil in 4 dargestellt ist, teilen sich die Möglichkeiten in eine Mehrzahl von Einsatzprofilen oder allgemeiner Gruppen 82 - 90 ein. Eine erste Gruppe 82 umfasst vorgegebene Klassifikatoren 56, die beispielsweise in einem Offline-Prozess am Boden anhand von Bilddaten ermittelt wurden. Solche statisch ermittelten Klassifikatoren 56 können a priori Daten zur Zielerkennung 54 bilden. Im Verlauf von einigen Missionen können auch weitere Gruppen 84 - 90 zur Anwendung kommen, die sich beispielsweise in den Einsatzprofilen und oder Zielklassen unterscheiden. Im Folgenden wird beispielsweise davon ausgegangen, dass die Gruppen 84 - 90 vier verschiedene Zielklassen beschreiben. Das jeweils anzufliegende Ziel 36 ist später dann im Missionsauftrag 42 angegeben, sodass eine der Gruppen 84 - 90 beziehungsweise deren Klassifikatoren 66 ausgewählt werden können oder es werden mehrere Gruppen 82 - 90 durch eine differenziertere Wichtung miteinander verknüpft. Entsprechend dem Missionsauftrag 42, in dem das neue Ziel 36 definiert ist, können die einzelnen Gruppen 82 - 90 gewichtet werden, wie durch Gewichtungsfaktoren Gi in 4 angegeben ist. Diese Gewichtungsfaktoren Gi ergeben sich aus dem Verhältnis der Daten aus dem Missionsauftrag 42 zu den Zieltypen entsprechend der Gruppen 84 - 90 beziehungsweise der a priori Gruppe 82. Durch die Gewichtungen Gi gewichtet können die in den Gruppen 82 - 90 hinterlegten Klassifikatoren 56, 66 nun zur Zielerkennung 54, 78 herangezogen werden.
  • Bezugszeichenliste
  • 2
    Flugkörper
    4
    Befestigung
    6
    Plattform
    8
    Raketenmotor
    10
    Suchkopf
    12
    Kamera
    14
    Optik
    16
    Detektor
    18
    Zielerkennungseinheit
    20
    Steuereinheit
    22
    Datenspeicher
    24
    Wirkteil
    26
    Steuerfläche
    28
    Bild
    30
    Meer
    32
    Wolken
    34
    Land
    36
    Ziel
    38
    Flugzeug
    40
    Bildregion
    42
    Missionsauftrag
    44
    Flug
    46
    Bildreihe anschauen
    48
    Ziel erkennen
    50
    Zielbereich markieren
    52
    Zielbereich
    54
    Zielerkennung
    56
    Klassifikator
    58
    Klassifikatoren auswählen
    60
    Bildanzeige
    62
    Zielerkennung
    64
    Zielverfolgung
    66
    Klassifikator
    68
    Klassifikatoren ermitteln
    70
    Datenspeicher
    72
    Wichtung
    76
    Zielbereich auswerten
    78
    Zielerkennung
    80
    Klassifikatoren ermitteln
    82
    Gruppe
    84
    Gruppe
    86
    Gruppe
    88
    Gruppe

Claims (17)

  1. Verfahren zum Auffassen eines Ziels (36), bei dem ein das Ziel (36) abbildendes Bild (28) vorgegeben wird und eine Zielerkennungseinheit (18) aus Bildmerkmalen des Bilds (28) und vorgegebenen Klassifikatoren (56) das abgebildete Ziel (36) als solches erkennt, dadurch gekennzeichnet, dass die Zielerkennungseinheit (18) anhand der Kenntnis des Ziels (36) neue Klassifikatoren (66) aus dem Bild (28) ermittelt, mit denen das Ziel (36) mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren (56) als solches erkennbar ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Bild (28) durch einen Suchkopf (10) eines Flugkörpers (2) aufgenommen und einem Bediener angezeigt wird, der Bediener das Ziel (36) erkennt und den Flugkörper (2) auf das Ziel (36) einweist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass innerhalb des Bilds (28) ein Zielbereich (52) von einem Bediener ausgewählt wird, der Zielbereich (52) an die Zielerkennungseinheit (18) übergeben wird und diese das Ziel (36) ausschließlich im Zielbereich (52) sucht.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zielerkennungseinheit (18) Teil eines an einer fliegenden Plattform (6) befestigten Flugkörpers (2) ist und ein Zielbereich (52) des Bilds (28) der Zielerkennungseinheit (18) übergeben wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Bild (28) Teil einer Bildreihe ist, deren Bilder (28) das Ziel (36) abbilden, und die neuen Klassifikatoren (66) aus zumindest einem anderen Bild (28) der Bildreihe ermittelt werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Ziel (36) im anderen Bild (28) schlechter erkennbar ist, als in dem Bild (28), in dem es zuvor erkannt wurde.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ziel (36) in nachfolgenden Bildern (28) der Bildreihe mit den neuen Klassifikatoren (66) aufgefasst wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die neuen Klassifikatoren (66) durch maschinelles Lernen ermittelt werden und hierfür eine Support Vector Machine verwendet wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass ein Merkmalsraum mit einer so hohen Dimensionierung verwendet wird, dass die Bildwerte der gesamten Pixelmatrix des Zielbereichs aus n x m Pixeln verwendet werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die neuen Klassifikatoren (66) einem Einsatzprofil zugeordnet und in einer Trägerplattform (6) abgespeichert werden, die einen Flugkörper (2) mit der Zielerkennungseinheit (18) trägt.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die vorgegebenen Klassifikatoren (56) zumindest teilweise mittels maschinellen Lernens während Flügen einer Trägerplattform (6) bestimmt wurden, die zum Tragen einer Einheit mit der Zielerkennungseinheit (18) bestimmt ist.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die vorgegebenen Klassifikatoren (56) unterschiedlichen Einsatzprofilen zugeordnet sind, die Einsatzprofile gewichtet (72) werden und die Auswahl und/oder Wichtung der Klassifikatoren (56) unter Verwendung der Wichtung der Einsatzprofile erfolgt.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Wichtung unter Verwendung von Bilddaten des Zielbereichs (52) vorgenommen wird.
  14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass die Einsatzprofile gewichtet werden und die Wichtung unter Verwendung von bildunabhängigen Zielinformationen vorgenommen wird.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die vorgegebenen Klassifikatoren (56) nur einem von mehreren Einsatzprofilen zugeordnet sind und das Einsatzprofil mit den besten Klassifikatoren (56) hierzu ausgewählt wird.
  16. Verfahren nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass die Einsatzprofile in einer Baumstruktur angeordnet sind, deren Verästelung aus Einsatzcharakteristiken und/oder Zielcharakteristiken gebildet ist, und die Baumstruktur entsprechend der aktuellen Einsatzcharakteristiken und/oder Zielcharakteristiken abgefahren wird zur Zusammenstellung der vorgegebenen Klassifikatoren.
  17. Vorrichtung zum Auffassen eines Ziels (36) mit einer Kamera (12), einem Selektor zum Auswählen eines Zielbereichs (52) in zumindest einem Bild (28) der Kamera (12) und einem Flugkörper (2) mit einem Suchkopf (10) zum Verfolgen eines ausgewählten Ziels (36), und einer Zielerkennungseinheit (18), die dazu vorbereitet ist, aus Bildmerkmalen des Zielbereichs (52) und vorgegebenen Klassifikatoren (56) das abgebildete Ziel (36) zu erkennen und anhand der Kenntnis des Ziels (36) neue Klassifikatoren (66) zu ermitteln, mit denen das Ziel (36) mit einer höheren Erkennungsgüte als mit den zur Erkennung verwendeten Klassifikatoren (56) als solches erkennbar ist.
DE102018008864.3A 2018-11-10 2018-11-10 Verfahren zum Auffassen eines Ziels Pending DE102018008864A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018008864.3A DE102018008864A1 (de) 2018-11-10 2018-11-10 Verfahren zum Auffassen eines Ziels
EP19801266.8A EP3877722A1 (de) 2018-11-10 2019-11-06 Verfahren zum auffassen eines ziels
PCT/EP2019/080336 WO2020094691A1 (de) 2018-11-10 2019-11-06 Verfahren zum auffassen eines ziels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018008864.3A DE102018008864A1 (de) 2018-11-10 2018-11-10 Verfahren zum Auffassen eines Ziels

Publications (1)

Publication Number Publication Date
DE102018008864A1 true DE102018008864A1 (de) 2020-05-14

Family

ID=68503103

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018008864.3A Pending DE102018008864A1 (de) 2018-11-10 2018-11-10 Verfahren zum Auffassen eines Ziels

Country Status (3)

Country Link
EP (1) EP3877722A1 (de)
DE (1) DE102018008864A1 (de)
WO (1) WO2020094691A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19716025B4 (de) * 1997-04-17 2009-12-03 Diehl Bgt Defence Gmbh & Co. Kg Plattform mit abschießbaren, zielverfolgenden Flugkörpern, insbesondere Kampfflugzeug
US8582871B2 (en) * 2009-10-06 2013-11-12 Wright State University Methods and logic for autonomous generation of ensemble classifiers, and systems incorporating ensemble classifiers
DE102015004936A1 (de) * 2015-04-17 2016-10-20 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Ausrichten einer Wirkmitteleinheit auf ein Zielobjekt
IL239191A0 (en) * 2015-06-03 2015-11-30 Amir B Geva Image sorting system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PACHOWICZ, P. W.; BAIK, S. W.: Adaptive RBF classifier for object recognition in image sequences. In: Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. IJCNN 2000. Neural Computing: New Challenges and Perspectives for the New Millennium. IEEE, 2000. S. 600-605. *
Support-vector machine. In: Wikipedia. URL: https://en.wikipedia.org/w/index.php?title=Support-vector_machine&oldid=924139944 , Stand 02.11.2018 [abgerufen am 12.02.2020]. *

Also Published As

Publication number Publication date
EP3877722A1 (de) 2021-09-15
WO2020094691A1 (de) 2020-05-14

Similar Documents

Publication Publication Date Title
DE102014003284A1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102015007028A1 (de) Verfahren zur Fokussierung eines hochenergetischen Strahls auf einem Haltepunkt auf der Oberfläche eines fliegenden Flugobjekts
DE69730733T2 (de) Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen
WO1997026550A2 (de) Vorrichtung zum suchen, entdecken und verfolgen von flugzielen
EP2482025B1 (de) Verfahren und Vorrichtung zum Abwehren eines angreifenden Flugkörpers
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE102018008864A1 (de) Verfahren zum Auffassen eines Ziels
EP3081892A1 (de) Verfahren zum lenken eines flugkörpers
EP2520895A1 (de) Elektrooptische Feuerleiteinheit für ein Geschütz
DE60305345T2 (de) Bildverarbeitungseinrichtung mit erkennung und auswahl von lichtquellen
DE112018005497T5 (de) Vermeiden eines propellerkontakts in einem unbemannten luftfahrzeug
DE10001282C2 (de) Verfahren zur autonomen Detektion von Hubschraubern
EP3284010B1 (de) Verfahren zum klassifizieren eines fahrzeugs
DE102019007515B4 (de) Bildverarbeitungsverfahren zum Ermitteln von Lenkbefehlen für Steuerflügel eines Lenkflugkörpers
EP3089076A1 (de) Verfahren zum ausrichten einer wirkmitteleinheit auf ein zielobjekt
DE102018007990A1 (de) Verfahren zum Erkennen eines Zielobjekts mittels einer Kamera
DE102020106703B4 (de) Objekterkennungseinheit mit Sensoreingaben in verschiedenen Spektralbereichen
DE102010005198A1 (de) Flugkörper und Verfahren zum Erfassen eines Ziels
DE102021115140B4 (de) Verfahren zum Steuern einer Flugbewegung eines Fluggeräts zum Landen oder zum Abwerfen einer Ladung sowie Fluggerät
DE19930393B4 (de) Verfahren zur Überwachung eines Gebiets auf Auffälligkeiten durch einen oder mehrere Beobachter
DE19600670B3 (de) Verfahren zum Anpassen eines Bildes und eines Modells
DE102016104021A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs anhand einer eine Radgeometrie des Zielfahrzeugs charakterisierenden Referenzgeometrie, Kamerasystem und Kraftfahrzeug
DE102021208722A1 (de) Konfigurieren eines neuronalen Netzwerks auf äquivariantes oder invariantes Verhalten
DE102016110691A1 (de) Vorrichtung und Verfahren zum Bestimmen einer jeweiligen Position einer Mehrzahl von auf einer Flughafenfläche befindlichen Luftfahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000