DE102010018143A1 - Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem - Google Patents

Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem Download PDF

Info

Publication number
DE102010018143A1
DE102010018143A1 DE102010018143A DE102010018143A DE102010018143A1 DE 102010018143 A1 DE102010018143 A1 DE 102010018143A1 DE 102010018143 A DE102010018143 A DE 102010018143A DE 102010018143 A DE102010018143 A DE 102010018143A DE 102010018143 A1 DE102010018143 A1 DE 102010018143A1
Authority
DE
Germany
Prior art keywords
target object
reference model
position data
image
missile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010018143A
Other languages
English (en)
Inventor
Dr. Holicki Michael
Nikolaus Schweyer
Dr. Speth Johannes
Dr. Zoz Jürgen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MBDA Deutschland GmbH
Original Assignee
LFK Lenkflugkoerpersysteme GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LFK Lenkflugkoerpersysteme GmbH filed Critical LFK Lenkflugkoerpersysteme GmbH
Priority to DE102010018143A priority Critical patent/DE102010018143A1/de
Priority to EP11002853.7A priority patent/EP2381208B1/de
Priority to ES11002853T priority patent/ES2755024T3/es
Priority to IL212320A priority patent/IL212320A0/en
Priority to US13/091,664 priority patent/US9453708B2/en
Publication of DE102010018143A1 publication Critical patent/DE102010018143A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2246Active homing systems, i.e. comprising both a transmitter and a receiver
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Image Processing (AREA)

Abstract

Ein Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem aus einer von diesem beabstandeten Beobachtungsposition umfasst die folgenden Schritte: a) Bereitstellen eines dreidimensionalen Referenzmodells der Umgebung des Zielobjekts mit bekannten geografischen Ortsdaten; b) Abgleichen eines sich von der Beobachtungsposition für einen Beobachter ergebenden Bildes des Zielobjekts und von dessen Umgebung mit dem Referenzmodell; und c) Bestimmen der Positionsdaten des anvisierten Zielobjekts im Referenzmodell als relative Positionsdaten zu bekannten Ortsdaten des Referenzmodells.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem aus einer von diesem beabstandeten Beobachtungsposition. Die Erfindung betrifft weiterhin ein Verfahren zur Führung eines fliegenden Waffensystems zu einem Zielobjekt und zur Ausrichtung einer Waffe auf das Zielobjekt.
  • In der Nähe eines Zielgebiets können sich mehrere unterschiedliche Einsatzkräfte an unterschiedlichen Orten befinden. Das Zusammenführen von Informationen, die diese verteilten Einsatzkräfte über das Zielgebiet gewinnen, ist für die Lagebeurteilung erforderlich und bildet die Voraussetzung zu einem koordinierten Vorgehen dieser Einsatzkräfte. Präzise und eindeutige Zieldaten spielen dabei eine wesentliche Rolle.
  • Häufig kommt es vor, dass sich Bodenkräfte bereits nahe an ein Ziel herangearbeitet haben und Unterstützung aus der Luft anfordern. Die Abstimmung eines Einsatzes derart verteilt lokalisierter Kräfte erfordert präzise Angaben über den Zielort. Die dafür benötigten Positionsdaten des Zielobjekts können sich jene Einsatzkräfte, die sich bereits in der Nähe des Ziels befinden, am genauesten beschaffen. Allerdings sind die derart gewonnenen Positionsdaten des Zielobjekts zunächst nur relative Positionsdaten zwischen der Position des Ziels und der Position des Beobachters.
  • STAND DER TECHNIK
  • Eine bekannte Möglichkeit, eine dislozierte Waffe, zum Beispiel einen Flugkörper, auf ein Ziel einzuweisen, besteht darin, dass der Beobachter mit geeignetem Gerät das Ziel beleuchtet und der anfliegende Flugkörper den codierten Leuchtpunkt sucht und anfliegt. Ein wesentlicher Nachteil bei diesem Verfahren besteht darin, dass der Beobachter sich durch die aktive Beleuchtung, die zwangsläufig über eine gewisse Zeit aufrecht erhalten werden muss, verraten kann. Außerdem gestaltet sich dieses Verfahren in stärker bebautem Gelände wegen vieler Verdeckungen und dadurch entstehenden Gebäudeschatten sehr schwierig.
  • Eine weitere bekannte Möglichkeit der Zieleinweisung für einen Flugkörper besteht darin, mit Geräten zur Bestimmung geografischer Positionsdaten, zum Beispiel Satellitennavigationsgeräten, Kompass und Karte, die geographischen Positionsdaten des Zielobjekts zu ermitteln und den Flugkörper auf die so ermittelten Zielkoordinaten zu lenken. Eine derartige Bestimmung der geografischen Positionsdaten genügt jedoch nicht immer den Anforderungen an die für einen präzisen Angriff erforderliche Genauigkeit. Insbesondere, wenn sich zivile Gebäude und Einrichtungen in der Nähe des Zielobjekts befinden, reicht die Genauigkeit der auf diese Weise bestimmten geografischen Positionsdaten des Zielobjekts nicht aus, um das Entstehen von Kollateralschäden zu vermeiden. Insbesondere in städtischem Gebiet oder anderem dicht bebautem Gebiet, können geringste Fehler bei der Bestimmung der Positionsdaten des Zielobjekts verheerende Folgen haben. Die für dieses Einsatzszenario erforderliche eindeutige und exakte Bestimmung der Positionsdaten des Zielobjekts, beispielsweise die eines Gebäudes, aus dem heraus der Gegner die eigenen Kräfte unter Beschuss nimmt, erfordert höchste Präzision, die mit den derzeit bekannten Mitteln aus sicherer Distanz nicht erreichbar ist.
  • DARSTELLUNG DER ERFINDUNG
  • Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts aus einer von diesem beabstandeten Beobachtungsposition anzugeben, mit dem es möglich ist, die Positionsdaten des Zielobjekts präzise zu bestimmen und das Ziel eindeutig zu definieren, so dass es auch von einem von der Beobachtungsposition verschiedenen Ort, beispielsweise von einem anfliegenden Flugkörper aus, schnell und eindeutig identifizierbar ist.
  • Diese Aufgabe wird gelöst durch das Verfahren mit den Merkmalen des Patentanspruchs 1.
  • Erfindungsgemäß werden dabei die folgenden Schritte ausgeführt:
    • a) Bereitstellen eines dreidimensionalen Referenzmodells der Umgebung des Zielobjekts mit bekannten geographischen Ortsdaten;
    • b) Abgleichen eines sich von der Beobachtungsposition für einen Beobachter ergebenden Bildes des Zielobjekts und von dessen Umgebung mit dem Referenzmodell; und
    • c) Bestimmen der Positionsdaten des anvisierten Zielobjekts im Referenzmodell als relative Positionsdaten zu bekannten Ortsdaten des Referenzmodells.
  • VORTEILE
  • Gemäß dem Verfahren der Erfindung wird somit ein gemeinsames dreidimensionales Referenzmodell der Umgebung des Zielobjekts dem Beobachter bereitgestellt. Dieses dreidimensionale Referenzmodell steht auch der anfliegenden Waffe zur Verfügung. Durch die vorgenannten Schritte des erfindungsgemäßen Verfahrens ist es dem Beobachter möglich, das Zielobjekt im dreidimensionalen Referenzmodell zu identifizieren und dessen Lage in diesem Referenzmodell zu definieren. Aufgrund der so definierten relativen Positionsdaten des Zielobjekts im dreidimensionalen Referenzmodell kann das Zielobjekt aus jeder anderen Richtung eindeutig identifiziert werden und die aus einer beliebigen Richtung anfliegende Waffe kann das Zielobjekt eindeutig finden und präzise treffen. Die absolute Positionsgenauigkeit des dreidimensionalen Referenzmodells spielt dabei nur eine untergeordneten Rolle, sie muss lediglich so gut sein, dass die Zuordnung zwischen dem dreidimensionalen Referenzmodell und der von einer Bilderfassungseinrichtung des Beobachters oder der anfliegenden Waffe modellierten Szene möglich ist. Die Nutzung von relativen Positionsdaten des Zielobjekts in einem das Referenzmodell aufweisenden Referenzsystem ermöglicht eine sichere Zieldefinition und Zielansprache allein auf der Basis des jeweils erfassten Bildes und des Referenzmodells ohne dass es erforderlich ist, die absoluten geografischen Positionsdaten des Zielobjekts, des Beobachters, und bei einer Zielbekämpfung auch der Waffe, exakt zu bestimmen.
  • Eine vorteilhafte Weiterbildung des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass das in Schritt a) bereitgestellte Referenzmodell aus Luftaufnahmen und/oder Satellitenaufnahmen des Zielobjekts und seiner Umgebung gewonnen wird. Die Referenzmodelle können auf unterschiedliche Weise erzeugt werden. Eine bevorzugte Möglichkeit ist die fotogrammetische Vermessung hochpräziser Luftaufnahmen, eine andere Möglichkeit besteht darin, aus beispielsweise von Aufklärungsluftfahrzeugen aufgenommenen Bildfolgen eine dreidimensionale Rekonstruktion des Referenzmodells vorzunehmen.
  • Alternativ oder zusätzlich können zur Gewinnung des in Schritt a) bereitgestellten Referenzmodells auch Radar- oder Lidarmessungen des Zielobjekts und/oder seiner Umgebung herangezogen werden.
  • Bei einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens erfolgt der Abgleich des Bildes des Zielobjekts und von dessen Umgebung mit dem Referenzmodell in Schritt b) in den folgenden Teilschritten:
    • b1) Bilden eines dreidimensionalen Linienmodells aus dem dreidimensionalen Referenzmodell;
    • b2) Projizieren des Linienmodells aufgrund einer groben Positions- und Lagehypothese in das von einer Bilderfassungseinrichtung aufgenommene Bild des Zielobjekts und von dessen Umgebung;
    • b3) Abgleichen der Linien des dreidimensionalen Linienmodells mit aus dem Bild extrahierten Liniensegmenten; und
    • b4) Berechnen einer Korrektur der Positions- und Lagehypothese aus dem Abgleich,
    wobei die in Schritt b4) ermittelte Korrektur bei der Bestimmung der Positionsdaten des Zielobjekts in Schritt c) berücksichtigt wird. Bei diesem Algorithmus wird das von der Beobachtungsposition beispielsweise mit einer Kamera aufgenommen Bild des Zielobjekts und seiner Umgebung mit dem dreidimensionalen Referenzmodell der aufgenommenen Szene abgeglichen. Aus diesem Abgleich werden Korrekturfaktoren für die Positions- und Lagehypothese berechnet und die Position und die Lage der Kamera, also der Beobachtungsposition, können genau bestimmt werden.
  • Gemäß dieser vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens wird zunächst ein dreidimensionales Linienmodell gebildet, um ein linienhaftes dreidimensionales Referenzmodell zu gewinnen. Diese Linien bilden sowohl für den Beobachter, als auch für den Suchkopf eines anfliegenden Flugkörpers die Grundlage für die Ortung und Lokalisierung der eigenen Beobachtungsposition. Dabei können neben dem dreidimensionalen Referenzmodell und dem aufgenommenen Kamerabild von der Beobachtungsposition bzw. der Kamerabildfolge weitere Umgebungsdaten für eine grobe initiale Positions- und Lagehypothese einfließen. Diese Umgebungsdaten und Zusatzdaten können z. B. per Kompass und Satelliten-Navigationssystem oder im Falle eines Flugkörpers über ein integriertes Satelliten-Navigationssystem und/oder Inertial-Navigationssystem ermittelt werden.
  • Weiterhin ist es von Vorteil, wenn beim erfindungsgemäßen Verfahren zur Bestimmung der Positionsdaten des Zielobjekts aus den Ortsdaten des Referenzmodells in Schritt c) folgende Teilschritte durchgeführt werden:
    • c1) Bestimmen der geografischen Positionsdaten der Beobachtungsposition;
    • c2) Bestimmen der Positionsdaten des Zielobjekts relativ zu den Positionsdaten der Beobachtungsposition;
    • c3) Ermittlung der relativen Positionsdaten des Zielobjekts in Bezug auf das Referenzmodell.
  • Durch die mit diesen Schritten ausgeführte Ermittlung der relativen Positionsdaten des Zielobjekts in Bezug auf das Referenzmodell ist es auf einfache Weise möglich, mittels der beispielsweise über ein Satelliten-Navigationsgerät bestimmten Positionsdaten an der Beobachtungsposition und dem Referenzmodell sowie der im Schritt b) bestimmten Korrekturdaten eine genaue relative Position des Zielobjekts im Referenzmodell zu definieren.
  • Vorteilhaft ist dabei, wenn die Bestimmung der Positionsdaten des Zielobjekts relativ zu den Positionsdaten der Beobachtungsposition im Schritt c2) dadurch erfolgt, dass von der Beobachtungsposition aus eine auf das Zielobjekt gerichtete Entfernungsmessung, vorzugsweise eine Laser-Entfernungsmessung, durchgeführt wird, wobei die bei der Entfernungsmessung ermittelte Richtung und Entfernung zwischen Beobachtungsposition und Zielobjekt zur Bestimmung der Positionsdaten des Zielobjekts herangezogen werden.
  • Alternativ kann die Bestimmung der Positionsdaten des Zielobjekts aus den Ortsdaten des Referenzmodells in Schritt c) auch dadurch erfolgen, dass von der an der Beobachtungsposition befindlichen Bilderfassungseinrichtung ein virtueller Sichtstrahl definiert wird, der beispielsweise der optischen Achse der Bilderfassungseinrichtung entspricht, und dass die Koordinaten des von diesem Sichtstrahl auf dem Zielobjekt abgebildeten Zielpunkts im Referenzmodell als Positionsdaten des Zielobjekts bestimmt werden.
  • Die Erfindung betrifft außerdem ein Verfahren zur Führung eines fliegenden Waffensystems zu einem Zielobjekt und zur Ausrichtung einer Waffe dieses Waffensystems auf das Zielobjekt, wobei zunächst die Positionsdaten des Zielobjekts in einem Referenzsystem als relative Positionsdaten in einem Referenzmodell gemäß einem der vorhergehenden Ansprüche bestimmt werden und wobei dann zur Führung des Flugkörpers folgende Schritte durchgeführt werden:
    • aa) Erfassen eines Bildes des Zielobjekts und von dessen Umgebung mit einer an Bord des Flugkörpers vorgesehenen Bilderfassungseinrichtung;
    • bb) Abgleichen des in Schritt aa) gewonnenen Bildes mit dem dreidimensionalen Referenzmodell und
    • cc) Bestimmen der Positionsdaten der Bilderfassungseinrichtung und damit des Flugkörpers relativ zu den Positionsdaten des Zielobjekts und
    • dd) Steuern des Flugkörpers in das Zielobjekt unter Verwendung der in Schritt
    • cc) ermittelten Relativlage des Flugkörpers zum Zielobjekt.
  • Dieses Flugführungsverfahren nutzt ebenfalls die Information über die Relativposition des Zielobjekts im Referenzmodell. Der anfliegende Flugkörper sieht mit seiner Bilderfassungseinrichtung das Zielobjekt und dessen Umgebung aus einem anderen Blickwinkel als der Beobachter an der Beobachtungsposition. Auch bei diesem Flugführungsverfahren wird das von der Bilderfassungseinrichtung gewonnene Bild zunächst mit dem dreidimensionalen Referenzmodell abgeglichen. Da die Koordinaten des Zielobjekts im Referenzmodell, also im Referenzsystem, bereits vom Beobachter ermittelt worden sind, lässt sich die Relativposition des Flugkörpers zum Zielobjekt schnell und einfach bestimmen und somit der Flugkörper zuverlässig und treffsicher in das Zielobjekt steuern.
  • Vorzugsweise ist dabei das fliegende Waffensystem ein unbemannter Flugkörper, der mittels des Verfahrens in das Zielobjekt gesteuert wird.
  • Alternativ kann das fliegende Waffensystem ein mit zumindest einer Waffe versehenes Luftfahrzeug, beispielsweise ein Kampfhubschrauber, sein, dessen Waffe mittels des Verfahrens auf das Zielobjekt ausgerichtet wird.
  • Bevorzugte Ausführungsbeispiele der Erfindung mit zusätzlichen Ausgestaltungsdetails und weiteren Vorteilen sind nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben und erläutert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1 eine schematische Darstellung des Ablaufs der einzelnen Verfahrensschritte sowohl des Verfahrens zur Bestimmung des Positionsdaten eines Zielobjekts aus einer von diesem beabstandeten Beobachtungsposition, als auch des Verfahrens zur Führung eines unbemannten Flugkörpers in das Zielobjekt.
  • DARSTELLUNG VON BEVORZUGTEN AUSFÜHRUNGSBEISPIELEN
  • 1 zeigt schematisch im Teil 1A die Schritte des Verfahrens zur Bestimmung der Positionsdaten eines Zielobjekts Z aus einer von diesem beabstandeten Beobachtungsposition durch ein Aufklärungsgerät 1 eines Beobachters. Im Teil 1B der 1 werden schematisch die Verfahrensschritte des Verfahrens zur Führung eines unbemannten Flugkörpers in das Zielobjekt Z gezeigt. Zunächst wird das Verfahren zur Bestimmung der Positionsdaten des Zielobjekts aus einer von diesem beabstandeten Beobachtungsposition anhand der Teilfigur 1A beschrieben.
  • Ein Beobachter, der sich an einer Beobachtungsposition befindet, die vom Zielobjekt Z beabstandet ist, von der aus der Beobachter aber eine ungehinderte Sichtverbindung zum Zielobjekt Z besitzt, ist mit einem Aufklärungsgerät 1 ausgestattet, welches eine Bilderfassungseinrichtung 10, beispielsweise eine elektronische Kamera, aufweist. Der Beobachter visiert mit der Bilderfassungseinrichtung 10 das Zielobjekt Z und dessen Umgebung an. Die Bilderfassungseinrichtung 10 liefert daraufhin ein Bild, das beispielsweise auf einem Monitor angezeigt wird und in dem die Position des Zielobjekts Z als Zielposition im Beobachtungssystem definiert ist. Dieses Bild wird dann mit einem Referenzmodell abgeglichen. Dabei werden in das Bild Daten eines von der Umgebung des Zielobjekts zu einem früheren Zeitpunkt gewonnenen dreidimensionalen Geländemodells der Umgebung des Zielobjekts in Form des die Beobachtungsrichtung berücksichtigenden Referenzmodells zugespielt und das von der Bilderfassungseinrichtung aufgenommene Bild wird mit charakteristischen Linien eines aus dem Referenzmodell gebildeten Linienmodells überlagert. Dazu werden zunächst die geographischen Positionsdaten der Beobachtungsposition, also des Standpunktes der Bilderfassungseinrichtung, sowie die Richtung und Entfernung von der Beobachtungsposition zum Zielobjekt Z als sogenannte Kollateraldaten bestimmt. Diese Positionsdaten der Beobachtungsposition werden dann in einer Rechnereinrichtung des Aufklärungsgeräts dazu verwendet, um das dreidimensionale Referenzmodell R so auszurichten, dass es in seiner perspektivischen Darstellung auf dem Monitor der Darstellung des tatsächlichen Bildes, das von der Bilderfassungseinrichtung aufgenommen wurde, also des Bildes der Zielregion, grob entspricht.
  • Die Rechnereinrichtung des Aufklärungsgeräts führt nun anhand von charakteristischen Linien, die aus dem von der Bilderfassungseinrichtung aufgenommenen Bild gewonnen werden, einen Mustervergleich mit den Linien des Linienmodells aus dem Referenzmodell durch. Als Ergebnis dieses Mustervergleichs werden Abweichungen in Lage und Position von jeweils einander zugeordneten Linienpaaren aus den Linien des Referenzmodells und aus den aus dem erfassten Bild extrahierten Linien durch Relativverschiebung der beiden Linienmodelle zueinander kompensiert, wodurch schließlich die Positionsdaten des anvisierten Zielobjekts im Referenzmodell als relative Positionsdaten zu bekannten Ortsdaten des Referenzmodells bestimmt werden können. Die Lage des Zielobjekts im Referenzmodell ist damit eindeutig definiert.
  • Der Beobachter nutzt dazu sein Aufklärungsgerät, welches neben der Bilderfassungseinrichtung auch Zusatzsensoren enthält, die eine grobe Positions- und Lagehypothese der geographischen Positionsdaten der Bilderfassungseinrichtung und damit des Aufklärungsgeräts und der Beobachtungsposition liefern. Derartige Zusatzsensoren können beispielsweise ein Satellitennavigationsgerät oder ein Kompass sein.
  • Optional kann das Aufklärungsgerät auch mit einem Laserentfernungsmesser (LEM) ausgestattet sein, um die Entfernung zum Zielobjekt zu bestimmen. Damit kann der Beobachter aus dem Bild des Zielobjekts und seiner Umgebung, der Entfernungsmessung sowie seiner Positions- und Lagehypothese eine Hypothese für die absoluten Positionsdaten des Zielobjekts ermitteln. Diese Hypothese wird aber aufgrund der Ungenauigkeiten der beteiligten Sensoren nicht präzise genug sein, um allein damit einen Präzisionsflugkörper einzuweisen. Insbesondere die Messfehler eines Kompass' oder eines alternativ eingesetzten Kreisel-Northfinders, würden bei großen Abständen zum Ziel zu erheblichen Fehlern in der Zielpositionierung führen. Dies wiederum würde in der Folge dann zu Kollateralschäden beim Angriff eines Flugkörpers auf das Ziel führen. Es wird statt dessen das erfindungsgemäße Verfahren eingesetzt, bei dem die Position des Zielobjekts relativ zum Referenzmodell bestimmt wird.
  • Diese Bestimmung der Positionsdaten des Zielobjekts relativ zum Referenzmodell kann auf zwei unterschiedliche Weisen erfolgen. Im ersten Fall wird der bereits erwähnte Laserentfernungsmesser verwendet, um die Position des Ziels relativ zum Beobachter, also relativ zur Beobachtungsposition, zu bestimmen. Zusammen mit den bekannten geographischen Positionsdaten der Beobachtungsposition, der vom Laserentfernungsmesser gemessenen Entfernung zum Ziel und der Richtung von der Beobachtungsposition zum Zielobjekt lässt sich der Zielpunkt, der definiert ist durch die relativen Positionsdaten des Zielobjekts im Referenzmodell, bestimmen.
  • Im zweiten, alternativen Fall wird kein Laserentfernungsmesser benötigt. In diesem Fall definiert das von der Bilderfassungseinrichtung aufgenommene Bild des Zielobjekts einen dreidimensionalen Sichtstrahl, der beispielsweise durch die optische Achse der Bilderfassungseinrichtung definiert ist, sofern sich das Zielobjekt in der Bildmitte befindet. Dort wo dieser Sichtstrahl eine dem Zielobjekt zugeordnete Fläche oder Linie des Referenzmodells schneidet, liegt wiederum der Zielpunkt im Referenzmodell. Diese zweite Variante besitzt den Vorteil, dass sie ohne Laserentfernungsmesser auskommt und daher vollständig passiv ist. Der Beobachter muss sich also nicht durch einen Laserstrahl zu erkennen geben. Diese Variante ist aber darauf angewiesen, dass das Zielobjekt zumindest als Fläche oder Linie im Referenzmodell enthalten ist. Es können damit also nur Ziele definiert werden, die Bestandteil der im Referenzmodell modellierten Struktur sind, wie zum Beispiel ein Fenster oder eine Tür eines im Referenzmodell modellierten Hauses. Zielobjekte, die nicht Bestandteil des Referenzmodells sind, beispielsweise ein vor einem Haus stehendes Fahrzeug, lassen sich mit dieser Variante nicht eindeutig im Referenzmodell positionieren. Für derartige Zielobjekte ist eine Entfernungsmessung, beispielsweise mit einem Laserentfernungsmesser, und die Vorgehensweise nach der ersten Variante erforderlich.
  • Grundsätzlich ist es natürlich auch denkbar, dass beide vorgenanten Varianten dem Beobachter im Aufklärungsgerät zur Verfügung stehen und wahlweise eingesetzt werden können. Jede der beiden Varianten liefert als Ergebnis einen in seinen drei Raumkoordinaten relativ zum Koordinatensystem des Referenzmodells definierten Zielpunkt im dreidimensionalen Referenzmodell. Diese relativen Zielpunktkoordinaten können vom Beobachter entweder zur allgemeinen Lagebeurteilung in ein Kontrollzentrum übertragen werden oder sie können direkt zur Einweisung eines Flugkörpers vom Beobachter an diesen übermittelt werden.
  • Nachstehend wird unter Bezugnahme auf die Teilfigur 1B beschrieben wie diese relativen Zielpunktdaten zur Steuerung des mit einem Suchkopf 2 versehenen Flugkörpers in das Zielobjekt verwendet werden.
  • Nachdem der Zielpunkt als Koordinatenpunkt des Zielobjekts im dreidimensionalen Referenzmodell des Beobachters und damit im dreidimensionalen Geländemodell der Umgebung des Zielobjekts in der vorstehend beschriebenen Weise vom Beobachter festgelegt und definiert worden ist, wird die vom Flugkörper zu fliegende Mission geplant. Dabei wird die geplante Anflugrichtung des Flugkörpers auf das Zielobjekt anhand der Zielposition und des vorhandenen dreidimensionalen Geländemodells der Zielumgebung in einer für die Missionsdurchführung geeigneten Weise festgelegt. In Abhängigkeit vom Zielpunkt und von der festgelegten Anflugrichtung wird aus dem dreidimensionalen Geländemodell ein Anflug-Referenzmodell berechnet und generiert.
  • In der Flugphase der Annäherung des Flugkörpers an das Zielobjekt und die Zielumgebung stützt sich der im Flugkörper vorgesehene Suchkopf 2 zur Orientierung zunächst auf die Kollateraldaten aus einem im Flugkörper vorhandenen Satellitennavigationssystem und Inertial-Navigationssystem, um eine grobe Positionsbestimmung des Flugkörpers relativ zum Ziel vorzunehmen. Diese Information über die ungefähre Position des Flugkörpers wird dann dazu verwendet, das dreidimensionale Anflug-Referenzmodell in ein aktuell von einer Bilderfassungseinrichtung 20 im Suchkopf 2 des Flugkörpers aufgenommenes Bild zu projizieren. Durch den dann folgenden Abgleich dieses Bildes mit der Projektion des dreidimensionalen Anflug-Referenzmodells wird in analoger Weise wie dies bereits oben in Bezug auf den Figurenteil 1A beschrieben worden ist, die genaue Position und Lage des Flugkörpers relativ zum Zielpunkt berechnet. Auf diese Weise werden auch für den Flugkörper die Ungenauigkeiten bei der Messung seiner Position mittels des Satellitennavigationssystems und des Inertial-Navigationssystems kompensiert, was zu einem präziseren Treffen des Zielobjekts führt.
  • Auch wenn in der vorstehenden Beschreibung zum einfacheren Verständnis ausgeführt worden ist, dass das entsprechende dreidimensionale Referenzmodell in ein aktuell von einer Bilderfassungseinrichtung (des Aufklärungsgeräts oder des Flugkörpers) erfasstes Bild projiziert wird und gegebenenfalls auf einem Monitor angezeigt wird, so ist es nicht zwingend erforderlich, diese Projektion und die Anzeige auf einem Monitor vorzunehmen. Es ist bereits ausreichend, wenn die entsprechenden Daten des Referenzmodells und des Bildes in einer Rechnereinrichtung zusammengeführt werden und der entsprechende Abgleich zwischen den abweichenden Relativlagen des aufgenommenen Bildes und der Szene des Referenzmodells ausschließlich in einer Rechnereinrichtung des Aufklärungsgeräts beziehungsweise des Flugkörpers erfolgt.
  • Auch wenn in der vorstehenden Beschreibung zum einfacheren Verständnis immer von einem Flugkörper und einem Suchkopf gesprochen wird, so kann stattdessen auch ein anderer Waffenträger, beispielsweise ein Hubschrauber oder ein Flugzeug, mit geeignetem Gerät zur Bilderfassung und zum Abgleich des Referenzmodells mit dem erfassten Bild eingesetzt werden.
  • Bezugszeichen in den Ansprüchen, der Beschreibung und den Zeichnungen dienen lediglich dem besseren Verständnis der Erfindung und sollen den Schutzumfang nicht einschränken.
  • Bezugszeichenliste
  • 1
    Aufklärungsgerät
    2
    Suchkopf
    10
    Bilderfassungseinrichtung von 1
    20
    Bilderfassungseinrichtung von 2
    Z
    Zielobjekt

Claims (10)

  1. Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem aus einer von diesem beabstandeten Beobachtungsposition mit den Schritten: a) Bereitstellen eines dreidimensionalen Referenzmodells der Umgebung des Zielobjekts mit bekannten geografischen Ortsdaten; b) Abgleichen eines sich von der Beobachtungsposition für einen Beobachter ergebenden Bildes des Zielobjekts und von dessen Umgebung mit dem Referenzmodell; und c) Bestimmen der Positionsdaten des anvisierten Zielobjekts im Referenzmodell als relative Positionsdaten zu bekannten Ortsdaten des Referenzmodells.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das in Schritt a) bereitgestellte Referenzmodell aus Luftaufnahmen und/oder Satellitenaufnahmen des Zielobjekts und seiner Umgebung gewonnen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das in Schritt a) bereitgestellte Referenzmodell aus Radar- oder Lidar-Messungen des Zielobjekts und/oder seiner Umgebung gewonnen wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Abgleich des Bildes des Zielobjekts und von dessen Umgebung mit dem Referenzmodell in Schritt b) in den folgenden Teilschritten erfolgt: b1) Bilden eines dreidimensionalen Linienmodells aus dem dreidimensionalen Referenzmodell; b2) Projizieren des Linienmodells aufgrund einer groben Positions- und Lagehypothese in das von einer Bilderfassungseinrichtung aufgenommene Bild des Zielobjekts und von dessen Umgebung; b3) Abgleichen der Linien des dreidimensionalen Linienmodells mit aus dem Bild extrahierten Liniensegmenten; und b4) Berechnen einer Korrektur der Positions- und Lagehypothese aus dem Abgleich wobei die in Schritt b4) ermittelte Korrektur bei der Bestimmung der Positionsdaten des Zielobjekts in Schritt c) berücksichtigt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung der Positionsdaten des Zielobjekts aus den Ortsdaten des Referenzmodells im Schritt c) folgende Teilschritte durchgeführt werden: c1) Bestimmen der geografischen Positionsdaten der Beobachtungsposition; c2) Bestimmen der Positionsdaten des Zielobjekts relativ zu den Positionsdaten der Beobachtungsposition; c3) Ermittlung der relativen Positionsdaten des Zielobjekts in Bezug auf das Referenzmodell.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Bestimmung der Positionsdaten des Zielobjekts relativ zu den Positionsdaten der Beobachtungsposition im Schritt c2) dadurch erfolgt, dass von der Beobachtungsposition aus eine auf das Zielobjekt gerichtete Entfernungsmessung, vorzugsweise Laser-Entfernungsmessung, durchgeführt wird, wobei die bei der Entfernungsmessung ermittelte Richtung und Entfernung zur Bestimmung der Positionsdaten des Zielobjekts herangezogen werden.
  7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zur Bestimmung der Positionsdaten des Zielobjekts aus den Ortsdaten des Referenzmodells im Schritt c) von der an der Beobachtungsposition befindlichen Bilderfassungseinrichtung ein virtueller Sichtstrahl definiert wird, der beispielsweise der optischen Achse der Bilderfassungseinrichtung entspricht, und dass die Koordinaten des von diesem Sichtstrahl auf dem Zielobjekt abgebildeten Zielpunkts im Referenzmodell als Positionsdaten des Zielobjekts bestimmt werden.
  8. Verfahren zur Führung eines fliegenden Waffensystems zu einem Zielobjekt und zur Ausrichtung einer Waffe auf das Zielobjekt, wobei zunächst die Positionsdaten des Zielobjekts in einem Referenzsystem als relative Positionsdaten in einem Referenzmodell gemäß einem der vorhergehenden Ansprüche bestimmt werden und wobei dann zur Führung des Flugkörpers folgende Schritte durchgeführt werden: aa) Erfassen eines Bildes des Zielobjekts und von dessen Umgebung mit einer an Bord des Flugkörpers vorgesehenen Bilderfassungseinrichtung; bb) Abgleichen des in Schritt aa) gewonnenen Bildes mit dem dreidimensionalen Referenzmodell; cc) Bestimmen der Positionsdaten der Bilderfassungseinrichtung und damit des Flugkörpers relativ zu den Positionsdaten des Zielobjekts und dd) Steuern des Flugkörpers in das Zielobjekt unter Verwendung der in Schritt cc) ermittelten Relativlage des Flugkörpers zum Zielobjekt.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das fliegende Waffensystem ein unbemannter Flugkörper ist, der mittels des Verfahrens in das Zielobjekt gesteuert wird.
  10. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das fliegende Waffensystem ein mit zumindest einer Waffe versehenes Luftfahrzeug ist, dessen Waffe mittels des Verfahrens auf das Zielobjekt ausgerichtet wird.
DE102010018143A 2010-04-24 2010-04-24 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem Withdrawn DE102010018143A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102010018143A DE102010018143A1 (de) 2010-04-24 2010-04-24 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
EP11002853.7A EP2381208B1 (de) 2010-04-24 2011-04-06 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
ES11002853T ES2755024T3 (es) 2010-04-24 2011-04-06 Procedimiento para determinar datos de posición de un objeto objetivo en un sistema de referencia
IL212320A IL212320A0 (en) 2010-04-24 2011-04-13 Method for determining position data of a target object in a reference system
US13/091,664 US9453708B2 (en) 2010-04-24 2011-04-21 Method for determining position data of a target object in a reference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010018143A DE102010018143A1 (de) 2010-04-24 2010-04-24 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem

Publications (1)

Publication Number Publication Date
DE102010018143A1 true DE102010018143A1 (de) 2011-10-27

Family

ID=44262648

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010018143A Withdrawn DE102010018143A1 (de) 2010-04-24 2010-04-24 Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem

Country Status (5)

Country Link
US (1) US9453708B2 (de)
EP (1) EP2381208B1 (de)
DE (1) DE102010018143A1 (de)
ES (1) ES2755024T3 (de)
IL (1) IL212320A0 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014000436A1 (de) 2014-01-16 2015-07-16 Mbda Deutschland Gmbh Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
EP3200154A1 (de) * 2016-01-26 2017-08-02 Diehl Defence GmbH & Co. KG Verfahren zum bestimmen einer position eines objekts
CN111288968A (zh) * 2020-03-26 2020-06-16 中国科学院长春光学精密机械与物理研究所 一种基于主动搜索策略的空间目标自动化测量系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013400686B2 (en) * 2013-09-20 2018-11-08 Caterpillar Inc. Positioning system
AU2013400684B2 (en) 2013-09-20 2018-05-17 Caterpillar Inc. Positioning system using radio frequency signals
CN104833342B (zh) * 2015-03-09 2017-04-19 深圳市魔眼科技有限公司 一种多点测距建立立体模型的移动终端及方法
CN110672071B (zh) * 2019-10-25 2021-05-04 武昌理工学院 一种探测弧面板逐层分布式探测方法
DE102022000723A1 (de) * 2022-03-01 2023-09-07 Diehl Defence Gmbh & Co. Kg Vorrichtung zur Zielübergabe

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH675638A5 (en) * 1987-09-11 1990-10-15 Contraves Ag Opto-electronic aircraft identification system - uses comparison of actual two=dimensional image of aircraft with projection of aircraft model
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US7397970B2 (en) * 2004-12-07 2008-07-08 Lockheed Martin Corporation Automatic scene correlation and identification
US20060210169A1 (en) * 2005-03-03 2006-09-21 General Dynamics Advanced Information Systems, Inc. Apparatus and method for simulated sensor imagery using fast geometric transformations
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
US8306273B1 (en) * 2009-12-28 2012-11-06 Ball Aerospace & Technologies Corp. Method and apparatus for LIDAR target identification and pose estimation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014000436A1 (de) 2014-01-16 2015-07-16 Mbda Deutschland Gmbh Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
EP2897102A1 (de) 2014-01-16 2015-07-22 MBDA Deutschland GmbH Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
EP3200154A1 (de) * 2016-01-26 2017-08-02 Diehl Defence GmbH & Co. KG Verfahren zum bestimmen einer position eines objekts
CN111288968A (zh) * 2020-03-26 2020-06-16 中国科学院长春光学精密机械与物理研究所 一种基于主动搜索策略的空间目标自动化测量系统
CN111288968B (zh) * 2020-03-26 2021-02-26 中国科学院长春光学精密机械与物理研究所 一种基于主动搜索策略的空间目标自动化测量系统

Also Published As

Publication number Publication date
IL212320A0 (en) 2011-06-30
EP2381208A1 (de) 2011-10-26
US20110262008A1 (en) 2011-10-27
EP2381208B1 (de) 2019-09-11
US9453708B2 (en) 2016-09-27
ES2755024T3 (es) 2020-04-21

Similar Documents

Publication Publication Date Title
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
EP2527792B1 (de) Verfahren zur Pilotenunterstützung für die Landung eines Luftfahrzeugs unter Sichtbehinderungen
DE69333693T2 (de) Leit- und Zielführungssystem
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
DE3927851A1 (de) System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung
DE3937427A1 (de) Bildverarbeitungsgeraet
EP2431708A1 (de) Geodätisches Vermessungssystem mit in einer Fernbedieneinheit integrierter Kamera
EP2060873B1 (de) Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102011016521B4 (de) Verfahren zur Flugführung eines Flugzeugs zu einem vorgegebenen Zielobjekt und Flugführungssystem
DE102015007028A1 (de) Verfahren zur Fokussierung eines hochenergetischen Strahls auf einem Haltepunkt auf der Oberfläche eines fliegenden Flugobjekts
WO2013171069A1 (de) Verfahren zur fahrzeuglokalisierung
DE102011010987A1 (de) Navigationsverfahren für einen Flugkörper
DE102021101877A1 (de) System für die Luftbilderfassung unter Verwendung einer Drohne, die einem Zielfahrzeug folgt, auf der Grundlage von bestärkendem Lernen
EP2897102B1 (de) Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE3626030C2 (de) Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE102007018187B4 (de) Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
EP4148386A1 (de) Ermittlung einer absoluten initialposition eines fahrzeugs
DE102016110477A1 (de) Verfahren zum Positionieren eines insbesondere unbemannten Luftfahrzeuges mit Hilfe einer aktiven statischen Bodenstation sowie Luftfahrzeug und Bodenstation zur Durchführung des Verfahrens
DE102016106707B4 (de) Flugzeug mit mehreren Umgebungskameras
EP3367045A1 (de) Verfahren und vorrichtung zur verbesserung der präzision von feuerleitlösungen
DE102015205788A1 (de) System zur Justierung der Sichtachsen eines Gefechtsfahrzeugs sowie Verfahren dazu
DE3409318A1 (de) Von einem hubschrauber getragenes system zur lokalisierung eines zieles und zur bestimmung der parameter der verlagerung dieses zieles, sowie verfahren zum betrieb dieses systems

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: MBDA DEUTSCHLAND GMBH, DE

Free format text: FORMER OWNER: LFK-LENKFLUGKOERPERSYSTEME GMBH, 86529 SCHROBENHAUSEN, DE

Effective date: 20130307

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee